반응형
Notice
Recent Posts
Recent Comments
Link
목록역전파 (2)
안 쓰던 블로그
역 드롭아웃 inverted dropout 구현 시 추가 값을 곱하는 이유
dropout을 적용한 forward propagation(순전파)을 계산할 때 주의할 점이 있다. 최종 cost가 dropout을 사용하지 않았을 때와 동일한 값을 유지하도록 마지막에 keep_prob값으로 나눠주는 것이다. 아래 순전파 코드가 있다. # GRADED FUNCTION: forward_propagation_with_dropout def forward_propagation_with_dropout(X, parameters, keep_prob = 0.5): """ Implements the forward propagation: LINEAR -> RELU + DROPOUT -> LINEAR -> RELU + DROPOUT -> LINEAR -> SIGMOID. Arguments: X -- inp..
머신러닝/머신러닝
2021. 8. 31. 15:26
logistic regression back propagation derivative (로지스틱 회귀의 역전파 미분 유도 과정)
logistic regression back propagation derivative 로지스틱 회귀 역전파 미분 유도 로지스틱 회귀 역전파를 구하면 다음과 같다 $$da=-\frac{y}{a}+\frac{1-y}{1-a}$$ $$dz=a-y$$ $$dw=dz x$$ $$db=dz$$ $x$ 는 고정값이므로 $dx$ 를 구하지 않는다 검은색 식은 순전파 때의 식 1. $\frac{\partial L}{\partial a}$ 구하기 2. $\frac{\partial a}{\partial z}$ 구하기 3. $\frac{\partial L}{\partial z}$ 구하기
머신러닝/머신러닝
2021. 8. 21. 16:16