반응형
Notice
Recent Posts
Recent Comments
Link
목록forward propagation (1)
안 쓰던 블로그
역 드롭아웃 inverted dropout 구현 시 추가 값을 곱하는 이유
dropout을 적용한 forward propagation(순전파)을 계산할 때 주의할 점이 있다. 최종 cost가 dropout을 사용하지 않았을 때와 동일한 값을 유지하도록 마지막에 keep_prob값으로 나눠주는 것이다. 아래 순전파 코드가 있다. # GRADED FUNCTION: forward_propagation_with_dropout def forward_propagation_with_dropout(X, parameters, keep_prob = 0.5): """ Implements the forward propagation: LINEAR -> RELU + DROPOUT -> LINEAR -> RELU + DROPOUT -> LINEAR -> SIGMOID. Arguments: X -- inp..
머신러닝/머신러닝
2021. 8. 31. 15:26