https://www.youtube.com/watch?v=2gw5tE2ziqA&list=PL1w8k37X_6L9t36xF0lt0kpHWJemk3uwr&index=36

Deep L-Layer Neural Network (C1W4L01)

image
image


https://www.youtube.com/watch?v=qzPQ8cEsVK8&list=PL1w8k37X_6L9t36xF0lt0kpHWJemk3uwr&index=37

Forward and Backward Propagation (C1W4L02)

image
image
image


https://www.youtube.com/watch?v=a8i2eJin0lY&list=PL1w8k37X_6L9t36xF0lt0kpHWJemk3uwr&index=38

Forward Propagation in a Deep Network (C1W4L03)

image
image

위의 그림은 위위그림과 거의 같다. 다만 layer들을 순차적으로 반복 진행하는 부분을 위해 for loop을 추가 해주고 맨위공식에 vectorization된 변수를 수정했다.


https://www.youtube.com/watch?v=yslMo3hSbqE&list=PL1w8k37X_6L9t36xF0lt0kpHWJemk3uwr&index=39

Getting Matrix Dimensions Right (C1W4L04)

image

위 그림은 단 하나의 데이터표본을 예로 어떻게 matrix의 크기가 유지되어야하는지 보여주고 있다. 최종공식은 우측녹색 [ 를 참조한다.

image

단하나가 아닌 여러개의 데이터표본의 경우를 예로 들고 있다. 위위의 그림과 유사하나 m이 1대신에 들어간것을 여러군데에서 확인할수 있다. 


https://www.youtube.com/watch?v=5dWp1mw_XNk&list=PL1w8k37X_6L9t36xF0lt0kpHWJemk3uwr&index=40

Why Deep Representations? (C1W4L05)


https://www.youtube.com/watch?v=B7-iPbddhsw&index=41&list=PL1w8k37X_6L9t36xF0lt0kpHWJemk3uwr

Building Blocks of a Deep Neural Network (C1W4L06)

forward propagation할때 z값을 cache해서 저장한다음 backward propagation 계산에 사용한다.

위위 그림의 내용을 좀더 확장한 내용이다. cache할때 z값뿐만아니라 w, b값도 같이 저장해 주면 좋다.


https://www.youtube.com/watch?v=VTE2KlfoO3Q&list=PL1w8k37X_6L9t36xF0lt0kpHWJemk3uwr&index=42

Parameters vs Hyperparameters (C1W4L07)

최적의 parameters w , b를 구하는 것이 개발자의 최종 목적이다. parameters를 구하는 과정에서 최적의 parameters는 hyperparameter에 따라 변경된다. 위그림은 다양한 hyperparameter의 예들을 보여준다. hyperparameter 를 구하는 과정에서 많은 시행 착오를 거쳐야한다. 실질적 경험( empirical process )만이 최적의 hyperparameter 를 최단시간내에 구할수 있다. 


https://www.youtube.com/watch?v=2zgon7XfN4I&list=PL1w8k37X_6L9t36xF0lt0kpHWJemk3uwr&index=43

What does this have to do with the brain? (C1W4L08)

Comments are closed.

Post Navigation