활성화 기능
활성화 함수
지금까지 NN 을 구성할 때 sigmoid 함수만 사용 해왔는데, 말고도 여러가지 활성 함수가 있음
- tanh
tanh(z)=ez+e−zez−e−z

- sigmoid 함수의 평행이동, 스케일링 버전
- sigmoid 보다 대부분의 경우에서 더 잘 작동함
- 데이터의 평균이 0에 가까워지기 때문에 데이터를 중심에 위치시키기 유리함
- ReLU
ReLU(z)=max(0,z)

- Leaky ReLU
α=0.01Leaky ReLU(z)=max(αz,z)

sigmoid 함수는 대부분 출력 레이어의 활성 함수로만 사용됨
어떤 활성 함수를 사용해야할지 모를때는, 여러 활성 함수를 사용해보고 평가해 볼 것