관리 메뉴

Storage Gonie

모두를 위한 딥러닝 제15강 ML lec 6-2: Softmax classifier 의 cost함수 본문

데이터 사이언스/모두를 위한 딥러닝

모두를 위한 딥러닝 제15강 ML lec 6-2: Softmax classifier 의 cost함수

Storage Gonie 2018. 9. 14. 22:16
반응형

# Softmax 함수

# Softmax classifier의 Cost 함수(Cross-Entropy함수라고 부름)

- S(y)는 Z를 Softmax에 통과시킨 값, L은 label값


# Softmax classifier의 Cost 함수의 작동원리

- Cost function은 기본적으로 맞았을 때는 0에 가까운 값이 나와야 하고 틀렸을 때는 큰 값을 줘야한다. 이런 면에서 아래와 같이 아주 잘 작동한다.

- 여기서 Y짝대기는 Softmax를 통과한 수를 의미함


1) Label 값이 0 1 로 B를 가리키고,
   Softmax를 통과한 예측된 값이 0 1 로 B를 가리키는 경우 Cost 값은 0 / Softmax를 통과한 예측된 값이 1 0 로 A를 가리키는 경우 Cost 값은 무한대

2) Label 값이 1 0 로 A를 가리키고, 

   Softmax를 통과한 예측된 값이 1 0 로 A를 가리키는 경우 Cost 값은 0 / Softmax를 통과한 예측된 값이 0 1 로 B를 가리키는 경우 Cost 값은 무한대


# Softmax classifier의 Cost 함수인 Cross entropy VS Logistic cost

- 모양은 다르지만 둘을 같은 식임.

- 두 식이 같은 이유는?





# Softmax classifier의 전체 Cost 구하기

- 전체 D를 구한다음 N으로 나눠주면 됨

- 여기서 S는 Softmax에 Z를 통과시켜주는 것을 의미함.

Softmax classifier에서의 Cost는 [Label 값]과 [Logistic Classifier를 Softmax에 통과시킨 값]을 이용한다.


그림참고 : https://youtu.be/jMU9G5WEtBc





반응형
Comments