티스토리 뷰
1. SoftMax 함수가 왜 필요한가?
- 하나의 샘플 데이터에 대한 예측 값으로 모든 가능한 정답지에 대해서 정답일 확률의 합이 1이 되도록하는 것
- 즉 소프트맥스 함수란? 분류해야하는 정답지(클래스)의 총 개수를 k라고 할때, k 차원의 벡터를 입력 받아 각 클래스에 대한 확률을 추정하는것.
- $k$차원의 벡터에서 i번째 원소를 $z_i$, i번째 클래스가 정답인 확률 $p_i$라고 하였을 때 소프트 맥스 함수 $p_i$는 다음과 같이 정의
$p_i = \frac{e^z_i}{\sum e^z_j }$
2. SoftMax 함수 종류
• Softmax
우리가 알고 있는 일반적인 Softmax 함수, 모든 항목의 가중치가 0이 아닌 고밀도 결정 규칙을 학습
• Gumbel-Softmax (Jang et al., 2016)
- 세트에서 단일 요소를 확률 적으로 샘플링하는 방법을 학습
- 언어모델, 어텐션 매커니즘, 강화학습 등에서 이산확률변수 모델 필요성, 하지만 NN을 가지고 이산확률변수를 표현하는것은 어려움, 역전파 알고리즘으로 미분 불가능인 레이어 학습 할 수 없고 몬테카를로 방식으로 이산적인 연산의 gradient 추청할 수 있지만 큰 varience 인해 학습 불안정하기 때문에 Gumble Softmax 필요
• Sparsemax (Martins & Astudillo, 2016)
- 몇 가지 항목만있는 희소 결정 규칙을 학습, 0이 아닌 가중치가 있음
- sparse version의 softmax이며 대부분의 확
• Entmax (Peters et al., 2019)
- sparsemax와 softmax를 모두 일반화
- sparse 학습
- 결정 규칙이지만 sparsemax보다 부드럽기 때문에 그래디언트 기반 최적화에 더 적합
'인공지능 > 머신러닝' 카테고리의 다른 글
[ML Algorithm] 클래스 불균형 Imbalanced Data (0) | 2020.12.13 |
---|---|
[ML Algorithm] 통계기반분석 (0) | 2020.12.12 |
[ML Algorithm] Neural Oblivious Decision Ensembles(NODE) (0) | 2020.10.05 |
[Math] 데이터 분석에 있어서의 확률 분포와 모수 추정 (0) | 2020.06.13 |
[Math] 모수 추정 방법론인 최대 우도 추정법 (Maximum Likelihood Estimation)이란? (0) | 2020.06.11 |