Main Questions on HMM

- Given the topology of the bayseian network, HMM, or M
π는 initial state, latent state를 정의할때 쓰이는 parameter
a는 어느 state에서 다음 state로 transitional 할 때의 probability
b는 어떤 특정 state에서 observation이 generated 되서 나올 probability
X는 우리가 가지고 있는 관측값
- 1. Evaluation question
- Given π,a,b,X
- Find P(X|M,π,a,b)
- how much is X likely to be observed in the trained model?
(HMM의 구조를 가지고 X가 generated 되었다고 가정한 경우 얼마나 likely한 observation 인지?)
-> 모델과 파라미터들이 주어졌을 때, 실제로 관찰 변수 X로 관찰될 확률
- 2. Decoding question
- Given π,a,b,X
- Find argmaxzP(Z|M,π,a,b)
- What would be the most probable sequences of latent states?
(HMM의 structrue를 가정하고, 데이터셋의 observation과 모든 parameter를 다 아는 경우 보이는 데이터를 가장 잘 설명할 수 있는 latent vector들의 흐름을 알아내야 함)
- 3. Learning question
- Given X
- Find argmaxπ,a,bP(X|M,π,a,b)
- What would be the underlying parameters of the HMM given the obsevations?
(파라미터를 모르는 상태에서 주어진 데이터가 보일 확률을 가장 maximize하는 π,a,b를 찾아내야 함)
- Decoding questions and learning questions are veryy similar to
- Supervised and unsupervised learning
- Anyway, we often need to find π,a,b prior to the supervised learning with X
Example
- 강원랜드에서 주사위 던지기를 하는데 조작된 주사위(loaded dice, L)와 일반 주사위(fair dice, F)를 던짐
- P(L→L)=P(Zt+1=L|Zt=L)=>a
- P(Xt=1|Zt=L)=>b (mle를 쓰든, map를 쓰든)
- π,a,b를 X와 M이 주어진 상황에서 구할 수 있음
Joint Probability

- hidden markov 모델도 훌륭한 baysian network 모델
- Can we comput the joint probability, P(X, Z)
- Yes, Easily by the virtue of the network structure
- Anyway, a Bayesian network, so
- Factorize
- P(X,Z)=P(x1,⋯xt,z1,⋯,zt)
- =P(z1)P(x1|z1)P(z2|z1)P(x2|z2)P(z3|z2)P(x3|z3)
- Nothing but a combination of initial, transition, and emission probabilities
- =πidx(z1=1)bidx(x1=1),idx(z1=1),aidx(z1=1),idx(z2=1)⋯
Marginal Probability
- Eventually, we only want to use X and marginalize Z
- In HMM, P(X|π,a,b)=∑ZP(X,Z|π,a,b)
- Need to avoid a repretitive computing
- compute only necessary terms for a single time
- Let's work on the fomula P(A,B,C)=P(A)P(B|A)P(C|A,B) (아무런 조건이 없어도 사용 가능)
- now, we see a repeating structure of terms
- P(x1,⋯,xt,zkt=1)=αkt=bk,xt∑iαit−1ai,k
'기계학습 > 인공지능및기계학습개론정리' 카테고리의 다른 글
Sampling Based Inference(Forward/Rejection/Importance Sampling) (0) | 2020.11.26 |
---|---|
Hidden Markov Model (2. For-Backward Prob. Calculation/ Viterbi Decoding Algorithm) (0) | 2020.11.19 |
Bayesian Network (0) | 2020.11.03 |
Naive Bayes Classifier + Logistic Regression (parameter approximation) (0) | 2020.08.27 |
MLE(Maximum Likelihood Estimator) vs MAP(Maximum A Posterior) (0) | 2020.08.27 |