天天看點

統計學習--HMM

隐馬爾可夫模型的定義:

HMM 是關于時序的機率模型,描述由一個隐藏的馬爾可夫鍊随機生成不可觀測的狀态随機序列,再由各個狀态生成一個觀測而産生觀測随機序列的過程。(p171)

隐藏的馬爾可夫鍊随機生成的狀态的序列,稱為狀态序列。

每個狀态生成一個觀測,而由此産生的觀測的随機序列,稱為觀測序列。

序列的每一個位置又可以看作是一個時刻 t。

隐馬爾可夫模型由初始機率分布( π \pi π)、狀态轉移機率分布(A)以及觀測機率分布(B)确定。

  1. 一個模型:HMM三要素:

    A = [ a i j ] N ∗ N A=\left[ a_{ij} \right]_{N*N} A=[aij​]N∗N​,其中, a i j = P ( i t + 1 = q j ∣ i t = q i ) , i = 1 , 2 , . . . , N a_{ij}= P(i_{t+1}=q_j | i_t = q_i),i=1,2,...,N aij​=P(it+1​=qj​∣it​=qi​),i=1,2,...,N

    B = [ b j ( k ) ] N ∗ M B=\left[ b_j(k) \right]_{N*M} B=[bj​(k)]N∗M​,其中, b j ( k ) = P ( o t = v k ∣ i t = q j ) , k = 1 , 2 , . . . , M ; j = 1 , 2 , . . . , N b_j(k) = P(o_t = v_k | i_t = q_j),k=1,2,...,M;j=1,2,...,N bj​(k)=P(ot​=vk​∣it​=qj​),k=1,2,...,M;j=1,2,...,N

    π = ( π i ) \pi = (\pi_i) π=(πi​),其中, π i = P ( i 1 = q i ) , i = 1 , 2 , . . . , N \pi_i = P(i_1=q_i),i=1,2,...,N πi​=P(i1​=qi​),i=1,2,...,N

  2. HMM兩個基本假設

    齊次馬爾可夫性假設,即t 時刻狀态隻依賴于t-1時刻,與其他狀态或觀測無關。

    觀測獨立性假設,即任意時刻的觀測隻依賴于該時刻的狀态。

    例子》 盒子和球

  3. HMM的3個基本問題
    統計學習--HMM

    (1)evalution: 機率計算問題

    直接計算法、前向算法、後向算法

    (2)learning:學習問題

    監督學習算法:根據觀測和狀态序列計算頻數,進而求得頻率,最終求得到A、B、 π \pi π

    非監督學習算法:(Baum-Welch算法,即EM)目标也是學習HMM模型 λ = ( A , B , π ) \lambda=(A,B,\pi) λ=(A,B,π)的參數

    (3)decoding:預測問題,也叫解碼問題。

    近似算法:在每個時刻t 選擇該時刻最有可能出現的狀态 i t ∗ i_t^{*} it∗​,進而得到一個狀态序列 I ∗ = ( i 1 ∗ , i 2 ∗ , … , i T ∗ ) I^{*} = (i_1^{*},i_2^{*},\dots,i_T^{*}) I∗=(i1∗​,i2∗​,…,iT∗​),将它作為預測的結果。

    維特比算法:

    動态規劃解隐馬爾可夫模型預測問題,即用動态規劃求機率最大路徑(最優路徑),這時一條路徑對應一個狀态序列。

    初始化

    遞歸:

    終止:最大機率

    回溯:上一個節點

總結————————————————

Dynamic Model

—HMM( mixture + time )

統計學習--HMM
統計學習--HMM
統計學習--HMM

參考:

白闆推導

統計學習--HMM

主要涉及5個算法:

Baum-Welch/ EM

Viterbi algorithm

Forward Algorithm

Backward Algorithm

Forward-Backward Algorithm

繼續閱讀