http://www-preview.ri.cmu.edu/pub_files/pub3/yang_jie_1994_1/yang_jie_1994_1.pdf


HMM을 이용한 제스쳐 인식에 대해 잘 설명 되어 있는 것 같음

지금 읽는 중

Posted by 공놀이나하여보세

결국 YAHMM라이브러리로 사용하기로 결정~!!

아래에 자세한 설명이 있고,

https://pypi.python.org/pypi/yahmm/0.1.1


'패턴인식 - 오일식 저'의 평가, 디코딩, 학습에 대한 설명도 있다.

*평가, 디코딩, 학습에 대한 예제가 뭔지 모르는 사람은 wiki에도 있으니 확인 : http://en.wikipedia.org/wiki/Hidden_Markov_model#A_concrete_example

코드 설명 : https://github.com/jmschrei/yahmm/wiki


설치 방법도 쉽다.

그냥 

pip install yahmm

끝~!!


소스코드는 아래와 같다.

Baum-Welch 알고리즘도 구현이 됐다고 하는데 내가 책에서 봤던 것 처럼 최적화된 모델을 찾아준 건지는 모르겠다.

최적화된 모델을 찾았다면 그 모델에 대한  A, B, 초기확률 을 찾아줘야 할 것 같은데 그게 아니다.

이 부분에 대해서는 좀 더 공부를 해 봐야할 것 같다.


# rainy_sunny_hmm.py

# Contact: Jacob Schreiber

#   jmschreiber91@gmail.com


"""

Example rainy-sunny HMM using yahmm. Example drawn from the wikipedia HMM

article: http://en.wikipedia.org/wiki/Hidden_Markov_model describing what

Bob likes to do on rainy or sunny days.

"""


from yahmm import *

import random

import math


random.seed(0)


model = Model( name="Rainy-Sunny" )


# Emission probabilities

rainy = State( DiscreteDistribution({ 'walk': 0.1, 'shop': 0.4, 'clean': 0.5 }), name='rainy')

sunny = State( DiscreteDistribution({ 'walk': 0.6, 'shop': 0.3, 'clean': 0.1 }), name='sunny' )


# Add the states to the model

model.add_state( rainy )

model.add_state( sunny )


model.add_transition( model.start, rainy, 0.6 )

model.add_transition( model.start, sunny, 0.4 )


# Transition matrix, with 0.05 subtracted from each probability to add to

# the probability of exiting the hmm

model.add_transition( rainy, rainy, 0.7 )

model.add_transition( rainy, sunny, 0.3 )

model.add_transition( sunny, rainy, 0.4 )

model.add_transition( sunny, sunny, 0.6 )


# Finalize the model structure

model.bake( verbose=True )


# Lets call Bob every hour and see what he's doing!

# (aka build up a sequence of observations)

sequence = [ 'walk', 'walk', 'clean', 'shop']


print 'Evaluation : ', math.e**model.log_probability(sequence)

print 'Observation : ', sequence

logp, path = model.viterbi(sequence)


for i in range(4):

    if(i == 0):

        print 'Decoding : [', \

    

    if(path[i+1][0]==0):

        print "'Rainy'", \

        

    else:

        print "'Sunny'", \


print ']\n'


model.train( [sequence], algorithm='baum-welch' )

print math.e**model.log_probability(sequence)

print 'sequence : ', sequence

logp, path = model.viterbi(sequence)

print path


Posted by 공놀이나하여보세

내가 하고 싶은 문제에 대한 코드가 user guide에는 제대로 나와 있지 않아 검색해보다가 제대로 된 예제코드가 있어서 아래에 주소를 남겨 두었다.

http://sujitpal.blogspot.kr/2013/03/the-wikipedia-bob-alice-hmm-example.html


예제코드는 아래의 예제를 코딩한 것이라고 하는데 관측확률 입력값만 다를 뿐 모든 것이 '패턴인식-오일식 저'의 예제 7.4 여자친구의 삶과 동일했다.

http://en.wikipedia.org/wiki/Hidden_Markov_model#A_concrete_example


위 예제에서는 디코딩에 대한 예제만 있어서 이 예제에서 했던 방식을 통해  guide를 참고하여 7.4.1 평가 문제까지 풀었다.

guide출처 : http://scikit-learn.org/0.6/modules/generated/scikits.learn.hmm.MultinomialHMM.html

7.4.3 학습은 다음에 다루겠다.


코드 내용은 아래와 같다.

from __future__ import division

import numpy as np

from hmmlearn import hmm


states = ["Rainy", "Sunny"]

n_states = len(states)


observations = ["walk", "shop", "clean"]

n_observations = len(observations)


start_probability = np.array([0.6, 0.4])


transition_probability = np.array([

  [0.7, 0.3],

  [0.4, 0.6]

])


emission_probability = np.array([

  [0.1, 0.4, 0.5],

  [0.6, 0.3, 0.1]

])


model = hmm.MultinomialHMM(n_components=n_states)

model._set_startprob(start_probability)

model._set_transmat(transition_probability)

model._set_emissionprob(emission_probability)


# predict a sequence of hidden states based on visible states

#bob_says = [0, 2, 1, 1, 2, 0]

bob_says = [0, 0, 2, 1]


prob, arr = model.eval(bob_says)

#print model.decode(bob_says)

print "evaluation : ", exp(prob)


logprob, alice_hears = model.decode(bob_says, algorithm="viterbi")

print "Bob says:", ", ".join(map(lambda x: observations[x], bob_says))

print "Alice hears:", ", ".join(map(lambda x: states[x], alice_hears))


mode.eval은 log를 취한 값을 return해 주기 때문에 지수함수를 취한 값을 최종 결과 값으로 생각하면 된다.


이로써 내가 하려고 했던 평가와 디코딩에 대한 코딩 실험이 끝났다.

이제 학습을 공부할 차례인다.


Posted by 공놀이나하여보세