1. Trang chủ
  2. » Giáo Dục - Đào Tạo

TIỂU LUẬN XỬ LÝ TÍN HIỆU NÂNG CAO ĐỀ TÀI: MÔ HÌNH MARKOV ẨN

16 7 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 16
Dung lượng 665,2 KB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

LỜI MỞ ĐẦU Mô hình Markov ẩntiếng Anh làHidden Markov Model-HMM làmô hình thống kêtrong đó hệ thống được mô hình hóa được cho là mộtquá trình Markovvới các tham số không biết trước và nh

Trang 1

HỌC VIỆN CÔNG NGHỆ BƯU CHÍNH VIỄN THÔNG

KHOA QUỐC TẾ VÀ SAU ĐẠI HỌC

-*** -

TIỂU LUẬN

XỬ LÝ TÍN HIỆU NÂNG CAO

HÀ NỘI, 10-2012

Học c : Đ VIỆT Đ C

NGUYỄN TRUNG KIÊN NGUYỄN THÀNH TRUNG

: TS NGUYỄN NGỌC MINH

Trang 2

MỤC LỤC

MỤC LỤC 1

LỜI MỞ ĐẦU 2

NỘI DUNG 3

1 Giới thiệu mô hình markov ẩn 3

2 Trình bày vấn đề 4

3 Thuật toán tiến – thuật toán lùi: 9

4 Thuật toán Viterbi 11

KẾT LUẬN 15

Trang 3

LỜI MỞ ĐẦU

Mô hình Markov ẩn(tiếng Anh làHidden Markov Model-HMM) làmô hình thống kêtrong đó hệ thống được mô hình hóa được cho là mộtquá trình Markovvới các tham số không biết trước và nhiệm vụ là xác định các tham số ẩn từ các tham

sốquan sátđược, dựa trên sự thừa nhận này Các tham số của mô hình được rút ra sau đó có thể sử dụng để thực hiện các phân tích kế tiếp, ví dụ cho các ứng dụng nhận dạng mẫu

Trong một mô hình Markov điển hình, trạng thái được quan sát trực tiếp bởi người quan sát, và vì vậy các xác suất chuyển tiếp trạng thái là các tham số duy nhất.Mô hình Markov ẩnthêm vào các đầu ra: mỗi trạng thái có xác suất phân bổ trên các biểu hiện đầu ra có thể Vì vậy, nhìn vào dãy của các biểu hiện được sinh ra bởiHMMkhông trực tiếp chỉ ra dãy các trạng thái

Đây là một mô hình toán thống kê có ứng dụng rộng rãi trong lĩnh vực nhận dạng giọng nói, lĩnh vực sinh học như nhận dạng gene hoặc phân loại protein; xử lý tín hiệu, xử lý hình ảnh và các ứng dụng khác liên quan đến chuỗi chuyển tiếp hoặc kết hợp các thành phần, dữ kiện Trong lĩnh vực điện, mô hình Markov được sử dụng như là 1 công cụ dự báo giá điện năng với các dữ liệu liên quan Chính vì được

áp dụng trong nhiều lĩnh vực đặc biệt là trong xử lý tín hiệu số nên chúng em chọn

đề tài về “mô hình Markov ẩn” làm hướng nghiên cứu

Trang 4

NỘI DUNG

1 Giới thiệu mô hình markov ẩn

Mô hình Markov ẩn là mô hình thống kê trong đó hệ thống được mô hình hóa được cho là một quá trình Markov với các tham số không biết trước và nhiệm vụ là xác định các tham số ẩn từ các tham số quan sát được Các tham số của mô hình được rút ra sau đó có thể được sử dụng để thực hiện các phân tích kế tiếp, ví dụ ứng dụng cho nhận dạng mẫu

Trong một mô hình Markov điển hình, trạng thái được quan sát được từ người quan sát, vì vậy các xác suất chuyển tiếp trạng thái là các tham số duy nhất Mô hình Markov ẩn thêm vào các đầu ra: mỗi trạng thái có xác suất phân bổ trên các biểu hiện có thể Vì vậy, nhìn vào dãy các biểu hiện được sinh ra bởi HMM không trực tiếp chỉ ra dãy các trạng thái

Chú ý: Quá trình Markov

Trong lí thuyết xác suất, quá trình Markov là một quá trình mang tính ngẫu nhiên (stochastic process) với đặc tính như sau: trạng thái c k tại thời điểm k là một giá trị trong tập hữu hạn {1,…,M} Với giả thiết rằng quá trình chỉ diễn ra từ thời điểm 0 đến thời điểm N và rằng trạng thái đầu tiên và trạng thái cuối cùng đã biết, chuỗi trạng thái sẽ được biểu diễn bởi 1 vecto hữu hạn C={c 0 ,…,c N } Nếu P(c k |

c 0 ,c 1 , ,c (k − 1) ) biểu diễn xác suất (khả năng xảy ra) của trạng thái c k tại thời điểm k khi đã qua mọi trạng thái cho đến (k-1) Giả sử trong thời điểm đó c k chỉ phụ thuộc vào trạng thái trước đó c k-1 và độc lập với các trạng thái trước khác Quá trình đó gọi là quá trình Markov bậc một(first order Markov process) Có nghĩa là xác suất

để xảy ra trạng thái c k tại thời điểm k, khi biết trước mọi trạng thái cho đến thời điểm k-1 chỉ phụ thuộc vào trạng thái trước, ví dụ trạng thái ck-1 tại thời điểm k-1 Khi đó ta có công thức:

P(c k | c 0 ,c 1 , ,c (k − 1) )= P(c k | c (k − 1) )

Nói tóm lại một hệ có thuộc tính Markov được gọi là quá trình Markov (bậc1) Như vậy, với quá trình Markov bậc n:

P(c k | c 0 ,c 1 , ,c (k − 1) )= P(c k | c k-n ,c k-n-1 ,…,c (k − 1) )

Nói chung với giả thuật Viterbi quá trình xảy ra bên dưới được xem là một quá trình Markov:

 Trạng thái hữu hạn nghĩa là số m là hữu hạn

Trang 5

 Thời gian rời rạc, nghĩa là việc chuyển từ trạng thái này sang trạng thái khác cùng mất một đơn vị thời gian

 Quan sát không tốn bộ nhớ, nghĩa là chuỗi các quan sát có xác suất chỉ phụ thuộc vào trạng thái ngay trước đó (nên không cần lưu bộ nhớ nhiều)

2 Trình bày vấn đề

 Phương pháp tiếp cận lí thuyết thông tin về nhận dạng:

Hình 1

Nhận dạng là tìm cách xác định được khả năng xảy ra lớn nhất của chuỗi ngôn ngữ,W, khi cho trước căn cứ âm A, Công thức:

) / ( max ) / (W A P W A P

W

 Theo luật Bayes:

) (

) ( ) / ( ) / (

A P

W P W A P A W

 Mô hình HMM quan tâm đến P(W|A)

 Kí hiệu:

P(A/W)  P(O/)

 Ví dụ1:

Trang 6

Hình 2

 Xét 3 chén, mỗi chén trộn giữa các các “đá trạng thái” 1 và 2

 Phân nhỏ chén thứ i thành 2 phần tỉ lệ ai1, ai2, khi đó ai1+ ai2=1

 Xét 2 bình, mỗi bình chứa các quả bóng đen, bóng trắng

 Chia bình thứ i thành 2 phần tỉ lệ biB, biW, với

 biB+ biW=1

 Vecto tham số cho mô hình này là:

= {a

01,a

02,a

11,a

12,a

21,a

22,b

1(B),b

1(W ),b

2(B),b

2(W )}

Hình 3

Chuỗi quan sát : O={B,W,B,W,W,B}

Chuỗi trạng thái: Q={1,1,2,1,2,1}

Mục đích: cho mô hình λ và chuỗi quan sát O, có thể làm thể nào để chuỗi trạng

thái Q được xác định

Các yếu tố của mô hình Markov ẩn rời rạc

 N : số trạng thái trong mô hình

Các trạng thái, s= {s1,s2,…,sN} Trạng thái ở thời điểm t, qt  s

Trang 7

 M: số kí hiệu quan sát (quan sát rời rạc)

Tập các kí hiệu quan sát v={v1,v2,…,vM}

Kí hiệu quan sát ở thời điểm t, ot v

 A= {aij}: tập phân phối xác suất chuyển trạng thái

aij = P(qt+1 = sj |qt = si ), 1 ≤ i,j ≤ N

 B = {bj (k)}: phân bổ xác suất kí hiệu quan sát ở trạng thái j:

bj (k)= P(vk at t|qt = sj ), 1 ≤ j ≤ N, 1 ≤ k ≤ M

 π = {πi }: phân bổ xác suất trạng thái khởi đầu

πi = P(q1= si ), 1 ≤ i ≤ N Một mô hình HMM được viết dưới dạng đặc trưng λ = {A, B,π}

 ví dụ 2:

π={a01,a02} A=

22 21

12 11

a a

a a

và B=

) ( ) (

) ( ) (

2 2

1 1

W b B b

W b B b

 Một số mô hình thông dụng:

Hình 4a: Mô hình 2 –state và 3-state

Hình 4b: Mô hình Left – Righ

Trang 8

Hình 4c: Mô hình Bakis

Hình 4d: Mô hình Tuyến tính

 Tạo chuỗi quan sát trong HMM

o Lựa chọn một trạng thái khởi đầu, q1=si, dựa trên phân bổ trạng thái khởi đầu, π

o Cho t chạy từ 1  T:

 Chọn ot=vk theo sự phân bổ xác suất kí hiệu trong trạng thái si, bi(k)

 Chuyển tiếp đến trạng thái mới qt+1=sj theo sự phân bổ xác suất sự chuyển tiếp trạng thái cho trạng thái si, aij

o Tăng t lên 1, quay lại bước 2 nếu t≤T; ngược lại thì kết thúc

Hình 5: Sự tiến hóa của mô hình Markov

Trang 9

 Biểu diễn sơ đồ trạng thái bằng sơ đồ mắt lưới(trellis)

Hình 6:( Những nét đứt thể hiện một sự chuyển tiếp trạng thái bằng 0, nơi mà

không có vecto quan sát nào được tạo ra.)

3 vấn đề cơ bản của HMM

Tính điểm (Scoring) : cho một chuỗi quan sát O = {o1,o2, ,oT } và một mô hình

λ = {A, B,π}, làm thế nào chúng ta có thể tính toán xác suất có điều kiện P(O | λ) (khả năng xảy ra của chuỗi quan sát)?

 Dùng thuật toán tiến lùi (the forward-backwark algorithm)

So khớp (Matching): cho một chuỗi quan sát O = {o1,o2, ,oT }, làm thế nào chúng ra có thể lựa chọn chuỗi trạng thái Q = {q1,q2, ,qT } để nó tối ưu theo một số hướng

 thuật toán Viterbi

Huấn luyện (Training): làm thế nào chúng ta có thể điều chỉnh các tham số của

mô hình λ = {A,B,π} để đạt được P(O | λ) lớn nhất?

Thủ tục Baum-Wetch

Tính toán P(O|λ)

P(O|λ)= 

allQ

Q O

P( , |)

P(O, Q |λ)= P(O|Q ,λ)P(Q |λ) Xét chuỗi trạng thái cố định Q = q1q2 qT

P(O|Q ,λ)= bq1(o1)bq2(o2) bqT (oT ) P(Q |λ)= πq1 aq1q2 aq2q3 aqT −1 qT

Trang 10

Vì vậy:

P(O|λ)= 

qT , , q2 q1,

T 1

2 2 2 1 1 1

1bq (o )aq q bq (o ) aqT - qTbqT (o )

q

Số phép tính cấn làm ≈ 2T.NT

(có NT chuỗi như vậy)

Ví dụ: N=5, T=100  2.100.5100 ≈ 1072 phép tính

3 Thuật toán tiến – thuật toán lùi:

 Toán tử tiến αt(t) là xác suất chuỗi quan sát từng phần tiến đến thời điểm t

và trạng thái si ở thời điểm t với điều kiện mô hình đã cho:

αt (i)= P(o1o2 ot,qt = si |λ)

 Dễ dàng thấy rằng:

 α1(i)= πibi (o1), 1 ≤ i ≤ N

 P(O|λ)=

 N

1 i

(i)

T

 Theo phương pháp quy nạp

αt+1 (j)=[

N

i t

1

ij a (i)

 ] bj (ot+1), 1≤ t≤ T-1, 1 ≤ j ≤ N

Số phép tính: N2T

Ví dụ: N=5,T=100,  52.100 phép tính,( thay vì 1072

)

 Diễn tả thuật toán tiến:

Hình 7

 Thuật toán lùi:

Trang 11

o Tương tự để xác định toán tử lùi, βt(i), khi khả năng xảy ra của chuỗi quan sát cục bộ từ thời điểm t+1 đến kết thúc, biết trước trạng thái si ở thời điểm t và với điều kiện mô hình đã cho

βt(i)= P(ot+1ot+2 oT |qt = si,λ)

o Có thể dễ dàng nhận ra rằng

βT(i)=1, 1 ≤ i ≤ N

và P(O|λ)=

N

1 i

1 1 i

i b (o )ß (i)

o Theo phương pháp quy nạp

βt(i)=

 N

1 j

1 + t 1 + t

j(o )ß (j) b

aij (t=T−1,T−2, ,1; 1 ≤ i≤N)

 Diễn tả thủ tục lùi:

Hình 8

 Tìm chuỗi trạng thái tối ưu:

+ Một tiêu chuẩn để lựa chọn trạng thái tối ưu qt là cực đại hóa số trạng thái đúng

+ Toán tử t (i) là xác suất của hệ thống ở trạng thái si tại thời điểm

t, với điều kiện cho chuỗi quan sát O và mô hình  đã cho:

) ,

| (

)

N

t

t i

1

1 ) (

+ Chú ý rằng nó có thể biểu diễn dưới dạng sau

)

| (

) ( ) ( ) (

O P

i i

Trang 12

+ Tuy nhiên với tiêu chuẩn tối ưu riêng phần thì xảy ra vấn đề là chuỗi trạng thái tối ưu có thể không tuân theo những ràng buộc chuyển

tiếp trạng thái

+ Một tiêu chuẩn tối ưu khác là cực đại hóa P(Q,O|) Điều này có thể tìm thấy bằng thuật toán Viterbi

+ Với t (i) là xác suất xảy ra cao nhất trên một đường dẫn tính với

t lần quan sát đầu tiên:

)

|

, ,

, , , ( max )

, , , 2 1 1

q q q

t

+ Theo phương pháp quy nạp:

) ( ] ) ( [max )

  t ij i t

i

 + Để thu được chuỗi trạng thái, ta cần theo dõi chuỗi trạng thái mà cho đường dẫn tốt nhất ở thời điểm t đến trạng thái si Chúng ta thực hiện điều này trong một mảngt (i)

4 Thuật toán Viterbi

+ Khởi đầu:

) ( )

(

1 ii b i o i

0 ) (

1 i

 + Đệ quy:

T t o b ai i

N i

 [ () ] ( ),2 max

)

1 

T t a i

N i

2 ], ) ( [ max arg )

1

 + Kết thúc:

)]

( [ max

1

*

i

N

)]

( [ max arg

1

*

i T N i T

+ Quay lui tìm đường dẫn( chuỗi trạng thái) tối ưu

1 , , 2 , 1 ),

( *

1 1

*

q t T t

+ Số phép tính  N2T

Trang 13

+ Ví dụ

Hình 9

+ Ví dụ thuật toán Viterbi(tt)

Hình 10

+ Ví dụ so khớp sử dụng thuật toán tiến-lùi:

Trang 14

Hình 11

 Ước lượng lại với thuật toán Baum-Welch

Ước lượng lại với thuật toán Baum-Welch sử dụng EM để xác định tham số ML

Xét toán tử t (i) là xác suất của hệ thống ở trạng thái i tại thời điểm t và trạng thái j tại thời điểm t+1 với điều kiện có chuỗi quan sát O và mô hình Markov ẩn 

 t(i,j)P(q ts i,q t1s j |O,)

 Khi đó

)

| (

) ( ) ( ) ( ) ,

O P

i o

b a i j

t

j t

1

) , ( )

 Kết hợp t (i) và t ( j i, ) chúng ta được:

 

 1

1 ) (

T

t

t i

 = số chuyển tiếp từ trạng thái si

 

 1

1

) , (

T

t

 = số chuyển tiếp từ trạng thái si tới sj

Thủ tục ước lượng lại Baum-Welch

Trang 15

Hình 12

Các biểu thức ước lượng lại với thuật toán Baum-Welch

o  1(i)

o

1

1

1

) (

) , (

T

t t

T

t t

ij

i

j i a

o

t t

T

v o t t

ij

j

j

1

, 1

) (

) (

Nếu (A,B,) là mô hình gốc và (A,B,) là mô hình ước lượng lại, khi đó ta

có thể chứng minh:

o Mô hình gốc  xác định điểm tới hạn của hàm có khả năng xảy ra, trong trường hợp = Hoặc:

o Mô hình  thích hợp hơn  trong điều kiện

)

| ( )

| (OP O

Chúng ta có thể tăng xác suất chuỗi quan sát O mà đã quan sát được từ mô hình nếu sử dụng lặp lại  trong không gian  và lặp lại việc ước lượng lại cho đến khi một số điểm tới hạn đạt được Mô hình kết quả thu được gọi là mô hình Markov ẩn

có khả năng xảy ra lớn nhất

Trang 16

KẾT LUẬN

Mô hình Markov ẩn là mô hình thống kê trong đó hệ thống được mô hình hóa được cho là một quá trình Markov với các tham số không biết trước và nhiệm vụ là xác định các tham số ẩn từ các tham số quan sát được Các tham số của mô hình được rút ra sau đó có thể được sử dụng để thực hiện các phân tích kế tiếp, ví dụ ứng dụng cho nhận dạng mẫu

Mô hình Markov ẩnthêm vào các đầu ra: mỗi trạng thái có xác suất phân bổ trên các biểu hiện đầu ra có thể Vì vậy, nhìn vào dãy của các biểu hiện được sinh ra bởiHMMkhông trực tiếp chỉ ra dãy các trạng thái

Do thời gian nghiên cứu có hạn cũng như kiến thức còn hạn chế, đề tài không tránh khỏi sai sót, vì vậy chúng em rất mong có sự cảm thông và góp ý của thầy để phát triển đề tài tốt hơn nữa

Ngày đăng: 05/04/2022, 18:46

HÌNH ẢNH LIÊN QUAN

ĐỀ TÀI: MÔ HÌNH MARKOV ẨN - TIỂU LUẬN XỬ LÝ TÍN HIỆU NÂNG CAO  ĐỀ TÀI: MÔ HÌNH MARKOV ẨN
ĐỀ TÀI: MÔ HÌNH MARKOV ẨN (Trang 1)
Hình 1 - TIỂU LUẬN XỬ LÝ TÍN HIỆU NÂNG CAO  ĐỀ TÀI: MÔ HÌNH MARKOV ẨN
Hình 1 (Trang 5)
 Mô hình HMM quan tâm đến P(W|A) - TIỂU LUẬN XỬ LÝ TÍN HIỆU NÂNG CAO  ĐỀ TÀI: MÔ HÌNH MARKOV ẨN
h ình HMM quan tâm đến P(W|A) (Trang 5)
 Vecto tham số cho mô hình này là: - TIỂU LUẬN XỬ LÝ TÍN HIỆU NÂNG CAO  ĐỀ TÀI: MÔ HÌNH MARKOV ẨN
ecto tham số cho mô hình này là: (Trang 6)
Hình 2 - TIỂU LUẬN XỬ LÝ TÍN HIỆU NÂNG CAO  ĐỀ TÀI: MÔ HÌNH MARKOV ẨN
Hình 2 (Trang 6)
Một mô hình HMM được viết dưới dạng đặc trưng λ= {A,B,π} - TIỂU LUẬN XỬ LÝ TÍN HIỆU NÂNG CAO  ĐỀ TÀI: MÔ HÌNH MARKOV ẨN
t mô hình HMM được viết dưới dạng đặc trưng λ= {A,B,π} (Trang 7)
Hình 4d: Mô hình Tuyến tính - TIỂU LUẬN XỬ LÝ TÍN HIỆU NÂNG CAO  ĐỀ TÀI: MÔ HÌNH MARKOV ẨN
Hình 4d Mô hình Tuyến tính (Trang 8)
Hình 4c: Mô hình Bakis - TIỂU LUẬN XỬ LÝ TÍN HIỆU NÂNG CAO  ĐỀ TÀI: MÔ HÌNH MARKOV ẨN
Hình 4c Mô hình Bakis (Trang 8)
Hình 6:( Những nét đứt thể hiện một sự chuyển tiếp trạng thái bằng 0, nơi mà không có vecto quan sát nào được tạo ra.)  - TIỂU LUẬN XỬ LÝ TÍN HIỆU NÂNG CAO  ĐỀ TÀI: MÔ HÌNH MARKOV ẨN
Hình 6 ( Những nét đứt thể hiện một sự chuyển tiếp trạng thái bằng 0, nơi mà không có vecto quan sát nào được tạo ra.) (Trang 9)
Hình 7 - TIỂU LUẬN XỬ LÝ TÍN HIỆU NÂNG CAO  ĐỀ TÀI: MÔ HÌNH MARKOV ẨN
Hình 7 (Trang 10)
Hình 8 - TIỂU LUẬN XỬ LÝ TÍN HIỆU NÂNG CAO  ĐỀ TÀI: MÔ HÌNH MARKOV ẨN
Hình 8 (Trang 11)
Hình 9 - TIỂU LUẬN XỬ LÝ TÍN HIỆU NÂNG CAO  ĐỀ TÀI: MÔ HÌNH MARKOV ẨN
Hình 9 (Trang 13)
Hình 10 - TIỂU LUẬN XỬ LÝ TÍN HIỆU NÂNG CAO  ĐỀ TÀI: MÔ HÌNH MARKOV ẨN
Hình 10 (Trang 13)
Hình 11 - TIỂU LUẬN XỬ LÝ TÍN HIỆU NÂNG CAO  ĐỀ TÀI: MÔ HÌNH MARKOV ẨN
Hình 11 (Trang 14)
Hình 12 - TIỂU LUẬN XỬ LÝ TÍN HIỆU NÂNG CAO  ĐỀ TÀI: MÔ HÌNH MARKOV ẨN
Hình 12 (Trang 15)

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

🧩 Sản phẩm bạn có thể quan tâm

w