1. Trang chủ
  2. » Công Nghệ Thông Tin

Bài giảng Lý thuyết nhận dạng - Một số kỹ thuật trong lý thuyết nhận dạng

61 45 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 61
Dung lượng 3,28 MB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

Bài giảng Lý thuyết nhận dạng - Một số kỹ thuật trong lý thuyết nhận dạng trình bày dạng không tham số, có giám sát; dạng không giám sát; cửa sổ Parzen; ước lượng mật độ dùng cửa sổ Parzen; mạng neural theo xác suất; ranh giới quyết định của PNN; bộ phân lớp các láng giềng gần...

Trang 1

LÝ THUYẾT NHẬN DẠNG

MỘT SỐ KỸ THUẬT TRONG LÝ

THUYẾT NHẬN DẠNG

Biên soạn: TS Ngô Hữu Phúc

Bộ môn: Khoa học máy tính Học viện kỹ thuật quân sự

Trang 2

Dạng tham số: dạng này sử dụng tham số/trọng số để

xác định dạng thuật toán tối ưu phù hợp với tập dữ liệu huấn luyện.

Có dự giám sát: Mẫu huấn luyện được đưa vào theo

cặp (input/output) Output mong đợi tương ứng với input Khi đó, tham số/trọng số được hiệu chỉnh để giảm thiểu sai số giá trị trả về và giá trị mong đợi.

Không giám sát: Giả sử đưa vào hệ thống tập mẫu và

chưa biết nó thuộc lớp nào Hệ thống dạng này sẽ tìm ra

Trang 3

GIỚI THIỆU (TIẾP)

Dạng không tham số, có giám sát:

Trang 4

GIỚI THIỆU (TIẾP)

Dạng có tham số, có giám sát:

1. Phân biệt tuyến tính

2. Mạng neural RBF (Radial basis functions neural

Trang 5

6.1 CỬA SỔ PARZEN

Hàm mật độ xác suất (Probability density function - pdf):

 Theo định nghĩa toán học của hàm xác suất liên

tục, p(x), thỏa mãn các điều kiện sau:

       

b

a

dx x

p b

x a

P

 

Trang 6

6.1 CỬA SỔ PARZEN (TIẾP)

 Hàm xác suất hay được sử dụng là hàm Gaussian(còn được gọi là phân bố chuẩn)

Trong đó, μ: giá trị trung bình, σ 2: phương sai và

σ: độ lệch chuẩn Hình dưới: pdf Gaussian với μ =

p

Trang 7

6.1 CỬA SỔ PARZEN (TIẾP)

 Mở rộng với trường hợp vector X, khi đó p(X) thỏamãn:

R

dX X

p

p ( X ) dX  1

Trang 8

ƯỚC LƯỢNG MẬT ĐỘ

 Giả sử có n mẫu dữ liệu X1,X2,…,Xn, ta có thể ướclượng hàm mật độ p(X), khi đó, có thể xác định xácsuất p(X) cho bất kỳ mẫu mới X nào Công việc này

gọi là ước lượng mật độ.

 Ý tưởng cơ bản đằng sau nhiều phương pháp ướclượng hàm mật độ xác suất chưa biết khá đơn giản.Hầu hết các kỹ thuật dựa trên: xác suất P của mộtvector sẽ thuộc miền R được tính:

Trang 9

p dX

X p

dX X

p

P

R R

Trang 10

ƯỚC LƯỢNG MẬT ĐỘ (TIẾP)

 Mặt khác, giả thiết rằng, n mẫu đã cho X1, X2,…,Xn

là độc lập, tuân theo hàm mật độ xác suất p(X) và

có k mẫu “rơi” vào miền R, khi đó ta có:

 Như vậy, ta nhận được ước lượng cho p(X):

Trang 11

ƯỚC LƯỢNG MẬT ĐỘ DÙNG CỬA SỔ P ARZEN

 Xem xét miền R là “siêu khối” có tâm tại X

Gọi h là chiều dài của mỗi cạnh của siêu khối Như vậy, với 2D thì V = h 2 , với 3D thì V = h 3

Trang 12

ƯỚC LƯỢNG MẬT ĐỘ DÙNG CỬA SỔ PARZEN (TIẾP)

x x

,2

11

Trang 13

ƯỚC LƯỢNG MẬT ĐỘ DÙNG CỬA SỔ PARZEN (TIẾP)

 Công thức ước lượng mật độ xác suất Parzen chotrường hợp 2D dạng:

h n

V

n

k X

p

1

2

1 1

Trang 14

ƯỚC LƯỢNG MẬT ĐỘ DÙNG CỬA SỔ PARZEN (TIẾP)

 Ta có thể tổng quát hóa ý tưởng trên với hàm cửa

sổ khác, ví dụ, nếu sử dụng hàm Gaussian chotrường hợp 1 chiều, ta có:

 Công thức trên là trung bình của n hàm Gaussianvới mỗi điểm dữ liệu là tâm của nó Giá trị σ cầnđược xác định trước

Trang 16

VÍ DỤ (TIẾP)

 Giải:

2420

0 2

3

2 exp

2

1 2

exp 2

3521

0 2

3 5

.

2 exp

2

1 2

exp 2

3989

0 2

3

3 exp

2

1 2

exp 2

Trang 17

VÍ DỤ (TIẾP)

Vậy, ước lượng tại điểm x=3:

0540

0 2

3

1 exp

2

1 2

exp 2

0044

0 2

3

6 exp

2

1 2

exp 2

5

0044

0 0540

0 3989

0 3521

0 2420

Trang 18

VÍ DỤ (TIẾP)

 Ta có thể vẽ cửa sổ Parzen:

 Các đường nét đứt là hàm Gaussian tại 5 điểm dữliệu

Trang 19

VÍ DỤ (TIẾP)

 Hàm pdf tổng hợp của 5 hàm trên

Trang 20

6.2 M ẠNG NEURAL THEO XÁC SUẤT (PNN)

Xem xét bài toán phân lớp của nhiều lớp.

Ta có tập điểm dữ liệu cho mỗi lớp.

Mục tiêu: với dữ liệu mới, quyết định

xem nó thuộc lớp nào?

Trang 21

LƯỢC ĐỒ MINH HỌA PNN

Trang 22

6.2 M ẠNG NEURAL THEO XÁC SUẤT (PNN)

(TIẾP)

 PNN khá gần với ước lượng pdf dùng cửa sổ Parzen

 PNN gồm có nhiều mạng con, mỗi mạng con là ướclượng pdf dùng của sổ Parzen của mỗi lớp

 Các input node là tập giá trị đo được

 Lớp mạng thứ 2 hình thành từ hàm Gaussian vớitâm tại những dữ liệu đưa vào

 Lớp mạng thứ 3 thực hiện việc tính trung bình từkết quả đầu ra của lớp mạng thứ 2

 Giai đoạn cuối là chọn giá trị lớn nhất và gán nhãncho đối tượng

Trang 24

VÍ DỤ 1 (TIẾP)

 Theo công thức

 Ta có:

 Như vậy, bộ phân lớp PNN sẽ so sánh y1(x), y2(x)

của dữ liệu mới x, nếu y1(x) > y2(x) thì x thuộc lớp

1, ngược lại x thuộc lớp 2

1 1

2

exp2

15

1

i

i x

x x

2 2

2

exp2

13

1

i

i x

x x

y

Trang 25

VÍ DỤ 2

 Đầu bài: Với 2 hàm y1(x) và y2(x) trên, một dữ liệumới x = 3 sẽ thuộc vào lớp nào?

 Giải: Như đã biết, y1(3) = 0.2103

 Vậy, với x=3 sẽ thuộc lớp 1 theo phương phápPNN

)(2103

.00011

2

35

6exp

2

3

6exp

23

1)

3

(

1

2 2

2 2

x y

Trang 26

VÍ DỤ 2 (TIẾP) – MINH HỌA

Trang 27

RANH GIỚI QUYẾT ĐỊNH CỦA PNN

 Trong trường hợp 2 lớp trên, ranh giới quyết định

2

5 6 exp

2

6 exp

2

1 exp

2

3 exp

2

5 2 exp

2

2 exp

2

5

1

2 2

2

2 2

2 2

2

x x

x

x x

x x

x

Trang 28

RANH GIỚI QUYẾT ĐỊNH CỦA PNN (TIẾP)

Trang 29

RANH GIỚI QUYẾT ĐỊNH CỦA PNN (TIẾP)

 Vùng sai số

sẽ tăng khi

ranh giới dịch

sang phải

Trang 30

RANH GIỚI QUYẾT ĐỊNH CỦA PNN (TIẾP)

 Vùng sai số sẽ

tăng khi ranh

giới dịch sang

trái

Trang 31

RANH GIỚI QUYẾT ĐỊNH CỦA PNN (TIẾP)

 Giá trị có thể lược bỏ khỏi công thức mà khôngảnh hưởng tới việc phân lớp Như vậy ta có:

 Trong trường hợp với M lớp, PNN có dạng:

 Với j = 1,2,…,M

2 1

1 1

2

exp5

1

i

i x

x x

2 2

2

exp3

1

i

i x

x x

j j

X X

2 exp

1

Trang 32

RANH GIỚI QUYẾT ĐỊNH CỦA PNN (TIẾP)

Trong công thức trên, n j : số mẫu của lớp j

X thuộc lớp k nếu y k (X) > y j (X) với mọi j khác k.

j j

X X

2 exp

1

Trang 33

VÍ DỤ

Đầu bài:

 Xác định nhãn lớp cho mẫu X = [0.5,0.5]T bằngviệc sử dụng bộ phân lớp PNN của 2 lớp, với σ = 1

 Hai lớp được xây dựng dựa trên mẫu huấn luyệnđược cho như sau:

Trang 34

VÍ DỤ (TIẾP)

 Giải: Ta có

 Vì y2(X) < y1(X) nên X = [0.5,0.5]T thuộc lớp cónhãn là 1

         

   

7788

0 2

5 0 1 5

0 1 exp

2

5 0 1 5

0 0 exp

2

5 0 0 5

0 1 exp

2 2

2 2

2 2

3

1 1

0 2

5 0 1 5

0 0 exp

2

5 0 0 5

0 1 exp

2 2

2 2

2

1 1

Trang 35

VÍ DỤ (TIẾP) – MINH HỌA

Trang 37

6.3 B Ộ PHÂN LỚP CÁC LÁNG GIỀNG GẦN NHẤT

(TIẾP)

Quy tắc về láng giềng gần nhất: (tiếp)

 Gọi Xk là mẫu gần với X nhất Khi đó quy tắc vềláng giềng gần nhất để gán X có cùng nhóm với Xk:

 Thông thường, có thể dùng khoảng cách là tổngbình phương Ví dụ: X = [x1,x2]T và Xk = [xk1,xk2]T

Trang 38

VÍ DỤ VỀ PP LÁNG GIỀNG GẦN NHẤT

 Trong hình trên có 3 lớp, mỗi lớp có 10 mẫu

 Có 3 mẫu mới A, B, C

 PP láng giềng gần nhất tìm được mẫu gần với A, B,

C nhất và gán nhãn của nó cho A,B, C

Trang 39

 Hỏi: một học sinh tên Minh có điểm toán là 70 vàđiểm tiếng anh là 70, vậy học sinh này có đỗkhông?

Trang 42

6.3 PHÂN LỚP DỰA TRÊN K LÁNG GIỀNG

Trang 43

VÍ DỤ VỀ K-NN

Đầu bài:

 Sử dụng lại giả thiết của ví dụ trước

 k trong phương pháp này là 3

 Hỏi: bằng phương pháp k-nn, Minh đỗ hay trượt?

Trang 46

M ỘT SỐ KỸ THUẬT TRONG LÝ THUYẾT NHẬN DẠNG ( TIẾP )

Biên soạn: TS Ngô Hữu Phúc

Bộ môn: Khoa học máy tính Học viện kỹ thuật quân sự

Trang 47

6.4 PHÂN BIỆT TUYẾN TÍNH

Hàm phân biệt tuyến tính:

 Có nhiều cách để phân biệt 2 lớp khác nhau.

Có thể sử dụng hàm phân biệt g(x) cho việc này.

 Mô hình hàm phân biệt. Với một mẫu dữ liệu mới x

và hàm phân biệt, x thuộc lớp 1 nếu g(x)>0, thuộc

Trang 48

6.4 PHÂN BIỆT TUYẾN TÍNH (TIẾP)

 Hàm phân biệt là tổ hợp tuyến tính của thành phần

x và có thể viết:

𝒈 𝒙 = 𝒘𝑻𝒙 + 𝒘𝟎

 Trong đó, w là vector trọng sốw 0 là trọng số ngưỡng

 Với g(x) = 0 định nghĩa mặt phân biệt Mặt nàyphân tách dữ liệu mẫu thành 2 lớp 1 và 2

 Trong trường hợp tuyến tính, mặt này được gọi là

“siêu phẳng”

Trang 49

6.4 PHÂN BIỆT TUYẾN TÍNH (TIẾP)

Định nghĩa: 2 vector a và b được gọi là chuẩn với nhau nếu

a T b = 0.

 Ví dụ: 2 vector [3,4] và [-4,3] là chuẩn với nhau vì 4,3] T = 3x(-4)+4x3 = 0.

Trang 50

[3,4][-6.4 PHÂN BIỆT TUYẾN TÍNH (TIẾP)

 Nếu 2 điểm X1 và X2 trên mặt phân biệt, khi đó:

 Điều này có nghĩa,w chuẩn với bất kỳ vector nàotrên mặt phân cách như (X1 – X2)

   

0 0

2 1

0 2

0 1

2 1

w

w X

w w

X w

X g

X g

T

T T

Trang 51

6.4 PHÂN BIỆT TUYẾN TÍNH (TIẾP)

X

 

w r

X w

w r

X w

w X

w X

T

w

w p

T T

Trang 52

6.4 PHÂN BIỆT TUYẾN TÍNH (TIẾP)

 Từ công thức trên, khoảng cách từ một điểm bất kỳđến siêu mặt được xác định:

 

w

X g

Trang 53

6.4 PHÂN BIỆT TUYẾN TÍNH (TIẾP)

 Trong trường hợp đặc biệt, khi X = [0,0] T :

 Hàm phân biệt tuyến tính chia không gian đặc trưng bởi siêu mặt, theo vector chuẩn w tại vị trí w0.

 Nếu w0 = 0, siêu mặt đi qua điểm gốc.

 Nếu w0 > 0, điểm gốc nằm ở phần dương của siêu mặt.

w w

Trang 54

VÍ DỤ VỀ SIÊU MẶT

Trang 55

VÍ DỤ 1

 Trong ví dụ xét tuyển học sinh vào học, với 2 điểm được xét là toán và tiếng anh.

 Điểm và trạng thái của 5 học sinh đưa ra trong bảng.

 Việc quyết định trạng thái được xác định qua giá trị điểm trung bình là 75.

 Câu hỏi:1: đưa ra luật quyết định cân bằng theo phương pháp dùng hàm quyết định tuyến tính.

 2: Vẽ siêu mặt quyết định của nhóm học viên nói trên.

Trang 58

VÍ DỤ 1 (TIẾP)

2: Trong trường hợp 2 chiều, xác định mặt phân cáchbằng việc dùng theo 2 điểm Có thể nhìn thấy, siêumặt đi qua 2 điểm [0,150]T, [150,0]T

Trang 59

6.4 PHÂN BIỆT TUYẾN TÍNH (TIẾP)

 Có nhiều cách để xác định hàm phân biệt tuyếntính g(X) qua bộ dữ liệu mẫu

 Một cách đơn giản là gán nhãn cho dữ liệu, ví dụlấy giá trị +1 cho lớp thứ nhất và -1 cho lớp thứ 2,sau đó xác định trong số của hàm quyết định

Trang 60

170

90

175

50

160

70

185

80

0 2

1

0 2

1

0 2

1

0 2

1

0 2

1

w w

w

w w

w

w w

w

w w

w

w w

w

Trang 61

] 3176

8 , 0580

0 , 0571

0 [

1 1 1 1 1

1 1

1 1

1

75 70

75 60

85

85 90

50 70

80

1 75 85

1 70 90

1 75 50

1 60 70

1 85 80

1 1

1 1

1

75 70

75 60

85

85 90

50 70

80

1

0 2 1

Ngày đăng: 24/09/2020, 04:19

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

🧩 Sản phẩm bạn có thể quan tâm

w