Bài giảng Lý thuyết nhận dạng - Một số kỹ thuật trong lý thuyết nhận dạng trình bày dạng không tham số, có giám sát; dạng không giám sát; cửa sổ Parzen; ước lượng mật độ dùng cửa sổ Parzen; mạng neural theo xác suất; ranh giới quyết định của PNN; bộ phân lớp các láng giềng gần...
Trang 1LÝ THUYẾT NHẬN DẠNG
MỘT SỐ KỸ THUẬT TRONG LÝ
THUYẾT NHẬN DẠNG
Biên soạn: TS Ngô Hữu Phúc
Bộ môn: Khoa học máy tính Học viện kỹ thuật quân sự
Trang 2 Dạng tham số: dạng này sử dụng tham số/trọng số để
xác định dạng thuật toán tối ưu phù hợp với tập dữ liệu huấn luyện.
Có dự giám sát: Mẫu huấn luyện được đưa vào theo
cặp (input/output) Output mong đợi tương ứng với input Khi đó, tham số/trọng số được hiệu chỉnh để giảm thiểu sai số giá trị trả về và giá trị mong đợi.
Không giám sát: Giả sử đưa vào hệ thống tập mẫu và
chưa biết nó thuộc lớp nào Hệ thống dạng này sẽ tìm ra
Trang 3GIỚI THIỆU (TIẾP)
Dạng không tham số, có giám sát:
Trang 4GIỚI THIỆU (TIẾP)
Dạng có tham số, có giám sát:
1. Phân biệt tuyến tính
2. Mạng neural RBF (Radial basis functions neural
Trang 56.1 CỬA SỔ PARZEN
Hàm mật độ xác suất (Probability density function - pdf):
Theo định nghĩa toán học của hàm xác suất liên
tục, p(x), thỏa mãn các điều kiện sau:
b
a
dx x
p b
x a
P
Trang 66.1 CỬA SỔ PARZEN (TIẾP)
Hàm xác suất hay được sử dụng là hàm Gaussian(còn được gọi là phân bố chuẩn)
Trong đó, μ: giá trị trung bình, σ 2: phương sai và
σ: độ lệch chuẩn Hình dưới: pdf Gaussian với μ =
p
Trang 76.1 CỬA SỔ PARZEN (TIẾP)
Mở rộng với trường hợp vector X, khi đó p(X) thỏamãn:
R
dX X
p
p ( X ) dX 1
Trang 8ƯỚC LƯỢNG MẬT ĐỘ
Giả sử có n mẫu dữ liệu X1,X2,…,Xn, ta có thể ướclượng hàm mật độ p(X), khi đó, có thể xác định xácsuất p(X) cho bất kỳ mẫu mới X nào Công việc này
gọi là ước lượng mật độ.
Ý tưởng cơ bản đằng sau nhiều phương pháp ướclượng hàm mật độ xác suất chưa biết khá đơn giản.Hầu hết các kỹ thuật dựa trên: xác suất P của mộtvector sẽ thuộc miền R được tính:
Trang 9p dX
X p
dX X
p
P
R R
Trang 10ƯỚC LƯỢNG MẬT ĐỘ (TIẾP)
Mặt khác, giả thiết rằng, n mẫu đã cho X1, X2,…,Xn
là độc lập, tuân theo hàm mật độ xác suất p(X) và
có k mẫu “rơi” vào miền R, khi đó ta có:
Như vậy, ta nhận được ước lượng cho p(X):
Trang 11ƯỚC LƯỢNG MẬT ĐỘ DÙNG CỬA SỔ P ARZEN
Xem xét miền R là “siêu khối” có tâm tại X
Gọi h là chiều dài của mỗi cạnh của siêu khối Như vậy, với 2D thì V = h 2 , với 3D thì V = h 3
Trang 12ƯỚC LƯỢNG MẬT ĐỘ DÙNG CỬA SỔ PARZEN (TIẾP)
x x
,2
11
Trang 13ƯỚC LƯỢNG MẬT ĐỘ DÙNG CỬA SỔ PARZEN (TIẾP)
Công thức ước lượng mật độ xác suất Parzen chotrường hợp 2D dạng:
h n
V
n
k X
p
1
2
1 1
Trang 14ƯỚC LƯỢNG MẬT ĐỘ DÙNG CỬA SỔ PARZEN (TIẾP)
Ta có thể tổng quát hóa ý tưởng trên với hàm cửa
sổ khác, ví dụ, nếu sử dụng hàm Gaussian chotrường hợp 1 chiều, ta có:
Công thức trên là trung bình của n hàm Gaussianvới mỗi điểm dữ liệu là tâm của nó Giá trị σ cầnđược xác định trước
Trang 16VÍ DỤ (TIẾP)
Giải:
2420
0 2
3
2 exp
2
1 2
exp 2
3521
0 2
3 5
.
2 exp
2
1 2
exp 2
3989
0 2
3
3 exp
2
1 2
exp 2
Trang 17VÍ DỤ (TIẾP)
Vậy, ước lượng tại điểm x=3:
0540
0 2
3
1 exp
2
1 2
exp 2
0044
0 2
3
6 exp
2
1 2
exp 2
5
0044
0 0540
0 3989
0 3521
0 2420
Trang 18VÍ DỤ (TIẾP)
Ta có thể vẽ cửa sổ Parzen:
Các đường nét đứt là hàm Gaussian tại 5 điểm dữliệu
Trang 19VÍ DỤ (TIẾP)
Hàm pdf tổng hợp của 5 hàm trên
Trang 206.2 M ẠNG NEURAL THEO XÁC SUẤT (PNN)
Xem xét bài toán phân lớp của nhiều lớp.
Ta có tập điểm dữ liệu cho mỗi lớp.
Mục tiêu: với dữ liệu mới, quyết định
xem nó thuộc lớp nào?
Trang 21LƯỢC ĐỒ MINH HỌA PNN
Trang 226.2 M ẠNG NEURAL THEO XÁC SUẤT (PNN)
(TIẾP)
PNN khá gần với ước lượng pdf dùng cửa sổ Parzen
PNN gồm có nhiều mạng con, mỗi mạng con là ướclượng pdf dùng của sổ Parzen của mỗi lớp
Các input node là tập giá trị đo được
Lớp mạng thứ 2 hình thành từ hàm Gaussian vớitâm tại những dữ liệu đưa vào
Lớp mạng thứ 3 thực hiện việc tính trung bình từkết quả đầu ra của lớp mạng thứ 2
Giai đoạn cuối là chọn giá trị lớn nhất và gán nhãncho đối tượng
Trang 24VÍ DỤ 1 (TIẾP)
Theo công thức
Ta có:
Như vậy, bộ phân lớp PNN sẽ so sánh y1(x), y2(x)
của dữ liệu mới x, nếu y1(x) > y2(x) thì x thuộc lớp
1, ngược lại x thuộc lớp 2
1 1
2
exp2
15
1
i
i x
x x
2 2
2
exp2
13
1
i
i x
x x
y
Trang 25VÍ DỤ 2
Đầu bài: Với 2 hàm y1(x) và y2(x) trên, một dữ liệumới x = 3 sẽ thuộc vào lớp nào?
Giải: Như đã biết, y1(3) = 0.2103
Vậy, với x=3 sẽ thuộc lớp 1 theo phương phápPNN
)(2103
.00011
2
35
6exp
2
3
6exp
23
1)
3
(
1
2 2
2 2
x y
Trang 26VÍ DỤ 2 (TIẾP) – MINH HỌA
Trang 27RANH GIỚI QUYẾT ĐỊNH CỦA PNN
Trong trường hợp 2 lớp trên, ranh giới quyết định
2
5 6 exp
2
6 exp
2
1 exp
2
3 exp
2
5 2 exp
2
2 exp
2
5
1
2 2
2
2 2
2 2
2
x x
x
x x
x x
x
Trang 28RANH GIỚI QUYẾT ĐỊNH CỦA PNN (TIẾP)
Trang 29RANH GIỚI QUYẾT ĐỊNH CỦA PNN (TIẾP)
Vùng sai số
sẽ tăng khi
ranh giới dịch
sang phải
Trang 30RANH GIỚI QUYẾT ĐỊNH CỦA PNN (TIẾP)
Vùng sai số sẽ
tăng khi ranh
giới dịch sang
trái
Trang 31RANH GIỚI QUYẾT ĐỊNH CỦA PNN (TIẾP)
Giá trị có thể lược bỏ khỏi công thức mà khôngảnh hưởng tới việc phân lớp Như vậy ta có:
Trong trường hợp với M lớp, PNN có dạng:
Với j = 1,2,…,M
2 1
1 1
2
exp5
1
i
i x
x x
2 2
2
exp3
1
i
i x
x x
j j
X X
2 exp
1
Trang 32RANH GIỚI QUYẾT ĐỊNH CỦA PNN (TIẾP)
Trong công thức trên, n j : số mẫu của lớp j
X thuộc lớp k nếu y k (X) > y j (X) với mọi j khác k.
j j
X X
2 exp
1
Trang 33VÍ DỤ
Đầu bài:
Xác định nhãn lớp cho mẫu X = [0.5,0.5]T bằngviệc sử dụng bộ phân lớp PNN của 2 lớp, với σ = 1
Hai lớp được xây dựng dựa trên mẫu huấn luyệnđược cho như sau:
Trang 34VÍ DỤ (TIẾP)
Giải: Ta có
Vì y2(X) < y1(X) nên X = [0.5,0.5]T thuộc lớp cónhãn là 1
7788
0 2
5 0 1 5
0 1 exp
2
5 0 1 5
0 0 exp
2
5 0 0 5
0 1 exp
2 2
2 2
2 2
3
1 1
0 2
5 0 1 5
0 0 exp
2
5 0 0 5
0 1 exp
2 2
2 2
2
1 1
Trang 35VÍ DỤ (TIẾP) – MINH HỌA
Trang 376.3 B Ộ PHÂN LỚP CÁC LÁNG GIỀNG GẦN NHẤT
(TIẾP)
Quy tắc về láng giềng gần nhất: (tiếp)
Gọi Xk là mẫu gần với X nhất Khi đó quy tắc vềláng giềng gần nhất để gán X có cùng nhóm với Xk:
Thông thường, có thể dùng khoảng cách là tổngbình phương Ví dụ: X = [x1,x2]T và Xk = [xk1,xk2]T
Trang 38VÍ DỤ VỀ PP LÁNG GIỀNG GẦN NHẤT
Trong hình trên có 3 lớp, mỗi lớp có 10 mẫu
Có 3 mẫu mới A, B, C
PP láng giềng gần nhất tìm được mẫu gần với A, B,
C nhất và gán nhãn của nó cho A,B, C
Trang 39 Hỏi: một học sinh tên Minh có điểm toán là 70 vàđiểm tiếng anh là 70, vậy học sinh này có đỗkhông?
Trang 426.3 PHÂN LỚP DỰA TRÊN K LÁNG GIỀNG
Trang 43VÍ DỤ VỀ K-NN
Đầu bài:
Sử dụng lại giả thiết của ví dụ trước
k trong phương pháp này là 3
Hỏi: bằng phương pháp k-nn, Minh đỗ hay trượt?
Trang 46M ỘT SỐ KỸ THUẬT TRONG LÝ THUYẾT NHẬN DẠNG ( TIẾP )
Biên soạn: TS Ngô Hữu Phúc
Bộ môn: Khoa học máy tính Học viện kỹ thuật quân sự
Trang 476.4 PHÂN BIỆT TUYẾN TÍNH
Hàm phân biệt tuyến tính:
Có nhiều cách để phân biệt 2 lớp khác nhau.
Có thể sử dụng hàm phân biệt g(x) cho việc này.
Mô hình hàm phân biệt. Với một mẫu dữ liệu mới x
và hàm phân biệt, x thuộc lớp 1 nếu g(x)>0, thuộc
Trang 486.4 PHÂN BIỆT TUYẾN TÍNH (TIẾP)
Hàm phân biệt là tổ hợp tuyến tính của thành phần
x và có thể viết:
𝒈 𝒙 = 𝒘𝑻𝒙 + 𝒘𝟎
Trong đó, w là vector trọng số và w 0 là trọng số ngưỡng
Với g(x) = 0 định nghĩa mặt phân biệt Mặt nàyphân tách dữ liệu mẫu thành 2 lớp 1 và 2
Trong trường hợp tuyến tính, mặt này được gọi là
“siêu phẳng”
Trang 496.4 PHÂN BIỆT TUYẾN TÍNH (TIẾP)
Định nghĩa: 2 vector a và b được gọi là chuẩn với nhau nếu
a T b = 0.
Ví dụ: 2 vector [3,4] và [-4,3] là chuẩn với nhau vì 4,3] T = 3x(-4)+4x3 = 0.
Trang 50[3,4][-6.4 PHÂN BIỆT TUYẾN TÍNH (TIẾP)
Nếu 2 điểm X1 và X2 trên mặt phân biệt, khi đó:
Điều này có nghĩa,w chuẩn với bất kỳ vector nàotrên mặt phân cách như (X1 – X2)
0 0
2 1
0 2
0 1
2 1
w
w X
w w
X w
X g
X g
T
T T
Trang 516.4 PHÂN BIỆT TUYẾN TÍNH (TIẾP)
X
w r
X w
w r
X w
w X
w X
T
w
w p
T T
Trang 526.4 PHÂN BIỆT TUYẾN TÍNH (TIẾP)
Từ công thức trên, khoảng cách từ một điểm bất kỳđến siêu mặt được xác định:
w
X g
Trang 536.4 PHÂN BIỆT TUYẾN TÍNH (TIẾP)
Trong trường hợp đặc biệt, khi X = [0,0] T :
Hàm phân biệt tuyến tính chia không gian đặc trưng bởi siêu mặt, theo vector chuẩn w tại vị trí w0.
Nếu w0 = 0, siêu mặt đi qua điểm gốc.
Nếu w0 > 0, điểm gốc nằm ở phần dương của siêu mặt.
w w
Trang 54VÍ DỤ VỀ SIÊU MẶT
Trang 55VÍ DỤ 1
Trong ví dụ xét tuyển học sinh vào học, với 2 điểm được xét là toán và tiếng anh.
Điểm và trạng thái của 5 học sinh đưa ra trong bảng.
Việc quyết định trạng thái được xác định qua giá trị điểm trung bình là 75.
Câu hỏi:1: đưa ra luật quyết định cân bằng theo phương pháp dùng hàm quyết định tuyến tính.
2: Vẽ siêu mặt quyết định của nhóm học viên nói trên.
Trang 58VÍ DỤ 1 (TIẾP)
2: Trong trường hợp 2 chiều, xác định mặt phân cáchbằng việc dùng theo 2 điểm Có thể nhìn thấy, siêumặt đi qua 2 điểm [0,150]T, [150,0]T
Trang 596.4 PHÂN BIỆT TUYẾN TÍNH (TIẾP)
Có nhiều cách để xác định hàm phân biệt tuyếntính g(X) qua bộ dữ liệu mẫu
Một cách đơn giản là gán nhãn cho dữ liệu, ví dụlấy giá trị +1 cho lớp thứ nhất và -1 cho lớp thứ 2,sau đó xác định trong số của hàm quyết định
Trang 60170
90
175
50
160
70
185
80
0 2
1
0 2
1
0 2
1
0 2
1
0 2
1
w w
w
w w
w
w w
w
w w
w
w w
w
Trang 61] 3176
8 , 0580
0 , 0571
0 [
1 1 1 1 1
1 1
1 1
1
75 70
75 60
85
85 90
50 70
80
1 75 85
1 70 90
1 75 50
1 60 70
1 85 80
1 1
1 1
1
75 70
75 60
85
85 90
50 70
80
1
0 2 1