1. Trang chủ
  2. » Công Nghệ Thông Tin

Bài giảng Nhập môn trí tuệ nhân tạo: Chương 5 - Văn Thế Thành

7 7 0

Đang tải... (xem toàn văn)

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 7
Dung lượng 63,51 KB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

Bài giảng Nhập môn trí tuệ nhân tạo - Chương 5: Phân lớp Bayes trình bày các nội dung: Phân lớp Bayes - Tại sao, tính xác suất a a-posteriori, phân lớp Naive Bayesian, phân lớp Naive Bayesian - Giả thiết độc lập, độ chính xác trong phân lớp,... Mời các bạn tham khảo.

Trang 1

2

Phân lớp Bayes: Tại sao? (1)

Hc theo x c sut: t

o tính các xác suất rõ ràng cho các giả thiết

o một trong những hướng thiết thực cho một số vấn đề

thuộc loại học

Có tăng trưng: ng

o mỗi mẫu huấn luyện có thể tăng/giảm dần khả năng

đúng của một giả thiết

o tri thức ưu tiên có thể kết hợp với dữ liệu quan sát

Trang 2

Phân lớp Bayes: Tại sao? (2)

Dđo án theo x c sut: t

o dự đoán nhiều giả thiết, trọng số cho bởi khả năng

xảy ra của chúng

Chun n:

o Ngay cả khi các phương pháp Bayes khó trong tính

toán, chúng vẫn có thể cung cấp một chuẩn để tạo

quyết định tới ưu so những phương pháp khác

Phân lớp Bayes

• Bài toán phân lớp có thể hình thức hóa bằngx c sut

a-posteriori:

P(

P(C|X) = xác suất mẫu ) =

X=<x 1 ,…,x k > thuộc về lớp C

• Ví dụ

P(

P(class =N | N | outlook=sunny,windy=true,…)

Ý tưng: : gán cho mẫu X nhãn phân lớp là C sao cho

P(

P(C|X) là lớn nhất )

Trang 3

• Định lý Bayes Bayes:

P(

P(C|X) = P() = P(X|CP(CP( ) / P(X) / P( )

P(XP( ) là hằng số cho tất cả các lớp )

P(CP( ) = tần số liên quan của các mẫu thuộc )

lớpC

• C sao cho P(C|X) lớn nhất = P(

C sap cho P(X|CP( )· P(P(C) ) lớn nhất

Vnđềề: tínhP(X|CP( ) ) là khơng khả thi!

6

Phân lớp Nạve Bayesian

• Thừa nhận Nạve: sựđộc lp thuc tính

P(

P(x 1 ,…,x k |C ) = P(x) = P( 1 |C)· …·P(P(x k |C)

• Nếu thuộc tính thứ i làri rc: c

P(

P(x i |C) ) được ước lượng bởi tần số liên quan của các

mẫu cĩ giá trị x i cho thuộc tính thứ i trong lớp C

• Nếu thuộc tính thứ i làliên tc: c

P(

P(x i |C) ) được ước lượng thơng qua một hàm mật độ

Gaussian

• Tính tốn dễ dàng trong cả hai trường hợp

Trang 4

Phân lớp Nạve Bayesian – Ví dụ

Outlook Temperature Humidity Windy Class

overcast cool normal true P

overcast hot normal false P

Phân lớp Nạve Bayesian – Ví dụ (1)

• Ứơc lượngP(P(x i |C)

P(nn) = 5/14

P(pp) = 9/14

Th ời tiết

P(n ắ ng | p) = 2/9 P(n ắ ng | n) = 3/5

P(u ám | p) = 4/9 P(u ám | n) = 0

P(m ư a | p) = 3/9 P(m ư a | n) = 2/5

Nhi ệt độ

P(nĩng | p) = 2/9 P(nĩng | n) = 2/5

P( ấ m áp | p) = 4/9 P( ấ m áp | n) = 2/5

P(mát | p) = 3/9 P(mát | n) = 1/5

Độ ẩ m P(cao | p) = 3/9 P(cao | n) = 4/5 P(v ừ a | p) = 6/9 P(v ừ a | n) = 1/5 Giĩ

P(cĩ | p) = 3/9 P(cĩ | n) = 3/5 P(khơng | p) = 6/9 P(fkhơng | n) = 2/5

Trang 5

Phân lớp Nạve Bayesian – Ví dụ (2)

• Phân lớp X:

o một mẫu chưa thấy X = <mưa, nĩng, cao, khơng>

o P(X|pP( )·P(pP( ) =

P(

P(mưa|pP(nĩng|pP( )· P(P(cao|p)· P(P(khơng|p)· P(P(p) =

3/9·2/9·3/9·6/9·9/14= 0.010582 =

o P(X|nP( )·P(nP( ) =

P(

P(mưa|nP(nĩng|nP( )· P(P(cao|n)· P(P(khơng|n)· P(P(n) =

2/5·2/5·4/5·2/5·5/14= 0.018286

o Mẫu X được phân vào lớp n (khơng chơi tennis)

10

Phân lớp Nạve Bayesian –

githuy ế t đc lp

• … làm cho cĩ thể tính tốn

• … cho ra bộ phân lớp tối ưu khi thỏa yêu cầu

• … nhưng yêu cầu ít khi được thỏa trong thực tế vì các

thuộc tính (các biến) thường cĩ liên quan với nhau

• Những cố gắng khắc phục điểm hạn chế này:

o Các mng Bayes (Bayesian networks), kết hợp lý (Bayesian networks)

luận Bayes với các mối quan hệ nhân quả giữa các

thuộc tính

o Các cây quyết đnh, lý luận trên một thuộc tính tại nh

một thời điểm, xét những thuộc tính quan trọng nhất

trước

Trang 6

Mng Neural

Phân lp k láng ging gn

nht

Suy lun da v o trưng hp

Thut toán di truyn

ng tp thô

Các hưng tp m

Các

ph ương

pháp

khác

Độ chính xác trong phân lớp

Ước lưng tlsai:

Phân hoch: huấn luyện và kiểm tra (những tập dữ liệu ch

lớn)

o dùng hai tập dữ liệu độc lập , tập huấn luyện (2/3), tập

kiểm tra (1/3)

Kim tra chéo o (những tập dữ liệu vừa)

o chia tập dữ liệu thành k mẫu con

o sử dụng k-1 mẫu con làm tập huấn luyện và một mẫu

con làm tập kiểm tra - kiểm tra chép k thành phần

Bootstrapping: xóa đi một - leave-one-out (những tập dữ Bootstrapping

liệu nhỏ)

Trang 7

Phân lp là mt vn đnghiên cu bao quát

Phân ln có khả năng là mt trong nhng kthut

khai phá dliu đưc dùng rng rãi nht vi rt

nhiu mrng

Tóm tắt (1)

14

Tính uyn chuyn vn đang là mt vn đquan

trng ca tt các ng dng cơ sdliu

Các hưng nghiên cu: phân lp dliu

không-quan h, ví dụ như text, không gian và đa

phương tin

Tóm tắt (2)

Ngày đăng: 08/05/2021, 19:51

TỪ KHÓA LIÊN QUAN

🧩 Sản phẩm bạn có thể quan tâm