1. Trang chủ
  2. » Luận Văn - Báo Cáo

Khóa luận tốt nghiệp toán học: Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu

38 518 1

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 38
Dung lượng 1,55 MB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

LỜI CẢM ƠN Sau một thời gian học tập, nghiên cứu và triển khai đề tài: “Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu”, đến nay tôi đã hoàn thành đề tài nghiên cứu của mình. Tôi xin bày tỏ tấm lòng biết ơn sâu sắc nhất tới thầy giáo Thạc sỹ Nguyễn Duy Hiếu người thầy đã trực tiếp hướng dẫn tôi trong suốt quá trình tôi thực hiện đề tài nghiên cứu khoa học này. Tôi cũng chân thành cảm ơn tới lãnh đạo Nhà trường, Ban chủ nhiệm Khoa cùng các thầy cô giáo đã giúp đỡ, tạo điều kiện để tôi có cơ hội nghiên cứu, học tập và hoàn thành đề tài nghiên cứu này. Do hạn chế về trình độ chuyên môn và thời gian thực hiện nên đề tài không tránh khỏi những thiếu sót, rất mong nhận được sự góp ý của thầy cô để tôi có thể hoàn thành tốt nhất đề tài nghiên cứu này. Tôi xin chân thành cảm ơn Sơn

Trang 1

LỜI CẢM ƠN

Sau một thời gian học tập, nghiên cứu và triển khai đề tài: “ Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu ”, đến nay tôi đã hoàn thành đề tài nghiên cứu của mình

Tôi xin bày tỏ tấm lòng biết ơn sâu sắc nhất tới thầy giáo - Thạc sỹ Nguyễn Duy Hiếu người thầy đã trực tiếp hướng dẫn tôi trong suốt quá trình tôi thực hiện đề tài nghiên cứu khoa học này

Tôi cũng chân thành cảm ơn tới lãnh đạo Nhà trường, Ban chủ nhiệm Khoa cùng các thầy cô giáo đã giúp đỡ, tạo điều kiện để tôi có cơ hội nghiên cứu, học tập và hoàn thành đề tài nghiên cứu này

Do hạn chế về trình độ chuyên môn và thời gian thực hiện nên đề tài không tránh khỏi những thiếu sót, rất mong nhận được sự góp ý của thầy cô để tôi có thể hoàn thành tốt nhất đề tài nghiên cứu này

Tôi xin chân thành cảm ơn!

Sơn la, tháng 5 năm 2014

Sinh viên

Hoàng Khánh Linh

Trang 2

MỤC LỤC

PHẦN MỞ ĐẦU 7

1 Lý do chọn đề tài 7

2 Mục đích, nhiệm vụ nghiên cứu 7

3 Đối tượng nghiên cứu 7

4 Phạm vi nghiên cứu 7

5 Phương pháp nghiên cứu 7

6 Cấu trúc của đề tài 7

CHƯƠNG 1 TỔNG QUAN VỀ MÔ HÌNH MẠNG NƠ-RON 8

1.1 Mạng nơ-ron nhân tạo 8

1.1.1 Mạng nơ-ron nhân tạo là gì? 8

1.1.2 Cấu trúc và mô hình của một nơ-ron nhân tạo 8

1.1.3 Cấu tạo và phương thức làm việc của mạng nơ-ron 10

1.1.4 Các kiểu mạng nơ-ron 12

1.2.Các phương pháp học 16

1.2.1 Khái Niệm 16

1.2.2 Học có giám sát 16

1.2.3 Học không giám sát 17

1.2.4 Học nửa giám sát 18

1.2.5 Học tăng cường 18

CHƯƠNG 2 LÝ THUYẾT TẬP MỜ 19

2.1 Tập mờ 19

2.1.1 Khái niệm tập rõ 19

2.1.2 Khái niệm tập mờ 19

2.2 Số mờ 21

2.2.1 Định nghĩa số mờ 21

2.2.2 Số mờ đơn trị 21

2.2.3 Số mờ tam giác 21

2.2.4 Số mờ hình thang 22

Trang 3

2.2.5 Số mờ hình chuông(Gauss) 22

2.3 Biến ngôn ngữ 22

2.4 Bộ giải mờ 24

2.4.1 Phương pháp lấy max 24

2.4.2 Phương pháp lấy trọng tâm 24

2.4.3 Phương pháp lấy trung bình tâm 24

CHƯƠNG 3 KỸ THUẬT SOM VÀ BÀI TOÁN PHÂN CỤM DỮ LIỆU 25

3.1 Sơ lược về SOM 25

3.2 Kiến trúc của SOM 25

3.3 Thuật toán phân cụm sử dụng SOM 26

3.4 Ví dụ minh họa thuật toán 27

CHƯƠNG 4 ỨNG DỤNG MINH HỌA 32

4.1 Mô tả dữ liệu 32

4.2 Lựa chọn ngôn ngữ lập trình và hệ quản trị cơ sở dữ liệu 32

4.3 Cài đặt thuật toán 32

4.3.1 Cài đặt thuật toán 32

4.3.2 Đánh giá ứng dụng 36

KẾT LUẬN 37

1 Kết luận 37

2 Hướng nghiên cứu phát triển đề tài 37

TÀI LIỆU THAM KHẢO 38

Trang 4

DANH SÁCH HÌNH VẼ

Hình 1 Mô hình nơ-ron nhân tạo 8

Hình 2: Đồ thị các dạng hàm truyền 10

Hình 3: Mạng nơ-ron ba lớp 11

Hình 4: Một số dạng mạng nơ-ron 13

Hình 5 Cấu trúc của mạng Hopfield 14

Hình 6: Cấu trúc của BAM 15

Hình 7: Đồ thị hàm thuộc µA(x) 20

Hinh 8: Số mờ tam giác 22

Hinh 9: Số mờ hình thang 22

Hình 10: Số mờ hình chuông 22

Hình 11: Đồ thị biểu diễn mỗi quan hệ giữa nhiệt độ và độc thuộc 23

Hình 12: Kiến trúc của SOM 26

Hình 13: Kiến trúc SOM đơn giản 26

Hinh 14: Sơ đồ mạng Kohonen cho ví dụ trên 29

Hình 15: Giao diện chính của chương trình 33

Hình 16: Sau khi phân cụm hoàn tất 34

Hinh 17: Dữ liệu ban đầu 34

Hinh 18: Kết quả phân cụm - Cụm 1 35

Hình 19: Kết quả phân cụm - Cum 2 35

Hinh 20: Kết quả phân cụm - Cum 3 36

Trang 5

DANH MỤC BẢN BIỂU

Bảng 1: Số mờ cho trường buying 28

Bảng 2: Số mờ cho trường maint 28

Bảng 3: Số mờ cho trường lug_boot 28

Bảng 4: Số mờ cho trường safety 28

Bảng 5: Dữ liệu đầu vào của ví dụ 28

Bảng 6: Các trường thông tin trong CSDL 32

Trang 6

DANH MỤC TỪ VIẾT TẮT

Trang 7

PHẦN MỞ ĐẦU

1 Lý do chọn đề tài

Phân cụm sử dụng mạng Kohonen (SOM: Self-Organizing Maps): Loại phân cụm này dựa trên khái niệm của các mạng nơ-ron Mạng SOM có tầng nơ-ron vào và tầng nơ-ron ra Mỗi nơ-ron của tầng vào tương ứng với mỗi thuộc tính của bản ghi, mỗi một nơ-ron vào kết nối với tất cả các nơ-ron của tầng ra Mỗi liên kết được gắn liền với một trọng số nhằm xác định vị trí của nơ-ron ra tương ứng

Trong số này , SOM là một giải thuật được phát triển bởi Kohonen , nó có thể được áp dụng cho nhiều lớp bài toán khác nhau Giải thuật SOM ban đầu được phát triển cho mu ̣c đích phân loa ̣i tiếng nói , tuy nhiên SOM còn có thể áp du ̣ng được trong nhiều lĩnh vực khác như điều khiển tự đô ̣ng (Control Engineering), nhâ ̣n da ̣ng tiếng nói (Kohonen, 1989), robotics (Ritter et al , 1989), máy ảo (Oja, 1992), tối ưu tổ hợp (Fort, 1988), phân lớ p (Kohonen, 1984), hóa - sinh trắc ho ̣c (Biomedical Sciences and Chemistry), phân tích tà i chính (Financial Analysis) và xử lý ngôn ngữ tự nhiên (Natural Language Processing)

2 Mục đích, nhiệm vụ nghiên cứu

- Tìm hiểu mạng nơ-ron và kỹ thuật SOM

- Triển khai ứng dụng sử dụng kỹ thuật SOM vào phân cụm dữ liệu

3 Đối tượng nghiên cứu

- Mạng nơ-ron và kỹ thuật Self Organizing Map (SOM)

4 Phạm vi nghiên cứu

- Nghiên cứu kỹ thuật SOM và sử dụng SOM để phân cụm dữ liệu

- Cài đặt chương trình ứng dụng thử nghiệm

5 Phương pháp nghiên cứu

- Nghiên cứu lý thuyết và xây dựng mô hình ứng dụng cho bài toán thực tế

- Thu thập số liệu thực tế để thử nghiệm trên mô hình

- Xây dựng chương trình thử nghiệm

6 Cấu trúc của đề tài

Đề tài gồm ba phần:

- Phần 1: Phần mở đầu

- Phần 2: Phần nội dung của đề tài gồm 4 chương:

Chương 1: Tổng quan về mô hình mạng nơ-ron Chương 2: Lý thuyết tập mờ

Chương 3: Kỹ thuật SOM và bài toán phân cụm dữ liệu Chương 4: Chương trình minh họa

- Phần 3: Kết luận và hướng nghiên cứu phát triển đề tài

Trang 8

CHƯƠNG 1 TỔNG QUAN VỀ MÔ HÌNH MẠNG NƠ-RON 1.1 Mạng nơ-ron nhân tạo

1.1.1 Mạng nơ-ron nhân tạo là gì?

Định nghĩa: Mạng nơ-ron nhân tạo (Artificial Neural Network - ANN) gọi tắt là

mạng nơ-ron là một mô hình xử lý thông tin phỏng theo cách thức xử lý thông tin của các hệ nơ-ron sinh học Nó được tạo lên từ một số lượng lớn các phần tử (gọi là phần

tử xử lý hay nơ-ron) kết nối với nhau thông qua các liên kết (gọi là trọng số liên kết) làm việc như một thể thống nhất để giải quyết một vấn đề cụ thể nào đó

Một mạng nơ-ron nhân tạo được cấu hình cho một ứng dụng cụ thể (nhận dạng mẫu, phân loại dữ liệu ) thông qua một quá trình học từ tập các mẫu huấn luyện Về bản chất học chính là quá trình hiệu chỉnh trọng số liên kết giữa các nơ-ron

1.1.2 Cấu trúc và mô hình của một nơ-ron nhân tạo

Mô hình toán học của mạng nơ-ron sinh học được đề xuất bởi McCulloch và Pitts, thường được gọi là nơ-ron M-P, ngoài ra nó còn được gọi là phần tử xử lý và được ký hiệu là PE (Processing Element)

Mô hình nơ-ron có m đầu vào x1, x2, , xm và một đầu ra yi như sau:

Hình 1 Mô hình nơ-ron nhân tạo

Trang 9

Bộ tổng (Hàm tổng): Thường dùng để tính tổng của tích các đầu vào với trọng số liên kết của nó

Ngưỡng: Ngưỡng này thường được đưa vào như một thành phần của hàm truyền Hàm truyền: Hàm này dùng để giới hạn phạm vi đầu ra của mỗi nơ-ron Nó nhận đầu vào là kết quả của hàm tổng và ngưỡng đã cho Thông thường, phạm vi đầu ra của mỗi nơ-ron được giới hạn trong đoạn [0,1] hoặc [-1,1] Các hàm truyền rất đa dạng, có thể là các hàm tuyến tính hoặc phi tuyến Việc lựa chọn hàm truyền tùy thuộc vào từng bài toán và kinh nghiệm của người thiết kế mạng

Đầu ra: Là tín hiệu đầu ra của một nơ-ron, với mỗi nơ-ron sẽ có tối đa một đầu

ra

Về mặt toán học, cấu trúc của một nơ-ron i được mô tả bằng cặp biểu thức sau:

yif ( neti  i) và n j

j ij

Như vậy, tương tự như nơ-ron sinh học, nơ-ron nhân tạo cũng nhận các tín hiệu đầu vào, xử lý (nhân các tín hiệu này với trọng số liên kết, tính tổng các tích thu được rồi gửi kết quả đến hàm truyền), và cho một tín hiệu đầu ra (là kết quả của hàm truyền)

01

01

)sgn(

x

k hi

x

k hi x

10

11

)sgn(

x khi

x khi

x

x khi x

Trang 10

1.1.3 Cấu tạo và phương thức làm việc của mạng nơ-ron

Dựa trên những phương pháp xây dựng nơ-ron đã trình bày ở mục trên, ta có thể hình dung mạng nơ-ron như là một hệ truyền đạt và xử lý tín hiệu Đặc tính truyền đạt của nơ-ron phần lớn là đặc tính truyền đạt tĩnh

Khi liên kết các đầu vào/ra của nhiều ron với nhau, ta thu được một mạng ron, việc ghép nối các nơ-ron trong mạng với nhau có thể là theo một nguyên tắc bất

nơ-kỳ Vì mạng nơ-ron là một hệ truyền đạt và xử lý tín hiệu, nên có thể phân biệt các loại nơ-ron khác nhau, các nơ-ron có đầu vào nhận thông tin từ môi trường bên ngoài khác với các nơ-ron có đầu vào được nối với các nơ-ron khác trong mạng, chúng được phân biệt với nhau qua vector hàm trọng số ở đầu vào w

Nguyên lý cấu tạo của mạng nơ-ron bao gồm nhiều lớp, mỗi lớp bao gồm nhiều nơ-ron có cùng chức năng trong mạng Hình 3 là mô hình hoạt động của một mạng nơ-ron 3 lớp với 8 phần tử nơ-ron Mạng có ba đầu vào là x1, x2, x3 và hai đầu ra y1, y2 Các tín hiệu đầu vào được đưa đến 3 nơ-ron đầu vào, 3 nơ-ron này làm thành lớp đầu vào của mạng Các nơ-ron trong lớp này được gọi là nơ-ron đầu vào Đầu ra của các

Trang 11

nơ-ron này được đưa đến đầu vào của 3 nơ-ron tiếp theo, 3 nơ-ron này không trực tiếp tiếp xúc với môi trường bên ngoài mà làm thành lớp ẩn, hay còn gọi là lớp trung gian Các nơ-ron trong lớp này có tên là nơ-ron nội hay nơ-ron ẩn Đầu ra của các nơ-ron này được đưa đến 2 nơ-ron đưa tín hiệu ra môi trường bên ngoài Các nơ-ron trong lớp đầu ra này được gọi là nơ-ron đầu ra

Hình 3: Mạng nơ-ron ba lớp Mạng nơ-ron được xây dựng như trên là mạng gồm 3 lớp mắc nối tiếp nhau đi từ đầu vào đến đầu ra Trong mạng không tồn tại bất kỳ một mạch hồi tiếp nào Một mạng nơ-ron có cấu trúc như vậy gọi là mạng một hướng hay mạng truyền thẳng một hướng (Feed forward network), và có cấu trúc mạng ghép nối hoàn toàn (vì bất cứ một nơ-ron nào trong mạng cũng được nối với một hoặc vài nơ-ron khác) Mạng nơ-ron bao gồm một hay nhiều lớp trung gian được gọi là mạng Multilayer Perceptrons (MLP-Network)

Mạng nơ-ron khi mới được hình thành thì chưa có tri thức, tri thức của mạng sẽ được hình thành dần dần sau một quá trình học Mạng nơ-ron được học bằng cách đưa vào những kích thích, và mạng hình thành những đáp ứng tương ứng, những đáp ứng tương ứng phù hợp với từng loại kích thích sẽ được lưu trữ Giai đoạn này được gọi là giai đoạn học của mạng Khi đã hình thành tri thức mạng, mạng có thể giải quyết các vấn đề một cách đúng đắn Đó có thể là vấn đề ứng dụng rất khác nhau, được giải quyết chủ yếu dựa trên sự tổ chức hợp nhất giữa các thông tin đầu vào của mạng và các đáp ứng đầu ra

Mạng nơ-ron có nhiệm vụ là hoàn chỉnh hoặc hiệu chỉnh các thông tin thu được không đầy đủ hoặc bị tác động của nhiễu, được ứng dụng trong lĩnh vực hoàn thiện mẫu, trong đó có một ứng dụng cụ thể là nhận dạng chữ viết

Nhiệm vụ tổng quát của một mạng nơ-ron là lưu giữ động các thông tin Dạng thông tin lưu giữ này chính là quan hệ giữa các thông tin đầu vào và các đáp ứng đầu

ra tương ứng, để khi có một kích thích bất kỳ tác động vào mạng, mạng có khả năng suy diễn và đưa ra một đáp ứng phù hợp Đây chính là chức năng nhận dạng theo mẫu

Trang 12

của mạng nơ-ron Để thực hiện chức năng này, mạng nơ-ron đóng vai trò như một bộ phận tổ chức các nhóm thông tin đầu vào, và tương ứng với mỗi nhóm là một đáp ứng đầu ra phù hợp Như vậy, một nhóm bao gồm một loại thông tin đầu vào và một đáp ứng đầu ra Các nhóm có thể được hình thành trong quá trình học, và cũng có thể không hình thành trong quá trình học

1.1.4 Các kiểu mạng nơ-ron

1.1.4.1 Mạng nơ-ron một lớp

Mỗi một nơ-ron có thể phối hợp với các nơ-ron khác tạo thành một lớp các trọng số Mạng một lớp truyền thẳng như hình 4a Một lớp nơ-ron là một nhóm các nơ-ron mà chúng đều có cùng trọng số, nhận cùng một tín hiệu đầu vào đồng thời Trong ma trận trọng số, các hàng là thể hiện nơ-ron, hàng thứ j có thể đặt nhãn như một vector wj của nơ-ron thứ j gồm m trọng số wji Các trọng số trong cùng một cột thứ j (j=1,2, ,n) đồng thời cùng nhận một tín hiệu đầu vào xj

wj = [wj1, wj2, , wjm]

Tại cùng một thời điểm, vector đầu vào x = [x1, x2, , xn] có thể là một nguồn bên ngoài là cảm biến hoặc thiết bị đo lường đưa tới mạng

(a) Mạng truyền thẳng một lớp (b) Mạng hồi tiếp một lớp

(c) Mạng truyền thẳng nhiều lớp

Trang 13

(d) Mạng nơ-ron hồi quy

Hình 4: Một số dạng mạng nơ-ron

1.1.4.2 Mạng nơ-ron truyền thẳng nhiều lớp

Mạng nơ-ron nhiều lớp (Hình 4c) có các lớp được phân chia thành 3 loại sau đây: Lớp vào là lớp nơ-ron đầu tiên nhận tín hiệu vào xi (i = 1, 2, , n) Mỗi tín hiệu xiđược đưa đến tất cả các nơ-ron của lớp đầu vào Thông thường, các nơ-ron đầu vào không làm biến đổi các tín hiệu vào xi, tức là chúng không có các trọng số hoặc không

có các loại hàm chuyển đổi nào, chúng chỉ đóng vai trò phân phối các tín hiệu

Lớp ẩn là lớp nơ-ron sau lớp vào, chúng không trực tiếp liên hệ với thế giới bên ngoài như các lớp nơ-ron vào/ra

Lớp ra là lớp nơ-ron tạo ra các tín hiệu ra cuối cùng

1.1.4.3 Mạng nơ-ron hồi tiếp

Mạng nơ-ron hồi tiếp là mạng mà đầu ra của mỗi nơ-ron được quay trở lại nối với đầu vào của các nơ-ron cùng lớp được gọi là mạng Laeral như hình 4b

1.1.4.4 Mạng nơ-ron hồi quy

Mạng nơ-ron phản hồi có thể thực hiện đóng vòng được gọi là mạng nơ-ron hồi quy như hình 4d Mạng nơ-ron hồi quy có trọng số liên kết đối xứng như mạng Hopfield, mạng luôn hội tụ về trạng thái ổn định (Hình 4b) Mạng BAM thuộc nhóm mạng nơ-ron hồi quy, gồm 2 lớp liên kết 2 chiều, không được gắn với tín hiệu vào/ra Nghiên cứu mạng nơ-ron hồi quy mà có trọng số liên kết không đối xứng, thì sẽ gặp phải vấn đề phức tạp nhiều hơn so với mạng truyền thẳng và mạng hồi quy có trọng số liên kết đối xứng

Trang 14

Hình 5 Cấu trúc của mạng Hopfield

Như mạng Hopfield đã vẽ ở trên, ta thấy nút có một đầu vào bên ngoài xj và một giá trị ngưỡng j(j = 1,2, n) Một điều quan trọng cần nói ở đây là mỗi nút không có

đường phản hồi về chính nó Nút đầu ra thứ j được nối tới mỗi đầu vào của nút khác qua trọng số wij, với ij, (i = 1,2, ,n), hay nói cách khác wii = 0, (với i = 1,2, ,n) Một điều quan trọng nữa là trọng số của mạng Hopfield là đối xứng, tức là wij =

wji, (với i,j = 1,2, ,n) Khi đó, luật cập nhật cho mỗi nút mạng là như sau:

,sgn

1

) ( )

i k j ij k

Có sự khác biệt giữa luật cập nhật đồng bộ và luật cập nhật không đồng bộ Với luật cập nhật không đồng bộ thì sẽ chỉ có một trạng thái cân bằng của hệ (với giá trị đầu đã được xác định trước) Trong khi đó, với luật cập nhật đồng bộ thì có thể làm mạng hội tụ ở mỗi điểm cố định hoặc một vòng giới hạn

1.1.4.6 Mạng BAM

Mạng BAM bao gồm hai lớp và được xem như là trường hợp mở rộng của mạng Hopfield Ở đây ta chỉ xét mạng rời rạc, vì nó đơn giản và dễ hiểu

Trang 15

Hình 6: Cấu trúc của BAM

Khi mạng nơ-ron được tích cực với giá trị đầu vào của vector tại đầu vào của một lớp, mạng sẽ có hai mẫu trạng thái ổn định, với mỗi mẫu tại đầu ra của nó là một lớp Tính động học của mạng thể hiện dưới dạng tác động qua lại giữa hai lớp Cụ thể hơn, giả sử một vector đầu vào x được cung cấp cho đầu vào của lớp nơ-ron y Đầu vào được xử lý và truyền tới đầu ra của lớp y như sau:

x

1

; với j = 1,2, ,m (1.8) Sau đó x’ nuôi trở lại đầu vào của lớp y và tạo ra hàm y’’ theo phương trình (1.7) Quá trình này cứ tiếp tục, bao gồm các bước như sau:

(truyền thẳng lần thứ k/2) (truyền ngược lần thứ k/2)

(1.9)

Chú ý rằng trạng thái cập nhật trong phương trình (1.9) là đồng bộ theo phương trình (1.7) và (1.8) Trạng thái cập nhật cũng có thể không đồng bộ theo phương trình (1.7) và (1.8) với các nút i, j được chọn tự do Người ta đã chỉ ra rằng, hệ thống ổn định cho cả hai chế độ đồng bộ và không đồng bộ Tuy nhiên, chế độ đồng bộ sẽ làm cho hệ thống hội tụ nhanh hơn

Trang 16

1.2.Các phương pháp học

1.2.1 Khái Niệm

Khái niệm: Học là quá trình thay đổi hành vi của các vật theo một cách nào đó

làm cho chúng có thể thực hiện tốt hơn trong tương lai

Một mạng nơ-ron được huấn luyện sao cho với một tập các vector đầu vào X, mạng có khả năng tạo ra tập các vector đầu ra mong muốn Y của nó Tập X được sử dụng cho huấn luyện mạng được gọi là tập huấn luyện (training set) Các phần tử x thuộc X được gọi là các mẫu huấn luyện (training example) Quá trình huấn luyện bản chất là sự thay đổi các trọng số liên kết của mạng Trong quá trình này, các trọng số của mạng sẽ hội tụ dần tới các giá trị sao cho với mỗi vector đầu vào x từ tập huấn luyện, mạng sẽ cho ra vector đầu ra y như mong muốn

Các phương pháp học phổ biến là học có giám sát (supervised learning), học không giám sát (unsupervised learning), học nửa giám sát và học tăng cường (Reinforcement learning)

1.2.2 Học có giám sát

Học có giám sát (supervised learning) là một kĩ thuật của ngành học máy để xây dựng một hàm từ dữ liệu huấn luyện Dữ liệu huấn luyện bao gồm mỗi cặp đối tượng đầu vào (thường dạng vec-tơ) và đầu ra mong muốn Đầu ra của một hàm có thể là một giá trị liên tục (gọi là hồi quy), hay có thể là dự đoán một nhãn phân loại cho một đối tượng đầu vào (gọi là phân loại) Nhiệm vụ của chương trình học có giám sát là dự đoán giá trị của hàm cho một đối tượng bất kì là đầu vào hợp lệ, sau khi đã xem xét một số ví dụ huấn luyện (nghĩa là các cặp đầu vào và đầu ra tương ứng) Để đạt được điều này, chương trình học phải tổng quát hóa từ các dữ liệu sẵn có để dự đoán được những tình huống chưa gặp phải theo một cách "hợp lí"

Học có giám sát có thể tạo ra 2 loại mô hình Phổ biến nhất, học có giám sát tạo

ra một mô hình toàn cục (global model) để ánh xạ đối tượng đầu vào đến đầu ra mong muốn Tuy nhiên, trong một số trường hợp, việc ánh xạ được thực hiện dưới dạng một tập các mô hình cục bộ (như trong phương pháp lập luận theo tình huống hay giải thuật láng giềng gần nhất)

Để có thể giải quyết một bài toán nào đó của học có giám sát (ví dụ: học để nhận dạng chữ viết tay) người ta phải xem xét nhiều bước khác nhau:

1 Xác định loại của các ví dụ huấn luyện Trước khi làm bất cứ điều gì, người kĩ

sư nên quyết định loại dữ liệu nào sẽ được sử dụng làm ví dụ Chẳng hạn, đó có thể là một kí tự viết tay đơn lẻ, toàn bộ một từ viết tay, hay toàn bộ một dòng chữ viết tay

Trang 17

2 Thu thập tập huấn luyện Tập huấn luyện cần đặc trưng cho thực tế sử dụng của hàm chức năng Vì thế, một tập các đối tượng đầu vào được thu thập và đầu ra tương ứng được thu thập, hoặc từ các chuyên gia hoặc từ việc đo đạc tính toán

3 Xác định việc biểu diễn các đặc trưng đầu vào cho hàm chức năng cần tìm Sự chính xác của hàm chức năng phụ thuộc lớn vào cách các đối tượng đầu vào được biểu diễn Thông thường, đối tượng đầu vào được chuyển đổi thành một vec-tơ đặc trưng, chứa một số các đặc trưng nhằm mô tả cho đối tượng đó Số lượng các đặc trưng không nên quá lớn, do sự bùng nổ tổ hợp (curse of dimensionality); nhưng phải đủ lớn

để dự đoán chính xác đầu ra

4 Xác định cấu trúc của hàm chức năng cần tìm và giải thuật học tương ứng Ví

dụ, người kĩ sư có thể lựa chọn việc sử dụng mạng nơ-ron nhân tạo hay cây quyết định

5 Hoàn thiện thiết kế Người kĩ sư sẽ chạy giải thuật học từ tập huấn luyện thu thập được Các tham số của giải thuật học có thể được điều chỉnh bằng cách tối ưu hóa hiệu năng trên một tập con (gọi là tập kiểm chứng -validation set) của tập huấn luyện, hay thông qua kiểm chứng chéo (cross-validation) Sau khi học và điều chỉnh tham số, hiệu năng của giải thuật có thể được đo đạc trên một tập kiểm tra độc lập với tập huấn luyện

1.2.3 Học không giám sát

Học không có giám sát(unsupervised learning) là một phương pháp của ngành học máy nhằm tìm ra một mô hình mà phù hợp với các quan sát Nó khác biệt với học có giám sátở chỗ là đầu ra đúng tương ứng cho mỗi đầu vào là không biết trước Trong học không có giám sát, một tập dữ liệu đầu vào được thu thập Học không có giám sát thường đối xử với các đối tượng đầu vào như là một tập các biến ngẫu nhiên Sau đó, một mô hình mật độ kết hợp sẽ được xây dựng cho tập dữ liệu đó Học không có giám sát có thể được dùng kết hợp với suy diễn Bayes để cho ra xác suất có điều kiện (nghĩa là học có giám sát) cho bất kì biến ngẫu nhiên nào khi biết trước các biến khác

Học không có giám sát cũng hữu ích cho việc nén dữ liệu: về cơ bản, mọi giải thuật nén dữ liệu hoặc là dựa vào một phân bố xác suấttrên một tập đầu vào một cách tường minh hay không tường minh

Một dạng khác của học không có giám sát làphân mảnh (data clustering), nó đôi khi không mang tính xác suất Xem thêm phân tích khái niệm hình thức (formal concept analysis)

Trang 18

1.2.4 Học nửa giám sát

Trong khoa học máy tính,học nửa giám sátlà một lớp của kỹ thuật học máy, sử dụng cả dữ liệu đã gán nhãn và chưa gán nhãn để huấn luyện - điển hình là một lượng nhỏ dữ liệu có gán nhãn cùng với lượng lớn dữ liệu chưa gán nhãn Học nửa giám sát đứng giữa học không giám sát (không có bất kì dữ liệu có nhãn nào) và có giám sát (toàn bộ dữ liệu đều được gán nhãn) Nhiều nhà nghiên cứu nhận thấy dữ liệu không gán nhãn, khi được sử dụng kết hợp với một chút dữ liệu có gán nhãn, có thể cải thiện đáng kể độ chính xác Để gán nhãn dữ liệu cho một bài toán học máy thường đòi hỏi một chuyên viên có kĩ năng để phân loại bằng tay các ví dụ huấn luyện Chi phí cho quy trình này khiến tập dữ liệu được gán nhãn hoàn toàn trở nên không khả thi, trong khi dữ liệu không gán nhãn thường tương đối rẻ tiền Trong tình huống đó, học nửa giám sát có giá trị thực tiễn lớn lao

Một ví dụ cho kỹ thuật học máy nửa giám sát là đồng huấn luyện (co-training), trong đó hay hay nhiều bộ học được huấn luyện cùng một tập ví dụ nhưng mỗi bộ sử dụng một tập đặc trưng khác nhau, lý tưởng nhất là độc lập với nhau

Một cách tiếp cận khác là mô hình hoá phân phối xác suất đồng thời của các đặc trưng và nhãn Với dữ liệu chưa gán nhãn, có thể coi nhãn là "dữ liệu còn thiếu" Các

kỹ thuật xử lý dữ liệu còn thiếu như là lấy mẫu Gibbs và tối ưu kỳ vọng có thể được sử dụng để ước lượng tham số

1.2.5 Học tăng cường

Học tăng cường (reinforcement learning) nghiên cứu cách thức một agent trong một môi trường nên chọn thực hiện các hành động nào để cực đại hóa một khoản thưởng (reward) nào đó về lâu dài Các thuật toán học tăng cường cố gắng tìm một chiến lược ánh xạ các trạng thái của thế giới tới các hành động mà agent nên chọn trong các trạng thái đó

Môi trường thường được biểu diễn dưới dạng một quá trình quyết định Markov trạng thái hữu hạn (Markov decision process - MDP), và các thuật toán học tăng cường cho ngữ cảnh này có liên quan nhiều đến các kỹ thuật quy hoạch động Các xác suất chuyển trạng thái và các xác suất thu lợi trong MDP thường là ngẫu nhiên nhưng lại tĩnh trong quá trình của bài toán

Khác với học có giám sát, trong học tăng cường không có các cặp dữ liệu vào/kết quả đúng, các hành động gần tối ưu cũng không được đánh giá đúng sai một cách tường minh Hơn nữa, ở đây hoạt động trực tuyến (on-line performance) được quan tâm, trong đó có việc tìm kiếm một sụ cân bằng giữa khám phá (lãnh thổ chưa lập bản đồ) và khai thác (tri thức hiện có) Trong học tăng cường, sự được và mất giữa khám phá và khai thác đã đường nghiên cứu chủ yếu qua bài toán multi-armed bandit

Trang 19

Một cách hình thức, mô hình học tăng cường bao gồm:

S: tập các trạng thái của môi trường ;

A: tập các hành động; và

: tập các khoản "thưởng" với giá trị vô hướng

Tại mỗi thời điểm t, agent thấy được trạng thái của nó là s t S và tập các hành động có thể A(s t ) Nó chọn một hành động a A(s t) và nhận được từ môi trường trạng

thái mới s t+1 và một khoản thưởng r t+1 Dựa trên các tương tác này, agent học tăng

cường phải phát triển một chiến lược π:S A có tác dụng cực đại hóa lượng R=r0+r1+ +r n với các MDP có một trạng thái kết thúc, hoặc lượng R=Σ tγt

r t với các MDP không có trạng thái kết thúc (trong đó γ là một hệ số giảm khoản "thưởng trong tương lai" nào đó, với giá trị trong khoảng 0.0 và 1.0)

Do đó, học tăng cường đặc biệt thích hợp cho các bài toán có sự được mất giữa các khoản thưởng ngắn hạn và dài hạn Học tăng cường đã được áp dụng thành công cho nhiều bài toán, trong đó có điều khiển robot, điều vận thang máy, viễn thông, các trò chơi backgammon và cờ vua

CHƯƠNG 2

LÝ THUYẾT TẬP MỜ 2.1 Tập mờ

2.1.1 Khái niệm tập rõ

Một tập vũ trụ A là một tập rõ có nghĩa là có thể liệt kê tất cả các phần tử của A, chẳng hạn A = {3, 5, 6, 9} Trong trường hợp không thể liệt kê ra hết được các phần tử của tập A, chúng ta có thể chỉ ra các tính chất chính xác mà các phần tử của tập A thoả mãn, chẳng hạn A = {x | x là số nguyên tố} Một tập rõ có thể được xác định bởi hàm

đặc trưng, hay còn gọi là hàm thuộc (membership function) của nó Hàm thuộc của tập

rõ A, được ký hiệu là λ A , đó là hàm 2 trị (1/0), nó nhận giá trị 1 trên các đối tượng x thuộc tập A và giá trị 0 trên các đối tượng x không thuộc A Giữa phần tử bất kỳ và tập

A chỉ tồn tại một trong hai quan hệ thuộc hoặc không thuộc

2.1.2 Khái niệm tập mờ

Xung quanh chúng ta, luôn tồn tại các khái niệm mờ, nó hiện hữu trong các bài toán ứng dụng, ngay cả trong suy nghĩ của mỗi chúng ta Ví dụ xét về tuổi của con người chúng ta có các khái niệm trẻ, rất trẻ, hơi già,… Chúng ta cúng xét ví dụ sau:

Ta xét tập hợp những người trẻ Ta thấy rằng người dưới 25 tuổi thì rõ ràng là trẻ

và người trên 60 tuổi thì rõ ràng là không trẻ Nhưng những người có tuổi từ 26 đến 59 thì có thuộc tập hợp những người trẻ hay không? Nếu áp dụng khái niệm tập hợp cổ điển thì ta phải định ra một ranh giới rõ ràng và mang tính chất áp đặt chẳng hạn là 45

Ngày đăng: 31/10/2014, 09:21

Nguồn tham khảo

Tài liệu tham khảo Loại Chi tiết
[1] Lê Anh Tú, Nguyễn Quang Hoan, Cải tiến giải thuật mạng noron SOM áp dụng để phân cụm màu ảnh, Hội nghị toàn quốc về Điều khiển và Tự động hóa – VCCA, 2011 Sách, tạp chí
Tiêu đề: Cải tiến giải thuật mạng noron SOM áp dụng để phân cụm màu ảnh
[2] Bùi Hoàng Khánh, Lê Duy Hƣng, Hoàng Mạnh Khôi, Báo cáo mạng noron và ứng dụng, ĐH Công nghệ - ĐHQGHN, 2010 Sách, tạp chí
Tiêu đề: Báo cáo mạng noron và ứng dụng
[3] Hồ Ngọc Anh, Bùi Trần Quang Vũ, Logic mờ Số mờ và Hệ mờ, ĐHQGTP Hồ Chí Minh, 2005 Sách, tạp chí
Tiêu đề: Logic mờ Số mờ và Hệ mờ
[4] Nguyên Tân Ân, Nguyễn Duy Hiếu, (Báo cáo khoa học) Tính toán mờ trong mạng Kohonen, ứng dụng phân cụm dữ liệu sinh viên trường ĐH Tây Bắc Khác
[5] Huỳnh Thị Kim Ngân, Sử dụng mạng Kohonen để phân cụm một số cơ sở dữ liệu trong trường học, Quang tri teacher training college - VietNamTiếng Anh Khác
[6] Kohonen T. The self organizing map// Proceding of the IEEE, 78 (9), P. 1464-1480, 1990 Khác
[7] R.Rojas, Neural Networks, Springer-Verlag, Berlin, 1996 WEB tham khảo Khác

HÌNH ẢNH LIÊN QUAN

Hình 1. Mô hình nơ-ron nhân tạo   Giải thích các thành phần cơ bản: - Khóa luận tốt nghiệp toán học: Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu
Hình 1. Mô hình nơ-ron nhân tạo Giải thích các thành phần cơ bản: (Trang 8)
Hình 2: Đồ thị các dạng hàm truyền - Khóa luận tốt nghiệp toán học: Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu
Hình 2 Đồ thị các dạng hàm truyền (Trang 10)
Hình 3: Mạng nơ-ron ba lớp - Khóa luận tốt nghiệp toán học: Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu
Hình 3 Mạng nơ-ron ba lớp (Trang 11)
Hình 4: Một số dạng mạng nơ-ron - Khóa luận tốt nghiệp toán học: Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu
Hình 4 Một số dạng mạng nơ-ron (Trang 13)
Hình 5 Cấu trúc của mạng Hopfield - Khóa luận tốt nghiệp toán học: Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu
Hình 5 Cấu trúc của mạng Hopfield (Trang 14)
Hình 6: Cấu trúc của BAM - Khóa luận tốt nghiệp toán học: Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu
Hình 6 Cấu trúc của BAM (Trang 15)
Hỡnh 7: Đồ thị hàm thuộc à A(x) - Khóa luận tốt nghiệp toán học: Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu
nh 7: Đồ thị hàm thuộc à A(x) (Trang 20)
Hình 10: Số mờ hình chuông - Khóa luận tốt nghiệp toán học: Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu
Hình 10 Số mờ hình chuông (Trang 22)
Hình 13: Kiến trúc SOM đơn giản - Khóa luận tốt nghiệp toán học: Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu
Hình 13 Kiến trúc SOM đơn giản (Trang 26)
Hình 12: Kiến trúc của SOM - Khóa luận tốt nghiệp toán học: Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu
Hình 12 Kiến trúc của SOM (Trang 26)
Bảng 2: Số mờ cho trường maint - Khóa luận tốt nghiệp toán học: Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu
Bảng 2 Số mờ cho trường maint (Trang 28)
Bảng 1: Số mờ cho trường buying - Khóa luận tốt nghiệp toán học: Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu
Bảng 1 Số mờ cho trường buying (Trang 28)
Hinh 14: Sơ đồ mạng Kohonen cho ví dụ trên  Để tiện cho quá trình tính toán ta ký hiệu: - Khóa luận tốt nghiệp toán học: Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu
inh 14: Sơ đồ mạng Kohonen cho ví dụ trên Để tiện cho quá trình tính toán ta ký hiệu: (Trang 29)
Hình 15: Giao diện chính của chương trình - Khóa luận tốt nghiệp toán học: Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu
Hình 15 Giao diện chính của chương trình (Trang 33)
Hình 16: Sau khi phân cụm hoàn tất - Khóa luận tốt nghiệp toán học: Tính toán mờ trong mạng Kohonen và ứng dụng phân cụm dữ liệu
Hình 16 Sau khi phân cụm hoàn tất (Trang 34)

TỪ KHÓA LIÊN QUAN

TRÍCH ĐOẠN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

🧩 Sản phẩm bạn có thể quan tâm

w