MỞ ĐẦU Mạng nơron bản đồ tự tổ chức (SOM - Self Organizing Map) được đề xuất bởi giáo sư Teuvo Kohonen vào năm 1980. Nó còn được biết đến với các tên gọi khác là: Bản đồ đặc trưng tự tổ chức (SOFM - Self Organizing Feature Map) hay mạng nơron tự tổ chức, hay đơn giản hơn là mạng nơron Kohonen. Tính tự tổ chức của SOM được thực hiện bởi nguyên tắc học cạnh tranh, không giám sát nhằm tạo ra ánh xạ của dữ liệu từ không gian nhiều chiều về không gian ít chiều hơn (thường là hai chiều), nhưng vẫn đảm bảo được quan hệ về mặt hình trạng của dữ liệu (Kohonen, 2001). Điều này có nghĩa là các dữ liệu có đặc trưng tương đồng nhau sẽ được đại diện bởi cùng một nơron hoặc các nơron gần nhau và các nơron gần nhau sẽ tương đồng với nhau hơn so với những nơron ở xa. Kết quả là hình thành bản đồ đặc trưng của tập dữ liệu. Đây thực chất là một phép chiếu phi tuyến tạo ra “ánh xạ đặc trưng” cho phép phát hiện và phân tích những đặc trưng của không gian dữ liệu vào. Do đó, SOM là một công cụ hiệu quả cho việc trực quan, phân tích dữ liệu và hữu ích để thực hiện các nhiệm vụ tiền xử lý trong khai phá dữ liệu (ví dụ như phân lớp và phân cụm dữ liệu). Tuy nhiên, bản thân mạng nơron SOM vẫn còn tồn tại nhiều nhược điểm dẫn tới những khó khăn và khả năng ứng dụng thực tiễn bị hạn chế như: phải xác định trước hình trạng (số chiều và kết nối giữa các nơron trong cấu trúc mạng) và kích thước bản đồ; bản đồ đặc trưng thiếu tính trực quan; thiếu cơ chế phân loại chính xác dữ liệu theo các tiêu chí cụ thể; tốn thời gian để xác định nơron chiến thắng (BMU), đặc biệt khi bản đồ đặc trưng có kích thước lớn; thứ tự của các mẫu vào ảnh hưởng tới xu hướng biến đổi của bản đồ; thiếu cơ chế giám sát trong quá trình học để nâng cao chất lượng của mạng khi giải quyết các các bài toán mà dữ liệu đầu vào có thông tin hướng dẫn (đầu ra) kèm theo... Do vậy, các nghiên cứu về cải tiến cấu trúc và thuật toán học của mạng nơron SOM đã được nhiều nhà nghiên cứu quan tâm. Các nghiên cứu cải tiến mạng nơron SOM được chia làm hai hướng chính, gồm: cải tiến cấu trúc và cải tiến thuật toán học của mạng. Các nghiên cứu về cải tiến cấu trúc của mạng có thể được chia làm hai nhóm: Nhóm thứ nhất gồm các cấu trúc cải tiến tăng trưởng theo chiều ngang. Các cấu trúc này có đặc điểm chung là ban đầu mạng có kích thước nhỏ, sau đó mở rộng trong quá trình huấn luyện tùy thuộc vào đặc tính của tập dữ liệu huấn luyện. Các cấu trúc điển hình thuộc nhóm này gồm: Growing Cell Structure (Fritzke, 1992), Neural Gas (1993) và Topology Representing Network (Martinetz, 1994), Growing Neural Gas và Growing Grid (Fritzke, 1995), Incremental Grid Growing (Blackmore, 1995), Growing SOM (Alahakoon, 2000)... Nhóm thứ hai gồm các cấu trúc cải tiến tăng trưởng theo chiều dọc, còn gọi là cấu trúc cây (với mỗi nút của cây là một nơron) hoặc cấu trúc cây phân tầng (với mỗi nút của cây là một mạng nơron SOM hoặc một biến thể của SOM). Các cấu trúc cây có thể cố định trước kích thước, nhưng cũng có thể tăng trưởng kích thước trong quá trình huấn luyện, do đó, còn được gọi là cấu trúc cây tăng trưởng. Các cấu trúc điển hình thuộc nhóm này gồm: Tree-Structured VQ và Tree-Structured SOM (Koikkalainen, 1990), Hierarchical Feature Map (Miikkulainen, 1990), Self-Organizing Tree Algorithm (Dopazo, 1997), Growing Hierarchical SOM (Rauber, 2002), Adaptive Hierarchical Incremental Grid Growing (Merkl, 2003), Evolving Tree (Pakkanen, 2004), Self Organising Tree Map (Guan, 2006), Growing Hierarchical Tree SOM (Forti, 2006), TTOSOM with Conditional Rotations (2009) và Tree-Based Topology-Oriented SOM (Astudillo, 2011)... Các cấu trúc cây được đưa ra chủ yếu nhằm mục đích biểu diễn tính chất phân cấp của dữ liệu. Các cải tiến về thuật toán học của mạng có thể chia làm hai nhóm chính: các thuật toán học cải tiến sử dụng phương pháp học không giám sát và các thuật toán học cải tiến sử dụng phương pháp học giám sát hoặc bán giám sát. Nhóm thứ hai hình thành các biến thể với tên gọi chung là các mạng nơron SOM học giám sát hoặc bán giám sát. Các ví dụ điển hình của nhóm này gồm: Supervised Kohonen Network (Kohonen, 1988), Counter Propagation Network (Zupan, 1997), Recurrent Self-Organizing Map (Varsta, 2001), Supervising Network Self-Organizing Map (Papadimitriou, 2001), X–Y Fused Network và Bi-Directional Kohonen network (Melssen, 2006), Semi-Supervised GSOM (Allahyar, 2015)... và một số nghiên cứu liên quan khác của Thammano (2007), Lawawirojwong (2013), Groof (2014), Gil (2015), Li (2013), Abaei (2015). Trên cơ sở nghiên cứu về mạng nơron SOM gốc và các biến thể của SOM về cấu trúc và phương pháp học, có một số vấn đề tồn tại cần tiếp tục nghiên cứu phát triển như sau: Thứ nhất, đề xuất các phương thức cải thiện chất lượng bản đồ đặc trưng khác so với các phương thức đã có trước đây; nghiên cứu cải thiện chất lượng biểu diễn dữ liệu của các mạng nơron SOM cải tiến. Đây là một hướng nghiên cứu mở do hiện nay các nghiên cứu cải thiện chất lượng các mạng nơron SOM cải tiến chưa có nhiều. Thứ hai, cả SOM gốc và hầu hết các biến thể của SOM chủ yếu được thiết kế cho mục tiêu biểu diễn dữ liệu (biểu diễn sự phân bố hoặc sự phân cấp của dữ liệu) nên khi ứng dụng SOM cho các mục đích khác cần nghiên cứu các phương án cải tiến phù hợp. Ví dụ, mạng nơron SOM chưa có phương án phân loại dữ liệu chính xác, do đó khả năng ứng dụng SOM để giải quyết các vấn đề của khai phá dữ liệu (ví dụ như phân lớp và phân cụm) còn hạn chế. Thứ ba: do sử dụng phương pháp học không giám sát nên quá trình học của SOM thiếu thông tin hướng dẫn để nâng cao hiệu quả ứng dụng trong một số bài toán thực tế, ví dụ như bài toán phân lớp dữ liệu. Các tồn tại trên là lý do lựa chọn và đưa ra các mục tiêu nghiên cứu của đề tài luận án. Mục tiêu nghiên cứu của đề tài luận án gồm: 1. Đề xuất một số giải pháp cải thiện chất lượng bản đồ đặc trưng mạng nơron SOM. 2. Cải tiến cấu trúc, thuật toán học mạng nơron SOM ứng dụng cho bài toán phân lớp, phân cụm dữ liệu. Các nội dung nghiên cứu này được thực nghiệm trong phạm vi dữ liệu dạng vector thuộc tính số thực; không áp dụng với các loại dữ liệu khác. Để đánh giá các kết quả nghiên cứu đạt được, nghiên cứu sinh cài đặt chương trình thử nghiệm bằng ngôn ngữ lập trình C# và tiến hành thực nghiệm trên các tập dữ liệu
Trang 1KHOA HỌC VÀ CÔNG NGHỆ VN HỌC VIỆN KHOA HỌC VÀ CÔNG NGHỆ
Trang 2MỤC LỤC
Lời cam đoan 1
Lời cảm ơn 2
MỤC LỤC 3
Danh mục các từ viết tắt 7
Danh mục các ký hiệu toán học 9
Danh mục các bảng 11
Danh mục các hình vẽ, đồ thị 12
Danh mục các định nghĩa, định lý, bổ đề 13
Danh mục các thuật toán 13
MỞ ĐẦU 14
CHƯƠNG 1 19
TỔNG QUAN VỀ CÁC MÔ HÌNH MẠNG NƠRON TỰ TỔ CHỨC 19
1.1 Tổng quan về mạng nơron nhân tạo 19
1.1.1 Khái niệm mạng nơron nhân tạo 19
1.1.2 Các kiến trúc căn bản của mạng nơron nhân tạo 20
1.1.3 Các phương pháp học 21
1.1.4 Lịch sử và xu hướng phát triển mạng nơron nhân tạo 23
1.2 Mạng nơron tự tổ chức 25
1.2.1 Cấu trúc mạng nơron tự tổ chức 25
1.2.2 Thuật toán học của mạng nơron tự tổ chức 26
1.2.3 Đánh giá chất lượng bản đồ đặc trưng của mạng nơron tự tổ chức 29
1.3 Hạn chế của mạng nơron tự tổ chức và các biện pháp khắc phục 32
1.4 Kết quả nghiên cứu trong và ngoài nước về cải tiến cấu trúc, phương pháp học của mạng nơron tự tổ chức 35
1.4.1 Kết quả nghiên cứu trong nước 35
1.4.2 Kết quả nghiên cứu ngoài nước 35
1.5 Đặc điểm chung của các phương thức cải tiến mạng nơron tự tổ chức 41
1.6 Kết luận chương 1 43
CHƯƠNG 2 44
Trang 3HAI PHƯƠNG THỨC CẢI THIỆN CHẤT LƯỢNG BẢN ĐỒ ĐẶC TRƯNG CỦA
MẠNG NƠRON TỰ TỔ CHỨC 44
2.1 Tổng quan về cải thiện chất lượng bản đồ đặc trưng của mạng nơron tự tổ chức 44
2.2 Điều chỉnh hàm lân cận để cải thiện chất lượng bản đồ đặc trưng 46
2.2.1 Một số dạng hàm lân cận của mạng nơron tự tổ chức 46
2.2.2 Điều chỉnh tham số của hàm lân cận đối xứng dạng mũ 47
2.3 Thuật toán điều chỉnh trọng số nơron để giảm lỗi lượng tử 51
2.3.1 Đặt vấn đề 51
2.3.2 Thuật toán điều chỉnh trọng số nơron 57
2.4 Các tập dữ liệu sử dụng cho thực nghiệm 60
2.5 Thực nghiệm hàm lân cận mũ với tham số điều chỉnh 62
2.5.1 Mục tiêu thực nghiệm 62
2.5.2 Phương pháp thực nghiệm 62
2.5.3 Các tham số khởi tạo mạng 62
2.5.4 Kết quả thực nghiệm 63
2.5.5 So sánh hàm lân cận điều chỉnh với một số dạng hàm lân cận khác 72
2.6 Thực nghiệm thuật toán Batch-IMQS 73
2.6.1 Mục tiêu thực nghiệm 73
2.6.2 Phương pháp thực nghiệm 73
2.6.3 Các tham số khởi tạo mạng 73
2.6.4 Kết quả thực nghiệm 73
2.7 Kết luận chương 2 75
CHƯƠNG 3 76
MỘT MẠNG NƠRON TỰ TỔ CHỨC CÓ CẤU TRÚC PHÂN TẦNG TĂNG TRƯỞNG VÀ THUẬT TOÁN HỌC BÁN GIÁM SÁT CHO BÀI TOÁN PHÂN LỚP DỮ LIỆU 76
3.1 Tổng quan về các mạng nơron tự tổ chức cải tiến học giám sát, bán giám sát cho phân lớp dữ liệu 76
3.2 Phát biểu bài toán phân lớp dữ liệu 79
3.3 Một cấu trúc phân tầng tăng trưởng và thuật toán học bán giám sát của mạng nơron tự tổ chức cho bài toán phân lớp dữ liệu 79
3.3.1 Các cấu trúc nền tảng để xây dựng mạng nơron tự tổ chức phân tầng tăng trưởng học bán giám sát cho phân lớp dữ liệu 80
Trang 43.3.2 Cấu trúc mạng nơron tự tổ chức phân tầng tăng trưởng học bán giám sát cho
phân lớp dữ liệu 83
3.3.3 Thuật toán huấn luyện và kiểm thử của mạng nơron tự tổ chức phân tầng tăng trưởng học bán giám sát cho phân lớp dữ liệu 87
3.4 Thực nghiệm mạng nơron tự tổ chức phân tầng tăng trưởng học bán giám sát cho phân lớp dữ liệu 92
3.4.1 Mục tiêu thực nghiệm 92
3.4.2 Phương pháp thực nghiệm 92
3.4.3 Các tham số khởi tạo mạng 93
3.4.4 Kết quả thực nghiệm 93
3.4.5 So sánh mô hình đề xuất với một số phương thức khác 96
3.5 Kết luận chương 3 101
CHƯƠNG 4 102
MỞ RỘNG CẤU TRÚC, THUẬT TOÁN HỌC CỦA MẠNG NƠRON TỰ TỔ CHỨC CHO BÀI TOÁN PHÂN CỤM DỮ LIỆU 102
4.1 Tổng quan về sử dụng mạng nơron tự tổ chức cho phân cụm dữ liệu 102
4.2 Phát biểu bài toán phân cụm dữ liệu 105
4.3 Cải tiến thuật toán học mạng nơron tự tổ chức cho phân cụm dữ liệu 106
4.3.1 Ý tưởng của thuật toán cải tiến 106
4.3.2 Thuật toán học cải tiến của mạng nơron tự tổ chức cho phân cụm dữ liệu 109
4.4 Mở rộng cấu trúc mạng nơron tự tổ chức cho phân cụm dữ liệu 111
4.4.1 Cấu trúc mạng nơron tự tổ chức mở rộng hai lớp 112
4.4.2 Thuật toán huấn luyện mạng nơron tự tổ chức mở rộng hai lớp 112
4.5 Thực nghiệm thuật toán học cải tiến và mạng tự tổ chức mở rộng hai lớp 116
4.5.1 Mục tiêu thực nghiệm 116
4.5.2 Phương pháp thực nghiệm 117
4.5.3 Các tham số khởi tạo mạng 117
4.5.4 Kết quả thực nghiệm 117
4.5.5 So sánh các phương thức đề xuất với một số phương thức khác 118
4.6 Kết luận chương 4 121
KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN CỦA ĐỀ TÀI LUẬN ÁN 123
CÁC CÔNG TRÌNH KHOA HỌC CỦA NGHIÊN CỨU SINH 125
TÀI LIỆU THAM KHẢO 126
Trang 5PHỤ LỤC 134 Phụ lục 1: Một số độ đo theo cặp đánh giá chất lượng gom cụm 134 Phụ lục 2: Độ chính xác phân loại (Accuracy) 136
Trang 6Danh mục các từ viết tắt
Trang 7NMFC Nonnegative Matrix Factorization based Consensus
Trang 8
Danh mục các ký hiệu toán học
Ký hiệu Diễn giải
center Tâm cụm dữ liệu
d(x,w i ) Khoảng cách giữa vector x và vector w i
m, g Các nút trên cây phân tầng GHSSOM
N c (t), R(t) Bán kính lân cận tại lần học thứ t
2) tại lần huấn luyện thứ t
q, p Các tham số điều chỉnh cho hàm lân cận
Trang 9T Tổng số lần huấn luyện mạng
V, I, J Tập dữ liệu
x(t) Mẫu đầu vào tại lần học thứ t
Trang 10Danh mục các bảng
Bảng 1 1 So sánh một số mạng nơron ra đời trước năm 1990 23
Bảng 1 2 So sánh các biến thể SOM không sử dụng cấu trúc cây 37
Bảng 1 3 So sánh các biến thể SOM sử dụng cấu trúc cây 38
Bảng 1 4 So sánh các mạng nơron tự tổ chức có giám sát 40
Bảng 2 1 Thông tin về các tập dữ liệu sử dụng để thực nghiệm 60
Bảng 2 2 Kết quả thực nghiệm khi cố định tham số p=2, thay đổi tham số q 63
Bảng 2 3 Kết quả thực nghiệm khi thay đổi tham số p, cố định tham số q 64
Bảng 2 4 So sánh độ đo QE, TE của một số dạng hàm lân cận 72
Bảng 2 5 Kết quả thực nghiệm thuật toán Batch-IMQS 74
Bảng 3 1 Tham số q của hàm lân cận áp dụng cho các tập dữ liệu 92
Bảng 3 2 Kết quả phân lớp của GHSSOMv1 93
Bảng 3 3 Kết quả phân lớp của GHSSOMv2 94
Bảng 3 4 Kết quả phân lớp Iris của GHSSOM và một số phương thức 97
Bảng 3 5 Kết quả phân lớp của GHSSOM và một số phương thức cài đặt trong WEKA 97
Bảng 3 6 Kết quả phân lớp của LibSVM 98
Bảng 4 1 So sánh các phương pháp phân cụm dữ liệu của SOM 104
Bảng 4 2 Kết quả thực nghiệm phân cụm của SOM-P và SOM-2 117
Bảng 4 3 So sánh SOM-P, SOM-2 với GWCA và một số phương thức khác 118
Bảng 4 4 So sánh SOM-P, SOM-2 với GSOM và KGSOM 119
Bảng 4 5 So sánh SOM-P, SOM-2 với một số phương thức khác 119
Bảng 4 6 So sánh tỉ lệ phân loại sai của SOM-P, SOM-2 với một số phương thức 120
Trang 11Danh mục các hình vẽ, đồ thị
Hình 1 1 Minh họa kiến trúc mạng tự kết hợp 20
Hình 1 2 Minh họa kiến trúc mạng kết hợp khác kiểu 20
Hình 1 3 Minh họa kiến trúc mạng truyền thẳng 21
Hình 1 4 Minh họa kiến trúc mạng hồi quy 1 lớp 21
Hình 1 5 Mô hình học có giám sát 22
Hình 1 6 Minh họa cấu trúc SOM với lớp Kohonen 2 chiều 26
Hình 1 7 Minh họa cách xác định lân cận của BMU đối với lớp Kohonen 1 chiều 27
Hình 1 8 Minh họa cách xác định lân cận của BMU theo hình vuông (a) và hình lục giác (b) đối với lớp Kohonen 2 chiều (thời điểm t 1 <t 2 <t 3) 27
Hình 1 9 Phân loại các biến thể của SOM 36
Hình 2 1 Minh họa mức độ tác động của mẫu vào đối với các nơron trong bán kính lân cận của BMU tại lần huấn luyện thứ t 47
Hình 2 2 Minh họa hàm h ci (t) khi thay đổi giá trị q 49
Hình 2 3 Minh họa hàm h ci (t) khi thay đổi giá trị p 50
Hình 2 4 Minh họa “phần tử khác biệt” của nơron i 54
Hình 2 5 Đồ họa biểu diễn sự phân bố dữ liệu của tập dữ liệu XOR 61
Hình 2 6 Đồ họa biểu diễn sự phân bố dữ liệu của Aggregation, Flame, Iris, Pathbased, Spiral, Jain, Compound, R15, D31 61
Hình 2 7 Kết quả QE, TE của XOR khi thay đổi q và p 66
Hình 2 8 Kết quả QE, TE của Aggregation khi thay đổi q và p 66
Hình 2 9 Kết quả QE, TE của Flame khi thay đổi q và p 67
Hình 2 10 Kết quả QE, TE của Pathbased khi thay đổi q và p 67
Hình 2 11 Kết quả QE, TE của Spiral khi thay đổi q và p 68
Hình 2 12 Kết quả QE, TE của Jain khi thay đổi q và p 68
Hình 2 13 Kết quả QE, TE của Compound khi thay đổi q và p 69
Hình 2 14 Kết quả QE, TE của R15 khi thay đổi q và p 69
Hình 2 15 Kết quả QE, TE của D31 khi thay đổi q và p 70
Hình 2 16 Kết quả QE, TE của Iris khi thay đổi q và p 70
Hình 2 17 Kết quả QE, TE của Vowel khi thay đổi q và p 71
Hình 2 18 Kết quả QE, TE của Zoo khi thay đổi q và p 71
Trang 12Hình 3 1 Minh họa cấu trúc mạng GHSOM 80
Hình 3 2 Minh họa cấu trúc mạng HTS 81
Hình 3 3 Minh họa cấu trúc mạng CPN 82
Hình 3 4 Minh họa cấu trúc một nút của GHSSOM 84
Hình 3 5 Minh họa cấu trúc mạng GHSSOM 85
Hình 3 6 Biểu đồ so sánh kết quả phân lớp của GHSSOMv1 và GHSSOMv2 95
Hình 3 7 So sánh GHSSOM với SSGSOM, CS2GS và một số phương thức khác 96
Hình 3 8 So sánh kết quả phân lớp bán giám sát của GHSSOM và LibSVM 100
Hình 4 1 Minh họa cách thức sử dụng SOM cho phân cụm dữ liệu 105
Hình 4 2 Minh họa các nguyên tắc phân ly và tranh chấp 108
Hình 4 3 Minh họa kết quả phân nhóm bằng SOM-P 111
Hình 4 4 Minh họa cấu trúc mạng SOM-2 112
Danh mục các định nghĩa, định lý, bổ đề Bổ đề 53
Định nghĩa 53
Định lý 54
Hệ quả 56
Danh mục các thuật toán Thuật toán SOM 26
Thuật toán IMQS 57
Thuật toán Batch-IMQS 59
Thuật toán GHSSOM 88
Thuật toán SOM-P 109
Thuật toán SOM-2 115
Trang 13MỞ ĐẦU
Mạng nơron bản đồ tự tổ chức (SOM - Self Organizing Map) được đề xuất bởi giáo
sư Teuvo Kohonen vào năm 1980 Nó còn được biết đến với các tên gọi khác là: Bản
đồ đặc trưng tự tổ chức (SOFM - Self Organizing Feature Map) hay mạng nơron tự tổ chức, hay đơn giản hơn là mạng nơron Kohonen
Tính tự tổ chức của SOM được thực hiện bởi nguyên tắc học cạnh tranh, không giám sát nhằm tạo ra ánh xạ của dữ liệu từ không gian nhiều chiều về không gian ít chiều hơn (thường là hai chiều), nhưng vẫn đảm bảo được quan hệ về mặt hình trạng của dữ liệu (Kohonen, 2001) Điều này có nghĩa là các dữ liệu có đặc trưng tương đồng nhau sẽ được đại diện bởi cùng một nơron hoặc các nơron gần nhau và các nơron gần nhau sẽ tương đồng với nhau hơn so với những nơron ở xa Kết quả là hình thành bản đồ đặc trưng của tập dữ liệu Đây thực chất là một phép chiếu phi tuyến tạo ra “ánh xạ đặc trưng” cho phép phát hiện và phân tích những đặc trưng của không gian dữ liệu vào Do
đó, SOM là một công cụ hiệu quả cho việc trực quan, phân tích dữ liệu và hữu ích để thực hiện các nhiệm vụ tiền xử lý trong khai phá dữ liệu (ví dụ như phân lớp và phân cụm dữ liệu)
Tuy nhiên, bản thân mạng nơron SOM vẫn còn tồn tại nhiều nhược điểm dẫn tới những khó khăn và khả năng ứng dụng thực tiễn bị hạn chế như: phải xác định trước hình trạng (số chiều và kết nối giữa các nơron trong cấu trúc mạng) và kích thước bản đồ; bản đồ đặc trưng thiếu tính trực quan; thiếu cơ chế phân loại chính xác dữ liệu theo các tiêu chí cụ thể; tốn thời gian để xác định nơron chiến thắng (BMU), đặc biệt khi bản
đồ đặc trưng có kích thước lớn; thứ tự của các mẫu vào ảnh hưởng tới xu hướng biến đổi của bản đồ; thiếu cơ chế giám sát trong quá trình học để nâng cao chất lượng của mạng khi giải quyết các các bài toán mà dữ liệu đầu vào có thông tin hướng dẫn (đầu ra) kèm theo
Do vậy, các nghiên cứu về cải tiến cấu trúc và thuật toán học của mạng nơron SOM
đã được nhiều nhà nghiên cứu quan tâm Các nghiên cứu cải tiến mạng nơron SOM
Trang 14được chia làm hai hướng chính, gồm: cải tiến cấu trúc và cải tiến thuật toán học của mạng
Các nghiên cứu về cải tiến cấu trúc của mạng có thể được chia làm hai nhóm: Nhóm thứ nhất gồm các cấu trúc cải tiến tăng trưởng theo chiều ngang Các cấu trúc này có đặc điểm chung là ban đầu mạng có kích thước nhỏ, sau đó mở rộng trong quá trình huấn luyện tùy thuộc vào đặc tính của tập dữ liệu huấn luyện Các cấu trúc điển hình thuộc nhóm này gồm: Growing Cell Structure (Fritzke, 1992), Neural Gas (1993)
và Topology Representing Network (Martinetz, 1994), Growing Neural Gas và Growing Grid (Fritzke, 1995), Incremental Grid Growing (Blackmore, 1995), Growing SOM (Alahakoon, 2000)
Nhóm thứ hai gồm các cấu trúc cải tiến tăng trưởng theo chiều dọc, còn gọi là cấu trúc cây (với mỗi nút của cây là một nơron) hoặc cấu trúc cây phân tầng (với mỗi nút của cây là một mạng nơron SOM hoặc một biến thể của SOM) Các cấu trúc cây có thể
cố định trước kích thước, nhưng cũng có thể tăng trưởng kích thước trong quá trình huấn luyện, do đó, còn được gọi là cấu trúc cây tăng trưởng Các cấu trúc điển hình thuộc nhóm này gồm: Tree-Structured VQ và Tree-Structured SOM (Koikkalainen, 1990), Hierarchical Feature Map (Miikkulainen, 1990), Self-Organizing Tree Algorithm (Dopazo, 1997), Growing Hierarchical SOM (Rauber, 2002), Adaptive Hierarchical Incremental Grid Growing (Merkl, 2003), Evolving Tree (Pakkanen, 2004), Self Organising Tree Map (Guan, 2006), Growing Hierarchical Tree SOM (Forti, 2006), TTOSOM with Conditional Rotations (2009) và Tree-Based Topology-Oriented SOM (Astudillo, 2011) Các cấu trúc cây được đưa ra chủ yếu nhằm mục đích biểu diễn tính chất phân cấp của dữ liệu
Các cải tiến về thuật toán học của mạng có thể chia làm hai nhóm chính: các thuật toán học cải tiến sử dụng phương pháp học không giám sát và các thuật toán học cải tiến
sử dụng phương pháp học giám sát hoặc bán giám sát Nhóm thứ hai hình thành các biến thể với tên gọi chung là các mạng nơron SOM học giám sát hoặc bán giám sát Các ví
dụ điển hình của nhóm này gồm: Supervised Kohonen Network (Kohonen, 1988), Counter Propagation Network (Zupan, 1997), Recurrent Self-Organizing Map (Varsta, 2001), Supervising Network Self-Organizing Map (Papadimitriou, 2001), X–Y Fused
Trang 15Network và Bi-Directional Kohonen network (Melssen, 2006), Semi-Supervised GSOM (Allahyar, 2015) và một số nghiên cứu liên quan khác của Thammano (2007), Lawawirojwong (2013), Groof (2014), Gil (2015), Li (2013), Abaei (2015)
Trên cơ sở nghiên cứu về mạng nơron SOM gốc và các biến thể của SOM về cấu trúc và phương pháp học, có một số vấn đề tồn tại cần tiếp tục nghiên cứu phát triển như sau:
Thứ nhất, đề xuất các phương thức cải thiện chất lượng bản đồ đặc trưng khác so với các phương thức đã có trước đây; nghiên cứu cải thiện chất lượng biểu diễn dữ liệu của các mạng nơron SOM cải tiến Đây là một hướng nghiên cứu mở do hiện nay các nghiên cứu cải thiện chất lượng các mạng nơron SOM cải tiến chưa có nhiều
Thứ hai, cả SOM gốc và hầu hết các biến thể của SOM chủ yếu được thiết kế cho mục tiêu biểu diễn dữ liệu (biểu diễn sự phân bố hoặc sự phân cấp của dữ liệu) nên khi ứng dụng SOM cho các mục đích khác cần nghiên cứu các phương án cải tiến phù hợp
Ví dụ, mạng nơron SOM chưa có phương án phân loại dữ liệu chính xác, do đó khả năng ứng dụng SOM để giải quyết các vấn đề của khai phá dữ liệu (ví dụ như phân lớp và phân cụm) còn hạn chế
Thứ ba: do sử dụng phương pháp học không giám sát nên quá trình học của SOM thiếu thông tin hướng dẫn để nâng cao hiệu quả ứng dụng trong một số bài toán thực tế,
ví dụ như bài toán phân lớp dữ liệu
Các tồn tại trên là lý do lựa chọn và đưa ra các mục tiêu nghiên cứu của đề tài luận
án Mục tiêu nghiên cứu của đề tài luận án gồm:
1 Đề xuất một số giải pháp cải thiện chất lượng bản đồ đặc trưng mạng nơron SOM
2 Cải tiến cấu trúc, thuật toán học mạng nơron SOM ứng dụng cho bài toán phân lớp, phân cụm dữ liệu
Các nội dung nghiên cứu này được thực nghiệm trong phạm vi dữ liệu dạng vector thuộc tính số thực; không áp dụng với các loại dữ liệu khác
Để đánh giá các kết quả nghiên cứu đạt được, nghiên cứu sinh cài đặt chương trình thử nghiệm bằng ngôn ngữ lập trình C# và tiến hành thực nghiệm trên các tập dữ liệu
Trang 16đã được công bố sử dụng máy tính máy tính cá nhân (Chipset Core i5 - 1.7GHz, RAM 6GB)
Các công trình đã công bố liên quan nhất đến luận án gồm:
- 02 bài báo công bố trên tạp chí Tạp chí Tin học và Điều khiển học [4A], [6A]
- 02 bài báo công bố trên tạp chí quốc tế (có chỉ số ESCI) [7A], [8A]
- 01 bài báo công bố trên Tạp chí KH&CN - Đại học Thái Nguyên [3A]
- 01 báo cáo công bố trong Kỷ yếu Hội thảo quốc tế ICCASA 2012, xuất bản bởi Springer [2A]
- 03 báo cáo công bố trong Kỷ yếu Hội thảo quốc gia Fair 2013 [1A] và Fair 2014 [5A], VCM 2016 [9A]
Nội dung của luận án bao gồm 4 chương Chương đầu trình bày nghiên cứu tổng quan về nội dung của đề tài Các chương còn lại trình bày các đóng góp của luận án Nội dung của từng chương có thể tóm tắt như sau:
Chương 1 trình bày nghiên cứu tổng quan về mạng nơron nhân tạo, mạng nơron
SOM; đồng thời xem xét bối cảnh chung về lịch sử và xu hướng phát triển của mạng nơron nhân tạo trong những năm gần đây
Các nghiên cứu tổng quan của Chương 1 tập trung phân tích các hạn chế và biện pháp khắc phục các hạn chế của SOM Ngoài ra, tổng hợp và phân tích các hướng nghiên cứu cải tiến SOM, từ đó chỉ ra đặc điểm chung của các cách thức cải tiến SOM đã được các nhà nghiên cứu thực hiện
Chương 2 trình bày các nghiên cứu liên quan đến vấn đề đánh giá và cải thiện chất
lượng bản đồ đặc trưng của mạng nơron SOM từ đó đưa ra hai đề xuất, gồm:
Thứ nhất, đưa ra tham số điều chỉnh của hàm lân cận đối xứng dạng mũ Tham số điều chỉnh được xác định riêng cho mỗi tập dữ liệu, cho phép giảm đồng thời cả lỗi lượng tử và lỗi hình trạng của mạng Các lý luận và phân tích của phương thức đề xuất được chứng minh bằng thực nghiệm
Thứ hai, đưa ra thuật toán điều chỉnh trọng số nơron để giảm lỗi lượng tử của mạng Thuât toán đề xuất điều chỉnh trọng số nơron sau khi thuật toán huấn luyện kết thúc Điều này cho phép giảm lỗi lượng tử của mọi bản đồ mà không quan tâm đến các tham
Trang 17số cấu hình mạng, cũng như không gia tăng thêm các tham số khác Nội dung của đề xuất gồm một định nghĩa, một định lý, một hệ quả và một thuật toán
Tiếp theo trình bày kết quả thực nghiệm của các đề xuất và so sánh với một số phương thức liên quan
Chương 3 trình bày các nghiên cứu liên quan đến cải tiến SOM học giám sát hoặc
bán giám sát nói chung và áp dụng cho bài toán phân lớp nói riêng, từ đó đề xuất một cấu trúc SOM phân tầng tăng trưởng và thuật toán học bán giám sát cho mục đích phân lớp dữ liệu Mô hình đề xuất có thể hoạt động như một mô hình phân lớp truyền thống (100% dữ liệu huấn luyện có gán nhãn) hoặc mô hình phân lớp bán giám sát
Tiếp theo trình bày các thực nghiệm kiểm chứng khả năng phân lớp của GHSSOM, đồng thời so sánh với một số phương thức phân lớp khác
Chương 4 trình bày các nghiên cứu liên quan đến việc cải tiến SOM áp dụng cho
bài toán phân cụm dữ liệu, từ đó đưa ra hai đề xuất cải tiến cấu trúc và thuật toán học SOM ứng dụng cho bài toán phân cụm dữ liệu, gồm:
Thứ nhất, cải tiến thuật toán học của SOM kết hợp hai mục tiêu huấn luyện mạng
và phân nhóm nơron
Thứ hai, đưa ra một cấu trúc SOM mở rộng hai lớp và thuật toán huấn luyện tương ứng cho mục đích phân cụm dữ liệu, trong đó lớp thứ hai đóng vai trò phân nhóm các nơron thuộc lớp thứ nhất
Tiếp theo trình bày kết quả thực nghiệm của các phương thức đề xuất và so sánh kết quả với một số phương thức phân cụm khác
Trang 18CHƯƠNG 1
TỔNG QUAN VỀ CÁC MÔ HÌNH MẠNG NƠRON TỰ TỔ CHỨC
Chương này trình bày nghiên cứu tổng quan của luận án, gồm bốn nội dung chính: Thứ nhất, nghiên cứu tổng quan về mạng nơron nhân tạo: kiến trúc, thuật học và xu hướng phát triển
Thứ hai, nghiên cứu tổng quan về mạng nơron tự tổ chức: cấu trúc, thuật toán huấn luyện, phân tích các hạn chế của mạng nơron tự tổ chức và biện pháp khắc phục các hạn chế
Thứ ba, tổng hợp các nghiên cứu trong và ngoài nước về cải tiến cấu trúc, thuật toán học của mạng nơron tự tổ chức
Cuối cùng, phân tích đặc điểm chung của các phương thức cải tiến mạng nơron tự tổ chức
1.1 Tổng quan về mạng nơron nhân tạo
1.1.1 Khái niệm mạng nơron nhân tạo
Mạng nơron nhân tạo (ANN) là một mô hình tính toán dựa trên sự kết hợp các nơron trong một kiến trúc thống nhất, trong đó các nơron cùng hoạt động song song ANN là
một ánh xạ F: X → Y, trong đó X là không gian trạng thái đầu vào và Y là không gian
đầu ra y ∈ Y thông qua “bộ lọc” (filter) (còn được gọi là hệ cơ sở tri thức), tức là y=F(x)=s(W, x), trong đó W là ma trận trọng số liên kết, s là hàm tương tác đầu ra
Dựa theo mạng nơron sinh học, ANN được tạo ra từ một lượng lớn các phần tử xử
lý (gọi là nơron 1 ) kết nối với nhau thông qua các liên kết (gọi là trọng số liên kết) làm
việc như một thể thống nhất để giải quyết một vấn đề cụ thể nào đó
1 Mô hình tính toán cho một nơron nhân tạo được đưa ra bởi McCulloch và Pitts (1943)
Trang 191.1.2 Các kiến trúc căn bản của mạng nơron nhân tạo
Có nhiều quan điểm khác nhau trong việc phân loại kiến trúc mạng nơron (Wilamowski, 2003) Tuy nhiên xét về mặt tổng quát, người ta chia ra làm hai loại kiến trúc mạng chính:
- Tự kết hợp (Autoassociative): là mạng có các nơron đầu vào cũng là các nơron đầu
ra Các mạng Hopfield, BAM là thuộc kiểu mạng tự kết hợp
Hình 1 1 Minh họa kiến trúc mạng tự kết hợp
- Kết hợp khác kiểu (Heteroassociative): là mạng có tập nơron đầu vào và đầu ra riêng biệt Các mạng Perceptron, Kohonen,… thuộc loại này
Hình 1 2 Minh họa kiến trúc mạng kết hợp khác kiểu
Căn cứ vào việc có hay không các kết kết nối ngược trong mạng, có thể chia ra làm hai loại kiến trúc mạng chính là (Jain, 1996): kiến trúc truyền thẳng và kiến trúc phản hồi
- Kiến trúc truyền thẳng (Feedforward): tín hiệu di chuyển theo một đường duy nhất
từ đầu vào tới đầu ra và không có các kết nối ngược trở lại từ các nơron đầu ra về các nơron đầu vào Mạng không lưu lại các giá trị output trước và các trạng thái kích hoạt của nơron Đầu ra của một tầng bất kì sẽ không ảnh hưởng tới tầng đó
Trang 20Hình 1 3 Minh họa kiến trúc mạng truyền thẳng
- Kiến trúc phản hồi (Feedback): có các kết nối từ nơron đầu ra tới nơron đầu vào,
tức là đầu ra của một nơron có thể trở thành đầu vào của nơron trên cùng một lớp hoặc của lớp trước đó Mạng lưu lại các trạng thái trước đó và trạng thái tiếp theo không chỉ phụ thuộc vào các tín hiệu đầu vào mà còn phụ thuộc vào các trạng thái
trước đó của mạng Trong trường hợp mạng Feedback có chu trình khép kín còn gọi là mạng hồi quy (Recurrent)
Hình 1 4 Minh họa kiến trúc mạng hồi quy 1 lớp
1.1.3 Các phương pháp học
Đối với mạng nơron nhân tạo, quá trình học nhằm 2 mục tiêu chính đó là học tham
số (Parameter Learning) và học cấu trúc (Structure Learning) Học tham số là thay đổi
trọng số của các liên kết giữa các nơron Học cấu trúc là điều chỉnh cấu trúc của mạng, gồm thay đổi số lớp, số nơron trong mỗi lớp và cách liên kết giữa chúng Cả hai mục tiêu này có thể được thực hiện đồng thời hoặc tách biệt
a Mạng truyền thẳng 1 lớp b Mạng truyền thẳng nhiều lớp
Trang 21Có ba phương pháp học tham số phổ biến của mạng nơron gồm: học có giám sát
(Supervised Learning), học không giám sát (Unsupervised Learning) và học bán giám sát (Semi-Supervised Learning)
- Học có giám sát: phương pháp học này còn được gọi là học có “thầy” Mạng được
huấn luyện bằng các cặp mẫu đầu vào và các đầu ra mong muốn Tập mẫu huấn luyện được cho dưới dạng V x d, |xR d n, R k, trong đó x là vector đầu vào,
d là vector đầu ra mong muốn hoặc nhãn của dữ liệu Quá trình học của mạng
nhằm xấp xỉ hàm d=f(x), biểu diễn mỗi quan hệ trên tập mẫu huấn luyện (x,d)
(Hình 1.5)
Một dạng mở rộng của học có giám sát là học tăng cường hay học củng cố
(Reinforcement Learning) Mạng vẫn nhận một số tín hiệu phản hồi (củng cố) từ
bên ngoài, nhưng các tín hiệu này chỉ mang tính chất đánh giá mức độ tốt hay xấu của đầu ra thực tế hơn là tính chất chỉ dẫn Những tín hiệu củng cố sau đó được xử
lý để tạo ra tín hiệu đánh giá, dùng để điều chỉnh các trọng số nhằm đạt được tín
hiệu đánh giá tốt hơn Học củng cố đôi khi còn gọi là học thưởng-phạt
(Reward-Penalty Learning), tức là nếu kết quả đầu ra được cho là “tốt” mạng sẽ được thưởng
theo nghĩa tăng trọng số kết nối, ngược lại, mạng sẽ bị phạt theo nghĩa các trọng
số kết nối không thích hợp sẽ được giảm xuống
Trang 22chuẩn đánh giá độ tương tự giữa các mẫu để hình thành một số lượng chưa biết trước các lớp (nhóm) khác nhau
- Học bán giám sát: phương pháp học này là sự kết hợp của cả hai phương pháp học
có học giám sát và học không giám sát Mạng được huấn luyện với cả hai loại mẫu
dữ liệu gồm: mẫu dữ liệu đã kèm theo đầu ra mong muốn d (hay dữ liệu đã được gán nhãn) và mẫu dữ liệu không kèm theo đầu ra mong muốn d (hay dữ liệu chưa
được gán nhãn) Thông thường số lượng các mẫu huấn luyện đã kèm đầu ra mong muốn sẽ ít hơn số lượng các mẫu dữ liệu không kèm theo đầu ra mong muốn
1.1.4 Lịch sử và xu hướng phát triển mạng nơron nhân tạo
Các nguyên tắc căn bản của mạng nơron nhân tạo được đưa ra lần đầu tiên bởi McCulloch và Pitts từ năm 1943
Cho tới những năm 1980s, quá trình phát triển của ANN đã trải qua nhiều giai đoạn thăng trầm, nguyên nhân chủ yếu là do các hạn chế về công nghệ máy tính Mặc dù vậy, các phát kiến đánh dấu những bước thay đổi quan trọng của ANN phải kể đến bao gồm: mạng Perceptron 1 lớp vào và 1 lớp ra (Rosenblatt, 1958), mạng Perceptron đa lớp (Minsky, 1969), bản đồ tự tổ chức SOM (Self-Organizing Map) (Kohonen, 1980), mạng phản hồi Hopfield (Hopfield, 1982) và mạng truyền thẳng thuật toán lan truyền ngược Back Propagation (Hinton, 1986) Đặc điểm chung của các loại mạng này được chỉ ra trong Bảng 1.1
Bảng 1 1 So sánh một số mạng nơron ra đời trước năm 1990
1986 Phân
loại Truyền thẳng Truyền thẳng Truyền thẳng,
1 lớp ra
Trang 23Sigmoid
Phương
pháp
học
Có giám sát Có giám sát Không giám
Thuật
toán học Learning “Hebb
Rule”
“Delta Learning Rule”
“Back Propagation
”
“Self Organization”
“Delta Learning Rule”
“Simulated Annealing”
“Back Propagation”
Ứng
dụng
chủ yếu
Các phép toán logic đơn giản;
Phân lớp mẫu
Các phép toán logic phức tạp;
Phân lớp mẫu
Phân loại mẫu; Bài toán tối ưu;
Trực quan
dữ liệu
Liên kết mẫu; Bài toán tối ưu
Các phép toán logic phức tạp; Phân lớp mẫu; Phân tích tiếng nói Trong các mạng nơron trên, SOM được coi là mạng hữu ích cho mô phỏng quá trình học của não người Không giống các mạng nơron khác chỉ quan tâm đến giá trị và dấu hiệu của thông tin đầu vào, nó có khả năng khai thác các mối liên hệ có tính cấu trúc trong không gian dữ liệu thông qua một bản đồ đặc trưng Bản đồ đặc trưng gồm các nơron tự tổ chức theo các giá trị đầu vào nhất định; do đó nó có thể được huấn luyện để tìm ra các quy luật và sự tương quan giữa các giá trị đầu vào, từ đó dự đoán các kết quả tiếp theo Trong giai đoạn này, các nhà nghiên cứu cho rằng, nếu một hệ thống mô phỏng quá trình học của não người được thực hiện thì bản đồ đặc trưng của SOM sẽ đóng vai trò như là trái tim của hệ thống
Từ những năm 1990 đến khoảng 2009, cùng với sự phát triển của phần cứng máy tính, các nghiên cứu về mạng nơron đã hồi sinh sau một giai đoạn chìm lắng, điển hình
là sự phát triển mạng nơron tự tổ chức SOM, với các cấu trúc tăng trưởng nhiều tầng nhằm tối ưu tính toán (Astudillo, 2014) Giai đoạn này giống như sự chuẩn bị cho sự phát triển bùng nổ của công nghệ học sâu Học sâu được gọi là công nghệ vì bản chất của các mô hình tính toán không mới mà phát triển các mô hình đã có để thực hiện trên các hệ thống máy tính có cấu hình mạnh Điển hình của giai đoạn này là mạng huấn luyện trước, không giám sát được đề xuất bởi Geoffrey Hilton đã giành chiến thắng trong cuộc thi quốc tế về nhận dạng ký tự viết tay năm 2009
Trang 24ANN đã thực sự trở lại thời kỳ hoàng kim từ năm 2012 đến nay, với sự góp mặt của hãng Google và nhiều nhà nghiên cứu Mạng nơron với cấu trúc truyền thẳng nhiều lớp
phức tạp sử dụng phương pháp học sâu “Deep Learning” (Schulz, 2012) đã ra đời, được
gọi là mạng nơron học sâu Hiện nay, các mạng nơron học sâu thực chất là sự kết hợp của các ý tưởng trước đây, bao gồm:
- Tăng độ sâu (số tầng) và độ rộng (số nút trong mỗi tầng) của cấu trúc mạng hơn nhiều lần so với trước đây nhằm khai thác khả năng tính toán của các máy tính hiện đại
- Các mạng nơron tự tổ chức, cạnh tranh theo nguyên tắc “Winner-Take-All” tốt hơn các mạng với cấu trúc nút độc lập (Srivastava, 2013), sử dụng các mạng nơron hồi quy sâu (nhiều lớp) tốt hơn các mạng truyền thẳng (Sutskever, 2013)
- Tri thức cần được khám phá và truyền lại qua nhiều thế hệ, mỗi thế hệ sau tiếp nhận tri thức của thế hệ trước và tiếp tục bổ sung những tri thức mới (Bengio, 2013)
- Các mô hình học không giám sát đóng vai trò quan trọng trong việc khám phá tri thức mới, các mô hình học có giám sát đóng vai trò cải thiện chất lượng tri thức
Do đó cần có sự kết hợp giữa các phương pháp học này
- Sử dụng các máy tính cấu hình mạnh hoặc thậm chí chế tạo các phần cứng dành riêng cho mạng nơron
Như vậy có thể thấy rằng tư tưởng chủ đạo của SOM với cấu trúc mạng tự tổ chức,
sử dụng phương thức học cạnh tranh, không giám sát đã thực sự trở thành nền tảng quan trọng trong xu hướng phát triển các mạng nơron hiện nay
1.2 Mạng nơron tự tổ chức
1.2.1 Cấu trúc mạng nơron tự tổ chức
Mạng nơron SOM có cấu trúc đơn lớp (Kohonen, 2001), gồm: các tín hiệu vào và lớp ra (được gọi là lớp Kohonen), trong đó, tất cả các đầu vào được kết nối đầy đủ với mọi nơron trên lớp ra Kohonen (Hình 1.6) Kiến trúc mạng của SOM thuộc đồng thời
cả hai nhóm mạng truyền thẳng và mạng phản hồi, do dữ liệu được truyền từ đầu vào tới đầu ra đồng thời có sự ảnh hưởng giữa các nơron trong lớp Kohonen
Trang 25Hình 1 6 Minh họa cấu trúc SOM với lớp Kohonen 2 chiều
nơron được tổ chức dạng lưới hình chữ nhật hoặc hình lục giác Mỗi đơn vị thứ i (nơron) trong lớp Kohonen được gắn một vector trọng số w i = [w i1 , w i2 , …,w in ], với n là kích
thước (số chiều) vector đầu vào; w ij là trọng số của nơron thứ i ứng với đầu vào thứ j
1.2.2 Thuật toán học của mạng nơron tự tổ chức
Mạng được huấn luyện bằng thuật toán học cạnh tranh, không giám sát, hay còn được gọi là thuật toán tự tổ chức (thuật toán SOM hay thuật toán học của SOM) Thuật toán SOM (Kohonen, 2001) gồm 4 bước:
Bước 1: Khởi tạo
- Kích thước mạng (là kích thước lớp Kohonen)
- Vector trọng số của các nơron: khởi tạo giá trị ngẫu nhiên
- Bán kính lân cận khởi tạo ( N hay N0 c (t) với t=0): nên khởi tạo đủ lớn để phủ kín
toàn bộ bản đồ (bán kính lân cận xác định phạm vi tác động của mẫu đầu vào đối với các nơron tính từ vị trí của nơron chiến thắng, bán kính lân cận giảm dần theo
số lần huấn luyện)
- Tỉ lệ học khởi tạo ( L ): nên khởi tạo bằng giá trị tối đa là 1 (tỉ lệ học là hệ số xác 0
định mức độ tác động của mẫu đầu vào đối với mạng, tỉ lệ học giảm dần theo số lần huấn luyện)
a
Trang 26Bước 2: Cạnh tranh
Với mỗi mẫu đầu vào x(t)R n (t là lần học hay lần huấn luyện), thực hiện tìm trên
ma trận Kohonen một nơron c có hàm khoảng cách dist nhỏ nhất (thường dùng hàm Euclidian, Manhattan hay Vector Dot Product) Nơron c được gọi là BMU (Best
Matching Unit) hay nơron chiến thắng
i
Bước 3: Hợp tác
Hình 1 7 Minh họa cách xác định lân cận của BMU đối với lớp Kohonen 1 chiều
Hình 1 8 Minh họa cách xác định lân cận của BMU theo hình vuông (a) và hình lục
giác (b) đối với lớp Kohonen 2 chiều (thời điểm t 1 <t 2 <t 3 )
Cơ sở cho sự hợp tác giữa các nơron là phạm vi ảnh hưởng của BMU hay còn gọi là
bán kính lân cận của BMU (ký hiệu N c (t)) N c (t) giảm đơn điệu theo thời gian, cụ thể
bán kính lân cận sẽ co lại theo số lần huấn luyện (Hình 1.7, Hình 1.8) N c (t) được xác
định bằng một hàm giảm dần theo số lần huấn luyện (thường sử dụng dạng hàm Gaussian)
Trang 27Trọng số liên kết của các nơron trong phạm vi bán kính lân cận của BMU (bao gồm
cả BMU) được điều chỉnh theo hướng gần hơn với mẫu đầu vào x(t) Mức độ điều chỉnh
trọng số của BMU là lớn nhất, sau đó giảm dần đối với các nơron ở xa BMU
tại lần học thứ t; h t ci có dạng đối xứng, thường sử dụng hàm Gaussian (giá trị
hàm giảm dần đối với các nơron có vị trí xa BMU) như sau:
exp 2 2
2
c i ci
với r c và r i là vị trí tương ứng của nơron c và nơron i trong lớp Kohonen
- L t là hàm xác định tỉ lệ học tại lần học thứ t Tỉ lệ học của mạng giảm đơn điệu
theo thời gian tương tự bán kính lân cận, do đó nó có thể là một hàm tuyến tính,
trong quá trình huấn luyện theo công thức:
Trang 28Sau khi khởi tạo (Bước 1), quá trình huấn luyện mạng sẽ lặp lại nhiều lần các bước
2, 3 và 4 cho đến khi thỏa mãn một trong các điều kiện dừng Điều kiện dừng phổ biến
là mạng đạt được tổng số lần huấn luyện T cho trước hoặc mạng đã đạt được trạng thái
cân bằng (mạng thay đổi không đáng kể sau một số lận huấn luyện nhất định)
1.2.3 Đánh giá chất lượng bản đồ đặc trưng của mạng nơron tự tổ chức
Mạng nơron tự tổ chức tạo ra ánh xạ của tập dữ liệu đầu vào trong không gian nhiều chiều tới không gian ít chiều hơn, thường là hai chiều và được gọi là bản đồ đặc trưng của dữ liệu Để đánh giá chất lượng bản đồ đặc trưng, người ta chủ yếu sử dụng hai chỉ
tiêu chất lượng học (Learning Quality) và chất lượng chiếu (Projection Quality) (Bauer,
1992), Polani(2002), (Kahraman, 2012), (Uriarte, 2005) Chỉ tiêu chất lượng học được
xác định thông qua độ đo lỗi lượng tử (QE- Quantization Error) (Kohonen, 2001),
(Berglund, 2006) Chỉ tiêu chất lượng chiếu được xác định thông qua độ đo lỗi hình
trạng (TE- Topographic Error) (Kiviluoto, 1996), (Bauer, 1999), (Mwasiagi, 2007) Nếu các độ đo QE và TE nhỏ thì bản đồ đặc trưng được đánh giá là chất lượng tốt Ngoài hai
độ đo này, một số độ đo khác có thể được sử dụng như: tích hình trạng (TP- Topographic
Product), độ biến dạng (DM- Distortion Measure) Sau đây trình bày một số độ đo
thường được sử dụng để đánh giá chất lượng bản đồ đặc trưng của mạng nơron tự tổ chức
Trang 29Lỗi lượng tử:
Lỗi lượng tử (QE) là độ đo đánh giá chất lượng học của mạng thông qua độ khác
biệt trung bình của các mẫu đầu vào so với các nơron chiến thắng (BMU) tương ứng của nó Nó thể hiện độ chính xác của dữ liệu đại diện, do đó giá trị này càng nhỏ thì càng tốt (Kohonen, 2001), (Chattopadhyay, 2012)
1
1 T
c t
w t là trọng số BMU của mẫu x t ;
T là tổng số lần huấn luyện (chú ý rằng, với các tập mẫu huấn luyện nhỏ, quá
trình huấn luyện có thể sử dụng lại nhiều lần tập huấn luyện, do đó T có thể lớn hơn tổng
số mẫu của tập huấn luyện)
Lỗi hình trạng
Lỗi hình trạng (TE) là độ đo đánh giá độ bảo toàn quan hệ lân cận của dữ liệu
(topology preservation) (Kiviluoto, 1996), (Mwasiagi, 2007), (Chattopadhyay, 2012)
Nó được xác định bằng tỉ số của số lần nơron khớp nhất (BMU1) không liền kề với nơron
Trang 30Lỗi lượng tử và lỗi hình trạng là hai độ đo chính được sử dụng để đánh giá chất lượng bản đồ đặc trưng cho một tập dữ liệu bất kỳ (Chattopadhyay, 2012) Ngoài hai độ
đo này, có một số độ đo khác cũng được sử dụng như:
Tích hình trạng
Tích hình trạng (TP- Topographic Product) cũng là độ đo đánh giá độ bảo toàn quan
hệ lân cận của dữ liệu (Bauer, 1992) TP được xác định theo công thức:
1
a b i i
ab là kích thước mạng (kích thước lớp Kohonen)
Tuy nhiên, TP chỉ đáng tin cậy cho các bộ dữ liệu tuyến tính (Villmann, 1994)
Độ biến dạng
Độ biến dạng (DM- Distortion Measure) là độ đo đánh giá chất lượng tổng thể của mạng nơron tự tổ chức theo số lần huấn luyện (Polzlbauer, 2004) DM được đánh giá bởi hàm lỗi E d theo công thức (1.11), E d càng nhỏ càng tốt
1 1
p T
Trang 311.3 Hạn chế của mạng nơron tự tổ chức và các biện pháp khắc phục
a) Phải xác định trước hình trạng và kích thước bản đồ
Bản đồ SOM phải được xác định trước về mặt hình trạng và kích thước Thông thường, hình trạng mạng là dạng tuyến tính một chiều hoặc dạng lưới hai chiều các nơron, điều này dẫn đến hai hạn chế căn bản của SOM:
- Việc ánh xạ dữ liệu từ không gian nhiều chiều về trình diễn và sắp xếp trên một không gian cố định, ít chiều hơn sẽ tạo ra một sai số nhất định dẫn đến giảm độ chính xác về khả năng trình diễn dữ liệu, cũng như khả năng bảo tồn quan hệ hình trạng của dữ liệu Nếu số chiều của không gian đầu vào càng lớn so với số chiều của không đầu ra thì sai số sẽ càng cao
- Kích thước bản đồ được giới hạn và xác định trước sẽ không đảm bảo trình diễn tốt nhất cho các đặc trưng của tập dữ liệu Nếu kích thước bản đồ quá lớn sẽ tốn thời gian tính toán và dữ liệu sẽ bị phân tán Ngược lại, nếu kích thước bản đồ quá bé thì khả năng phân biệt các mẫu dữ liệu của mạng sẽ giảm, mạng sẽ không trình diễn hết được các đặc trưng của tập dữ liệu Việc xác định kích thước của SOM phù hợp với mỗi tập dữ liệu là một vấn đề khó, đòi hỏi thời gian và kinh nghiệm thông qua việc “thử sai” Mặc dù vậy, kích thước xác định được bằng phương pháp “thử sai” cũng không thể khẳng định là tốt thực sự hay không
Có thể nói, đây là một trong những yếu điểm lớn nhất của mạng nơron SOM, do đó các nghiên cứu cải tiến về cấu trúc của SOM đã được đưa ra, gồm: Các mô hình tăng trưởng theo chiều ngang cho phép bản đồ được mở rộng tùy thuộc vào quy mô, tính chất của từng tập dữ liệu; Các mô hình cây phân cấp (tăng trưởng theo chiều dọc) hạn chế các sai số do việc nén dữ liệu từ không gian nhiều chiều về không gian ít chiều hơn
Trang 32b) Bản đồ đặc trưng thiếu tính trực quan
Mặc dù bản đồ đặc trưng biểu diễn sự phân bố của dữ liệu, nhưng không thể trực tiếp quan sát được sự phân bố này mà phải thực hiện thêm các kỹ thuật phụ trợ Các kỹ thuật này được gọi là các kỹ thuật trực quan mạng Kỹ thuật trực quan được hiểu là phương pháp biểu diễn bản đồ đặc trưng của dữ liệu dưới dạng hình ảnh có thể quan sát được Hiện tại có nhiều kỹ thuật trực quan nhưng một phương thức trực quan được sử dụng phổ biến đó là ma trận mức xám U-Matrix
c) Bản đồ đặc trưng thiếu cơ chế xác định ranh giới giữa các vùng dữ liệu
Mặc dù bản đồ đặc trưng là cơ sở tạo nên sức mạnh của SOM trong lĩnh vực khai phá dữ liệu, nhưng bản thân nó lại thiếu một cơ chế xác định ranh giới giữa các vùng dữ liệu trên bản đồ Đây là một trong những yếu tố quan trọng để giải quyết các bài toán phân cụm, phân lớp
Một số phương pháp sử dụng để giải quyết vấn đề này gồm:
- Sử dụng kỹ thuật phân cụm để phân nhóm các nơron (ví dụ: thuật toán Tích tụ (Agglomerative Algorithm) (Porter, 1980))
- Trực quan mạng kết hợp với phân nhóm các nơron
- Hình thành kết nối giữa các nơron cùng nhóm trong quá trình tăng trưởng mạng (ví dụ cấu trúc IGG (Blackmore, 1995), AHIGG (Merkl, 2003))
d) Tốn thời gian xác định BMU
Tìm BMU là nhiệm vụ tốn nhiều thời gian nhất của thuật toán SOM Với mỗi mẫu đầu vào, mạng thực hiện tìm BMU trên toàn bộ không gian bản đồ Do vậy, khi kích thước bản đồ càng lớn thì thời gian xác định BMU càng lâu Đặc biệt trong trường hợp tập dữ liệu huấn luyện có kích thước lớn thì điều này ảnh hưởng lớn đến thời gian tính toán của toàn mạng Mặt khác, nếu kích thước bản đồ SOM nhỏ sẽ không biểu diễn chính xác được các đặc trưng của tập dữ liệu, ngược lại, nếu kích thước bản đồ lớn sẽ tốn thời gian xác định BMU Do đó, cần xác định kích thước bản đồ phù hợp đối với mỗi tập dữ liệu cụ thể (các biến thể của SOM với cấu trúc tăng trưởng nhằm giải quyết vấn đề này)
Trang 33Kohonen đã đề xuất một giải pháp thu hẹp phạm vi tìm BMU trong trường hợp tập mẫu được sử dụng lại nhiều lần để huấn luyện mạng (Kohonen, 2001) Đó là lưu lại vị trí BMU của mẫu ở lần huấn luyện trước và ở lần huấn luyện sau chỉ tìm ở quanh vị trí của lần trước Tuy nhiên, với các tập dữ liệu lớn thì phương pháp này cơ bản không mang lại hiệu quả Các biến thể SOM tổ chức dưới dạng cấu trúc cây cho phép giảm kích thước bản đồ SOM, đồng thời có thể cải thiện thời gian tìm BMU do khai thác các
kỹ thuật duyệt cây Một chiến lược khác là “đóng băng” các nơron ở trung tâm, dẫn đến giới hạn phạm vi tìm BMU chỉ đối với các nơron biên của mạng hoặc các nút lá đối với cấu trúc cây
e) Thứ tự của các mẫu vào ảnh hưởng tới xu hướng biến đổi của bản đồ
Trong trường hợp tập mẫu dữ liệu phân bố không đều, quá nổi bật về một xu hướng nào đó, nếu mạng được huấn luyện liên tục bởi các mẫu có cùng một xu hướng sẽ dẫn tới bản đồ bị ảnh hưởng mạnh bởi xu hướng nổi bật đó Kết quả là bản đồ bị giảm khả năng đặc trưng cho các mẫu dữ liệu kém nổi bật hơn
Để khắc phục vấn đề này, phương pháp đơn giản được khuyến cáo là chọn ngẫu nhiên các mẫu đầu vào để huấn luyện mạng Tuy nhiên, phương pháp này vẫn có thể xảy ra hiện tượng nổi bật cục bộ do việc chọn mẫu ngẫu nhiên không thể loại trừ hết khả năng một số lượng nhỏ các mẫu theo cùng một xu hướng liên tục được đưa vào mạng Một phương pháp phức tạp hơn là tác động vào bán kính láng giềng của BMU, bao gồm bán kính khởi tạo và cách điều chỉnh bán kính trong quá trình huấn luyện Một số cấu trúc cây đã sử dụng bán kính láng giềng cố định trong cả quá trình huấn luyện Chẳng hạn, trong mô hình cây SOTM (Guan, 2006), với mỗi mẫu huấn luyện đưa vào mạng, hoặc là mẫu huấn luyện sẽ chỉ được cập nhật cho BMU hoặc là sẽ phát sinh một nút mới
f) Thiếu thông tin hướng dẫn trong quá trình huấn luyện
Mặc dù khả năng tự tổ chức dựa vào học cạnh tranh đã tạo ra sức mạnh của SOM trong việc tự phát hiện ra cấu trúc, đặc trưng của tập dữ liệu, nhưng trong nhiều bài toán thực tế, độ chính xác của kết quả lại phụ thuộc nhiều vào thông tin hướng dẫn chứ không hoàn toàn phụ thuộc vào tính chất tự nhiên của dữ liệu Do đó, các mạng SOM cải tiến học có giám sát hoặc bán giám sát đã được đề xuất Những mô hình này nhằm phát huy
Trang 34ưu điểm của phương pháp học có giám sát nhưng vẫn duy trì được sức mạnh của phương pháp học tự tổ chức, không giám sát
1.4 Kết quả nghiên cứu trong và ngoài nước về cải tiến cấu trúc, phương pháp học của mạng nơron tự tổ chức
Mặc dù mạng nơron tự tổ chức có nhiều thế mạnh và khả năng nổi bật so với các
mô hình mạng nơron khác, nhưng nó vẫn tồn tại một số hạn chế cơ bản (đoạn 1.4) Điều này dẫn tới những khó khăn khi sử dụng mạng nơron tự tổ chức để giải quyết các bài toán thực tiễn Do đó, các nhà nghiên cứu vẫn tiếp tục thực hiện các nghiên cứu cải tiến cấu trúc và phương pháp học của mạng Cho đến nay đã có rất nhiều biến thể về cấu trúc của mạng nơron tự tổ chức ra đời (Astudillo, 2014) Dưới đây trình bày tổng hợp tình hình nghiên cứu trong và ngoài nước trong phạm vi cải tiến cấu trúc và phương pháp học của mạng nơron tự tổ chức
1.4.1 Kết quả nghiên cứu trong nước
Mặc dù có nhiều nghiên cứu trong nước về ứng dụng mạng nơron nhân tạo nói chung (Đỗ Trung Hải, 2008), (Nguyễn Duy Hưng, 2009), (Nguyễn Trần Hiệp, 2012)
và một số nghiên cứu về cải tiến quá trình học của mạng nơron nói riêng như: luận án tiến sĩ (Nguyễn Thị Thanh Nga, 2013) về cải tiến thuật toán học của mạng nơron truyền thẳng cho bài toán mặt lỗi đặc biệt trong nhận dạng; luận án tiến sĩ của (Nông Thị Hoa, 2015) về cải tiến quá trình học của một số mạng nơron ghi nhớ nhưng cho đến nay nghiên cứu sinh chưa tìm thấy kết quả nghiên cứu nào về cải tiến cấu trúc hoặc quá trình học của mạng nơron tự tổ chức Hầu hết các nghiên cứu liên quan chỉ giới hạn trong phạm vi ứng dụng mạng nơron tự tổ chức trong các bài toán ứng dụng thực tiễn Các công trình đã công bố chủ yếu là các luận văn thạc sĩ
1.4.2 Kết quả nghiên cứu ngoài nước
Có nhiều nghiên cứu được công bố ngoài nước về cải tiến cấu trúc và phương pháp học của mạng nơron tự tổ chức (gọi chung là các biến thể), cụ thể:
Về mặt cấu trúc, các biến thể của mạng nơron tự tổ chức có thể được chia thành 2 nhóm: các biến thể không sử dụng cấu trúc cây và các biến thể sử dụng cấu trúc cây Hầu hết các biến thể được áp dụng cho cấu trúc dữ liệu vector, chỉ có một số ít áp dụng
Trang 35cho những cấu trúc dữ liệu khác như: dữ liệu đồ thị (Hagenbuchner, 2003), (Hagenbuchner, 2009), dữ liệu có trình tự (Strickert, 2005), dữ liệu cấu trúc cây (Chow, 2009) Trong phạm vi luận án này chỉ tập trung vào phân tích các biến thể áp dụng đối với các dữ liệu thuộc tính biểu diễn dưới dạng vector
Về mặt phương pháp học, bên cạnh các biến thể sử dụng phương pháp học không giám sát truyền thống, một số biến thể đã sử dụng phương pháp học giám sát hoặc bán giám sát kết hợp với thế mạnh của nguyên tắc cạnh tranh “Winner-Take-All” để nâng cao hiệu quả của mạng Đây là một hướng nghiên cứu mở và nhiều triển vọng trong bối cảnh hiện nay
Hình 1 9 Phân loại các biến thể của SOM
Self Organising Tree
Sử dụng cấu trúc cây
Neural Gas
Topology Representing Network
Growing Neural Gas
Growing Grid
Incremental Grid Growing
Growing SOM
Growing Cell Structure
Không sử dụng cấu trúc cây
X–Y Fused Network
Bi-Directional Kohonen network
Supervising Network Self-Organizing Map
Semi-Supervised GSOM
CÁC MẠNG SOM CÓ GIÁM SÁT, BÁN GIÁM SÁT CÁC MẠNG SOM KHÔNG GIÁM SÁT
Trang 36Hình 1.9 trình bày tổng hợp về các biến thể tiêu biểu của SOM, đồng thời phân loại chúng theo các tiêu chí về cấu trúc và phương pháp học, ngoài ra cũng biểu diễn một phần mối quan hệ kế thừa và phát triển giữa các biến thể
Các Bảng 1.2, Bảng 1.3 và Bảng 1.4 trình bày tóm lược thông tin về các biến thể của SOM, qua đó thấy được sự giống và khác nhau căn bản giữa các biến thể
Bảng 1 2 So sánh các biến thể SOM không sử dụng cấu trúc cây
Cấu trúc Khởi tạo Cơ chế hoạt động Bán kính lân cận Ưu, nhược điểm
Growing Cell
Structure
(Fritzke, 1992)
Tế bào tăng trưởng
trong k
chiều
1 tế bào (nơron)
Tăng trưởng nơron dựa vào bộ đếm BMU cao nhất
BMU và các láng giềng liền
kề
Ánh xạ chính xác hơn, tuy nhiên trực quan mạng phức tạp
Tổng số nơron được cố định trước
Xây dựng kết nối giữa các nơron dựa vào bộ đếm
“tuổi” cao nhất
Tất cả nơron được xếp hạng theo Winer-Take-Most
Kích thước không phù hợp với dữ liệu do số nơron
2 nơron Tăng trưởng
nơron dựa vào lỗi lượng tử tích lũy cao nhất
Tất cả nơron được xếp hạng theo Winer-Take-Most
Kích thước có thể phù hợp với dữ liệu (đã cải thiện nhược điểm của Neural Gas)
Growing Grid
(Fritzke, 1995)
Tăng trưởng nơron trong lưới chữ nhật
2x2 nơron hàng hoặc 1 cột Tăng trưởng 1
trong lưới dựa vào bộ đếm BMU cao nhất
Xác định theo City-Block
Gia tăng nơron tại những vị trí không cần thiết
2x2 nơron đến 3 nơron tại vị Tăng trưởng từ 1
trí biên lưới dựa vào lỗi lượng tử tích lũy cao nhất
Xây dựng kết nối giữa các nơron
để tạo nên các cụm
Xác định theo số
“hop” tới BMU và tồn tại kết nối tới BMU
Ngưỡng kết nối tạo ra các cụm không có tiêu chí
rõ ràng
Mở rộng lưới tại vị trí biên có lỗi lượng tử cao nhất chưa hợp lý
Trang 37Growing SOM
(Alahakoon,
2000)
Tăng trưởng nơron trong lưới chữ nhật
2x2 nơron đến 3 nơron tại vị Tăng trưởng từ 1
trí biên lưới dựa vào lỗi lượng tử tích lũy vượt ngưỡng
Phân phối lỗi từ trung tâm ra biên
Giống SOM gốc năng phân cụm Không có khả
như IGG
Bảng 1 3 So sánh các biến thể SOM sử dụng cấu trúc cây
Cấu trúc Khởi tạo Cơ chế hoạt động Bán kính lân cận Ưu, nhược điểm
Định nghĩa trước chiều sâu và chiều rộng của cây
Các nút có bộ đếm BMU vượt ngưỡng được chuyển thành
“nút tĩnh” và khởi tạo trọng số 2 nút con (nếu có) bằng trọng số nút tĩnh
Chỉ có BMU Tìm kiếm BMU nhanh
tự tháp (1 nút cha có
4 nút con), mỗi nút là
1 nơron
Định nghĩa trước chiều sâu và chiều rộng của cây
Duyệt cây từ nút gốc
để tìm BMU, BMU phải là một nút lá
Các nút có bộ đếm BMU vượt ngưỡng được chuyển thành
“nút tĩnh” và khởi tạo trọng số 4 nút con (nếu có) bằng trọng số nút tĩnh
Chỉ có BMU
Tìm kiếm BMU nhanh Ngưỡng không hợp lý kết hợp
cơ chế nút tĩnh
có thể dẫn đến cấu trúc không tối ưu
a b
1 SOM hai chiều kích thước
a b
Mỗi nơron của một SOM ở tầng cha tự tăng trưởng một SOM ở tầng con cho đến khi đạt số tầng giới hạn trước
Giống SOM gốc Tìm BMU nhanh
Phát triển đường dẫn đầy
đủ của tất cả các nút là không cần thiết Khó xác định các cụm dữ liệu
3 nơron (1 cha
và 2 con)
Chỉ tìm BMU đối với các tế bào lá (giống TSSOM)
Tìm trong các tế bào
lá, chọn một nơron tích lũy lỗi lượng tử cao nhất để tăng trưởng thêm 2 tế bào
Chỉ có BMU nếu BMU là nút gốc hoặc BMU, các
tế bào anh
em cùng
Tìm BMU nhanh Phức tạp, khó trực quan
Trang 38(GCS đầy đủ) con trái và phải, chuyển nơron này thành
“tĩnh”
cha, nơron cha
1 Growin
g Grid (GG)
Mỗi nút m tăng
trưởng ngang theo quy tắc của GG và dừng tăng trưởng nếu:
MQE m <
1 ×qe parent(m)
Khi một nút dừng tăng trưởng ngang, mỗi nơron thỏa mãn
Chưa giải quyết hạn chế của GG
1 IGG Tương tự GHSOM Giống
IGG
Tìm BMU nhanh
Phát sinh nhiều tham số điều chỉnh
1 nơron Chỉ tìm BMU đối
với các tế bào lá (giống TSSOM),
Tăng trưởng thêm k
nút con cho mọi nút
lá có bộ đếm BMU vượt ngưỡng và chuyển các nút này thành “nút tĩnh”
Tập nút lá thỏa mãn phạm vi đường nối (số “hop”
ngắn nhất)
Tìm kiếm BMU nhanh
Ngưỡng không hợp lý, kết hợp với cơ chế nút tĩnh có thể tạo
ra cấu trúc không tối ưu
Chỉ có BMU Tìm BMU nhanh
Khắc phục hạn chế của SOM trong trường bản đồ bị chỉnh theo xu hướng cục bộ nào đó liên tục
1 GCS hai chiều
Nơron có bộ đếm BMU vượt ngưỡng
sẽ tăng trưởng một nút mới và nó trở thành nơron “tĩnh”
Giống GCS
Tìm kiếm BMU nhanh Cho phép phân cụm
Trang 39Phân cụm bằng cách loại bỏ các nút kích hoạt kém và các kết nối liên quan
Định nghĩa toàn bộ cây
Giống TTOSOM nhưng bổ sung thêm
cơ chế tái cấu trúc bằng cách xoay BMU về nút gốc nếu làm tăng vùng BoA
Giống TTOSOM
Tìm BMU nhanh
Tự cập nhật các thông tin gợi ý về cấu trúc trong quá trình học
có thể có
số nút con tùy ý
Định nghĩa toàn bộ cây
Duyệt cây sử dụng
đề quy
Huấn luyện theo nguyên tắc của SOM chuẩn
Phụ thuộc khoảng cách
“hop” kết hợp vùng
tác động
BoA của BMU
Tìm BMU nhanh
Có thể tạo trước cấu trúc xương sống của dữ liệu dựa vào kinh nghiệm của người dùng
Ý tưởng về mạng nơron tự tổ chức học có giám sát được trình bày đầu tiên bởi (Kohonen, 1988), sau đó tiếp tục được các nhà nghiên cứu khác phát triển, ví dụ như các mạng được trình bày bởi (Zupan, 1997), (Koskela, 1998), (Varsta, 2001), (Melssen, 2006) Bảng 1.4 trình bày thông tin tóm lược về một số biến thể sử dụng phương pháp học có giám sát điển hình
Giống SOM SOM Tích hợp đầu vào và đầu ra
mong muốn thành một vector đầu vào chung để huấn luyện mạng
Giả giám sát
SOM áp dụng cho cả 2 lớp
Lớp vào Kohonen cập nhật mẫu vào
Lớp ra được cập nhật mẫu ra
ở vị trí tương ứng theo lớp vào Kohonen
Giả giám sát
và điều chỉnh trọng số dựa
Tính đầu ra thực sự cho mỗi
nơron i dựa vào sai số khoảng
cách giữa đầu vào và trọng số của nó
Bị ảnh hưởng bởi các tham
số điều chỉnh
Trang 40vào đầu ra thực sự Đầu ra ở bước học t sẽ được dùng để điều chỉnh trọng số ở
SOM áp dụng cho cả 2 lớp
Xây dựng ma trận độ tương tự hợp nhất Fused làm cơ sở xác định vị trí BMU
BMU trên cả Xmap và Ymap
là nơron có vị trí tương ứng với phần tử nhỏ nhất trong ma trận Fused
Có giám sát
SOM áp dụng cho cả 2 lớp
Xây dựng 2 ma trận Fused
Một để xác định BMU cho lớp Kohonen và một để xác định BMU cho lớp ra
Có giám sát
Ngoài các điển hình trên, gần đây nhiều nhà nghiên cứu tiếp tục đưa ra các biến thể
về phương pháp học của SOM, cụ thể:
- Các biến thể SOM có giám sát có thể kể đến như (Papadimitriou, 2001), (Thammano, 2007), (Lawawirojwong, 2013), (Groof, 2014), (Gil, 2015)
- Các biến thể SOM bán giám sát: (Li, 2013), (Allahyar, 2015), (Abaei, 2015) Các biến thể được sử dụng cho mục đích phân lớp sẽ được trình bày tóm lược trong Chương 3 của luận án
1.5 Đặc điểm chung của các phương thức cải tiến mạng nơron tự tổ chức
Để nhìn tổng quát nhưng sâu sắc hơn, mục này sẽ phân tích những đặc điểm chung, được coi là tư duy nền tảng trong việc hình thành các mô hình cải tiến của SOM Đây cũng là cơ sở cho việc lựa chọn hướng nghiên cứu của luận án
a) Bộ đếm BMU
Bộ đếm BMU được áp dụng đối với các mô hình tăng trưởng Nó sử dụng để đếm
số lần một nơron được chọn làm BMU sau một quá trình huấn luyện Kích thước mạng được mở rộng quanh vị trí có bộ đếm BMU lớn nhất hoặc vượt quá một ngưỡng xác định Tuy nhiên, cách này khó đảm bảo được tiêu chí về chất lượng bản đồ đặc trưng của mạng