1. Trang chủ
  2. » Luận Văn - Báo Cáo

nghiên cứu kỹ thuật phân cụm dữ liệu mờ và ứng dụng chẩn đoán bệnh trên ô tô

61 888 1
Tài liệu đã được kiểm tra trùng lặp

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Tiêu đề Nghiên Cứu Kỹ Thuật Phân Cụm Dữ Liệu Mờ Và Ứng Dụng Chẩn Đoán Bệnh Trên Ô Tô
Tác giả Nguyễn Thế Giới
Người hướng dẫn PGS.TS. Lê Mạnh Thạnh
Trường học Đại Học Khoa Học - Đại Học Huế
Chuyên ngành Khoa Học Máy Tính
Thể loại Luận văn thạc sĩ
Năm xuất bản 2013
Thành phố Huế
Định dạng
Số trang 61
Dung lượng 872,3 KB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

ứng dụng kỹ thuật phan cụm dữ liệu mờ chẩn đoán bệnh trên ô tô

Trang 1

TRƯỜNG ĐẠI HỌC KHOA HỌC

NGUYỄN THẾ GIỚI

NGHIÊN CỨU KỸ THUẬT PHÂN CỤM DỮ LIỆU MỜ VÀ ỨNG DỤNG HỖ TRỢ

CHẨN ĐOÁN BỆNH TRÊN Ô TÔ

LUẬN VĂN THẠC SĨ KHOA HỌC

CÔNG NGHỆ THÔNG TIN

Huế, 2013

Trang 2

TRƯỜNG ĐẠI HỌC KHOA HỌC

NGUYỄN THẾ GIỚI

NGHIÊN CỨU KỸ THUẬT PHÂN CỤM DỮ LIỆU MỜ VÀ ỨNG DỤNG HỖ TRỢ

CHẨN ĐOÁN BỆNH TRÊN Ô TÔ

CHUYÊN NGÀNH: KHOA HỌC MÁY TÍNH

MÃ SỐ: 60.48.01

LUẬN VĂN THẠC SĨ KHOA HỌC

CÔNG NGHỆ THÔNG TIN

NGƯỜI HƯỚNG DẪN KHOA HỌC

PGS.TS LÊ MẠNH THẠNH

Huế, 2013

Trang 3

LỜI CAM ĐOAN

Tôi xin cam đoan đây là công trình nghiên cứu của riêng tôi, chưa từng được công bố trong bất kỳ một công trình nào khác Các số liệu và kết quả nghiên cứu nêu trong luận văn là trung thực Mọi thông tin tham khảo đều được trích dẫn đầy

đủ Tôi xin chịu hoàn toàn trách nhiệm về cam đoan này

Học viên

Nguyễn Thế Giới

Trang 4

LỜI CẢM ƠN

Trước tiên, tôi xin được bày tỏ lòng biết ơn chân thành và sâu sắc nhất đến thầy giáo hướng dẫn PGS.TS LÊ MẠNH THẠNH đã tận tình giúp tôi hiểu sâu hơn

về những kiến thức liên quan đến đề tài, nhắc nhở, động viên thật tận tâm Sự giúp

đỡ trực tiếp, động viên của thầy là yếu tố quan trọng nhất, không thể thiếu, giúp cho luận văn của tôi hoàn thành tốt nhất và đúng tiến độ

Tôi cũng xin chân thành cảm ơn và gửi lời tri ân tới quý thầy cô Trường Đại học Khoa Học - Huế, Khoa Công Nghệ Thông Tin đã tận tình giảng dạy, tạo mọi điều kiện thuận lợi nhất cho tôi trong quá trình học tập và nghiên cứu

Cuối cùng, tôi xin gửi lời cảm ơn sâu sắc đến toàn thể quý thầy cô Trường Đại học Khoa Học - Huế, toàn thể bạn bè, gia đình và kính chúc quý thầy cô, bạn bè luôn luôn dồi dào sức khỏe, hạnh phúc và thành công

Xin chân thành cảm ơn!

Huế, tháng 06 năm 2013

Học viên

Nguyễn Thế Giới

Trang 5

MỤC LỤC

LỜI CAM ĐOAN i

LỜI CẢM ƠN ii

MỤC LỤC ………iii

DANH SÁCH HÌNH VẼ vi

DANH SÁCH HÌNH VẼ vi

DANH SÁCH BẢNG, LƯU ĐỒ vii

DANH SÁCH BẢNG, LƯU ĐỒ vii

DANH MỤC VIẾT TẮT viii

LỜI MỞ ĐẦU 1

KẾT LUẬN 47 TÀI LIỆU THAM KHẢO 49

CHƯƠNG 1 TỔNG QUAN VỀ KHAI PHÁ DỮ LIỆU, PHÂN CỤM DỮ LIỆU, PHÂN CỤM DỮ LIỆU MỜ 3

1.1 Giới thiệu chung về khám phá tri thức và khai phá dữ liệu 3

1.2 Các phương pháp khai phá dữ liệu 3

1.3 Khái niệm phân cụm dữ liệu 4

1.4 Tổng quan về phân cụm dữ liệu mờ 5

1.5 Kết luận 7

CHƯƠNG 2 NGHIÊN CỨU MỘT SỐ KỸ THUẬT PHÂN CỤM DỮ LIỆU, PHÂN CỤM DỮ LIỆU MỜ 8

2.1 Những kỹ thuật tiếp cận trong phân cụm dữ liệu 8

Trang 6

2.1.1 Phương pháp phân cụm phân hoạch 8

2.1.2 Phương pháp phân cụm phân cấp 9

2.1.3 Phương pháp phân cụm dựa trên mật độ 9

2.1.4 Phương pháp phân cụm dựa trên lưới 10

2.1.5 Phương pháp phân cụm dựa trên mô hình 11

2.1.6 Phương pháp phân cụm có dữ liệu ràng buộc 11

2.2 Một số thuật toán cơ bản trong phân cụm dữ liệu 13

2.2.1 Các thuật toán phân cụm phân hoạch 13

2.2.2 Các thuật toán phân cụm phân cấp 15

2.2.3 Các thuật toán phân cụm dựa trên mật độ 17

2.2.4 Các thuật toán phân cụm dựa trên lưới 21

2.2.5 Các thuật toán phân cụm dựa trên mô hình 23

2.2.6 Các thuật toán phân cụm có dữ liệu ràng buộc 25

2.3 Các thuật toán trong phân cụm mờ 25

2.3.1 Thuật toán FCM(Fuzzy C-means) 26

2.3.2 Thuật toán εFCM (ε- Insensitive Fuzzy C-means) 34

2.3.3 Thuật toán FCM-Cải tiến 36

2.4 Kết luận chương 2 46

CHƯƠNG 3 MÔ PHỎNG VÀ ĐÁNH GIÁ 47 3.1 Phương pháp mô phỏng và đánh giá Error! Bookmark not defined.

3.1.1 Giới thiệu phần NS2 Error! Bookmark not defined.

3.1.2 Qui trình thực hiện mô phỏng Error! Bookmark not defined.

3.1.3 Mô hình mạng mô phỏng Error! Bookmark not defined.

3.1.4 Thiết lập tham số cho các cơ chế Error! Bookmark not defined.

3.1.5 Các tiêu chí cần đánh giá kết quả mô phỏngError! Bookmark not defined.

3.2 Đánh giá các thuật toán thông qua RED Error! Bookmark not defined.

Trang 7

3.2.1 BLUE với RED Error! Bookmark not defined.

3.2.2 FRED với RED Error! Bookmark not defined.

3.2.3 SFB với BLUE Error! Bookmark not defined.

3.2.4 So sánh REM, GREEN với RED Error! Bookmark not defined.

3.3 Đánh giá chung Error! Bookmark not defined.

3.3.1 Đánh giá các cơ chế theo kích thước hàng đợiError! Bookmark not defined.

3.3.2 Đánh giá các cơ chế theo tải nạp Error! Bookmark not defined.

3.3.3 Trường hợp mạng có cả TCP và UDP Error! Bookmark not defined.

3.4 Phân lớp và ứng dụng các cơ chế Error! Bookmark not defined.

3.4.1 Phân lớp các cơ chế Error! Bookmark not defined.

3.4.2 Ứng dụng Error! Bookmark not defined.

3.5 Kết luận chương 3 Error! Bookmark not defined.

Trang 8

DANH SÁCH HÌNH VẼ

Hình 2.2: Các chiến lược phân cụm phân cấp 9

Hình 2.3: Cấu trúc phân cấp 10

Hình 2.4: Các cách mà các cụm có thể đưa ra 12

Hình 2.5: Các thiết lập để xác định ranh giới các cụm ban đầu 13

Hình 2.6: Tính toán trọng tâm của các cụm mới 14

Hình 2.7: Khái quát thuật toán CURE 16

Hình 2.8: Các cụm dữ liệu được khám phá bởi CURE 16

Hình 2.9: Hình dạng các cụm được khám phá bởi thuật toán DBSCAN 19

Hình 3.1 Qui trình thực hiện mô phỏng Error! Bookmark not defined Hình 3.2: Mô hình mô phỏng Error! Bookmark not defined Hình 3.3 Xác suất mất gói tin của BLUE và RED Error! Bookmark not defined Hình 3.4 Mức độ sử dụng đường truyền của BLUE và RED Error! Bookmark not

defined.

Trang 9

Bảng 3.1 Phân lớp các thuật toán Error! Bookmark not defined

Bảng 3.2 Đánh giá hiệu năng các thuật toán Error! Bookmark not defined

Trang 12

LỜI MỞ ĐẦU

Trong những năm gần đây, sự phát triển mạnh mẽ của CNTT đã làm cho khả năng thu thập và lưu trữ thông tin của các hệ thống thông tin tăng nhanh một cách chóng mặt Bên cạnh đó, việc tin học hóa một cách ồ ạt và nhanh chóng các hoạt động sản xuất, kinh doanh cũng như nhiều lĩnh vực hoạt động khác đã tạo ra cho chúng ta một lượng dữ liệu lưu trữ khổng lồ Hàng triệu CSDL đã được sử dụng trong các hoạt động sản xuất, kinh doanh, quản lý , trong đó có nhiều CSDL cực lớn cỡ Gigabyte, thậm chí là Terabyte

Sự bùng nổ này đã dẫn tới một yêu cầu cấp thiết là cần có những kỹ thuật và công cụ mới để tự động chuyển đổi lượng dữ liệu khổng lồ kia thành các tri thức có ích Từ đó, các kỹ thuật khai phá dữ liệu đã trở thành một lĩnh vực thời sự của nền CNTT thế giới hiện nay nói chung và Việt Nam nói riêng Khai phá dữ liệu đang được áp dụng một cách rộng rãi trong nhiều lĩnh vực kinh doanh và đời sống khác nhau: marketing, tài chính, ngân hàng và bảo hiểm, khoa học, y tế, an ninh, internet… Rất nhiều tổ chức và công ty lớn trên thế giới đã áp dụng kỹ thuật khai phá dữ liệu vào các hoạt động sản xuất kinh doanh của mình và thu được những lợi ích to lớn

Mặt khác, từ khối dữ liệu lớn đó nó có thể liên quan với nhau, có mối quan hệ với nhau, một dữ liệu này lại chi phối hoặc ảnh hưởng tới dữ liệu khác và ngược lại, nên chúng ta khó phân biệt được và không rõ ràng Nên chúng ta sẽ phân ra nhiều cụm dữ liệu trên cơ sở dư liệu ban đầu là không rõ ràng

Nội dung của đề tài được trình bày thành 3 chương:

Chương 1: Tổng quan về khai phá dữ liệu, phân cụm dữ liệu, phân cụm dữ

liệu mờ

- Giới thiệu chung về khám phá tri thức và khai phá dữ liệu

- Các phương pháp khai phá dữ liệu

- Khái niệm phân cụm dữ liệu

Trang 13

- Tổng quan về phân cụm dữ liệu mờ

Chương 2: Nghiên cứu một số kỹ thuật phân cụm dữ liệu, phân cụm dữ liệu

mờ

- Những kỹ thuật tiếp cận trong phân cụm dữ liệu

- Một số thuật toán cơ bản trong phân cụm dữ liệu

- Các thuật toán trong phân cụm mờ

+ Thuật toán FCM(Fuzzy C-means)

+ Thuật toán εFCM(ε- Insensitive Fuzzy C-means)

+ Thuật toán FCM Cải tiến

Chương 3: Xây dựng ứng dụng hỗ trợ chẩn đoán bệnh trên ô tô

- Mô tả bài toán hỗ trợ chẩn đoán bệnh trên ô tô

- Cài đặt thử nghiệm thuật toán FCM

Từ đó đã đưa ra các nhận xét, đánh giá, những vấn đề nghiên cứu của luận văn dựa trên quy trình bảo trì và sửa chữa các loại xe ô tô, thu thập và xử lý dữ liệu qua thực tế để làm cơ sở dữ liệu Từ đó, nghiên cứu về khai phá dữ liệu, phân cụm

dữ liệu, nghiên cứu một số kỹ thuật phân cụm dữ liệu mờ và thuật toán phân cụm

dữ liệu mờ, để giải quyết yêu cầu bài toán đặt ra Vì vậy, mục đích chính của luận văn là:

- Nghiên cứu về khai phá dữ liệu, phân cụm dữ liệu, kỹ thuật phân cụm dữ liệu

mờ, thuật toán phân cụm dữ liệu mờ

- Ứng dụng hỗ trợ chẩn đoán bệnh trên ô tô

Trang 14

CHƯƠNG 1 TỔNG QUAN VỀ KHAI PHÁ DỮ LIỆU, PHÂN CỤM DỮ

LIỆU, PHÂN CỤM DỮ LIỆU MỜ

Nếu cho rằng, điện tử và truyền thông chính là bản chất của khoa học điện tử, thì dữ liệu, thông tin, và tri thức hiện đang là tiêu điểm của một lĩnh vực mới để nghiên cứu và ứng dụng, đó là khám phá tri thức và khai phá dữ liệu

Thông thường, chúng ta coi dữ liệu như là một chuỗi các bits, hoặc các số và

các ký hiệu hay là các “đối tượng” với một ý nghĩa nào đó khi được gửi cho một

chương trình dưới một dạng nhất định Các bits thường được sử dụng để đo thông

tin, và xem nó như là dữ liệu đã được loại bỏ phần tử thừa, lặp lại, và rút gọn tới

mức tối thiểu để đặc trưng một cách cơ bản cho dữ liệu Tri thức được xem như là

các thông tin tích hợp, bao gồm các sự kiện và mối quan hệ giữa chúng, đã được nhận thức, khám phá, hoặc nghiên cứu Nói cách khác, tri thức có thể được coi là dữ liệu ở mức độ cao của sự trừu tượng và tổng quát

Khám phá tri thức hay phát hiện tri thức trong CSDL là một quy trình nhận biết các mẫu hoặc các mô hình trong dữ liệu với các tính năng: Phân tích, tổng hợp, hợp thức, khả ích và có thể hiểu được

Với hai mục đích khai phá dữ liệu là Mô tả và Dự đoán, người ta thường sử dụng các phương pháp sau cho khai phá dữ liệu:

• Luật kết hợp (association rules)

• Phân lớp (Classfication)

• Hồi qui (Regression)

• Trực quan hóa (Visualiztion)

• Phân cụm (Clustering)

• Tổng hợp (Summarization)

Trang 15

• Mô hình ràng buộc (Dependency modeling)

• Biểu diễn mô hình (Model Evaluation)

• Phân tích sự phát triển và độ lệch (Evolution and deviation

analyst)

• Phương pháp tìm kiếm (Search Method)

Có nhiều phương pháp khai phá dữ liệu được nghiên cứu ở trên, trong đó có

ba phương pháp được các nhà nghiên cứu sử dụng nhiều nhất đó là: Luật kết hợp, Phân lớp dữ liệu và Phân cụm dữ liệu

Phân cụm dữ liệu là quá trình nhóm một tập các đối tượng tương tự nhau trong tập dữ liệu vào các cụm sao cho các đối tượng thuộc cùng một cụm là tương đồng còn các đối tượng thuộc các cụm khác nhau sẽ không tương đồng Phân cụm dữ liệu

là một ví dụ của phương pháp học không có giám sát Không giống như phân lớp dữ liệu, phân cụm dữ liệu không đòi hỏi phải định nghĩa trước các mẫu dữ liệu huấn luyện Vì thế, có thể coi phân cụm dữ liệu là một cách học có giám sát, trong khi phân lớp dữ liệu là học bằng ví dụ… Ngoài ra phân cụm dữ liệu còn có thể được sử dụng như một bước tiền xử lí cho các thuật toán khai phá dữ liệu khác như là phân loại và mô tả đặc điểm, có tác dụng trong việc phát hiện ra các cụm

Phân cụm có ý nghĩa rất quan trọng trong hoạt động của con người Ngay từ lúc bé, con người đã học cách làm thế nào để phân biệt giữa gà và vịt, giữa động vật

và thực vật và liên tục đưa vào sơ đồ phân loại trong tiềm thức của mình Phân cụm được sử dụng rộng rãi trong nhiều ứng dụng, bao gồm nhận dạng mẫu, phân tích dữ liệu, xử lý ảnh, nghiên cứu thị trường Với tư cách là một chức năng khai phá dữ liệu, phân tích phân cụm có thể được sử dụng như một công cụ độc lập chuẩn để quan sát đặc trưng của mỗi cụm thu được bên trong sự phân bố của dữ liệu và tập trung vào một tập riêng biệt của các cụm để giúp cho việc phân tích đạt kết quả Một vấn đề thường gặp trong phân cụm là hầu hết các dữ liệu cần cho phân cụm đều có chứa dữ liệu nhiễu do quá trình thu thập thiếu chính xác hoặc thiếu đầy

Trang 16

đủ, vì vậy cần phải xây dựng chiến lược cho bước tiền xử lí dữ liệu nhằm khắc phục hoặc loại bỏ nhiễu trước khi chuyển sang giai đoạn phân tích cụm dữ liệu Nhiễu ở đây được hiểu là các đối tượng dữ liệu không chính xác, không tường minh hoặc là các đối tượng dữ liệu khuyết thiếu thông tin về một số thuộc tính Một trong các

kỹ thuật xử lí nhiễu phổ biến là việc thay thế giá trị các thuộc tính của đối tượng nhiễu bằng giá trị thuộc tính tương ứng Ngoài ra, dò tìm phần tử ngoại lai cũng là một trong những hướng nghiên cứu quan trọng trong phân cụm, chức năng của nó

là xác định một nhóm nhỏ các đối tượng dữ liệu khác thường so với các dữ liệu trong CSDL, tức là các đối tượng dữ liệu không tuân theo các hành vi hoặc mô hình

dữ liệu nhằm tránh sự ảnh hưởng của chúng tới quá trình và kết quả của phân cụm Mục tiêu của phân cụm là xác định được bản chất nhóm trong tập DL chưa có nhãn Nhưng để có thể quyết định được vì tạo thành một cụm tốt Nó có thể được chỉ ra rằng không có tiêu chuẩn tuyệt đối “tốt” mà có thể không phụ thuộc vào kết quả phân cụm Vì vậy, nó đòi hỏi người sử dụng phải cung cấp tiêu chuẩn này, theo cách mà kết quả phân cụm sẽ đáp ứng yêu cầu Theo các nghiên cứu cho thấy thì hiện nay chưa có một phương pháp phân cụm tổng quát nào có thể giải quyết trọn vẹn cho tất cả các dạng cấu trúc CSDL Hơn nữa, các phương pháp phân cụm cần

có cách thức biểu diễn cấu trúc của các CSDL, với mỗi cách thức biểu diễn khác nhau sẽ có tương ứng một thuật toán phân cụm phù hợp Vì vậy phân cụm dữ liệu vẫn đang là một vấn đề khó và mở, vì phải giải quyết nhiều vấn đề cơ bản một cách trọn vẹn và phù hợp với nhiều dạng dữ liệu khác nhau, đặc biệt là đối với dữ liệu hỗn hợp đang ngày càng tăng trong các hệ quản trị dữ liệu và đây cũng là một trong những thách thức lớn trong lĩnh vực KPDL

Như chúng ta đã biết, trong mô hình quan hệ, hai dạng phụ thuộc dữ liệu quan trọng giúp cho việc chuẩn hoá tốt các CSDL là phụ thuộc hàm và phụ thuộc đa trị Khi mở rộng mô hình quan hệ để có thể biểu diễn và xử lí được những thông tin

không chắc chắn, không đầy đủ gọi chung là dữ liệu mờ đã có rất nhiều công trình

Trang 17

tập trung nghiên cứu mở rộng hai dạng phụ thuộc này trên mô hình mới Đối với mô

hình trong các công trình này là sự mở rộng mô hình quan hệ theo hai cách: mở

rộng ngữ nghĩa và mở rộng miền trị của thuộc tính Tuy nhiên, cách mở rộng miền

trị của thuộc tính là tốt hơn mở rộng ngữ nghĩa, bởi vì, cách mở rộng này cho phép

bổ sung thêm các cú pháp trong biểu diễn dữ liệu nhằm cho phép biểu diễn được dữ liệu mờ Vì thế, vấn đề mở rộng miền trị của thuộc tính, ngoài việc đưa kí hiệu vào

hệ thống, việc quan trọng hơn là giải quyết vấn đề ngữ nghĩa của các kí hiệu

Như vậy, khái niệm phụ thuộc hàm mờ (fuzzy functional dependencies) được

nhiều tác giả nghiên cứu phát triển dựa trên ý nghĩa của khái niệm phụ thuộc hàm

cổ điển với nhiều cách tiếp cận khác nhau Tuy nhiên, các cách tiếp cận mở rộng phụ thuộc hàm kinh điển này dựa vào 2 nguyên tắc chính:

Nguyên tắc thứ nhất (mở rộng kí hiệu): Nguyên tắc mở rộng này thay cho

quan hệ bằng nhau trên dữ liệu rõ bởi quan hệ gần nhau hoặc quan hệ tương tự trên

dữ liệu mờ và đặt ngưỡng để xác định độ gần nhau

Nguyên tắc thứ hai (mở rộng ngữ nghĩa): Nguyên tắc này dựa vào ý nghĩa của

các phụ thuộc dữ liệu để xây dựng định nghĩa tương ứng cho mô hình mới sao cho bảo toàn một số kết quả quan trọng đã được xây dựng trong mô hình quan hệ Trong cuộc sống, chúng ta đã gặp rất nhiều ứng dụng của bài toán phân cụm Chẳng hạn như trong ngành bưu điện, hàng ngày bưu điện phải phân loại thư theo

mã nước, trong mã nước lại phân loại theo mã tỉnh/thành phố, sau đó khi thư về đến bưu điện tỉnh thì bưu điện tỉnh lại phải phân loại thư theo quận/huyện để gửi đi, đến bưu điện quận/huyện lại phân loại thư theo xã/phường để gửi thư Đó chính là một

ứng dụng của bài toán phân cụm rõ

Vậy bài toán phân cụm rõ là gì?

Ta có thể định nghĩa bài toán phân cụm rõ như sau: Cho tập dữ liệu mẫu X, ta kiểm tra các điểm dữ liệu xem nó giống với đặc điểm của nhóm nào nhất thì ta gán điểm dữ liệu đó vào trong nhóm đó Nhưng trong thực tế không phải lúc nào bài toán phân cụm rõ cũng áp dụng được Chẳng hạn, ta có phép phân loại sau: Những người đi xe ô tô thì thuộc nhóm người giàu, những người đi xe máy thường thuộc

Trang 18

nhóm người bình dân Vậy người nghèo mà đi xe ô tô thì chúng ta xếp người đó vào

nhóm nào? Vì vậy, chúng ta cần đưa vào khái niệm bài toán phân cụm mờ

Trong các phương pháp phân cụm đã giới thiệu trong chương trước, mỗi phương pháp phân cụm phân hoạch một tập dữ liệu ban đầu thành các cụm dữ liệu

có tính tự nhiên và mỗi đối tượng dữ liệu chỉ thuộc về một cụm dữ liệu, phương pháp này chỉ phù hợp với việc khám phá ra các cụm có mật độ cao và rời nhau, với đường biên giữa các cụm được xác định tốt Tuy nhiên, trong thực tế, đường biên giữa các cụm có thể mờ, các cụm có thể chồng lên nhau, nghĩa là một số các đối tượng dữ liệu thuộc về nhiều các cụm khác nhau, do đó mô hình này không mô tả được dữ liệu thực Vì vậy người ta đã áp dụng lý thuyết về tập mờ trong PCDL để

giải quyết cho trường hợp này Cách thức kết hợp này được gọi là Phân cụm mờ

Phân cụm mờ là phương pháp phân cụm dữ liệu mà cho phép mỗi điểm dữ liệu thuộc về hai hoặc nhiều cụm thông qua bậc thành viên Ruspini (1969) giới thiệu khái niệm phân hoạch mờ để mô tả cấu trúc cụm của tập dữ liệu và đề xuất một thuật toán để tính toán tối ưu phân hoạch mờ Dunn (1973) mở rộng phương pháp phân cụm và đã phát triển thuật toán phân cụm mờ Ý tưởng của thuật toán là xây đựng một phương pháp phân cụm mờ dựa trên tối thiểu hóa hàm mục tiêu Bezdek (1981) cải tiến và tổng quát hóa hàm mục tiêu mờ bằng cách đưa ra trọng số

mũ để xây dựng thuật toán phân cụm mờ và được chứng minh độ hội tụ của các thuật toán là cực tiểu cục bộ

PCDL mờ là lĩnh vực đã và đang trở thành một trong những hướng nghiên cứu thu hút được sự quan tâm của nhiều chuyên gia về CNTT trên thế giới và Việt Nam Trong những năm gần đây, rất nhiều các phương pháp và thuật toán mới liên tục được công bố Điều này chứng tỏ những ưu thế, lợi ích và khả năng ứng dụng thực

tế to lớn của PCDL mờ Chương này đã trình bày một số kiến thức tổng quan về KPTT, KPDL và PCDL mờ

Trang 19

CHƯƠNG 2 NGHIÊN CỨU MỘT SỐ KỸ THUẬT PHÂN CỤM DỮ LIỆU,

PHÂN CỤM DỮ LIỆU MỜ

Chương này trình bày những kỹ thuật tiếp cận trong phân cụm dữ liệu, một số thuật toán cơ bản trong phân cụm dữ liệu, kỹ thuật trong phân cụm mờ

Các kỹ thuật phân cụm có rất nhiều cách tiếp cận và các ứng dụng trong thực

tế, nó đều hướng tới hai mục tiêu chung đó là chất lượng của các cụm khám phá được và tốc độ thực hiện của thuật toán Hiện nay, các kỹ thuật phân cụm có thể phân loại theo các cách tiếp cận chính sau:

2.1.1 Phương pháp phân cụm phân hoạch

Kỹ thuật này phân hoạch một tập hợp dữ liệu có n phần tử thành k nhóm cho

đến khi xác định số các cụm được thiết lập Số các cụm được thiết lập là các đặc trưng được lựa chọn trước Phương pháp này là tốt cho việc tìm các cụm hình cầu trong không gian Euclidean Ngoài ra, phương pháp này cũng phụ thuộc vào khoảng cách cơ bản giữa các điểm để lựa chọn các điểm dữ liệu nào có quan hệ là gần nhau với mỗi điểm khác và các điểm dữ liệu nào không có quan hệ hoặc có quan hệ là xa nhau so với mỗi điểm khác Tuy nhiên, phương pháp này không thể

xử lí các cụm có hình dạng kỳ quặc hoặc các cụm có mật độ các điểm dày đặc Các thuật toán phân hoạch dữ liệu có độ phức tạp rất lớn khi xác định nghiệm tối ưu toàn cục cho vấn đề PCDL, do nó phải tìm kiếm tất cả các cách phân hoạch có thể được Chính vì vậy, trên thực tế thường đi tìm giải pháp tối ưu cục bộ cho vấn đề này bằng cách sử dụng một hàm tiêu chuẩn để đánh giá chất lượng của cụm cũng như để hướng dẫn cho quá trình tìm kiếm phân hoạch dữ liệu Như vậy, ý tưởng chính của thuật toán phân cụm phân hoạch tối ưu cục bộ là sử dụng chiến lược ăn tham (Greedy) để tìm kiếm nghiệm

Trang 20

2.1.2 Phương pháp phân cụm phân cấp

Phương pháp này xây dựng một phân cấp trên cơ sở các đối tượng dữ liệu đang xem xét Nghĩa là sắp xếp một tập dữ liệu đã cho thành một cấu trúc có dạng hình cây, cây phân cấp này được xây dựng theo kỹ thuật đệ quy Có hai cách tiếp cận phổ biến của kỹ thuật này đó là:

* Hòa nhập nhóm, thường được gọi là tiếp cận Bottom-Up

* Phân chia nhóm, thường được gọi là tiếp cận Top-Down

Hình 2.2: Các chiến lược phân cụm phân cấp

Thực tế áp dụng, có nhiều trường hợp kết hợp cả hai phương pháp phân cụm phân hoạch và phân cụm phân cấp, nghĩa là kết quả thu được của phương pháp phân cấp có thể cải tiến thông qua bước phân cụm phân hoạch Phân cụm phân hoạch và phân cụm phân cấp là hai phương pháp PCDL cổ điển, hiện đã có rất nhiều thuật toán cải tiến dựa trên hai phương pháp này đã được áp dụng phổ biến trong KPDL

2.1.3 Phương pháp phân cụm dựa trên mật độ

Kỹ thuật này nhóm các đối tượng dữ liệu dựa trên hàm mật độ xác định, mật

độ là số các đối tượng lân cận của một đối tượng dữ liệu theo một nghĩa nào đó Trong cách tiếp cận này, khi một dữ liệu đã xác định thì nó tiếp tục được phát triển thêm các đối tượng dữ liệu mới miễn là số các đối tượng lân cận này phải lớn hơn một ngưỡng đã được xác định trước Phương pháp phân cụm dựa trên mật độ của các đối tượng để xác định các cụm dữ liệu có thể phát hiện ra các cụm dữ liệu với hình thù bất kỳ Kỹ thuật này có thể khắc phục được các phần tử ngoại lai hoặc giá

Trang 21

trị nhiễu rất tốt, tuy nhiên việc xác định các tham số mật độ của thuật toán là rất khó khăn, trong khi các tham số này lại có tác động rất lớn đến kết quả phân cụm

2.1.4 Phương pháp phân cụm dựa trên lưới

Kỹ thuật phân cụm dựa trên lưới thích hợp với dữ liệu nhiều chiều, dựa trên cấu trúc dữ liệu lưới để phân cụm, phương pháp này chủ yếu tập trung áp dụng cho lớp dữ liệu không gian Mục tiêu của phương pháp này là lượng hóa dữ liệu thành các ô tạo thành cấu trúc dữ liệu lưới Sau đó, các thao tác phân cụm chỉ cần làm việc với các đối tượng trong từng ô trên lưới chứ không phải các đối tượng dữ liệu Cách tiếp cận dựa trên lưới này không di chuyển các đối tượng trong các ô mà xây dựng nhiều mức phân cấp của nhóm các đối tượng trong một ô Phương pháp này gần giống với phương pháp phân cụm phân cấp nhưng chúng không trộn các ô, đồng thời giải quyết khắc phục yêu cầu đối với dữ liệu nhiều chiều mà phương pháp phân phân cụm dựa trên mật độ không giải quyết được Ưu điểm của phương pháp phân cụm dựa trên lưới là thời gian xử lí nhanh và độc lập với số đối tượng dữ liệu trong tập dữ liệu ban đầu, thay vào đó là chúng phụ thuộc vào số ô trong mỗi chiều của không gian lưới

Hình 2.3: Cấu trúc phân cấp

Trang 22

2.1.5 Phương pháp phân cụm dựa trên mô hình

Phương này cố gắng khám phá các phép xấp xỉ tốt của các tham số mô hình sao cho khớp với dữ liệu một cách tốt nhất Chúng có thể sử dụng chiến lược phân cụm phân hoạch hoặc phân cụm phân cấp, dựa trên cấu trúc hoặc mô hình mà chúng giả định về tập dữ liệu và cách chúng hiệu chỉnh các mô hình này để nhận dạng ra các phân hoạch Phương pháp phân cụm dựa trên mô hình cố gắng khớp giữa các dữ liệu với mô hình toán học, nó dựa trên giả định rằng dữ liệu được tạo ra bằng hỗn hợp phân phối xác suất cơ bản Các thuật toán phân cụm dựa trên mô hình có hai

cách tiếp cận chính: mô hình thống kê và mạng nơron Phương pháp này gần giống

với phương pháp phân cụm dựa trên mật độ, vì chúng phát triển các cụm riêng biệt nhằm cải tiến các mô hình đã được xác định trước đó, nhưng đôi khi nó không bắt đầu với một số cụm cố định và không sử dụng cùng một khái niệm mật độ cho các cụm

2.1.6 Phương pháp phân cụm có dữ liệu ràng buộc

Sự phát triển của PCDL không gian trên CSDL lớn đã cung cấp nhiều công cụ tiện lợi cho việc phân tích thông tin địa lí, tuy nhiên hầu hết các thuật toán này cung cấp rất ít cách thức cho người dùng để xác định các ràng buộc trong thế giới thực cần phải được thỏa mãn trong quá trình phân cụm Để PCDL không gian hiệu quả hơn, các nghiên cứu bổ sung cần được thực hiện để cung cấp cho người dùng khả năng kết hợp các ràng buộc trong thuật toán phân cụm

Trang 23

Hình 2.4: Các cách mà các cụm có thể đưa ra

Hiện nay, các phương pháp phân cụm trên đã và đang được phát triển và áp dụng nhiều trong các lĩnh vực khác nhau và đã có một số nhánh nghiên cứu được phát triển trên cơ sở của các phương pháp đó như:

Phân cụm thống kê: Dựa trên các khái niệm phân tích hệ thống, nhánh nghiên

cứu này sử dụng các độ đo tương tự để phân hoạch các đối tượng, nhưng chúng chỉ

áp dụng cho các dữ liệu có thuộc tính số

Phân cụm khái niệm: Kỹ thuật này được phát triển áp dụng cho dữ liệu hạng

mục, chúng phân cụm các đối tượng theo các khái niệm mà chúng xử lí

Phân cụm mờ: Sử đụng kỹ thuật mờ để PCDL Các thuật toán thuộc loại này

chỉ ra lược đồ phân cụm thích hợp với tất cả các hoạt động đời sống hàng ngày, chúng chỉ xử lí các dữ liệu thực không chắc chắn

Phân cụm mạng Kohonen: Loại phân cụm này dựa trên khái niệm của các

mạng nơron Mạng Kohonen có tầng nơron vào và các tầng nơron ra Mỗi nơron

Trang 24

của tầng vào tương ứng với mỗi thuộc tính của bản ghi, mỗi một nơron vào kết nối với tất cả các nơron của tầng ra Mỗi liên kết được gắn liền với một trọng số nhằm xác định vị trí của nơron ra tương ứng

2.2.1 Các thuật toán phân cụm phân hoạch

Thuật toán k-means

Thuật toán này dựa trên độ đo khoảng cách của các đối tượng dữ liệu trong cụm Trong thực tế, nó đo khoảng cách tới giá trị trung bình của các đối tượng dữ liệu trong cụm Nó được xem như là trung tâm của cụm Như vậy, nó cần khởi tạo một tập trung tâm các trung tâm cụm ban đầu, và thông qua đó nó lặp lại các bước gồm gán mỗi đối tượng tới cụm mà trung tâm gần, và tính toán tại tung tâm của mỗi cụm trên cơ sở gán mới cho các đối tượng Quá trình lặp này dừng khi các trung tâm hội tụ

Hình 2.5: Các thiết lập để xác định ranh giới các cụm ban đầu

Mục đích của thuật toán k-means là sinh k cụm dữ liệu {C1, C2, , Ck} từ một

tập dữ liệu chứa n đối tượng trong không gian d chiều Xi = {xi1, xi2, , xid}, i= 1 ÷ n, sao cho hàm tiêu chuẩn:

Trang 25

ED x m

=

thiểu, trong đó: mi là trọng tâm của cụm Ci, D là khoảng cách giữa hai đối tượng

Hình 2.6: Tính toán trọng tâm của các cụm mới

Thuật toán k-means bao gồm các bước cơ bản sau:

Input: Số cụm k và các trọng tâm cụm {mj}kj=1

Output: Các cụm C[i] (1 ≤ i ≤ k) và hàm tiêu chuẩn E đạt giá trị tối thiểu Begin

Bước 1: Khởi tạo

Chọn k trọng tâm {mj}kj=1 ban đầu trong không gian Rd (d là số chiều của dữ liệu) Việc lựa chọn này có thể là ngẫu nhiên hoặc theo kinh nghiệm

Bước 2: Tính toán khoảng cách

Đối với mỗi điểm Xi (1 ≤ i ≤ n), tính toán khoảng cách của nó tới mỗi trọng tâm mj (1 ≤ j ≤ k) Sau đó tìm trọng tâm gần nhất đối với mỗi điểm

Bước 3: Cập nhật lại trọng tâm

Đối với mỗi 1 ≤ j ≤ k, cập nhật trọng tâm cụm mj bằng cách xác định trung bình cộng các vectơ đối tượng dữ liệu

Điều kiện dừng:

Trang 26

Lặp lại các bước 2 và 3 cho đến khi các trọng tâm của cụm không thay đổi

End

Thuật toán k-means trên được chứng minh là hội tụ và có độ phức tạp tính

toán là o((3nkd) τT flop Trong đó, n là số đối tượng dữ liệu, k là số cụm dữ liệu, d

là số chiều, τ là số vòng lặp, ) T flop là thời gian để thực hiện một phép tính cơ sở

như phép tính nhân, chia, Như vậy, do k-means phân tích phân cụm đơn giản nên

có thể áp dụng đối với tập dữ liệu lớn Tuy nhiên, nhược điểm của k-means là chỉ áp dụng với dữ liệu có thuộc tính số và khám phá ra các cụm có dạng hình cầu, k-means còn rất nhạy cảm với nhiễu và các phần tử ngoại lai trong dữ liệu Hơn nữa, chất lượng PCDL của thuật toán k-means phụ thuộc nhiều vào các tham số đầu vào như: số cụm k và k trọng tâm khởi tạo ban đầu Trong trường hợp các trọng tâm khởi tạo ban đầu mà quá lệch so với các trọng tâm cụm tự nhiên thì kết quả phân cụm của k-means là rất thấp, nghĩa là các cụm dữ liệu được khám phá rất lệch so với các cụm trong thực tế

Trên thực tế chưa có một giải pháp tối ưu nào để chọn các tham số đầu vào, giải pháp thường được sử dụng nhất là thử nghiệm với các giá trị đầu vào k khác nhau rồi sau đó chọn giải pháp tốt nhất

Ngoài thuật toán K-means ra, phân cụm phân hoạch còn bao gồm một số

các thuật toán khác như: Thuật toán PAM; Thuật toán CLARA; Thuật toán CLARANS

2.2.2 Các thuật toán phân cụm phân cấp

Thuật toán CURE

Trong khi hầu hết các thuật toán thực hiện phân cụm với các cụm hình cầu và kích thước tương tự, như vậy là không hiệu quả khi xuất hiện các phần tử ngoại lai Thuật toán CURE khắc phục được vấn đề này và tốt hơn với các phần tử ngoại lai Thuật toán này định nghĩa một số cố định các điểm đại diện nằm rải rác trong toàn

bộ không gian dữ liệu và được chọn để mô tả các cụm được hình thành Các điểm này được tạo ra nhờ lựa chọn các đối tượng nằm rải rác cho cụm và sau đó “co lại” hoặc di chuyển chúng về trung tâm cụm bằng nhân tố co cụm Quá trình này được

Trang 27

lặp lại và như vậy trong quá trình này, có thể đo tỉ lệ gia tăng của cụm Tại mỗi bước của thuật toán, hai cụm có cặp các điểm đại diện gần nhau (mỗi điểm trong cặp thuộc về mỗi cụm khác nhau) được hòa nhập

Hình 2.7: Khái quát thuật toán CURE

Như vậy, có nhiều hơn một điểm đại diện mỗi cụm cho phép CURE khám phá được các cụm có hình dạng không phải là hình cầu Việc co lại các cụm có tác dụng làm giảm tác động của các phần tử ngoại lai Như vậy, thuật toán này có khả năng

xử lí tốt trong trường hợp có các phần tử ngoại lai và làm cho nó hiệu quả với những hình dạng không phải là hình cầu và kích thước độ rộng biến đổi Hơn nữa,

nó tỉ lệ tốt với CSDL lớn mà không làm giảm chất lượng phân cụm

Hình 2.8: Các cụm dữ liệu được khám phá bởi CURE

Để xử lí được các CSDL 1ớn, CURE sử dụng mẫu ngẫu nhiên và phân hoạch, một mẫu là được xác định ngẫu nhiên trước khi được phân hoạch, và sau đó tiến hành phân cụm trên mỗi phân hoạch, như vậy mỗi phân hoạch là từng phần đã được phân cụm, các cụm thu được lại được phân cụm lần thứ hai để thu được các cụm

Trang 28

con mong muốn, nhưng mẫu ngẫu nhiên không nhất thiết đưa ra một mô tả tốt cho toàn bộ tập dữ liệu

Thuật toán CURE được thực hiện qua các bước cơ bản sau:

Chọn một mẫu ngẫu nhiên từ tập dữ liệu ban đầu

Phân hoạch mẫu này thành nhiều nhóm dữ liệu có kích thước bằng nhau: Ý tưởng chính ở đây là phân hoạch mẫu thành p nhóm dữ liệu bằng nhau, kích thước của mỗi phân hoạch là n’/p (n’ là kích thước của mẫu)

Phân cụm các điểm của mỗi nhóm: Thực hiện PCDL cho các nhóm cho đến khi mỗi nhóm được phân thành n’/pq cụm (với q > 1)

Loại bỏ các phần tử ngoại lai: Trước hết, khi các cụm được hình thành cho đến khi số các cụm giảm xuống một phần so với số các cụm ban đầu Sau đó, trong trường hợp các phần tử ngoại lai được lấy mẫu cùng với quá trình pha khởi tạo mẫu

dữ liệu, thuật toán sẽ tự động loại bỏ các nhóm nhỏ

Phân cụm các cụm không gian: các đối tượng đại diện cho các cụm di chuyển

về hướng trung tâm cụm, nghĩa là chúng được thay thế bởi các đối tượng gần trung tâm hơn

Đánh dấu dữ liệu với các nhãn tương ứng

Độ phức tạp tính toán của thuật toán CURE là O(n21og(n)) CURE là thuật toán tin cậy trong việc khám phá ra các cụm với hình thù bất kỳ và có thể áp dụng tốt đối với dữ liệu có phần tử ngoại lại và trên các tập dữ liệu hai chiều Tuy nhiên,

nó lại rất nhạy cảm với các tham số như số các đối tượng đại diện, tỉ lệ co của các phần tử đại điện

Ngoài thuật toán CURE ra, phân cụm phân cấp còn bao gồm một số thuật

toán khác như: Thuật toán BIRCH; Thuật toán AGNES; Thuật toán DIANA; Thuật toán ROCK; Thuật toán CHANMELEON

2.2.3 Các thuật toán phân cụm dựa trên mật độ

Thuật toán DBSCAN

Thuật toán DBSCAN thích nghi với mật độ dầy để phân cụm và khám phá ra các cụm có hình dạng bất kỳ trong không gian CSDL có nhiễu

Trang 29

Trên thực tế DBSCAN tìm kiếm cho các cụm bằng cách kiểm tra các đối tượng mà có số đối tượng láng giềng nhỏ hơn một ngưỡng tối thiểu, tức là có tối

thiểu MinPts đối tượng và mỗi đối tượng trong cụm tồn tại một đối tượng khác trong cụm giống nhau với khoảng cách nhỏ một ngưỡng Eps Tìm tất cả các đối

tượng mà các láng giềng của nó thuộc về lớp các đối tượng đã xác định ở trên, một cụm được xác định bằng một tập tất cả các đối tượng liên thông mật độ các láng giềng của nó DBSCAN lặp lại tìm kiếm ngay khi các đối tượng liên lạc mật độ từ các đối tượng trung tâm, nó có thể bao gồm việc kết hợp một số cụm có mật độ liên lạc Quá trình kết thúc khi không tìm được điểm mới nào có thể thêm vào bất cứ cụm nào

DBSCAN có thể tìm ra các cụm với hình thù bất kỳ, trong khi đó tại cùng một thời điểm ít bị ảnh hưởng bởi thứ tự của các đối tượng dữ liệu nhập vào Khi có một đối tượng được chèn vào chỉ tác động đến một láng giềng xác định Mặt khác,

DBSCAN sử dụng tham số Eps và MinPts trong thuật toán để kiểm soát mật độ của

các cụm DBSCAN bắt đầu với một điểm tuỳ ý và xây dựng mật độ láng giềng có

thể được đối với Eps và MinPts Vì vậy, DBSCAN yêu cầu người dùng xác định bán kính Eps của các láng giềng và số các láng giềng tối thiểu MinPts, các tham số

này khó mà xác định được tối ưu, thông thường nó được xác định bằng phép chọn ngẫu nhiên hoặc theo kinh nghiệm

Độ phức tạp của DBSCAN là O(n 2

), nhưng nếu áp dụng chỉ số không gian để

giúp xác định các láng giềng của một đối tượng dữ liệu thì độ phức của DBSCAN

đã được cải tiến là O(nlogn) Thuật toán DBSCAN có thể áp dụng cho các tập dữ

liệu không gian lớn đa chiều, khoảng cách Euclide được sử dụng để đo sự tương tự giữa các đối tượng nhưng không hiệu quả đối với dữ liệu đa chiều

Trang 30

Hình 2.9: Hình dạng các cụm được khám phá bởi thuật toán DBSCAN

Thuật toán: DBSCAN khởi tạo điểm p tùy ý và lấy tất cả các điểm liên lạc

mật độ từ p tới Eps và MinPts Nếu p là điểm nhân thì thủ tục trên tạo ra một cụm theo Eps và MinPts, nếu p là một điểm biên, không có điểm nào liên lạc mật độ từ p

và DBSCAN sẽ đi thăm điểm tiếp theo của tập dữ liệu

Nếu sử dụng giá trị toàn cục Eps và Minpts, DBSCAN có thể hoà nhập hai

cụm thành một cụm nếu mật độ của hai cụm gần bằng nhau Giả sử khoảng cách giữa hai tập dữ liệu S1 và S2 được định nghĩa là: dist(S1, S2) = min{dist(p, q) {p ∈ S1 và q ∈ S2}

Thuật toán DBSCAN được mô tả chi tiết như sau:

IF PointClId = UNCLASSIFIED THEN

IF ExpandCluster(SetOfPoints, Point, ClusterId, Eps, MinPts)

THEN

ClusterId.= nextId(ClusterId) END IF

END IF

Ngày đăng: 25/03/2014, 16:24

Nguồn tham khảo

Tài liệu tham khảo Loại Chi tiết
2. Đỗ Văn Dũng (2004), Trang bị điện và điện tử trên ô tô hiện đại, Trường đại học sư phạm kỹ thuật TP.HCM Sách, tạp chí
Tiêu đề: Trang bị điện và điện tử trên ô tô hiện đại
Tác giả: Đỗ Văn Dũng
Năm: 2004
3. Nguyễn Văn Trạng (2009), Giáo trình thực tập động cơ đốt trong (tập I, II), Trường đại học sư phạm kỹ thuật TP.HCM Sách, tạp chí
Tiêu đề: Giáo trình thực tập động cơ đốt trong (tập I, II)
Tác giả: Nguyễn Văn Trạng
Năm: 2009
4. Hoàng Thị Lan Giao, (2011), Chuyên đề Khai phá dữ liệu, hệ hỗ trợ quyết định (Dành cho cao học Khoa học máy tính), Đại học khoa học Huế Sách, tạp chí
Tiêu đề: Chuyên đề Khai phá dữ liệu, hệ hỗ trợ quyết định (Dành cho cao học Khoa học máy tính)
Tác giả: Hoàng Thị Lan Giao
Năm: 2011
5. Nguyễn Công Hào (2011), Bài giảng về Logic mờ và ứng dụng (Dành cho cao học Khoa học máy tính), Đại học Huế.Tiếng Anh Sách, tạp chí
Tiêu đề: Nguyễn Công Hào (2011), "Bài giảng về Logic mờ và ứng dụng (Dành cho cao học Khoa học máy tính)
Tác giả: Nguyễn Công Hào
Năm: 2011
6. Bassam M. El-Zaghmouri, Marwan A. Abu-Zanona, Fuzzy C-Mean Clustering Algorithm Modification and Adaptation for Applications, 2012 Sách, tạp chí
Tiêu đề: Fuzzy C-Mean Clustering Algorithm Modification and Adaptation for Applications
7. Mohammad GhasemiGol, Hadi Sadoghi Yazdi, Reza Monsefi, A New Hierarchical Clustering Algorithm on Fuzzy Data (FHCA), 2010 Sách, tạp chí
Tiêu đề: A New Hierarchical Clustering Algorithm on Fuzzy Data (FHCA)
8. Ondrej Linda, Milos Manic, General Type-2 Fuzzy C-Means Algorithm for Uncertain Fuzzy Clustering, 2010 Sách, tạp chí
Tiêu đề: General Type-2 Fuzzy C-Means Algorithm for Uncertain Fuzzy Clustering
9. M-S Chen,Wang, Fuzzy clustering analyis for optimizing fuzzy membership function,1999 Sách, tạp chí
Tiêu đề: Fuzzy clustering analyis for optimizing fuzzy membership function
10. N.R.Pal, J.C. Bezdek, On cluster validity for the c-means mode, IEEE Trans.Fuzzy Systems 3 (1995) 370-379 Sách, tạp chí
Tiêu đề: On cluster validity for the c-means mode
11. X.L Xie-Ben, A validity measure for fuzzy clustering, IEEE Trans, Partarn Anal,1991 Sách, tạp chí
Tiêu đề: A validity measure for fuzzy clustering
1. Tài liệu đào tạo kỹ thuật viên của Toyota về qui trình kiểm tra, chẩn đoán, bảo trì, sửa chữa xe ô tô Khác

HÌNH ẢNH LIÊN QUAN

Hình 2.2: Các chiến lược phân cụm phân cấp - nghiên cứu kỹ thuật phân cụm dữ liệu mờ và ứng dụng chẩn đoán bệnh trên ô tô
Hình 2.2 Các chiến lược phân cụm phân cấp (Trang 20)
Hình 2.3: Cấu trúc phân cấp - nghiên cứu kỹ thuật phân cụm dữ liệu mờ và ứng dụng chẩn đoán bệnh trên ô tô
Hình 2.3 Cấu trúc phân cấp (Trang 21)
Hình 2.4: Các cách mà các cụm có thể đưa ra - nghiên cứu kỹ thuật phân cụm dữ liệu mờ và ứng dụng chẩn đoán bệnh trên ô tô
Hình 2.4 Các cách mà các cụm có thể đưa ra (Trang 23)
Hình 2.5: Các thiết lập để xác định ranh giới các cụm ban đầu - nghiên cứu kỹ thuật phân cụm dữ liệu mờ và ứng dụng chẩn đoán bệnh trên ô tô
Hình 2.5 Các thiết lập để xác định ranh giới các cụm ban đầu (Trang 24)
Hình 2.6: Tính toán trọng tâm của các cụm mới - nghiên cứu kỹ thuật phân cụm dữ liệu mờ và ứng dụng chẩn đoán bệnh trên ô tô
Hình 2.6 Tính toán trọng tâm của các cụm mới (Trang 25)
Hình 2.7: Khái quát thuật toán CURE - nghiên cứu kỹ thuật phân cụm dữ liệu mờ và ứng dụng chẩn đoán bệnh trên ô tô
Hình 2.7 Khái quát thuật toán CURE (Trang 27)
Hình 2.9: Hình dạng các cụm được khám phá bởi thuật toán DBSCAN - nghiên cứu kỹ thuật phân cụm dữ liệu mờ và ứng dụng chẩn đoán bệnh trên ô tô
Hình 2.9 Hình dạng các cụm được khám phá bởi thuật toán DBSCAN (Trang 30)
Hình 3.2: Hàm thuộc với trọng tâm của cụm A trong k-means - nghiên cứu kỹ thuật phân cụm dữ liệu mờ và ứng dụng chẩn đoán bệnh trên ô tô
Hình 3.2 Hàm thuộc với trọng tâm của cụm A trong k-means (Trang 43)
Hình 3.3: Hàm thuộc với trọng tâm của cụm A trong FCM - nghiên cứu kỹ thuật phân cụm dữ liệu mờ và ứng dụng chẩn đoán bệnh trên ô tô
Hình 3.3 Hàm thuộc với trọng tâm của cụm A trong FCM (Trang 44)

TỪ KHÓA LIÊN QUAN

🧩 Sản phẩm bạn có thể quan tâm