1. Trang chủ
  2. » Luận Văn - Báo Cáo

Tìm hiểu các phương pháp phân cụm dữ liệu ứng dụng xây dựng bản đồ phân bố bệnh trên địa bàn tỉnh thái nguyên

79 173 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 79
Dung lượng 4,72 MB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

Lavrac [4] đề xuất một số kỹ thuật khai thác dữ liệu có thể được áp dụng trong y học, và đặc biệt là một số kỹ thuật máy học bao gồm các cơ chế mà làm cho chúng phùhợp hơn cho việc phân

Trang 1

NGUYỄN MINH TÚ

TÌM HIỂU CÁC PHƯƠNG PHÁP CỤM DỮ LIỆU ỨNG DỤNG XÂY DỰNG BẢN ĐỒ PHÂN BỐ

BỆNH TRÊN ĐỊA BÀN TỈNH THÁI NGUYÊN

Mã số: 60480101Người hướng dẫn khoa học: TS NGUYỄN MINH HẢI

LUẬN VĂN THẠC SĨ KHOA HỌC MÁY TÍNH

Thái Nguyên - 2015

Trang 2

Em xin gửi lời cảm ơn sâu sắc tới thầy giáo TS Nguyễn Hải Minh, trưởng khoa Côngnghệ thông tin – Trường Đại học Công nghệ Thông tin và Truyền thông – Đại học TháiNguyên đã trực tiếp hướng dẫn em trong quá trình thực hiện luận văn.

Em cũng xin gửi lời cảm ơn tới các thầy, cô đã có những ý kiến đóng góp bổ ích và

đã tạo mọi điều kiện tốt nhất cho em trong suốt thời gian thực hiện luận văn Xin cảm ơncác bạn học đồng khóa đã thường xuyên động viên, giúp đỡ tôi trong quá trình học tập

Cuối cùng, em xin gửi lời cảm ơn đến gia đình và đồng nghiệp vì sự ủng hộ và độngviên đã dành cho em trong suốt quá trình học tập cũng như thực hiện luận văn này

Thái Nguyên, tháng 11 năm 2015

Học viên

Nguyễn Minh Tú

Trang 3

các phương pháp phân cụm dữ liệu ứng dụng xây dựng bản đồ phân bố bệnh trên địa bàn tỉnh Thái Nguyên” không sao chép nội dung từ các luận văn khác, hay các sản

phẩm tương tự mà không phải do em làm ra Sản phẩm luận văn là do chính bản thân emtìm hiểu và xây dựng nên

Nếu có gì sai em xin chịu mọi hình thức kỷ luật của Trường Đại học Công nghệ Thông tin và Truyền thông – Đại học Thái Nguyên

Thái Nguyên, tháng 11 năm 2015

Học viên

Nguyễn Minh Tú

Trang 4

LỤC iv DANH MỤC BẢNG .vi DANH MỤC CÁC

1

MÔT SÔ KÊT QUA NGHIÊN CƯU KHAC 2

CHƯƠNG I KHAI PHÁ DỮ LIỆU 3

1.1 Tổng quan khai phá dữ liệu 3

1.2 Quá trình khám phá tri thức và khai phá dữ liệu 3

1.2.1 Quá trình khám phá tri thức 3

1.2.2 Quá trình khai phá dữ liệu 6

1.3 Các kỹ thuật trong khai phá dữ liệu 7

1.4 Môt sô thach thưc trong khai pha dư liêu 10

CHƯƠNG II PHÂN CUM DƯ LIÊU VA CAC THUÂT TOANPHÂN CUM 12

2.1 Khái niệm phân cụm dữ liệu 13

2.1.1 Một số định nghĩa 13

2.1.2 Dữ liệu và độ đo 13

2.2 Các yêu cầu đối với phương pháp phân cụm dữ liệu 14

2.3 Các kỹ thuật phân cụm 16

2.3.1 Các kỹ thuật phân cụm cơ bản 16

2.3.2 Các kỹ thuật phân cụm khác 17

2.3.3 Một số tiêu chuẩn đánh giá hiệu quả phân cụm 23

2.4 Một số thuật toán trong phân cụm dữ liệu 24

2.4.1 Các thuật toán phân cụm phân hoạch 24

2.4.2 Các thuật toán phân cụm phân cấp 32

Trang 5

3.1 Bài toán phân cụm dữ liệu hồ sơ bệnh án 46

3.2 Dữ liệu và tiêu chí xác định 46

3.2.1 Một số đặc điểm tập dữ liệu gốc 46

3.2.2 Tiền xử lý dữ liệu gốc 48

3.3 Lựa chọn phương pháp phân cụm 54

3.4 Kết quả phân cụm dữ liệu mẫu 55

3.5 Biểu điễn kết quả phân bố bệnh trên bản đồ 61

KÊT LUÂN 63

TÀI LIỆU THAM KHẢO 65

Trang 6

Bảng 3.2: Các khu vực hành chính và ký hiệu 56

Bảng 3.3: Dữ liệu đầu vào cho phân cụm phân cấp 56

Bảng 3.4: Biểu diễn kết quả phân cụm chi tiết 59

Bảng 3.5: Biểu diễn kết quả phân cụm theo tiêu chí bệnh 61

Trang 7

Hình 1.2: Quá trình khai phá dữ liệu 7

Hình 2.1: Ví dụ về phân cụm theo mật độ[4] 18

Hình 2.2: Cấu trúc phân cụm dựa trên lưới[4] 19

Hình 2.3: Ví dụ về phân cụm dựa trên mô hình[4] 20

Hình 2.4: Cách mà các cụm có thể đưa ra 22

Hình 2.5: Thuật toán k-means 25

Hình 2.6: Sự thay đổi tâm cụm trong k-means khi có phần tử ngoại lai 28

Hình 2.7: Phân cụm phân cấp tập theo phương pháp “dưới lên” [4] 33

Hình 2.8: Single link 33

Hình 2.9: Complete link 33

Hình 2.10: Các bước cơ bản của AGNES[4] 35

Hình 2.11: Các bước cơ bản của DIANA[4] 36

Hình 2.12: Cấu trúc cây CF 37

Hình 2.13: Hình dạng các cụm được khám phá bởi thuật toán DBSCAN 40

Hình 2.14: Sắp xếp cụm trong OPTICS phụ thuộc vào [4] 41

Hình 3.1: Sơ đồ khối giải quyết bài toán 46

Hình 3.2: Phân tích dữ liệu gốc, thuộc tính “HO TEN” 49

Hình 3.3: Dữ liệu gốc sau khi loại bỏ thuộc tính thừa và dữ liệu trùng lặp 50

Hình 3.4: Phân tích dữ liệu gốc, thuộc tính “QUAN HUYEN” 51

Hình 3.5: Loại bỏ một số giá trị của thuộc tính “QUAN HUYEN” 52

Hình 3.6: Dữ liệu trước và sau khi lọc thuộc tính “CHUAN DOAN DAU RA” 53

Hình 3.7: Cấu và phân bố dữ liệu mẫu 58

Hình 3.8: Thiết lập tham số thuật toán K-means 58

Hình 3.9: Kết quả phân cụm chi tiết 59

Trang 9

MỞ ĐẦU

Đề tài tìm hiểu các phương pháp phân cụm dữ liệu, đánh giá ưu nhược điểm củamỗi phương pháp để tìm ra phương pháp phù hợp áp dụng trên tập dữ liệu mẫu Kết quả

sẽ được dùng để xây dựng bản đồ phân bố bệnh trên địa bàn tỉnh Thái Nguyên nhằm

hỗ trợ công tác lên kế hoạch dự trù cơ sở vật chất, thuốc và các trang thiết bị khác cho cáctrung tâm y tế của Tỉnh

Thái Nguyên là một tỉnh trung du miền núi thuộc vùng Đông Bắc của Việt Nam với

chính: Thành phố Thái Nguyên; Thị xã Sông Công và 7 huyện: Phổ Yên, Phú Bình, Đồng Hỷ,

Võ Nhai, Định Hóa, Đại Từ, Phú Lương Trong đó, tổng số gồm

180 xã, trong đó có 125 xã vùng cao và miền núi, còn lại là các xã đồng bằng và trungdu.Tỉnh Thái Nguyên có nhiều dân tộc anh em sinh sống Tuy nhiên, dân cư phân bố khôngđều, vùng cao và vùng núi dân cư rất thưa thớt, trong khi đó ở thành thị và đồng bằng dân

Do sự khác biệt lớn trong cơ cấu dân số, lối sống, trình độ dân trí nên cónhững sự khác biệt đáng kể trong các hình thức bệnh trong các khu vực hành chính khácnhau Nếu các thông tin về hình thức bệnh và các vấn đề sức khỏe trong mỗi khu vựchành chính được thu thập đầy đủ, nó sẽ có thể sẽ giúp việc phân bổ nguồn lực hiệu quả

để phát triển các chính sách y tế công cộng cho các khu vực khác nhau

Luận văn sử dụng các kỹ thuật khai thác dữ liệu để phân tích dữ liệu y tế thuộcĐại học Y Dược Thái Nguyên trongbốn tháng đầu năm 2015 Hy vọng rằng việc sử dụngcác công cụ này một cách hiệu quả có thể phân tích và điều tra hình thức bệnh trong khuvực hành chính khác nhau của Thái Nguyên để tiếp tục xây dựng một bản đồ y tế cho tỉnhThái Nguyên

Trang 10

MÔT SÔ KÊT QUA NGHIÊN CƯU KHAC

Ching-Kuo Wei et al [2] Nghiên cứu này sử dụng các kỹ thuật khai phá dữ liệu điềutra các loại bệnh trong các khu vực hành chính khác nhau và phân tích sự khác nhau giữacác khu vực hành chính để tiếp tục xây dựng một bản đồ phân bố bệnh

Nghiên cứu hy vọng sẽ giúp xây dựng trong tương lai các chiến lược y tế và phân

bố các nguồn lực một cách thích hợp

Lavrac [4] đề xuất một số kỹ thuật khai thác dữ liệu có thể được áp dụng trong

y học, và đặc biệt là một số kỹ thuật máy học bao gồm các cơ chế mà làm cho chúng phùhợp hơn cho việc phân tích cơ sở dữ liệu y tế (nguồn gốc của các quy tắc mang tính biểutượng, sử dụng các kiến thức nền, độ nhạy và độ đặc hiệu của giới thiệu gây ra) Tầmquan trọng của thông dịch các kết quả phân tích dữ liệu là thảo luận và minh họa trên cácứng dụng y tế đã chọn

Lavrac et al [5] đề xuất một phương pháp khai thác dữ liệu và công nghệ trựcquan được sử dụng để hỗ trợ việc ra quyết định liên quan đến sức khỏe cộng đồng tạiSlovenia.Mục đích nhằm khai thác cơ sở dữ liệu y tế công cộng để xác định khả năngđáp ứng của các dịch vụ y tế công cộng đối với các khu vực Các kết quả có thể sử dụng đểphát triển các chính sách chăm sóc sức khỏe cơ quan y tế

Trang 11

CHƯƠNG I KHAI PHÁ DỮ LIỆU

1.1 Tổng quan khai phá dữ liệu

Cùng với sự phát triển mạnh mẽ của công nghệthông tin,lượng thông tin của nhânloại đượclưu trữ trên các thiết bị điện tử, các hệ thống thông tin ngày một tăng Việc ứngdựng công nghệ thông tin mạnh mẽ, sâu rộng trong nhiều lĩnh vực: khoa học, kinh doanh,chứng khoán, thương mại, giao dịch,… đã tích lũy nên nguồn dữ liệu khổng lồ.Sự bùng nổnày đãdẫn tới một yêu cầu cấp thiết là cần có những kỹ thuật và công cụ mới để tựđộngchuyển đổi lượng dữ liệu khổng lồ kia thành các tri thức có ích Do đó, khai phá dữ liệu(Data Mining) và các kỹ thuật phai phá dữ liệu ra đời đã phần nào giải quyết được đượcyêu cầu trên

Trithức được xem như là các thông tin tích hợp, bao gồm các sự kiện vàmốiquan hệ giữa chúng, đã được nhận thức, khám phá, hoặc nghiên cứu Nóicáchkhác, tri thức có thể được coi là dữ liệu ở mức độ cao của sự trừu tượng vàtổng

quát

Khám phá tri thức là quá trình tìm ra những tri thức, đó là những mẫu tìm ẩn, trước

đó chưa biết và là thông tin hữu ích đáng tin cậy.Khai phá dữ liệu là một bước trong quátrình khám phá tri thức, gồmcác thuật toán khai thác dữ liệu chuyên dùng dưới một số quiđịnh về hiệu quảtính toán chấp nhận được để tìm ra các mẫu hoặc các mô hình trong dữliệu.Nói cách khác, mục tiêu của khai phá dữ liệu là tìm kiếm các mẫu hoặc môhình tồn tạitrong cơ sở dữ liệu (CSDL) nhưng ẩn trong khối lượng lớn dữ liệu

Khám phá tri thức từ CSDL là một quá trình sử dụng các phương pháp và công cụ tinhọc để khám phá,lựa chọn được tập con dữ liệu tốt, từ đó phát hiện các mẫu phù hợp vớimục tiêu đề ra Đó chính là tri thức, được rút ra từ CSDL, thường để phục vụ cho việc giảiquyết một loạt nhiệm vụ nhất định trong một lĩnh vực nhất định

1.2 Quá trình khám phá tri thức vàkhai phá dữ liệu

1.2.1 Quá trình khám phá tri thức

Trang 12

Quá trình khám phá tri thức là một quá trình bao gồm nhiều giai đoạnvới nhiềuhoạt động tương tác giữa con người và CSDL thông qua việc hỗ trợ của các phương pháp,thuật toán cũng như các công cụ tin học Tri thức được rút ra từ các CSDL để phục vụ choviệc giải quyết một loạt nhiệm vụ nhất định trong một lĩnh vực nào đó Do đó quá trìnhkhám phá tri thức cũng mang tính chất hướng nhiệm vụ, không phải phát hiện mọi trithức được bất kỳ mà phát hiện tri thức nhằm giải quyết tốt vấn đề đặt ra.

Hình 1.1: Các giai đoạn trong quá trình khám phá tri thức

Quá trình khám phá tri thức gồm sáu giai đoạn[1] như hình 1.1 Bắt đầu của quátrình là kho dữ liệu thô và kết thúc với tri thức đượcchiết xuất ra Đây là một quátrình rấtkhó khăn gặp phải rất nhiều vướng mắc: quản lý các tập dữ liệu,phải lặp đi lặp lại toàn bộquá trình,

1 Gom dữ liệu: Tập hợp dữ liệu là bước đầu tiên trong quá trìnhkhai phá dữ liệu.Đây là bước được khai thác trong một cơ sở dữliệu, một kho dữ liệu nguồn thông tinInternet

2 Trích lọc dữ liệu : Ở giai đoa n này dữ liệu được lựa chọn hoặcphân chiatheomột số tiêu chuẩn nào đó phục vụ mục đích khaithác

3 Làm sạch, tiền xử lý và chuẩn bị trước dữ liệu: Dữ liệu cần được làm sạch đểkhắc phục đối với trường dữ liệu rỗng, dư thừa hoặc dữ liệu không hợp lệ Giai

Trang 13

đoạn này là một bước rấtquan trọng trong quá trình khai phá dữ liệu Một số lỗithườngmắc phải trong khi gom dữ liệu là tính không đủ chặt chẽ.Vì vậy, dữ liệuthường chứa các giá trị vô nghĩa và không có khảnăng kết nối dữ liệu Giai đoạnnày

sẽ tiến hành xử lý những dạng dữ liệu không chặt chẽ nóitrên Những dữ liệu dạng đượcxem như thông tin dư thừa,không có giá trị sẽ được loại bỏ Dữ liệu này nếu không được

“làm sạch - tiền xử lý - chuẩn bịtrước” thì sẽ gây nên những kết quả sai lệch nghiêmtrọng Các công việc tiền xử lý dữ liệu bao gồm:

- Xử lý dữ liệu bị mất, thiếu: Các dữ liệu thiếu sẽ được thay thế bằng các giá trịthích hợp

- Khử bỏ trùng lặp: các đối tượng dữ liệu trùng lặp sẽ bị loại bỏ

- Giảm nhiễu: dữ liệu nhiễu và các đối tượng tách rời khỏi phân bố chung sẽ bị loại

bỏ khỏi tập dữ liệu

- Chuẩn hóa: thông thường là chuẩn hóa miền giá trị của dữ liệu cho phù hợp

- Rời rạc hóa: chính là việc biến đổi dữ liệu dạng số về dữ liệu với các giá trị rời rạc

- Trích rút và xây dựng các đặc trưng mới từ các thuộc tính đã có

- Giảm chiều không gian thuộc tính: là loại bỏ bớt các thuộc tính có chứa ít thôngtin

4 Chuyển đổi dữ liệu: Tiếp theo là giai đoạn chuyển đổi dữ liệu, dữliệu đưa ra cóthể sử dụng và điều khiển được bởi việc tổ chức lạinó, tức là dữ liệu sẽ được chuyển đổi

về dạng phù hợp với mục đíchkhai phá dữ liệu

5 Khai phá dữ liệu (KPDL): Đây là bước quan trọng nhất trong tiến trình phát hiệntri thức, là bước mang tính tư duy trong khai phádữ liệu Ở giai đoạn này nhiều thuật toánkhác nhau đã được sử dụng để trích ra các mẫu từ dữ liệu Thuật toán thường dùng làmnguyên tắc phân loại, nguyên tắc liên kết, Kết quả quả giai đoạn này là trích chọn đượccác mẫu hoặc các mô hình ẩn dưới một khối lượng lớn dữ liệu

6 Đánh giá các luật và biểu diễn tri thức: Ở giai đoạn này, các mẫu dữ liệu đượcchiết xuất ra bởi phần mềm KPDL Không phải bất cứ mẫu dữ liệu nào cũng đều hữu ích,đôi khi nó còn bị sai lệch Vì vậy, cần phải ưu tiên những tiêu chuẩn

Trang 14

đánh giá để chiết xuất ra các tri thức (Knowlege) cần chiết xuất ra Đánh giá sự hữu íchcủa các mẫu biểu diễn tri thức dựa trên một số phép đo Sau đó sử dụng các kỹ thuậttrình diễn và trực quan hoá dữ liệu để biểu diễn tri thức khai phá được cho người sửdụng.

Biểu diễn tri thức bao bao gồm việc hiển thị kết quả hoặc dịch kê t quả để hiểu

và trình diễn Trong bước này các tri thức vừa mới khám phá sẽ được củng cố, kết hợp lạithành một hệ thống, đồng thời giải quyết các xung đột tiềm năng trong các tri thức trước

đó Các mô hình rút ra được đưa vào những hệ thống thông tin thực tế dưới dạng cácmô-đun hỗ trợ việc đưa ra quyết định

Các giai đoạn (bước) của quá trình phát triển tri thức có mỗi quan hệ chặt chẽvới nhau trong bối cảnh chung của hệ thống Các kỹ thuật trong bước trước có thể ảnhhưởng đến hiệu quả của các giải thuật trong nhưỡng bước tiếp theo Các bước của quátrình khám phá tri thức có thể lặp đi lặp lại một số lần, kết quả thu được có thể đượclấy trung bình trên tất cả các lần thực hiện

1.2.2 Quá trình khai phá dữ liệu

KPDL là giai đoạn quan trọng nhất trong quá trình khám phátri thức Về cơ bản,KPDL là về xử lý dữ liệu và nhận biết các mẫu và các xu hướng trong thông tin đó đểbạn có thể quyết định hoặc đánh giá Các nguyên tắc KPDL đã được dùng nhiều năm,nhưng với sự ra đời của big data (dữ liệu lớn), nó lại càng phổ biến hơn Big data gây ramột sự bùng nổ về sử dụng nhiều kỹ thuật KPDL hơn, một phần vì kích thước thông tinlớn hơn rất nhiều và vì thông tin có xu hướng đa dạng và mở rộng hơn về chính bảnchất và nội dung của nó Với các tập hợp dữ liệu lớn, để nhận được số liệu thống kêtương đối đơn giản và dễ dàng trong hệ thống vẫn chưa

Trang 15

Những nhu cầu đa dạng đã thay đổi cách lấy ra và thống kê dữ liệu đơn giản sangviệc KPDL phức tạp hơn Vấn đề hướng tới việc xem xét dữ liệu để giúp xây dựng một môhình để mô tả các thông tin mà cuối cùng sẽ dẫn đến việc tạo ra báo cáo kết quả.

Hình 1.2: Quá trình khai phá dữ liệu

- Xác định nhiệm vụ: Xác định chính xác các vấn đề cần giải quyết

- Xác định các dữ liệu liên quan: Dùng để xây dựng giải pháp

- Thu thập và tiền xử lý dữ liệu: Thu thập các dữ liệu liên quan và tiền xử lý chúngsao cho thuật toán KPDL có thể hiểu được Đây là một quá trình rất khó khăn, có thểgặp phải rất nhiều các vướng mắc như: dữ liệu phải được sao ra nhiều bản (nếu được chiếtxuất vào các tệp), quản lý tập các dữ liệu, phải lặp đi lặp lại nhiều lần toàn bộ quá trình(nếu mô hình dữ liệu thay đổi),

- Thuật toán KPDL: Lựa chọn thuật toán khai phá dữ liệu và thực hiện việc khai phá

dữ liệu để tìm được các mẫu có ý nghĩa, các mẫu này được biểu diễn dưới dạng luật kếthợp, cây quyết định tương ứng mục đích đề ra

1.3 Các kỹ thuật trong khai phá dữ liệu

Có nhiều kỹ thuật khác nhau được sử dụng để KPDL nhằm thực hiện hai chứcnăng mô tả và dự đoán Với mỗi chức năng thì có các kỹ thuật KPDL tương ứng với nó.Không có kỹ thuật nào tốt để có thể áp dụng cho mọi trường hợp [1]

Kỹ thuật KPDL mô tả có nhiệm vụ mô tả tính chất hoặc các đặc tính chung của dữliệu trong CSDL hiện có Một số kỹ thuật khai phá trong nhóm này là: phân cụm dữ liệu,tổng hợp, trực quan hóa, phân tích sự phát triển và độ lệch,…

Trang 16

Kỹ thuật KPDL dự đoán có nhiệm vụ đưa ra các dự đoán vào việc suy diễn trênCSDL hiện thời Một số kỹ thuật khai phá trong nhóm này là: phân lớp, hồi quy, câyquyết định, thống kê, mạng nơ-ron, luật kết hợp,…

Trang 17

a Cây quyết định

Kỹ thuật cây quyết định là một công cụ mạnh và hiệu quả trong việc phân lớp

và dự báo Các đối tượng dữ liệu được phân thành các lớp Các giá trị của đối tượng dữliệu chưa biết sẽ được dự báo, dự đoán Tri thức được rút ra dưới kỹ thuật này thường ởdưới dạng tường minh, đơn giản, trực quan đối với người sử dụng

b Phân lớp dữ liệu và hồi quy

Mục tiêu của phân lớp dữ liệu là dự đoán nhãn lớp cho các mẫu dữ liệu Quá trìnhgồm hai bước: xây dựng mô hình, dử dụng mô hình để phân lớp dữ liệu Mô hình được sửdụng để dự đoán nhãn lớp khi mà độ chính xác của mô hình chấp nhận được

Phương pháp hồi quy tương tự như phân lớp dữ liệu Nhưng khác ở chỗ nó dùng

để dự đoán trước các giá trị liên tục, còn phân lớp dữ liệu dùng để dự đoán các giá trị rờirạc

c Phân cụm dữ liệu

Phân cụm dữ liệu là một kỹ thuật trong Data mining nhằm tìm kiếm, phát hiệncác cụm, các mẫu dữ liệu tự nhiên tiềm ẩn và quan trọng trong tập dữ liệu lớn để từ đócung cấp thông tin, tri thức cho việc ra quyết định

Mục tiêu của phân cụm dữ liệu là nhóm các đối tượng tương tự nhau trong tập

dữ liệu vào các cụm, sao cho những đối tượng thuộc cùng một lớp là tương đồngnhau

d Khai phá luật kết hợp

Mục tiêu của phương pháp này là phát hiện và đưa ra mỗi liên hệ giữa các giá trị

dữ liệu trong CSDL Đầu ra của giải thuật luật kết hợp là tập luật kết hợp tìm được Phươngpháp khai phá luật kết hợp gồm có hai bước:

- Bước một: Tìm ra tất cả các tập mục phổ biến Một tập mục phổ biến được xácđịnh thông qua việc tính độ hỗ trợ và thỏa mãn độ hỗ trợ cực tiểu

- Bước hai: Sinh ra các luật kết hợp mạnh từ tập mục phổ biến, luật phải thỏa mãn

độ hỗ trợ và độ tin cậy cực tiểu

Trang 18

e Giải thuật di truyền

Giải thuật di truyền là quá trình mô phỏng theo tiến hóa của tự nhiên Ýtưởng chính của giai đoạn này là dựa vào quy luật di truyền trong biến đổi, chọn lọc tựnhiên và tiến hóa trong sinh học

f Mạng nơ-ron

Đây là một trong những kỹ thuật KPDL được sử dụng phổ biển hiện nay Kỹ thuậtnày phát triển dựa trên nền tảng toán học vững vàng, khả năng huấn luyện trong kỹ thậtnày mô phỏng hệ thần kinh trung ương của con người

Kết quả mà mạng nơ-ron học được có khả năng tạo ra các mô hình dự báo, dự đoánvới độ chính xác và độ tin cậy cao Nó có khả năng phát hiện ra các xu hướng phức tạp màcác kỹ thuật thông thường khác khó có thể phát hiện ra được Tuy nhiên đây là kỹ thuậttương đối phức tạp và quá trình thực hiện nó gặp rất nhiều khó khăn, đòi hỏi tốn nhiềuthời gian, nhiều dữ liệu, nhiều lần kiểm tra thử nghiệm

1.4 Môt sô thach thưc trong khai pha dư liêu

Khám phá tri thức và khai phá dữ liệu liên quan đến nhiều ngành, nhiều lĩnh vực,

do đo cung tôn tai nhiêu thách thức và khó khăn:

- Các cơ sở dữ liệu lớn hơn rất nhiều: cơ sở dữ liệu với hàng trăm trường và bảng,hàng triệu bản ghi và kích thước lên tới nhiều gigabyte là vấn đề hoàn toàn bìnhthường

- Số chiều cao : không chỉ thường có một số lượng rất lớn các bản ghi trong cơ sở

dữ liệu mà còn có một số lượng rất lớn các trường (các thuộc tính, các biến) làm cho sốchiều của bài toán trở nên cao Thêm vào đó, nó tăng thêm cơ hội cho một giải thuật khaiphá dữ liệu tìm ra các mẫu không hợp lệ

- Thay đổi dữ liệu và tri thức: thay đổi nhanh chóng dữ liệu có thể làm cho cácmẫu phát hiện trước đó không hợp lệ Thêm vào đó, các biến đã đo trong một cơ sở dữliệu ứng dụng cho trước có thể bị sửa đổi, xóa bỏ hay tăng thêm các phép đo mới Cácgiải pháp hợp lý bao gồm các phương pháp tăng trưởng để cập nhật các mẫu và xử lýthay đổi

Trang 19

- Dữ liệu thiếu và bị nhiễu: bài toán này đặc biệt nhạy trong các cơ sở dữ liệuthương mại Các thuộc tính quan trọng có thể bị mất nếu cơ sở dữ liệu không được thiết

kế với sự khám phá bằng trí tuệ Các giải pháp có thể gồm nhiều chiến lược thống kêphức tạp để nhận biết các biến ẩn và các biến phụ thuộc

- Mối quan hệ phức tạp giữa các trường: các thuộc tính hay giá các giá trị có câutrúc phân cấp, các quan hệ giữa các thuộc tính và các phương tiện tinh vi hơn cho việc biểudiễn tri thức về nội dung của một cơ sở dữ liệu sẽ đòi hỏi các giải thuật phải có khả năng

sử dụng hiệu quả các thông tin này Về mặt lịch sử, các giải thuật khai phá dữ liệu đượcphát triển cho các bản ghi có giá trị thuộc tính đơn giản, mặc dù các kỹ thuật mới bắtnguồn từ mối quan hệ giữa các biến đang được phát triển

- Tính dễ hiểu của các mẫu: trong nhiều ứng dụng, điều quan trọng là những gìkhai thác được phải càng dễ hiểu đối với con người thì càng tốt Các giải pháp có thể thựchiện được bao gồm cả việc biểu diễn được minh họa bằng đồ thị, cấu trúc luật với các đồthị có hướng, biểu diễn bằng ngôn ngữ tự nhiên và các kỹ thuật hình dung ra dữ liệu và trithức

- Người dùng tương tác và tri thức sẵn có: nhiều phương pháp khám phá tri thức vàcác công cụ không tương tác thực sự với người dùng và không thể dễ dàng kết hợp chặtchẽ với tri thức có sẵn về một bài toán loại trừ theo các cách đơn giản Việc sử dụng củamiền tri thức là quan trọng trong toàn bộ các bước của xử lý khám phá tri thức

Kêt luân

Khai phá dữ liệu là lĩnh vực đã và đang trở thành một trong những hướng nghiên cứu thu hút được sự quan tâm của nhiều chuyên gia về công nghệ thông tin Gần đây, rấtnhiều phương pháp và thuật toán mới liên tục được công bố Điều này chứng tỏ những lợiích và khả năng ứng dụng thực tế của khai phá dữ liệu Chương này đã trình bày một số kiến thức tổng quan về khám phá tri thức, những khái niệm và kiến thức cơ bản nhất về khai phá dữ liệu

Trang 20

CHƯƠNG II PHÂN CUM DƯ LIÊU VA CAC THUÂT TOAN PHÂN CUM

Phân cụm là một trong những chủ đề được quan tâm nhiều trong các nghiên cứuKPDL Phân cụm là quá trình nhóm một tập các đối tượng thành các nhóm hay các lớp đốitượng “tương tự” nhau Một cụm là tập các đối tượng “giống nhau” hay tương tự nhau.Các đối tượng khác cụm là ít hoặc không tương tự nhau Không giống như quá trìnhphân loại, ta thường biết trước tính chất hay đặc điểm của đối tượng trong cùng một cụm

và dựa vào đó để ấn định một đối tượng vào cụm của nó, trong quá trình phân cụm takhông hề biết trước các tính chất của cụm mà dựa vào các mỗi quan hệ của các đối tượng

để tìm ra sự giống nhau giữa các đối tượng dựa vào một độ đo nào đó đặc trưng cho mỗicụm

Việc phân cụm dữ liệu không thực hiện độc lập mà thường kết hợp với các phươngpháp khác Một cách phân cụm đưa ra cũng phải có một phương pháp áp dụng trên cáclớp đó để đưa ra được ý nghĩa của cụm

Trong lĩnh vực KPDL, các vấn đề nghiên cứu trong phân cụm chủ yếu tập trung vàotìm kiếm các phương pháp phân cụm hiệu quả và tin cậy trong CSDL lớn

Một vấn đề thường gặp trong phân cụm dữ liệu (PCDL) là hầu hết các dữ liệucần cho PCDL đều có chứa dữ liệu “nhiễu” do nhiều nguyên nhân khác nhau, vì vậy cầnxây dựng chiến lược cho bước tiền xử lý nhằm loại bỏ những dữ liệu “nhiễu” trước khibước vào giai đoạn phân tích PCDL

Ngoài ra, dò tìm phần tử ngoại lai là một trong những hướng nghiên cứu quantrọng trong PCDL, chức năng của nó là xác định một nhóm nhỏ các đối tượng dữ liệu

“khác thường” so với các dữ liệu khác trong CSDL nhằm tránh sự ảnh hướng củachúng tới quá trình cũng như kết quả PCDL

PCDL là một bài toán không hề đơn giản và phải giải quyết nhiều vấn đề cơ bảnnhư sau:

- Biểu diễn dữ liệu

Trang 21

- Xây dựng hàm tính độ tương tự.

- Xây dựng các tiêu chuẩn phân cụm

- Xây dựng mô hình cho cấu trúc cụm dữ liệu

- Xây dựng thuật toán phân cụm và xác lập các điều kiện khởi tạo

- Xây dựng các thủ tục biểu diễn và đánh giá kết quả phân cụm

2.1 Khái niệm phân cụm dữ liệu

2.1.1 Một số định nghĩa

Phân cụm là kỹ thuật rất quan trọng trong khai phá dữ liệu, nó thuộc lớp cácphương pháp “Unsupervised Learning” trong “Machine Learning” Có rất nhiều địnhnghĩa khác nhau về kỹ thuật này, nhưng về bản chất phân cụm là các qui trình tìm cáchnhóm các đối tượng đã cho vào các cụm (clusters), sao cho các đối tượng trong cùng mộtcụm tương tự (similar) nhau và các đối tượng khác cụm thì không tương tự (Dissimilar)nhau

Mục đích của phân cụm là tìm ra bản chất bên trong các nhóm của dữ liệu Cácthuật toán phân cụm (Clustering Algorithms) đều sinh ra các cụm (clusters) Tuy nhiên,không có tiêu chí nào là được xem là tốt nhất để đánh hiệu của của phân tích phân cụm,điều này phụ thuộc vào mục đích của phân cụm như: data reduction, “natural clusters”,

“useful” clusters, outlier detection

2.1.2 Dữ liệu và độ đo

Trong phân cụm, các đối tượng phân tích này phải được biểu diễn chặt chẽ thôngqua các đặc điểm của đối tượng đó Những đặc điểm này có ý nghĩa quyết định đếnkết quả của thuật toán phân cụm Các loại dữ liệu được tìm hiểu theo hai hướng tiếp cận:tiếp cân dựa trên kích thước miền và tiếp cận theo tỷ lệ đo

a Phân loại dựa trên kích thước miền

Cách phân loại này phân biệt các đối tượng dữ liệu dựa trên kích thước miền củađối tượng đó, tức là số giá trị khác nhau của vùng đó Giả sử có CSDL D và n đối tượng.Nếu x, y, z là ba đối tượng của D thì chúng sẽ có dạng:

x = (x1, x2,…,xk), y = (y1, y2,…,yk) , z = (z1, z2,…,zk)

Trang 22

Với k là số chiều và xi, yi, zi với 1 ≤ i ≤ k là các thuộc tính tương ứng của các đốitượng Vì vậy, thuật ngữ “loại dữ liệu” là chỉ “loại thuộc tính dữ liệu”.

b Phân loại dựa vào phép đo

Giả sử có hai đối tượng x,y và giá trị thuộc tính i của mỗi đối tượng tương ứng là

xi và yi Ta có các thuộc tính sau:

- Định danh: các giá trị ở lớp này chỉ có phép toán só sánh bằng (xi = yi)hoặc không bằng (xi # yi)

- Có thứ tự: ngoài các phép toán dữ liệu định danh các giá trị thuộc lớp này còn làcác phép so sánh lớn hơn (xi> yi) và nhỏ hơn (xi< yi)

- Có khoảng cách: các giá trị ở lớp này có phép toán tính được độ lệch giữa

hai giá trị xi - yi

2.2 Các yêu cầu đối với phương pháp phân cụm dữ liệu

Đến nay chưa có một phương pháp phân cụm tổng quát nào có thể giải quyết trọnvẹn tất cả các dạng cấu trúc cụm dữ liệu Hơn nữa, các phương pháp phân cụm cần cócách thức biểu diễn cấu trúc các cụm dữ liệu khác nhau, với mỗi cách thức biểu diễn khácnhau sẽ có một phương pháp phân cụm phù hợp

Việc lựa chọn một thuật toán phân cụm là vấn đề then chốt để giải quyết bài toánphân cụm dữ liệu, lựa chọn này phụ thuộc vào đặc tính dữ liệu cần phân cụm, mục đíchcủa các bài toán thực tế là xác định độ ưu tiên giữa chất lượng phân cụm và tốc độ thựchiện của thuật toán

Trang 23

Thông thường các nghiên cứu để xây dựng và phát triển thuật toán phân cụm dữliệu đều nằm đáp ứng yêu cầu sau [1]:

- Có khả năng mở rộng: Một số thuật toán áp dụng cho tập dữ liệu nhỏ (khoảng

200 bản ghi) Nhưng không hiệu quả khi áp dụng cho tập dữ liệu lớn (khoảng 1 triệubản ghi)

-Thích nghi với các kiểu dữ liệu khác nhau : thuật toán có thể áp du ng phân cụmvới nhiều kiểu dữ liệu khác nhau như dữ liệu kiểu số, kiểu nhị phân, … và thích nghivới kiểu dữ liệu hỗn hợp

-Khám phá ra các cụm với hình thù bất kỳ: Hầu hết các CSDL chứa nhiều cụm dữliệu với nhiều hình thù khác nhau: hình lõm, hình cầu, hình que,… Vì vậy, để các cụm dữliệu được khám phá ra có tính tự nhiên thì các thuật toán phân cụm dữ liệu phải có khảnăng khám phá ra các cụm dữ liệu có hình thù khác nhau

- Tối thiểu lượng tri thức cần cho tham số đầu vào: Do các giá trị đầu vào củathuật toán có ảnh hướng rất lớn đến độ phức tạp, tốc độ của thuật toán Do đó cần xácđịnh giá trị đầu vào của thuật toán một cách tối ưu đặc biệt với những CSDL lớn

- Ít nhạy cảm đối với thứ tự của dữ liệu vào: Cùng một tập dữ liệu khi đưa vào xử

lý bằng các thuật toán PCDL, thứ tự vào của các đối tượng dữ liệu ở các lần thực hiện khácnhau không ảnh hưởng đến kết quả của phân cụm dữ liệu

- Khả năng thích nghi với dữ liệu nhiễu cao: Hầu hết các dữ liệu phân cụm trongKPDL đều có chứa các dữ liệu lỗi, dữ liệu không đầy đủ, dữ liệu rác được gọi chung là dữliệu nhiễu Bởi vậy các thuật toán phân cụm không có những hiệu quả với những dữ liệunhiễu mà còn chất dẫn đến chất lượng phân cụm thấp do nhạy cảm với những dữ liệunhiễu

- Thích nghi với dữ liệu đa chiều: Thuật toán áp dụng có hiệu quả đối với các dữliệu đa chiều

- Dễ hiểu, dễ cài đặt và khả thi: Đây là yêu cầu đồng thời là tiêu chí để đánh giáhiệu quả của các thuật toán phân cụm

Trang 24

2.3.Các kỹ thuật phân cụm

2.3.1 Các kỹ thuật phân cụm cơ bản

Các kỹ thuật phân cụm được chia thành hai loại chính: phân hoạch

(partitional) và phân cấp (hierarchical)

Phân hoạch: Kỹ thuật này phân hoạch một tập hợp dữ liệu có n phần tửthành k nhóm cho đến khi xác định số các cụm được thiết lập Số các cụm được thiếtlập là các đặc trưng được lựa chọn trước Phương pháp này là tốt cho việc tìm các cụmhình cầu trong không gian Euclidean Ngoài ra, phương pháp này cũng phụ thuộc vàokhoảng cách cơ bản giữa các điểm để lựa chọn các điểm dữ liệu nào có quan hệ là gầnnhau với mỗi điểm khác và các điểm dữ liệu nào không có quan hệ hoặc có quan hệ là xanhau so với mỗi điểm khác Tuy nhiên, phương pháp này không thể xử lí các cụm cóhình dạng kỳ quặc hoặc các cụm có mật độ các điểm dầy đặc Các thuật toán phânhoạch dữ liệu có độ phức tạp rất lớn khi xác định nghiệm tối ưu toàn cục cho vấn đề phâncụm dữ liệu, do nó phải tìm kiếm tất cả các cách phân hoạch có thể được Chính vì vậy,trên thực tế thường đi tìm giải pháp tối ưu cục bộ cho vấn đề này bằng cách sử dụng mộthàm tiêu chuẩn để đánh giá chất lượng của cụm cũng như để hướng dẫn cho quá trình tìmkiếm phân hoạch dữ liệu Như vậy, ý tưởng chính của thuật toán phân cụm phân hoạchtối ưu cục bộ là sử dụng chiến lược ăn tham (Greedy) để tìm kiếm nghiệm

Điển hình trong phương pháp tiếp cận theo phân cụm phân họach là các thuật toánnhư : K-means, K-medoids, CLARA (Clustering Large Applications), CLARANS (ClusteringLarge Applications based on RAndomized Search) …

Phân cấp: Phương pháp này xây dựng một phân cấp trên cơ sở các đối tượng dữliệu đang xem xét Nghĩa là sắp xếp một tập dữ liệu đã cho thành một cấu trúc có dạnghình cây, cây phân cấp này được xây dựng theo kỹ thuật đệ quy Có hai cách tiếp cận phổbiến của kỹ thuật này đó là: hòa nhập nhóm, thường được gọi là tiếp cận (Bottom-Up);phân chia nhóm, thường được gọi là tiếp cận (Top-Down)

Trang 25

Phương pháp “dưới lên” (Bottom up) : Phương pháp này bắt đầu với mỗi đối tượngđược khởi tạo tương ứng với các cụm riêng biệt, sau đó tiến hành nhóm các đối tượngtheo một độ đo tương tự (như khoảng cách giữa hai trung tâm của hai nhóm), quátrình này được thực hiện cho đến khi tất cả các nhóm được hòa nhập vào một nhóm(mức cao nhất của cây phân cấp) hoặc cho đến khi các điều kiện kết thúc thỏa mãn Nhưvậy, cách tiếp cận này sử dụng chiến lược ăn tham trong quá trình phân cụm.

Phương pháp “trên xuống” (Top Down) : Bắt đầu với trạng thái là tất cả các đốitượng được xếp trong cùng một cụm Mỗi vòng lặp thành công, một cụm được tách thànhcác cụm nhỏ hơn theo giá trị của một phép đo độ tương tự nào đó cho đến khi mỗi đốitượng là một cụm, hoặc cho đến khi điều kiện dừng thỏa mãn Cách tiếp cận này sử dụngchiến lược chia để trị trong quá trình phân cụm

Điển hình trong phương pháp tiếp cận theo phân cụm phân cấp là các thuật toánnhư : AGNES (Agglomerative Nesting), DIANA (Divisive Analysis), BIRCH (1996), CURE(1998), CHAMELEON (1999)

Thực tế áp dụng, có nhiều trường hợp kết hợp cả hai phương pháp phân cụm phânhoạch và phân cụm phân cấp, nghĩa là kết quả thu được của phương pháp phân cấp có thểcải tiến thông qua bước phân cụm phân hoạch Phân cụm phân hoạch và phân cụm phâncấp là hai phương pháp phân cụm dữ liệu cổ điển, hiện đã có rất nhiều thuật toán cảitiến dựa trên hai phương pháp này đã được áp dụng phổ biến trong khai phá dữ liệu

2.3.2 Các kỹ thuật phân cụm khác

Phân cụm dựa trên mật độ (Density-Based Methods): Kỹ thuật này nhóm các đốitượng dữ liệu dựa trên hàm mật độ xác định, mật độ là số các đối tượng lân cận của mộtđối tượng dữ liệu theo một nghĩa nào đó Trong cách tiếp cận này, khi một dữ liệu đã xácđịnh thì nó tiếp tục được phát triển thêm các đối tượng dữ liệu mới miễn là số các đốitượng lân cận này phải lớn hơn một ngưỡng đã được xác định trước Phương phápphân cụm dựa trên mật độ của các đối tượng để xác định các cụm dữ liệu có thể pháthiện ra các cụm dữ liệu với hình thù bất kỳ Kỹ thuật này có

Trang 26

thể khắc phục được các phần tử ngoại lai hoặc giá trị nhiễu rất tốt, tuy nhiên việc xácđịnh các tham số mật độ của thuật toán là rất khó khăn, trong khi các tham số này lại cótác động rất lớn đến kết quả phân cụm.

Hình 2.1: Ví dụ về phân cụm theo mật độ[4]

Điển hình trong phương pháp tiếp cận theo phân cụm dựa trên mật độ là các thuậttoán như : DBSCAN(KDD’96), DENCLUE (KDD’98), CLIQUE(SIGMOD’98)), OPTICS(SIGMOD’99) …

Phân cụm dựa trên lưới (Grid-Based Methods): Kỹ thuật phân cụm dựa trên lướithích hợp với dữ liệu nhiều chiều, dựa trên cấu trúc dữ liệu lưới để phân cụm, phương

Trang 27

của phương pháp này là lượng hóa dữ liệu thành các ô tạo thành cấu trúc dữ liệu lưới.Sau đó, các thao tác phân cụm chỉ cần làm việc với các đối tượng trong từng ô trên lướichứ không phải các đối tượng dữ liệu Cách tiếp cận dựa trên lưới này không dichuyển các đối tượng trong các ô mà xây dựng nhiều mức phân cấp của nhóm các đốitượng trong một ô Phương pháp này gần giống với phương pháp phân cụm phân cấpnhưng chúng không trộn các ô, đồng thời giải quyết khắc phục yêu cầu đối với dữ liệunhiều chiều mà phương pháp phân phân cụm dựa trên mật độ không giải quyết được.

Ưu điểm của phương pháp phân cụm dựa trên lưới là thời gian xử lí nhanh và độc lập với số đối tượng dữ liệu trong tập dữ liệu ban đầu, thay vào đó là chúng phụthuộc vào

số ô trong mỗi chiều của không gian lưới

Hình 2.2: Cấu trúc phân cụm dựa trên lưới[4]

Điển hình trong phương pháp tiếp cận theo phân cụm dựa trên lưới là cácthuật toán như : STING (a STatistical INformation Grid approach) bởi Wang, Yang vàMuntz (1997), WAVECLUSTER bởi Sheikholeslami, Chatterjee và Zhang (1998),CLIQUE (Clustering In QUEst) bởi Agrawal, Gehrke, Gunopulos, Raghavan (1998)

Phân cụm dựa trên mô hình (Model-Based Clustering Methods): Phương này cốgắng khám phá các phép xấp xỉ tốt của các tham số mô hình sao cho khớp với dữ liệu mộtcách tốt nhất Chúng có thể sử dụng chiến lược phân cụm phân hoạch hoặc phân cụmphân cấp, dựa trên cấu trúc hoặc mô hình mà chúng giả định về tập dữ liệu và cáchchúng hiệu chỉnh các mô hình này để nhận dạng ra các phân hoạch

Trang 28

Hình 2.3: Ví dụ về phân cụm dựa trên mô hình[4]

Phương pháp phân cụm dựa trên mô hình cố gắng khớp giữa các dữ liệu với môhình toán học, nó dựa trên giả định rằng dữ liệu được tạo ra bằng hỗn hợp phân phối xácsuất cơ bản Các thuật toán phân cụm dựa trên mô hình có hai cách tiếp cận chính: môhình thống kê và mạng nơron Phương pháp này gần giống với phương pháp phân cụmdựa trên mật độ, vì chúng phát triển các cụm riêng biệt nhằm cải tiến các mô hình đã đượcxác định trước đó, nhưng đôi khi nó không bắt đầu với một số cụm cố định và không sửdụng cùng một khái niệm mật độ cho các cụm

Điển hình trong phương pháp tiếp cận theo phân cụm dựa trên mô hình là cácthuật toán như : EM, COBWEB, CLASSIT, AutoClass (Cheeseman and Stutz, 1996)

Phân cụm có dữ liệu ràng buộc (Binding data Clustering Methods): Sự phát triểncủa phân cụm dữ liệu không gian trên cơ sở dữ liệu lớn đã cung cấp nhiều công cụtiện lợi cho việc phân tích thông tin địa lí, tuy nhiên hầu hết các thuật toán này cung cấprất ít cách thức cho người dùng để xác định các ràng buộc trong thế giới thực cần phảiđược thỏa mãn trong quá trình phân cụm Để phân cụm dữ liệu

Trang 29

không gian hiệu quả hơn, các nghiên cứu bổ sung cần được thực hiện để cung cấp cho người dùng khả năng kết hợp các ràng buộc trong thuật toán phân cụm.

Hiện nay, các phương pháp phân cụm trên đã và đang được phát triển và áp dụngnhiều trong các lĩnh vực khác nhau và đã có một số nhánh nghiên cứu được phát triểntrên cơ sở của các phương pháp đó như:

- Phân cụm thống kê: Dựa trên các khái niệm phân tích hệ thống, nhánh nghiêncứu này sử dụng các độ đo tương tự để phân hoạch các đối tượng, nhưng chúng chỉ ápdụng cho các dữ liệu có thuộc tính số

- Phân cụm khái niệm: Kỹ thuật này được phát triển áp dụng cho dữ liệu hạngmục, chúng phân cụm các đối tượng theo các khái niệm mà chúng xử lí

- Phân cụm mờ: Sử đụng kỹ thuật mờ để phân cụm dữ liệu Các thuật toán thuộcloại này chỉ ra lược đồ phân cụm thích hợp với tất cả các hoạt động đời sống hàng ngày,chúng chỉ xử lí các dữ liệu thực không chắc chắn

- Phân cụm mạng Kohonen: Loại phân cụm này dựa trên khái niệm của các mạngnơron Mạng Kohonen có tầng nơron vào và các tầng nơron ra Mỗi nơron của tầngvào tương ứng với mỗi thuộc tính của bản ghi, mỗi một nơron vào kết nối với tất cả cácnơron của tầng ra Mỗi liên kết được gắn liền với một trọng số nhằm xác định vị trí củanơron ra tương ứng

Trang 30

Hình 2.4: Cách mà các cụm có thể đưa ra

Trang 31

2.3.3 Một số tiêu chuẩn đánh giá hiệu quả phân cụm

Một số tiêu chuẩn thường đề cập đến khi đánh giá hiêu quả phân cụm gồm [1]:

- Tính tuyến tính: Khả năng thuật toán có thể thực hiện tốt với khối lượng lớn

- Giảm thiểu yêu cầu về tham số đầu vào: Nhiều thuật toán yêu cầu một tham số

do người dùng xác định Việc tham số sẽ tạo khó khăn cho người sử dụng vì:

+ Có thể người dùng không đủ kiến thức để tìm ra tham số chính xác

+ Có thể không tồn tại tham số cho toàn bộ CSDL mà đối với mỗi phần của

CSDL chúng ta cần có một tham số

- Khả năng làm việc được với dữ liệu nhiễu: Vấn đề dữ liệu “nhiễu” là khá phổ biến

và thuật toán phân cụm phải có khả năng làm việc với loại dữ liệu này, phải xử lý được

“độ lệch” để cải tiến chất lượng lớp

- Không phụ thuộc vào thứ tự của dữ liệu vào: Với cùng một loại dữ liệu, chạy vớimột thuật toán nhưng với thứ tự khác nhau có thể đưa ra những kết quả khác nhau.Thứ tự dữ liệu vào ảnh hưởng rất lớn đến các loại thuật toán mà chỉ quét qua một lần tập

dữ liệu

- Xử lý được với dữ liệu đa chiều: Số chiều lớn tức là số thuộc tính tập dữ liệu khálớn gây ra nhiều khó khăn, có nhiều thuật toán không thể chạy với cả dữ liệu có số chiều

Trang 32

- Tính có thể hiểu được và khả năng sử dụng: đối với một số thuật toán khi thựchiện và so sánh với kết quả thực tế thì lại không phù hợp Do đó kết quả ứng dụng của kỹthuật là vấn đề rất quan trọng của thuật toán.

2.4 Một số thuật toán trong phân cụm dữ liệu

2.4.1 Các thuật toán phân cụm phân hoạch

Cho trước một cơ sở dữ liệu với n đối tượng hay các bộ dữ liệu, một phương phápphân chia được xây dựng để chia dữ liệu thành k phần, mỗi phần đại diện cho một cụm k

≤ n

Đó là phân loại dữ liệu vào trong k nhóm, chúng thoả các yêu cầu sau :

- Mỗi nhóm phải chứa ít nhất một đối tượng

- Mỗi đối tượng phải thuộc về chính xác một nhóm (yêu cầu thứ 2 được nới lỏngtrong kỹ thuật phân chia cụm mờ)

Có rất nhiều thuật toán phân hoạch như : means (MacQueen 1967), medoids (Kaufman và Rousseew 1987), PAM (Partition Around Medoids), CLARA(Clustering Large Applications), CLARANS (Clustering Large Applications based onRAndomized Search), CLASA (Clustering Large Applications based on SimulatedAnnealing)

k-a Thuật toán k-means

Đây là thuật toán rất quan trọng và được sử dụng phổ biến trong kỹ thuậtphân cụm Tư tưởng chính của thuật toán k-means là tìm cách phân nhóm các đối tượng

đã cho vào k cụm (k là số cụm được xác định trước, k nguyên dương) sao cho tổng bìnhphương khoảng cách từ các nhóm đến tâm cụm là nhỏ nhất

Trang 33

Thuật toán k-means được mô tả như sau:

Băt đâu

Sô cum K

Trang 34

Nhóm các đối

tượng vào các cụm

Hình 2.5: Thuật toán k-means

Thuật toán k-means lấy tham số đầu vào là k và phân chia một tập n đối tượng vàotrong k cụm để cho kết quả độ tương đồng trong cụm là cao trong khi độ tương đồngngoài cụm là thấp Độ tương đồng cụm được đo khi đánh giá giá trị trung bình của cácđối tượng trong cụm, nó có thể được quan sát như là “trọng tâm” của cụm Giải thuật xử lýnhư sau: trước tiên nó lựa chọn ngẫu nhiên k đối tượng, mỗi đối tượng đại diện cho mộttrung bình cụm hay tâm cụm Đối với những đối tượng còn lại, mỗi đối tượng sẽ được

ấn định vào một cụm mà nó giống nhất dựa trên khoảng cách giữa đối tượng và trungbình cụm Sau đó sẽ tính lại trung bình cụm mới cho mỗi cụm Xử lý này sẽ được lặp lạicho tới khi hàm tiêu chuẩn hội tụ Bình phương sai số thường dùng làm hàm tiêu chuẩn hội

tụ, định nghĩa như sau :

Trang 35

Thuật toán k-means thực hiện các bước chính sau :

Đầu vào : Số cụm k và hàm E

Trang 36

Chọn ngẫu nhiên k tâm , ban đầu trong không gian Rd (d là sốchiềucủa dữ liệu) Mỗi cụm được đại diện bằng các tâm của cụm

Bước 2: Tính toán khoảng cách

Đối với mỗi điểm xi(1 ≤ i ≤ n), tính toán khoảng cách của nó tới mỗi trọng tâmmj(1 ≤ j ≤ k) Sau đó tìm trọng tâm gần nhất đối với mỗi điểm và nhóm chúng vào cácnhóm gần nhất

Bước 3: Cập nhật lại trọng tâm

Đối với mỗi 1≤ j ≤ k, cập nhật trọng tâm cụm mj bằng cách xác định trung

bình cộng các vectơ đối tượng dữ liệu

Bước 4: Gán lại các điểm gần trung tâm nhóm mới

Nhóm các đối tượng vào nhóm gần nhất dựa trên trọng tâm của nhóm

Bước 5: Điều kiện dừng:

Lặp lại các bước 2 và 3 cho đến khi các trọng tâm của cụm không thay đổi

End

Trang 37

Tuy nhiên, nhược điểm của k-means là còn rất nhạy cảm với nhiễu và các phần

tử ngoại lai trong dữ liệu Hơn nữa, chất lượng phân cụm dữ liệu của thuật toán means phụ thuộc nhiều vào các tham số đầu vào như: số cụm k và k trọng tâm khởi tạoban đầu Trong trường hợp các trọng tâm khởi tạo ban đầu mà quá lệch so với các trọngtâm cụm tự nhiên thì kết quả phân cụm của k-means là rất thấp, nghĩa là các cụm dữ liệuđược khám phá rất lệch so với các cụm trong thực tế Trên thực tế chưa có một giải pháptối ưu nào để chọn các tham số đầu vào, giải pháp thường được sử dụng nhất là thửnghiệm với các giá trị đầu vào k khác nhau rồi sau đó chọn giải pháp tốt nhất

k-Đánh giá thuật toán K-Means

 Ưu điểm :

- k-means là có độ phức tạp tính toán O(tkn)

- k-means phân tích phân cụm đơn giản nên có thể áp dụng đối với tập dữ

b Thuật toán PAM

Giải thuật k-means rất nhạy với các phần tử ngoại lai, do vậy một đối tượng giá trịcực lớn về cơ bản sẽ làm thay đổi tâm cụm và có thể bóp méo phân bôcủa dữ liệu

Trang 38

nó là điểm đại diện được định vị trung tâm nhất trong cụm Do vậy, phương phápphân chia vẫn được thực hiện dựa trên nguyên tắc tối thiểu hoá tổng các độ khôngtương động giữa mỗi đối tượng với điểm tham khảo tương ứng của nó, điểm này thiếtlập nên cơ sở của phương pháp k-mediods.

Giải thuật PAM, đây là giải thuật phân cụm kiểu k-mediods Nó tìm k cụm trong nđối tượng bằng cách trước tiên tìm một số đối tượng đại diện (medoid) cho mỗi cụm Tậpcác medoid ban đầu được lựa chọn tuỳ ý Sau đó nó lặp lại các thay một trong số cácmedoid bằng một trong số những cái không phải medoid miễn là tổng khoảng cách củakết quả phân cụm được cải thiện

Giải thuật thử xác định k phần phân chia cho n đối tượng sau khi lựa chọn đượck-medoids ban đầu, giải thuật lặp lại việc thử để có một sự lựa chọn các medoid tốthơn bằng cách phân tích tất cả các cặp đối tượng có thể để một đối tượng là medoid

và đối tượng kia thì không phải Phép đo chất lượng phân cụm được tính cho mỗi sựkết hợp như vậy Lựa chọn các điểm tốt nhất trong một lần lặp được chọn với tư cách là

phức tạp như trên không thích hợp cho phân cụm dữ liệu có số lượng n lớn và số cụm cầnchia là nhiều

Thuật toán PAM bao gồm các bước cơ bản sau : Đầu

vào : Số cụm k và một cơ sở dữ liệu chứa n đối tượng

Trang 39

1 Chọn tuỳ ý k đối tượng giữ vai trò là các medoid ban đầu;

2 Repeat

3 Ấn định mỗi đối tượng vào cụm có medoid gần nó nhất;

4 Tính hàm mục tiêu (tổng các độ đo tương đồng của tất cả các đối tượng tớimedoid gần nhất của chúng);

5 Đổi medoid x bằng một đối tượng y nếu như việc thay đổi này làm giảm hàm mục tiêu;

6 Until : không có sự thay đổi nào

Kết thúc

Khi có sự hiện diện của nhiễu và các phần tử ngoại lai, phương pháp medoids mạnh hơn k-means bởi so với giá trị trung bình (mean), medoid ít bị ảnh hưởnghơn bởi các phần tử ngoại lai hay các giá trị ở rất xa khác nữa Tuy nhiên, xử lý nó tốn thờigian hơn so với k-means

m-c Thuật toán CLARA

Thuật toán PAM làm việc hiệu quả đối với các tập dữ liệu nhỏ nhưng không có khảnăng mở rộng tốt đối với các tập dữ liệu lớn, trong trường hợp giá trị k và n là lớn Để giảiquyết các dữ liệu lớn, một phương pháp dựa trên việc lấy mẫu gọi là CLARA (Clustering large applications ) được phát triển bởi Kaufman va Rousseeuw năm 1990

Ý tưởng của CLARA như sau : thay vì lấy toàn bộ dữ liệu vào xem xét, chỉ một phầnnhỏ dữ liệu được chọn với vai trò là một đại diện của dữ liệu, và các medoid đượcchọn từ mẫu này bằng cách sử dụng PAM Nếu như mẫu được chọn lựa khá ngẫu nhiên,

nó đại diện phù hợp cho toàn bộ tập dữ liệu và các đối tượng đại diện (các medoid)được chọn do vậy sẽ giống với những cái được chọn lựa từ toàn bộ tập dữ liệu CLARAđưa ra nhiều mẫu của tập dữ liệu, áp dụng PAM trên từng mẫu và mang lại phân cụm tốtcho đầu ra Đúng như trông chờ, CLARA có thể

Ngày đăng: 05/06/2018, 19:11

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w