1. Trang chủ
  2. » Luận Văn - Báo Cáo

Nghiên cứu một số phương pháp phân lớp và ứng dụng trong phân lớp dữ liệu protein sumo hóa

118 101 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 118
Dung lượng 4,33 MB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

1.1.1 Khái niệm khai phá dữ liệu Khai phá dữ liệu data mining là quá trình tính toán để tìm ra các mẫu trong các bộ dữ liệu lớn liên quan đến các phương pháp tại giao điểm của máy học, t

Trang 1

ĐẠI HỌC THÁI NGUYÊN

TRƯỜNG ĐẠI HỌC CÔNG NGHỆ THÔNG TIN VÀ TRUYỀN THÔNG

Trang 2

LỜI CAM ĐOAN

Luận văn này là công trình nghiên cứu của cá nhân tôi, được thực hiện dưới sựhướng dẫn khoa học của TS Nguyễn Văn Núi Các số liệu, những kết luận nghiên cứuđược trình bày trong luận văn này hoàn toàn trung thực

Học Viên Vilaisak SOPHABMIXAY

Trang 3

LỜI CẢM ƠN

Để có thể hoàn thành đề tài luận văn thạc sĩ một cách hoàn chỉnh, bên cạnh sự nỗlực cố gắng của bản thân còn có sự hướng dẫn nhiệt tình của quý Thầy Cô, cũng như sựđộng viên ủng hộ của gia đình và bạn bè trong suốt thời gian học tập nghiên cứu và thựchiện luận văn thạc sĩ

Xin chân thành bày tỏ lòng biết ơn đến Thầy TS Nguyễn Văn Núi người đã hếtlòng giúp đỡ và tạo mọi điều kiện tốt nhất cho em hoàn thành luận văn này Xin chânthành bày tỏ lòng biết ơn đến toàn thể quý thầy cô trong khoa học máy tính nói riêng vàtrường Đại học Công Nghệ Thông Tin và Truyền Thông Thái Nguyên nói chung đã dạybảo, cung cấp những kiến thức quý báu cho em trong suốt quá trình học tập và nghiên cứutại trường

Cuối cùng, tôi xin chân thành cảm ơn đến gia đình, các anh chị và các bạn đồngnghiệp đã hỗ trợ cho tôi rất nhiều trong suốt quá trình học tập, nghiên cứu và thực hiện đềtài luận văn thạc sĩ một cách hoàn chỉnh

Trang 4

MỤC LỤC

LỜI CAM ĐOAN i

LỜI CẢM ƠN iii

MỤC LỤC iv

DANH MỤC CÁC TỪ VIẾT TẮT vii

DANH MỤC CÁC BẢNG, BIỂU ix

DANH MỤC HÌNH VẼ x

MỞ ĐẦU 1

CHƯƠNG 1 TỔNG QUAN KHAI PHÁ DỮ LIỆU VÀ PHÁT HIỆN TRI THỨC

3 1.1 Giới thiệu chung 3

1.1.1 Khái niệm khai phá dữ liệu 3

1.1.2 Các bước của quá trình phát hiện tri thức 4

1.2 Tổng quan các kỹ thuật khai phá dữ liệu cơ bản 5

1.2.1 Khai phá dữ liệu dự đoán 6

1.2.1.1 Phân lớp 6

1.2.1.2 Hồi quy 7

1.2.2 Khai phá dữ liệu mô tả 7

1.2.2.1 Phân cụm 7

1.2.2.2 Luật kết hợp 8

1.3 Phân tích, so sánh với các phương pháp cơ bản khác 8

1.3.1 So sánh với phương pháp hệ chuyên gia (Expert Systems) 9

1.3.2 So sánh với phương pháp thống kê (Statistics) 9

1.3.3 So sánh với phương pháp học máy (Machine Learning) 10

1.3.4 So sánh với phương pháp học sâu (Deep Learning) 10

CHƯƠNG 2 CÁC PHƯƠNG PHÁP VÀ KỸ THUẬT PHÂN LỚP DỮ LIỆU 12

2.1 Tổng quan về phân lớp dữ liệu 13

Trang 6

2.2.2 Cây cắt tỉa 20

2.2.3 Trích luật phân lớp từ các cây quyết định 20

2.2.4 Cải tiến cây quyết định quy nạp cơ bản 21

2.2.5 Khả năng mở rộng và cây quyết định quy nạp 22

2.3 Phân lớp dữ liệu Bayesian 23

2.3.1 Định lý Bayes 24

2.3.2 Phân lớp Bayesian ngây thơ 25

2.3.3 Các mạng belief Bayesian 27

2.3.4 Huấn luyện các mạng belief Bayesian 29

2.4 Phân lớp dữ liệu với Random Forest (rừng ngẫu nhiên) 30

2.5 Phân lớp dữ liệu sử dụng máy hỗ trợ vector 33

2.5.1 SVM cho bài toán phân lớp tuyến tính 33

2.5.2 SVM cho phân lớp phi tuyến 37

2.6 Một số phương pháp phân lớp dữ liệu khác 41

2.6.1 Các classifier k-láng giềng gần nhất 42

2.6.2 Lập luận dựa trên tình huống 42

2.7 Vấn đề đánh giá độ chính xác của phương pháp phân lớp dữ liệu 43

2.7.1 Đánh giá độ chính xác classifier 44

2.7.2 Gia tăng độ chính xác classifier 45

2.7.3 Độ chính xác có đủ để đánh giá một classifier hay không? 46

CHƯƠNG 3 KẾT QUẢ THỬ NGHIỆM 47

3.1 Giới thiệu bài toán phân lớp dữ liệu protein SUMO hóa (SUMOylation) 48

3.1.1 Giới thiệu về protein SUMO hóa (SUMOylation) 48

3.1.2 Thu thập và tiền xử lý dữ liệu 48

3.1.3 Trích chọn đặc trưng và mã hóa dữ liệu 53

3.2 Giới thiệu về phân lớp dữ liệu sử dụng công cụ Weka 55

3.2.1 Thuật toán Hồi quy logistic (Logistic Regression) 56

3.2.2 Thuật toán Naive Bayes 58

Trang 7

Số hóa bởi Trung tâm Học liệu và Công nghệ thông tin – ĐHTN h t t p : / / l r c t nu.edu v n

3.2.4 Thuật toán k-Nearest Neighbors 63

3.2.5 Thuật toán Máy hỗ trợ Vector (Support Vector Machines) 65

3.3 Kết quả phân lớp dữ liệu vị trí protein SUMOylation 68

KẾT LUẬN 70

TÀI LIỆU THAM KHẢO 71

Tiếng Việt: 71

Tiếng Anh: 71

Trang 8

DANH MỤC CÁC TỪ VIẾT TẮT

1 SUMO Small Ubiquitin-like MOdifier Thành phần sửa đổi tương tựa

như một Ubiquitin nhỏ

10 SEN Sensitivity: SEN=TP/(TP+FN) Tỷ lệ dự đoán đúng dữ liệu

Positive

SPE=TN/(TN+FP)

Tỷ lệ dự đoán đúng dữ liệuNegative

Trang 9

14 SUMOylated Protein mà trong đó có ít nhất một vị trí đã SUMO hóa

protein

15 SUMO-sites 1 vị trí amino axit Lysine (K) đã được xác định thực nghiệm là

SUMO hóaLysine

sites Lysine

Số hóa bởi Trung tâm Học liệu và Công nghệ thông tin – ĐHTN h t t p : / / l r c t nu.edu v n

Trang 10

DANH MỤC CÁC BẢNG, BIỂU

Bảng 2 1 Các bộ dữ liệu huấn luyện từ cơ sở dữ liệu khách hang AllElectronics 18Bảng 2 2 Dữ liệu mẫu cho lớp mua máy tính 23Bảng 3 1 Bảng tổng hợp dữ liệu thu thập từ các nguồn khác nhau 48Bảng 3 2 Bảng tổng hợp dữ liệu thu được sau khi loại bỏ dữ liệu dư thừa bởi công cụ

CD-HIT 52Bảng 3 3 Hiệu năng của mô hình dự đoán, đánh giá bởi kiểm tra chéo 5 mặt (5-fold

cross-validation) 68Bảng 3 4 Hiệu năng của mô hình dự đoán, đánh giá bởi dữ liệu kiểm thử độc lập 69

Trang 11

Số hóa bởi Trung tâm Học liệu và Công nghệ thông tin – ĐHTN h t t p : / / l r c t nu.edu v n

DANH MỤC HÌNH VẼ

Hinh 1 1 Quá trình phát hiện tri thức 4Hinh 1 2 Tập dữ liệu với 2 lớp: có và không có khả năng trả nợ 6Hinh 1 3 Phân lớp được học bằng mạng nơron cho tập dữ liệu cho vay 7

Hinh 1 4 Phân cụm tập dữ liệu cho vay vào trong 3 cụm 8Hinh 2 1 Xử lý phân lớp dữ liệu 14Hinh 2 2 Cây quyết định cho khái niệm mua máy tính 15

Hinh 2 3 Thuộc tính tuổi có thông tin thu được cao nhất 19Hinh 2 4 Các cấu trúc dữ liệu danh sách thuộc tính và danh sách lớp được dung trongSLIO cho dữ liệu mẫu trong bảng 2.2 23Hinh 2 5 a) Mạng belief Bayesian đơn giản, b) Bảng xác suất có điều kiện cho 28Hinh 2 6 Mô hình Rừng ngẫu nhiên 31Hinh 2 7 Một đường thẳng tuyến tính phân chia 2 lớp điểm (hình vuông và hình tròn)trong không gian hai chiều Ranh giới quyết định chia không gian thành hai tập tùy thuộcvào dấu của hàm f (x) = <w, x> + b 34Hinh 2 8 Độ rộng biên lớn nhất được tính toán bởi một SVMs tuyến tính Khu vực giữahai đường mảnh xác định miền biên với -1 ≤ <w, x> + b ≤ 1 Những điểm sáng hơn vớichấm đen ở giữa gọi là các điểm support vectors, đó là những điểm gần biên quyết địnhnhất Ở đây, có ba support vectors trên các cạnh của vùng biên (f(x) = -1 hoặc f (x)=1) 34Hinh 2 9 Ảnh hưởng của hằng số biên mềm C trên ranh giới quyết định 36Hinh 2 10 Mức độ tác động của kernel đa thức Kernel đa thức dẫn đến một sự phân táchtuyến tính (A) Kernel đa thức cho phép một ranh giới quyết định linh hoạt hơn (B - C) 38Hinh 2 11 Ảnh hưởng của số chiều Gaussian kernel (σ)) cho một giá trị cố định của cáchằng số biên mềm Đối với giá trị của σ) (A) lớn quyết định ranh giới là gần như tuyếntính Khi giảm σ) tính linh hoạt của ranh giới quyết định tăng (B) Giá trị σ) nhỏ dẫn đến

Trang 12

1 1

41

Trang 13

Số hóa bởi Trung tâm Học liệu và Công nghệ thông tin – ĐHTN h t t p : / / l r c t nu.edu v n

Hinh 2 12 Một xấp xỉ tập thô của tập các mẫu thuộc lớp C Error! Bookmark

not defined.

Hinh 2 13 Các giá trị mờ đối với thu nhập Error! Bookmark not defined.

Hinh 2 14 Đánh giá độ chính xác classifier với phương pháp holdout 44

Hinh 2 15 Tăng độ chính xác classifier 45

Hình 3 1 Sơ đồ tổng thể hoạt động của phương pháp triển khai 49

Hình 3 2 Sơ đồ trích chọn và mã hóa đặc trưng 53

Hình 3 3 Sơ đồ quá trình trích chọn đặc trưng AAC 53

Hình 3 4 Sơ đồ quá trình trích chọn đặc trưng AAPC 55

Hình 3 5 Phần mềm WEKA (Waikato Environment for Knowledge Analysis) 55

Hình 3 6 Cấu hình Weka cho thuật toán hồi quy logistic 57

Hình 3 7 Kết quả phân lớp Weka cho thuật toán hồi quy logistic 58

Hình 3 8 Cấu hình Weka cho thuật toán Naive Bayes 59

Hình 3 9 Kết quả phân lớp Weka cho thuật toán Naive Bayes 60

Hình 3 10 Cấu hình Weka cho thuật toán Cây quyết định (Decision Tree) 61

Hình 3 11 Kết quả phân lớp Weka cho thuật toán Cây quyết định (Decision Tree) 62

Hình 3 12 Mô hình cây quyết định hiển thị bởi C4.5 62

Hình 3 13 Cấu hình Weka cho thuật toán k-Nearest Neighbors 63

Hình 3 14 Cấu hình weka cho thuật toán tìm kiếm trong thuật toán k-Nearest Neighbors 64

Hình 3 15 Kết quả phân lớp Weka cho thuật toán k-Nearest Neighbors 65

Hình 3 16 Cấu hình Weka cho thuật toán Máy hỗ trợ Vector (Support Vector Machines) 66

Hình 3 17 Kết quả phân lớp Weka cho thuật toán Máy hỗ trợ Vector 67

Trang 14

dữ liệu cùng một số kỹ thuật cơ bản để trong khai phá dữ liệu để phát hiện tri thức và một

số ứng dụng trong thực tế nhằm hỗ trợ cho tiến trình ra quyết định

Kỹ thuật phát hiện tri thức và khai phá dữ liệu đã và đang được nghiên cứu, ứngdụng trong nhiều lĩnh vực khác nhau ở các nước trên thế giới, kỹ thuật này tương đối cònmới mẻ tuy nhiên cũng đang được nghiên cứu và dần đưa vào ứng dụng Bước quan trọngnhất của quá trình này là Khai phá dữ liệu (Data Mining - DM), giúp người sử dụng thuđược những tri thức hữu ích từ những CSDL hoặc các nguồn dữ liệu khổng lồ khác Rấtnhiều doanh nghiệp và tổ chức trên thế giới đã ứng dụng kĩ thuật khai phá dữ liệu vàohoạt động sản xuất kinh doanh của mình và đã thu được những lợi ích to lớn Nhưng đểlàm được điều đó, sự phát triển của các mô hình toán học và các giải thuật hiệu quả làchìa khoá quan trọng Vì vậy, trong luận văn này, tác giả sẽ đề cập tới kỹ thuật thườngdùng trong khai phá dữ liệu, đó là Phân lớp (Classification)

Sau phần mở đầu, nội dung chính của luận văn được trình bày chi tiết và bố cục chiathành 3 chương như sau:

Chương 1 Tổng quan về khai phá dữ liệu và phát hiện tri thức

Phần này giới thiệu một cánh tổng quát về quá trình phát hiện tri thức nói chung vàkhai phá dữ liệu nói riêng Đặc biệt nhấn mạnh về một kỹ thuật chính được nghiên cứutrong luận văn đó là Kỹ thuật phân lớp

Trang 15

Số hóa bởi Trung tâm Học liệu và Công nghệ thông tin – ĐHTN h t t p : / / l r c t nu.edu v n

Chương 2 Các phương pháp và kỹ thuật phân lớp dữ liệu

Trong phần này, kỹ thuật phân lớp được giới thiệu một cách chi tiết Có nhiều kiểuphân lớp như phân lớp bằng cây quyết định quy nạp, phân lớp dữ liệu Bayesian, phân lớp

dữ liệu với Random Forest (rừng ngẫu nhiên), Phân lớp dữ liệu sử duing máy hỗ trợvector và một số phương pháp phân lớp dữ liệu khác Ngoài ra còn vấn đề đánh giá độchính xác của phương pháp phân lớp dữ liệu

Chương 3 Kết quả thử nghiệm

Phần này giới thiệu bài toán phân lớp dữ liệu protein SUMO hóa, giới thiệu về phânlớp dữ liệu sử dụng công cụ Weka và một số kết quả phân lớp dữ liệu protein SUMO hóa

Trang 16

CHƯƠNG 1 TỔNG QUAN KHAI PHÁ DỮ LIỆU VÀ PHÁT HIỆN TRI THỨC

1.1 Giới thiệu chung

Trong những năm gần đây, Công nghệ thông tin phát triển mạnh mẽ và có nhữngtiến bộ vượt bậc Cùng với sự phát triển của Công nghệ thông tin là sự bùng nổ thông tin.Các thông tin tổ chức theo phương thức sử dụng giấy trong giao dịch đang dần được sốhóa, do nhiều tính năng vượt trội mà phương thức này mang lại như: có thể lưu trữ lâudài, cập nhật, sửa đổi, tìm kiếm một cách nhanh chóng Đó là lý do khiến cho số lượngthông tin số hóa ngày nay đang tăng dần theo cấp số nhân Hiện nay, không một lĩnh vựcnào lại không cần đến sự hỗ trợ của công nghệ thông tin và sự thành công của các lĩnhvực đó phụ thuộc rất nhiều vào việc nắm bắt thông tin một cách nhạy bén, nhanh chóng

và hữu ích Với nhu cầu như thế nếu chỉ sử dụng thao tác thủ công truyền thống thì độchính xác không cao và mất rất nhiều thời gian Do vậy việc khai phá tri thức từ dữ liệutrong các tập tài liệu lớn chứa đựng thông tin phục vụ nhu cầu nắm bắt thông tin có vaitrò hết sức to lớn Từ đó, các kĩ thuật khai phá dữ liệu đã trở thành một lĩnh vực thời sựcủa nền CNTT thế giới hiện nay

1.1.1 Khái niệm khai phá dữ liệu

Khai phá dữ liệu (data mining) là quá trình tính toán để tìm ra các mẫu trong các

bộ dữ liệu lớn liên quan đến các phương pháp tại giao điểm của máy học, thống kê và các

hệ thống cơ sở dữ liệu Đây là một lĩnh vực liên ngành của khoa học máy tính Mục tiêutổng thể của quá trình khai thác dữ liệu là trích xuất thông tin từ một bộ dữ liệu vàchuyển nó thành một cấu trúc dễ hiểu để sử dụng tiếp Ngoài bước phân tích thô, nó cònliên quan tới cơ sở dữ liệu và các khía cạnh quản lý dữ liệu, xử lý dữ liệu trước, suy xét

mô hình và suy luận thống kê, các thước đo thú vị, các cân nhắc phức tạp, xuất kết quả vềcác cấu trúc được phát hiện, hiện hình hóa và cập nhật trực tuyến Khai thác dữ liệu làbước phân tích của quá trình “khám phá kiến thức trong cơ sở dữ liệu” hoặc KDD

Data Mining là quá trình khai phá, trích xuất, khai thác và sử dụng những dữ liệu

Trang 17

Số hóa bởi Trung tâm Học liệu và Công nghệ thông tin – ĐHTN h t t p : / / l r c t nu.edu v n

(CSDL), kho dữ liệu, trung tâm dữ liệu… lớn hơn là Big Data dựa trên kĩ thuật như mạng

nơ ron, lí thuyết tập thô, tập mờ, biểu diễn tri thức… Đây là một công đoạn trong hoạtđộng “làm sạch” dữ liệu

1.1.2 Các bước của quá trình phát hiện tri thức

Quá trình phát hiện tri thức tiến hành qua 6 giai đoạn như Hình 1.1:

Hinh 1 1 Quá trình phát hiện tri thức

Bắt đầu của quá trình là kho dữ liệu thô và kết thúc với tri thức được chiết xuất ra

Về lý thuyết thì có vẻ rất đơn giản nhưng thực sự đây là một quá trình rất khó khăn gặpphải rất nhiều vướng mắc như: quản lý các tập dữ liệu, phải lặp đi lặp lại toàn bộ quátrình, v.v

(1) Gom dữ liệu: Tập hợp dữ liệu là bước đầu tiên trong quá trình khai phá dữ liệu.

Đây là bước được khai thác trong một cơ sở dữ liệu, một kho dữ liệu và thậm chí các dữliệu từ các nguồn ứng dụng Web

(2) Trích lọc dữ liệu: Ở giai đoạn này dữ liệu được lựa chọn hoặc phân chia theo

một số tiêu chuẩn nào đó phục vụ mục đích khai thác, ví dụ chọn tất cả những người cótuổi đời từ 25 - 35 và có trình độ đại học

(3) Làm sạch, tiền xử lý và chuẩn bị trước dữ liệu: Giai đoạn thứ ba này là giai

đoạn hay bị sao lãng, nhưng thực tế nó là một bước rất quan trọng trong quá trình khaiphá dữ

Trang 18

liệu Một số lỗi thường mắc phải trong khi gom dữ liệu là tính không đủ chặt chẽ, logíc

Vì vậy, dữ liệu thường chứa các giá trị vô nghĩa và không có khả năng kết nối dữ liệu Vídụ: tuổi = 673 Giai đoạn này sẽ tiến hành xử lý những dạng dữ liệu không chặt chẽ nóitrên Những dữ liệu dạng này được xem như thông tin dư thừa, không có giá trị Bởi vậy,đây là một quá trình rất quan trọng vì dữ liệu này nếu không được “làm sạch - tiền xử lý -chuẩn bị trước” thì sẽ gây nên những kết quả sai lệch nghiêm trọng

(4) Chuyển đổi dữ liệu: Tiếp theo là giai đoạn chuyển đổi dữ liệu, dữ liệu đưa ra có

thể sử dụng và điều khiển được bởi việc tổ chức lại nó, tức là dữ liệu sẽ được chuyển đổi

về dạng phù hợp cho việc khai phá bằng cách thực hiện các thao tác nhóm hoặc tập hợp

(5) Khai phá dữ liệu: Đây là bước mang tính tư duy trong khai phá dữ liệu Ở giai

đoạn này nhiều thuật toán khác nhau đã được sử dụng để trích ra các mẫu từ dữ liệu.Thuật toán thường dùng là nguyên tắc phân lớp, nguyên tắc kết, v.v

(6) Đánh giá các luật và biểu diễn tri thức: Ở giai đoạn này, các mẫu dữ liệu được

chiết xuất ra bởi phần mềm khai phá dữ liệu Không phải bất cứ mẫu dữ liệu nào cũng đềuhữu ích, đôi khi nó còn bị sai lệch Vì vậy, cần phải ưu tiên những tiêu chuẩn đánh giá đểchiết xuất ra các tri thức (Knowlege) cần chiết xuất ra Đánh giá sự hữu ích của các mẫubiểu diễn tri thức dựa trên một số phép đo Sau đó sử dụng các kỹ thuật trình diễn và trựcquan hoá dữ liệu để biểu diễn tri thức khai phá được cho người sử dụng Trên đây là 6giai đoạn của quá trình phát hiện tri thức, trong đó giai đoạn 5 - khai phá dữ liệu (hay còngọi đó là Data Mining) là giai đoạn được quan tâm nhiều nhất

1.2 Tổng quan các kỹ thuật khai phá dữ liệu cơ bản

Hình 1.2 biểu diễn một tập dữ liệu giả hai chiều bao gồm 23 cases (trường hợp).Mỗi một điểm trên hình đại diện cho một người vay tiền ngân hàng tại một số thời điểmtrong quá khứ Dữ liệu được phân lớp vào hai lớp: những người không có khả năng trả nợ

và những người tình trạng vay nợ đang ở trạng thái tốt (tức là tại thời điểm đó có khảnăng trả nợ ngân hàng)

Hai mục đích chính của khai phá dữ liệu trong thực tế là dự đoán và mô tả

Trang 19

Số hóa bởi Trung tâm Học liệu và Công nghệ thông tin – ĐHTN h t t p : / / l r c t nu.edu v n

Hinh 1 2 Tập dữ liệu với 2 lớp: có và không có khả năng trả nợ

1.2.1 Khai phá dữ liệu dự đoán

Nhiệm vụ của khai phá dữ liệu dự đoán là đưa ra các dự đoán dựa vào các suy diễntrên dữ liệu hiện thời Nó sử dụng các biến hay các trường trong cơ sở dữ liệu để dự đoáncác giá trị không biết hay các giá trị tương lai Bao gồm các kĩ thuật: phân lớp(classification), hồi quy (regression)

1.2.1.1 Phân lớp

Mục tiêu của phương pháp phân lớp dữ liệu là dự đoán nhãn lớp cho các mẫu dữliệu Quá trình phân lớp dữ liệu thường gồm 2 bước: xây dựng mô hình và sử dụng môhình để phân lớp dữ liệu

Bước 1: Xây dựng mô hình dựa trên việc phân tích các mẫu dữ liệu cho trước Mỗimẫu thuộc về một lớp, được xác định bởi một thuộc tính gọi là thuộc tính lớp Các mẫu

dữ liệu này còn được gọi là tập dữ liệu huấn luyện Các nhãn lớp của tập dữ liệu huấnluyện đều phải được xác định trước khi xây dựng mô hình, vì vậy phương pháp này cònđược gọi là học có giám sát

Bước 2: Sử dụng mô hình để phân lớp dữ liệu Trước hết chúng ta phải tính độchính xác của mô hình Nếu độ chính xác là chấp nhận được, mô hình sẽ được sử dụng để

dự đoán nhãn lớp cho các mẫu dữ liệu khác trong tương lai Hay nói cách khác, phân lớp

là học một hàm ánh xạ một mục dữ liệu vào một trong số các lớp cho trước Hình 1.3 chothấy sự phân lớp của các dữ liệu vay nợ vào trong hai miền lớp Ngân hàng có thể sửdụng

Trang 20

1.2.2 Khai phá dữ liệu mô tả

Kỹ thuật này có nhiệm vụ mô tả về các tính chất hoặc các đặc tính chung của dữliệu trong CSDL hiện có Bao gồm các kỹ thuật: phân cụm (clustering), phân tích luật kếthợp (association rules)

1.2.2.1 Phân cụm

Mục tiêu chính của phương pháp phân cụm dữ liệu là nhóm các đối tượng tương tựnhau trong tập dữ liệu vào các cụm sao cho các đối tượng thuộc cùng một cụm là tươngđồng còn các đối tượng thuộc các cụm khác nhau sẽ không tương đồng Phân cụm dữ liệu

là một ví dụ của phương pháp học không giám sát Không giống như phân lớp dữ liệu,phân cụm dữ liệu không đòi hỏi phải định nghĩa trước các mẫu dữ liệu huấn luyện Vì thế,

Trang 21

Số hóa bởi Trung tâm Học liệu và Công nghệ thông tin – ĐHTN h t t p : / / l r c t nu.edu v n

trong

Trang 22

khi phân lớp dữ liệu là học bằng ví dụ (learning by example) Trong phương pháp nàybạn sẽ không thể biết kết quả các cụm thu được sẽ như thế nào khi bắt đầu quá trình Vìvậy, thông thường cần có một chuyên gia về lĩnh vực đó để đánh giá các cụm thu được.Phân cụm dữ liệu được sử dụng nhiều trong các ứng dụng về phân đoạn thị trường, phânđoạn khách hàng, nhận dạng mẫu, phân lớp trang Web… Ngoài ra phân cụm dữ liệu còn

có thể được sử dụng như một bước tiền xử lí cho các thuật toán khai phá dữ liệu khác

Hình 1.4 cho thấy sự phân cụm tập dữ liệu cho vay vào trong 3 cụm: lưu ý rằngcác cụm chồng lên nhau cho phép các điểm dữ liệu thuộc về nhiều hơn một cụm

Hinh 1 4 Phân cụm tập dữ liệu cho vay vào trong 3 cụm

1.2.2.2 Luật kết hợp

Mục tiêu của phương pháp này là phát hiện và đưa ra các mối liên hệ giữa các giátrị dữ liệu trong CSDL Mẫu đầu ra của giải thuật khai phá dữ liệu là tập luật kết hợp tìmđược Khai phá luật kết hợp được thực hiện qua 2 bước:

• Bước 1: tìm tất cả các tập mục phổ biến, một tập mục phổ biến được xác định qua tínhđộ

1.3 Phân tích, so sánh với các phương pháp cơ bản khác

Khai phá dữ liệu là một lĩnh vực liên quan tới rất nhiều ngành học khác như: hệ

Trang 23

Số hóa bởi Trung tâm Học liệu và Công nghệ thông tin – ĐHTN h t t p : / / l r c t nu.edu v n

Trang 24

1.3.1 So sánh với phương pháp hệ chuyên gia (Expert Systems)

Các hệ chuyên gia nắm bắt các tri thức cần thiết cho một bài toán nào đó Các kỹthuật thu thập giúp cho việc lấy tri thức từ các chuyên gia con người

Mỗi phương pháp hệ chuyên gia là một cách suy diễn các luật từ các ví dụ và giảipháp đối với bài toán chuyên gia đưa ra Phương pháp hệ chuyên gia khác với khai phá

dữ liệu ở chỗ các ví dụ của chuyên gia thường ở mức chất lượng cao hơn nhiều so với các

dữ liệu trong CSDL, và chúng thường chỉ bao hàm được các trường quan trọng Hơn nữacác chuyên gia sẽ xác nhận giá trị và tính hữu ích của các mẫu phát hiện được

1.3.2 So sánh với phương pháp thống kê (Statistics)

Mặc dù các phương pháp thống kê cung cấp một nền tảng lý thuyết vững chắc chocác bài toán phân tích dữ liệu nhưng chỉ có tiếp cận thống kê thuần tuý thôi chưa đủ bởi:

● Các phương pháp thống kê không phù hợp với các kiểu dữ liệu có cấu trúc trongrất nhiều các cơ sở dữ liệu

● Thống kê hoàn toàn tính toán trên dữ liệu, nó không sử dụng tri thức sẵn có vềlĩnh vực quan tâm

● Các kết quả của phân tích thống kê có thể rất nhiều và khó có thể làm rõ được

● Các phương pháp thống kê cần có sự hướng dẫn của người dùng để xác địnhphân tích dữ liệu như thế nào và ở đâu

Phương pháp thống kê là một trong những nền tảng lí thuyết của khai phá dữ liệu

Sự khác nhau cơ bản giữa khai phá dữ liệu và thống kê ở chỗ khai phá dữ liệu là mộtphương tiện được dùng bởi người sử dụng đầu cuối chứ không phải là các nhà thống kê.Khai phá dữ liệu đã khắc phục được các yếu điểm trên của thống kê, tự động quá trình

Trang 25

Số hóa bởi Trung tâm Học liệu và Công nghệ thông tin – ĐHTN h t t p : / / l r c t nu.edu v n

thống kê một cách hiệu quả vì thế giảm bớt công việc của người dùng đầu cuối, tạo ra một công cụ dễ sử dụng hơn

1.3.3 So sánh với phương pháp học máy (Machine Learning)

So với phương pháp học máy, khai phá dữ liệu có lợi thế hơn ở chỗ, khai phá dữliệu có thể sử dụng với các cơ sở dữ liệu thường động, không đầy đủ, bị nhiễu và lớn hơnnhiều so với các tập dữ liệu học máy điển hình Trong khi đó phương pháp học máy chủyếu được áp dụng trong các CSDL đầy đủ, ít biến động và tập dữ liệu không quá lớn

Thật vậy, trong học máy, thuật ngữ cơ sở dữ liệu chủ yếu đề cập tới một tập cácmẫu được lưu trong tệp Các mẫu thường là các vectơ với độ dài cố định, thông tin về đặcđiểm, dãy các giá trị của chúng đôi khi cũng được lưu lại như trong từ điển dữ liệu Mộtgiải thuật học sử dụng tập dữ liệu và các thông tin kèm theo tập dữ liệu đó làm đầu vào

và đầu ra biểu thị kết quả của việc học Học máy có khả năng áp dụng cho cơ sở dữ liệu,lúc này, học máy sẽ không phải là học trên tập các mẫu nữa mà học trên tập các bản ghicủa cơ sở dữ liệu Tuy nhiên, trong thực tế, cơ sở dữ liệu thường động, không đầy đủ và

bị nhiễu, lớn hơn nhiều so với các tập dữ liệu học máy điển hình Các yếu tố này làm chohầu hết các giải thuật học máy trở nên không hiệu quả Khai phá dữ liệu lúc này sẽ xử lýcác vấn đề vốn đã điển hình trong học máy và vượt quá khả năng của học máy, đó là sửdụng được các CSDL chứa nhiều nhiễu, dữ liệu không đầy đủ hoặc biến đổi liên tục

1.3.4 So sánh với phương pháp học sâu (Deep Learning)

Khái niệm chính trong thuật toán nghiêng sâu là tự động hóa việc khai thác cácbiểu diễn (trừu tượng) từ dữ liệu Thuật toán học tập sâu sử dụng một lượng lớn dữ liệukhông giám sát để tự động trích xuất biểu diễn phức tạp Những thuật toán này chủ yếuđược thúc đẩy bởi lĩnh vực trí thông minh nhân tạo, có mục tiêu chung là mô phỏng khảnăng của con người để quan sát, phân tích, học hỏi và đưa ra quyết định, đặc biệt cho cácvấn đề cực kỳ phức tạp Công việc liên quan đến những thách thức phức tạp này là độnglực chính đằng sau các thuật toán Deep Learning cố gắng mô phỏng cách tiếp cận học tậpphân cấp của bộ não con người Các mô hình dựa trên kiến trúc học tập nông như câyquyết định, máy hỗ trợ vector và lý do dựa trên trường hợp có thể bị thiếu khi cố gắng

Trang 26

13trích xuất thông tin hữu ích từ cấu trúc và mối quan hệ phức tạp trong kho dữ liệu đầuvào Ngược lại, kiến trúc

Trang 27

Số hóa bởi Trung tâm Học liệu và Công nghệ thông tin – ĐHTN h t t p : / / l r c t nu.edu v n

Deep Learning có khả năng khái quát hóa theo những cách phi địa phương và toàn cầu,tạo ra các mô hình học tập và các mối quan hệ vượt ra ngoài hàng xóm ngay lập tức trong

dữ liệu Học sâu là một bước quan trọng hướng tới trí thông minh nhân tạo Nó không chỉcung cấp các biểu diễn dữ liệu phức tạp phù hợp với các nhiệm vụ AI mà còn làm cho cácmáy tính độc lập với kiến thức của con người là mục tiêu cuối cùng của AI Nó trích xuấtcác biểu diễn trực tiếp từ dữ liệu không giám sát mà không có sự can thiệp của con người

Một khái niệm chính nằm sâu trong các phương thức Deep Learning là phân phốicác biểu diễn dữ liệu, trong đó một số lượng lớn các cấu hình có thể có của các tính năngtrừu tượng của dữ liệu đầu vào là khả thi, cho phép trình bày nhỏ gọn của từng mẫu vàdẫn đến tổng quát hơn Số lượng cấu hình có thể có liên quan theo cấp số nhân với sốlượng các tính năng trừu tượng được trích xuất Lưu ý rằng dữ liệu quan sát được tạo rathông qua tương tác của một số yếu tố đã biết / chưa biết, và do đó khi một mẫu dữ liệuthu được thông qua một số cấu hình của các yếu tố đã học, các mẫu dữ liệu bổ sung(không nhìn thấy) có thể được mô tả So với việc học dựa trên các khái quát hóa cục bộ,

số lượng các mẫu có thể thu được bằng cách sử dụng một biểu diễn phân bố nhanh chóngvới số lượng các yếu tố đã học

Các thuật toán học tập sâu dẫn đến các biểu diễn trừu tượng bởi vì các biểu diễntrừu tượng hơn thường được xây dựng dựa trên các phép trừu tượng ít hơn Một lợi thếquan trọng của các biểu diễn trừu tượng hơn là chúng có thể bất biến với các thay đổi cục

bộ trong dữ liệu đầu vào Học các tính năng bất biến như vậy là một mục tiêu chính đangdiễn ra trong việc nhận dạng mẫu (ví dụ các tính năng học tập không thể biến đổi theohướng khuôn mặt trong một nhiệm vụ nhận diện khuôn mặt) Ngoài việc biểu diễn bấtbiến như vậy cũng có thể tháo gỡ các yếu tố của biến thể trong dữ liệu Dữ liệu thựcđược sử dụng trong các nhiệm vụ liên quan đến AI chủ yếu phát sinh từ các tương tácphức tạp của nhiều nguồn Ví dụ: hình ảnh bao gồm các nguồn biến thể khác nhau nhưánh sáng, hình dạng đối tượng và vật liệu đối tượng Các biểu diễn trừu tượng được cungcấp bởi các thuật toán học tập sâu có thể tách các nguồn khác nhau của các biến thể trong

dữ liệu

Trang 28

15Thuật toán học sâu là kiến trúc sâu của các lớp liên tiếp Mỗi lớp áp dụng mộtphép biến đổi phi tuyến trên đầu vào của nó và cung cấp một biểu diễn trong đầu ra của

nó Mục

Trang 29

Số hóa bởi Trung tâm Học liệu và Công nghệ thông tin – ĐHTN h t t p : / / l r c t nu.edu v n

đích là để tìm hiểu một biểu diễn phức tạp và trừu tượng của dữ liệu theo cách phân cấpbằng cách truyền dữ liệu qua nhiều lớp chuyển đổi Dữ liệu cảm giác (ví dụ: pixel trongmột hình ảnh) được nạp vào lớp đầu tiên Do đó, đầu ra của mỗi lớp được cung cấp làmđầu vào cho lớp tiếp theo của nó

CHƯƠNG 2 CÁC PHƯƠNG PHÁP VÀ KỸ THUẬT PHÂN LỚP DỮ LIỆU

Trang 30

2.1 Tổng quan về phân lớp dữ liệu

Phân lớp dữ liệu là một xử lý bao gồm hai bước (Hinh 2 1) Ở bước đầu tiên, xâydựng mô hình mô tả một tập cho trước các lớp dữ liệu Mô hình này có được bằng cáchphân tích các bộ cơ sở dữ liệu Mỗi bộ được giả định thuộc về một lớp cho trước, các lớpnày chính là các giá trị của một thuộc tính được chỉ định, gọi là thuộc tính nhãn lớp Các

bộ dữ liệu để xây dựng mô hình gọi là tập dữ liệu huấn luyện Do nhãn lớp của mỗi mẫuhuấn luyện đã biết trước nên bước này cũng được biết đến như là học có giám sát Điềunày trái ngược với học không có giám sát, trong đó các mẫu huấn luyện chưa biết sẽthuộc về nhãn lớp nào và số lượng hay tập các lớp được học chưa biết trước

Mô hình học được biểu diễn dưới dạng các luật phân lớp, cây quyết định hay côngthức toán học Ví dụ, cho trước một cơ sở dữ liệu thông tin về độ tín nhiệm của khách

hàng, các luật phân lớp được học để nhận biết các khách hang có độ tín nhiệm là tốt hay

khá tốt (Hinh 2 1a) Các luật được dùng để phân lớp các mẫu dữ liệu tương lai cũng như

cung cấp cách hiểu tốt hơn về nội dung cơ sở dữ liệu

Trong bước thứ hai (Hinh 2 1 b), mô hình được dùng để phân lớp Trước tiên,đánh giá độ chính xác dự đoán của mô hình (hay classifier) Phần 2.7 của chương này mô

tả một số phương pháp đánh giá độ chính xác classifier Phương pháp holdout là một kỹ

thuật đơn giản sử dụng một tập kiểm định các mẫu đã được gắn nhãn lớp Các mẫu nàyđược chọn lựa ngẫu nhiên và độc lập với các mẫu huấn luyện Độ chính xác của mô hìnhtrên một tập kiểm định cho trước là phần trăm các mẫu của tập kiểm định được mô hìnhphân lớp đúng Đối với mỗi mẫu kiểm định, nhãn lớp đã biết được so sánh với dự đoánlớp của mô hình đã học cho mẫu đó Nếu độ chính xác của mô hình được đánh giá dựatrên tập dữ liệu huấn luyện, sự đánh giá này có thể là tối ưu, do vậy mô hình học có

khuynh hướng quá phù hợp (overfit) dữ liệu Bởi vậy, cần dùng một tập kiểm định.

Nếu độ chính xác của mô hình là chấp nhận được, mô hình có thể được sử dụng đểphân lớp các bộ hay các đối tượng dữ liệu tương lai mà chưa biết nhãn lớp Ví dụ, cácluật phân lớp học trong hình 2.1a: việc phân tích dữ liệu khách hàng từ các khách hàng đã

tồn tại có thể được dùng để dự đoán độ tín nhiệm của các khách hàng mới.

Trang 31

Số hóa bởi Trung tâm Học liệu và Công nghệ thông tin – ĐHTN h t t p : / / l r c t nu.edu v n

Hinh 2 1 Xử lý phân lớp dữ liệu

Ví dụ 2.1: Giả sử rằng ta có một cơ sở dữ liệu các khách hàng trên danh sách thư

(mailing list) AllElectronics Danh sách thư được dùng để gửi đi các tài liệu quảng cáo

mô tả các sản phẩm mới và yết lên các sản phẩm hạ giá Cơ sở dữ liệu mô tả các thuộc

tính của khách hàng như tên, tuổi, thu nhập, nghề nghiệp và độ tín nhiệm Khách hàng được phân lớp vào nhóm người mua hay không mua máy tính tại AllElectronics Giả sử

rằng các khách hàng mới được thêm vào cơ sở dữ liệu và bạn sẽ thông báo cho nhữngkhách hàng này thông tin bán máy tính Thay vì gửi tài liệu quảng cáo tới từng kháchhàng mới, ta chỉ gửi

Trang 32

tài liệu quảng cáo tới những người có khả năng muốn mua máy tính, như vậy chi phí sẽhiệu quả hơn Mô hình phân lớp được xây dựng và sử dụng cho mục đích này

2.2 Phân lớp dữ liệu bằng cây quyết định

Hinh 2 2 Cây quyết định cho khái niệm mua máy tính

Cây quyết định là cấu trúc cây có dạng biểu đồ luồng, mỗi nút trong là kiểm địnhtrên một thuộc tính, mỗi nhánh đại diện cho một kết quả kiểm định, các nút lá đại diệncho các lớp Nút cao nhất trên cây là nút gốc Hình 2.2 thể hiện cây quyết định biểu diễn

khái niệm mua máy tính, nó dự đoán liệu một khách hàng tại AllElectronics có mua máy

tính hay không Hình chữ nhật biểu thị các nút trong, hình elip biểu thị các nút lá

Để phân lớp một mẫu chưa biết, các giá trị thuộc tính của mẫu sẽ được kiểmđịnh trên cây Đường đi từ gốc tới một nút lá cho biết dự đoán lớp đối với mẫu đó Câyquyết định có thể dễ dàng chuyển đổi thành các luật phân lớp Mục 2.2.1 là giải thuậthọc cơ bản của cây quyết định Khi cây quyết định được xây dựng, nhiều nhánh có thểphản ánh nhiễu hay các outlier trong dữ liệu huấn luyện Việc cắt tỉa cây cố gắng nhậnbiết và gỡ bỏ các nhánh này Cây cắt tỉa được mô tả trong mục 2.2.3 Cải tiến giải thuậtcây quyết định cơ bản được đề cập tới trong mục 2.2.4 Các vấn đề về khả năng mở rộngcho cây quyết định quy nạp từ cơ sở dữ liệu lớn được đề cập trong mục 2.2.5

Trang 33

Số hóa bởi Trung tâm Học liệu và Công nghệ thông tin – ĐHTN h t t p : / / l r c t nu.edu v n

2.2.1 Cây quyết định quy nạp

Giải thuật 2.3.1 Generate_decision_tree (Sinh cây quyết định): Xây dựng cây quyết

định từ dữ liệu huấn luyện cho trước

Đầu vào: Các mẫu huấn luyện samples, là các giá trị rời rạc của các thuộc tính;

5) return N là một nút lá với nhãn là lớp phổ biến nhất trong samples;

6) select test-attribute - là thuộc tính có thông tin thu được cao nhất trong attribute-list;

7) Nhãn nút N là test-attribute;

8) for mỗi một giá trị �� của test-attribute

9) Phát triển một nhánh từ nút N với điều kiện test-attribute= �� ;

10) Đặt �� là tập các mẫu trong samples có test-attribute= �� ;

11) if �� là rỗng then

12) gắn một lá với nhãn là lớp phổ biến nhất trong samples;

13) else gắn một nút được trả lại bởi Generate_decision_tree(si, attribute-list -

test- attribute);

Hình 2.3: Giải thuật ID3 cho cây quyết định

Giải thuật nền tảng của cây quyết định quy nạp là ID3, một giải thuật cây quyếtđịnh quy nạp nổi tiếng Mở rộng giải thuật được thảo luận trong mục 2.3.4 tới 2.3.5

Phép đo lựa chọn thuộc tính:

Phép đo thông tin thu được (information gain) được dùng để lựa chọn thuộc tính

kiểm định tại mỗi nút trên cây Phép đo như vậy còn được gọi là phép đo lựa chọn

Trang 34

thuộc tính hay phép đo chất lượng phân chia Thuộc tính với thông tin thu được cao

nhất (hay

Trang 35

Số hóa bởi Trung tâm Học liệu và Công nghệ thông tin – ĐHTN h t t p : / / l r c t nu.edu v n

entropy lớn nhất) được chọn là thuộc tính kiểm định tại nút hiện thời Thuộc tính nàytối thiểu hoá thông tin cần thiết để phân lớp các mẫu Phép đo thông tin này sẽ tiến tớicực tiểu hoá số lượng các kiểm định cần thiết để phân lớp một đối tượng và đảm bảorằng một cây đơn giản (nhưng không nhất thiết phải là đơn giản nhất) được tìm thấy

Cho S là tập gồm s mẫu dữ liệu Giả sử thuộc tính nhãn lớp có m giá trị riêng biệt định nghĩa m lớp riêng biệt (với i = 1, ,m), �là số lượng các mẫu của S trong lớp

�� Thông tin cần thiết để phân lớp một mẫu cho trước được thể hiện trong phươngtrình (2.1):

�(�1,�2, … , ��) = − ∑ �� ���2 (�� )

�=

1với ��, là xác suất một mẫu tuỳ ý thuộc lớp ��, và bằng

��,/s

(2.1)

Cho thuộc tính A có v giá trị riêng biệt, {�1,�2,, … , ��} Thuộc tính A dùng để phân chia S vào trong v tập con {�1,�2, … , ��}, Si là các mẫu trong S có giá trị thuộc tính A là ai Nếu A được chọn là thuộc tính kiểm định (tức là thuộc tính tốt nhất để phân chia), thì các tập con này sẽ tương đương với các nhánh tăng trưởng từ nút chứa tập S.

Cho ��� là số các mẫu của lớp �� trong tập con �� Entropy hay thông tin cần để

phân chia s mẫu vào trong v

tin thu được cao nhất được lựa chọn là thuộc tính kiểm định cho tập S Tạo một nút với

Trang 37

5 mẫu của lớp Không Để tính toán thông tin thu được của từng thuộc tính, trước tiên ta

sử

dụng phương trình (2.1) để tính toán thông tin cần phân lớp một mẫu cho trước:

9 9 5 5I(�1,�2) = �(9,5) = −

14 ���2

14 − 14 ���2

14 = 0.940

Tiếp theo ta cần tính entropy của từng thuộc tính Bắt đầu với thuộc tính tuổi

Ta cần xem sự phân bổ của các mẫu có và không cho mỗi giá trị của tuổi Ta tính thông

Bảng 2 1 Các bộ dữ liệu huấn luyện từ cơ sở dữ liệu khách hang AllElectronics

Trang 38

14 >40 Trung bình Không Tốt Không

Trang 39

nếu các mẫu này được phân chia theo tuổi là:

Tương tự như vậy, ta có thể tính Gain(thu nhập) = 0.029, Gain(sinh viên)= 0.151,

và Gain(độ tín nhiệm) = 0.048 Từ đó thuộc tính tuổi thu được thông tin cao nhất, nó được chọn lựa là thuộc tính kiểm định Một nút được tạo lập và gắn nhãn với tuổi và

phân nhánh tăng trưởng đối với từng giá trị thuộc tính Các mẫu sau đó được phân chiatheo, như hình

2.4 Các mẫu rơi vào nhánh tuổi = 30-40 đều thuộc về lớp Có, do vậy một lá với nhãn Có

được tạo lập tại đoạn cuối của nhánh này Cây quyết định cuối cùng có được bởi thuậtgiải được thể hiện trong hình 2.2

(Viết tắt trong hình 2.4: TN: Thu nhập; SV: Sinh viên; ĐTN: Độ tín nhiệm; TB:Trung bình; KT: Khá tốt; C: Có; K: Không; L:Lớp)

Trang 40

Hinh 2 3 Thuộc tính tuổi có thông tin thu được cao nhất Tuổi trở thành một thuộc tính kiểm định tại nút gốc của cây quyết định Các nhánh

được tăng trưởng theo từng giá trị của tuổi Các mẫu được phân chia theo từng

nhánh

Ngày đăng: 28/12/2019, 11:38

Nguồn tham khảo

Tài liệu tham khảo Loại Chi tiết
[1]. Lê Văn Phùng, Quách Xuân Trưởng, Khai phá dữ liệu, NXB Thông tin và truyền thông,2012.Tiếng Anh Sách, tạp chí
Tiêu đề: Khai phá dữ liệu
Nhà XB: NXB Thông tin vàtruyền thông
[2]. Anil K. Jain, Richard C. Dubes, “Algorithms for clustering data”, 1988 Sách, tạp chí
Tiêu đề: Algorithms for clustering data
[3]. Kaufman and Rousseeuw, “Finding Groups in Data: An Introduction to Cluster Analysis”,1990 Sách, tạp chí
Tiêu đề: Finding Groups in Data: An Introduction to ClusterAnalysis
[4]. J.Ross Quinlan, “Programs for machine learning”, 1993 Sách, tạp chí
Tiêu đề: Programs for machine learning
[5]. Rakesh Agrawal, “Mining Association Rules Between Sets of Items in Large Databases”,1993 Sách, tạp chí
Tiêu đề: Mining Association Rules Between Sets of Items in LargeDatabases
[7]. Van-Nui Nguyen, Kai-Yao Huang, Chien-Hsun Huang, K. Robert Lai* and Tzong- Yi Lee*, 2016, "A new scheme to characterize and identify protein ubiquitination sites," IEEE/ACM Transactions on Computational Biology and Bioinformatics, (ISI, 2014 IF:1.438; 30/122 in STATISTICS &amp; PROBABILITY) Sách, tạp chí
Tiêu đề: A new scheme to characterize and identify proteinubiquitination sites
[8]. Van-Nui Nguyen, Kai-Yao Huang, Chien-Hsun Huang, Tzu-Hao Chang, Neil Arvin Bretaủa, K. Robert Lai, Julia Tzu-Ya Weng* and Tzong-Yi Lee*,"Characterization and Identification of Ubiquitin Conjugation Sites with E3 Ligase Recognition Specificities," BMC Bioinformatics, Vo. 16 (Suppl. 1), S1 Sách, tạp chí
Tiêu đề: Characterization and Identification of Ubiquitin Conjugation Sites with E3Ligase Recognition Specificities

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

🧩 Sản phẩm bạn có thể quan tâm

w