Một số lợi ích của máy học: Máy học giúp thiết kế hệ thống huấn luyện tự động mạng nơrôn nhân tạo và giải mã mối liên hệ giữa các tri thức được lưu trữ trong mạng từ dữ liệu... Máy
Trang 1Báo Cáo Viên: PGS.TS Vũ Thanh Nguyên
Trang 2 Công nghệ Máy học là một trong những phương
pháp chính trong khai phá dữ liệu Nó được sử dụng trong tiến trình khám phá tri thức
Một số lợi ích của máy học:
Các thông tin ngày càng nhiều, hàng ngày ta phải xử lý rất nhiều
thông tin đến từ nhiều nguồn khác nhau Máy học có thể giúp xứ lý
và dự báo các thông tin đó bằng cách tạo ra các luất sản xuất từ dữ liệu thu thập
Ở những nơi không có chuyên gia, máy học có thể giúp tạo ra được
Trang 3 Một số lợi ích của máy học:
Máy học giúp thiết kế hệ thống huấn luyện tự động (mạng nơrôn
nhân tạo) và giải mã mối liên hệ giữa các tri thức được lưu trữ trong mạng từ dữ liệu
Trang 4 Rất khó để định nghĩa một cách chính xác về máy
học
“Học - learn” có ý nghĩa khác nhau trong từng lĩnh
vực: tâm lý học, giáo dục, trí tuệ nhân tạo,…
Một định nghĩa rộng nhất: “máy học là một cụm từ
dùng để chỉ khả năng một chương trình máy tính để tăng tính thực thi dựa trên những kinh nghiêm đã trải qua” hoặc “máy học là để chỉ khả năng một
Trang 5 Lợi điểm của các phương pháp máy học là nó phát
sinh ra các luật tường minh, có thể được sửa đổi, hoặc được huấn luyện trong một giới hạn nhất định.
Các phương pháp máy học hoạt động trên các dữ
liệu có đặc tả thông tin.
Các thông tin được trình bày theo một cấu trúc gồm
4 mức được gọi là tri thức kim tự tháp (pyramid knowledge).
Trang 6 Mô hình kim tự tháp: Từ dữ liệu đến tri thức.
Trang 7 Máy học là sự tự động của quy trình học và việc
học thì tương đương với việc xây dựng những luật dựa trên việc quan sát trạng thái trên cơ sở dữ liệu
và những sự chuyển hoá của chúng.
Đây là lĩnh vực rộng lớn không chỉ bao gồm việc
học từ mẫu, mà còn học tăng cường, học với
“thầy”,
Các thuật toán học lấy bộ dữ liệu và những thông
tin quen thuộc của nó khi nhập và trả về một kết quả câu nói hay một câu ví dụ, một khái niệm để diễn tả những kết quả học.
Trang 8 Máy học kiểm tra những ví dụ trước đó và kiểm tra
luôn cả những kết quả của chúng khi xuất và học làm cách nào để tái tạo lại những kết quả này và tạo nên những sự tổng quát hóa cho những trường hợp mới.
Nói chung, máy học sử dụng một tập hữu hạn dữ
liệu được gọi là tập huấn luyện Tập này chứa những mẫu dữ liệu mà nó được viết bằng mã theo một cách nào đó để máy có thể đọc và hiểu được
Trang 9 Tuy nhiên, tập huấn luyện bao giờ cũng hữu hạn do
đó không phải toàn bộ dữ liệu sẽ được học một cách chính xác
Trang 10 Một tiến trình máy học gồm 2 giai đoạn:
Giai đoạn học (learning): hệ thống phân tích dữ liệu và
nhận ra sự mối quan hệ (có thể là phi tuyến hoặc tuyến tính) giữa các đối tượng dữ liệu Kết quả của việc học có thể là: nhóm các đối tượng vào trong các lớp, tạo ra các luật, tiên đoán lớp cho các đối tượng mới.
Giai đoạn thử nghiệm (testing): Mối quan hệ (các luật,
lớp ) được tạo ra phải được kiểm nghiệm lại bằng một
số hàm tính toán thực thi trên một phần của tập dữ liệu huấn luyện hoặc trên một tập dữ liệu lớn
Trang 11 Các thuật toán máy học được chia làm 3 loại: học
giám sát, học không giám sát và học nửa giám sát.
Học có giám sát (Supervised Learning).
Đây là cách học từ những mẫu dữ liệu mà ở đó các kỹ
thuật máy học giúp hệ thống xây dựng cách xác định những lớp dữ liệu Hệ thống phải tìm một sự mô tả cho từng lớp (đặc tính của mẫu dữ liệu).
Người ta có thể sử dụng các luật phân loại hình thành
trong quá trình học và phân lớp để có thể sử dụng dự báo các lớp dữ liệu sau này.
Trang 12 Học có giám sát (Supervised Learning).
Thuật toán học có giám sát gồm tập dữ liệu huấn luyện
M cặp:
S = {(xi, cj) i=1,…,M; j=1,…,C}
Các cặp huấn luyện này được gọi là mẫu, với
xi là vector n-chiều còn gọi là vector đặc trưng,
cj là lớp thứ j đã biết trước.
Thuật toán máy học giám sát tìm kiếm không gian của
Trang 13 Học có giám sát (Supervised Learning).
Đối với công việc phân lớp có thể xem giả thuyết như
một tiêu chí phân lớp.
Thuật toán máy học tìm ra những giả thuyết bằng cách
khám phá ra những đặc trưng chung của những ví dụ mẫu thể hiện cho mỗi lớp.
Kết quả nhận được thường ở dạng luật (Nếu thì).
Khi áp dụng cho những mẫu dữ liệu mới, cần dựa trên
những giả thuyết đã có để dự báo những phân lớp tương ứng của chúng Nếu như không gian giả thuyết lớn, thì cần một tập dữ liệu huấn luyện đủ lớn nhằm tìm kiếm
một hàm xấp xỉ tốt nhất f.
Trang 14 Học có giám sát (Supervised Learning).
Tùy thuộc vào mức độ của thuật toán học giám sát,
người ta có những mô hình học giám sát như sau:
Học vẹt (rote): hệ thống luôn luôn được “dạy” những luật đúng,
rồi có học hội tụ
Học bằng phép loại suy (analogy): hệ thống được dạy phản hồi
đúng cho một công việc tương tự, nhưng không xác định Vì thế hệ thống phải hiệu chỉnh phản hồi trước đó bằng cách tạo ra một luật mới có thể áp dụng cho trường hợp mới
Học dựa trên trường hợp (case-based learning): trong trường
hợp này hệ thống học lưu trữ tất cả các trường hợp, cùng với
Trang 15 Học có giám sát (Supervised Learning).
Học dựa trên sự giải thích (explanation-based learning), hệ
thống sẽ phân tích tập hợp những giải pháp nhằm chỉ ra tại sao mỗi phương pháp là thành công hay không thành công Sau khi những giải thích này được tạo ra, chúng sẽ được dùng để giải quyết những vấn đề mới
Trang 16 Học Không giám sát (Unsupervised Learning).
Đây là việc học từ quan sát và khám phá Hệ
thống khai thác dữ liệu được ứng dụng với những đối tượng nhưng không có lớp được định nghĩa trước, mà để nó phải tự hệ thống quan sát những mẫu và nhận ra mẫu Hệ thống này dẫn đến một tập lớp, mỗi lớp có một tập mẫu được khám phá trong tập dữ liệu.
Trang 17 Học Không giám sát (Unsupervised Learning).
Trong trường hợp chỉ có ít, hay gần như không
có tri thức về dữ liệu đầu vào, khi đó một hệ thống học không giám sát sẽ khám phá ra những phân lớp của dữ liệu, bằng cách tìm ra những thuộc tính, đặc trưng chung của những mẫu hình thành nên tập dữ liệu.
Một thuật toán máy học giám sát luôn có thể
biến đổi thành một thuật toán máy học không giám sát (Langley 1996).
Trang 18 Học Không giám sát (Unsupervised Learning).
Đối với một bài toán mà những mẫu dữ liệu
được mô tả bởi n đặc trưng, người ta có thể chạy thuật toán học giám sát n-lần, mỗi lần với một
đặc trưng khác nhau đóng vai trò thuộc tính lớp,
mà chúng ta đang tiên đoán.
Kết quả sẽ là n tiêu chí phân lớp (n bộ phân lớp),
với hy vọng là ít nhất một trong n bộ phân lớp
Trang 19 Học nửa giám sát.
Học nửa giám sát là các thuật toán học tích hợp
từ học giám sát và học không giám sát Việc học nửa giám sát tận dụng những ưu điểm của việc học giám sát và học không giám sát và loại bỏ những khuyết điểm thường gặp trên hai kiểu học này.
Trang 20 Thuật Tốn Nạve Bayes
Đây là thuật tốn được xem là đơn giản và đước sử dụng
rộng rãi.
Thuật tốn Nạve Bayes dựa trên định lý Bayes được
phát biểu như sau:
Trang 21 Thuật Tốn Nạve Bayes được ứng dụng rất nhiều
trong thực tế Một trong những ứng dụng cụ thể là ứng dụng bài tốn phân lớp
Đây là thuật tốn được xem là đơn giản nhất trong
các phương pháp phân lớp Bộ phân lớp Bayes cĩ thể dự báo các xác suất là thành viên của lớp, chẳng hạn xác suất mẫu cho trước thuộc về một lớp xác định.
Trang 22 Với mỗi lớp dữ liệu trong bộ huấn luyện, ta tính xác
suất phụ thuộc của văn bản cần phân loại:
Với c1 là lớp dữ liệu cần tính xác suất và x là văn bản dữ
liệu cần phân loại
Công thức tính P(x|ci):
P(x|ci) = P(w1|ci)*P(w2|ci)*…*P(wn|ci)
Trang 23 Mô hình Hệ thống mạng Nơrôn Lan truyền
ngược – Backpropogation Neural Network (FNN).
Các mô hình sử dụng mạng neuron là một cách tiếp cận
khá phổ biến cho vấn đề nêu trên Điều đó xuất phát từ khả năng ghi nhớ và học của cấu trúc này.
Bên cạnh đó, tính ổn định của mạng neuron cũng là một
yếu tố quan trọng giúp nó được chọn vì đây là điều kiện quan trọng đặt ra cho bài toán mô hình.
Trang 24 Thuật toán lan truyền ngược (BackPropagation
Trang 25 Mô hình hệ thống mạng Nơrôn dạng hàm radial
- RADIAL BASIS FUNCTION NEURAL NETWORKS (RBFNNs).
Hệ thống Mạng Nơrôn RBFNNs sẽ giải quyết vấn đề xấp xỉ một
hàm liên tục n biến trên một miền compact RBFNNs tiến hành lấy đặc trưng cục bộ của hàm, và như vậy sẽ dễ dàng khởi tạo và huấn luyện dữ liệu khi học
Trang 26 Cấu trúc RBFNNs: Một mạng RBFNNs gồm có 3 lớp
Lớp đầu vào (inputs)
Lớp các hàm Gauss (số nút là do người sử dụng quy định)
Lớp đầu ra (outputs)
Các liên kết từ tầng inputs đến tầng các hàm gauss không có trọng
số
Các liên kết ở tầng các hàm Gauss đến tầng ouputs có trọng số
Mỗi node ở tầng các hàm gauss có các thông số cần xác định là:
trọng tâm (xác định trọng tâm hàm gaus) , thông số sigma (xác định
độ lệch chuẩn của hàm gauss) Xác định các thông số ở tầng này dùng để phân lớp
Các trọng số trên đường liên kết từ tầng các hàm Gauss đến tầng
Trang 27 Hoạt động của mô hình.
Mỗi mẫu dữ liệu nhập sẽ qua k hàm gauss (giả sử ở tầng này có k
nút hàm gauss), hay có thể hiểu là có k lớp, xem mẫu thuộc vào lớp nào qua tính xác xuất phân bố chuẩn (là hàm gauss của các lớp) Các giá trị tính được này được tổ hợp tuyến tính (tính trung bình có trọng số)
Giải thuật học cho RBFNNs
File: Ước lượng mạng: EstNet_Rbfnn.pdf
File: Huấn Luyện mạng: TraiNet_Rbfnn.pdf
Trang 28 Mô Hình Hệ Thống Mạng Nơrôn mờ hồi quy -
RECURRENT FUZZY NEURAL NETWORK (RFNNs).
Một cách tiếp cận của mô hình máy học cho nhiều bài toán ứng
dụng khác nhau là mô hình mạng nơ ron mờ hồi quy (Recurrent
Fuzzy Neural Network)
Mô hình mạng nơ ron này kết hợp từ lý thuyết tập mờ và mô hình
mạng nơrôn tận dụng những ưu điểm như có khả năng xấp xỉ một hàm liên tục với độ chính xác cho trước (mạng nơrôn) và khai thác khả năng xử lý những tri thức như con người (lý thuyết tập mờ)
Mạng nơ ron mờ hồi quy tỏ ra đạt hiệu quả cao cho những ứng
Trang 29 Cấu trúc RFNNs.
Cấu trúc mô hình RFNNs được thể hiện như hình dưới đây
Trang 30 Một RFNNs gồm 4 lớp như sau:
Lớp 1: Là lớp nhập gồm N dữ liệu nhập (input)
Lớp 2: Gọi là lớp các hàm thành viên Các nút trong lớp này thực
hiện việc mờ hoá Lớp này dùng để tính giá trị hàm thành viên theo hàm phân phối Gauss Số nút trong lớp 2 là N x M, trong đó M là số luật mờ (số nút của lớp 3)
Lớp 3: Lớp các luật mờ Các nút trong lớp này tạo thành cơ sở luật
mờ (Fuzzy rule base) gồm M nút Liên kết giữa lớp 2 và lớp 3 biểu diễn giả thiết của luật mờ Liên kết giữa lớp 3 và lớp 4 biểu diễn kết luận của luật mờ
Lớp 4: Lớp xuất gồm P nút
Liên kết giữa lớp 3 và lớp 4 được gán trọng số
Trang 31 Hoạt động của mô hình
File: Activiti_RFNN.pdf
Trang 32 Lập luận mờ
Giả sử cho hệ RFNNs với nhiều đầu vào (Input) và một đầu ra
(Output) Gọi xi là biến ngôn ngữ thứ i và j là giá trị kích hoạt của luật j, wj là trọng số của kết nối thứ j
Một luật suy diễn mờ được biểu diễn như sau
Rj : Nếu u1j là A1j, u2j là A2j, , unj là Anj Thì y=wj
Trang 33 Lập luận mờ
Sơ đồ kết nối dựa trên luật suy diễn mờ như hình sau
Trang 34 Lập luận mờ
Hệ thống mờ với những thành phần nhớ (Feedback unit) có thể
được xem như là một hệ suy luận mờ động và giá trị suy luận được tính bởi
với M là số luật
Từ mô tả trên, ta thấy RFNNs là một hệ suy luận mờ có các phần tử
nhớ Sau khi huấn luyện xong, các thông số trong mạng cùng với các phần tử nhớ đã xác định tri thức
Trang 35 Giải thuật học cho RFNNs
File: learnin_RFNN.pdf
Trang 36 Mô Hình Hệ thống Fuzzy Artmap Neural
Network.
Hệ thống fuzzy ARTMAP neural network là mạng neural học giám
sát có khả năng nhận dạng nhanh và ổn định, có khả năng dự báo chính xác phù hợp cho phân lớp
Cấu trúc của mạng là cấu trúc tiến hóa và là sự kết hợp của hai
mạng fuzzy ART, ARTa và ARTb Hai mạng này được liên kết với nhau bởi mạng neural MAP Field
Trang 37 Sơ đồ khối của hệ thống fuzzy ARTMAP
Trang 38 Quá trình học của mạng ARTMAP là một quá trình hoạt động đồng thời
của 2 mạng ARTa và ARTb
Cho mẫu đầu vào a vào lớp Foa của mạng ARTa và mẫu đầu vào b
vào lớp Fob của mạng ARTb với b là mẫu dự đoán chính xác của a
Lớp mã hóa Fo tạo ra vector A = (a, a c ) trong ARTa và B = (b, b c )
trong ARTb với ac, bc tương ứng là phần bù của a, b
Lớp F1 với vector đầu vào x (xa = A cho ARTa và xb = B cho
ARTb) tạo ra những ma trận trọng số thích nghi Wj liên kết giữa lớp
F1 và lớp F2 (Wja cho ARTa và Wjb cho ARTb)
Vector y (ya = A cho ARTa và yb = B cho ARTb) biểu diễn sự kích
hoạt của lớp F2
Trang 39 Mạng fuzzy ARTMAP có các tham số giống với mạng fuzzy ART là
tham số α > 0 được sử dụng trong quá trình so sánh giữa các neural trong F2, tham số huấn luyện β [0 1] biểu diễn tốc độ học, và tham số ∈ [0 1] biểu diễn tốc độ học, và tham số vigilance ρ [0 1] được sử dụng trong quá trình tìm neural chiến thắng ∈ [0 1] biểu diễn tốc độ học, và tham số trong F2, đồng thời mạng fuzzy ARTMAP có thêm giá trị nhỏ nhất của
tham số vigilance của ARTa ρ ¬aa , tham số vigilance ρ ab và tham số huấn
luyện β ab của lớp MAP
Quá trình tính toán sẽ tìm ra một neural chiến thắng lớn nhất tại F2a
tương ứng với đầu vào A và xem là neural kích hoạt J Trong khi đó F2b
sẽ kích hoạt một neural K từ mẫu vào B Quá trình so sánh sẽ xảy ra tại MAP Field.Nếu neural kích hoạt K của B trùng với neural kích hoạt J của A thì việc dự đoán của ARTa là chính xác, đồng thời cập nhật Wjab Ngược lại, một tín hiệu kích hoạt từ Map Field sẽ tác động lên ρa một lượng làm thay đổi ρa, sau đó quá trình sẽ lặp lại đối với ARTa để tìm neural kích hoạt khớp với ARTb
Trang 40 Giải thuật fuzzy ARTMAP neural network
File: training_FuzzyArtmap.pdf
Trang 41 Mô hình Hệ luật mờ - Standard Additive Model
(SAM).
Việc sử dụng mô hình mạng neuron (và một số mô hình khác…)
cho bài toán xấp xỉ hiện vẫn đang còn nhiều nhược điểm Trước hết
đó là khả năng học của mạng neuron
Hơn nữa, việc xác định cấu trúc mạng neuron phù hợp cho từng bộ
số liệu vẫn là một công việc hết sức khó khăn:
Với hệ thống các neuron trong các lớp và các cung liên kết, mạng
neuron thật sự là một hộp đen đối với người dùng, đặc biệt là các
chuyên gia
Các chuyên gia tham gia vào việc huấn luyện mạng neuron cũng
không thể hiểu và nắm bắt được toàn bộ các hiệu chỉnh xảy ra bên trong (trên các neuron và dây liên kết) của nó.
Trang 42 Chính vì các hạn chế nói trên xây dựng một cấu
trúc khá đặc biệt để xây dựng các hệ thống xấp xỉ,
đó là hệ luật mờ.
các mô hình xấp xỉ các hàm phi tuyến chỉ thực sự
được đưa ra bởi Bart Kosko vào năm 1992.
Trang 43 Việc sử dụng hệ mờ để xây dựng các mô hình xấp
xỉ xuất phát từ những tính năng đặc biệt của nó:
có thể dễ dàng biểu diễn thông qua các tập mờ Nhờ đó giúp
hệ mờ phản ánh đầy đủ tri thức của chuyên gia (thông qua các luật mờ) Cách biểu diễn này tạo sự gần gũi giữa hệ thống với chuyên gia Chuyên gia có thể hiểu và tham gia vào việc xây dựng cũng như điều chỉnh hệ mờ thông qua việc chỉnh sửa các luật mờ có trong hệ.
thông số của nó có thể dễ dàng hiểu và điều chỉnh được bởi chuyên gia.