1. Trang chủ
  2. » Kỹ Thuật - Công Nghệ

NGHIÊN CỨU MỘT SỐ THUẬT TOÁN TRONG MÁY HỌC VÀ ỨNG DỤNG

146 2,1K 7
Tài liệu đã được kiểm tra trùng lặp

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Tiêu đề Nghiên Cứu Một Số Thuật Toán Trong Máy Học Và Ứng Dụng
Người hướng dẫn PGS.TS. Vũ Thanh Nguyên
Trường học Trường Đại Học Công Nghệ Thông Tin - Đại Học Quốc Gia Hà Nội
Chuyên ngành Chuyên đề máy học
Thể loại Chuyên đề
Thành phố Hà Nội
Định dạng
Số trang 146
Dung lượng 2,26 MB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

 Một số lợi ích của máy học: Máy học giúp thiết kế hệ thống huấn luyện tự động mạng nơrôn nhân tạo và giải mã mối liên hệ giữa các tri thức được lưu trữ trong mạng từ dữ liệu...  Máy

Trang 1

Báo Cáo Viên: PGS.TS Vũ Thanh Nguyên

Trang 2

Công nghệ Máy học là một trong những phương

pháp chính trong khai phá dữ liệu Nó được sử dụng trong tiến trình khám phá tri thức

 Một số lợi ích của máy học:

 Các thông tin ngày càng nhiều, hàng ngày ta phải xử lý rất nhiều

thông tin đến từ nhiều nguồn khác nhau Máy học có thể giúp xứ lý

và dự báo các thông tin đó bằng cách tạo ra các luất sản xuất từ dữ liệu thu thập

 Ở những nơi không có chuyên gia, máy học có thể giúp tạo ra được

Trang 3

 Một số lợi ích của máy học:

 Máy học giúp thiết kế hệ thống huấn luyện tự động (mạng nơrôn

nhân tạo) và giải mã mối liên hệ giữa các tri thức được lưu trữ trong mạng từ dữ liệu

Trang 4

 Rất khó để định nghĩa một cách chính xác về máy

học

 “Học - learn” có ý nghĩa khác nhau trong từng lĩnh

vực: tâm lý học, giáo dục, trí tuệ nhân tạo,…

 Một định nghĩa rộng nhất: “máy học là một cụm từ

dùng để chỉ khả năng một chương trình máy tính để tăng tính thực thi dựa trên những kinh nghiêm đã trải qua” hoặc “máy học là để chỉ khả năng một

Trang 5

 Lợi điểm của các phương pháp máy học là nó phát

sinh ra các luật tường minh, có thể được sửa đổi, hoặc được huấn luyện trong một giới hạn nhất định.

 Các phương pháp máy học hoạt động trên các dữ

liệu có đặc tả thông tin.

 Các thông tin được trình bày theo một cấu trúc gồm

4 mức được gọi là tri thức kim tự tháp (pyramid knowledge).

Trang 6

Mô hình kim tự tháp: Từ dữ liệu đến tri thức.

Trang 7

 Máy học là sự tự động của quy trình học và việc

học thì tương đương với việc xây dựng những luật dựa trên việc quan sát trạng thái trên cơ sở dữ liệu

và những sự chuyển hoá của chúng.

 Đây là lĩnh vực rộng lớn không chỉ bao gồm việc

học từ mẫu, mà còn học tăng cường, học với

“thầy”,

 Các thuật toán học lấy bộ dữ liệu và những thông

tin quen thuộc của nó khi nhập và trả về một kết quả câu nói hay một câu ví dụ, một khái niệm để diễn tả những kết quả học.

Trang 8

 Máy học kiểm tra những ví dụ trước đó và kiểm tra

luôn cả những kết quả của chúng khi xuất và học làm cách nào để tái tạo lại những kết quả này và tạo nên những sự tổng quát hóa cho những trường hợp mới.

 Nói chung, máy học sử dụng một tập hữu hạn dữ

liệu được gọi là tập huấn luyện Tập này chứa những mẫu dữ liệu mà nó được viết bằng mã theo một cách nào đó để máy có thể đọc và hiểu được

Trang 9

 Tuy nhiên, tập huấn luyện bao giờ cũng hữu hạn do

đó không phải toàn bộ dữ liệu sẽ được học một cách chính xác

Trang 10

 Một tiến trình máy học gồm 2 giai đoạn:

Giai đoạn học (learning): hệ thống phân tích dữ liệu và

nhận ra sự mối quan hệ (có thể là phi tuyến hoặc tuyến tính) giữa các đối tượng dữ liệu Kết quả của việc học có thể là: nhóm các đối tượng vào trong các lớp, tạo ra các luật, tiên đoán lớp cho các đối tượng mới.

Giai đoạn thử nghiệm (testing): Mối quan hệ (các luật,

lớp ) được tạo ra phải được kiểm nghiệm lại bằng một

số hàm tính toán thực thi trên một phần của tập dữ liệu huấn luyện hoặc trên một tập dữ liệu lớn

Trang 11

 Các thuật toán máy học được chia làm 3 loại: học

giám sát, học không giám sát và học nửa giám sát.

Học có giám sát (Supervised Learning).

 Đây là cách học từ những mẫu dữ liệu mà ở đó các kỹ

thuật máy học giúp hệ thống xây dựng cách xác định những lớp dữ liệu Hệ thống phải tìm một sự mô tả cho từng lớp (đặc tính của mẫu dữ liệu).

 Người ta có thể sử dụng các luật phân loại hình thành

trong quá trình học và phân lớp để có thể sử dụng dự báo các lớp dữ liệu sau này.

Trang 12

Học có giám sát (Supervised Learning).

 Thuật toán học có giám sát gồm tập dữ liệu huấn luyện

M cặp:

S = {(xi, cj) i=1,…,M; j=1,…,C}

 Các cặp huấn luyện này được gọi là mẫu, với

xi là vector n-chiều còn gọi là vector đặc trưng,

cj là lớp thứ j đã biết trước.

 Thuật toán máy học giám sát tìm kiếm không gian của

Trang 13

Học có giám sát (Supervised Learning).

 Đối với công việc phân lớp có thể xem giả thuyết như

một tiêu chí phân lớp.

 Thuật toán máy học tìm ra những giả thuyết bằng cách

khám phá ra những đặc trưng chung của những ví dụ mẫu thể hiện cho mỗi lớp.

Kết quả nhận được thường ở dạng luật (Nếu thì).

 Khi áp dụng cho những mẫu dữ liệu mới, cần dựa trên

những giả thuyết đã có để dự báo những phân lớp tương ứng của chúng Nếu như không gian giả thuyết lớn, thì cần một tập dữ liệu huấn luyện đủ lớn nhằm tìm kiếm

một hàm xấp xỉ tốt nhất f.

Trang 14

Học có giám sát (Supervised Learning).

 Tùy thuộc vào mức độ của thuật toán học giám sát,

người ta có những mô hình học giám sát như sau:

Học vẹt (rote): hệ thống luôn luôn được “dạy” những luật đúng,

rồi có học hội tụ

Học bằng phép loại suy (analogy): hệ thống được dạy phản hồi

đúng cho một công việc tương tự, nhưng không xác định Vì thế hệ thống phải hiệu chỉnh phản hồi trước đó bằng cách tạo ra một luật mới có thể áp dụng cho trường hợp mới

Học dựa trên trường hợp (case-based learning): trong trường

hợp này hệ thống học lưu trữ tất cả các trường hợp, cùng với

Trang 15

Học có giám sát (Supervised Learning).

Học dựa trên sự giải thích (explanation-based learning), hệ

thống sẽ phân tích tập hợp những giải pháp nhằm chỉ ra tại sao mỗi phương pháp là thành công hay không thành công Sau khi những giải thích này được tạo ra, chúng sẽ được dùng để giải quyết những vấn đề mới

Trang 16

Học Không giám sát (Unsupervised Learning).

 Đây là việc học từ quan sát và khám phá Hệ

thống khai thác dữ liệu được ứng dụng với những đối tượng nhưng không có lớp được định nghĩa trước, mà để nó phải tự hệ thống quan sát những mẫu và nhận ra mẫu Hệ thống này dẫn đến một tập lớp, mỗi lớp có một tập mẫu được khám phá trong tập dữ liệu.

Trang 17

Học Không giám sát (Unsupervised Learning).

 Trong trường hợp chỉ có ít, hay gần như không

có tri thức về dữ liệu đầu vào, khi đó một hệ thống học không giám sát sẽ khám phá ra những phân lớp của dữ liệu, bằng cách tìm ra những thuộc tính, đặc trưng chung của những mẫu hình thành nên tập dữ liệu.

 Một thuật toán máy học giám sát luôn có thể

biến đổi thành một thuật toán máy học không giám sát (Langley 1996).

Trang 18

Học Không giám sát (Unsupervised Learning).

 Đối với một bài toán mà những mẫu dữ liệu

được mô tả bởi n đặc trưng, người ta có thể chạy thuật toán học giám sát n-lần, mỗi lần với một

đặc trưng khác nhau đóng vai trò thuộc tính lớp,

mà chúng ta đang tiên đoán.

Kết quả sẽ là n tiêu chí phân lớp (n bộ phân lớp),

với hy vọng là ít nhất một trong n bộ phân lớp

Trang 19

Học nửa giám sát.

 Học nửa giám sát là các thuật toán học tích hợp

từ học giám sát và học không giám sát Việc học nửa giám sát tận dụng những ưu điểm của việc học giám sát và học không giám sát và loại bỏ những khuyết điểm thường gặp trên hai kiểu học này.

Trang 20

Thuật Tốn Nạve Bayes

 Đây là thuật tốn được xem là đơn giản và đước sử dụng

rộng rãi.

 Thuật tốn Nạve Bayes dựa trên định lý Bayes được

phát biểu như sau:

Trang 21

Thuật Tốn Nạve Bayes được ứng dụng rất nhiều

trong thực tế Một trong những ứng dụng cụ thể là ứng dụng bài tốn phân lớp

 Đây là thuật tốn được xem là đơn giản nhất trong

các phương pháp phân lớp Bộ phân lớp Bayes cĩ thể dự báo các xác suất là thành viên của lớp, chẳng hạn xác suất mẫu cho trước thuộc về một lớp xác định.

Trang 22

 Với mỗi lớp dữ liệu trong bộ huấn luyện, ta tính xác

suất phụ thuộc của văn bản cần phân loại:

 Với c1 là lớp dữ liệu cần tính xác suất và x là văn bản dữ

liệu cần phân loại

Công thức tính P(x|ci):

P(x|ci) = P(w1|ci)*P(w2|ci)*…*P(wn|ci)

Trang 23

Mô hình Hệ thống mạng Nơrôn Lan truyền

ngược – Backpropogation Neural Network (FNN).

 Các mô hình sử dụng mạng neuron là một cách tiếp cận

khá phổ biến cho vấn đề nêu trên Điều đó xuất phát từ khả năng ghi nhớ và học của cấu trúc này.

 Bên cạnh đó, tính ổn định của mạng neuron cũng là một

yếu tố quan trọng giúp nó được chọn vì đây là điều kiện quan trọng đặt ra cho bài toán mô hình.

Trang 24

Thuật toán lan truyền ngược (BackPropagation

Trang 25

Mô hình hệ thống mạng Nơrôn dạng hàm radial

- RADIAL BASIS FUNCTION NEURAL NETWORKS (RBFNNs).

 Hệ thống Mạng Nơrôn RBFNNs sẽ giải quyết vấn đề xấp xỉ một

hàm liên tục n biến trên một miền compact RBFNNs tiến hành lấy đặc trưng cục bộ của hàm, và như vậy sẽ dễ dàng khởi tạo và huấn luyện dữ liệu khi học

Trang 26

Cấu trúc RBFNNs: Một mạng RBFNNs gồm có 3 lớp

Lớp đầu vào (inputs)

Lớp các hàm Gauss (số nút là do người sử dụng quy định)

Lớp đầu ra (outputs)

 Các liên kết từ tầng inputs đến tầng các hàm gauss không có trọng

số

 Các liên kết ở tầng các hàm Gauss đến tầng ouputs có trọng số

 Mỗi node ở tầng các hàm gauss có các thông số cần xác định là:

trọng tâm (xác định trọng tâm hàm gaus) , thông số sigma (xác định

độ lệch chuẩn của hàm gauss) Xác định các thông số ở tầng này dùng để phân lớp

 Các trọng số trên đường liên kết từ tầng các hàm Gauss đến tầng

Trang 27

Hoạt động của mô hình.

 Mỗi mẫu dữ liệu nhập sẽ qua k hàm gauss (giả sử ở tầng này có k

nút hàm gauss), hay có thể hiểu là có k lớp, xem mẫu thuộc vào lớp nào qua tính xác xuất phân bố chuẩn (là hàm gauss của các lớp) Các giá trị tính được này được tổ hợp tuyến tính (tính trung bình có trọng số)

Giải thuật học cho RBFNNs

File: Ước lượng mạng: EstNet_Rbfnn.pdf

File: Huấn Luyện mạng: TraiNet_Rbfnn.pdf

Trang 28

Mô Hình Hệ Thống Mạng Nơrôn mờ hồi quy -

RECURRENT FUZZY NEURAL NETWORK (RFNNs).

 Một cách tiếp cận của mô hình máy học cho nhiều bài toán ứng

dụng khác nhau là mô hình mạng nơ ron mờ hồi quy (Recurrent

Fuzzy Neural Network)

 Mô hình mạng nơ ron này kết hợp từ lý thuyết tập mờ và mô hình

mạng nơrôn tận dụng những ưu điểm như có khả năng xấp xỉ một hàm liên tục với độ chính xác cho trước (mạng nơrôn) và khai thác khả năng xử lý những tri thức như con người (lý thuyết tập mờ)

 Mạng nơ ron mờ hồi quy tỏ ra đạt hiệu quả cao cho những ứng

Trang 29

Cấu trúc RFNNs.

 Cấu trúc mô hình RFNNs được thể hiện như hình dưới đây

Trang 30

Một RFNNs gồm 4 lớp như sau:

 Lớp 1: Là lớp nhập gồm N dữ liệu nhập (input)

 Lớp 2: Gọi là lớp các hàm thành viên Các nút trong lớp này thực

hiện việc mờ hoá Lớp này dùng để tính giá trị hàm thành viên theo hàm phân phối Gauss Số nút trong lớp 2 là N x M, trong đó M là số luật mờ (số nút của lớp 3)

 Lớp 3: Lớp các luật mờ Các nút trong lớp này tạo thành cơ sở luật

mờ (Fuzzy rule base) gồm M nút Liên kết giữa lớp 2 và lớp 3 biểu diễn giả thiết của luật mờ Liên kết giữa lớp 3 và lớp 4 biểu diễn kết luận của luật mờ

 Lớp 4: Lớp xuất gồm P nút

Liên kết giữa lớp 3 và lớp 4 được gán trọng số

Trang 31

Hoạt động của mô hình

 File: Activiti_RFNN.pdf

Trang 32

Lập luận mờ

 Giả sử cho hệ RFNNs với nhiều đầu vào (Input) và một đầu ra

(Output) Gọi xi là biến ngôn ngữ thứ i và j là giá trị kích hoạt của luật j, wj là trọng số của kết nối thứ j

 Một luật suy diễn mờ được biểu diễn như sau

Rj : Nếu u1j là A1j, u2j là A2j, , unj là Anj Thì y=wj

Trang 33

Lập luận mờ

 Sơ đồ kết nối dựa trên luật suy diễn mờ như hình sau

Trang 34

Lập luận mờ

 Hệ thống mờ với những thành phần nhớ (Feedback unit) có thể

được xem như là một hệ suy luận mờ động và giá trị suy luận được tính bởi

 với M là số luật

 Từ mô tả trên, ta thấy RFNNs là một hệ suy luận mờ có các phần tử

nhớ Sau khi huấn luyện xong, các thông số trong mạng cùng với các phần tử nhớ đã xác định tri thức

Trang 35

Giải thuật học cho RFNNs

 File: learnin_RFNN.pdf

Trang 36

Mô Hình Hệ thống Fuzzy Artmap Neural

Network.

 Hệ thống fuzzy ARTMAP neural network là mạng neural học giám

sát có khả năng nhận dạng nhanh và ổn định, có khả năng dự báo chính xác phù hợp cho phân lớp

 Cấu trúc của mạng là cấu trúc tiến hóa và là sự kết hợp của hai

mạng fuzzy ART, ARTa và ARTb Hai mạng này được liên kết với nhau bởi mạng neural MAP Field

Trang 37

 Sơ đồ khối của hệ thống fuzzy ARTMAP

Trang 38

 Quá trình học của mạng ARTMAP là một quá trình hoạt động đồng thời

của 2 mạng ARTa và ARTb

 Cho mẫu đầu vào a vào lớp Foa của mạng ARTa và mẫu đầu vào b

vào lớp Fob của mạng ARTb với b là mẫu dự đoán chính xác của a

 Lớp mã hóa Fo tạo ra vector A = (a, a c ) trong ARTa và B = (b, b c )

trong ARTb với ac, bc tương ứng là phần bù của a, b

 Lớp F1 với vector đầu vào x (xa = A cho ARTa và xb = B cho

ARTb) tạo ra những ma trận trọng số thích nghi Wj liên kết giữa lớp

F1 và lớp F2 (Wja cho ARTa và Wjb cho ARTb)

 Vector y (ya = A cho ARTa và yb = B cho ARTb) biểu diễn sự kích

hoạt của lớp F2

Trang 39

 Mạng fuzzy ARTMAP có các tham số giống với mạng fuzzy ART là

tham số α > 0 được sử dụng trong quá trình so sánh giữa các neural trong F2, tham số huấn luyện β [0 1] biểu diễn tốc độ học, và tham số ∈ [0 1] biểu diễn tốc độ học, và tham số vigilance ρ [0 1] được sử dụng trong quá trình tìm neural chiến thắng ∈ [0 1] biểu diễn tốc độ học, và tham số trong F2, đồng thời mạng fuzzy ARTMAP có thêm giá trị nhỏ nhất của

tham số vigilance của ARTa ρ ¬aa , tham số vigilance ρ ab và tham số huấn

luyện β ab của lớp MAP

 Quá trình tính toán sẽ tìm ra một neural chiến thắng lớn nhất tại F2a

tương ứng với đầu vào A và xem là neural kích hoạt J Trong khi đó F2b

sẽ kích hoạt một neural K từ mẫu vào B Quá trình so sánh sẽ xảy ra tại MAP Field.Nếu neural kích hoạt K của B trùng với neural kích hoạt J của A thì việc dự đoán của ARTa là chính xác, đồng thời cập nhật Wjab Ngược lại, một tín hiệu kích hoạt từ Map Field sẽ tác động lên ρa một lượng làm thay đổi ρa, sau đó quá trình sẽ lặp lại đối với ARTa để tìm neural kích hoạt khớp với ARTb

Trang 40

Giải thuật fuzzy ARTMAP neural network

File: training_FuzzyArtmap.pdf

Trang 41

Mô hình Hệ luật mờ - Standard Additive Model

(SAM).

 Việc sử dụng mô hình mạng neuron (và một số mô hình khác…)

cho bài toán xấp xỉ hiện vẫn đang còn nhiều nhược điểm Trước hết

đó là khả năng học của mạng neuron

 Hơn nữa, việc xác định cấu trúc mạng neuron phù hợp cho từng bộ

số liệu vẫn là một công việc hết sức khó khăn:

 Với hệ thống các neuron trong các lớp và các cung liên kết, mạng

neuron thật sự là một hộp đen đối với người dùng, đặc biệt là các

chuyên gia

 Các chuyên gia tham gia vào việc huấn luyện mạng neuron cũng

không thể hiểu và nắm bắt được toàn bộ các hiệu chỉnh xảy ra bên trong (trên các neuron và dây liên kết) của nó.

Trang 42

 Chính vì các hạn chế nói trên  xây dựng một cấu

trúc khá đặc biệt để xây dựng các hệ thống xấp xỉ,

đó là hệ luật mờ.

 các mô hình xấp xỉ các hàm phi tuyến chỉ thực sự

được đưa ra bởi Bart Kosko vào năm 1992.

Trang 43

 Việc sử dụng hệ mờ để xây dựng các mô hình xấp

xỉ xuất phát từ những tính năng đặc biệt của nó:

có thể dễ dàng biểu diễn thông qua các tập mờ Nhờ đó giúp

hệ mờ phản ánh đầy đủ tri thức của chuyên gia (thông qua các luật mờ) Cách biểu diễn này tạo sự gần gũi giữa hệ thống với chuyên gia Chuyên gia có thể hiểu và tham gia vào việc xây dựng cũng như điều chỉnh hệ mờ thông qua việc chỉnh sửa các luật mờ có trong hệ.

thông số của nó có thể dễ dàng hiểu và điều chỉnh được bởi chuyên gia.

Ngày đăng: 28/05/2014, 13:31

HÌNH ẢNH LIÊN QUAN

 So  sánh  giữa  2  hình  (1a)  và  (1b),  nhận  xét  rằng  số  lượng  khối  mờ  càng - NGHIÊN CỨU MỘT SỐ THUẬT TOÁN TRONG MÁY HỌC VÀ ỨNG DỤNG
o sánh giữa 2 hình (1a) và (1b), nhận xét rằng số lượng khối mờ càng (Trang 49)

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

🧩 Sản phẩm bạn có thể quan tâm

w