1. Trang chủ
  2. » Kỹ Thuật - Công Nghệ

Ứng dụng mạng nơ-rôn trong xử lý tín hiệu viễn thông: Phần 2

100 31 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 100
Dung lượng 29,97 MB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

Phần 2 cuốn sách Mạng nơ-rôn và ứng dụng trong xử lý tín hiệu cung cấp cho người học các kiến thức: Các mạng hoạt động theo nguyên tắc tự tổ chức, logic mờ và mạng noron logic mờ, một số ứng dụng thực tế của mạng noron,... Mời các bạn cùng tham khảo nội dung chi tiết.

Trang 1

C hưong 5 CÁC MẠNG HOẠT ĐỘNG THEO

NGUYÊN TÁC T ự TÓ CHỨC

Trong các phần trước chúng ta đã làm quen với các mô hình hoạt động theo nguyên tắc “có hướng dẫn”, đó là các mô hình được xây dựng trên cơ sờ các bộ số liệu gồm các cặp đầu vào - đầu ra tương ứng Tuy nhiên thực tế ta cũng còn gặp các vấn đề, trong đó ta chi có một bộ các số liệu mẫu không có đầu ra tương ứng (hay còn gọi là các mẫu số liệu đơn) Một trong những nhiệm vụ chính khi đó là ta cần phân tích các sự tương đồng giữa các số liệu, phân nhỏm hay khoanh vùng các số liệu giống nhau, Các nhiệm vụ đó được gọi là quá trình “tự tổ chức” hay “tự phân

nhóm” (self-organizing) bộ số liệu Trong chương này, ta sẽ đề cập tới một trong

những cấu trúc mạng giải quyết bài toán này, đó là mạng Kohonen (hay còn gọi là

mạng SOM - S e lf - Organizing Map) do Kohonen đề xuất [Kohonen89].

5.1 MẠNG KOHONEN

Ý tường của việc phân nhóm và tự tổ chức xuất phát từ thực tế não bộ của chúng

ta là một hệ thống rất phức tạp cấu trúc của não bộ không thống nhất, bao gồm nhiều vùng khác nhau Các nghiên cứu về y sinh hiện nay đã tạm chi ra rằng mỗi một vùng cùa não bộ có cấu trúc khác nhau, số lượng nơ-rôn và cách két nối giữa chúng khác nhau, đồng thời mỗi vùng lại chịu trách nhiệm khác nhau phục vụ cho con người Ví dụ như có những vùng chịu trách nhiệm về các xử lý hình ảnh, xử lý chuyển động, xử lý

âm thanh, và những vùng này nhận tín hiệu truyền về từ các “cảm biến” khác nhau của con người Ta nói rằng mỗi một dạng tín hiệu đặc trưng của con người sẽ được chuyển vào một vùng đặc trưng tương ứng bên trong não bộ Do đó khi xây dựng mô hình toán hợc của mạng Kohonen, ta có tín hiệu đầu vào thuộc về một không gian (mẫu

số liệu) cho trước Khác với trường hợp mạng MLP, mạng Kohonen hoạt động theo nguyên tắc “tự tổ chức”, có nghĩa là mạng chì hoạt động với véc-tơ đầu vào X , màkhông có các mẫu đầu ra d, tương ứng Trong bài toán tự tổ chức, khi cho trước một

tập hợp các mẫu số liệu và số lượng trọng tâm M , ta cần tìm vị trí của M trọng tâm c ,

105

Trang 2

Các mẫu và các trọng tâm được biểu diễn dưới dạng véc-tơ có cùng sổ chiều Đầu vào

có một bộ số liệu gồm p véc-tơ đa chiều:

và nhóm các số liệu từ hình 5.1 thành ba nhóm ta có kết quả như hình 5.2

Hình 5.2 Các số liệu được chia thành ba nhóm vùng (đặc trưng bời các đường biên và các trọng tàm '*’)

Trang 3

Với bài toán thuộc dạng “tự tổ chức” (self-organizing) thì ta chì có thông tin về

X, chứ không có các thông tin khác Khi ta có các mẫu số liệu được biểu diễn dưới dạng các véc-tơ thì mức độ “giống nhau” giữa các mẫu thường được xác định thông qua khoảng cách giữa các vcc-tơ Hai véc-tơ có khoảng cách nhỏ sẽ được đánh giá là giống nhau hom trường hợp khoảng cách giữa chúng lớn Các trọng tâm của các nhóm được xác định trên nguyên tắc: “các véc-tơ có khoảng cách gần nhau sẽ được ưu tiên ghép vào cùng một nhóm” Thước đo khoảng cách giữa các véc-tơ chủ yếu là sử dụng công thức ơ -clít:

Trong trường hợp ta có M trọng tàm e,,( = 1 -> M và một véc-to X thì trong

quá trình hoạt động cạnh tranh, trọng tâm chiến thắng là trọng tâm có khoảng cách ngắn nhất tới véc-tơ X đang xét.

ĐỔ có dạng biểu diễn tương tự như các mạng nơ-rôn khác, ta thường sử dụng

mô hình như trên hình 5.3, trong đó các giá trị thành phần Cịj (i = ì , ., M ; j = l , ,N ) của M trọng tâm c, được lưu dưới dạng giá trị của các trọng số ghép nổi giữa đầu vào

Xj và trọng tâm c , Mạng trên hình 5.3 có đầu ra của trọng tâm chiến thắng sẽ bằng 1, các trọng tâm còn lại sẽ bàng 0

107

Trang 4

*1 -► C1 y ^ W in n in g ^ x )

• o

Hình 5.3 Cấu trúc mạng Kohonen kinh điền

Đây là cấu trúc mạng truyền thẳng một lớp Tất cà N đầu vào được nối với tất cả

M đầu ra thông qua trọng số Cịj số lượng đầu vào bằng với số chiều của véc-tơ X ,

trong khi số lượng đầu ra bằng với số lượng của nhóm mà dữ liệu được chia thành Tọa

độ Cỳ thứ j của trọng tâm thứ i được coi là hệ sổ đặc trưng của kênh nổi đầu vào thứ j

(là X ) tới trọng tâm Hệ số đặc trưng này trong các nghiên cứu về mạng nơ-rôn

thường được gọi là trọng số ghép nối (connection weight) hay đom giản là trọng số (weight) Véc-tơ đầu vào X = [X|,JC2, ,JCA,] và trọng tâm c = [c|,c2, ,c Af] thường được chuẩn hóa về độ dài 1 (tuy nhiên đây là yêu cầu không bắt buộc)

Để dễ dàng mô tả quá trình hoạt động của mạng, ngoài khái niệm khoảng cách

và khái niệm chiến thắng, ta còn dùng khái niệm “mức độ kích hoạt” (activation level) của trọng tâm thứ j Mức độ kích hoạt được xác định trên cơ sở một hàm nghịch biến

với khoảng cách giữa trọng tâm đang xét và véc-tơ đầu vào đang xét Khoảng cách càng nhỏ thì mức độ kích hoạt càng lớn Như vậy trọng tâm chiến thắng là trọng tâm có mức độ kích hoạt lớn nhất Một số hàm kích hoạt thường được sử dụng là [Zimmermann85, LinhOO]:

(5.8)

(5.9)

Trang 5

Mồi một trọng tâm sẽ xác định một vùng hoạt động của mình, đó là vùng tập hợp các điểm trong không gian mà khoảng cách tới trọng tâm đó là bé nhất so với khoảng cách tới các trọng tâm khác.

Ví dụ trên hình 5.4a với ba trọng tâm, ta thấy không gian được chia thành ba vùng như trên hình 5.4b Các phân chia này (còn được gọi là phân chia Voronoi do tác giả Voronoi đề xuất lần đầu) có các đường biên giới là các đường trung trực giữa các cặp điểm trọng tâm (nếu ta sử dụng công thức khoảng cách ơ-clít)

C1

<•)

Hình 5.4 Không gian vói ba trọng tâm được xác định (a) và các vùng “chiến thắng" của

mỗi trọng tâm xác định theo công thức ơ -c lit và đồ thị Voronoi (b)

Một phân chia trọng tâm tốt là trường hợp các trọng tâm được đặt giữa các vùng

có mật độ véc-tơ các điểm đầu vào cao Trên hai hình 5.5 [Osowski99] là ví dụ các phàn bố như vậy Hình 5.5a có các điểm đầu vào (dấu *.’) phân bố theo các cạnh cùa hình vuông, các trọng tâm (dấu ‘o’) cũng nằm dọc theo các cạnh đó Hình 5.5b có các điềm đầu vào (dấu V ) phân bố theo các hình dạng 2-D và ta cũng dễ dàng nhận thấy các trọng tâm (dấu 4 • ’) cũng được phân bố như vậy

Hình 5.5 Ví dụ phản bố các trọng tâm phản tán theo các vùng số liệu

109

Trang 6

Ngoài việc định nghĩa các véc-tơ trọng tâm, Kohonen còn đưa ra đề xuất về mạng lưới liên kết ảo giữa các trọng tâm này đề hình thành “lưới trọng tâm” Theo đó, mỗi mạng Kohonen sẽ có một hàm định nghĩa liên kết giữa các trọng tâm Hai trọng tâm có liên kết với nhau được gọi là “hàng xóm trực tiếp”, hay còn gọi là hàng xóm bậc 1 Hai trọng tâm Cj và Cj không có liên kết trực tiếp nhưng nếu tồn tại một chuỗi các trọng tâm trung gian ckj sao cho ci = c kữ,ckx, ,ckn= c j đồng thời ckJ và c*y+l là

hàng xóm bậc 1 với mọi j = 0 , , n - \ thì c, và Cj được gọi là hàng xóm gián tiếp bậc n (với n - 1 là số lượng trọng tâm trung gian nhỏ nhất nối giữa Cj và C j) Ta ký hiệu hàm định nghĩa bậc liên kết hàng xóm giữa hai trọng tâm là G (c, ,c7 )

Đe thuận tiện cho việc lập trinh mô phòng, ta thường sử dụng các mạng phân bố theo lưới hai chiều với các cấu trúc hình chừ nhật, hình tam giác, hình lục giác, như trên hình sau:

Hình 5.6 Một số cấu trúc liên kết lưới giữa các trọng tâm trong mạng Kohonen

a) Lưới vuông; b) Lưới tam giác; c) Lưới lục giác.

Khi các trọng tâm được liên kết với nhau theo lưới và nếu một trọng tâm dịch chuyền thì sẽ kéo theo các trọng tâm khác cũng dịch chuyển, nhưng mức độ dịch

chuyển sẽ tỷ lệ nghịch với bậc hàng xóm giữa mỗi trọng tâm với trọng tâm dịch

Trang 7

chuyền chính Các hàng xóm bậc 1 sẽ dịch chuyển nhiều nhất, các hàng xóm bậc cao hơn sẽ dịch chuyển ít hơn.

5.2 QUÁ TRÌNH HỌC CỦA MẠNG KOHONEN

Với mô hình hoạt động như trên, mạng Kohonen được xây dựng từ một bộ số liệu ban đầu thông qua quá trình học để xác định các trọng tâm của các vùng số liệu Cũng tương tự như các quá trình học của các mạng nơ-rôn khác, hàm mục tiêu của quá trình học mạng Kohonen thường là một hàm phi tuyến và việc tối ưu hóa hàm mục tiêu này sẽ được thực hiện bởi các thuật toán lặp Trong mạng Kohonen, ta cần xác định vị

trí của M trọng tàm c • e R v (ỹ = 1,2, ,M ) khi được cho trước một tập hợp p điểm

sổ liệu mẫu x( e R A ( j = 1,2, , p ) và số trọng tâm M.

Các thuật toán xác định vị trí này được gọi là các thuật toán học của mạng Kohonen và được chia thành hai nhóm chính: các thuật toán học trực tuyến (online) và các thuật toán học ngoại tuyến (offline) Đồng thời các trọng tâm còn được gọi là các nơ-rôn do việc tham gia vào quá trình học đề điều chình các thông số cùa mình

5.2.1 Các thuật toán phân nhóm trực tuyến

Các giải pháp nơ-rôn cổ điển cho vấn đề phân nhóm đã được bắt đầu trong các công trình của Kohonen [Kohonen89], thường áp dụng cách tiếp cận trực tuyển, trong

đó quá trình cập nhật của các trọng số được thực hiện sau mỗi quá trình biểu diễn của mỗi véc-tơ dữ liệu đầu vào X Với mục đích tìm ra các nhóm số liệu tập trung và xác định trọng tâm của các vùng số liệu đó, trong quá trình học, các nơ-rôn sẽ “tự” sắp xếp (được hiểu theo nghĩa là chi sử dụng các giá trị X chứ không cần các giá trị đích d như trong trường hợp học có hướng dẫn)

I 11

Trang 8

Đầu vào của các thuật toán học cho mạng Kohonen bao gồm một tập hợp p mẫu

sổ liệu X, e R iV với / = 1,2, ,/? và số lượng các véc-tơ trọng tâm cần xác định M Kết quà cùa quá trình học là vị trí của M trọng tâm c, € R ,v với / = 1,2 , ,A / Quá

trình học của mạng Kohonen cũng sẽ là một quá trình lặp

a) Thuật toán WTA

Thuật toán trực tiếp đầu tiên là thuật toán WTA ( Winner Takes All) được thực

hiện theo trình tự các bước như sau:

Bước 1: Khởi động với chi số mẫu số liệu i = 1

Bước 2: Tuần tự với các giá trị i = 1,2 p , ta xử lý véc-tơ X,: xác định các

khoảng cách từ véc-tơ X, tới các nơ-rôn trọng tâm c ■, từ đó xác định nơ-rôn chiến

thắng N w l à nơ-rôn có khoảng cách ngắn nhất tới véc-tơ X ,

Bước 3: Cập nhật các trọng số (tọa độ) của nơ-rôn chiến thắng theo hướng dịch chuyển về gần phía véc-tơ đầu vào X ,

Bước 4: Tăng i lên 1 vào quay lại bước 2.

Hình 5.8 Vị trí b ố n v é c - t ơ đ ầ u v à o Xi , Xỉ, X}, x4 và hai trọ n g tằm Ci, Cỉ K hi x é t v ế c - t ơ x, thì

khoáng cách d u < d 12 nên trọng tâm Ci chiến thắng

Hình 5.9 Trọng tâm C i được dịch chuyển về phía v é c -tơ X í còn trọng tám C ỉ dứng yên

Trang 9

Lặp lại trình tự này nhiều lần đưa mạng tới một trạng thái được sấp xếp, trong đó mỗi nơ-rôn biểu diễn một nhóm dữ liệu riêng biệt Mô tả minh họa một bước học cho trường hợp bốn véc-tơ mẫu và hai trọng tâm được thể hiện trên hình 5.8 và hình 5.9.

Thuật toán này dược gọi là WTA do khi xừ lý một mẫu sổ liệu, chi duy nhất có nơ-rôn chiến thắng được dịch chuyển về phía gần với số liệu đang xét còn toàn bộ các nơ-rôn còn lại đứng yên

Trong thuật toán trực tuyến chuẩn, chúng ta cập nhật trọng số của nơ-rôn chiến

thắng N w theo luật sau:

trong đó: t - chi số thời gian rời rạc; - véc-tơ trọng số của nơ-rôn chiến thắng

Nịỳ, rj(t) - giá trị của bước học tại thời điểm t.

Hệ số bước học rj(t) được chọn trong khoảng giá trị (0,1) (0 tưcmg ứng với

không dịch chuyển c^r+l) = , 1 - dịch chuyển hoàn toàn CN về p h ía x ,: = X,)

Đe quá trình học ổn định, ta sẽ sử dụng các hệ số học giảm dần theo thời gian Quá trinh học sẽ dừng lại khi đạt được số bước lặp chọn trước hoặc khi hệ số bước học quá

nhò rj(t) < £ , với £ là ngưỡng giá trị cho trước.

b) Thuật toán WTM (Winner Takes Most)

Thuật toán WTA ưu điểm nổi bật là đorn giản, chi cần xử lý tuần tự từng số liệu và từng trọng tâm Nhược điểm chính của WTA là thể xảy ra hiện tượng một số nơ-rôn không bao giờ chiến thắng và sẽ không phải giờ được dịch chuyển vị trí trong

quá trình học Dẻ khắc phục nhược điểm, ta có thẻ sử dụng thuật toán WTM, trong đó

ngoài nơ-rôn chiến thắng, các nơ-rôn "lân cận" với nơ-rôn chiến thắng cũng sẽ được dịch chuyển về hướng các số liệu, nhưng với mức độ ít hon Giải pháp này sẽ làm giảm đáng kể khả năng một nơ-rôn không được dịch chuyển trong toàn bộ quá trình học

Trọng số cùa các nơ-rôn trong thuật toán WTM:

Các công thức khác nhau trong việc lựa chọn hàm lân cận G(Cj,x(t)) dẫn tới

nhiều thuật toán học khác nhau Một thuật học qơ bản là thuật toán Kohonen với hàm Gaussian, trong đó:

(5.10)

c , ( f + 1 ) = c y ( r ) + rjj(t)G(Cj,cNw ) [ x ( 0 - c y ( 0 ] (5.11)

113

Trang 10

trong đó d 2(Cj,x) là khoảng cách Euclidean giữa véc-tơ trọng số cùa nơ-rôn thứj và nơ-rôn thắng N w và ơ là hệ số vùng lân cận và sẽ giảm theo quá trình học.

c) Thuật toán Neural Gas

Theo công thức (5.12) thì các nơ-rôn ở xa có độ dịch chuyển vẫn bị tác động mạnh bời khoảng cách từ nơ-rôn đó tới điểm mẫu đang xét Đe giảm bớt sự ảnh ường này ta có thể sử dụng một thuật toán mạnh khác được gọi là thuật toán khí nơ—ròn, trong đó hàm lân cận được định nghĩa theo vị trí sắp xếp của khoảng cách giữa véc- tơ đầu vào X và véc-tơ trọng số của nơ-rôn Trong cách tiếp cận này, chúng ta sắp xếp các nơ-rôn theo những khoảng cách này, tức là:

với m(i) là vị trí của nơ-rôn thứ i sau khi phân loại và Ả là tham số giảm theo thời gian,

có thể được tính theo công thức sau:

5.2.2 Thuật toán phân nhóm ngoại tuyến

a) Thuật toán K-mean

Chế độ học ngoại tuyến (offline) còn dược gọi là chế độ học toàn bộ (batch-mode)

của thuật toán tự tổ chức, cũng thường được gọi là thuật toán K-trung bình, đưa ra môt

cơ che đơn giản để xác định vị trí các trọng tâm của các vùng số liệu Thuật toán K-trung bình chia một tập hợp các véc-tơ X thành các M nhóm và tìm trọng tám

trong mỗi nhóm theo tiêu chí tối thiểu hóa hàm chi phí đo độ không đồng dạng hay đo khoảng cách Giả thiết ta sử dụng hàm khoảng cách ơ -clit, khi đó hàm chi phí toàn phần có thể được xác định như sau:

dị < d 2- - < d K1_\ < d M (5.13)

trong đó dị = ||x - cm(i) II với i = 1 -> M.

Khi đó, giá trị của hàm lân cận được xác định như sau:

Trang 11

Thuật toán này có thể được tóm tất như sau:

1 Chọn một tập các nhóm khởi đầu C / , C 2 C M , tùy ý.

2 Đối với từng mẫu số liệu X ị, ta xác định trọng tâm c gần nhất để xếp X,

i=1

nhất một trong số M trọng tâm có tọa độ được thay đổi đáng kể trong quá trình cập

nhât trên (tương đưamg với điều kiên max - c • > E với ngưỡng £ chon trước)

1 1II

thì quay trở lại bước 2 để tiếp tục điều chình các trọng tâm Ngược lại thì dừng quá

trình học

Hình 5.10 Trong bước tính toán trên, các véc tơ X ì và x2 thuộc về nhóm Ci, các v é c -tơ x 3

X i thuộc vè nhóm Cĩ , do đó trong quá trình cập nhật, Ci sé dịch chuyển về phía

trung điểm của X z còn sẽ dịch chuyển về phía trung điềm cùa x3 và X ạ

Trên hình 5.11 là ví dụ minh họa quá trình học mạng Kohonen theo thuật

toán K-mean cho mạng có cấu trúc lưới hình chữ nhật Ta có thể nhận thấy sự biển

dạng của lưới chữ nhật đề các trọng tâm có thể được đặt vào các khu vực có số liệu

tập trung

115

Trang 12

(c) (d)

Hình 5.11 Kết quà học mạng Kohonen với 30 trọng tâm có liên kết mạng lưới chữ nhật

theo thuật toán K-means

(a) Sau 1 bước học; (b) Sau 3 bước học; (c) Sau 10 bước học; (d) Sau 100 bước học.

Tuy nhiên do việc tồn tại lưới liên kết dạng hình chữ nhật (một trọng tâm có bốn trọng tâm lân cận) mà ta cũng có thể nhận thấy một số “mắt lưới” bị rơi vào vùng không có số liệu Nhược điểm này tiếp tục được quan sát thấy trên hình 5.12 cho mạng

cỏ cấu trúc lưới tam giác

Trang 13

(c) (d)

Hinh 5.12 Két quả học mạng Kohonen vói 30 trọng tâm có liên két mạng lưới tam giác

theo thuật toán K-means

(a) Sau 1 bước học; (b) Sau 3 bước học; (c) Sau 10 bước học; (d) Sau 100 bước học.

Để khắc phục được nhược điểm của cấu trúc mắt lưới, trong thuật toán C-mean sau đây, ta sẽ bỏ quan hệ ràng buộc mắt lưới Khi đó các trọng tâm có thể được chuyển động tự do, lượng chuyển dịch chi phụ thuộc vào khoảng cách từ trọng tâm tới các vcc-tơ mẫu số liệu chứ không phụ thuộc vào quan hệ tương đối giữa các trọng tâm với nhau

117

Trang 14

b) Thuật toán C-mean

Trong thuật toán C-mean, các trọng tâm được xác định với sự hỗ trợ của một đại lượng Uịj mới được gọi là giá trị phụ thuộc của véc-tơ X j vào trọng tâm c,- Theothuật toán Kohoncn kinh điển thì mỗi một véc-tơ mẫu số liệu X / được phân chia thuộc

về một nhóm duy nhất mà cỏ trọng tâm c, gần nhất tới véc-tơ đó, khi đó thì giá trị phụ thuộc của một véc-tơ X tới mỗi trọng tâm c, chi có the nhận một trong hai giá trị là 0 hoặc 1 Cụ thể:

u i j = / ( X 7>c ) =

j l nếu :||xy — C j II (o nếu ngược lại

(5.18)

Trong thuật toán C-mean, các tác giả đă làm “mềm” hóa yêu cầu trên trở thành giá trị phụ thuộc của một véc-tơ X ■ tới mỗi trọng tâm c, có thổ nhận các giá trị thựctrong đoạn [0,1] và tỷ lệ nghịch với khoảng cách giữa mẫu sổ liệu tới trọng tâm Điều này có nghĩa là một mẫu sổ liệu X j có thể thuộc về nhiều trọng tâm nhưng hệ số phụ

thuộc vẫn phải thỏa mãn hai điều kiện sau:

1 Tổng hệ số phụ thuộc của một mẫu tới tất cả các trọng tâm bằng 1:

M

i=l

với tất cả các điểm dữ liệu j = 1 ,2, ,p.

2 Hệ số phụ thuộc tỷ lệ nghịch với khoảng cách: trọng tâm gần nhất sẽ tương ứng với hệ số phụ thuộc cao nhất

Trang 15

trong đó Ả là các nhân tử Lagrange cho các ràng buộc của phưcmg trình trên Các

điều kiện cần thiết để tối thiểu hàm Lagrange như sau [Dunn73, Bezdek81]:

và:

C; =

Z M k=\ d J L

\ dMj

(5.23)

(5.24)

trong đó dụ = c, - X j ị - khoảng cách giữa trọng tâm c, và véc-tơ dữ liệu Xj. Từ đó ta

có thuật toán phân nhóm C-mean có thể được phát biểu như sau:

1 Khởi tạo ngẫu nhiên các vị trí của các trọng tâm c, trong miền xác định cùa các mẫu số liệu

2 Xác định ma trận u từ công thức (5.24)

3 Tìm M trọng tâm c, sử dụng phương trình (5.23).

4 Tính toán hàm mục tiêu theo (5.21) Ncu giá trị của E nhỏ hơn một ngưỡng

cho trước hoặc các giá trị trọng tâm mới thay đồi nhỏ hơn mức ngưỡng cho trước sau một vòng lặp thì sẽ dừng thuật toán, ngược lại ta sẽ quay lại bước 2 với các vị trị mới cùa trọng tầm vừa xác định được

Quá trình này được lặp lại nhiều lần sẽ dẫn tới một cực tiểu nào đó của /r, tuy

nhiên nó không nhất thiết là dạt tới giá trị cực tiểu toàn cục Với các giá trị khởi tạo ngẫu nhiên ban đầu khác nhau, ta có thể thu được các kết quả cuối cùng hoàn toàn khác nhau Vì vậy trong các công trình nghiên cứu, ta có thc gặp nhiều đề xuất về điều kiện dừng hoặc một số tiêu chí bồ sung khác để đánh giá chất lượng của việc phân nhóm, để

tù đó có thẻ chọn được kết quả phù hợp

Trên hình 5.13 là minh họa kết quà học của mạng Kohonen theo thuật toán C-mean cho bộ số liệu mẫu phân bố giống như trong hai ví dụ từ các hình 5.11 và 5.12 Ta có thể nhận thấy do không còn ràng buộc lưới nên các trọng tâm đã được dịch chuyển tự do và toàn bộ các trọng tâm đã nằm vào giữa các vùng sổ liệu, không còn hiện tượng trọng tâm bị nằm ở vùng trống ờ giữa

119

Trang 16

Hình 5.13 Két quả học mạng Kohonen với 30 trọng tàm theo thuật toán C-means

a) Sau 1 bước học; b) Sau 3 bước học; c) Sau 5 bước học; d) Sau 10 bước học.

Khả năng tự động xác định vị trí các ừọng tâm của các vùng số liệu trong một

bộ sổ liệu cho trước cùa mạng Kohonen có thể được ứng dụng trong khá nhiều bài toán khác nhau Phần tiếp theo ta sẽ điểm qua một số ví dụ minh họa cho mạng Kohonen với các trường hợp từ đơn giản cho đến phức tạp

Trang 17

5.3 Vì DỤ ỨNG DỤNG MẠNG KOHONEN

(a)

Hình 5.14 Mẫu phân bố số liệu và ba trọng tâm tương ứng (a) cùng với ba vùng phân loại

và kết quả phân loại từng vùng (b)

Một trong những ứng dụng điển hình cùa mạng Kohonen là sử dụng trong nhận dạng và phân loại đối tượng đầu vào Mỗi một trọng tâm Cy đặc trung cho một nhómhay một tính chất nào đó Ví dụ như trọng tâm C ị đặc trưng cho vùng các véc-tơ của nhóm V thì khi véc-tơ đầu vào X gần với trọng tâm C ị nhất, ta sẽ kết luận X có tínhchat V và thuộc về nhóm này Trên hình 5.14 là minh họa cho vấn đề này Sau khi trên

cơ sở bộ mẫu số liệu hình 5.14a, ta tìm được ba trọng tâm C |, C2 và C3 Từ đó, dựa trên nguyên tắc khoảng cách ngẩn nhất, miền xác định của các mẫu được chia thành ba khu vực Khi ta có một mẫu số liệu mới, ta xét mẫu đó thuộc vào miền nào và trọng tâm c, tương ứng sẽ được coi là đặc trưng cho véc-tơ số liệu đang xét, đồng thời véc-tơ số liệu đang xét sẽ được coi là có cùng đặc tính với các véc-tơ số liệu khác cũng nàm trong vùng Cj.

5.3.1 Xác định mẫu cho số liệu hai chiều

Ta bắt đầu với một ví dụ đơn giản là các điểm phân bố trên không gian harchiều theo một hàm nào đó Trên hình 5.15 ta có 101 điểm đầu vào được phân bố dọc theo hình sin với giá trị bước đều Ax = 0,1

Sau khi có tập hợp điểm, ta tiến hành phân thành 30 nhóm Kết quả của quá trình học bằng thuật toán ngoại tuyến C-mean được trình bày trên hình 5.16, theo đó ta thấy các trọng tâm (được biểu diễn bằng ‘ © ’) cũng được phân bố đều dọc theo các khu vực chứa các véc-tơ đầu vào

121

Trang 18

Hình 5.16 Kết quà phân nhóm và các trọng tâm ị'* ’) cho số liệu từ hình 5.15

Ta lấy ví dụ thứ hai với các số liệu của bài toán xoáy kinh điền (Spiral Problem)

trong đó các điểm số liệu đầu vào được phân bố dọc theo các đường xoáy trôn ốc

Trang 19

Hình 5.17 Mầu số liệu chuẩn spiral

Với tập hợp điểm như trên hình 5.17, ta tiến hành phân thành 40 nhóm Kết quả cùa quá trình học bàng thuật toán ngoại tuyến C-mean được trình bày trên hình 5.18, theo đó ta thấy các trọng tâm (được biểu diễn bằng ‘ © ’) cũng được phân bố đều dọc theo các khu vực chứa các véc-tơ đầu vào

Hình 5.18 Kết quả phân nhóm và các trọng tâm ('*') cho số liệu từ hình 5.17

5.3.2 Xác định mẫu cho số liệu đa chiều

Mở rộng cho trường hợp các mẫu số liệu đa chiều, ta sẽ lấy ví dụ với trường hợp ứng dụng mạng Kohonen trong xừ lý ảnh Với một ảnh đầu vào cho trước, ta sẽ có một

ma trận điểm ảnh Aự = mã màu tại pixel (điểm ảnh) có tọa độ (ỉ',ý ).

123

Trang 20

Đe tìm các vùng màu ảnh đặc trưng, ta chia nhỏ ảnh đầu vào thành các ảnh con

có cùng kích thước s Ry sC Khi đó từ ảnh đầu vào kích thước tR X tC , ta sẽ thu được

íR tC

p = — ■ —— ảnh con Chia tâp hơp này thành M nhóm và xác đinh trong tâm của các

sR sC

nhỏm, ta sẽ tìm được các vùng ảnh con đặc trưng cùa ảnh đầu vào

Trên hình 5.19 là một ví dụ cùa ảnh đầu vào với kích thước 600 X 800 Ành này được cắt thành các ảnh con kích thước 20x20 Ta có tập đầu vào 30 -40 = 1200 ảnh con Coi mỗi ảnh con này là một véc-tơ có 20 • 20 = 400 thành phần, ta triển khai thuật toán học mạng Kohonen để tìm 40 trọng tâm cùa mạng

Kết quả của quá trình học được thể hiện trên hình 5.20

Hình 5.19 Ảnh đầu vào được sừdụng để kiểm tra mạng Kohonen

Hình 5.20 40 ảnh con đặc trưng cho tập 1200 ảnh con của ảnh đầu vào

Trang 21

Chuo'ng 6

L Õ -G IC MỜ VÀ MẠNG N Ơ -R Ô N LÔ -G ỈC MỜ

Lô-gic mờ (Fuzzy Logic) là một lĩnh vực nghiên cứu được bắt đầu phát triển khá

muộn so với chuyên ngành trí tuệ nhân tạo Lô-gic mờ bẳt đầu được các nhà nghiên cứu chú ý tới nhiều hơn sau các công trình của Lofti A Zadeh từ năm 1965 (sau đó ông hoàn thiện công trình của mình và đưa ra lý thuyết về lô-gic mờ vào năm 1973) Vào giữa thập kỳ 70 của thế kỳ trước, Ebrahim Mamdani đã đưa ra thiết kế một bộ điều khiển động cơ hơi nước sử dụng lô-gic mờ Tuy nhiên lĩnh vực này chi thực sự bùng

nồ sau khi tại Nhật Bản có hàng loạt các giải pháp sử dụng lô-gic mờ được đưa vào ứng dụng thực tế vào thập kỷ 80 của thế kỷ trước, ví dụ như trong hệ thống điều khiển tàu điện ngầm, trong các bộ điều khiển quạt, điều hòa, máy giặt, Ban đầu các hệ thống sử dụng lô-gic mờ được xây dựng chủ yếu dựa trên các kinh nghiệm của các chuyên gia, trong đó các thông số của hệ thống được lựa chọn theo kinh nghiệm và được cài đặt cố định Tuy nhiên những giải pháp như vậy thường là giải pháp “cứng”

và không thích nghi được linh hoạt cho nhiều trường hợp ứng dụng khác nhau Vì vậy người ta đã sử dụng ý tường xây dựng các thuật toán học cho các hệ mờ để cho phép các thông số của hệ mờ có thể được điều chinh thích nghi theo các mẫu tín hiệu cho trước Từ đó ta có khái niệm các hệ thống sử dụng lô-gic mờ có di kèm theo thuật toán học Các hệ thống như vậy còn được gọi là các mạng nơ-rôn lô-gic mờ Chương 6 sẽ trình bày một cách tóm tat một số khái niệm cơ bán về lô-gic mờ và một sổ mạng nơ-rôn lô-gic mờ cơ bàn Do khuôn khổ nội dung không thể trình bày quá dài nên ta sẽ chi tạm tập trung cho các phàn kiến thưc cua lô-gíc mờ có liên quan trực tiếp tới các mồ hình mạng nơ-rôn lô-gic mờ được giới thiệu ờ phần tiếp theo Bạn đọc có thề tìm hiểu them về lô—gic mờ nói ricng và các hệ thống sử dụng lô-gic mờ nói chung trong các tài liệu tham khảo hoặc trong các tài liệu phổ biến khác

6.1 KHÁI NIỆM LÔ-GIC MỜ

Khái niệm “lô-gic mờ” dùng để xử lý các thông tin mà giá trị logic không thể được xác định chính xác đối với chúng ta hoặc có thể thay đổi tùy theo điều kiện bên ngoài

Ví dụ với các mệnh đề “Nhiệt độ nhỏ hom 20 độ là lạnh” hay “Tốc độ ô tô khoáng 60 km/h là nhanh” thì ta rất khó xác định được giá trị lô-gic do việc không phải

toàn bộ mọi người đều cho ràng các mệnh đề này là chính xác Trong trường hợp này, để

125

Trang 22

tăng độ chặt chẽ cùa mệnh đề, ta thường hay gặp dạng phát biểu như sau: “Cớ 70% số người đồng ý rằng nhiệt độ nhỏ hơn 20 độ là lạnh” hay “Đa so người được hói sẽ đỏng

ỷ rang vận tốc khoảng 60 km/h là nhanh".

Trong lô-gic kinh điển, khi chúng ta đưa ra một mệnh đề và các biến lô-gic trong mệnh đề đó có giá trị xác định, ta cũng có giá trị lô-gic xác định của mệnh đề đó

và giá trị đó chi có thể nhận một trong hai giá trị: đúng (0) hoặc sai (1) Ví dụ như ta có mệnh đề “x AND y AND ( y OR z ) " và giá trị các biến X = 1, y = 1 và z = 0 thì mệnh đề có giá trị bằng 1 Với giá trị các bien X = 0, y = 1 và Z = 1 thì giá trị mệnh

đề bàng 0 Dựa trên cơ sở lô-gic kinh điển, ta có định nghĩa một tập hợp với mệnh

đề lô-gic xác định việc một phần tử có thuộc vào tập hợp đó hay không

Ví dụ nếu B là một tập hợp gồm các số thực lớn hơn 6:

thì chúng ta coi đây là là một định nghĩa chặt Theo cách định nghĩa như vậy thì với một giá tri X bất kỳ, chúng ta có thể biết được X có thuộc tập B hay không thuộc tập B Hay nói cách khác, với mọi so X, thì mệnh đề X e B chỉ có thể nhận một trong hai giá

trị: sai (hay bằng 0) hoặc dũng (hay bàng 1)

Tập hợp B sẽ có tập hợp bù ß = {x € R U < 6} và một tính chất cơ bàn của lô gic

kinh điển là ß n B = 0 - một tập hợp sẽ không có phần từ chung với tập hợp bù cùa

chính nó

Lô-gic kinh điển đã và đang được ứng dụng vô cùng rộng rãi và có vị tri không thể phù nhận của mình Tuy nhiên, trong thực tể ta đã bắt đầu thấy những nhược điểm của việc giá trị một mệnh đề chi có thể bằng 0 hoặc 1 Ví dụ ta hay gặp các định nghĩa

có dạng: “C là một tập hợp gồm các số thực có giá trị xấp x ỉ (hang hoặc gan hằng) 3”,

độ nhất định, có thể không phải là hoàn toàn Mức độ này có the được thổ hiện thông qua giá trị chân lý của biểu thức lô-gic mờ tại điểm X đó sẽ bằng bao nhiêu Chẳng hạn

ta có thể nói như sau “giả trị lô-gic của ” X = 2,9 « 3" là 0,9hay “giá trị lô-gic của

"x = 2,9 « 3 " là 0,4" và giá trị bao nhiêu phần trăm đó sẽ tùy thuộc vào cách chúng ta

xây dựng mô hình hàm liên thuộc như thể nào Tất nhiên đổi với ví dụ trên thì ta cần có

độ tin cậy của mệnh đề “ x = 2 , 9 e C ” phải cao hơn độ tin cậy của mệnh đề

“ JC = 2 e C ” Giá trị của biểu thức lô-gic mờ có thể nhận các giá trị trong khoảng [0,1],

Trang 23

6.2 BIẾU THỨC LÔ-GIC MỜ

6.2.1 Một số toán từ mờ cơ bản

Một đặc trưng của các biểu thức lố-gic mờ là việc sử dụng các toán tử đặc trưng khác với các toán tử lô-gic kinh điển như AND, OR, IMPLY, hay các toán tử so sánh điều kiện như

Nếu như trong lô-gic kinh điển, ta có các phép toán so sánh cơ bản là X < A ,

X = A hay X > A thì trong lô-gic mờ ta thường có tương ứng ba dạng biểu thức mờ cơ

bản sau:

- X nhỏ hơn nhiều so với A: X <K A;

- X xấp xi bằng A : X » A;

- X lớn hơn nhiều so với A : X » A.

Đối với biểu thức mờ X <K A , ta sẽ có hàm liên thuộc (hay còn gọi là hàm giá

trị biểu thức lò-gic) ¿J^A(x) có dạng “mờ trái” như hình 6.1 với 0 < ụ«.A (x) < 1, được

định nghĩa như sau:

Hình 6.1 Hàm Hên thuộc của biểu thức mờ ‘ă X « : 4 "

Đối với biếu thức m ờ x « / l , ta sẽ có hàm liên thuộc /JxA(x) có dạng hình chuông (hình 6.2) với 0 < ^isA (x) < 1, được định nghĩa như sau:

127

Trang 24

J1 khi X - A

/s.^( ) Ị —■> 0 khi |x - i 4 |—>00

Hình 6.2 Hàm Hên thuộc hình chuông của biểu thức m ờ ã'X & 4 ”

Đối với biểu thức mờ X » A , ta sẽ có hàm liên thuộc /j^,A(x) có dạng “mớ phải” như hình 6.3 với 0 < /¿3>A (x) < 1 , được định nghĩa như sau:

-> 1

M x > a ( x ) =- >0

0

khi khi khi

Trang 25

Các hàm liên thuộc đều có thể được mô tả dưới dạng rời rạc gồm một tập các giá trị liên thuộc hoặc dưới dạng một hàm liên tục ứng với các khoảng liên tục của biến X

Đối với các hàm liên thuộc hình chuông, ta thường sử dụng hàm Gauss mở rộng được

mô tả bằng phưong trình sau:

Mc,b,Ax ) = / 1

x — c \ ơ

( 6 . 6 )

với b ,ơ e R và X, c là các véc-tơ Đây là hàm có ba thông số c, b và ernên có thể

điều chinh linh hoạt Hình dạng của hàm liên thuộc sẽ được thay đổi bời ba tham số là

điểm trung tâm c, độ mờ ơ và hệ số mũ b Ví dụ ở giá trị b = 0,6 thì hàm có hình dạng gần giống tam giác, b = 1 thì hàm có dạng hình chuông còn với b > 3 thì hàm có hình

dạng gần giống hình thang Đổ tìm hiểu rò hem về ành hường của các tham số đến hình dạng của hàm liên thuộc, chúng ta có thổ trờ lại ví dụ về tập mờ như đã trình

trong đó /rs4(x) = l khi |x - 4 | = 0 và //„ 4 ( x ) -» 0 khi | x -4| - »00

Giả sử chọn giá trị c = 4 , độ mở <T = 3, b = 1 thi hàm liên thuộc của tập c sẽ là:

Hình 6.4a mô tả hình dạng cùa hàm liên thuộc fjx4 (x) với hệ số mũ được chọn

cố định 6 = 1 (có dạng hình chuông) và giá trị độ mở ơ lần lượt thay đổi bằng 0,5; 1

và 1,5 Trong hình 6.4b ta chọn giá trị độ mờ cr cố định bàng 1 và giá trị b thay đổi lần lượt bàng 1 (có dạng hình chuông) và 4 (có dạng hình thang)

129

Trang 26

(b)

a) vói giá trị hệ số mũ b thay đổi và b) với giá trị độ m ở ơ lần lượt thay đổi

Từ cách xây dựng hàm 4 ( x ) , chúng ta thấy các điểm có giá trị càng gần giátrị điểm trung tâm thì sẽ có giá trị liên thuộc càng lớn và đối với các điểm có giá trị càng xa giá trị điểm trung tâm thì sẽ có giá trị liên thuộc càng nhỏ

6.2.2 Các toán tử cơ bản trong lô-gic mờ

Trong lô-gic mờ ta cũng có thể sử dụng các toán tử cơ bản như AND, OR, IMPLY, nhung cằn phái định nghĩa lại về các giá trị hàm chân lý để phù hợp hơn với các ý tường cùa lô-gic mờ Trong khuôn khổ của phần này, chúng ta sẽ xem xét ba toán tử cơ bản là toán từ VÀ (AND), HOẶC (OR) và SUY RA (IMPLY) trong lô-gic

mờ Ba toán từ này được định nghĩa trong lô-gic kinh điển thông qua các bảng chân lý như trong bảng 6.1 sau

Trang 27

Tin hiệu đầu vào Hàm toán tử lô—gic

Đe có thể phù hợp hom đối với các toán tử lô-gic mờ, trong đó các biến lô-gic p

và q có thể nhận các giá trị thực nằm trong khoảng [0,1], ta có thể sử dụng các công thức tính giá trị chân lý khác (mà khi sử dụng trong lô-gic kinh điển ta vẫn thu được các kết quà tương đương) Đối với toán tử AND kinh điển, ta có thể thay thế bời một trong hai hàm sau:

Trang 28

Khi đó ta có phép AND hai biến mờ này theo công thức min và công thức tích cho kết quả là một biến mờ như trên hình 6.6 Ta có thể nhận thấy rằng nếu như trong lô-gic kinh điển, hai công thức cho cùng một kết quả thì đối với lô-gic mờ ta sẽ thu được hai kết quả khác nhau (nhưng có chung hình dạng “chuông” là hàm đạt cực đại tại điểm (x = 3,y = 2) và giảm dần khi hướng ra bên ngoài) Đồng thời ta thấy rằng

hàm tích sẽ có giá trị nhỏ hơn so với hàm min ( min (p ,q ) > p- q ).

1 v

0 8

(b) Hình 6.6 Hàm liên thuộc của phép AND hai biến p = ".r«3" q — " y ~ 2" tinh theo

toán từ tích (a) và tính theo toán từ min (b)

Trang 29

Hoàn toàn tương tự ta cũng có những công thức tương đương để tính toán tử OR trong lô-gic kinh điển như sau:

tinh theo công thức p + q - pq (a) và theo toán từ m ax (b)

1 3 3

Trang 30

Cho toán tử 1MPLY ta có các công thức tương đương như sau:

tinh theo công thức 1 - p + pq (a) và theo toán từ m ax (b)

Trang 31

6.3 QUY TÁC SUY LUẬN MỜ VÀ GIÁ TRỊ CỦA QUY TÁC SUY LUẬN MỜ

Trong phần này ta sẽ trình bày về quy tắc suy luận mờ ờ dạng “if then .”

(hay còn gọi là dạng suy luận “nếu thì .”) Trước hết chúng ta làm quen trước với

các quy tắc suy luận ở dạng mệnh đề điều kiện if then như sau:

Đối với khái niệm suy luận chính xác thì sẽ phải chi rõ nếu giá trị đại lượng đầu vào cụ thể bằng bao nhiêu thì giá trị đại lưựng đầu ra sê phải bằng một giá trị cụ thể nào

đó Cũng tương tự như vậy, một quy tắc suy luận chính xác sẽ có cấu trúc như sau:

tức là khi giá trị X bằng A thỉ giá trị y sẽ bàng B

Tuy nhiên một vấn đề đặt ra là với giá trị X bằng A thì chúng ta biết được giá trị

y sẽ bằng B nhưng nếu khi giá tri X chi “xấp xi” bằng A thì liệu chúng ta có biết được giá trị y sẽ bằng bao nhiêu không? Và với các giá trị X lân cận quanh giá trị A với độ

“xấp xi” khác nhau thì liệu chúng ta có thể tính được giá trị của y hay không? Với sự xuất hiện cùa cùa khái niệm “lò-gic mờ”, chúng ta hoàn toàn có thể trả lời được những câu hỏi trên thông qua khái niệm quy tấc suy luận mờ

Một quy tắc suy luận mờ sẽ có cấu trúc như sau:

tức là nếu x xấp xỉ bằng A thì y sẽ xấp xi bằng B, cụ thể khi x đúng bằng A thì chúng

ta sẽ có y đúng bằng B Ở đây khái niệm “xấp xi” sẽ được biếu diễn thông qua hàm liên

thuộc /U~A(x) và thông qua giá trị của hàm liên thuộc, thì với một giá trị đầu vào X bất

kỳ, chúng ta cũng có thể tính được giá trị đầu ra y của quy tắc suy luận mờ như sau:

Quy tãc này thỏa màn được hai yẻu cầu chính:

- Khi X đúng bằng A thì fjxA(x)= 1 và ta có y đúng bằng B

- Khi X có giá trị rất khác A thi ụ sA(x) -> 0 và ta cũng có y -> 0

Điểm khác biệt cơ bàn giữa quy tắc suy luận mờ và quy tắc suy luận kinh điển là giá trị biểu thức điều kiện của quy tắc suy luận mờ không chi nhận giá trị 0 và 1 mà có thề nhận cả các giá trị thực nằm giữa đoạn (0,1)

Hoàn toàn tương tự, ta cũng có thể gặp các trường hợp sử dụng các phép so sánh

“mờ” khác trong phần điều kiện của biểu thức lô-gic mờ, ví dụ như:

if X <K A then y « B (6.17)

135

Trang 32

Đường biểu diễn quan hệ vào - ra cho các biến theo các công thức (6.15), (6.16)

và (6.17) được thể hiện trên hình 6.9

Hình 6.9 Giá trị đầu ra của ba dạng suy luận m ờ CO’ bản a) if x = 4 then y X 4 , 5; b) if x » 6 then y « 7 ; c ) ì f x « : 4 t hen y » 3

Trang 33

6.4 TÍNH ĐÁP ỨNG TRONG TRƯỜNG HỢP HỆ NHIỀU QUY TÁC SUY LUẬN MỜ

Trên thực tể, một hệ thống điều khiển hay nhận dạng không chi có duy nhất một quy tẳc suy luận mà bao gồm một tập hợp nhiều các quy tắc suy luận Trong hệ kinh điển, khi ta có một tín hiệu đầu vào, hệ thống sẽ tìm kiếm quy tắc thỏa mãn tín hiệu đó và tính toán đáp ứng đầu ra tuân theo quy tắc đó Ta sẽ cỏ ba trường hợp xảy ra:

- Hệ thống không tìm thấy quy tắc tưomg ứng cho đầu vào đang xét, khi đó hệ thống sẽ không đưa ra đáp ứng (hoặc chi đưa ra thông báo lỗi)

- Hệ thống tìm thấy duy nhất một quy tắc tưorng ứng với đầu vào đang xét, khi

đó hệ thống sẽ tính toán đáp ứng đầu ra tuân theo quy tac tìm được

- Hệ thống tìm thấy nhiều quy tắc đáp ứng đầu vào đang xét Đây là trường hợp rất hạn chế gặp, tuy nhiên nếu xảy ra thì khi đó hệ thống có thể xử lý theo một trong hai cách:

a Lựa chọn một quy tắc trong số những quy tắc tìm thấy theo một thứ tự ưu tiên nào đó (ví dụ lấy quy tắc đầu tiên hoặc quy tắc cuối cùng, );

b Tính toán đáp ứng đầu ra là trung bình có trọng số tất cả các đáp ứng từ các quy tắc được thỏa mãn

Ví dụ ta có hệ ba quy tắc tính y theo Xcho theo lô-gic kinh điển như sau:

RI : if X < 3 then y = 3

R2: if T V K V V •g II

R3: if X > 5 then y = l

Khi đó ta có thể gặp một số trường hợp như sau:

- Khi x = 2 - chi có quy tắc RI thỏa mãn, đáp ứng đầu ra sẽ là y = 3.

- Khi X = 3,5 - không có quy tắc nào thỏa mãn, đáp ứng đầu ra không có (hoặc

CÓ thông báo lỗi).

- Khi x = 5 - cả hai quy tắc R2 và R3 đều thỏa mãn Nên ta xử lý tiếp theo theo

cách:

c Chọn quy tắc đầu tiên (là R2) - khi đó đáp ứng đầu ra sẽ là y = 4,5

d Chọn quy tắc cuối cùng (là R3) - khi đó đáp ứng đầu ra sẽ là y = 7

e Trung bình trọng số các quy tấc với trọng số đều là 0,5 thì đáp ứng đầu ra sẽ

là y = 0,5 4 ,5 + 0,5-7 = 5,75.

Tuy nhiên đối với trường hợp lô-gic mờ và các quy tắc suy luận mờ, ta có rằng các quy tắc mờ có tác động đồng thời với các giá trị của các biểu thức điều kiện nam trong đoạn [0,1] Như vậy đáp ứng đầu vào của hệ thống trong cùng lúc sẽ chịu tác động của nhiều quy tắc suy luận mờ Ở phần trên chúng ta đã tìm hiểu được giá trị

137

Trang 34

(dap ung) dau ra (y) trong trudng hap he thong chi co mot quy the md Trong phan nay

chung ta se tim hieu each tinh dap ung trong trucmg hgp nhieu quy tac suy luan md

De don gian ta thu xem xet den mot vi du ve he thong bao gom ba quy tac md

R l, R2, R3 vdi dau vao la bien mot chieu nhu sau:

R l: i f x « : 4 then y * 3

R2: i f x » 4 then T ~ 4,5

R3: i f x » 4 then y = 7

a) cac gia trj hdm dieu ki$n md x <SC 4 , x = 4 va x » 4 ; b) gib trj diu ra theo lung lu$t don Id vd gid tri diu ra ting hpp.

Trong do viec xac dinh xem lieu gia tri x nao do co xap xi, ldn hon nhieu ho5c nho han nhieu so vdi gia tri 4 hay khong sS thong qua cac gia tri lien thuQc

M\ (•*) = (■*) M 2 (*) = M* a (*) > My (*) = /ft.4 (■*) • v an ^ sc xem xet d day la vdimot gid tri x bat ky nao do thi muc do anh hudng (hay do manh) cua cac quy tac den x nhu the nao?

Gia sir vdi gia tri x , = 4,5 ta Idr lugrt co ^ ( x , ) ^ ; /r2( x | ) = 0,75 va

My (* i) = 0,2 Khi do co the nhan thay doi vdi gia tri x( = 4,5 thi quy tac R2 co tac dpng manh nhat va quy tac R] khong co anh hudng gi den gia tri X| = 4 ,5 Trong trudng hop nay do manh cua luat duac chon se chinh bang gia trj lien thuoc cua x

trong tirng quy tac M,{x ) va gia trj dau ra cua toan hg thong md doi vdi mpt gia tri x

nao do se duac tinh dya tren do anh hudng (do manh) cua cac quy tac doi vdi gia tri

x do nhu sau:

Trang 35

6.5 MỘT SỐ MẠNG NƠ-RÔN LÔ-GIC MỜ

Dựa trên mô hình hệ thống suy luận mờ, đã có nhiều mô hình mạng lô-gic mờ được đề xuất và xây dựng Trong số đó, có một số mạng được thiết kế cùng với các thuật toán học để điều chinh thích nghi các thông số của mạng theo các bộ số liệu mẫu cho trước Những mạng này được gọi là mạng nơ-rôn lô-gic mờ Trong chương này chúng ta sẽ làm quen với hai mạng nơ-rôn lô-gic mờ phổ biến nhất là mạng RBF

(Radial Basis Function) và mạng TSK (Takagi - Sugeno - Kang) Đặc điểm chung cùa

các mạng này là các mạng xử lý song song nhiều quy tắc suy luận

Hệ suy luận nhiều quy tắc

Hình 6.11 Mô hình hệ suy luận với nhiều quy tắc hoạt động song song

l 39

Trang 36

Mô hình chung của một hệ nhiều quy tắc suy luận được biểu diễn trên hình 6.11

Với cùng một đầu vào X, ta có nhiều quy tắc để suy luận, tính toán và đưa ra đáp ứng

kết quả Tuy nhiên các quy tắc khác nhau thường sẽ đưa ra các kết quả khác nhau Vìvậy để có được một kết quà duy nhất đáp ứng đầu ra chung của hệ thống, ta cần có một khối “Tổng hợp kết quả” để thu nhận tất cà các kết quả đon lò từ các quy tắc suy luận thành phần, qua đó tính toán và tồng hợp thành một kết quà chung duy nhất

với X = ,,jt„];A = [AU ,A n ]\ y = [y ,y Ar];B = [ ß ^ , ,5 A:].

Với một hệ M quy tắc, ta biểu diễn dưới dạng:

với i = 1,2

Đặt hàm giá trị biểu thức điều kiện của quy tắc thứ / là Wt; (x a A, ) , ta có thể

thay phần kết luận của quy tắc thứ i bởi:

if x a A, then y = B' (x a A ,) • B( (6.25)Khi đó đáp ứng cuối cùng của hệ sỗ là trung bình có trọng số các đáp ứng của mỗi luật

IV¡ —> / ( ) - h à m truyền đạt của nơ-rôn, B, -> V ị- các trọng số ghép nối Khi đó ta có

được mỏ hình mạng RBF như trên hình 6.12

Trang 37

Lớp dầu ra

Hình 6.12 Mõ hình mạng RBF

b) Nguyên tắc hoạt động

Theo đề xuất của các tác giả mạng RBF, với cấu trúc như trên hình 6.12 thì khi

có một véc-tơ đầu vào mới là x = [* |,*2»•••»•%]» tuần tự các lớp của mạng sẽ hoạt

động để tạo ra tín hiệu đầu ra như sau Trước tiên ở lớp ẩn, nơ-rôn thứ i sẽ tính toán hàm mờ Wị (x « A, ) sừ dụng hàm chuông:

trong đó thông số A( là trọng tâm của quy tắc, còn ơị là độ rộng của quy tắc Sau đó,

các tín hiệu đầu ra từ lớp đầu ra được tính với hàm truyền đạt là hàm tổng đơn giản:

Ta có thề nhận thấy mạng RBF có cấu trúc đơn giản hơn mạng MLP do:

cùa giá trị đầu vào để đáp ứng tín hiệu đầu ra của nơ-rôn lớn hơn một giá trị ngưỡng e

cho trước Các nơ-rôn RBF có hàm truyền đạt dạng “chuông” do đó có khoảng hoạt động giới hạn cả hai đầu (khoảng hữu hạn), còn nơ-rôn MLP có hàm truyền đạt mờ một phía (khoảng vô hạn) như trên hình 6.13

(6.27)

M

(6.28)

141

Trang 38

Hình 6.13 Khoảnq hoạt động của no^-rôn MLP (a) và của no>-rôn RBF (b)

c) Thuật toán học

Cũng tương tụ như trong trường hợp của mạng MLP, khi ta có ưiột bộ số liệu

mẫu {x,,d,} với i = 1,2, ,/?, ta có thể xây dựng một mạng RBF để xap XI bộ số liệu

này Với một số lượng nơ-rôn (quy tắc suy luận) M chọn trước, ta sẽ sử dụng các thuật

toán học để điều chình thích nghi các thông số cùa mạng với mục tiêu giảm sai lệch giữa các giá trị đầu ra y, và các giá trị đích d, cho trước Khác với mạng MLP, mạng

RBF ngoài các trọng số ghép nối V'j còn có các thông số cùa các nơ-rỏn là các trọng tâm A ị - [ A n ,Al2, ,A iN] và các hệ số độ mờ ơị với 1 = 1,2, ,A / cũng tham gia vào

Trang 39

quá trình học Hàm mục tiêu của quá trình học là tông các sai sô giữa tín hiệu đâu ra của mạng và giá trị đích cho trong bộ số liệu mẫu, cụ thể:

z i=l L i=l 7 = 1

với các tín hiệu đầu ra được tính theo các công thức (6.27) và (6.28)

Ta có thể sử dụng thuật toán bước giảm cực đại để xây dựng các công thức lặp cho quá trình điều chinh thích nghi các thông số cùa mạng RBF Theo đó ta thực hiện theo các bước sau:

1 Khởi tạo các giá trị ban đầu của các thông số tham gia quá trình học

= [4 m^ 2. m 4 w];® Ì0) cho a = l ,2 , ; M và cho a =

2 Thực hiện lặp theo thuật toán bước giảm cực đại với các công thức sau:

Aàp =A(â ÕE

(6.30)

^ +1) = n l ÕE

ôơa với a = 1,2, , M ; / 3 = Ì,2,- J V và:

-ỵ (0 Yap

ÕE

- n àVaP

Trang 40

2e l ơ‘ J { x i p ~ A k p ) àAkp

ơ2k dAaP J

Ngày đăng: 04/11/2020, 15:24

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

🧩 Sản phẩm bạn có thể quan tâm

w