1. Trang chủ
  2. » Luận Văn - Báo Cáo

Điều khiển xe robot bằng mạng nơron mờ

120 78 2

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Tiêu đề Điều khiển xe robot bằng mạng nơron mờ
Tác giả Nguyễn Xuân Thịnh
Người hướng dẫn PGS.TS Phan Xuân Minh
Trường học Trường Đại Học Mỏ-Địa Chất
Chuyên ngành Tự động hóa
Thể loại Luận văn thạc sỹ kỹ thuật
Năm xuất bản 2006
Thành phố Hà Nội
Định dạng
Số trang 120
Dung lượng 1,01 MB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Cấu trúc

  • PHẦN 1: MỞ ĐẦU (11)
    • 1. Tính cấp thiết của đề tài (11)
    • 2. Đối tượng và phạm vi nghiên cứu của đề tài (13)
    • 3. Mục đích của đề tài (13)
    • 4. Nhiệm vụ của đề tài (14)
    • 5. Nội dung nghiên cứu (14)
    • 6. Phương pháp nghiên cứu (14)
    • 7. Ý nghĩa khoa học và thực tiễn (15)
    • 8. Cơ sở tài liệu (15)
    • 9. Kết cấu của đề tài (15)
  • PHẦN 2: NỘI DUNG (16)
  • CHƯƠNG 1: LOGIC MỜ (16)
    • 1.1. Khái niệm về tập mờ (16)
      • 1.1.1. Định nghĩa tập mờ (16)
      • 1.1.2. Các đặc tính của tập mờ (18)
    • 1.2. Các phép toán trên tập mờ (21)
      • 1.2.1. Phép hợp hai tập mờ (21)
      • 1.2.2. Phép giao hai tập mờ (24)
      • 1.2.3. Phép bù của một tập mờ (27)
    • 1.3. Biến ngôn ngữ và giá trị của nó (28)
    • 1.4. Luật hợp thành mờ (30)
      • 1.4.1. Mệnh đề hợp thành (30)
      • 1.4.2. Luật hợp thành mờ (34)
      • 1.4.3. Luật hợp thành đơn max-MIN, max-PROD có cấu trúc SISO (37)
      • 1.4.4. Luật hợp thành đơn có cấu trúc MISO (39)
      • 1.4.5. Luật hợp thành kép max-MIN, max-PROD (41)
      • 1.4.6. Luật hợp thành sum-MIN, sum-PROD (45)
    • 1.5. Giải mờ (47)
      • 1.5.1. Phương pháp cực đại (47)
      • 1.5.2. Phương pháp diểm trọng tâm (50)
  • CHƯƠNG 2: TỔNG QUAN VỀ MẠNG NƠRON NHÂN TẠO (53)
    • 2.1. Mạng nơron nhân tạo là gì? (53)
    • 2.2. Các mô hình cơ bản và các luật học của mạng nơron nhân tạo (55)
      • 2.2.1. Phần tử xử lý (55)
      • 2.2.2. Các mô hình kết nối (57)
      • 2.2.3. Các luật học (60)
  • CHƯƠNG 3: MẠNG NƠRON MỜ (67)
    • 3.1. So sánh giữa mạng nơron và hệ mờ (67)
      • 3.1.1. Sự giống nhau giữa mạng nơron và hệ mờ (67)
      • 3.1.2. Sự khác nhau giữa mạng nơron và hệ mờ (67)
    • 3.2. Sự kết hợp giữa các hệ mờ và mạng nơron (68)
    • 3.3. Các hệ mờ dựa trên mạng nơron (NN – based fuzzy systems) (69)
      • 3.3.1. Dùng mạng nơron để thực hiện các phép toán mờ cơ bản (69)
      • 3.3.2. Suy diễn mờ dựa trên mạng nơron (71)
    • 3.4. Các mô hình mạng nơron dựa trên logic mờ (fuzzy logic – based neural (74)
      • 3.4.1. Nơron mờ (75)
      • 3.4.2. Mờ hóa các mô hình mạng nơron (77)
  • CHƯƠNG 4: PHƯƠNG PHÁP SUY LUẬN MỜ (82)
    • 4.1. Sơ đồ suy luận mờ (82)
      • 4.1.1. Suy luận mờ dựa vào dữ liệu ngõ vào (82)
      • 4.1.2. Suy luận mờ giản đơn (83)
      • 4.1.3. Suy luận mờ dựa vào giá trị trung tâm (84)
    • 4.2. Thiết kế mệnh đề kết luận trong kỹ thuật suy luận mờ (85)
      • 4.2.1. Suy luận dựa vào dữ liệu ngõ vào (85)
      • 4.2.2. Suy luận dựa vào giá trị trung tâm (85)
    • 4.3. Mạng Nơron mờ GAUSSIAN (Fuzzy Gaussian Neural Networks) (87)
      • 4.3.1. Cấu trúc mạng (87)
      • 4.3.2. Các thông số học (91)
      • 4.3.3. Huấn luyện mạng (94)
  • CHƯƠNG 5: SỬ DỤNG MẠNG NƠRON MỜ ĐIỀU KHIỂN XE ROBOT (97)
    • 5.1. Mô hình và hàm truyền của robot (97)
    • 5.2. Phân tích và thiết kế hệ thống điều khiển (99)
    • 5.3. Mô phỏng hệ thống điều khiển bằng MatLab (101)
      • 5.3.1. Sơ đồ khối tổng quát (101)
      • 5.3.2. Khối kết nối (102)
      • 5.3.3. Khối robot (103)
      • 5.3.4. Khối FGNN1 (khối điều khiển vận tốc) (104)
      • 5.3.5. Khối FGNN2 (Khối điều khiển góc quay) (105)
      • 5.3.6. Khối huấn luyện cho bộ điều khiển FGNN1 (107)
      • 5.3.7. Khối huấn luyện cho bộ điều khiển FGNN2 (110)
    • 5.4. Kết quả mô phỏng (111)
      • 5.4.1. So sánh giữa hai trường hợp có huấn luyện và không huấn luyện (111)
      • 5.4.2. Ảnh hưởng của các tham số học (114)
      • 5.4.3. Ảnh hưởng của W b lên hệ (116)
  • PHẦN 3: KẾT LUẬN VÀ KHUYẾN NGHỊ (119)
  • TÀI LIỆU THAM KHẢO (120)

Nội dung

LOGIC MỜ

Khái niệm về tập mờ

1.1.1 Đị nh ngh ĩ a t ậ p m ờ Đối với tập hợp kinh điển, biên của tập hợp là rõ ràng Cho một phần tử bất kỳ chúng ta hoàn toàn xác định được phần tử đó có thuộc tập hợp hay không

Ví dụ, cho tập kinh điển A = {x ∈ R | 2 < x < 6} Hàm thuộc của nó được mô tả như Hình 1.1 dưới đây

Hàm thuộc μA(x) của tập kinh điển A chỉ có hai giá trị: 1 nếu x thuộc A và 0 nếu x không thuộc A Ví dụ, khi x = 3, 4 hoặc 5, x thuộc tập A, nhưng nếu x = 7, thì không Tuy nhiên, cách biểu diễn này không phù hợp với những tập hợp được mô tả mờ như tập B và C.

Các tập hợp được định nghĩa bằng các khái niệm "mờ" thường có biên giới không rõ ràng, dẫn đến khó khăn trong việc xác định liệu x = 3,5 có thuộc tập B hay x = 2,5 có thuộc tập C hay không.

Nếu không thể xác định x = 3,5 có thuộc tập B hay không, thì cũng không thể kết luận rằng x = 3,5 không thuộc B Do đó, cần xác định tỷ lệ phần trăm mà x = 3,5 thuộc B Giả sử hàm thuộc B tại điểm x = 3,5 có giá trị trong khoảng [0,1], tức là 0 ≤ B(x) ≤ 1.

1 μA(x) không còn là hàm hai giá trị như đối với tập kinh điển nữa mà là một ánh xạ (Hình 1.2) à B : X [0,1], trong đó X là tập nền của tập mờ

Khác với tập kinh điển A, từ định nghĩa kinh điển của tập mờ B hoặc C không thể suy ra hàm phụ thuộc à B(x) hoặc à C(x) Hơn nữa, hàm phụ thuộc này có vai trò quan trọng trong việc làm rõ định nghĩa của một tập mờ, như được minh họa trong Hình 1.2 Vì lý do đó, hàm phụ thuộc cần được nêu rõ như một điều kiện trong định nghĩa về tập mờ.

Hình 1.2: Minh họa hàm thuộc của một tập hợp a) Hàm thuộc của tập mờ B b) Hàm thuộc của tập mờ C Đị nh ngh ĩ a 1.1:

Tập mờ F trên tập cơ sở X là một tập hợp gồm các cặp giá trị (x, àF(x)), trong đó x thuộc X và àF là ánh xạ từ X đến [0,1] Ánh xạ àF được gọi là hàm thuộc của tập mờ F, trong khi tập kinh điển X được xem là tập nền của tập mờ F.

Vớ dụ tập mờ B ở trờn với hàm thuộc àB(x) cú dạng như ở Hỡnh 1.2a định nghĩa trên nền X sẽ chứa các phần tử sau:

Hàm thuộc thể hiện mức độ phụ thuộc của các phần tử trong tập cơ sở X vào tập mờ F, với tập mờ được xác định bởi hàm thuộc Ví dụ, các số tự nhiên 1 và 2 có độ phụ thuộc là 1, trong khi số 3 có độ phụ thuộc là 0,8 và số 4 là 0,07.

Trong các ví dụ đã nêu, các hàm thuộc đều có độ cao bằng 1, cho thấy mỗi tập mờ đều có ít nhất một phần tử với độ phụ thuộc bằng 1 Tuy nhiên, không phải tất cả các tập mờ đều có phần tử như vậy, điều này cũng dẫn đến việc không phải mọi hàm thuộc đều có độ cao bằng 1 Định nghĩa 1.2 nêu rõ rằng độ cao của một tập mờ F, được xác định trên tập nền X, là giá trị

Giá trị nhỏ nhất trong tất cả các giá trị chặn trên của hàm àF(x) được gọi là ∈ Một tập mờ có ít nhất một phần tử với độ phụ thuộc bằng 1 được xem là tập mờ chính tắc, tức là h = 1 Ngược lại, nếu h < 1, tập mờ đó được gọi là tập mờ không chính tắc.

Bên cạnh khái niệm về độ cao, mỗi tập mờ F còn có hai khái niệm quan trọng khác là:

Hình 1.3: Minh họa về miền xác định và miền tin cậy của một tập mờ

Miền xác định Miền tin cậy àF(x)

Miền xác định của tập mờ F (định nghĩa trên nền X), được ký hiệu bởi S, là một tập hợp thỏa mãn:

S = supp àF(x) = {x∈X | àF(x) > 0} Đị nh ngh ĩ a 1.4

Miền tin cậy của tập mờ F (định nghĩa trền X), được ký hiệu bởi T, là một tập hợp thỏa mãn

Các dạng hàm thuộc thường gặp bao gồm hàm chính tắc và lồi Bên cạnh đó, các phép toán trên tập mờ cũng được xem là phép toán trên hàm thuộc, dẫn đến các kết quả là tập mờ không chính tắc (như phép giao) và không lồi (như phép hợp).

Hàm thuộc có thể là đối xứng hoặc không đối xứng và thường được định nghĩa trên các tập cơ sở một chiều Tuy nhiên, chúng cũng có thể được áp dụng cho các tập cơ sở nhiều chiều Cụ thể, hàm thuộc trên tập cơ sở một chiều tạo thành các đường, trong khi hàm thuộc trên tập cơ sở hai chiều tạo ra các mặt Đối với các tập cơ sở từ ba chiều trở lên, hàm thuộc sẽ hình thành các mặt bậc cao, hay còn gọi là siêu diện (hypersurface).

Hàm thuộc định nghĩa trên tập cơ sở một chiều tổng quát có dạng các đường cong "trơn" hoặc tuyến tính từng đoạn Đối với hàm "trơn", biểu thức à(x) rất phức tạp, dẫn đến thời gian tính độ phụ thuộc của một phần tử lâu Trong kỹ thuật điều khiển mờ, các hàm thường có dạng này.

“trơn” thường được thay bằng hàm thuộc tuyến tính hoá từng đoạn

Hàm thuộc trong điều khiển mờ thường có dạng tuyến tính từng đoạn, với các hình dạng cơ bản như tam giác, hình thang, Z, S và phân bố Gauss.

Cá c dạng hà m liê n thuộ c cơ bả n

(a) Dạng S (b) Dạng pi(phâ n bố Gauss) (c) Dạng Z

(g-i) Dạng hình thang (k) Dạng chử nhậ t (tậ p rõ ) (l) Singleton

Hình 1.5: Các dạng hàm thuộc cơ bản

Các phép toán trên tập mờ

1.2.1 Phép h ợ p hai t ậ p m ờ Đị nh ngh ĩ a 1.5

Hợp của hai tập mờ A và B trên cùng một tập nền X tạo thành tập mờ A∪B với hàm thuộc àA∪B(x) có các tính chất quan trọng Đầu tiên, àA∪B(x) chỉ phụ thuộc vào àA(x) và àB(x) Nếu àB(x) = 0 với mọi x, thì àA∪B(x) sẽ bằng àA(x) Tính giao hoán được thể hiện qua àA∪B(x) = àB∪A(x) Tính kết hợp cũng được đảm bảo, tức là à(A∪B)∪C(x) = àA∪(B∪C)(x) Cuối cùng, nếu A1⊆A2 thì A1∪B ⊆ A2∪B, cho thấy àA∪B(x) có tính không giảm.

5 cụng thức sau đõy cú thể được sử dụng để định nghĩa hàm thuộc àA∪B(x) của phộp hợp giữa hai tập mờ:

1) àA∪B(x) = max {àA(x), àB(x)} (Luật lấy max) (1.1)

3) àA∪B(x) = min {1, àA(x) + àB(x)} (Phộp hợp Lukasiewicz) (1.3)

5) àA∪B(x) = àA(x) + àB(x) - àA(x).àB(x) (Tổng trực tiếp) (1.5)

Hàm thuộc của hợp hai tập mờ A và B có cùng không gian nền được xác định theo nhiều cách khác nhau, bao gồm luật MAX, luật Lukasiewicz và luật tổng trực tiếp Nếu một ánh xạ dạng A∪B (x): X [0,1] thỏa mãn 5 tiêu chuẩn trong định nghĩa 1.5, thì nó được xem là hợp của hai tập mờ A và B Điều này cho thấy có nhiều cách xác định hợp của hai tập mờ, dẫn đến nhiều giải pháp khác nhau cho bài toán điều khiển mờ Để tránh mâu thuẫn trong kết quả, nên thống nhất sử dụng một loại công thức cho phép hợp, với công thức max (1.1) là lựa chọn phổ biến trong điều khiển mờ.

Các công thức (1.1) đến (1.5) đã được mở rộng để xác định hợp của hai tập mờ không cùng nền Điều này được thực hiện bằng cách đưa cả hai tập mờ về chung một tập nền, là tích của hai tập nền đã cho.

Hình 1.7: Phép hợp hai tập mờ không cùng nền

Ví dụ ở Hình 1.7, cho hai tập mờ A (định nghĩa trên nền M) và B (định nghĩa trên nền N)

Hình a) cho ta hàm thuộc của A và B

Hình b) minh họa hàm thuộc của tập A và B trên nền MxN, trong đó A đại diện cho tập mờ A và B đại diện cho tập mờ B trên cùng nền MxN.

Hỡnh c) là hàm thuộc à A∪B (x,y) của hợp hai tập mờ A∪B được xỏc định theo công thức MAX (1.1) à A (x) x y à B (y)

MxN a) Hàm thuộc của hai tập mờ A và B b) Đưa hai tập mờ về chung một nền MxN c) Hợp hai tập mờ trên nền MxN a) b) c)

Hợp của hai tập mờ A và B, với hàm thuộc àA(x) trên nền M và àB(y) trên nền N, theo luật max, tạo thành một tập mờ xác định trên nền MxN Hàm thuộc của tập hợp này được xác định bởi àA∪B(x,y) = max {àA(x,y), àB(x,y)}, trong đó àA(x,y) = àA(x) với mọi y thuộc N và àB(x,y) = àB(y) với mọi x thuộc M.

H ợ p hai t ậ p m ờ theo lu ậ t sum (Lukasiewicz)

Hợp của hai tập mờ A và B, với hàm thuộc àA(x) trên nền M và àB(y) trên nền N, theo luật sum, tạo thành một tập mờ xác định trên nền MxN Hàm thuộc của hợp này được xác định là àA∪B(x,y) = min {1, àA(x,y) + àB(x,y)}, trong đó àA(x,y) = àA(x) cho mọi y∈N và àB(x,y) = àB(y) cho mọi x∈M.

1.2.2 Phép giao hai t ậ p m ờ Đị nh ngh ĩ a 1.6

Giao của hai tập mờ A và B trên tập nền X là một tập mờ được xác định với các hàm thuộc thỏa mãn các điều kiện sau: a) giá trị của A∩B (x) chỉ phụ thuộc vào A(x) và B(x); b) nếu B(x) = 1 với mọi x, thì A∩B (x) = A(x); c) A∩B(x) = B∩A(x), thể hiện tính giao hoán; d) (A∩B)∩C (x) = A∩(B∩C)(x), thể hiện tính kết hợp; e) nếu A1(x) ≤ A2(x), thì A1∩B(x) ≤ A2∩B(x), cho thấy hàm không giảm.

Bất kỳ ánh xạ nào thỏa mãn 5 tiêu chuẩn trong Định nghĩa 1.6 đều được coi là hàm thuộc của giao hai tập mờ A và B có cùng nền X Có nhiều công thức để tính hàm thuộc của phép giao A∩B (x).

3) à A∩B (x) = max{0, àA(x)+àB(x)-1} (Phộp giao Lukasiewicz) (1.8)

5) àA∩B(x) = àA(x).àB(x) (Tớch đại số) (1.10)

Tuy nhiên, luật min (1.6) và luật tích đại số (1.10) được ưa dùng hơn cả trong kỹ thuật điều khiển mờ

Việc sử dụng nhiều công thức xác định hàm thuộc của giao hai tập mờ có thể dẫn đến nhiều lời giải khác nhau cho một bài toán điều khiển mờ Để tránh mâu thuẫn trong kết quả, cần thống nhất sử dụng một loại phép giao trong các bài toán điều khiển mờ.

Hàm thuộc của giao hai tập mờ trong cùng một không gian nền được thể hiện qua ba khía cạnh: a) Hàm thuộc của hai tập mờ A và B, b) Hàm thuộc của giao hai tập mờ theo luật min, và c) Hàm thuộc của giao hai tập mờ theo luật tích đại số.

Các công thức (1.6) đến (1.10) có thể áp dụng cho hợp hai tập mờ không cùng không gian nền bằng cách chuyển đổi cả hai tập mờ về một không gian nền chung, đó là tích của hai tập nền đã cho.

Ví dụ, cũng với hai tập mờ A và B được cho ở ví dụ Hình 1.7a, phép giao của hai tập mờ A, B này được thể hiện ở Hình 1.9 sau đây

Hình 1.9: Phép giao hai tập mờ không cùng nền

Giao hai t ậ p m ờ theo lu ậ t min

Giao của hai tập mờ A và B, với hàm thuộc àA(x) trên tập nền M và hàm thuộc àB(x) trên tập nền N, tạo thành một tập mờ xác định trên tập nền MxN Hàm thuộc của tập giao này được định nghĩa là àA∩B(x,y) = min{àA(x), àB(y)} = min{àA(x,y), àB(x,y)}.

B à A∩ x MxN y trong đó: àA(x,y) = àA(x) với mọi y∈N và àB(x,y) = àB(y) với mọi x∈M

Giao hai t ậ p m ờ theo lu ậ t tích đạ i s ố

Giao của hai tập mờ A và B, với hàm thuộc àA(x) định nghĩa trên tập nền M và hàm thuộc àB(y) định nghĩa trên tập nền N, tạo thành một tập mờ xác định trên tập nền MxN Hàm thuộc của giao này được biểu diễn bởi àA∩B(x,y) = àA(x,y).àB(x,y), trong đó àA(x,y) = àA(x) cho mọi y∈N và àB(x,y) = àB(y) cho mọi x∈M.

1.2.3 Phép bù c ủ a m ộ t t ậ p m ờ Đị nh ngh ĩ a 1.7

Tập bù của tập mờ A trên nền X, ký hiệu là A c, được xác định với hàm thuộc thỏa mãn các điều kiện sau: (a) A c(x) chỉ phụ thuộc vào A(x); (b) Nếu x thuộc A, thì x không thuộc A c, tức là A(x) = 1 dẫn đến A c(x) = 0; (c) Nếu x không thuộc A, thì x thuộc A c, tức là A(x) = 0 dẫn đến A c(x) = 1; (d) Nếu A là tập con của B, thì A c là tập chứa B c, tức là A(x) ≤ B(x) dẫn đến A c(x) ≥ B c(x).

Hàm phụ thuộc vào A c (x) chỉ dựa trên A(x), vì vậy có thể coi A c (x) là hàm của A thuộc khoảng [0,1] Từ đó, chúng ta có thể định nghĩa tổng quát về phép bù mờ như sau: Định nghĩa 1.8.

Biến ngôn ngữ và giá trị của nó

Ví dụ, đại lượng tốc độ của một chiếc ôtô có giá trị được nhắc đến dưới dạng ngôn ngữ như sau:

Giá trị ngôn ngữ của biến tốc độ được xác định thông qua một tập mờ, trong đó tập nền bao gồm các số thực dương đại diện cho giá trị vật lý của tốc độ v, với đơn vị là km/h, như 40 km/h, 50 km/h, và các giá trị khác.

Hình 1.11: Mô tả các giá trị ngôn ngữ bằng tập mờ Hàm thuộc tương ứng của chúng được ký hiệu bằng: àrất chậm(x), àchậm(x), àtrung bỡnh(x), ànhanh(x), àrất nhanh(x)

Như vậy, biến tốc độ có hai miền giá trị khác nhau:

- Miền các giá trị ngôn ngữ

N = {rất chậm, chậm, trung bình, nhanh, rất nhanh}

- Miền các giá trị vật lý (miền các giá trị rõ)

Và mỗi giá trị ngôn ngữ (mỗi phần tử của N) lại được mô tả bằng một tập mờ có tập nền là miền các giá trị vật lý V

Biến tốc độ v, xác định trên miền các giá trị ngôn ngữ N, được gọi là biến ngôn ngữ Mỗi giá trị vật lý x∈V có thể được biểu diễn bằng một vector, bao gồm các độ phụ thuộc của x.

) ( x x x x x x nhanh raát nhanh bình trung chậm chậm raát à à à à à à a (1.12) rất chậm chậm trung bình nhanh rất nhanh

Quá trình Fuzzy hóa, hay còn gọi là mờ hóa, là quá trình chuyển đổi giá trị rõ x, như trong ví dụ giá trị vật lý x = 40km/h (giá trị rõ) của biến tốc độ, thành kết quả mờ hóa tương ứng.

, /ha km hoặc của x = 72,5km/h là:

Luật hợp thành mờ

Biến ngôn ngữ, như biến v thể hiện tốc độ xe, được xác định qua tập hợp các giá trị mờ Dù cùng chỉ tốc độ, biến v có hai dạng thể hiện khác nhau.

- là biến vật lý với các giá trị rõ như v = 40km/h ,… (miền xác định là tập kinh điển)

- là biến ngôn ngữ với các giá trị mờ như: rất chậm, chậm, … (miền xác định là tập các tập mờ)

Cho hai biến ngụn ngữ χ và γ Nếu biến χ nhận giỏ trị mờ A với hàm thuộc àA(x) và γ nhận giỏ trị mờ B cú hàm thuộc àA(y) thỡ mệnh đề:

Nếu χ = A thì γ = B, với àA(x) ⇒ àA(y) và àA, àB ∈ [0,1], được gọi là mệnh đề hợp thành Trong đó, χ = A là mệnh đề điều kiện và γ = B là mệnh đề kết luận Đây là khái niệm cơ bản trong suy diễn đơn thuần.

Giá trị của mệnh đề hợp thành mờ (1.13) là một tập mờ định nghĩa trên không gian nền Y của B, với hàm thuộc àA⇒B(y): Y → [0,1] Hàm này thỏa mãn các điều kiện sau: a) àA⇒B(y) chỉ phụ thuộc vào àA(x) và àB(y); b) nếu àA(x) = 0 thì àA⇒B(y) = 1; c) nếu àB(y) = 1 thì àA⇒B(y) = 1; d) nếu àA(x) = 1 và àB(y) = 0 thì àA⇒B(y) = 0; e) nếu àA 1 (x) ≤ àA 2 (x) thì àA 1 ⇒ B(y) ≥ àA 2 ⇒ B(y); f) nếu àB 1 (x) ≤ àB 2 (x) thì àA ⇒ B 1 (y) ≤ àA ⇒ B 2 (y).

Các hàm thuộc cho mệnh đề hợp thành mờ A⇒B thường hay dùng bao gồm:

1) àA⇒B(x,y) = max{min{àA(x), àB(y)}, 1-àA(x)}, cụng thức Zadeh

2) àA⇒B(x,y) = min{1, 1 - àA(x) + àB(y)}, cụng thức Lukasiewicz

3) àA⇒B(x,y) = max{1 - àA(x), àB(y)}, cụng thức Kleene-Dienes

Theo Định nghĩa 1.9, có một nghịch lý khi mệnh đề điều kiện χ = A không được thỏa mãn (tức là A(x) = 0), nhưng mệnh đề kết luận γ = B lại có độ thỏa mãn cao nhất (B(y) = 1) Để giải quyết vấn đề này, Mamdani đã đề xuất một nguyên tắc.

“Độ phụ thuộc của kết luận không được lớn hơn độ phụ thuộc của điều kiện” à A (x) ≥ àA⇒B(y)

Ta xem àA⇒B(y) như là một hàm của hai biến àA và àB, tức là: àA⇒B(y) = à(àA, àB) Đị nh ngh ĩ a 1.10 (Phép suy diễn mờ)

Giá trị của mệnh đề hợp thành mờ (1.13) được xác định là một tập mờ B’ trên nền Y, với hàm thuộc à(àA, àB): [0,1]² → [0,1] Hàm này thỏa mãn các điều kiện sau: a) àA ≥ à(àA, àB) cho mọi àA, àB thuộc [0,1]; b) à(àA, 0) = 0 cho mọi àA thuộc [0,1]; c) nếu à A 1 ≤ à A 2 thì à(à A 1, à B) ≤ à(à A 2, à B); d) nếu à B 1 ≤ à B 2 thì à(à A, à B 1) ≤ à(à A, à B 2).

Từ đó ta có một trong số các công thức xác định hàm thuộc cho mệnh đề hợp thành B’ = A⇒B là:

1) à(àA, àB) = min{àA, àB}

Quy tắc hợp thành MIN

Giá trị của mệnh đề hợp thành mờ (1.13) là một tập mờ B’ định nghĩa trên nền Y (không gian nền của B) và có hàm thuộc: à B’ (y) = min{àA, àB(y)}

Quy tắc hợp thành PROD

Giá trị của mệnh đề hợp thành mờ (1.13) là một tập mờ B’ được định nghĩa trên không gian nền Y của B, với hàm thuộc à B’ (y) = àA.àB(y) Hàm à B’ (y) chỉ được xác định khi có giá trị cụ thể của à A, cho thấy rằng à B’ (y) phụ thuộc vào giá trị rõ x0 ở đầu vào.

Nếu hàm thuộc àB’(y) của B’ được xây dựng theo quy tắc MIN, thì nó được gọi là mệnh đề hợp thành MIN Ngược lại, nếu hàm thuộc àB’(y) của B’ được tạo ra theo quy tắc PROD, thì mệnh đề hợp thành sẽ được gọi là mệnh đề hợp thành PROD.

Hình 1.12 trình bày cách xác định hàm thuộc của mệnh đề hợp thành Cụ thể, hàm thuộc àchậm(x) và àtăng(y) được xác định theo quy tắc hợp thành MIN, trong khi à B’(y) cũng có thể được xác định theo quy tắc hợp thành PROD.

Ký hiệu giá trị mờ đầu ra B’ tương ứng với giá trị rõ x0 tại đầu vào, hàm thuộc B’ với quy tắc hợp thành MIN được xác định là: B’(y) = min{A(x0), B(y)}.

Độ thỏa mãn mệnh đề điều kiện được biểu diễn bằng H = àA(x0), trong đó sự thay đổi giữa các biến x và y thể hiện mối quan hệ giữa chúng Cụ thể, khi x chậm lại, y sẽ tăng lên, và ngược lại Đối với hàm thuộc của B’, ta có công thức B’(y) = min{H, àB(y)} Theo quy tắc hợp thành PROD, hàm thuộc của B’ được xác định là B’(y) = àA(x0).àB(y) = H.àB(y).

Hình 1.13: Mô tả độ thỏa mãn a) Giá trị đầu vào rõ b) Giá trị đầu vào mờ

Trong trường hợp tín hiệu đầu vào A' là một giá trị mờ với hàm thuộc A'(x), đầu ra B' cũng là một giá trị mờ có hàm thuộc B'(x) B là phần dưới của hàm B(x) bị chặn trên bởi độ thỏa mãn H, được xác định theo nguyên tắc tình huống xấu nhất.

Hàm thuộc A⇒B(y) trong ví dụ trên với giá trị vật lý x = x0 có tập nền cố định với A tăng (y) Tổng quát, hàm thuộc A⇒B(y) của mệnh đề hợp thành A⇒B sẽ được ký hiệu ngắn gọn là R Tại giá trị x = x0, R là một hàm thuộc cho một giá trị mờ nào đó của biến ngôn ngữ γ.

Luật hợp thành là mô hình R, đại diện cho một hoặc nhiều hàm thuộc về nhiều mệnh đề hợp thành Nó được hiểu là tập hợp các mệnh đề hợp thành, trong đó một luật hợp thành chỉ có một mệnh đề được gọi là luật hợp thành đơn Ngược lại, nếu có nhiều hơn một mệnh đề, thì luật hợp thành sẽ bao gồm các mệnh đề như A(x), A’(x) và A(x).

H H x x x 0 a) b) hợp thành thì nó được gọi là luật hợp thành kép Phần lớn các hệ mờ trong thực tế đều có mô hình của luật hợp thành kép

Xét ví dụ về luật hợp thành R biểu diễn mô hình lái ôtô gồm 3 mệnh đề hợp thành

R1, R2, R3 cho biến tốc độ γ và biến ga χ như sau:

R1: Nếu γ = chậm thì χ = tăng, hoặc

R2: Nếu γ = trung bình thì χ = giữ nguyên, hoặc

Với mỗi giá trị vật lý x0 của biến tốc độ đầu vào, thông qua phép suy diễn mờ, chúng ta có thể tạo ra ba tập mờ B1', B2', và B3' từ ba mệnh đề hợp thành R1, R2, R3 của luật hợp thành.

R Lần lượt ta gọi các hàm thuộc của ba tập mờ kết quả đó là B ' ( y ) à 1 , B ' ( y ) à 2 , B ' ( y ) à 3 Giá trị của luật hợp thành R ứng với x0 được hiểu là tập mờ R ’ thu được qua phép hợp ba tập mờB 1 ' ,B 2 ' và B 3 '

Giải mờ

Bộ điều khiển mờ, dù sử dụng một hoặc nhiều luật điều khiển, vẫn chưa thể áp dụng để điều khiển đối tượng nếu chưa trải qua quá trình giải mờ, vì đầu ra chỉ là một giá trị mờ B’ Để bộ điều khiển mờ hoạt động hiệu quả, cần có thêm bước giải mờ nhằm làm rõ tập mờ đầu ra B’.

Giải mờ là quá trình xác định giá trị rõ y’ từ hàm thuộc à B’(y) của giỏ trị mờ B’ (tõp mờ) Hai phương pháp chính để thực hiện giải mờ là phương pháp cực đại và phương pháp điểm trọng tâm.

1.5.1 Ph ươ ng pháp c ự c đạ i

Theo tư tưởng rằng giá trị rõ y’ đại diện cho tập mờ, giá trị này phải có xác suất thuộc tập mờ lớn nhất Phương pháp cực đại để giải mờ bao gồm hai bước: đầu tiên, xác định miền chứa giá trị rõ y’ Giá trị rõ y’ là điểm mà tại đó hàm thuộc đạt giá trị cực đại, tương ứng với độ cao H của tập mờ B’.

G = {y∈Y| àB’(y) = H} b) Xác định y’ có thể chấp nhận được từ G

Trong ví dụ ở Hình 1.19 thì G là khoảng [y1, y2] của miền giá trị của tập mờ đầu ra

Trong hai luật R1 và R2, luật R2 được xác định là luật quyết định Luật điều khiển quyết định, ký hiệu là Rk với k thuộc tập {1, 2, …, p}, có giá trị mờ đầu ra cao nhất, tương ứng với độ cao H của B’.

Hình 1.19: Giải mờ bằng phương pháp cực đại Để thực hiện bước hai có ba nguyên lý:

- nguyên lý cận trái và

2 = (1.29) thì y1 chính là điểm cận trái và y2 là cận phải của G

Theo nguyên lý trung bình, giá trị rõ y’ sẽ là:

Nguyên lý (1.30) thường áp dụng khi G là một miền liên thông, dẫn đến y’ trở thành giá trị có độ phụ thuộc lớn nhất Trong trường hợp B’ bao gồm các hàm đồng dạng, giá trị y’ (1.30) không bị ảnh hưởng bởi độ thỏa mãn của luật điều khiển quyết định (Hình 1.20) và do đó B’ (y) vẫn giữ nguyên.

Hình 1.20: Giá trị rõ y’ không phụ thuộc vào đáp ứng vào của luật điều khiển quyết định

Hình 1.21: Giá trị rõ y’ phụ thuộc tuyến tính với đáp ứng vào của luật điều khiển quyết định

Giá trị rõ y’ được xác định từ cận trái y1 của G theo công thức (1.29) Việc xác định giá trị rõ này dựa vào nguyên lý cận trái sẽ phụ thuộc một cách tuyến tính vào mức độ thỏa mãn của luật điều khiển quyết định.

Giá trị rõ y’ được xác định từ cận phải y2 của G theo (1.29), tương tự như nguyên lý cận trái Giá trị rõ y’ phụ thuộc tuyến tính vào đáp ứng của luật điều khiển quyết định.

Khi G không phải là một miền liên thông, thường sẽ chọn một khoảng con liên thông trong G, chẳng hạn như G1 (Hình 1.23), làm khoảng liên thông ưu tiên cao nhất Sau đó, một trong ba nguyên lý đã biết sẽ được áp dụng cho miền G1 thay vì G.

Hình 1.22: Giá trị rõ y’ phụ thuộc tuyến tính vào độ thỏa mãn

Hình 1.23: Hàm thuộc của B’ có miền

Trong các ví dụ từ hình 1.19 đến hình 1.23, tập mờ B’ được tạo ra bằng quy tắc max-MIN Đối với luật hợp thành max-PROD, miền G chỉ có một điểm duy nhất, dẫn đến cả ba nguyên lý trung bình, cận trái và cận phải đều cho ra kết quả giống nhau.

1.5.2 Ph ươ ng pháp di ể m tr ọ ng tâm

Phương pháp điểm trọng tâm sẽ cho ra kết quả y’ là hoành độ của điểm trọng tâm miền được bao bởi trục hoành và đường àB’(y) (Hỡnh 1.24)

Công thức xác định y’ theo phương pháp điểm trọng tâm như sau:

, trong đó S là miền xác định của tập mờ B’ (1.31)

Công thức (1.31) cho phép xác định giá trị y’ với sự tham gia đồng đều của tất cả các tập mờ đầu ra từ mọi luật điều khiển, tuy nhiên không xem xét độ thỏa mãn của luật điều khiển và thời gian tính toán lâu Một nhược điểm chính của phương pháp điểm trọng tâm là giá trị y’ có thể phụ thuộc rất ít, thậm chí bằng 0 Để khắc phục tình trạng này, khi định nghĩa hàm thuộc cho từng giá trị mờ của biến ngôn ngữ, cần đảm bảo rằng miền xác định của các giá trị mờ đầu ra là một miền liên thông.

Hình 1.24: Giá trị rõ y’ là hoành độ của điểm trọng tâm

Hình 1.25: Xác định y’ theo phương pháp điểm trọng tâm khi miền giá trị tập mờ không liên thông

Ph ươ ng pháp đ i ể m tr ọ ng tâm cho lu ậ t h ợ p thành sum-MIN

Khi triển khai q luật điều khiển, mỗi giá trị mờ B’ tại đầu ra của bộ điều khiển sẽ là tổng của q giá trị mờ đầu ra từ từng luật Các giá trị mờ đầu ra của luật điều khiển thứ k được ký hiệu là ' (y).

B k à với k=1, 2, …, q thỡ với qua tắc sum-MIN, hàm thuộc à B ' (y) sẽ là:

Thay (1.32) vào (1.31), sau đó đổi chỗ của tổng và tích phân cho nhau thì công thức y’ sẽ được đơn giản như sau:

Hình 1.26: Tập mờ có hàm thuộc hình thang

Xét riêng cho các hàm thuộc ' ( y )

B k à dạng hỡnh thang như trong hỡnh 1.26 thỡ:

Ph ươ ng pháp độ cao

Sử dụng công thức (1.33) cho cả hai loại luật hợp thành max-MIN và sum-MIN với thêm một giả thiết là mỗi tập mờ ' ( y )

B k à được xấp xỉ bằng một cặp giỏ trị (yk, Hk) duy nhất, trong đó Hk là độ cao của ' ( y )

B k à và yk là một điểm mẫu trong miền giỏ trị của ' ( y )

Công thức xấp xỉ y’ (1.36) theo phương pháp độ cao không chỉ áp dụng cho luật hợp thành max-MIN và sum-MIN, mà còn có thể được sử dụng cho các luật hợp thành khác như max-PROD và sum-PROD.

TỔNG QUAN VỀ MẠNG NƠRON NHÂN TẠO

Mạng nơron nhân tạo là gì?

Mạng nơron nhân tạo (ANN: Artificial Neural Network) là mạng được xây dựng bằng cách mô phỏng nguyên lý làm việc của con người

Hệ nơron con người gồm nhiều lớp: lớp vào, các lớp ẩn và lớp ra

Hệ thống được cấu trúc với lớp vào kết nối với các cảm biến như mũi, miệng, mắt, tai và da, trong khi lớp ra kết nối với các phần tử cơ như tay và chân Các lớp ẩn nằm giữa lớp vào và lớp ra, đóng vai trò quan trọng trong việc xử lý thông tin Khi cảm biến phát hiện đối tượng, tín hiệu được gửi đến lớp vào và các lớp ẩn để tính toán, sau đó quyết định được truyền đến lớp ra để điều khiển các phần tử cơ Quá trình này, từ khi phát hiện đối tượng đến khi đưa ra quyết định, được gọi là huấn luyện hay quá trình học Cường độ kết nối giữa các nơron sẽ gia tăng trong thời gian hệ tiếp xúc với đối tượng, theo quy luật học Trong trường hợp chẩn đoán sai, hệ thống có khả năng tự điều chỉnh bằng cách cập nhật hệ số trọng lượng kết nối giữa các nơron, nhằm đạt được chẩn đoán chính xác hơn.

Hình 2.1: Cấu trúc cơ bản của một nơron sinh học

Hình trên cho thấy cấu trúc cơ bản của một nơron sinh học Nó bao gồm: thân nơron, các ngõ vào Dendrite và ngõ ra Axon

Thân n ơ ron có nhiệm vụ tổng hợp tất cả các thông tin từ các ngõ vào Dendrite, tính toán và gởi quyết định đến ngõ ra Axon

Synapse là đường liên kết giữa ngõ vào của nơron này với ngõ ra của nơron khác

Tín hiệu Synapse là tín hiệu điện áp

• Nếu điện áp dương thì tín hiệu là kích thích

• Nếu điện áp âm thì tín hiệu là ức chế

Nếu điện áp bằng zero, không có kết nối giữa hai nơron McCulloch và Pitts đã đưa ra ý tưởng đầu tiên vào năm 1943 về việc xây dựng một mạng nơron nhân tạo tương tự như hệ nơron con người, với cấu trúc cơ bản của một nơron trong mô hình mạng nơron nhân tạo.

Hình 2.2: Cấu trúc cơ bản của một nơron nhân tạo thứ i

Đầu ra của nơron thứ j (xj) hoặc đầu vào từ môi trường bên ngoài được xác định bởi hệ số trọng lượng kết nối (wij) giữa nơron thứ i và nơron thứ j Giá trị ngưỡng của nơron thứ i là θi, và đầu ra của nơron thứ i là yi Đầu ra yi có thể là 1 hoặc 0, tùy thuộc vào việc tổng các trọng lượng đầu vào có cao hơn hoặc thấp hơn giá trị ngưỡng θi Mô hình toán đơn giản cho đầu ra yi của nơron thứ i được định nghĩa như sau.

In the processing element i, the function f(.) serves as a synthesis function that aggregates all the information from the inputs of neuron i, which is described by a linear function.

(2.2) và hàm tác động a(f) là hàm bậc thang đơn vị:

Khi đó, đầu ra yi(t+1) = a(fi)

Hệ số trọng lượng \( w_{ij} \) thể hiện mức độ kết nối giữa nơron nguồn j và nơron đích i Hệ số trọng lượng dương cho thấy tín hiệu kích thích được truyền, trong khi hệ số âm chỉ ra tín hiệu ức chế Nếu \( w_{ij} = 0 \), nghĩa là không có kết nối giữa hai nơron.

Các mô hình cơ bản và các luật học của mạng nơron nhân tạo

Có ba thành phần cơ bản đó là: đơn vị xử lí, mô hình kết nối và luật học

Mạng có nhiều lớp: lớp vào, các lớp ẩn và lớp ra

Lớp vào phục vụ như nơi chứa các tín hiệu vào

Các nơron trong lớp ẩn và lớp ra hoạt động như các đơn vị xử lý thông tin Mỗi nơron bao gồm hai phần chính: phần vào và phần ra Phần vào liên quan đến hàm tổng hợp f, trong khi đầu ra được xác định bởi hàm tác động a.

Hàm tổng hợp có chức năng thu thập tất cả thông tin từ các đầu vào của từng đơn vị xử lý Các hàm này có thể ở dạng tuyến tính hoặc phi tuyến, nhưng hàm tuyến tính thường được ưa chuộng hơn trong thực tế.

• Hàm tổng hợp dạng tuyến tính:

• Hàm tổng hợp dạng phi tuyến: i m j j ij i w x f = ∑ − θ

2 ( ) θ ρ (2.6) trong đó ρ và wij là bán kính và tâm của hình cầu

Hàm tác độ ng: có nhiệm vụ tạo tín hiệu ra cho mỗi đơn vị xử lí Hàm có thể là phi tuyến hoặc tuyến tính

• Hàm bậc thang đơn vị:

• Hàm ngưỡng hay còn gọi là hàm dấu:

Hình dạng của các hàm được trình bày trong hình 2.3 cho thấy khi λ → ∞, phương trình (2.10) tiến đến phương trình (2.7) và phương trình (2.11) tiến đến phương trình (2.8) Nơron nhân tạo với hàm tổng hợp dạng tuyến tính và hàm tác động dạng ngưỡng (2.8) được gọi là nơron tuyến tính có ngưỡng (LTU: linear threshold unit) Trong khi đó, nơron nhân tạo với hàm tổng hợp dạng tuyến tính và hàm tác động dạng (2.10) hoặc (2.11) được gọi là LGU (linear graded unit) LTU và LGU là những mô hình nơron nhân tạo phổ biến nhất trong nghiên cứu và ứng dụng.

Hình 2.3: Hàm tác động mẫu

(a) Hàm bậc thang (b) Hàm ngưỡng (c) Hàm Ramp

(d) Hàm sigmoid đơn cực (e) Hàm sigmoid lưỡng cực

Mô hình kết nối, hay cấu trúc của mạng, bao gồm hai loại cơ bản: mô hình mạng truyền thẳng (feedforward) và mô hình mạng hồi tiếp.

Mô hình k ế t n ố i m ạ ng truy ề n th ẳ ng

Mạng truyền thẳng (FeedForward network) là mạng mà được xây dựng bằng cách đầu ra của nơron đứng trước là đầu vào của nơron đứng sau nó

M ạ ng truy ề n th ẳ ng m ộ t l ớ p gồm các nơron đầu vào từ môi trường bên ngoài, lớp các nơron đầu ra, và không có lớp nơron ẩn x 1 x 2 x m y 1 y 2 y m

Hình 2.4: Mô hình kết nối mạng truyền thẳng một lớp

M ạ ng truy ề n th ẳ ng nhi ề u l ớ p có lớp các nơron đầu vào, các lớp nơron ẩn, và các lớp nơron đầu ra y 1 y 2 y n x 1 x 2 x m

Hình 2.5: Mô hình mạng nơron truyền thẳng nhiều lớp

Mạng hồi tiếp (FeedBack Network) là loại mạng mà trong đó các đầu ra được sử dụng làm đầu vào cho các nơron trong cùng một lớp hoặc lớp trước đó Nếu các đầu ra của lớp nơron đầu ra được đưa trở lại làm đầu vào cho các nơron của lớp đầu vào, thì mạng đó được gọi là mạng hồi tiếp (Recurrent Network).

Mạng hồi tiếp một lớp bao gồm lớp nơron đầu vào và lớp nơron đầu ra, không có lớp nơron ẩn nào Mạng này nhận các đầu vào từ môi trường bên ngoài và các đầu ra thực sự của mạng chính là các đầu vào của nó.

Hình 2.6: Mô hình mạng hồi tiếp một lớp

Mạng hồi tiếp bao gồm nhiều lớp, trong đó có lớp nơron đầu vào, ít nhất một lớp nơron ẩn và lớp nơron đầu ra Mạng nhận đầu vào từ môi trường bên ngoài và thông qua quá trình huấn luyện, các đầu ra của lớp nơron đầu tiên trở thành đầu vào cho mạng.

Hình 2.7: Mô hình mạng hồi tiếp nhiều lớp

Thành phần quan trọng thứ ba trong mạng nơron nhân tạo là các luật học, bao gồm hai kiểu chính: học tham số và học cấu trúc Học tham số tập trung vào việc cập nhật trọng số kết nối giữa các nơron, trong khi học cấu trúc liên quan đến việc thay đổi cấu trúc mạng, như số lượng phần tử xử lý và mô hình kết nối Cả hai kiểu học này có thể được thực hiện đồng thời hoặc riêng lẻ, nhưng bài viết sẽ tập trung vào các luật học tham số, vì phần lớn các luật học hiện có đều ở dạng này.

Trong một mạng nơron nhân tạo, giả sử có n phần tử xử lý, mỗi phần tử này có m hệ số trọng lượng thích nghi Ma trận hệ số trọng lượng W được định nghĩa để biểu diễn các trọng số này.

Trong đó, \( w_i = (w_{i1}, w_{i2}, \ldots, w_{im})^T \) với \( i = 1, 2, \ldots, n \) là vectơ hệ số trọng lượng của phần tử xử lý thứ i, và \( w_{ij} \) là hệ số trọng lượng kết nối giữa phần tử xử lý thứ j (nguồn) và phần tử xử lý thứ i (đích).

Ma trận hệ số trọng lượng W chứa các phần tử thích nghi của mạng nơron, và tập hợp tất cả các ma trận W có thể xác định các cấu hình xử lý thông tin của mạng Điều quan trọng là tìm ra ma trận trọng số thực sự của mạng để xấp xỉ với ma trận mong muốn.

W Để làm được việc này, luật học thông số tổng quát được phát triển nhằm cập nhật ma trận hệ số trọng lượng sao cho có được một ma trận hệ số trọng lượng thực sự của mạng xấp xỉ với ma trận trọng lượng mong muốn của mạng Một cách tổng quát, các luật học tham số có thể chia ra làm ba loại: học đó là học giám sát, học củng cố, và học không giám sát

Học giám sát (supervised learning) là phương pháp trong đó mỗi tín hiệu đầu vào được đưa vào mạng nơron cùng với đầu ra mong muốn Mạng nơron nhận các cặp giá trị mẫu vào-ra như (x(1), d(1)), (x(2), d(2)), , (x(k), d(k)) Khi giá trị đầu vào x(k) được đưa vào mạng, đầu ra mong muốn d(k) cũng được cung cấp Sự sai lệch giữa đầu ra thực tế y(k) và đầu ra mong muốn d(k) được giám sát qua tín hiệu sai số, giúp điều chỉnh các trọng số kết nối trong mạng nơron, từ đó cải thiện độ chính xác của đầu ra thực tế.

Hình 2.8: Mô hình luật học giám sát

Học củng cố (reinforcement learning) khác với học giám sát, ở chỗ không cần biết trước giá trị đầu ra mong muốn cho mỗi mẫu đầu vào Trong một số tình huống, thông tin chi tiết về đầu ra có thể không sẵn có, tạo ra thách thức trong quá trình học.

Trong học củng cố, mạng chỉ có thể xác định giá trị đầu ra hiện tại là “quá cao” hoặc “đúng 50%”, cung cấp một bit thông tin hồi tiếp để đánh giá tính chính xác của đầu ra Thông tin hồi tiếp này được gọi là tín hiệu củng cố.

MẠNG NƠRON MỜ

So sánh giữa mạng nơron và hệ mờ

3.1.1 S ự gi ố ng nhau gi ữ a m ạ ng n ơ ron và h ệ m ờ

Hệ mờ và mạng nơron đều là những hệ động và bộ xấp xỉ số không cần mô hình, kết hợp khả năng của nhau để nâng cao sự thông minh trong môi trường không chắc chắn và nhiễu Chúng xấp xỉ hàm mẫu và xử lý như bộ nhớ phối hợp mà không cần mô tả toán học quan hệ input-output, học từ ví dụ bằng số Cả hai phương pháp này đều mang tính số, có thể xử lý bằng công cụ toán học và mô tả một phần bằng định lý, điều này tạo nên sự khác biệt so với phương pháp xử lý ký hiệu trong trí tuệ nhân tạo.

3.1.2 S ự khác nhau gi ữ a m ạ ng n ơ ron và h ệ m ờ

Hệ mờ và mạng nơron khác nhau trong cách xấp xỉ hàm mẫu, cũng như trong việc đại diện, chứa mẫu và giải mã tri thức Chúng có những phương pháp khác nhau để suy diễn và ánh xạ từ input đến output.

Mạng nơron sở hữu nhiều nút liên kết chặt chẽ, cho thấy khả năng học hỏi và khái quát hóa từ dữ liệu huấn luyện Ngược lại, hệ mờ đưa ra quyết định dựa trên đầu vào dưới dạng biến ngôn ngữ, sử dụng các hàm đặc trưng để xác định tập mờ và mức độ phụ thuộc trong đó Biến ngôn ngữ này sau đó kết hợp với các quy tắc IF-THEN, và phản hồi từ mỗi quy tắc được tạo ra thông qua suy diễn mờ.

Hệ mờ xấp xỉ hàm với mẫu là tập mờ (Ai, Bi) còn mạng neuron dùng mẫu là điểm số (xi, yi).

Mạng nơron là hệ thống có khả năng học hỏi, chấp nhận nhiễu và khái quát hóa, nhưng không thể giải mã tri thức cấu trúc trực tiếp Trong khi đó, hệ mờ có thể giải mã tri thức cấu trúc thông qua phương pháp số linh hoạt, xử lý dữ liệu tương tự như mạng nơron nhưng đơn giản hơn trong việc thiết kế và huấn luyện Tuy nhiên, hệ mờ cũng gặp khó khăn trong việc xác định luật logic mờ và hàm đặc trưng.

Giải thuật tính toán ở mức thấp của mạng nơron mang lại hiệu suất cao trong việc nhận diện và điều khiển mẫu dựa trên dữ liệu cảm nhận Ngược lại, logic mờ cung cấp một khung cấu trúc để tận dụng và phát huy các khả năng này của mạng nơron.

Sự kết hợp giữa các hệ mờ và mạng nơron

Việc kết hợp kỹ thuật mạng nơron và logic mờ mang lại nhiều lợi ích, với mạng nơron cung cấp cấu trúc tính toán mạnh mẽ có khả năng chấp nhận nhiễu và học hỏi từ dữ liệu, trong khi các hệ logic mờ bổ sung cơ chế suy diễn dựa trên các quy tắc IF…THEN Sự kết hợp này tạo ra các hệ thống tiên tiến như hệ mờ nơron, mạng nơron mờ và các hệ lai, mở ra nhiều cơ hội ứng dụng trong các lĩnh vực khác nhau.

Các hệ mờ và mạng nơron là những hệ thống động, cho phép xử lý thông tin không chắc chắn và bị nhiễu mà không cần dựa vào mô hình cụ thể Những đặc điểm này khác biệt rõ rệt so với các phương pháp truyền thống trong trí tuệ nhân tạo, vốn dựa trên xử lý ký hiệu.

Hai cách tiếp cận này có những điểm khác biệt rõ rệt, bao gồm cách xấp xỉ các hàm mẫu, cách biểu diễn và lưu giữ mẫu, cũng như phương pháp mã hóa tri thức Ngoài ra, chúng còn khác nhau trong cách suy diễn và ánh xạ dữ liệu vào và ra.

Mạng nơron là một hệ thống linh hoạt với nhiều đơn vị xử lý liên kết chặt chẽ, cho phép học và tổng quát hóa dữ liệu từ mẫu học Trong khi đó, các hệ mờ đưa ra kết luận từ thông tin đầu vào dưới dạng biến ngôn ngữ, sử dụng hàm thuộc tương ứng với các biến này và đối sánh với mệnh đề của luật mờ để tính toán hàm thuộc cho biến ra, từ đó tạo ra kết quả phù hợp Các hệ mờ có khả năng xấp xỉ các hàm dựa trên tập mờ, trong khi mạng nơron sử dụng các mẫu học với giá trị số đơn lẻ Mặc dù mạng nơron có khả năng học, nhưng chúng không mã hóa trực tiếp tri thức có cấu trúc như các hệ mờ.

Hai cách tiếp cận này bổ sung cho nhau, với mạng nơron cung cấp các thuật toán tính toán cơ bản để trích xuất thông tin từ các hệ thống điều khiển Đồng thời, các hệ mờ tận dụng khả năng của mạng nơron, cho phép chuyển giao khả năng tính toán và học tập từ mạng nơron sang hệ mờ Ngược lại, khả năng suy diễn dựa trên luật if then của các hệ mờ cũng có thể được tích hợp vào mạng nơron, tạo ra sự kết hợp mạnh mẽ giữa hai công nghệ này.

Có thể kể ra 3 hướng chính khi kết hợp mạng nơron và hệ mờ

• Các hệ mờ nơron (neural fuzzy systems): sử dụng các mạng nơron như là công cụ trong các mô hình mờ

• Các mạng nơron mờ (fuzzy neural networks): mờ hóa các mô hình mạng nơron truyền thống

• Các hệ lai (fuzzy-neural hybrid systems): kết hợp các kỹ thuật mờ và mạng nơron vào các hệ lai.

Các hệ mờ dựa trên mạng nơron (NN – based fuzzy systems)

3.3.1 Dùng m ạ ng n ơ ron để th ự c hi ệ n các phép toán m ờ c ơ b ả n

Ta chứng tỏ rằng mạng nơron có thể dùng để thể hiện các hàm thuộc và các phép toán logic mờ đơn giản như AND, OR, NOT

Các hàm kích hoạt chính quy như tam giác và hình chuông có thể được biểu diễn bằng một nơron duy nhất Trong những trường hợp khác, nơron với hàm kích hoạt Sigmoid cũng có thể được sử dụng Ví dụ, để biểu diễn ba tập mờ tương ứng với các giá trị ngôn ngữ "nhỏ" (S), "trung bình" (M) và "lớn" (L), ta có thể áp dụng mạng nơron phù hợp.

Mạng nơron có khả năng thực hiện các hàm thuộc đơn giản, với cấu trúc mạng nơron được minh họa trong hình 3.1a Hình 3.1b cho thấy hàm thuộc được thực hiện bởi mạng nơron, trong khi hình 3.1c mô tả sự hợp thành của hàm thuộc àM(x) từ hai hàm sigmoid.

Các nơron © chỉ làm nhiệm vụ cộng các tín hiệu vào, còn các nơron ® dùng hàm kích hoạt Sigmoid Do vậy:

1 à (3.1) chính là độ phụ thuộc của x vào tập mờ “nhỏ”

Để thực hiện các phép toán mờ bằng nơron một cách dễ hiểu, bạn có thể sử dụng hàm nơron như là một phép toán logic mờ mong muốn Chẳng hạn, hàm tác động của nơron được sử dụng là hàm min cho phép toán mờ AND và hàm max cho phép toán mờ OR.

Chúng ta có thể sử dụng một nơron để thực hiện phép toán NOT mờ, nhưng trong một số trường hợp, đặc biệt là trong giáo dục, cần có khả năng khác nhau của các hàm tác động của nơron Do đó, chúng ta có thể định nghĩa nhiều hàm khác nhau để thay thế hoặc xấp xỉ một phép toán logic mờ mà không làm sai lệch kết quả Ví dụ, hàm softmin có thể được sử dụng để thay thế hàm min truyền thống.

(a∧b) = softmin (a,b) = ka a b kb e e be ae

Một phương pháp khác để thực hiện các phép toán logic cơ bản với mạng nơron là sử dụng nơron OWA (ordered weighted averaging) do Yager đề xuất Nơron OWA thực hiện phép toán được định nghĩa qua ánh xạ f:I n → I, với I là khoảng thời gian đơn vị Toán tử OWA n chiều liên quan đến vectơ trọng số v = (v1, v2, …, vn) T, trong đó vi∈[0,1] và tổng các vi bằng 1 Công thức f(a1, a2, …, an) = v1b1 + v2b2 + … + vnbn, trong đó bi là phần tử lớn nhất thứ i trong các phần tử a1, a2, …, an Ví dụ, nếu f là một toán tử OWA với kích thước n = 4 và v = (0.2, 0.3, 0.1, 0.4) T.

3.3.2 Suy di ễ n m ờ d ự a trên m ạ ng n ơ ron

Keller (1992) đã giới thiệu mô hình mạng nơron truyền thẳng nhiều lớp nhằm thực hiện phép suy luận mờ, được gọi là mạng suy luận mờ Mỗi cấu trúc mạng cơ bản trong mô hình này thực hiện một luật đơn trong các luật cơ sở.

Nếu X1 = A1 và X2 = A2 và … và Xn = An thì Y = B (3.4)

Các tập mờ mà mô tả khả năng phân bố các sự kiện, X1 = A 1 ' , …, Xn = A n ' , được đặc ở ngõ vào của mạng Tập mờ A i ' được biểu thị như sau:

A 1 = 1 2 (3.5) ở đây, ' , ' , , ' im i i i a a a 1 2 là mức độ phụ thuộc của tập mờ A i ' tại các điểm mẫu trong miền liên tục của nó

Hình 3.2: Mạng suy luận mờ

Có hai biến thể trong hoạt động của lớp kiểm tra mệnh đề điều kiện (lớp ẩn đầu tiên) Mỗi mệnh đề điều kiện của luật hợp thành sẽ xác định các trọng số Trong biến thể một, trọng số wij được xác định là phần bù mờ của mệnh đề điều kiện, với công thức w_ij = 1 - a_ij Mệnh đề “Xi = Ai” được chuyển đổi thành khả năng phân bố Π_xi = Ai = { a_i'1, a_i'2, , a_i'm }.

Khi chọn trọng số, lớp đầu tiên của mạng suy luận mờ đo lường sự không đồng nhất giữa phân bố ngõ vào và phân bố mệnh đề điều kiện Mỗi nốt tính toán sự tương đồng giữa ngõ vào và phần bù của mệnh đề điều kiện, dẫn đến việc mức độ không đồng nhất tăng lên giá trị 1 khi ngõ vào xa rời điều kiện Nốt kiểm tra mệnh đề điều kiện có vai trò xác định mức độ không đồng nhất này.

Lớp kiểm tra mệnh đềđiều kiện

Kết hợp các mệnh đề

mệnh đề điều kiện và dữ liệu ngõ vào tương ứng Sự kết hợp tại nốt thứ k được ký hiệu là dk thì ta có:

{ * ' } max { ( ) * ' } max kj kj kj j j kj k w a a a d = = 1 − (3.8) ở đây * tương ứng với phép toán nhân hoặc cực tiểu Vì vậy, chúng ta có:

{ min ( ), ' } max kj kj k j a a d 2 = 1 − (3.10) ở đây, toán tử d 1 k và d k 2 cung cấp một phép đo về sự giao nhau của hai tập mờ Ai và

A i và cả hai có thể có thể được xem như là sự tổng quát hóa của tích số giữa vectơ trọng số và vectơ ngõ vào

Dạng thứ hai cho lớp kiểm tra mệnh đề điều kiện sử dụng chính các tập mờ Ai làm trọng số Trong trường hợp này thì:

Sự kết hợp tại nốt thứ k trong lớp kiểm tra mệnh đề điều kiện bây giờ trở thành:

Các giá trị không đồng nhất của từng nốt được kết hợp tại lớp kế tiếp, tạo ra mức độ không đồng nhất chung giữa các mệnh đề điều kiện và dữ liệu đầu vào Những giá trị này cung cấp tín hiệu ức chế cho việc kích hoạt nơron Trọng số αi trong hình (3.2) phản ánh tầm quan trọng của các mệnh đề điều kiện khác nhau, có thể được cung cấp chủ quan hoặc học thông qua quá trình huấn luyện Nốt tổ hợp được tính toán dựa trên những yếu tố này.

Các trọng số ui trên các nốt ngõ ra chứa thông tin từ kết quả của quy luật đã được xác định Nếu mệnh đề Y = B được đặc trưng bởi hàm khả năng phân bố π γ (yi) = bi cho tất cả các yi trong miền của B, thì các trọng số được định nghĩa bởi công thức: ui = 1 - bi.

Mỗi ngõ ra tính toán giá trị: t b t b t b t b b i ' =1− i (1− )=1−(1− i )(1− )= i + − i (3.15)

Theo phương trình (3.15), khi t = 0, đầu ra của luật điều khiển cho kết luận “Y = B” là chính xác Điều này có nghĩa là nếu sự không đồng nhất toàn bộ đạt giá trị 1, thì phần kết luận của đầu ra sẽ cho thấy khả năng phân bố toàn bộ là 1 giây, dẫn đến kết luận “Y = không biết”.

Suy di ễ n m ờ đượ c đ i ề u khi ể n b ở i m ạ ng n ơ ron

Mô hình suy diễn mờ dựa trên mạng nơron do Takagi và Hayaki đề xuất là một biến thể của cơ chế suy diễn mờ Takagi-Sugeno-Kang, bao gồm các bước cụ thể để thực hiện quá trình suy diễn.

• Lựa chọn biến vào ra trong tệp mẫu học

• Chia tập mẫu thành hai phần: phần huấn luyện và phần kiểm tra

• Xây dựng NNmem để biểu thị hàm thuộc cho phần if của các luật Huấn luyện mạng NNmem tương ứng với các phần if của các luật mờ

• Xây dựng các mạng NNs tương ứng với các luật Huấn luyện mạng tương ứng các phần THEN của các luật mờ

• Đơn giản phần THEN của các luật theo phương pháp loại bỏ ngược

• Xác định kết quả ra và diễn giải mờ

Các mô hình mạng nơron dựa trên logic mờ (fuzzy logic – based neural

Trong chương này, chúng ta sẽ khám phá việc kết hợp logic mờ vào các mô hình mạng nơron, tạo ra các mạng nơron mờ Các tham số điều khiển trong nơron và trọng số kết nối trong mạng nơron mờ có thể được thay thế bằng các tham số mờ, mang lại khả năng biểu diễn vượt trội Nhờ vào những cải tiến này, mạng nơron mờ không chỉ có tốc độ huấn luyện nhanh hơn mà còn ổn định hơn so với các mạng nơron truyền thống.

Có hai nhóm mô hình nơron mờ: nhóm thứ nhất được phát triển từ các mô hình nơron rõ, trong khi nhóm thứ hai là các mô hình nơron mà các mối quan hệ đầu vào và đầu ra được mô tả qua các quy tắc IF-THEN.

Có ba loại mô hình nơron chính: (a) nơron mờ sử dụng tín hiệu chính xác để đánh giá trọng số mờ, (b) nơron mờ kết hợp tín hiệu mờ với trọng số mờ, và (c) nơron mờ được mô tả qua các phương trình logic mờ.

Nơron mờ loại N, như được minh họa trong hình 3.3, có n ngõ vào x1, x2, …, xn Các trọng số tương ứng với N là các tập mờ Ai, với 1 ≤ i ≤ n, và các hàm thuộc tương ứng là A i (x i) Tất cả các giá trị hàm thuộc này được kết hợp để tạo ra một ngõ ra đơn nằm trong khoảng [0,1].

Mức tin cậy trong nơron mờ được thể hiện thông qua phép toán kết hợp, ký hiệu là ⊗, cho phép sử dụng các toán tử như MIN hoặc MAX Biểu diễn toán học của nơron mờ N có thể được mô tả một cách chi tiết.

Nơron mờ loại N, như được trình bày trong hình 3.4, tương tự như nơron mờ loại I trong hình 3.3, nhưng tất cả các ngõ vào và ngõ ra đều là các tập mờ thay vì các giá trị rõ ràng Mỗi ngõ vào mờ Xi trải qua phép toán lấy trọng số, cho ra kết quả là một tập mờ khác X i ' = A i * X i, với Ai là trọng số mờ thứ i Các ngõ vào đã được thay đổi này sẽ được kết hợp để tạo ra một tập mờ n chiều Y Nơron mờ này có thể được mô tả toán học qua biểu thức i i i A X.

Y = 1 ⊗ 2 ⊗ ⊗ ⊗ ⊗ (3.17) là biểu thức thể hiện ngõ ra của nơron mờ, trong đó Y là tập mờ, Xi và X i ' là các ngõ vào thứ i trước và sau khi thực hiện phép toán lấy trọng số Ai đại diện cho trọng số trên kết nối thứ i, ⊗ là toán tử tổ hợp như đã được đề cập trong nơron mờ loại I, và * là toán tử lấy trọng số, tương tự như phép nhân của hai tập mờ.

Hình 3.4: Nơron mờ loại II

Nơron mờ loại III có n ngõ vào mờ và một ngõ ra mờ, như thể hiện trong hình 3.5 Quan hệ giữa ngõ vào và ngõ ra của nơron này được mô tả thông qua luật IF – THEN.

Nếu có các ngõ vào X1, X2, …, Xn thì sẽ dẫn đến ngõ ra Y (3.18) Một nơron mờ loại III có thể được mô tả thông qua một quan hệ mờ R.

R = X1 x X2 x … x Xn x Y (3.19) hoặc, trong trường hợp tổng quát

R = f (X1, X2, …, Xn, Y) (3.20) thể hiện một hàm chỉ thị, trong đó một nơron mờ loại III được mô tả bởi quan hệ truyền mờ R Với các ngõ vào x1, x2, … xn đã được xác định (có thể là mờ hoặc rõ), ngõ ra của nơron mờ được xác định theo các luật suy luận thành phần.

Công thức Y i = x1 o (x2 o (… o (xn o Ri) …)) (3.21) thể hiện rằng o là bất kỳ loại luật thành phần nào của toán tử suy luận, chẳng hạn như toán tử max Cần lưu ý rằng các đầu vào của nơron có thể là mờ hoặc rõ, trong đó các giá trị rõ là trường hợp đặc biệt của các giá trị mờ.

3.4.2 M ờ hóa các mô hình m ạ ng n ơ ron

Mạng Perceptron mờ hoạt động dựa trên việc điều chỉnh vectơ trọng số thông qua hàm thuộc mờ, cho phép các mẫu có độ chắc chắn thấp (giá trị hàm thuộc gần 0.5) ít ảnh hưởng đến việc xác định vectơ trọng số Với một tập hợp các vectơ mẫu {x1, x2, …, xp}, mạng tạo ra một phân hoạch mờ hai lớp, xác định mức độ phụ thuộc của từng vectơ vào hai lớp này Điều này phản ánh các đặc tính quan trọng trong việc phân loại và xử lý dữ liệu.

Mức độ ảnh hưởng của mẫu xk đến việc cập nhật trọng số được xác định bởi công thức {à 1 ( x k ) −à 2 ( x k ){ m, trong đó m là một hằng số Do đó, trong thuật toán perceptron mờ, luật cập nhật trọng số nguyên thủy đã được điều chỉnh để phù hợp với mô hình này.

Việc chọn hằng số m trong phương trình (3.23) rất quan trọng cho sự hội tụ của perceptron mờ Nên tránh chọn m nhỏ hơn 1, vì giá trị m tối ưu còn phụ thuộc vào phương pháp gán các hàm mờ với các tập mẫu Quy tắc chung là nếu các vectơ trong vùng chồng lấp được gán giá trị gần 0.5, thì bất kỳ giá trị nào của m lớn hơn 1 đều có khả năng mang lại kết quả tốt.

Để cập nhật trọng số trong perceptron mờ, chúng ta cần xây dựng một phương pháp gán giá trị hàm thuộc cho các vectơ mẫu Mục tiêu là chuyển đổi giá trị rõ của vectơ thành vùng mờ Giá trị hàm thuộc của một vectơ được xác định như sau: (a) bằng 1.0 nếu vectơ trùng với tâm lớp; (b) bằng 0.5 nếu vectơ trùng với tâm lớp khác; (c) gần 0.5 nếu vectơ cách đều hai tâm lớp; (d) không bao giờ nhỏ hơn 0.5; (e) khi vectơ gần tâm lớp của nó và xa tâm lớp khác, giá trị hàm thuộc tiến gần đến 1 theo hàm mũ; (f) phụ thuộc vào khoảng cách tương đối từ các tâm lớp thay vì khoảng cách tuyệt đối.

Phương pháp gán các giá trị hàm thuộc sau đây do Keller và Hunt đề xuất thỏa mãn các điều kiện trên

Nếu xk thuộc lớp 1 thì:

Nếu xk thuộc lớp 2 thì:

PHƯƠNG PHÁP SUY LUẬN MỜ

SỬ DỤNG MẠNG NƠRON MỜ ĐIỀU KHIỂN XE ROBOT

Ngày đăng: 30/05/2021, 17:25

Nguồn tham khảo

Tài liệu tham khảo Loại Chi tiết
1. Phan Xuân Minh, Nguyễn Doãn Phước (2004), Lý thuyết điều khiển mờ, Nhà xuất bản Khoa học và Kỹ thuật, Hà Nội.Tiếng Anh Sách, tạp chí
Tiêu đề: Lý thuyết điều khiển mờ
Tác giả: Phan Xuân Minh, Nguyễn Doãn Phước
Nhà XB: Nhà xuất bản Khoa học và Kỹ thuật
Năm: 2004
2. Li-Xin Wang (1997), A course in fuzzy systems and control, Prentice-Hall International, Inc Sách, tạp chí
Tiêu đề: A course in fuzzy systems and control
Tác giả: Li-Xin Wang
Năm: 1997
3. Chin-Teng Lin and C.S. George Lee (1996), Neural Fuzzy Systems, Prentice Hall Sách, tạp chí
Tiêu đề: Neural Fuzzy Systems
Tác giả: Chin-Teng Lin and C.S. George Lee
Năm: 1996
4. Hisao Ishibuchi and Manabu Nii (1998), “Fuzzy Logic and Expert Systems Applications”, Fuzzy neural Networks techniques and their applications, p. 1- 52, Academic Press Sách, tạp chí
Tiêu đề: Fuzzy Logic and Expert Systems Applications”, "Fuzzy neural Networks techniques and their applications
Tác giả: Hisao Ishibuchi and Manabu Nii
Năm: 1998
5. Keigo Watanabe and Spyros G. Tzafestas (1998), “Fuzzy Logic and Expert Systems Applications”, Mean-value-based functional reasoning techniques in the development of fuzzy-neural network, p. 243-282, Academic Press Sách, tạp chí
Tiêu đề: Fuzzy Logic and Expert Systems Applications”, "Mean-value-based functional reasoning techniques in the development of fuzzy-neural network
Tác giả: Keigo Watanabe and Spyros G. Tzafestas
Năm: 1998
6. Yie-Chien Chen and Ching-Cheng Teng (1998), “Fuzzy Logic and Expert Systems Applications”, Fuzzy neural network systems and model reference control systems, p. 285-312, Academic Press Sách, tạp chí
Tiêu đề: Fuzzy Logic and Expert Systems Applications”, "Fuzzy neural network systems and model reference control systems
Tác giả: Yie-Chien Chen and Ching-Cheng Teng
Năm: 1998

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w