Tế bào nơ ron trong này lớp đại diện cho tập mờ được sử dụng trong các tiền đề của luật mờ.. Do đó, các chức năng kích hoạt cho các tế bào nơ ron ở lớp 2 được thiết lập để các hàm thành
Trang 1PHÁT TRIỂN HỆ THỐNG DỰ TRÊN
TRI THỨC
ĐỀ TÀI: HỆ LẠI MỜ NƠ RON VÀ HỆ ANFIS
GVHD : Thầy Nguyễn Quang Hoan SINH VIÊN: Trần Thị Thắm -B12DCCN084
Nguyễn Thị Quỳnh - B12DCCN083 Nguyễn Quang Hợp - B12DCCN065
Trang 2ĐỀ TÀI: HỆ LAI MỜ NƠ RON VÀ HỆ ANFIS
Khi khảo sát mạng nơron và logic mờ, ta thấy mỗi loại đều có điểm mạnh, điểm yếu riêng của nó
Đối với logic mờ, ta dễ dàng thiết kế một hệ thống mong muốn chỉ bằng các
luật Nếu - thì (If-Then) gần với việc xử lý của con người Với đa số ứng dụng thì
điều này cho phép tạo ra lời giải đơn giản hơn, trong khoảng thời gian ngắn hơn Thêm nữa, ta dễ dàng sử dụng những hiểu biết của mình về đối tượng để tối ưu hệ thống một cách trực tiếp
Tuy nhiên, đi đôi với các ưu điểm hệ điều khiển mờ còn tồn tại một số khuyết như việc thiết kế và tối ưu hóa hệ logic mờ đòi hỏi phải có một số kinh nghiệm về điều khiển đối tượng, đối với những người mới thiết kế lần đầu điều đó hoàn toàn không đơn giản Mặt khác còn hàng loạt những câu hỏi khác đặt ra cho người thiết kế mà nếu chỉ dừng lại ở tư duy logic mờ thì hầu như chưa có lời giải,
ví dụ: Số tập mờ trong mỗi biến ngôn ngữ cần chọn bao nhiêu là tôi ưu? Hình dạng các tập mờ thế nào? Vi trí mỗi tập mờ ở đâu? Việc kết hợp các tập mờ như thế nào? Trọng số của mỗi luật điều khiển bằng bao nhiêu? Nếu như tri thức cần đưa vào hệ được thể hiện dưới dạng các tập dữ liệu (điều này thường gặp khi thu thập
và xử lý dữ liệu để nhận dạng đối tượng) thì làm thế nào?
Đối với mạng nơron, chúng có một số ưu điểm như xử lý song song nên tốc
độ xử lý rất nhanh; Mạng nơron có khả năng học hỏi; Ta có thể huấn luyện mạng
để xấp xỉ một hàm phi tuyến bất kỳ, đặc biệt khi đã biết một tập dữ liệu vào/ra
Song nhược điểm cơ bản của mạng nơron là khó giải thích rõ ràng hoạt động của mạng nơron như thế nào Do vậy việc chỉnh sửa trong mạng nơron rất khó khăn
Hai tiêu chí cơ bản trợ giúp cho người thiết kế ở logic mờ và ở mạng nơron thể hiện trái ngược nhau (bảng 1)
Trang 3Tiêu chí Mạng nơron Logic mờ
Thể hiện tri thức
Không tường minh, khó giải thích và khó sửa đổi
Tường minh, dễ kiểm chứng hoạt động và dễ sửa đổi
Khả năng học
Có khả học năng thông qua các tập dữ liệu
Không có khả năng học, người thiết kế phải tự thiết
kế tất cả
Từ những phân tích trên, ta thấy nếu kết hợp logic mờ và mạng nơ ron, ta sẽ
có một hệ lai với ưu điểm của cả hai: logic mờ cho phép thiết kế hệ dễ dàng, tường minh trong khi mạng nơron cho phép học những gì mà ta yêu cầu về bộ điều khiển
Nó sửa đổi các hàm phụ thuộc về hình dạng, vị trí và sự kết hợp, hoàn toàn tự
động Điều này làm giảm bớt thời gian cũng như giảm bớt chi phí khi phát triển hệ
Cấu trúc của một hệ thống nơ ron mờ là tương tự như một mạng nơron nhiều lớp
Nói chung, một hệ thống nơ ron mờ có các lớp đầu vào và đầu ra, và ba ẩn lớp đại diện cho hàm thành viên và luật mờ Để đơn giản, chúng tôi giả định rằng các hệ thống mờ có hai đầu vào x1 và x2 và một đầu ra y Đầu vào x1 là
đại diện bởi tập mờ A1, A2 và A3; x2 đầu vào bằng cách mờ bộ B1, B2 và B3;
và đầy ra y của tập mờ C1 và C2 Mỗi lớp trong hệ thống nơ ron mờ được kết hợp với một bước cụ thể trong quá trình suy luận mờ
Layer 1: là lớp đầu vào Mỗi tế bào nơ ron trong lớp này truyền sắc nét bên ngoài
tín hiệu trực tiếp đến các lớp tiếp theo Đó là,
Trang 4Trong đó là đầu vào và là đầu ra của nơron đầu vào tôi trong lớp 1
Layer 2: là thành viên đầu vào hoặc lớp fuzzification Tế bào nơ ron trong
này lớp đại diện cho tập mờ được sử dụng trong các tiền đề của luật mờ Một fuzzification tế bào nơ ron nhận được một đầu vào rõ nét và xác định mức độ mà đầu vào này thuộc tập mờ của tế bào nơ ron, như sau Các chức năng kích hoạt của một nơron thành viên được thiết lập với chức năng xác định tập mờ của tế bào nơ ron Trong ví dụ được trình bày trong hình 8.4, chúng tôi sử dụng bộ hình tam giác
Do đó, các chức năng kích hoạt cho các tế bào nơ ron ở lớp 2 được thiết lập để các hàm thành viên tam giác (mặc dù tế bào nơ ron fuzzification có thể có bất kỳ chức năng thành viên thường được sử dụng trong các hệ thống mờ) Một hàm thành viên tam giác có thể được xác định bởi hai tham số {a; b} như sau:
Trang 5trong đó a và b là các thông số điều khiển trung tâm và chiều rộng của
tam giác, tương ứng, g là các đầu vào và h là đầu ra của fuzzification
nơron i trong lớp 2 Hình 8.6 minh họa một hàm hình tam giác và các hiệu ứng gây
ra bởi các biến thể của tham số a và b Như chúng ta có thể thấy, sản lượng của một fuzzification tế bào nơ ron không chỉ phụ thuộc vào đầu vào của nó, mà còn ở trung tâm, một, và chiều rộng, b, của hàm kích hoạt tam giác Các đầu vào tế bào
nơ ron có thể không thay đổi, nhưng đầu ra sẽ thay đổi theo sự thay đổi của tham
số a và b Nói cách khác, tham số a và b của tế bào nơ ron fuzzification thể đóng vai trò tương tự trong một hệ thống nơ ron mờ như trọng lượng khớp nơ ron trong một mạng lưới nơ ron
Layer 3: là lớp quy tắc mờ Mỗi tế bào nơ ron trong lớp này tương ứng với
một quy tắc mờ duy nhất Một nguyên tắc nơron mờ nhận đầu vào từ fuzzification
tế bào nơ ron mà đại diện cho tập mờ trong những tiền thân quy tắc Ví dụ, tế bào
nơ ron R1, tương ứng với Quy tắc 1, nhận đầu vào từ các tế bào nơ ron A1 và B1
Trang 6Trong các hệ thống mờ, nếu quy tắc nhất định có nhiều tiền lệ, một nhà điều hành mờ sử dụng để có được một số duy nhất đại diện cho các kết quả của các kì trước đánh giá Các kết hợp của các tiền thân quy tắc được đánh giá bởi các mờ giao điểm hoạt động Các hoạt động mờ tương tự có thể được sử dụng để kết hợp nhiều đầu vào cho một neuron quy tắc mờ Trong một hệ thống nơ ron mờ, ngã tư
có thể được thực hiện bởi các nhà điều hành sản phẩm Vì vậy, đầu ra của nơron i trong lớp 3 thu được là:
trong đó , , là các đầu vào và là đầu ra của nơron quy tắc mờ i trong lớp 3 Ví dụ
Giá trị của đại diện cho sức mạnh bắn mờ quy tắc nơron R1
Mức độ bình thường của độ tin cậy của một quy tắc mờ là gì?
Quy định khác nhau đại diện trong một hệ thống nơ ron mờ có thể được liên kết với mức độ khác nhau của sự tin cậy Trong hình 8.4, một chuyên gia có thể đính kèm các mức độ tin cậy để mỗi mờ luật IF-THEN bằng cách thiết lập các trọng số tương ứng trong khoảng [0; 1] Trong thời gian đào tạo, tuy nhiên, những khối
Trang 7lượng có thể thay đổi Đến giữ chúng trong phạm vi nhất định, các trọng số được chuẩn hóa bằng cách chia của họ giá trị tương ứng theo độ lớn trọng lượng cao nhất ở mỗi lần lặp
Layer 4: là lớp thành viên đầu ra Nơron trong lớp này đại diện cho tập mờ
được sử dụng trong các hệ quả của luật mờ Một nơron thành viên đầu ra nhận đầu vào từ các tế bào nơ ron quy tắc mờ tương ứng và kết hợp chúng bằng cách sử dụng các công đoàn hoạt động mờ Hoạt động này có thể được thực hiện bởi xác suất OR (còn được gọi là tổng đại số) Đó là,
trong đó , , là các đầu vào và là đầu ra của đầu ra nơron thành viên i trong lớp 4 Ví dụ
Layer 5: là lớp defuzzification Mỗi tế bào nơ ron trong lớp này đại diện
cho một đầu ra duy nhất của hệ thống nơ ron mờ Nó có các tập mờ đầu ra cắt bớt bởi thế mạnh bắn tích hợp tương ứng và kết hợp chúng thành một đơn tập mờ
Đầu ra của hệ thống nơ ron mờ là sắc nét, và do đó sản lượng kết hợp tập mờ phải defuzzified hệ thống Neuro-mờ có thể áp dụng phương pháp defuzzification tiêu chuẩn, bao gồm các kỹ thuật trọng tâm Trong ví dụ của chúng tôi, chúng tôi
sẽ sử dụng phương pháp thành phần tổng hợp sản phẩm (Janget al., 1997), trong đó cung cấp một phím tắt tính toán cho việc suy luận Mamdani
Các thành phần tổng hợp sản phẩm tính toán sản lượng sắc nét như trọng trung bình của các trọng tâm của tất cả các chức năng thành viên đầu ra Ví dụ, các bình quân gia quyền của các trọng tâm của sự cắt bớt mờ bộ C1 và C2 được tính như,
Trang 8Với và là các trung tâm, và và là chiều rộng của mờ bộ C1 và C2, tương ứng
Ý tưởng cơ bản của kỹ thuật học neuro-adaptive rất đơn giản Kỹ thuật này
đưa ra cơ chế cho mô hình mờ có thủ tục để học thông tin về tập dữ liệu theo thứ
tự ước tính các tham số của hàm liên thuộc mà nó cho phép kết hợp với hệ thống suy diễn mờ theo hướng dữ liệu vào/ra nhất định Phương pháp học này làm việc tương tự như mạng nơron Bộ công cụ logic mờ dùng để thực hiện việc điều chỉnh tham số của hàm liên thuộc được gọi là Anfis Ta có thể mở Anfis từ dòng lệnh hoặc từ giao diện đồ hoạ (ANFIS Editor GUI) Hai cách này tương tự nhau, chúng được sử dụng hoán đổi nhau Tuy nhiên, giữa chúng cũng có đối chút khác biệt (chúng ta sẽ bàn đển ở phần sau)
ANFIS xuất phát từ tiến Anh là Adaptive neuro-fuzzy infercnce system Sử dụng tập dữ liệu vào/ra có sẵn, hàm anfis xây dựng nên hệ thống suy diễn mờ (FIS), các thông số hàm liên thuộc của nó được điều chỉnh nhờ sử dụng các thuật toán huấn luyện của mạng nơron như thuật toán lan truyền ngược hoặc kết hợp lan truyền với phương pháp bình phương cực tiểu Điều đó cho phép hệ mờ của ta
"học" từ tập dữ liệu chúng được mô hình
Một kiểu mạng có cấu trúc tương tự mạng nơron, nó ánh xạ các đầu vào qua các hàm liên thuộc vào với các thông số tương ứng và sau đó là thông qua các hàm
ra với các tham số tương ứng tạo nên các đầu ra có thể được sử dụng để giải thích ánh xạ vào/ra Các thông số tương ứng với hàm liên thuộc sẽ thay đổi thông qua quá trình học Việc tính toán các tham số này (hoặc việc điều chỉnh chúng) thực hiện dễ dàng bằng véc tơ gradient nó đưa ra giới hạn theo cách tốt cho hệ thống suy diễn mờ được mô hình hoá dữ liệu vào/ra theo tập các tham số nhất định Ta đã
Trang 9biết, véc tơ gradient được áp dụng cho một vài thủ tục tối ưu cốt để điều chỉnh các
tham số sao cho giảm nhỏ giá trị sai số (thường được định nghĩa bằng tổng bình phương sai lệch giữa đầu ra hiện thời và đầu ra mong muốn) Anfis sử dụng điều
đó theo giải thuật lan truyền ngược hoặc kết hợp sự ước lượng bình phương cực tiểu và sự lan truyền ngược cho sự ước lượng tham số hàm liên thuộc
Xác nhận dữ liệu huấn luyện
- Tìm hiểu dữ liệu
Phương thức tạo mẫu được sử dụng bởi Anfis giống như các kỹ thuật nhận dạng hệ thống khác Đầu tiên ta đưa ra một cấu trúc tham số mẫu (liên kết các đầu vào tới các hàm liên thuộc với các luật tới các đầu ra tới các hàm liên thuộc ) Kế đến, là thu thập dữ liệu vào/ra vào một dạng sao cho tiện lợi cho sự huấn luyện của Anfis Ta có thể sử dụng Anfis để huấn luyện mô hình FIS nhằm mô phỏng dữ liệu huấn luyện đưa vào để nó sửa đổi các tham số của hàm liên thuộc theo tiêu chuẩn sai số dã lựa chọn Nói chung, kiểu mô hình này sẽ làm việc tốt nếu dữ liệu đưa vào Anfis cho sự huấn luyện tham số các hàm liên thuộc đại diện đầy đủ cho các đặc tính của tập dữ liệu mà nó được FIS huấn luyện giành cho mô hình Điều này không phải luôn luôn xảy ra, tuy nhiên, trong một vài trường hợp trong quá trình thu thập dữ liệu, do ảnh hưởng của nhiễu đo lường mà dữ liệu huấn luyện không thể đại diện cho tất cả các thuộc tính của dữ liệu sẽ có mặt ở mô hình
tra.
Công nhận giá trị mẫu (xác định mẫu) là quá trình trong đó các vectơ vào từ
dữ liệu vào/ra được đặt tại nơi mà FIS chưa được huấn luyện, mẫu được đưa tới huấn luyện FIS để mẫu FIS đón trước giá trị dữ liệu đầu ra tương ứng có tốt hay không Nó được thực hiện bởi bộ soạn thảo ANFIS GUI Ta có thể sử dụng một loại dữ liệu khác để công nhận giá trị mẫu trong Anfis Hình thức công nhận dữ liệu này được hình dung như một hệ thống dữ liệu kiểm tra được sử dụng để điều chỉnh sự công nhận giá trị dữ liệu Khi dữ liệu kiểm tra được đưa tới Anfis cũng giống như dữ liệu huấn luyện, mẫu FIS lựa chọn để các tham số liên quan có sai số mẫu dữ liệu nhỏ nhất
Trang 10Một vấn đề đặt ra là việc công nhận giá trị dữ liệu để tạo mẫu sử dụng các
kỹ thuật thích nghi là lựa chọn tập dữ liệu tiêu biểu cho dữ liệu mẫu huấn luyện, nhưng khác biệt với dữ liệu huấn luyện được thiết lập không phải để phản hồi cho quá trình hợp thức hoá thiếu hiệu quả Nếu ta thu thập một lượng lớn các dữ liệu, thì dữ liệu này chứa đựng đầy đủ các đặc tính tiêu biểu vì vậy quá trình thu thập dữ liệu để phục vụ mục đích kiểm tra hoặc thử sẽ dễ dàng hơn Tuy nhiên nếu ta muốn thực hiện các phép đo ở mẫu, có thể dữ liệu huấn luyện không bao gồm tất cả các đặc tính tiêu biểu mà ta muốn
VÍ DỤ
IF x1 is A1
AND x2 is A2
AND xm is Am
THEN y =( x1;x2; ;xm)
Khi mà x1;x2; ;xm là các giá trị đầu vào, A1;A2; ;Am là tập mờ, và y là hằng
số hoặc là một hàm tuyến tính của các biến đầu vào
Khi y là một hàm tuyến tính ta có:
y = k0 + k1x1 + k2x2 + +kmxm
Ví dụ chúng ta giả định rằng có 2 giá trị đầu vào là x1 và x2, có một giá trị đầu ra là y Mỗi giá trị đầu vào được đại diện bởi 2 giá trị mờ và đầu ra bởi một đa thức
Trang 11ANFIS thực hiện theo bốn luật Luật 1:
IF x1 là A1
AND x2 là B1
THEN y = f1 = k10 + k11x1 + k12x2
Luật 2:
IF x1 là A2
AND x2 là B2
THEN y = f2 = k20 + k21x1 + k22x2
Luật 3:
IF x1 là A2
AND x2 là B1
Trang 12THEN y = f3 = k30 + k31x1 + k32x2
Luật 4:
IF x1 là A1
AND x2 là B2
THEN y = f4 = k40 + k41x1 + k42x2
Với x1, x2 là các biến đầu vào; A1 và A2 là tập mờ của biến X1; B1 và B2 là tập mờ của biến X2; và ki0, ki1 và ki2 là một tập hợp các thông số cụ thể cho các luật
Layer 1: Là lớp giá trị đầu vào Nơron trong lớp này chỉ đơn giản là vượt qua các
tín hiệu rõ nét bên ngoài vào Layer 2
y(1)
i = x(1) i Với x(1)
i là giá trị đầu vào và y(1)
i là giá trị đầu ra của Noron trong lớp 1
Layer 2: là lớp mờ Noron trong lớp biểu diễn mờ này.
Giá trị của y(2)
i nằm trong khoảng [0,1]
Với x(2)
i Là đầu vào và y(2)
i là giá trị đầu ra của noron i trong lớp 2; và ai, bi và
ci là thông số giả thiết
Mỗi giá trị đầu ra của node là giá trị đầu vào của luật
Layer 3: Là lớp luật Mỗi Noron trong lớp này tương ứng với một Sugeno - loại
quy tắc mờ Một nơron quy tắc nhận đầu vào từ các noron mờ tương ứng và tính toán sức mạnh của quy tắc nó đại diện Vì vậy, đầu ra của nơron trong lớp 3 là tổng giá trị đầu vào của luật, gọi là giá trị đầu vào của luật được chuẩn hóa
Trang 13hay :
Layer 4: Là lớp bình thường.
Với x(4)
ij là đầu vào từ noron j từ lớp 3 và noron i trong lớp 4, và n là tổng số luật noron Ta sẽ có: xác suất đầu ra của y(4)
N1 sẽ là giá trị đầu ra của y(3) chia cho tổng giá trị đầu ra
Layer 5 : Hàm liên thuộc
Với k là trọng số
Layer 6: Là lớp tổng nơron
Trang 14TÀI LIỆU THAM KHẢO
[1]Michael Negnevitsky, Artificial Intelligence A Guide to Intelligent Systems, trang
268-285.