Trong bài báo này, đầu tiên chúng tôi sẽ đưa ra một kiến trúc của mạng nơron mờ với những trọng số mờ tam giác. Mạng nơron được đưa ra có thể sử dụng các vectơ vào mờ cũng như là các vectơ vào thực. Trong cả hai trường hợp, dữ liệu ra của mạng nơron mờ đều là các vectơ mờ. Mối quan hệ giữa input và output của mỗi chức năng của mạng nơron mờ được xác định bởi nguyên tắc mở rộng của Zadeh. Tiếp theo đó, chúng ta sẽ định nghĩa một hàm chi phí cho các tập hợp không đổi của dữ liệu ra mờ và đích mờ. Sau đó, ta xây dựng được một thuật toán học từ hàm chi phí cho việc điều chỉnh ba tham số của mỗi trọng số mờ tam giác. Cuối cùng, minh hoạ phương pháp này bằng sự mô phỏng máy tính trên những ví dụ bằng số.
Trang 1MỘT THUẬT TOÁN HỌC CỦA MẠNG NƠRON MỜ
VỚI CÁC TRỌNG SỐ MỜ TAM GIÁC
Trong bài báo này, đầu tiên chúng tôi sẽ đưa ra một kiến trúc của mạng nơron mờ với những trọng số mờ tam giác Mạng nơron được đưa ra có thể sử dụng các vectơ vào
mờ cũng như là các vectơ vào thực Trong cả hai trường hợp, dữ liệu ra của mạng nơron
mờ đều là các vectơ mờ Mối quan hệ giữa input và output của mỗi chức năng của mạng nơron mờ được xác định bởi nguyên tắc mở rộng của Zadeh Tiếp theo đó, chúng ta sẽ định nghĩa một hàm chi phí cho các tập hợp không đổi của dữ liệu ra mờ và đích mờ Sau
đó, ta xây dựng được một thuật toán học từ hàm chi phí cho việc điều chỉnh ba tham số của mỗi trọng số mờ tam giác Cuối cùng, minh hoạ phương pháp này bằng sự mô phỏng máy tính trên những ví dụ bằng số
1 Giới thiệu
Gần đây, có nhiều phương pháp nghiên cứu về sự mờ của các mạng nơron Một phương pháp làm mờ trực tiếp là mở rộng các dữ liệu vào thực và đích thực trong các kiến trúc mạng nơron thông thường thành các số mờ Ishibuchi [4] đã đưa ra một kiến trúc của mạng nơron truyền thẳng nhiều lớp cho các vectơ vào mờ, và kiến trúc đó được
áp dụng để cài đặt các quy tắc if – then mờ trong tài liệu [5, 7] Các trọng số liên kết của mạng nơron truyền thẳng nhiều lớp được làm mờ trong tài liệu của Hayashi [3] và Ishibuchi [6] Trong tài liệu [3], Hayashi cũng đã mờ hoá quy tắc Delta trong khi Ishibuchi xây dựng được một thuật toán học rõ cho các trọng số mờ tam giác
Trong bài báo này, ta mở rộng công việc đầu tiên, đó là thảo luận về một mạng nơron mờ một đầu vào và một đầu ra cho các vectơ vào thực tới trường hợp mạng nơron
mờ đa đầu vào và đầu ra cho các vectơ vào mờ Trước hết, chúng ta đưa ra một kiến trúc của mạng nơron mờ với các trọng số mờ tam giác cho các vectơ vào mờ Mối quan hệ giữa input và output của mỗi chức năng được xác định bởi nguyên tắc mở rộng của Zadeh [9] Dữ liệu ra từ mạng nơron mờ (cũng là những số mờ) được tính toán bởi số học khoảng cách [1] cho các tập hợp không đổi của các trọng số mờ và dữ liệu vào mờ Tiếp
Trang 2đích mờ Sau đó một thuật toán học rõ được xây dựng từ hàm chi phí cho việc điều chỉnh
ba tham số của mỗi trọng số mờ Cuối cùng, minh hoạ minh hoạ phương pháp này bằng
sự mô phỏng máy tính trên những ví dụ bằng số Trong các mô phỏng máy tính, ta sẽ thảo luận cách thực thi quy tắc if – then và sự xấp xỉ của các hàm mờ bằng mạng nơron
mờ này Sự mờ hoá trực tiếp của các mạng nơron thông thường là mở rộng các trọng số liên kết, đầu vào và đích thành các số mờ Sự mở rộng này được tổng kết trong bảng 1 Mạng nơron mờ trong trường hợp 1 đã được sử dụng trong bài toán phân loại của một
vectơ vào mờ hoặc lớp crisp [5] Để thực thi quy tắc if – then mờ bằng mạng nơron,
chúng ta sử dụng mạng nơron mờ với các dữ liệu vào mờ và đích mờ Trong hai trường
hợp này, mạng nơron mờ có các trọng số rõ Trường hợp 3 và 4, các trọng số liên kết
được mờ hoá Bài báo này đặt tâm điểm vào hai trường hợp này Ba trường hợp cuối trong bảng 1 là không hiện thực
Bảng 1 Mờ hoá trực tiếp mạng nơron
2 Kiến trúc mạng nơron mờ
2.1 Các phép toán trên các số mờ
Trước khi mô tả một kiến trúc của mạng nơron mờ, chúng ta đề cập một cách vắn tắt về các phép toán trên các số mờ được định nghĩa bằng việc mở rộng nguyên lý [9] Trong bài báo này, chúng ta biểu diễn các số thực bằng các chữ cái thường, và số mờ
Trang 3bằng chữ hoa Vì các vectơ đầu vào và các trọng số kết nối của các mạng nơron truyền thẳng nhiều lớp được làm mờ trong bài báo này nên việc định nghĩa phép nhân và phép ánh xạ phi tuyến của các số mờ là cần thiết
}
| ) ( ) ( max{
)
B
}
| ) ( ) ( max{
)
)}
(
| ) ( max{
) ( )
Ở đó : A, B, Net là các số mờ ;
*(@) biểu diễn hàm thành viên của mỗi số mờ ;
là phép giao ;
f(x) = 1/{1 + exp(- x )} là hàm kích hoạt của các chức năng được ẩn và các
chức năng đầu ra của mạng nơron mờ
Các phép toán trên của các số mờ được thực hiện bằng số trên các tập mức Tập h một số mờ X được định nghĩa như sau :
Trong đó X(x) là hàm thành viên của X và R là tập số thực Bởi vì các tập hợp level của các số mờ là khoảng cách khép kín nên ta định nghĩa [X]h như sau :
] ] [ , ] [[
]
h
L h
h
X ]
h
X ]
[ là giới hạn cận dưới và giới hạn cận trên của [X]h
Ta có :
] ] [ ] , ] [ ] [[
] ] [ , ] [[
] ] [ , ] [[
] [ ]
h
U h
L h
L h
U h
L h
U h
L h h
] ] [ , ] ].[[
] [ , ] [[
] [
]
h
L h
U h
L h h
h
U h
U h
L h
L h
U h
L h
L
A
max{[ ] [ ] , ] [ ] , ] [ ] , ] [ ]U]}
h
U h
U h
L h
L h
U h
L h
L
(2.7)
)]
] [ , ] ([
[ ]) ] [ , ] ([[
) ]
h
L h
U h
L h
h f Net Net f Net Net Net
h
L
h B
B] [ ] [
Trang 4] [
] [ ], ] [
] max{[
}, ] [
] [ ], ] [
] [ { [min ]
.[
]
h
U h
L h
U h
U h
L h
L h
L h h
(2.9)
2.2 Mối quan hệ input – output của mỗi chức năng
Mờ hoá một mạng nơron truyền thẳng 3 lớp với các chức năng input n1, chức năng
ẩn nH và các chức năng output n0 Các vectơ vào, vectơ đích, trọng số kết nối và các ngưỡng được làm mờ Để xây dựng được một thuật toán học chính xác, ta giới hạn các trọng số mờ và ngưỡng mờ bên trong các số mờ tam giác trong khi ta có thể sử dụng kiểu bất kỳ của các số mờ cho các đầu vào mờ và đích mờ Mối quan hệ giữa input và output được mô tả như sau :
Chức năng input :
Các chức năng ẩn :
1 n 1 ji W
i
i pi
Chức năng output :
H
n
j
i pj kj pk
pk pk
O w Net
n k
Net f O
1
0
, , 2 , 1 ), (
(2.13)&(2.14) Trong đó : Xpi là dữ liệu vào mờ, Wji và Wkj là trọng số mờ, j, k là ngưỡng mờ
2.3 Sự tính toán dữ liệu ra mờ
Dữ liệu ra mờ theo (2.10) – (2.14) được tính toán về số lượng cho các tập mức của
dữ liệu vào mờ, các trọng số mờ và ngưỡng mờ Mối quan hệ này được mô tả cho các tập mức h như sau :
Chức năng vào :
h pi h
O ] [ ]
Chức năng ẩn :
) ] ([
]
Trang 5
1
1
] [ ] [ ] [ ]
[
n
i
h j h pi h ji h
Chức năng ra :
) ] ([
]
H
n
j
h k h pj h jk h
Net
1
] [ ] [ ] [ ]
Từ (2.15) – (2.19) chúng ta có thể thấy tập mức h của dữ liệu ra mờ Opk được tính toán từ mức này của dữ liệu vào mờ, trọng số mờ và các ngưỡng mờ Khi các tập mức h
h pi L h
pi X
X ] [ ] [
Chức năng vào :
] ] [ , ] [[
] ] [ , ] [[
]
h pi L h pi U
h pi L h pi h
Chức năng ẩn :
)]
] ([
), ] ([
[ ] ] [ , ] [[
]
h pj L
h pj U
h pj L h
pj O f Net f Net
1 1
1 1
]
0 ] [ 0
] [
n i
L h j
U h pi
L h ij
n i
L h pi
L h ij
L h ij L
h
w
L h pj
(2.22)
1 1
1 1
]
0 ] [ 0
] [
n i
U h j
L h pi
U h ij
n i
U h pi
U h ij
U h ij U
h
w
U h pj
(2.23)
Chức năng ra :
)]
] ([
), ] ([
[ ] ] [ , ] [[
]
h pk L
h pk U
h pk L h pk h
H n j
L h k
U h pj
L h kj H
n j
L h pj
L h kj
L kj L
w
L h pk
1 1
]
0 ] [ 0
] [
(2.25)
Trang 6
H n j
U h k
L h pj
U h kj
H n j
U h pj
U h kj
U h kj U
h
w
L h pk
1 1
]
0 ] [ 0
] [
(2.26)
3 Sự học của mạng nơron mờ
3.1 Hàm chi phí
Đặt Tp = (Tp1, Tp2, …, Tpno) là vectơ đích mờ thứ nguyên no tương ứng với vectơ vào mờ Xp Chúng ta định nghĩa hàm chi phí cho các tập mức h của dữ liệu ra mờ Opk từ chức năng ra k và tương ứng với đích mờ Tpk như sau :
U pkh L
pkh pkh e e
Trong đó :
2
) ] [ ]
h pk
L h pk L
pkh
O T
h
2
) ] [ ]
h pk
U h pk U
pkh
O T
h
pkh
e và U
pkh
e , theo thứ tự, có thể được coi như là các lỗi bình phương của giới hạn dưới và giơí hạn trên của các tập mức h Trong công thức này, các lỗi bình phương này được đánh trọng số bởi các giá trị của h trong (3.2) và (3.3)
nghĩa như sau :
no
k pkh
ph e
e
1
(3.4) Hàm chi phí cho bộ (Xp, Tp) thu được là :
h ph
3.2 Thuật toán học
nghĩa ở trên.Vì các trọng số mờ tam giác định xác định bởi ba tham số của nó nên chúng
Trang 7ta xây dựng một quy tắc cập nhật cho mỗi tham số Ký hiệu các trọng số mờ tam giác là
Wkj , Wji và các ngưỡng mờ tam giác là k, j như sau :
) , ,
kj C kj L kj
kj w w w
ji C ji L ji
ji w w w
) , ,
k
C k
L k
k
j C j L j
j
Trong đó các chỉ số L, C, U lần lượt là giới hạn dưới, giới hạn trung bình và giới hạn trên của các số mờ tam giác Hơn nữa, giả sử rằng Wkj , Wji , k, j là đối xứng:
2
U kj
L kj C
kj
w w
2
U ji
L ji C ji
w w
2
U k
L k C
k
2
U j
L j C j
Trước hết, ta thảo luận về sự học của trọng số mờ tam giác Wkj giữa chức năng ẩn thứ j và chức năng ra thứ k Theo cách của Rumelhart [8], ta có thể viết số lượng điều chỉnh của mỗi tham số sử dụng hàm chi phí eph như sau:
) 1 ( )
w
e t
kj L
kj
ph L
) 1 ( )
w
e t
kj U
kj
ph U
ở đó là hằng số học, là hằng số động lượng và t chỉ số lượng các điều chỉnh.
Vì chúng ta đã giả sử rằng Wkj là đối xứng nên C
kj
Đạo hàm trong (3.10) và (3.11) có thể được viết như sau:
L kj
U h kj U
h kj
ph L
kj
L h kj L
h kj
ph L
kj
ph
w
W W
e w
W W
e w
e
] [
] [ ]
U kj
U h kj U
h kj
ph U
kj
L h kj L
h kj
ph U
kj
ph
w
W W
e w
W W
e w
e
] [
] [ ]
Vì Wkj là số mờ tam giác đối xứng nên các quan hệ sau đây được giữ cho tập mức
h kj L h kj h
2 ) 2 1 ( ]
kj
L kj
L
h
) 2 1 (
2 ]
kj
L kj
U
h
Trang 8Vì thế, (3.12) và (3.13) có thể được viết lại như sau:
2
] [
) 2 1 (
] [
h W
e h
W
e w
e
U h kj
ph L
h kj
ph L
kj
ph
(3.16)
) 2 1 (
] [ 2
] [
h W
e h
W
e w
e
U h kj
ph L
h kj
ph U
kj
ph
(3.17)
h kj
ph
W
e
] [
h kj
ph
W
e
] [
của tập
kj L
kj w
Trọng số mờ Wkj được cập nhật bởi quy tắc sau đây:
) ( )
( ) 1 (t w t w t
kj L
kj L
) ( )
( )
1 (t w t w t
kj U
kj U
2
) 1 ( ) 1 ( ) 1
t
w
U kj
L kj C
Sau khi điều chỉnh Wkj theo (3.19) – (3.20), giới hạn cận dưới của nó có thể lớn hơn giới hạn cận trên Trong trường hợp này, chúng ta sử dụng phương pháp tìm kiếm kinh nghiệm đơn giản sau đây:
)}
1 ( ), 1 ( min{
: ) 1 (t w t w t
kj L
kj L
)}
1 ( ), 1 ( max{
: ) 1 (t w t w t
kj L
kj U
Trọng số mờ Wji và k, j được thay đổi tương tự như Wkj
Giả sử có m cặp dữ liệu vào – ra (Xp, Tp), p = 1, 2, …, m của các vectơ được đưa
ra làm dữ liệu huấn luyện Và có n giá trị của h (h1, h2, …, hn) được sử dụng cho việc học của mạng nơron mờ Trong trường hợp này, giải thuật học của mạng nơron mờ được viết như sau:
Thuật toán học:
Bước 0 Khởi tạo các trọng số mờ và các ngưỡng mờ
Bước 1 Lặp bước 2 với h = h 1 , h 2 , …, h n
Bước 2 Lặp lại các thủ tục sau đây với p = 1, 2, …, m
Trang 9(1) Tình truyền thẳng: Tính tập mức h của vectơ ra mờ O p tương ứng với vectơ vào mờ X p
(2) Qui hồi: Điều chỉnh các trọng số mờ và ngưỡng mờ sử dụng hàm chi phí e ph
Bước 3 Nếu điều kiện dừng không thoả mãn, quay lại bước 1
4 Mô phỏng việc tính toán:
Trong phần này chúng tôi minh họa giải thuật học bằng một số ví dụ Trong tất
cả các ví dụ chúng tôi sử dụng một số giá trị mặc định như sau:
(1) số đơn vị ẩn là 6
(2) Giá trị của h = 0.2, 0.4, 0.6, 0.8, 1.0
(3) Điều kiện dừng là 10.000 lần lặp
(4) Hằng số của việc học = 0.5
(5) Vận tốc huấn luyện: = 0.9
(6) Khởi tạo giá trị của trọng số mờ và ngưỡng mờ: Là một số thực ngẫu nhiên trong khoảng [-1,1]
4.1 Ví dụ 1
Trong ví dụ này, ta áp dụng một phương pháp được đề xuất để thực hiện xấp xỉ hoá ánh xạ phi tuyến tính của các số mờ Ta sẽ giả định rằng không gian input và output của ánh xạ này là các lớp nằm trong đoạn [0, 1] Do đó ta có thể miêu tả mỗi cặp input-output (Xp, Tp) mờ trong không gian như hình 8
Bốn hình chữ nhật trong hình 8 thể hiện những tập hợp mức- h với h=0.2, 0.4, 0.6,
0.8 của X p x T p , với X p x T p là sản xuất Cartesian của input mờ Xp và chuẩn mờ Tp
Ta giả sử rằng có ba cặp input-output mờ trong hình 9 là những dữ liệu huấn luyện Một mạng nơron mờ với một lớp tín hiệu vào đơn, sáu lớp giữa và một lớp tín hiệu
ra đơn được huấn luyện bởi giải thuật học đã được đề xuất Năm tập hợp mức-h của mỗi cặp input-output trong hình 9 được sử dụng cho việc học của mạng nơron mờ Các tín hiệu ra mờ từ huấn luyện mạng nơron mờ được biểu diễn trong hình 10 với ba tín hiệu vào mờ được sử dụng trong việc học và hai tín hiệu vào mờ mới Từ so sánh giữa hình 9
Trang 10và 10, ta có thể đưa ra các dữ liệu huấn luyện mờ phù hợp cũng như những quan sát tổng quát tốt nhất cho tín hiệu vào mờ mới
4.1 Ví dụ 2
Vì các số thực có thể được xem như trường hợp đặc biệt của số mờ, nên mạng nơron mờ đã đề xuất có thể thực hiện các tín hiệu vào thực cũng như các tín hiệu vào mờ (input fuzzy) Trong ví dụ này, ta áp dụng phương pháp đã nêu để xấp xỉ hàm mờ không tuyến tính (ánh xạ một số thực tới một số mờ) Dữ liệu huấn luyện trong ví dụ này bao gồm các cặp tín hiệu vào thực xp và các chuẩn mờ Tp Mỗi cặp này được miêu tả trong không gian input-output như trong hình 11 Tam giác trong hình 11 là hàm thuộc của chuẩn mờ tam giác Tp Ta giả sử rằng có 6 cặp tín hiệu vào và ra thực như trong hình 12
là các dữ liệu huấn luyện Sử dụng những dữ liệu huấn luyện đó, ta đã huấn luyện một mạng nơron mờ với một lớp tín hiệu vào đơn, sáu lớp bên trong và một lớp tín hiệu ra đơn bằng cách sử dụng giải thuật học đã đề xuất Tín hiệu vào thực xp được coi là một số
mờ với hàm thuộc như sau: Tín hiệu ra mờ từ huấn luyện mạng nơron mờ trong hình 13 cho ta 11 tín hiệu vào thực: x=0.0, 0.1, 0.2,…,1.0 So sánh hình 12 và 13 ta có thể đưa ra các dữ liệu huấn luyện phù hợp và xem xét một cách tổng quát các tín hiệu vào thực mới
4.3 Ví dụ 3
Trong ví dụ này, ta áp dụng phương pháp đã nêu để xấp xỉ các luật if-then mờ nhờ sử dụng một mạng nơron mờ Cho trước 3 luật if-then mờ như sau:
If x small then y is small
If x medium then y is medium
If x large then y is large
Hàm thuộc của các giá trị ngôn ngữ: "small", "medium" và "large" được cho trong
Hình 14 Từ những lụât mờ ở trên ta có thể đưa ra dữ liệu huấn luyện như sau:
{(X p ,T p )} = {(small, small), (medium, medium), large, large}.
Sử dụng dữ liệu huấn luyện trong hình 15, ta huấn luyện mạng nơron mờ có 1 lớp tín hiệu vào, 6 lớp ẩn và 1 lớp tín hiệu ra Tín hiệu ra mờ từ mạng nơ ron đã được huấn luyện biểu diễn trong hình 16 đối với dữ liệu huấn luyện Việc so sánh hai hình 15 và 16 ta có thể đưa ra các dữ liệu huấn luyện phù hợp Tín hiệu ra mờ cho những tín hiệu vào mới
“medium small” và “medium large” được biểu diễn trong hình 17 So sánh hình 15 và 17
Trang 11ta có thể đưa ra những nhận xét tổng quát nhất cho tín hiệu vào mới Hàm thuộc của tín hiệu ra tương ứng với tín hiệu vào mới được biểu diễn trong hình 18 Hai tín hiệu ra mờ
trong Hình 18 có thể được thông dịch là "medium small" và "medium large", do đó ta thu
được hai luật if-then mờ như sau:
If x medium small then y is medium small
If x medium large then y is medium large
Cần chú ý rằng 2 luật if-then mờ trùng với dự đoán của ba luật mờ đã cho Do đó, ta có thể kết luận rằng để huấn luyện mạng nơ ron mờ cần tìm kiếm sự tồn tại các luật if-then
mờ như trong ví dụ này
4.4 Ví dụ 4
Cũng như trong ví dụ 3, trong ví dụ này ta áp dụng phương pháp đã nêu để xấp xỉ các luật if-then mờ Giả sử có 9 luật như dưới đây:
If x1 is small and x2 is small then y is large
If x1 is small and x2 is medium then y is medium large
If x1 is small and x2 is large then y is medium
If x1 is medium and x2 is small then y is medium large
If x1 is medium and x2 is medium then y is small
If x1 is medium and x2 is large then y is small
If x1 is large and x2 is small then y is medium
If x1 is large and x2 is medium then y is small
If x1 is large and x2 is large then y is small
Các giá trị ngôn ngữ trong các luật if-then ở trên giống như trong ví dụ 3 Các luật này được thể hiện trong hình 19 Chi tiết được minh họa trên các hình từ 19 đến 21 Vì chỉ có
9 luật if-then mờ ngoài 25 luật đã cho, 16 luật if-then mờ còn lại để khuyết trong bảng
Ta sẽ tìm cách hoàn thành bảng các luật mờ bằng cách chia một trong năm giá trị ngôn ngữ thành chuỗi của mỗi luật if-then mờ khuyết
Sử dụng 9 cặp tín hiệu vào-ra được chứa trong các luật if-then mờ đã cho, ta có thể huấn luyện một mạng nơ ron mờ với 2 lớp tín hiệu vào, 6 lớp trong và một lớp tín hiệu ra đơn bằng cách sử dụng thuật toán đã đề xuất Sau đó, ta tính toán được tín hiệu ra mờ từ