1. Trang chủ
  2. » Công Nghệ Thông Tin

Một thuật toán học của mạng nơron mờ với trọng số mờ tam giác

12 237 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 12
Dung lượng 227 KB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

Trong bài báo này, đầu tiên chúng tôi sẽ đưa ra một kiến trúc của mạng nơron mờ với những trọng số mờ tam giác. Mạng nơron được đưa ra có thể sử dụng các vectơ vào mờ cũng như là các vectơ vào thực. Trong cả hai trường hợp, dữ liệu ra của mạng nơron mờ đều là các vectơ mờ. Mối quan hệ giữa input và output của mỗi chức năng của mạng nơron mờ được xác định bởi nguyên tắc mở rộng của Zadeh. Tiếp theo đó, chúng ta sẽ định nghĩa một hàm chi phí cho các tập hợp không đổi của dữ liệu ra mờ và đích mờ. Sau đó, ta xây dựng được một thuật toán học từ hàm chi phí cho việc điều chỉnh ba tham số của mỗi trọng số mờ tam giác. Cuối cùng, minh hoạ phương pháp này bằng sự mô phỏng máy tính trên những ví dụ bằng số.

Trang 1

MỘT THUẬT TOÁN HỌC CỦA MẠNG NƠRON MỜ

VỚI CÁC TRỌNG SỐ MỜ TAM GIÁC

Trong bài báo này, đầu tiên chúng tôi sẽ đưa ra một kiến trúc của mạng nơron mờ với những trọng số mờ tam giác Mạng nơron được đưa ra có thể sử dụng các vectơ vào

mờ cũng như là các vectơ vào thực Trong cả hai trường hợp, dữ liệu ra của mạng nơron

mờ đều là các vectơ mờ Mối quan hệ giữa input và output của mỗi chức năng của mạng nơron mờ được xác định bởi nguyên tắc mở rộng của Zadeh Tiếp theo đó, chúng ta sẽ định nghĩa một hàm chi phí cho các tập hợp không đổi của dữ liệu ra mờ và đích mờ Sau

đó, ta xây dựng được một thuật toán học từ hàm chi phí cho việc điều chỉnh ba tham số của mỗi trọng số mờ tam giác Cuối cùng, minh hoạ phương pháp này bằng sự mô phỏng máy tính trên những ví dụ bằng số

1 Giới thiệu

Gần đây, có nhiều phương pháp nghiên cứu về sự mờ của các mạng nơron Một phương pháp làm mờ trực tiếp là mở rộng các dữ liệu vào thực và đích thực trong các kiến trúc mạng nơron thông thường thành các số mờ Ishibuchi [4] đã đưa ra một kiến trúc của mạng nơron truyền thẳng nhiều lớp cho các vectơ vào mờ, và kiến trúc đó được

áp dụng để cài đặt các quy tắc if – then mờ trong tài liệu [5, 7] Các trọng số liên kết của mạng nơron truyền thẳng nhiều lớp được làm mờ trong tài liệu của Hayashi [3] và Ishibuchi [6] Trong tài liệu [3], Hayashi cũng đã mờ hoá quy tắc Delta trong khi Ishibuchi xây dựng được một thuật toán học rõ cho các trọng số mờ tam giác

Trong bài báo này, ta mở rộng công việc đầu tiên, đó là thảo luận về một mạng nơron mờ một đầu vào và một đầu ra cho các vectơ vào thực tới trường hợp mạng nơron

mờ đa đầu vào và đầu ra cho các vectơ vào mờ Trước hết, chúng ta đưa ra một kiến trúc của mạng nơron mờ với các trọng số mờ tam giác cho các vectơ vào mờ Mối quan hệ giữa input và output của mỗi chức năng được xác định bởi nguyên tắc mở rộng của Zadeh [9] Dữ liệu ra từ mạng nơron mờ (cũng là những số mờ) được tính toán bởi số học khoảng cách [1] cho các tập hợp không đổi của các trọng số mờ và dữ liệu vào mờ Tiếp

Trang 2

đích mờ Sau đó một thuật toán học rõ được xây dựng từ hàm chi phí cho việc điều chỉnh

ba tham số của mỗi trọng số mờ Cuối cùng, minh hoạ minh hoạ phương pháp này bằng

sự mô phỏng máy tính trên những ví dụ bằng số Trong các mô phỏng máy tính, ta sẽ thảo luận cách thực thi quy tắc if – then và sự xấp xỉ của các hàm mờ bằng mạng nơron

mờ này Sự mờ hoá trực tiếp của các mạng nơron thông thường là mở rộng các trọng số liên kết, đầu vào và đích thành các số mờ Sự mở rộng này được tổng kết trong bảng 1 Mạng nơron mờ trong trường hợp 1 đã được sử dụng trong bài toán phân loại của một

vectơ vào mờ hoặc lớp crisp [5] Để thực thi quy tắc if – then mờ bằng mạng nơron,

chúng ta sử dụng mạng nơron mờ với các dữ liệu vào mờ và đích mờ Trong hai trường

hợp này, mạng nơron mờ có các trọng số rõ Trường hợp 3 và 4, các trọng số liên kết

được mờ hoá Bài báo này đặt tâm điểm vào hai trường hợp này Ba trường hợp cuối trong bảng 1 là không hiện thực

Bảng 1 Mờ hoá trực tiếp mạng nơron

2 Kiến trúc mạng nơron mờ

2.1 Các phép toán trên các số mờ

Trước khi mô tả một kiến trúc của mạng nơron mờ, chúng ta đề cập một cách vắn tắt về các phép toán trên các số mờ được định nghĩa bằng việc mở rộng nguyên lý [9] Trong bài báo này, chúng ta biểu diễn các số thực bằng các chữ cái thường, và số mờ

Trang 3

bằng chữ hoa Vì các vectơ đầu vào và các trọng số kết nối của các mạng nơron truyền thẳng nhiều lớp được làm mờ trong bài báo này nên việc định nghĩa phép nhân và phép ánh xạ phi tuyến của các số mờ là cần thiết

}

| ) ( ) ( max{

)

B

}

| ) ( ) ( max{

)

)}

(

| ) ( max{

) ( )

Ở đó : A, B, Net là các số mờ ;

*(@) biểu diễn hàm thành viên của mỗi số mờ ;

 là phép giao ;

f(x) = 1/{1 + exp(- x )} là hàm kích hoạt của các chức năng được ẩn và các

chức năng đầu ra của mạng nơron mờ

Các phép toán trên của các số mờ được thực hiện bằng số trên các tập mức Tập h một số mờ X được định nghĩa như sau :

Trong đó X(x) là hàm thành viên của X và R là tập số thực Bởi vì các tập hợp level của các số mờ là khoảng cách khép kín nên ta định nghĩa [X]h như sau :

] ] [ , ] [[

]

h

L h

h

X ]

h

X ]

[ là giới hạn cận dưới và giới hạn cận trên của [X]h

Ta có :

] ] [ ] , ] [ ] [[

] ] [ , ] [[

] ] [ , ] [[

] [ ]

h

U h

L h

L h

U h

L h

U h

L h h

] ] [ , ] ].[[

] [ , ] [[

] [

]

h

L h

U h

L h h

h

U h

U h

L h

L h

U h

L h

L

A

 max{[ ] [ ] , ] [ ] , ] [ ] , ] [ ]U]}

h

U h

U h

L h

L h

U h

L h

L

(2.7)

)]

] [ , ] ([

[ ]) ] [ , ] ([[

) ]

h

L h

U h

L h

h f Net Net f Net Net Net

h

L

h B

B] [ ] [

Trang 4

] [

] [ ], ] [

] max{[

}, ] [

] [ ], ] [

] [ { [min ]

.[

]

h

U h

L h

U h

U h

L h

L h

L h h

(2.9)

2.2 Mối quan hệ input – output của mỗi chức năng

Mờ hoá một mạng nơron truyền thẳng 3 lớp với các chức năng input n1, chức năng

ẩn nH và các chức năng output n0 Các vectơ vào, vectơ đích, trọng số kết nối và các ngưỡng được làm mờ Để xây dựng được một thuật toán học chính xác, ta giới hạn các trọng số mờ và ngưỡng mờ bên trong các số mờ tam giác trong khi ta có thể sử dụng kiểu bất kỳ của các số mờ cho các đầu vào mờ và đích mờ Mối quan hệ giữa input và output được mô tả như sau :

Chức năng input :

Các chức năng ẩn :

1 n 1 ji W

i

i pi

Chức năng output :

H

n

j

i pj kj pk

pk pk

O w Net

n k

Net f O

1

0

, , 2 , 1 ), (

(2.13)&(2.14) Trong đó : Xpi là dữ liệu vào mờ, Wji và Wkj là trọng số mờ, j, k là ngưỡng mờ

2.3 Sự tính toán dữ liệu ra mờ

Dữ liệu ra mờ theo (2.10) – (2.14) được tính toán về số lượng cho các tập mức của

dữ liệu vào mờ, các trọng số mờ và ngưỡng mờ Mối quan hệ này được mô tả cho các tập mức h như sau :

Chức năng vào :

h pi h

O ] [ ]

Chức năng ẩn :

) ] ([

]

Trang 5

1

1

] [ ] [ ] [ ]

[

n

i

h j h pi h ji h

Chức năng ra :

) ] ([

]

H

n

j

h k h pj h jk h

Net

1

] [ ] [ ] [ ]

Từ (2.15) – (2.19) chúng ta có thể thấy tập mức h của dữ liệu ra mờ Opk được tính toán từ mức này của dữ liệu vào mờ, trọng số mờ và các ngưỡng mờ Khi các tập mức h

h pi L h

pi X

X ] [ ] [ 

Chức năng vào :

] ] [ , ] [[

] ] [ , ] [[

]

h pi L h pi U

h pi L h pi h

Chức năng ẩn :

)]

] ([

), ] ([

[ ] ] [ , ] [[

]

h pj L

h pj U

h pj L h

pj O f Net f Net

1 1

1 1

]

0 ] [ 0

] [

n i

L h j

U h pi

L h ij

n i

L h pi

L h ij

L h ij L

h

w

L h pj

(2.22)

1 1

1 1

]

0 ] [ 0

] [

n i

U h j

L h pi

U h ij

n i

U h pi

U h ij

U h ij U

h

w

U h pj

(2.23)

Chức năng ra :

)]

] ([

), ] ([

[ ] ] [ , ] [[

]

h pk L

h pk U

h pk L h pk h

H n j

L h k

U h pj

L h kj H

n j

L h pj

L h kj

L kj L

w

L h pk

1 1

]

0 ] [ 0

] [

(2.25)

Trang 6

H n j

U h k

L h pj

U h kj

H n j

U h pj

U h kj

U h kj U

h

w

L h pk

1 1

]

0 ] [ 0

] [

(2.26)

3 Sự học của mạng nơron mờ

3.1 Hàm chi phí

Đặt Tp = (Tp1, Tp2, …, Tpno) là vectơ đích mờ thứ nguyên no tương ứng với vectơ vào mờ Xp Chúng ta định nghĩa hàm chi phí cho các tập mức h của dữ liệu ra mờ Opk từ chức năng ra k và tương ứng với đích mờ Tpk như sau :

U pkh L

pkh pkh e e

Trong đó :

2

) ] [ ]

h pk

L h pk L

pkh

O T

h

2

) ] [ ]

h pk

U h pk U

pkh

O T

h

pkh

eU

pkh

e , theo thứ tự, có thể được coi như là các lỗi bình phương của giới hạn dưới và giơí hạn trên của các tập mức h Trong công thức này, các lỗi bình phương này được đánh trọng số bởi các giá trị của h trong (3.2) và (3.3)

nghĩa như sau :

no

k pkh

ph e

e

1

(3.4) Hàm chi phí cho bộ (Xp, Tp) thu được là :

h ph

3.2 Thuật toán học

nghĩa ở trên.Vì các trọng số mờ tam giác định xác định bởi ba tham số của nó nên chúng

Trang 7

ta xây dựng một quy tắc cập nhật cho mỗi tham số Ký hiệu các trọng số mờ tam giác là

Wkj , Wji và các ngưỡng mờ tam giác là k, j như sau :

) , ,

kj C kj L kj

kj w w w

ji C ji L ji

ji w w w

) , ,

k

C k

L k

k    

j C j L j

j    

Trong đó các chỉ số L, C, U lần lượt là giới hạn dưới, giới hạn trung bình và giới hạn trên của các số mờ tam giác Hơn nữa, giả sử rằng Wkj , Wji , k, j là đối xứng:

2

U kj

L kj C

kj

w w

2

U ji

L ji C ji

w w

2

U k

L k C

k

  

2

U j

L j C j

Trước hết, ta thảo luận về sự học của trọng số mờ tam giác Wkj giữa chức năng ẩn thứ j và chức năng ra thứ k Theo cách của Rumelhart [8], ta có thể viết số lượng điều chỉnh của mỗi tham số sử dụng hàm chi phí eph như sau:

) 1 ( )

w

e t

kj L

kj

ph L

) 1 ( )

w

e t

kj U

kj

ph U

ở đó  là hằng số học,  là hằng số động lượng và t chỉ số lượng các điều chỉnh.

Vì chúng ta đã giả sử rằng Wkj là đối xứng nên C

kj

Đạo hàm trong (3.10) và (3.11) có thể được viết như sau:

L kj

U h kj U

h kj

ph L

kj

L h kj L

h kj

ph L

kj

ph

w

W W

e w

W W

e w

e

] [

] [ ]

U kj

U h kj U

h kj

ph U

kj

L h kj L

h kj

ph U

kj

ph

w

W W

e w

W W

e w

e

] [

] [ ]

Vì Wkj là số mờ tam giác đối xứng nên các quan hệ sau đây được giữ cho tập mức

h kj L h kj h

2 ) 2 1 ( ]

kj

L kj

L

h

) 2 1 (

2 ]

kj

L kj

U

h

Trang 8

Vì thế, (3.12) và (3.13) có thể được viết lại như sau:

2

] [

) 2 1 (

] [

h W

e h

W

e w

e

U h kj

ph L

h kj

ph L

kj

ph

(3.16)

) 2 1 (

] [ 2

] [

h W

e h

W

e w

e

U h kj

ph L

h kj

ph U

kj

ph

(3.17)

h kj

ph

W

e

] [

h kj

ph

W

e

] [

của tập

kj L

kj w

Trọng số mờ Wkj được cập nhật bởi quy tắc sau đây:

) ( )

( ) 1 (t w t w t

kj L

kj L

) ( )

( )

1 (t w t w t

kj U

kj U

2

) 1 ( ) 1 ( ) 1

t

w

U kj

L kj C

Sau khi điều chỉnh Wkj theo (3.19) – (3.20), giới hạn cận dưới của nó có thể lớn hơn giới hạn cận trên Trong trường hợp này, chúng ta sử dụng phương pháp tìm kiếm kinh nghiệm đơn giản sau đây:

)}

1 ( ), 1 ( min{

: ) 1 (t  w tw t

kj L

kj L

)}

1 ( ), 1 ( max{

: ) 1 (t  w tw t

kj L

kj U

Trọng số mờ Wji và k, j được thay đổi tương tự như Wkj

Giả sử có m cặp dữ liệu vào – ra (Xp, Tp), p = 1, 2, …, m của các vectơ được đưa

ra làm dữ liệu huấn luyện Và có n giá trị của h (h1, h2, …, hn) được sử dụng cho việc học của mạng nơron mờ Trong trường hợp này, giải thuật học của mạng nơron mờ được viết như sau:

Thuật toán học:

Bước 0 Khởi tạo các trọng số mờ và các ngưỡng mờ

Bước 1 Lặp bước 2 với h = h 1 , h 2 , …, h n

Bước 2 Lặp lại các thủ tục sau đây với p = 1, 2, …, m

Trang 9

(1) Tình truyền thẳng: Tính tập mức h của vectơ ra mờ O p tương ứng với vectơ vào mờ X p

(2) Qui hồi: Điều chỉnh các trọng số mờ và ngưỡng mờ sử dụng hàm chi phí e ph

Bước 3 Nếu điều kiện dừng không thoả mãn, quay lại bước 1

4 Mô phỏng việc tính toán:

Trong phần này chúng tôi minh họa giải thuật học bằng một số ví dụ Trong tất

cả các ví dụ chúng tôi sử dụng một số giá trị mặc định như sau:

(1) số đơn vị ẩn là 6

(2) Giá trị của h = 0.2, 0.4, 0.6, 0.8, 1.0

(3) Điều kiện dừng là 10.000 lần lặp

(4) Hằng số của việc học  = 0.5

(5) Vận tốc huấn luyện:  = 0.9

(6) Khởi tạo giá trị của trọng số mờ và ngưỡng mờ: Là một số thực ngẫu nhiên trong khoảng [-1,1]

4.1 Ví dụ 1

Trong ví dụ này, ta áp dụng một phương pháp được đề xuất để thực hiện xấp xỉ hoá ánh xạ phi tuyến tính của các số mờ Ta sẽ giả định rằng không gian input và output của ánh xạ này là các lớp nằm trong đoạn [0, 1] Do đó ta có thể miêu tả mỗi cặp input-output (Xp, Tp) mờ trong không gian như hình 8

Bốn hình chữ nhật trong hình 8 thể hiện những tập hợp mức- h với h=0.2, 0.4, 0.6,

0.8 của X p x T p , với X p x T p là sản xuất Cartesian của input mờ Xp và chuẩn mờ Tp

Ta giả sử rằng có ba cặp input-output mờ trong hình 9 là những dữ liệu huấn luyện Một mạng nơron mờ với một lớp tín hiệu vào đơn, sáu lớp giữa và một lớp tín hiệu

ra đơn được huấn luyện bởi giải thuật học đã được đề xuất Năm tập hợp mức-h của mỗi cặp input-output trong hình 9 được sử dụng cho việc học của mạng nơron mờ Các tín hiệu ra mờ từ huấn luyện mạng nơron mờ được biểu diễn trong hình 10 với ba tín hiệu vào mờ được sử dụng trong việc học và hai tín hiệu vào mờ mới Từ so sánh giữa hình 9

Trang 10

và 10, ta có thể đưa ra các dữ liệu huấn luyện mờ phù hợp cũng như những quan sát tổng quát tốt nhất cho tín hiệu vào mờ mới

4.1 Ví dụ 2

Vì các số thực có thể được xem như trường hợp đặc biệt của số mờ, nên mạng nơron mờ đã đề xuất có thể thực hiện các tín hiệu vào thực cũng như các tín hiệu vào mờ (input fuzzy) Trong ví dụ này, ta áp dụng phương pháp đã nêu để xấp xỉ hàm mờ không tuyến tính (ánh xạ một số thực tới một số mờ) Dữ liệu huấn luyện trong ví dụ này bao gồm các cặp tín hiệu vào thực xp và các chuẩn mờ Tp Mỗi cặp này được miêu tả trong không gian input-output như trong hình 11 Tam giác trong hình 11 là hàm thuộc của chuẩn mờ tam giác Tp Ta giả sử rằng có 6 cặp tín hiệu vào và ra thực như trong hình 12

là các dữ liệu huấn luyện Sử dụng những dữ liệu huấn luyện đó, ta đã huấn luyện một mạng nơron mờ với một lớp tín hiệu vào đơn, sáu lớp bên trong và một lớp tín hiệu ra đơn bằng cách sử dụng giải thuật học đã đề xuất Tín hiệu vào thực xp được coi là một số

mờ với hàm thuộc như sau: Tín hiệu ra mờ từ huấn luyện mạng nơron mờ trong hình 13 cho ta 11 tín hiệu vào thực: x=0.0, 0.1, 0.2,…,1.0 So sánh hình 12 và 13 ta có thể đưa ra các dữ liệu huấn luyện phù hợp và xem xét một cách tổng quát các tín hiệu vào thực mới

4.3 Ví dụ 3

Trong ví dụ này, ta áp dụng phương pháp đã nêu để xấp xỉ các luật if-then mờ nhờ sử dụng một mạng nơron mờ Cho trước 3 luật if-then mờ như sau:

If x small then y is small

If x medium then y is medium

If x large then y is large

Hàm thuộc của các giá trị ngôn ngữ: "small", "medium" và "large" được cho trong

Hình 14 Từ những lụât mờ ở trên ta có thể đưa ra dữ liệu huấn luyện như sau:

{(X p ,T p )} = {(small, small), (medium, medium), large, large}.

Sử dụng dữ liệu huấn luyện trong hình 15, ta huấn luyện mạng nơron mờ có 1 lớp tín hiệu vào, 6 lớp ẩn và 1 lớp tín hiệu ra Tín hiệu ra mờ từ mạng nơ ron đã được huấn luyện biểu diễn trong hình 16 đối với dữ liệu huấn luyện Việc so sánh hai hình 15 và 16 ta có thể đưa ra các dữ liệu huấn luyện phù hợp Tín hiệu ra mờ cho những tín hiệu vào mới

“medium small” và “medium large” được biểu diễn trong hình 17 So sánh hình 15 và 17

Trang 11

ta có thể đưa ra những nhận xét tổng quát nhất cho tín hiệu vào mới Hàm thuộc của tín hiệu ra tương ứng với tín hiệu vào mới được biểu diễn trong hình 18 Hai tín hiệu ra mờ

trong Hình 18 có thể được thông dịch là "medium small" và "medium large", do đó ta thu

được hai luật if-then mờ như sau:

If x medium small then y is medium small

If x medium large then y is medium large

Cần chú ý rằng 2 luật if-then mờ trùng với dự đoán của ba luật mờ đã cho Do đó, ta có thể kết luận rằng để huấn luyện mạng nơ ron mờ cần tìm kiếm sự tồn tại các luật if-then

mờ như trong ví dụ này

4.4 Ví dụ 4

Cũng như trong ví dụ 3, trong ví dụ này ta áp dụng phương pháp đã nêu để xấp xỉ các luật if-then mờ Giả sử có 9 luật như dưới đây:

If x1 is small and x2 is small then y is large

If x1 is small and x2 is medium then y is medium large

If x1 is small and x2 is large then y is medium

If x1 is medium and x2 is small then y is medium large

If x1 is medium and x2 is medium then y is small

If x1 is medium and x2 is large then y is small

If x1 is large and x2 is small then y is medium

If x1 is large and x2 is medium then y is small

If x1 is large and x2 is large then y is small

Các giá trị ngôn ngữ trong các luật if-then ở trên giống như trong ví dụ 3 Các luật này được thể hiện trong hình 19 Chi tiết được minh họa trên các hình từ 19 đến 21 Vì chỉ có

9 luật if-then mờ ngoài 25 luật đã cho, 16 luật if-then mờ còn lại để khuyết trong bảng

Ta sẽ tìm cách hoàn thành bảng các luật mờ bằng cách chia một trong năm giá trị ngôn ngữ thành chuỗi của mỗi luật if-then mờ khuyết

Sử dụng 9 cặp tín hiệu vào-ra được chứa trong các luật if-then mờ đã cho, ta có thể huấn luyện một mạng nơ ron mờ với 2 lớp tín hiệu vào, 6 lớp trong và một lớp tín hiệu ra đơn bằng cách sử dụng thuật toán đã đề xuất Sau đó, ta tính toán được tín hiệu ra mờ từ

Ngày đăng: 27/05/2015, 15:14

HÌNH ẢNH LIÊN QUAN

Bảng 1. Mờ hoá trực tiếp mạng nơron - Một thuật toán học của mạng nơron mờ với trọng số mờ tam giác
Bảng 1. Mờ hoá trực tiếp mạng nơron (Trang 2)

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

🧩 Sản phẩm bạn có thể quan tâm

w