1. Trang chủ
  2. » Kỹ Thuật - Công Nghệ

Một số quy trình tính toán mờ và ứng dụng

51 168 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 51
Dung lượng 5,67 MB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

Mạng nơ-ron nhân tạo, với khả năng xử lý các hàm phi tuyến, linh hoạt trong việc áp dụng và khả năng tự học cao có thể nói là một phương pháp hiệu quả để áp dụng vào hệ thống phức tạp củ

Trang 1

Trường đại học bách khoa hà nội

Trang 2

2

Lời cam đoan

Kính gửi: Trung tâm Đào tạo và Bồi dưỡng sau Đại học

- Trường Đại học Bách Khoa Hà Nội

Tên tôi là: Vũ Việt Dũng

Sinh ngày: 09-07-1984

Học viên cao học khóa 2008-2010

Tôi xin cam đoan, toàn bộ kiến thức và nội dung trong bài luận văn của mình

là các kiến thức tự nghiên cứu từ các tài liệu tham khảo trong và ngoài nước, không

có sự sao chép hay vay mượn dưới bất kỳ hình thức nào để hoàn thành luận văn tốt nghiệp cao học chuyên ngành Đảm bảo toán học cho máy tính và hệ thống tính toán

Tôi xin chịu hoàn toàn trách nhiệm về nội dung của luận văn này trước Trung tâm Đào tạo và Bồi dưỡng sau Đại học – Trường Đại học Bách khoa Hà Nội

Trang 3

3

mục lục

Lời cam đoan 2

mục lục 3

Từ viết tắt 5

Danh mục các bảng 6

Danh mục hình vẽ, đồ thị 7

Mở đầu 8

I Cơ sở lý thuyết 10

1 Một số khái niệm cơ bản và hệ mờ Takagi - Sugeno 10

1.1 Một số khái niệm cơ bản 10

1.2 Suy diễn mờ và hệ mờ 11

1.3 Luật mờ Takagi - Sugeno 13

2 Mạng nơ - ron nhân tạo (Artificial neural network) 13

2.1 Cấu trúc mạng nơ - ron 14

2.2 Phân loại cấu trúc mạng nơ - ron 16

2.3 Hàm hoạt động 17

2.4 Tiến trình học 18

3 Mạng thích nghi(Adaptive network) 19

3.1 Mạng thích nghi 19

3.2 Phương pháp luyện mạng bằng thuật toán lan truyền ngược 20

3.3 Phương pháp luyện lai (hybrid learning) 22

4 Hệ thống suy diễn mờ dựa trên mạng thích nghi( Adaptive network based fuzzy inference system: ANFIS) 25

4.1 Cấu trúc mạng ANFIS 25

4.2 Phương pháp luyện lai 27

II Mô hình mạng ANFIS để dự báo giá cổ phiếu 28

Trang 4

4

1 Thị trường chứng khoán 28

1.1 Thị trường chứng khoán thế giới 28

1.2 Thị trường chứng khoán Việt Nam 29

1.3 Các nghiên cứu dự báo về thị trường chứng khoán 30

1.4 Các chỉ số cơ bản của thị trường chứng khoán Việt Nam 31

2 Mô hình mạng nơ - ron kết hợp suy diễn mờ để dự báo giá chứng khoán 33

2.1 Lựa chọn đầu vào và tiền xử lý dữ liệu 33

2.2 Mờ hóa dữ liệu đầu vào 34

3 ứng dụng mô hình mạng ANFIS trong thực tế TTCK Việt Nam 34

4 Các hạn chế của mô hình 42

III Hướng phát triển mô hình mạng nơ ron dự báo tình trạng cổ phiếu 43

1 Hệ thống dự báo chỉ số chứng khoán dựa trên luật mờ dạng Takagi - Sugeno 43

2 Phương pháp phân cụm K-Means 46

2.1 Đặt vấn đề 46

2.2 Thuật toán gần đúng giải bài toán K - Means 46

3 Luyện tham số bằng phương pháp SA 47

Kết luận 50

Tài liệu tham khảo 51

Trang 5

5

Từ viết tắt

ANN Artificial neural network Mạng nơ -ron nhân tạo

LSE Least squares estimate Ước lượng bình phương tối thiểu ANFIS Adaptive network based fuzzy

inference system

Hệ thống suy diễn mờ dựa trên mạng thích nghi

TTCK Thị trường chứng khoán

TTGDCK Trung tâm giao dịch chứng khoán

HOSE Trung tâm giao dịch chứng khoán Tp Hồ Chí Minh

HASTC,

HNX

Trung tâm giao dịch chứng khoán Hà Nội

UpCom Trung tâm giao dịch chứng khoán của các công ty đại chúng chưa

niêm yết OTC Cổ phiếu chưa niêm yết trên thị trường

VN - Index Chỉ số chứng khoán đại diện cho TTGDCK Tp Hồ Chí Minh

HNX - Index Chỉ số chứng khoán đại diện cho TTGDCK Hà Nội

MA Six days moving average Đường trung bình trong 06 ngày BIAS Six days bias Độ chênh giá trung bình trong 06

ngày RSI Six days relative strength

PSY 13 days psychological line Chỉ số tâm lý trong 13 ngày

SA Simulated annealing Thuật toán mô phỏng quá trình

luyện kim MAPE Mean absolutely percentage

error

Trung bình phần trăm sai số tuyệt

đối

Trang 6

6

Danh môc c¸c b¶ng Ch−¬ng I

Ch−¬ng II

B¶ng 1 - HÖ sè ®iÒu chØnh 35 B¶ng 2 - Tham sè cña hµm liªn thuéc 38

Ch−¬ng III

 

Trang 7

7

Danh mục hình vẽ, đồ thị

Chương I:

Hình 1: Cấu trúc một nơ - ron 15

Hình 2 : Mạng dẫn tiến một lớp 16

Hình 3 : Mạng dẫn tiến nhiều lớp 17

Hình 4: Tiến trình học 19

Hình 5: Mạng thích nghi 20

Hình 6 : Hệ suy diễn mờ Takagi-Sugeno 25

Hình 7 : Cấu trúc mạng ANFIS đơn giản 25

Chương II: Hình 8: File dữ liệu luyện 35

Hình 9: File dữ liệu kiểm tra 36

Hình 10: Khởi tạo mạng ANFIS 36

Hình 11: Cấu trúc mạng ANFIS 37

Hình 12: Luyện mạng ANFIS 37

Hình 13: Đồ thị của hàm liên thuộc của các biến đầu vào 39

Hình 14: Kết quả kiểm tra mạng 41

Chương III: Hình 15: Cấu trúc hệ thống dự đoán chứng khoán 45

Hình 16: Luyện tham số bằng phương pháp SA 49

Trang 8

8

Mở đầu

Trong những năm gần đây, lý thuyết tập mờ và mạng nơ-ron nhân tạo đã và

đang phát triển rất nhanh và đa dạng Công nghệ mờ và công nghệ mạng nơ-ron đã góp phần tạo ra những bộ điều khiển linh hoạt, thông minh, những công cụ phân tích, dự báo có khả năng làm việc với những bài toán khó, phức tạp, phải xử lý nhiều loại thông tin mập mờ, chưa đầy đủ và thiếu chính xác Hai công nghệ này là hai trụ cột chính tạo nên công nghệ tính toán mềm

Hiện nay, việc áp dụng tính toán mềm vào phân tích dự báo biến động của thị trường chứng khoán đang thu hút rất nhiều sự quan tâm nghiên cứu Để có được một quyết định đầu tư đúng đắn thì việc phân tích, xác định mức giá của cổ phiếu để lựa chọn tỉ lệ mua, bán tối ưu là hết sức quan trọng Trước đây, đã có rất nhiều các phương pháp phân tích kỹ thuật cho thị trường chứng khoán được phát triển như K-line hay trung bình động … Những phương pháp này chủ yếu dựa trên thống kê số liệu Tuy nhiên, thị trường chứng khoán là một hệ thống phi tuyến chịu nhiều tác

động của các yếu tố chính trị, kinh tế, tâm lý, xã hội Do đó, việc sử dụng các công

cụ truyền thống để trợ giúp ra quyết định trong giao dịch chứng khoán là hết sức khó khăn

Mạng nơ-ron nhân tạo, với khả năng xử lý các hàm phi tuyến, linh hoạt trong việc áp dụng và khả năng tự học cao có thể nói là một phương pháp hiệu quả để áp dụng vào hệ thống phức tạp của thị trường chứng khoán Trong các mô hình mạng nơ -ron thì mô hình mạng nơ-ron lan truyền ngược được sử dụng rộng rãi nhất và có tính chính xác hơn cả Không như các mô hình toán học cổ điển, mô hình mạng nơ -ron lan truyền ngược giúp ta xây dựng các hàm xấp xỉ dựa trên quan hệ của các đầu vào và đầu ra xác định mà không cần một mô hình cụ thể Tuy nhiên, mô hình mạng nơ-ron lan truyền ngược truyền thống cũng có một số điểm yếu như kết quả tìm được rất có thể rơi vào điểm tối ưu địa phương hay trong một số trường hợp tốc

độ tính toán rất chậm ảnh hưởng đến độ chính xác và đảm bảo của mô hình dự đoán

Để cải thiện mô hình dự đoán này, ta có thể kết hợp một số phương pháp suy diễn

mờ với mạng nơ-ron mà điển hình là mô hình mạng thích nghi kết hợp hệ suy luận

mờ ANFIS

Trang 9

9

Luận văn “Một số quy trình tính toán mờ và ứng dụng” đã nghiên cứu những kiến thức về mạng ANFIS và ứng dụng mạng ANFIS vào việc dự đoán giá cổ phiếu, kiểm nghiệm mô hình khi áp dụng vào thực tế thị trường chứng khoán Việt Nam, từ

đó đánh giá các hạn chế của phương pháp, đưa ra hướng cải tiến

Luận văn gồm 03 chương:

Chương 1: Cơ sở lý thuyết - Trình bày các khái niệm cơ bản về tập mờ, suy

diễn mờ, hệ mờ, luật mờ Takagi – Sugeno, mạng nơ ron nhân tạo, mạng thích nghi

và hệ thống suy diễn mờ dựa trên mạng thích nghi ANFIS;

Chương 2: Mô hình mạng ANFIS để dự báo giá cổ phiếu – Trình bày sơ

lược vể thị trường chứng khoán thế giới, thị trường chứng khoán Việt Nam, các nghiên cứu dự báo về thị trường chứng khoán và các chỉ số cơ bản của thị trường chứng khoán Việt Nam Trên cơ sở đó, xây dựng mạng nơ -ron kết hợp suy diễn mờ

để dự báo giá chứng khoán, lựa chọn đầu vào và kiểm nghiệm mô hình với thực tế thị trường chứng khoán Việt Nam đồng thời đánh giá các hạn chế của mô hình;

Chương 3: Hướng phát triển mô hình mạng nơ -ron dự báo tình trạng cổ phiếu – Trình bày hướng phát triển hệ thống dự báo chỉ số chứng khoán dựa trên

luật mờ Takagi – Sugeno, phương pháp phân cụm K-Means và phương pháp luyện tham số dựa trên thuật toán mô phỏng quá trình luyện kim

Cuối cùng, để có bản luận văn này, tôi xin bày tỏ lòng biết ơn sâu sắc tới gia

đình, bạn bè, thầy cô giáo của Trung tâm đào tạo và bồi dưỡng sau Đại học, Khoa Toán – Tin ứng dụng, Ban Giám hiệu trường Đại học Bách Khoa Hà Nội đã hết sức tạo điều kiện, động viên và truyền thụ các kiến thức bổ ích Đặc biệt, tôi xin gửi lời cám ơn chân thành đến thầy giáo – PGS.TSKH Bùi Công Cường cùng các bạn trong nhóm nghiên cứu lý thuyết mờ đã tận tình giúp đỡ để tôi có thể hoàn thành tốt bản luận văn này

Trang 10

10

I C¬ së lý thuyÕt

Tr−íc khi ®i vµo t×m hiÓu t− t−ëng thuËt to¸n dù b¸o gi¸ cæ phiÕu b»ng m« h×nh m¹ng n¬-ron kÕt hîp suy diÔn mê, ta cÇn t×m hiÓu mét sè kh¸i niÖm c¬ b¶n vÒ m¹ng n¬-ron, m¹ng n¬-ron lan truyÒn ng−îc vµ luËt mê Takagi-Sugeno

1 Mét sè kh¸i niÖm c¬ b¶n vµ hÖ mê Takagi - Sugeno

Trang 11

11

Cho X, Y là hai không gian nền R gọi là quan hệ mờ trên nếu R là một tập mờ trên , tức là có một hàm thuộc: , ở đây

là độ liên thuộc của (x,y) vào quan hệ R

Quan hệ mờ trên các tập mờ Cho tập mờ A với hàm liên thuộc trên X, tập mờ B với hàm liên thuộc trên Y Quan hệ mờ trên các tập mờ A và B là quan hệ mờ R trên thỏa mãn điều kiện:

1.2 Suy diễn mờ và hệ mờ

Suy luận xấp xỉ, hay còn gọi là suy luận mờ, là quá trình suy ra những kết luận dưới dạng mệnh đề mờ trong điều kiện các quy tắc, các luật, các dữ liệu đầu vào cho trước cũng không hoàn toàn xác định

Ví dụ: Xét một suy diễn mờ như sau:

Luật mờ Nếu góc tay quay ga lớn thì xe đi nhanh

Sự kiện mờ Góc tay ga quay khá lớn

Hệ quả Xe đi khá nhanh

Trong suy diễn mờ này, ta đã sử dụng biến ngôn ngữ x = “góc tay quay” trên không gian nền (góc cho phép quay tay ga của xe máy), A = “góc lớn” là một tập mờ trên U, với hàm thuộc

Tương tự, biến ngôn ngữ y = “tốc độ xe” trên không gian nền

Q = “xe đi nhanh” là một tập mờ B trên không gian nền V với hàm thuộc

Khi đó, đặt

P =”góc tay quay lớn” = {x=A},

Q = “xe đi nhanh” = “y=B”, và luật mờ sẽ có dạng

Như vậy, một luật mờ dạng “Nếu P thì Q” sẽ được biểu diễn thành một quan

hệ mờ R của phép kéo theo với hàm thuộc của R trên không gian nền

được cho bởi phép kéo theo dự định sử dụng:

Trang 12

12

Ta có thể viết lại suy diễn mờ như sau:

Luật mờ (tri thức) , với quan hệ cho bởi

Sự kiện mờ (đầu vào) , xác định bởi tập mờ trên U

Sau khi đã chọn phép kéo theo I xác định quan hệ mờ , là một tập mờ trên V với hàm thuộc của được tính bằng phép hợp thành , cho bởi công thức:

với mỗi Một dạng suy rộng khác trong cơ sở tri thức của nhiều hệ mờ thực tiễn, ví dụ

điển hình là trong các hệ điều khiển mờ, có thể phát biểu dưới dạng sau:

Cho là các biến vào của hệ thống, y là biến ra Các tập

với là các tập mờ trong không gian nền tương ứng của biến vào và biến ra đạng sử dụng của hệ thống, là các suy diễn mờ (luật mờ) dạng

Trang 13

13

1.3 Luật mờ Takagi - Sugeno

Các dạng hệ mờ xét ở trên được gọi là hệ mờ Mamdami Đặc điểm của hệ mờ Mamđami là cả đầu vào và đầu ra đều là các mệnh đề mờ, do đó hệ mờ Mamđami

có tính thông dịch cao nhưng tính chính xác kém Để cải thiện mô hình này, Takagi – Sugeno đã thay đổi phần kết luận của mỗi luật mờ, thay bởi hàm rõ của các biến

f(.) : làm hàm của các tín hiệu vào(hàm rõ)

Nhận xét : trong luật mờ Takagi - Sugeno điều kiện là mệnh đề mờ còn kết luận là hàm rõ

Một hệ mờ Takagi – Sugeno tổng quát có thể được mô tả như sau :

: Nếu là và … và là thì

: Nếu là và … và là thì

: Nếu là và … và là thì

Hệ mờ Takagi – Sugeno được xây dựng hệ mờ hệ các hàm rõ

sẽ cho kết quả chính xác hơn hệ mờ Mamdami Các hàm thường được sử dụng là các hàm dạng tuyến tính đối với các biến vào :

Các tham số sẽ được xác định qua các thủ tục luyện mạng (các thuật toán học)

2 Mạng nơ - ron nhân tạo (Artificial neural network)

Mạng nơ - ron nhân tạo (ANN) là một mô phỏng xử lý thông tin, được nghiên cứu ra từ hệ thống thần kinh của sinh vật, giống như bộ não để xử lý thông

Trang 14

14

tin ANN bao gồm số lượng lớn các mối gắn kết cấp cao để xử lý các yếu tố làm việc trong mối liên hệ giải quyết vấn đề rõ ràng ANN giống như con người, được học bởi kinh nghiệm, lưu những kinh nghiệm hiểu biết và sử dụng trong những tình huống phù hợp

ANN được giới thiệu lần đầu tiên vào năm 1943 bởi nhà thần kinh học Warren McCulloch và nhà logic học Walter Pits Tuy nhiên, các hạn chế về kỹ thuật trong thời gian này không cho phép họ nghiên cứu phát triển Những năm gần đây, các mô phỏng ANN bắt đầu xuất hiện và được nghiên cứu ứng dụng trong nhiều lĩnh vực Các ứng dụng của ANN trong các ngành: điện, điện tử, kỹ thuật chế tạo, y học, quân sự, và đặc biệt là kinh tế và thị trường chứng khoán đã mang lại một số kết quả nhất định

2.1 Cấu trúc mạng nơ - ron

Mạng nơ - ron là một mạng liên kết gồm nhiều đơn vị xử lý thông tin được gọi là nơ - ron (neural) hay nút mạng Mỗi nơ-ron nhận tạo này có nhiều đầu vào và một đầu ra Các đầu vào tiếp nhận kích thích từ đầu ra của các nơ- ron khác trong mạng hoặc từ môi trường Mỗi đầu vào có một trọng số tương ứng nhằm khuyếch

đại tín hiệu kích thích Tất cả các tín hiệu kích thích này sau khi được khuyếch đại

sẽ đi vào thân nơ-ron bắt đầu từ bộ cộng Bộ cộng sẽ thực hiện việc tổng hợp các kích thích theo công thức:

trong đó : đầu vào thứ i ; : trọng số của đầu vào thứ i

Tín hiệu sau khi được tổng hợp lại tiếp tục được biến đổi nhờ một hàm phi tuyến, thường được gọi là hàm hoạt động Và cuối cùng tín hiệu sẽ được đưa ra đầu

ra của nơ-ron để trở thành đầu vào của các nơ-ron khác hoặc trở thành tín hiệu ra của toàn bộ mạng

Trang 15

15

Hình 1: Cấu trúc một nơ -ron Trong đó:

Xi: Các tín hiệu đầu vào;

Wki: trọng số tương ứng của các tín hiệu đầu vào;

Bộ cộng;

F(.): hàm hoạt động;

Yk: Đầu ra của nơ -ron;

b: Thông số ảnh hưởng đến ngưỡng ra của đầu ra

Khi kết hợp các nơ-ron lại với nhau thành một mạng nơ-ron nhân tạo, ta có thể xem như mạng này là một mô hình tính toán với X là vectơ số liệu vào và Y là vectơ số liệu ra Ưu điểm của mạng nơ-ron nhân tạo là cho phép xây dựng một mô hình tính toán có khả năng học dữ liệu rất cao Chỉ cần đưa vào mạng một tập mẫu dữ liệu trong quá trình học là mạng có khả năng phát hiện những ràng buộc dữ liệu và áp dụng những ràng buộc này trong quá trình sử dụng mà không cần phải có thêm các tri thức về miền ứng dụng Khả năng này cho phép ta xây dựng mô hình dữ liệu một cách dễ dàng Một ưu điểm khác của mạng nơ-ron là khả năng dung thứ lỗi cao Mạng có thể chấp nhận những dữ liệu mẫu không hoàn toàn chính xác mà vẫn đảm bảo được phần nhiều tính đúng đắn của bài toán Điều này làm giảm nhẹ quá trình sàng lọc, làm mịn dữ liệu trong khai thác đồng thời cho phép xây

Trang 16

Đây là cấu trúc mạng nơ - ron đơn giản nhất Mạng nơ - ron này chỉ bao gồm

01 lớp dẫn xuất, không có lớp ẩn trung gian

nơ-ron nơ-ron nơ-ron

nơ-ron

Trang 17

17

Hình 3 : Mạng dẫn tiến nhiều lớp Mạng nơ-ron nhiều lớp được đặc tả bởi tập các thông tin cấu trúc S bao gồm

số lớp của mạng, số lượng nơ-ron trên mỗi lớp và một tập thông tin tham số P là tập các trọng số của từng nơ-ron trong mạng Khi xây dựng mạng ta cần xác định cả hai tập S và P này Thông thường, quá trình xác định S và P phụ thuộc vào tập dữ liệu mẫu đã được lưu trữ lại từ những tình huống sử dụng thực tế của hệ thống Mạng sẽ được học nhằm xây dựng một cặp S và P tốt nhất từ đó mạng có khả năng

dự đoán một kết quả Y khi đầu vào X nào đó trong bộ (X, Y) này đảm bảo được tính quy luật như trong tập dữ liệu mẫu

Một vấn đề khi xây dựng mạng nơ-ron là xác định số lớp ẩn tối ưu cho mạng vì càng nhiều lớp ẩn thì cấu trúc mạng sẽ trở nên phức tạp và thời gian luyện mạng quá lớn sẽ không đáp ứng được các yêu cầu thực tế Việc xác định này thường được thực hiện dựa trên kinh nghiệm hoặc phép thử và sai Thông thường, người ta lựa chọn số lớp ẩn cho mạng nơ-ron chỉ dừng ở 01 hoặc 02 lớp ẩn

Ngoài các mạng trên, còn có mạng hồi quy và mạng nơ - ron dạng lưới

Trang 18

18

- Hàm có tính đơn điệu ;

- Hàm phải có tính liên tục và trơn

Trong thực tế thông thường người ta chọn các hàm sau:

Trang 19

19

Hình 4: Tiến trình học Trong quá trình học, giá trị đầu vào được đưa vào mạng và theo dòng chảy trọng mạng tạo thành giá trị ở đầu ra Tiếp đó, ta thực hiện quá trình so sánh giữa giá trị tạo ra bởi mạng nơ - ron với giá trị ra mong muốn Nếu hai giá trị này giống nhau thì không thay đổi các giá trị trong mạng Ngược lại, nếu có một sai lệch giữa hai giá trị này vượt quá giá trị sai số mong muốn thì đi ngược mạng từ đầu ra về đầu vào để thay đổi một số kết nối

Đây là quá trình lặp liên tục và có thể không dừng khi không tìm được các giá trị W sao cho đầu ra tạo bởi mạng nơ - ron đúng với đầu ra mong muốn Do đó, trong thực tế người ta phải thiết lập tiêu chuẩn dựa trên một giá trị sai số nào đó của hai giá trị này, hay dựa trên một số lần lặp xác định

3 Mạng thích nghi(Adaptive network)

3.1 Mạng thích nghi

Mạng thích nghi là một khái niệm được Jyh-Shing Roger Jang phát triển từ năm 1993 Mạng thích nghi được phát triển dựa trên mạng nơ-ron lan truyền thẳng với khả năng học có thầy Cấu trúc mạng thích nghi cũng bao gồm các nút mạng và các liên kết trực tiếp giữa các nút mạng, tuy nhiên, sự khác biệt nằm ở chỗ một số hoặc tất cả các nút mạng có khả năng thích nghi, tức là đầu ra của chúng có khả năng thay đổi tùy theo các tham số của nút đó, trong khi các nút mạng khác không

có tham số Tiến trình học của mạng sẽ xác định các tham số của các nút thích nghi sao cho sai số của mạng là nhỏ nhất

Trang 20

20

Mạng thích nghi là một mạng đa lớp lan truyền thẳng, bao gồm các nút cố

định (hình tròn) và các nút thích nghi (hình vuông) như hình 5:

Hình 5: Mạng thích nghi Mỗi nút của mạng thích nghi đặc trưng bởi một hàm đối với các tín hiệu đầu vào (hàm nút) và một tập các tham số của nút Hàm nút có thể khác nhau đối với mỗi nút và phụ thuộc vào hàm đầu vào và hàm đầu ra được xác định cho từng mạng Liên kết trong mạng thích nghi là liên kết trực tiếp giữa các nút, không có trọng số

đối với các liên kết

3.2 Phương pháp luyện mạng bằng thuật toán lan truyền ngược

Cũng như các mạng nơ-ron, mạng thích nghi có thể thực hiện tiến trình học bằng thuật toán lan truyền ngược dựa trên phương pháp gradient

Xét một mạng thích nghi gồm L lớp, lớp thứ k có nút Gọi nút thứ i trong lớp thứ k là (k, i) và hàm nút của nó là Do hàm nút phụ thuộc vào tín hiệu đầu vào và các tham số của nó nên ta có :

Trong đó: a,b,c, … là các tham số của nút

Giả sử cho một bộ dữ liệu luyện gồm P bộ dữ liệu Gọi là hàm giá (hay hàm đánh giá sai số) cho thành phần thứ p của bộ dữ liệu luyện được tính theo công thức :

Trang 21

21

Trong đó:

- : thành phần thứ m của vectơ đầu ra mong muốn thứ p của mạng ;

- : thành phần thứ m của vectơ đầu ra qua tính toán thứ p của mạng; Như vậy, tổng hàm đánh giá sai số

Để thực hiện các thủ tục luyện mạng theo phương pháp tụt gradient của E trên không gian các tham số, ta tính toán tỉ lệ sai số đối với dữ liệu luyện thứ p và từng hàm nút O Tỉ lệ lỗi của nút thứ i trong lớp thứ L (L, i) có thể được tính trực tiếp từ công thức (2) :

Đối với nút (k,i) tỉ lệ sai số có thể tính toán bằng luật lan truyền ngược, cụ thể :

Với Theo đó, tỉ lệ lỗi của một nút bất kỳ thuộc các lớp giữa của mạng sẽ được tính thông qua một tổ hợp tuyến tính của tỉ lệ lỗi các nút trong lớp kế tiếp

Gọi là tham số của mạng thích nghi đang xét, ta có :

Trong đó S là tập các nút có đầu ra phụ thuộc vào

Ta có mối quan hệ giữa tổng sai số của mạng và tham số được biểu diễn như sau :

Theo đó, việc cập nhật tham số sẽ theo công thức sau :

Trang 22

Đối với phương pháp luyện theo mẫu, tham số được cập nhật theo công thức (5) sau khi một bộ dữ liệu luyện được chạy

3.3 Phương pháp luyện lai (hybrid learning)

Phương pháp luyện dựa trên gradient trình bày ở trên có thể dùng để xác định các tham số của mạng thích nghi Tuy nhiên, phương pháp gradient thường có tốc độ hội tụ chậm và dễ dừng ở các cực tiểu địa phương Phương pháp luyện lai kết hợp giữa phương pháp gradient và ước lượng bình phương tối thiểu (LSE) sẽ cải thiện các điểm yếu của phương pháp cổ điển trên

a Phương pháp luyện lai theo lượt

Để đơn giản, xét mạng thích nghi chỉ có một đầu ra (output)

Trong đó là tập các biến đầu vào và S là tập các tham số Giả sử tồn tại một hàm H sao cho hàm hợp là hàm tuyến tính đối với một số thành phần của S, khi đó các thành phần này có thể xác định bằng phương pháp bình phương tối thiểu Bên cạnh đó, nếu tập S có thể phân hoạch thành hai tập

Trang 23

23

(trong đó là phép cộng trực tiếp) sao cho tuyến tính với các thành phần của , áp dụng vào (9) ta có :

là tuyến tính đối với các thành phần của Khi đó, với tập được khởi tạo giá trị,

áp dụng tập dữ liệu luyện P vào (11), ta thu được phương trình :

Với X là vectơ chứa các thành phần của tập tham số Đặt , khi đó số chiều của A, X và B lần lượt là Thông thường, số lượng bộ dữ liệu luyện P thường lớn hơn số tham số tuyến tính M, do đó, phương trình (12) trở nên quá xác định và không tìm được nghiệm chính xác Vì vậy, ta sử dụng phương pháp ước lượng bình phương tối thiểu với để tối thiểu hóa bình phương sai số

Đây là bài toán quen thuộc trong hồi quy tuyến tính, lọc thích nghi và

và dễ dàng sửa đổi để áp dụng cho phương pháp luyện mẫu

Gọi là dòng thứ i của ma trận A, là thành phần thứ i của B Khi đó, X

có thể được tính qua chuỗi sau :

Trang 24

24

Trong đó là ma trận hiệp phương sai và Khởi tạo chuỗi (14) với

và , với I là ma trận đơn vị kích thước Trong trường hợp hệ mạng thích nghi nhiều đầu ra ( output trong công thức (9) là một vectơ cột), công thức (14) vẫn có thể áp dụng với là dòng thức i của ma trận B

Như vậy, ta có thể kết hợp phương pháp gradient và phương pháp ước lượng bình phương tối thiểu để cập nhật các tham số cho mạng thích nghi Mỗi vòng lặp của quá trình luyện lai sẽ gồm hai pha : pha tiến và pha lùi Trong pha tiến, ta sử dụng các dữ liệu luyện đầu vào, tính toán đầu ra của từng nút cho đến khi thu được

ma trận A và B tại công thức (12) và các giá trị tham số trong được tính toán theo công thức (14) Trong pha lùi, ta thực hiện quay lui trên mạng, sử dụng thuật toán gradient để tính toán cá giá trị của theo công thức (7)

b Phương pháp luyện theo mẫu

Phương pháp luyện theo mẫu hay luyện online rất cần thiết cho các mạng có tính thay đổi cao Để chuyển từ phương pháp luyện theo lượt sang luyện theo mẫu,

đòi hỏi thủ tục tụt theo gradient phải dựa trên (công thức(5)) thay vì E Như vậy, thực chất không phải dùng thủ tục gradient thực sự để cực tiểu hóa E, tuy nhiên ta có thể xấp xỉ thủ tục gradient bằng cách sử dụng tỷ lệ học nhỏ

Đối với công thức chuỗi bình phương tối thiểu trong trường hợp mạng thay

đổi liên tục, ta cần giảm ảnh hưởng của bộ dữ liệu cũ trước khi áp dụng bộ dữ liệu mới Một phương pháp được áp dụng là thêm vào công thức (14) một hệ số quên :

với

Rõ ràng, càng nhỏ thì ảnh hưởng của dữ liệu cũ càng được giảm Tuy nhiên, việc lựa chọn quá nhỏ có thể dẫn đến tính bất ổn định của công thức và nên

được hạn chế

Trang 25

25

4 Hệ thống suy diễn mờ dựa trên mạng thích nghi( Adaptive network based fuzzy inference system: ANFIS)

ANFIS là một lớp mạng riêng của các mạng thích nghi, có chức năng tương

đương với một hệ suy diễn mờ Mạng ANFIS thường được sử dụng để mô hình hóa các hệ suy diễn mờ dạng Takagi-Sugeno

4.1 Cấu trúc mạng ANFIS

Xét một hệ mờ dạng Takagi –Sugeno gồm hai luật mờ:

: Nếu là và là thì

: Nếu là và là thì

Hình 6 : Hệ suy diễn mờ Takagi-Sugeno

Dễ thấy, ta có một mạng thích nghi 5 lớp tương ứng với hệ suy diễn mờ trên với cấu trúc như hình 7 Một mạng thích nghi như vậy được gọi là một hệ suy diễn

mờ dựa trên mạng thích nghi

Hình 7 : Cấu trúc mạng ANFIS đơn giản

Ngày đăng: 15/07/2017, 23:21

HÌNH ẢNH LIÊN QUAN

Hình 1: Cấu trúc một nơ -ron  Trong đó: - Một số quy trình tính toán mờ và ứng dụng
Hình 1 Cấu trúc một nơ -ron Trong đó: (Trang 15)
Hình 2 : Mạng dẫn tiến một lớp - Một số quy trình tính toán mờ và ứng dụng
Hình 2 Mạng dẫn tiến một lớp (Trang 16)
Hình 3 : Mạng dẫn tiến nhiều lớp  Mạng nơ-ron nhiều lớp đ−ợc đặc tả bởi tập các thông tin cấu trúc S bao gồm - Một số quy trình tính toán mờ và ứng dụng
Hình 3 Mạng dẫn tiến nhiều lớp Mạng nơ-ron nhiều lớp đ−ợc đặc tả bởi tập các thông tin cấu trúc S bao gồm (Trang 17)
Hình 4: Tiến trình học  Trong quá trình học, giá trị đầu vào đ−ợc đ−a vào mạng và theo dòng chảy  trọng mạng tạo thành giá trị ở đầu ra - Một số quy trình tính toán mờ và ứng dụng
Hình 4 Tiến trình học Trong quá trình học, giá trị đầu vào đ−ợc đ−a vào mạng và theo dòng chảy trọng mạng tạo thành giá trị ở đầu ra (Trang 19)
Hình 5: Mạng thích nghi  Mỗi nút của mạng thích nghi đặc tr−ng bởi một hàm đối với các tín hiệu đầu  vào (hàm nút) và một tập các tham số của nút - Một số quy trình tính toán mờ và ứng dụng
Hình 5 Mạng thích nghi Mỗi nút của mạng thích nghi đặc tr−ng bởi một hàm đối với các tín hiệu đầu vào (hàm nút) và một tập các tham số của nút (Trang 20)
Hình 7 : Cấu trúc mạng ANFIS đơn giản. - Một số quy trình tính toán mờ và ứng dụng
Hình 7 Cấu trúc mạng ANFIS đơn giản (Trang 25)
Hình 6 : Hệ suy diễn mờ Takagi-Sugeno - Một số quy trình tính toán mờ và ứng dụng
Hình 6 Hệ suy diễn mờ Takagi-Sugeno (Trang 25)
Hình 8: File dữ liệu luyện - Một số quy trình tính toán mờ và ứng dụng
Hình 8 File dữ liệu luyện (Trang 35)
Bảng 1: Hệ số điều chỉnh - Một số quy trình tính toán mờ và ứng dụng
Bảng 1 Hệ số điều chỉnh (Trang 35)
Hình 9: File dữ liệu kiểm tra. - Một số quy trình tính toán mờ và ứng dụng
Hình 9 File dữ liệu kiểm tra (Trang 36)
Hình 11: Cấu trúc mạng ANFIS - Một số quy trình tính toán mờ và ứng dụng
Hình 11 Cấu trúc mạng ANFIS (Trang 37)
Hình 12: Luyện mạng ANFIS - Một số quy trình tính toán mờ và ứng dụng
Hình 12 Luyện mạng ANFIS (Trang 37)
Bảng 2: Tham số của hàm liên thuộc - Một số quy trình tính toán mờ và ứng dụng
Bảng 2 Tham số của hàm liên thuộc (Trang 38)

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

🧩 Sản phẩm bạn có thể quan tâm

w