Với thời gian khoảng 6 tháng, mục tiêu của luận văn này cố gắng nguyên cứu chung mạng neuron mờ và xây dựng mạng neuron mờ cho việc bảo vệ các khối phần tử cụ thể là bảo vệ máy biến áp b
Trang 1Đại Học Quốc Gia Tp Hồ Chí Minh TRƯỜNG ĐẠI HỌC BÁCH KHOA
LUẬN VĂN THẠC SĨ
ỨNG DỤNG MẠNG NEURON MỜ CHO VIỆC BẢO VỆ
KHỐI PHẦN TỬ - BẢO VỆ MÁY BIẾN ÁP
CHUYÊN NGÀNH HỆ THỐNG ĐIỆN
MÃ SỐ NGÀNH:
Thực hiện: Vũ Ngọc Viên
Tp HCM tháng 9 năm 2002
Trang 2CÔNG TRÌNH ĐƯỢC HOÀN THÀNH TẠI TRƯỜNG ĐẠI HỌC BÁCH KHOA ĐẠI HỌC QUỐC GIA TP HỒ CHÍ MINH
Cán bộ hướng dẫn khoa học: TS Nguyễn Hoàng Việt
Cán bộ chấm nhận xét 1:
Cán bộ chấm nhận xét 2:
Luận văn thạc sĩ được bảo vệ tại HỘI ĐỒNG CHẤM BẢO VỆ LUẬN VĂN THẠC SĨ TRƯỜNG ĐẠI HỌC BÁCH KHOA , ngày tháng năm 2002
Trang 3Lời cám ơn
Em xin bày tỏ lòng tri ân sâu sắc với thầy Tiến sĩ Nguyễn Hoàng
Việt đã hướng dẫn, giảng dạy em trong suốt quá trình làm đề tài này
Em xin chân thành biết ơn các thầy cô trong Bộ môn Hệ thống đã giúp đỡ em để thực hiện luận văn
Xin chân thành cám ơn các bạn đồng môn đã tích cực động viên em thực hiện luận văn
Vũ Ngọc Viên
Trang 4NỘI DUNG PHẦN I: MỞ ĐẦU
I ĐẶT VẤN ĐỀ
II MỤC TIÊU NHIỆM VỤ LUẬN ÁN
III PHẠM VI NGUYÊN CỨU
PHẦN II:
CHƯƠNG I:- TỔNG QUAN VỀ MẠNG NEURON VÀ ỨNG DỤNG
TRONG ĐIỀU KHIỂN
1.1 TỔNG QUAN
1.1.1 Giới thiệu chung về Neural Network
1.1.2 Lịch sử phát triển
1.1.3 Mạng neuron nhân tạo
1.1.4 Ưu nhược điểm của mạng neuron nhân tạo
1.2 CẤU TRÚC MẠNG NEURON
1.2.1 Phân loại theo cấu trúc
a Mạng cấp thuận
b Mạng hồi quy
1.2.2 Phân loại theo thuật toán
a Học giám sát
b Học không giám sát
c Học tăng cường
1.3 CÁC LOẠI MẠNG NEURON
1.3.1 Mạng Perceptron nhiều lớp
Trang 5Luận văn Cao học Thầy hướng dẫn: TS Nguyễn Hoàng Việt
1.4.1 Giải thuật học perceptron
a Mô tả giải thuật
b Phân loại với Perceptron
c Tóm tắt giải thuật
1.4.2 Giải thuật học Delta
a Mô tả giải thuật
b Tóm tắt giải thuật
1.4.3 Giải thuật Backpropagation
1.5 ỨNG DỤNG MẠNG NEURON TRONG HTĐ
CHƯƠNG II: LÝ THUYẾT LOGIC MỜ
2.1 SƠ LƯỢC VỀ LOGIC MỜ
2.1.1 Quá trình phát triền của logic mờ
2.1.2 Cơ sở toán học của logic mờ
2.1.3 Logic mờ là logic của con người
2.2 CÁC KHÁI NIỆM DÙNG TRONG LOGIC MỜ
2.2.1 Hàm phụï thuộc
2.2.2 Biến ngôn ngữ
2.3 CÁC PHÉP TOÁN TRÊN TẬP MỜ
2.3.1 Phép hợp hai tập mờ
2.3.2 Phép giao hai tập mờ
2.3.3 Phép bù hai tập mờ
2.4 TÍNH TOÁN MỜ
2.4.1 Mờ hóa
2.4.2 Suy luận mờ
2.4.3 Giải mờ
2.5 HỆ THỐNG ĐIỀU KHIỂN MỜ
Chương III: NEURON MỜ
3.1 SƠ LƯỢC VỀ NEURON MỜ
3.2 CÁC LOẠI MẠNG NEURON MỜ
3.2.1 Hệ mờ dựa trên mạng neuron
3.2.2 Mạng neuron dựa trên hệ mờ
Trang 63.3 MỜ HOÁ MẠNG NEURON
3.3.1 Mạng Perceptron mờ
3.3.2 Mạng bộ nhớ phối hợp mờ
3.4 TÓM TẮT
PHẦN IV:
CHƯƠNG IV: NGUYÊN LÝ BẢO VỆ KHỐI PHẦN TỬ
4.1 ĐẶT VẤN ĐỀ
4.2 SỰ CẦN THIẾT CỦA BẢO VỆ
4.3 NGUYÊN CỨU BẢO VỆ KHỐI PHẦN TỬ
4.3.1 Bảo vệ chính
4.3.2 Bảo vệ dự trữ
CHƯƠNG V: HỆ SỐ HỖN HỢP PHÁT HIỆN SỰ CỐ
5.1 ĐẶT VẤN ĐỀ
5.2 NGUYÊN TẮC CƠ BẢN
5.2.1 Trường hợp 1 pha
5.2.2 Trường hợp 3 pha
5.3 HỆ SỐ HỖN HỢP PHÁT HIỆN SỰ CỐ
5.3.1 Phát hiện sự cố
5.3.2 Phân loại sự cố và chọ pha
5.3.3 Phân biệt sự cố trực tiếp
5.4
CHƯƠNG VI: ÁP DỤNG MẠNG NEURON MỜ CHO VIỆC BẢO VỆ KHỐI
PHẦN TỬ – BẢO VỆ MÁY BIẾN ÁP
6.1 ĐẶT VẤN ĐỀ
6.2 BẢO VỆ KHỐI PHẦN TỬ
6.3 THIẾT KẾ MẠNG NEURON MỜ
6.3.1 Mô hình mạng neuron mờ
6.3.2 Thiết kế hệ thống mờ
6.3.3 Thiết kế mạng neuron
6.4 MẠNG NEURON MỜ CHO VIỆC BẢO VỆ
Trang 7Luận văn Cao học Thầy hướng dẫn: TS Nguyễn Hoàng Việt
6.5 LẬP TRÌNH MÔ PHỎNG
CHƯƠNG VII: KẾT LUẬN
7.1 ĐÁNH GIÁ
7.2 KẾT LUẬN
PHỤ LỤC
Phụ lục 1: Tính hệ số hỗ hợp & ngắn mạch
Phụ lục 2: Phương pháp biến đổi Fourier rời rạc nhanh (SDFT)
Phụ lục 3: Tập đầu vào, đầu ra chuẩn, đầu ra thực, bộ trọng số
Phụ lục 4: Chương trình
Phụ lục 5: Hình vẽ nguyên lý bảo vệ
Phụ lục 6:
Tài liệu tham khảo
Trang 8Nguyễn Hoàng Việt
MỞ ĐẦU
I ĐẶT VẤN ĐỀ
Phương pháp bảo vệ các phần tử hệ thống điện kinh điển dùng việc so sánh giữa các giá trị dòng điện, điện áp để bảo vệ sự cố khi các giá trị này thay đổi Chẳng hạn bảo vệ quá dòng dùng I so sánh với Iđm, hay bảo vệ khoảng cách dùng U và I, còn việc so sánh giữa các dòng điện với nhau để cho bảo vệ so lệch
Ngày nay, việc thu thập các thông điện áp, dòng điện, và góc pha để so sánh và đưa ra sử lý để nhận biết sự cố sẽ nhanh chóng Đặc biệt với sự pháp triển các hệ thông minh như neuron và hệ mờ để giải quyết bài toán nhận dạng sự cố trong hệ thống điện sẽ dễ dàng và nhanh chóng hơn
II MỤC TIÊU VÀ NHIỆM VỤ CỦA LUẬN ÁN
1 Mục tiêu;
• Xây dựng mạng neuron mờ trong việc bảo vệ các phần tử Hệ Thống điện
• Xây dựng nguyên lý bảo vệ khối phần tử
• Nguyên cứu kỹ thuật định vị sự cố cho bảo vệ hệ thống điện
• Mô phỏng việc nhận dạng sự cố cho việc bảo vệ máy biến áp
2 Nhiệm vụ:
• Nguyên cứu mạng neuron và việc ứng dụng trong điều khiển
• Nguyên cứu logic mờ và việc ứng dụng trong điều khiển
• Nguyên cứu neuron mờ
• Xây dựng bảo vệ khối phần tử
• Xây dựng nguyên lý bảo vệ bằng kỹ thuật định vị sự cố
• Xây dựng mạng neuron mờ trong việc bảo vệ các phần tử khối
• Ưùng dụng cho việc bảo vệ máy biến áp
Trang 9Luận văn cao học Thầy hướng dẫn: TS
Nguyễn Hoàng Việt
• Mô phỏng
Với thời gian khoảng 6 tháng, mục tiêu của luận văn này cố gắng nguyên cứu chung mạng neuron mờ và xây dựng mạng neuron mờ cho việc bảo vệ các khối phần tử cụ thể là bảo vệ máy biến áp bằng phương pháp hệ số hỗh hợp để có thể bảo vệ chính xác và nhận dạng đúng sự cố khi xẩy ra
Trang 10CHƯƠNG I:
TỔNG QUAN VỀ MẠNG NEURON VÀ ỨNG DỤNG TRONG
ĐIỀU KHIỂN
1.1 TỔNG QUAN:
1.1.1 GIỚI THIỆU CHUNG VỀ NEURAL NETWORKS
Mạng neurons hoặc mạng neuron nhân tạo, hoặc sử lý song song là một ngành kỹ thuật mới, xuất phát từ nhiều ngành khoa học tự nhiên khác nhau; như sinh vật học, vật lý học, tâm lý học, thần kinh học Kỹ thuật mới này cố gắng thi hành tốt bằng sự kết nối các phần tử tính toán với nhau Trong nghĩa này, cơ cấu mạng neuron nhân tạo dựa trên sự hiểu biết của chúng ta về những hệ thống thần kinh sinh học
Mạng neuron có nhiều triển vọng được áp dụng trong lĩnh vực Hệ thống điện Ơû đây nhờ vào đặc tính xử lý song song nên có khả năng tính toán cho các vấn đề phức tạp Thay vì sử lý những lệnh trong chương trình theo những tuần tự trước sau như trong máy tính Các mạng neuron xử lý song song thậm chí cạnh tranh nhau Mạng neuron gồm nhiều phần tử tính toán (computing units) và chúng được kết nối với nhau và sự liên hệ đó được biểu diễn bởi trọng số của phần tử đối với các phần tử khác trong mạng Mạng neuron được diễn tả bởi cơ cấu tổ chức của mạng Những đặc tính của từng nút trong mạng và những quy luật học tập (training learning rules) Những quy luật học khởi tạo một tập trọng số đồng thời chỉ cách biến đổi trọng số để cải tiến sự liên hệ của các phần tử tính và qua đó tăng hiệu lực thi hành của mạng Những thu tục xây dựng mạng và những qui luật học tập là những lĩnh vực nguyên cứu hiện nay của lĩnh vực mạng neuron nhân tạo
Những lợi ích của mạng neuron rất to lớn, đặc biệt nó cung cấp độ chính xác cao đồng thời nó cũng chấp nhận một khoảng lỗi sai cho phép nhất định Vì mạng neuron gồm nhiều nút và những nút được xử lý đồng thời Nếu một trong vài nút của mạng bị hư hỏng, mạng vẫn tiếp tục vận hành đúng và kết quả bài toán không ảnh hưởng là bao
Sự phát triển của các công trình nghiên cứu về tính toán theo mô hình neurons đã nhận định là trí óc con người tính toán một các khác hẳn với máy tính thông thường Mục đích của sự tính toán neuron là hiểu được những quy luật dùng làm cơ sở cho sự hiểu biết về những lời giải của trí
Trang 11Luận Văn Cao Học Thầy hướng dẫn: TS Nguyễn Hoàng Việt
óc trong lĩnh vực nhận dạng và áp dụng những quy luật đó vào lĩnh vực máy tính
1.1.2 LỊCH SỬ PHÁT TRIỂN
Mạng neuron được xem như một mô hình toán học đơn giản của bộ não con người có chức năng xử lý song song Trái với máy tính hoạt động dưa trên chương trình do con người viết sẵn, mạng neuron hoạt động dựa trên những gì đã được học trước đó
Mạng neuron có thể học các kết hợp mới, các chức năng mới hay nhận biết các mẫu mới Mặc dù máy tính có thể làm những việc hiện tại với độ chính xác và tốc độ cao, nhưng mạng neuron hứa hẹn một thế giới mới trong lĩnh vực xử lý thông tin
Mạng neuron phát triển rất sớm và lịch sử phát triển của nó có thể tóm tắt như sau:
Giai đoạn từ những năm 1940 đến 1960 có thể xem là thế hệ thứ nhất của mạng neuron nhân tạo:
McCulloch và Pitts, 1943:biễu diễn toán học của các neuron
Rosenblatt, 1959: nguyên lý mạng neuron một tầng bắt đầu từ những
năm 1950 trong chương trình Cognitve System research Program ở đại học Conell Trong năm 1957, báo cáo kỹ thuật được đưa ra và định nghĩa Percetron của Rosenblatt Mục đích là minh họa rằng một mạng thích nghi với nhiều kết nối với các đơn vị phi tuyến phải mô phỏng khả năng nhận biết Năm 1963 có 98 công trình vế percetron, mặc dù nhiều người nghĩ rằng Rosenblatt chỉ xem xét các đơn vị một tầng và cho ra kết quả nhị phân, nhưng điều này không đúng Ông đã cố gắng nghiên cứu các điều kiện cân bằng mạng (hồi quy) “cross-couple” và “back-couple”, sau đó được Hopfield cải tiến
Widrow, 1960:các thuật toán LMS của Widrow liên quan mật thiết đến
perceptron đối với thiết bị Adaline/Madaline cả hai thiết bị này là máy một đơn vị hoặc một tầng, mà nguồn gốc của nó chịu ảnh hưởng mạnh của nhu cầu phân loại mẫu
Minsky và papert, 1969: Minsky và Papert tìm cách giảm thiểu sự quan
tâm perceptron bằng cách minh họa nhiều ánh xạ mong muốn không thể đạt được bằng perceptron
Trang 12Thế “hệ thứ hai”của mạng neuron, sự thiếu sót của perceptron được chỉ
ra thông qua mạng chuyển tiếp tổng quát và các thuật toán học tập liên kết Ngoài ra có nhiều ứng dụng mới, các kiến trúc và những thuật toán đào tạo cũng phát sinh, một số sự kiện trong giai đoạn này là:
• Cấu trúc chuyển tiếp bằng đào tạo kiểu truyền ngược, khoảng năm
1985
• Mạng chức năng xuyên tâm
• Mạng Hopfield (hồi quy), năm 1982
• Mạng thích nghi: Grossberg (ART), Kohonen (tự tổ chức)
1.1.2 MẠNG NEURON NHÂN TẠO
Mạng neuron nhân tạo là các hệ thống được xây dựng bằng cách mô phỏng lại nguyên lý tổ của bộ óc con người Bộ óc con người là một hệ thống có khoảng 10 10 đến 1012 neuron có cầu trúc Các neuron này được tổ chức khoảng 200 mô hình Các nhóm của các neuron với những sự kết
nối
1.1.3 ƯU NHƯỢC ĐIỂN CỦA NEURON NHÂN TẠO
Ưu điểm:
• Song song trên phạm vi lớn một cách cố hữu
• Có thể chấp nhận lỗi do tính song song
• Có thể thiết kế để thích nghi
• Ít cần thiết cho việc mở rông bài toán
Các nhược điểm:
• Không có luật rõ ràng hoặc hướng dẫn thiết kế cho một ứng dựng bất kỳ
• Không có cách tổng quát để đánh giá vận hành bên trong của mạng
• Việc đào tạo có thể khó khăn hoặc không thể được
• Khó dự đoán vận hành tương lai của mạng
Trang 13Luận Văn Cao Học Thầy hướng dẫn: TS Nguyễn Hoàng Việt
1.2 CẤU TRÚC MẠNG NEURAL:
Mạng neuron là một sự liên kết các phần tử xử lý hay còn gọi là các neuron Cách liên kết giữa các neuron sẽ đánh giá được cấu trúc mạng neuron Mạng neuron có thể được phân loại tùy theo cấu trúc hay các thuật toán học của nó:
1.2.1 PHÂN LOẠI THEO CẤU TRÚC
Về cấu trúc mạng neuron có thể phân thành 2 loại như sau: Mạng cấp thuận ( Feedforward networks) và mạng hồi quy (Recurrent networks):
a Mạng cấp thuận:
Các neuron được nhóm thành các lớp Luồng tín hiệu từ lớp đầu vào đưa đến lớp đầu ra được thông qua một kết nối trung gian Các neuron được kết nối từ một lớp kế cận, nhưng không cùng nằm trong một lớp giống nhau Mạng cấp thuận gồm có các mạng như sau;
i Mạng Perceptron nhiều lớp MLP (Multi layer Perceptron)
ii Mạng LVQ (Learning Vector Quantization)
iii Mạng CMAC (Cerebellar Model Articulation Control)
iv Mạng GMDH (Group Method of Data Handling)
b Mạng hồi quy:
Đầu ra của một vài neuron được đưa ngược đến các neuron giống nhau hoặc các neuron ở trong các lớp phía trước Do đó tín hiệu theo cả hai hướng: thuận và hướng ngược Mạng hồi quy bao gồm các loại mạng như:
i Mạng Hopfield
ii Mạng Elman và mạng Jordan
Mạng hồi quy có bộ nhớ động: các đầu ra của chúng phản ánh ngay lập tức tín hiệu đầu vào cũng như tín hiệu đầu ra phía trước
1.2.2 PHÂN LOẠI THEO THUẬT TOÁN
Mạng neuron được huấn luyện theo hai loại thuật toán chính sau: thuật toán học có giám sát và thuật toán học không giám sát Ngoài ra còn có
Trang 14thêm kiểu thứ ba đó là học tăng cường mà có thể xem như là một dạng đặc biệt của học có giám sát
a Học có giám sát:
Là thuật toán hiệu chỉnh các chiều dài của các trọng số liên kết các neuron dựa theo sự khác nhau giữa các đầu ra mong muốn và các đầu ra thực sự tương ứng với các đầu vào đã cho Do đó học có giám sát đòi hỏi phải có một người dạy hoặc người giám sát trong quá trình học
Thuật toán học như ;
i Quy tắc Delta
ii Thuật toán học truyển ngược
iii Thuật toán LPQ
b Học không giám sát:
Là thuật toán không đỏi hỏi phải biệt đầu ra mong muốn Trong quá trình huấn luyện chỉ có các mẫu đầu vào được đưa đến mạng và nó sẽ tự động thích nghi với các trọng số , ứng với các liên kết để tập hợp các mẫu đầu vào thành các nhóm mà có đặc điểm giống nhau Thuật toán học không giám sát gồm có :
i Kohonen
ii ART ( Carpenter Grossberg Adaptive Resonance)
c Học tăng cường:
Là một dạng đặc biệt của học có giám sát, thuật toán học tăng cường dùng phép phân tích để đánh giá tính chật tốt của đầu ra mạng neuron tương ứng với đầu vào đã cho, thay vì phải sử dụng một người dạy để được một đầu ra mong muốn như thuật toán học có giám sát Thuật toán học tăng cường như là thuật toán GA ( genetic algorithm)
1.3 CÁC LOẠI MẠNG NEURON:
Có nhiều loại mạng neuron nhưng tất cả các mạng neuron đều có chung một đặc điểm là gồm có 3 phần: các neuron, liên kết giữa các neuron và phương pháp học Mạng neuron bao gồm môt hay nhiều lớp neuron Ví dụ như mạng Hopfield chỉ có một lớp neuron duy nhất, trong đó ngõ ra của mỗi neuron được cấp ngược vào các neuron kế cận Mạng cấp thuận như
Trang 15Luận Văn Cao Học Thầy hướng dẫn: TS Nguyễn Hoàng Việt
mạng Perceptron nhiều lớp và mạng RBF có một hoặc nhiều lớp neuron, trong đó các lớp neuron ẩn nằm giữa các neuron nhập và xuất Mạng có lớp ngõ ra ở dạng lưới như mạng Kohonen Sau đây là một số mạng cơ bản thường gặp:
1.3.1 MẠNG PERCEPTRON NHIỀU LỚP
Mạng Perceptron được phát triển bởi Werbos vào năm 1974, Parker vào năm 1985, Rumelhart và MCClland vào năm 1986
Mạng Perceptron là một kiểu mạng cấp thuận, gồm có:
- Một lớp nhập
- Một hoặc nhiều lớp ẩn trung gian
- Một lớp xuất
Mạng Perceptron với thuật toán truyền ngược là mạng neuron được sử dụng nhiều nhất để giải quyết nhiều bài toán khác nhau Trong hệ thống điện mạng Perceptron được sử dụng đánh giá an toàn hệ thống điện, dự báo phụ tải, xác định điểm sự cố, xử lý tín hiệu báo động, đống ngắt tụ tối
ưu, khảo sát ổn định hệ thống có thể nói rằng thuật toán truyền ngược là thuật toán quan trọng nhất trong lĩnh vực neuron hiện hay
Mô hình của mạng Perceptron như sau:
Trang 16Các neuron ở lớp đầu vào chỉ tác động như là vùng đệm cho việc phân phối các tín hiệu đầu vào đến các neuron ở trong lớp ẩn Mỗi neuron j trong lớp ẩn là tổng của các tín hiệu xi sau khi được nhân với các trong số kết nối wji từ lớp đầu vào và tính toán đầu ra của nó thông qua hàm f như sau:
y j = f ∑w x ji i
Đầu ra của các neuron trong lớp đầu ra được tính tương tự
Thuật toán truyền ngược được ứng dụng trong mạng neuron là một thuật toán quan trọng nhất trong lĩnh vực neuron hiện nay Đây là thuật toán giải quyết theo chiều Gradien âm Thuật toán học truyền ngược này sử dụng để huấn luyện cho mạng neuron
Trong luận văn này sử dụng mạng perceptron nhiều lớp nên ta xem xét
ưu nhược điểm của mạng perceptron nhiều lớp
• Ưu điểm: Mô hình mạng Perceptron có khả năng xử lý song song trong phạm vi rộng, khả năng của mạng hoạt động của mạng rất lớn Nó cho phép liên tục khi đưa đồng loạt nhiều tín hiệu đồng loạt cho mạng xử lý
Do khả năng xử lý song song nên nó chấp nhận các tín hiệu lỗi Nghĩa là nếu đưa đồng loạt nhiều tín hiệu lỗi vào mạng thì mạng vẫn hoạt động
• Nhược điểm: Do có cầu trúc đa lớp nên quá trình điều chỉnh mạng gặp nhiều khó khăn, nhất là trong quá trình điều chỉnh mạng Do khả năng vận hành mạng lớn và có các lớp ẩn nằm bên trong mạng Do đó khó nhận biết tình trạng hoạt động của mạng, do đó khó huấn luyện Vì vậy đôi khi huấn kuyện không thể thực hiện được (khả năng hội tụ)
Trang 17Luận Văn Cao Học Thầy hướng dẫn: TS Nguyễn Hoàng Việt
Đầu ra y1 y2 y3 yn
Lớp w12 w13
x1 x2 x3 xn
Đầu vào
Quá trình huấn luyện cho mạng Hopfield chỉ có một bước và các trông số
wij của mạng được gán như sau:
c i c c
Trong đó: wij là trọng số liên kết từ neuron i đến neuron j,
và xIc là thành thứ i của mẫu huấn luyện đầu vào cho lớp c
p là số lớp
N là số neuron
Trong phương trình trên wij = wji và wii = 0 Khi một mẫu không biết được đưa vào mạng thì đầu ra của nó được đặt bằng với các thành phần của mẫu không biết được thông qua: yI(0) = xi với 1≤ i ≤ N Đây là các giá trị khởi động ban đầu và mạng sẽ được lặp theo phương trình sau cho đến khi nó vượt qua trạng thái năng lượng nhỏ nhất, có nghĩa là các đầu ra ổn định đến các giá trị hằng số:
Trang 181.3.3 MẠNG KOHONEN
Mạng Kohonen hay còn gọi là mạng tự tổ chức có 2 lớp, một lớp đầu vào, đầu vào để nhận các mẫu đầu vào và một lớp đầu ra Các neuron trong các lớp đầu ra thường được bố trí trong một dãy một chiều hoặc trong mặt hai chiều Mỗi neuron đầu ra được kết nối đến tất cả các neuron trong lớp đầu ra Các trọng số của các liên kết là những thành phần của vec tơ chuẩn kết nối với các neuron đầu ra đã cho
Mô hình mạng Kohonen được biểu diễn như hình vẽ sau:
Quá trình huấn luyện mạng Kohonen theo các bước sau:
i Các vectơ chuẩn của tất cả các neuron đầu ra ban đầu được đặt với
vác giá trị ngẫu nhiên nhỏ
ii Đưa vào các mẫu huấn luyện đầu vào
iii Xác định các neuron tích cực đầu ra, đó là các neuron mà vec tơ
chuẩn của chúng gần nhất với mẫu đầu vào Khoảng cách Euclidean giữa một vector chuẩn và vector đầu vào thường gần như là tương ứng với nhau nhờ vào khoảng cách đo lường
iv Cập nhật vector chuẩn của các neuron tích cực và các neuron kế cận
với nó Các vector chuẩn này sẽ được đưa đến gần hơn tới các vector đầu vào Kích thước của của các vùng kế cận của một neuron sẽ được
Trang 19Luận Văn Cao Học Thầy hướng dẫn: TS Nguyễn Hoàng Việt
giảm xuống trong quá trình huấn luyện thì chỉ có duy nhất vector chuẩn của neuron tích cực là được huấn luyện Mạng Kohonen được huấn luyện tốt hơn khi các neuron đầu ra gần với neuron khác mà có vector chuẩn tương tự nhau
1.3.4 MẠNG ART
Mạng ART (Adaptiveresonance theory) được Carpenter và Grossberg đưa
ra vào năm 1988 Mô hình của mạng ART như sau:
Hướng thuận Lớp đầu ra
Tất cả các vector Wi sẽ hình thành nên một vùng nhớ rộng cho mạng Chúng được sử dụng để lựa chọn vector tích cực Vector Wi của các trọng số liên kết ngược từ một neuron đầu ra i là được sử dụng cho việc kiểm tra , xác định một mẫu đầu vào là đủ gần với mẫu lưu trữ Các vector Visẽ hình thành nên vùng nhớ hẹp của mạng Vi và Wi liên hệ với nhau như sau:
V
i
i ij
= +∑
ε
Trong đó: ε là một hằng số nhỏ và Vij là thành phần thứ j của VI
Quá trình huấn luyện mạng như sau:
Trang 20i Đặt tất cả các thành phần của mỗi Vi bằng 1 và tính toán Wi theo
phương trình trên cho các mẫu ban đầu và các trọng số Wi và Vi cho tất cả các neuron đầu ra Một neuron mà tất cả các trọng số của nó bằng 1 thì được hiểu là một neuron không ràng buộc mà nó không được gán với một lớp đại diện nào
ii Đưa vào một mẫu đầu vào mới x
iii Tất cả các neuron đầu ra có thể chúng cùng tham gia trong việc cạnh
tranh để có một mức tác động tích cực
iv Tìm neuron tích cực đầu ra trong số các neuron cạnh tranh khác nhau
Neuron tích cực đầu ra có thể là neuron không ràng buộc do không có một neuron nào tốt hơn nó
v Kiểm tra mẫu đầu vào x có đủ giống vector Vi của neuron tích cực
hay không, thông qua:
r xV
x
i i
=
∑
x được xác định là đủ giống với Vi nếu r nhỏ hơn ngưỡng p(0<p≤ 1)
vi Nếu r ≥ p thì sẽ thực hiện theo bước vii, ngoài ra sẽ quay lại bước iv
lập lại quá trình này cho đến khi không có một neuron nào có khả năng hơn
vii Hiệu chỉnh vector Vi của neuron tích cực gần nhất bằng logic toán học
AND với x, do đó sẽ xóa đi được các bit trong VI mà nó không có trong x Tính lại vector Wi sử dụng Vi mới theo phương trình trên
Mạng RBF (radial basic function network) được đưa ra bởi Moody và Darken vào năm 1989 Cũng như mạng tính ngược, mạng RBF được thiết kế để thực hiện huấn luyện các mẫu vào ra (xk, dk), k = 1, 2, ….,p
Mạng RBF gồm có 3 lớp khác biệt nhau: lớp nhập, lớp ẩn, lớp xuất Lớp nhập gồm có các neuron đầu vào để nhận các tín hiệu của các mẫu đầu vào và không thực hiện công việc tính toán Lớp ẩn gồm có các neuron ẩn, các neuron trong lớp này có hàm tác động gaussian như sau:
Trang 21Luận Văn Cao Học Thầy hướng dẫn: TS Nguyễn Hoàng Việt
2 2
2 2
σσ
Trong đó: x là các vector đầu vào
Do đó nút ẩn q cho đáp ứng cực đại đối với các vector đầu vào gần với
mq Mỗi nút ẩn q có một trường tiếp nhận riêng trong không gian đầu vào là một vùng với tâm là mq với khích thước tương ứng là σq Trong đó mq và σq là các vector trung bình và vector độ lệch của hàm Gaussian thứ q
Đầu ra của mạng sẽ như sau:
Δw iq =η d i−y z i q
y1 y2 yn Lớp xuất
Lớp nhập
Z1
Zl
Trang 22Hàm sai số trung bình bình phương có dạng như sau:
i k
i k
iq q k i
i
i k k
1 2
1 2
mclosest là tâm của trường gần nhất đối với vector đầu vào x và các tâm khác thì được giữ nguyên
Mạng RBF cũng có thể được huấn luyện nhờ quy tắc học truyền ngược sai số và trở thành mạng học hoàn toàn có giám sát Qui tắc học có giám sát có thể được nhận như sau:
Δ Δ Δ
i
i q
1.4 GIẢI THUẬT HỌC TRONG MẠNG NEURON
1.4.1 GIẢI THUẬT HỌC PERCEPTRON
Luật học perceptron được Frank rosenblatt đưa ra vào cuối năm 1950 là một tiêu biểu cho nguyên lý sửa sai theo giải thuật lan truyền ngược sai lệch Luật học này dựa trên mô hình perceptron chỉ gồm một neuron duy nhất Dùng hàm ngưỡng tuyến tính là hàm truyền nên dùng cho việc nhận dạng và phân đối tượng làm hai loại mà thôi
a mô tả giải thuật
Cho trước các cặp giá trị vào và ra
Đầu vào đầu ra
Trang 23Luận Văn Cao Học Thầy hướng dẫn: TS Nguyễn Hoàng Việt
tìm vector trọng số:
o(x) = sign(<w,x>) = y cho tất cả các mẫu trong tập huấn luyện
Hàm kích hoạt được dùng là hàm ngưỡng tuyến tính cho dưới dạng:
Nếu
0 ,
1 ,
x w
Phương pháp theo Perceptron được thược hiện bằng cách thay đổi trọng số w theo: w=w +μ(y-o)x, μ>0 là hệ hố học
Từ phương trình trên ta thấy giá trị đầu ra của mạng neuron bảng giá trị đầu ra mong muốn, o=y, khi w không thay đổi Khi đó quá trình học kết thúc
b Phân loại với mô hình Perceptron
Cũng cho tập dữ liêu ngõ đầu vào là các giá trị x đầu ra là các giá trị y ta phân các mẫu dữ liệu này hai lớp khác nhau:
C1={xk/yk = 1}
C2={xk/yk = 0}
Tức là x thuộc về C1 nếu tồn tại (x,1) và x thuộc về C2 nếu tồn tại (0,x) theo định nghĩa của hàm kích hoạt, ta thấy rằng ta đang đi tìm vector trọng số sao cho:
(w,x) >0 cho x ∈ C1và (w,x) >0 cho x ∈ C2 Nếu tồn tại những vector w như vậy thì ta gọi bài toán này là khả tách tuyến tính
(x
o
C1
x1 x2
C1 w
Trang 24c Tóm tắt giải thuật:
Bước 1: Chọn giá một giá trị η >0
Bước 2: Khởi tạo trọng số w một cách ngẫu nhiên, thiết lập sai lệch e =0
bắt đầu với mẫu thứ nhất k=1
Bước 3: Bắt đầu học Cho x = xk và tính đầu ra:
Bước 4: Cập nhật các trọng số w=w+ η(y-o)x
Bước 5: Tính sai lệch e = e +
2
1[y-o]2
Bước 6: Nếu k < K (tức là chưa hết tập dữ liệu cần học) thì tăng k lên để
qua mẫu kế tiếp rồi trở lại bước 3, nếu k=K qua bước 7
Bước 7: Xong một chu kỳ học Và nếu e =0 kết thúc quá trình học Còn
nếu e > 0 thì thiết lập e = 0, k=1 và khởi tạo chu ký học mới bằng cách
trở lại bước 3
Thuyết sau đây chứng tỏ rằng nếu bài toán có nhiều lời giải thì giải thuật học perceptron sẽ tìm ra một lời giải trong số đó
Thuyết hội tụ: Nếu bài toán là khả tách tuyến tính thì chương trình sẽ chỉ lập
lại một số lần
Hạn chế:
Mô hình Perceptron chủ yếu để ta hiểu về cách học hỏi của mạng neuron chứ thực ra thì do nó quá đơn giản và sử dụng hàm truyền là Hàm ngưỡng tuyến tính nên có mặt hạn chế của nó
Năm 1969, Misnsky và Papert đưa ra các phân tích rất kỹ về mô hình Perceptron và qua đó chứng minh sự thất bại của nó với bài toán XOR
Trang 25Luận Văn Cao Học Thầy hướng dẫn: TS Nguyễn Hoàng Việt
Đầu ra theo mô hình Perceptron:
đa tầng (hay còn gọi là Multi layer Perceptron – MLP) có thể giải quyết được bài toán XOR
Kể từ lúc đó, mạng neuron bắt đầu một buổi bình minh mới
1.4.2 GIẢI THUẬT HỌC DELTA
Luật học delta dựa trên tính chất của đạo hàm mà nền tảng là phương thức giảm nên có thể dùng cho hàm truyền bất kỳ (tuyến tính hay bán tuyến tính)
a Mô tả giải thuật:
Xét một neuron sử dụng đầu ra là hàm tuyến tính, thế thì vector trọng số tìm được trong giải thuật học sẽ là một đường thẳng (trường hợp không gian hai chiều) Điều này có nghĩa là luật học cho hàm truyền tuyến tính chỉ có thể xấp xỉ một hàm tuyến tính mà thôi Tuy nhiên, nếu hàm truyền là phi tuyến thì khó có thể một xấp xỉ tốt Đó là lý do tại sao người ta dùng hàm kích hoạt bán tuyến tính
O(x)=
Trang 26Cũng như luật học perceptron luật học delta cần một tập dữ liệu mẫu cho quá trình học
b Tóm tắt giải thuật
Cho trước K mẫu dữ liệu: {(x1,y1),…(xK,yK)}
Với xk = (x1k, ,xnk) và yk ∈ R, k =1,…, K
Bước 1: chọn giá một giá trị η >0 và Emax >0
Bước 2: khởi tại trọng số w một cách ngẫu nhiên, bắt đầu với mẫu thứ
nhất k =1 và gán sai lệch E =0
Bước 3: bắt đầu quá trình học Cho x = xk , y = yk và tính đầu ra:
) exp(
1
1
k T k
o W
O
− +
) exp(
1
1
k T k
x w
o
− +
w i = i +ηδ i i( 1 − i) Cho i = 1,2, …,L
Bước 6: tính sai lệch cộng thêm sai lệch hiện tại
2
) ( 2
1
O y E
Bước 7: nếu k < K thì k = k+1 rồi trở lại bước 3, nếu k=K qua bước 8 Bước 8: kết thúc chu kỳ học Nếu E ≤ Emax thì kết thúc quá trình học Còn nếu E > Emax thì gán E =0 và bắt đầu một chu ký học mới bằng cách trở
lại bước 3
1.4.3 GIẢI THUẬT BACKPROPAGATION
Thuật toán học truyền ngược là một trong những thuật toán quan trọng nhất trong lịch sử phát triển của mạng nơ ron Được Bryson và Ho đưa ra vào năm
1969 và sau đó được phát triển bởi Werbos (1974), leCun và Parker (1985), Rumelhart Đây là thuật toán học có giám sát, trong đó dữ liệu đầu ra thực luôn luôn được so sánh sánh với dữ liệu đầu ra mong muốn, để làm thế nào giảm bớt sai số giữa đầu ra thực và đầu ra mong muốn
Trang 27Luận Văn Cao Học Thầy hướng dẫn: TS Nguyễn Hoàng Việt
Giải thuật backpropagation này phức tạp, để nhẹ gánh nặng trong phần tính toán này, chúng ta trình bày tổng kết các ý miện dùng trong phần này:
• Các chỉ số i,j, và k là tham chiếu tới các neuron khác nhau trong mạng với dấu hiệu lan truyền ngược xuyên qua mạng từ trái sang phải
• Sai số tín hiệu từ đầu ra của nơ ron j ở vòng lặp thứ n được định nghĩa như sau:
ej(n) = dj(n) – yj(n) trong đó nơ ron j là một nốt đầu ra
Bình phương sai số tức thời cho nơ ron j là 1/2ej2(n) Tổng bình phương sai số tức thời của mạng là:
Xét một sơ đồ của một nơ ron j mà nó nhận được một tập của các hàm tín hiệu cho bởi một lớp của các nơ ron phía trước nó như sau:
Trang 28Mức độ tác động bên trong vj(n) được thể hiện như sau:
) ( ) ( )
yj(n) = ϕj(vj(n))
Thuật toán truyền ngược sử dụng hiệu chỉnh ΔWji(n) cho các trọng số kết nối Wji(n) ứng với gradient tức thời như sau:
) (
) ( ) (
) ( ) (
) ( ) (
)
( ) (
)
(
n W
n v n v
n y n y
n e n e
n
E n W
n E
ji
j j
j j
j j
)
n e
n
E
j j
) (
n y
n e
j
) (
)
n v n
v
n y
j j j
∂
∂
; )
( ) (
) (
n y n W
n v
j ji
) ( e n , v n y n n
W
n
E
j j j j ji
) ( )
(
n W
n E n
) ( ) (
) ( ) (
) ( )
n v
n y n y
n e n e
n E
j
j j
j j
Trang 29Luận Văn Cao Học Thầy hướng dẫn: TS Nguyễn Hoàng Việt
Từ các phương trình trên chúng ta thấy rằng một hệ số liên quan đến vệc tính toán trọng số hiệu chỉnh ΔWji(n) là tín hiệu sai số ej(n) ở đầu ra của
nơ ron j Tùy thuộc vào vị trí đặt của nơ ron, ta có thể phân ra hai trường hợp như sau:
- Nơ ron j là nút đầu vào: khi neuron j được đặt trong lớp đầu ra của mạng, nó sẽ được cung cấp với một đáp ứng mong muốn của chính nó
Do đó chúng ta có thể sử dụng phương trình ej(n) = dj(n) – yj(n) để tính toán sai số ej(n) cho nơ ron này, như grap của nơ ron trên Sau khi xác định được ej(n), sử dụng nó để tính δj(n) theo phương trình trên
- Nơ ron j là nút ẩn: khi nơ ron j được đặt trong lớp ẩn của mạng, sẽ không có đáp ứng mong muốn cho nơ ron này Sai số tín hiệu cho nơ ron ẩn sẽ phải được xác định thông qua các sai số của tất cả các nơ ron mà nơ ron ẩn này trực tiếp kết nối Sơ đồ sau sẽ mô tả neuron ẩn j
Gradient cục bộ δj(n) cho nơ ron ẩn j:
)) ( ( ) (
) ( )
(
) ( ) (
) ( )
n y
n E n
v
n y n y
n E
j j
j j
n e e n
y
n
E
) (
) ( )
(
) (
k k
n v n v
n e e n
y
n
E
) (
) ( ) (
) ( )
Trang 30Ta có: ek(n) = dk(n) – yk(n) = dk(n) – ϕk(vk(n)) với nơ ron k là nút đầu ra
) (
)
n v
n
e
k k k
( q là tổng các đầu vào nơ ron k
) (
) (
n W n y
n
v
kj j
W n v n e n
y
n
E ( ) ( ( )) ( ) ( ) ( )
) (
j(n) ϕ, (v (n)) δ (n)W (n)
Gradient cục bộ phụ thuộc vào nơ ron j là nút đầu ra hay là nút ẩn:
- Nếu nơ ron j là nút đầu ra thì: δj(n) =e j(n) ϕ ,j(v j(n))
Nếu nơ ron j là nút ẩn thì: = ∑
j j
trung bình Eσv bằng hoặc kém hơn ngưỡng nhỏ ε, nghĩa là:
n
n e N
n E
2
1
) ( 2
1 ) ( 1
Với C bao gồm tất cả các neurons trong tầng Output của mạng N ký hiệu tất cả các mẫu (thí dụ) được chứa trong tập huấn luyện
1.5 ỨNG DỤNG CỦA MẠNG NEURON
Ngày nay trên thế giới việc ứng dụng mạng neuron rất nhiều trong các lĩnh vực như chuẩn đoán Y khoa, điều khiển, nhận dạng hình ảnh, …
Trang 31Luận Văn Cao Học Thầy hướng dẫn: TS Nguyễn Hoàng Việt
Riêng trong lĩnh vực Hệ thống điện, mạng được ứng dụng rất nhiều Theo IEEE thì mạng neuron được dùng trong các lĩnh vực và đã nguyên cứu trong các lĩnh vực:
• Đánh giá an toàn hệ thống điện trong thời gian thực
• Dự báp phụ tải
• Phát hiện sự cố tổng trở cao
• Đóng ngắt tụ tối ưu…
Trang 32CHƯƠNG II:
LOGIC MỜ TRONG ĐIỀU KHIỂN
2.1 SƠ LƯỢC VỀ LOGIC MỜ
2.1.1 QÚA TRÌNH PHÁT TRIỂN CỦA LOGIC MỜø
Logic mờ được công bố lần đầu tiên tại Mỹ vào năm 1965 Cha đẻ ra Logic mờ là Lotfi Zadeh, giáo sư về lý thuyết hệ thống tại trường đại học Berkeley, bang California, kể từ đó, logic mờ đã có nhiều phát triển qua các chặn đường như sau: được phát minh ở Mỹ, áp dụng ở Châu âu, và đưa vào sản phẩm thương mại ở Nhật
Ưùng dụng đầu tiên của logic mờ vào công nghiệp được thực hiện ờ Châu âu, khoảng năm 1970 Tại trường Queen mary ở Luân Đôn - nước Anh, Ebrahim Madani dùng logic mờ để điều khiển một máy hơi nước mà trước đây ông không thể điều khiển bằng các kỹ thuật cổ điển Và tại Đức, Hans Zimmermann dùng logic mờ cho các hệ ra quyết định Liên tiếp trong những năm sau đó logic mờ được áp dụng trong các lĩnh vực điều khiển nhưng vẫn chưa được áp dụng trong công nghiệp
Kể từ năm 1980, logic mờ đạt được nhiều thành công trong các ứng dụng
ra quyết định và phân tích dữ liệu ở Châu âu
2.1.2 CƠ SỞ TOÁN HỌC CỦA LOGIC MỜ
Logic mờ và xác xuất thống kê đều nói về sự không chắc chắn Tuy nhiên mỗi lĩnh vực định nghĩa một khái miện khác nhau về đối tượng
- Sự không chắc chắn theo thống kê liên quan đến một sự kiện không
chắc chắn ví dụ như phát biểu sau: xác xuất trúng đích là 0.8 Bản
thân sự kiện này đã được định nghĩa rõ ràng Sự không chắc chắn ở đây là có trúng đích hay không? Và được định lượng bởi mức độc xác xuất
- Sự không chắc chắn theo ngữ nghĩa liên quan đến ngôn ngữ của con người, tức là liên qua đến sự không chính xác trong các từ ngữ mà con người dùng để lượng vấn đề và rút ra kết luận.ví dụ như mô tả nhiệt độ “nóng””lạnh” hay “ấm” và các khái niệm này cũng khác nhau đối với những người kách nhau: người này lạnh nhưng người khác thì không
2.1.3 LOGIC MỜ LÀ LOGIC CỦA CON NGƯỜI
Trong thực tế, ta không định nghĩa một luật cho một trường hợp mà định nghĩa một số luật cho các trường hợp nhất định Khi đó những luật này là những điểm rời rạc của một tập các trường hợp liên tục và con người xấp
Trang 33Luận Văn Cao Học Thầy hướng dẫn: TS Nguyễn Hoàng Việt
xỉ chúng Gặp một tình huống cụ thể, con người sẽ kết hợp những luật mô tả các tình huống tương tự Sự xấp sỉ này dựa trên sự linh hoạt của các từ ngữ cấu tạo nên luật, cũng như sự trừu tượng và sự suy nghĩ dựa trên sự linh hoạt của con người
2.2 CÁC KHÁI NIỆM DÙNG TRONG LOGIC MỜ
2.2.1 HÀM PHỤ THUỘC
Mức độ giá trị của vật lý thỏa mãn một khái miện ngôn ngữ được gọi là độ phụ thuộc Đối với biến liên tục, mức độ này được biễu diễn bởi một hàm gọi là hàm phụ thuộc Hàm này là tập ánh xạ các giá trị vật lý thành tập các giá trị phụ thuộc đối với biến ngôn ngữ Biến vật lý được gọi là biến nền và các tập giá trị vật lý được gọi là tập nền Thông thường người ta vẽ nhiều hàm phụ thuộc trên cùng một biểu đồ dựa trên tập nền đã quy định
2.2.2 BIẾN NGÔN NGỮ
Biến ngôn ngữ là phần chủ đạo trong các hệ thống dùng logic mờ Ở đây các thành phần ngôn ngữ mô tả cùng ngữ cảnh được kết hợp lại Ví dụ như mô tả điện áp, dòng điện, hay nhiệt độ .việc mô tả nhiệt độ không chỉ có “rất nóng” “trung bình”, “hơi lạnh” đều mô tả nhiệt độ Chúng được gọi là các tập ngôn ngữ, mang một khoảng giá trị nào đó của biến ngôn ngữ và được vẽ trên cùng một đồ thị
Rất lạnh Hơi lạnh Tr Bình Hơi nóng rất nóng
Hình 1.2
Những phép toán cơ bản trên tập mờ là phép hợp, phép giao và phép bù Giống như định ngĩa về tập mờ, các phép toán trên tập mờ cũng sẽ được định nghĩa thông qua các hàm liên thuộc, được xây dựng tương tự như các hàm phụ thuộc của các phép giao, bù, hợp giửa hai tập rõ Và việc xây dựng các phép toán trên tập mờ không mâu thuẫn với các phép toán
trên tập rõ
2.3.1 PHÉP HỢP HAI TẬP MỜ
Hợp của tập mờ A và B có cùng cơ sở M là một tập mờ cũng xác định trên cơ sở M với hàm liên thuộc
1
μ
[0C]
Trang 34μA∪B=Max{μA(x), μB(x)} (2.3.1)
Ngoài ra người ta có thể biểu diễn các công thức khác nhau được dùng để tính hàm liên thuộc μA∪B:
a) μA∪B=
⎩
⎨
⎧ 1
)}
( ), ( max{μA x μA x
nếu
0 )}
( ), ( min{
0 )}
( ), ( min{
≠
=
x x
x x
A A
A A
μμ
μμ
b) μA∪B=Min{1,μA(x)+ μB(x)} (Phép hợp Lukasiewiez)
c) μA∪B=
) ( ) ( 1
) ( ) (
x x
x x
B A
B A
μ μ
μ μ
+ +
+ (Tổng Einstein)
d) μA∪B =μA(x) +μB(x) -μA(x)μ B(x) (Tổng trực tiếp)
Trong các công thức trên công thức (2.3.1) được dùng hơn cả trong điều khiển mờ
2.3.2 PHÉP GIAO HAI TẬP MỜ:
Giao của hai tập mờ A và B có cùng cơ sở với M là một tập mờ cũng xác định trên cơ sở M với hàm liên thuộc
μA(x) μB(x)
Trang 35Luận Văn Cao Học Thầy hướng dẫn: TS Nguyễn Hoàng Việt
Ngoài công thức (2.3.2) còn có nhiều công thức khác được dùng để tính liên thuộc μA∩B(x) của giao hai tập mờ:
a) μA∩B =
⎩
⎨
⎧ 0
)}
( ), ( min{ μA x μA x nếu
1 )}
( ), ( max{
1 )}
( ), ( max{
≠
=
x x
x x
A A
A A
μμ
μμ
b) μA∩B =Min{0,μA(x)+ μB(x)} (Phép hợp Lukasiewiez)
c) μA∩B =
) ( ) ( 1
) ( ) (
x x
x x
B A
B A
μ μ
μ μ + + (Tổng Einstein) d) μA∩B = μA(x)μ B(x) (Tổng trực tiếp)
2.3.3 PHÉP BÙ HAI TẬP MỜ
Bù của tập mờ A có cơ sở M và hàm liên thuộc μA(x) là một tập mờ ACxác định trên cùng cơ sở M với hàm liên thuộc
a) b)
Hình vẽ Tập bù A C của tập mờ A
a) Hàm liên thuộc của tập mờ A
b) Hàm liên thuộc của tập mờ AC
2.4.2 SUY LUẬN MỜ
Hầu hết các hệ thống hoạt động dựa trên nền tảng logic mờ đều dùng luật biểu diễn mối quan hệ giữa các biến ngôn ngữ và rút ra hành động
μA(x)
μAc(x)
Trang 36tương tự đối với đầu vào Một luật gồm hai phần: phần điều kiện (phần IF) và phần kết luận ( phần THEN) Phần điều kiện có thể gồm nhiều điều kiện, kết hợp cho nhau bằng các liên từ And, Or
Việc tính toán các luật mờ được gọi là suy luận mờ và nó bao gồm hai bước chính: tính từng luật rồi sau đó tổng hợp luật Phương pháp thường
dùng cho trong bước thứ hai thường là Max-Min hay Max-Prod
a giải mờ theo phương pháp cực đại
Giải mờ theo phương pháp cực đại gồm hai bước:
- Xác định miền chứa giá trị rõ y’: giá trị rõ y’ là giá trị mà tại đó hàm liên thuộc đạt giá trị cực đại, tức là miền
G = {y∈ Y⎢μB’(y)=H}
- Xác định y’ có thể chấp nhận được từ G
Xét ví dụ như hình vẽ dưới đây:
Thì G là khoảng {y1,y2} của miền giá trị tập mờ B2 của luật điều khiển
R2: nếu χ =A2 Thí γ = B2Trong số hai luật R1, R2 và luật R2 được gọi là luật quyết định
Luật điều khiển quyết định là luật Rk ,k ∈ {1, 2, .,p} mà giá trị mờ đầu ra của nó có độ cao lớn nhất, tức là bằng độ cao H của B’
Để thực hiện bước hai có ba nguyên lý sau đây:
- Nguyên lý trung bình
- Nguyên lý cận trên
- Và nguyên lý cận dưới
Nếu ký hiệu y1 = inf(y) và y2 = sup(y)
Trang 37Luận Văn Cao Học Thầy hướng dẫn: TS Nguyễn Hoàng Việt
Thì y1 chính là điểm cận dưới và y2 chính là điểm cận trên của G
Theo nguyên lý trung bình, giá trị rõ y’ sẽ là:
2
2 1 ' y y
=
Nguyên lý này thường được dùng khi G là một miền liên thông và như vậy y’ cũng sẽ là giá trị có độ phụ thuộc lớn nhất Trong trường hợp B’ gồm các hàm liên thuộc dạng đều thì giá trị rõ không phụ thuộc vào độ thỏa mãn của luật điều khiển quyết định
Hình vẽ: Giá trị rõ y’ không phụ thuộc vào đáp ứng vào
luật điều khiển quyết định
Nguyên lý cận trái
Giá trị rõ y’ được lấy bằng cận trái y1 của G theo phương trình 1 giá trị rõ lấy theo nguyên lý cận trái này sẽ phụ thuộc tuyến tính vào độ thỏa mãn của luật điều khiển quyết định
Hình vẽ: Giá trị rõ y’phụ thuộc tuyến tính với đáp ứng vào
Nguyên lý cận phải
Giá trị rõ y’ được lấy bằng cận phải y2 của G theo phương trình 1 Cũng giống như nguyên lý cận trái, giá trị rõ y’ ở đây phụ thuộc tuyến tính vào luật điều khiển quyết định
y
y1 y2
B1 B2
HμB’
y y1 y2
B1 B2
H
Trang 38Hình vẽ: giá trị rõ y’ là hoành độ của điểm trọng tâm
Phương pháp điểm trọng tâm
Phương pháp điểm trọng tâm sẽ cho ra kết quả y’ là hoành độ của điểm trọng tâm miền được bao bởi trục hoành và đường μB’(y) xem hình vẽ bên dưới
Công thức xác định y’ theo phương pháp điểm trọng tâm như sau:
dy y
dy y y y
) (
'
'
μμ
Trong đó S là miền xác định của tập mờ B’
2.5 HỆ THỐNG ĐIỀU KHIỂN MỜ
Thành phần cơ bản của điều khiển mờ bao gồm khâu mờ hóa, thiết bị thực hiện hợp thành và khâu giải mờ
Sơ đồ điều khiển mờ như sau:
y y1 y2
B1 B2
H
y y1 y2
B1 B2
H
Trang 39Luận Văn Cao Học Thầy hướng dẫn: TS Nguyễn Hoàng Việt
Bộ điều khiển mờ
R1: NẾU … THÌ…
… RN: NẾU … THÌ…
Mờ
Trang 40CHƯƠNG III:
MẠNG NEURON MỜ ỨNG DỤNG
TRONG ĐIỀU KHIỂN
3.1 SƠ LƯỢC VỀ NEURON MỜ
Cũng như mọi sự vật trên đời, các kỹ thuật thuộc lĩnh vực trí khôn nhân tạo như logic mờ, mạng neuron, hệ chuyên gia, đều có mặt mạnh và mặt yếu của nó Ví dụ đối với logic mờ, chúng ta có thể dễ dàng thiết kế một hệ mong muốn chỉ bằng quy luật IF-THEN đơn giản Với đa số ứng dụng thì điều này cho phép tạo ra lời giải đơn giản hơn, trong khoảng thời gian ngắn hơn Thêm nữa, chúng ta dễ dàng sử dụng sự hiểu biết của mình để tối ưu hoá hệ thống một cách trực tiếp Tuy nhiên, đi đôi với
ưu điểm đó là một số khuyết điểm như việc thiết kế tối ưu hệ logic mờ đòi hỏi phải có kinh nghiệm về đối tượng trong khi người thiết kế là người mới vào trong lĩnh vực đó thì sao? Có bao giờ chúng ta tự hỏi là mỗi biến ngôn ngữ cần bao nhiêu tập mờ? Hay tập mờ có hình dạng như thế nào Vị trí của nó ở đâu bao nhiêu câu hỏi được đặt ra làm chúng
ta bối rối Như vậy người thiết kế nên tối ưu hóa hệ thống hay còn gọi là một nghệ thuật
Trong khi đó, chúng ta biết rằng mạng neuron có thể học lấy tri thức mà
ta cần đưa vào hệ thống nhưng lại khó mà giải thích rõ ràng mạng neuron hoạt động như thế nào? Chúng ta đưa số liệu vào và nó tạo ra số liệu mà không cần biết làm sao tạo ra như thế Tức là mạng neuron là một hộp đen
Sau đây là một số ưu khuyết điểm cụ thể như sau:
Thể hiện tri thức Không tường minh: khó
giải thích và khó sửa đổi Tường minh: dễ kiểm chứng hoạt động và dễ
sửa đổi
qua các tập dữ liệu Không có khả năng học: bạn phải tự thiết kế tất cả
Thế thì tại sao chúng ta không kết hợp chúng lại? Khi đó ta có một hệ lai với ưu điểm của cả hai: logic mờ cho phép thiết kế hệ dễ dàng, tường minh trong khi mạng neuron cho phép học những gì mà chúng ta yêu cầu bộ điều khiển Nó sửa đổi các hàm phụ thuộc về hình dạng, vị trí và sự