1. Trang chủ
  2. » Luận Văn - Báo Cáo

LUẬN VĂN ĐIỆN TỬ ĐIỀU KHIỂN CÁNH TAY MÁY DÙNG MẠNG NEURON

89 532 0
Tài liệu đã được kiểm tra trùng lặp

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Tiêu đề Luận Văn Điện Tử Điều Khiển Cánh Tay Máy Dùng Mạng Neuron
Tác giả HỦYNH LƯƠNG HIỆP
Người hướng dẫn ThS. VŨ THỊ HỒNG NGA
Trường học Trường Đại Học Công Nghệ Thông Tin
Chuyên ngành Kỹ Thuật Điện Tử - Truyền Thông
Thể loại Đồ Án
Năm xuất bản 2023
Thành phố Hà Nội
Định dạng
Số trang 89
Dung lượng 2,36 MB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

Hàm sigmoid lưỡng cực :Hình 2.đồ thị một số hàm tác độngAhàm bước nhảy Bhàm dấu Chàm dốc Dhàm tuyến tính Ehàm sigmoid đơn cực Fhàm sigmoid lưỡng cực I.2.2.Cấu trúc và ghép nối của các ph

Trang 1

Chương 1

LÝ THUYẾT LIÊN QUAN

I GIỚI THIỆU MẠNG NEURON:

I.1 MẠNG NEURON NHÂN TẠO:

Mạng neuron nhân tạo(ANN: artificial neuron networks)là mạng được xây dựngbằng cách sao chép lại các nguyên lý tổ chức của hệ neuron của con người.Bộ óc của conngười là một hệ neuron gồm có 1010 đến 1012 neuron được tổ chức có cấu trúc vào khoảng

200 mô hình khác nhau dưới dạng nhiều lớp

Hình 1.cấu trúc cơ bản của một neuronCấu trúc cơ bản của một neuron của hệ neuron con người gồm:các đầuvào(dendrite),thân neuron(soma)và đầu ra(axon).Mỗi neuron có nhiều đầu vào và chỉ mộtđầu ra.thân neuron là phần tử xử lý có chức năng thu nhận tất cả các thông tin đến từ cácđầu vào,tính toán và đưa ra quyết định ở ngõ ra để gởi thông tin đến các neuronkhác.SYNAP là khớp nối giữa đầu vào của neuron này với đầu ra của neuron khác

Tín hiệu điện áp được truyền từ neuron này sang neuron khác.tín hiệu điện áp dương đượccoi như là tín hiệu kích động(excitory)để kích động neuron gởi tín hiệu đến các neuronkhác và điện áp âm được xem như là tín hiệu ức chế(inhibitory)để ức chế neuron gởi tínhiệu đến nhiều neuron khác.điện áp không thì không có tín hiệu kết nối giữa hai neuron

Trang 2

Đối với hệ neuron con người có cấu trúc cơ bản gồm :lớp neuron đầu vào(lớp nàyđược kết nối với các phần tử cảm biến như miệng ,mắt, mũi ,tai và da),các lớp neuron ẩn

và lớp neuron đầu rălớp này được kết nối với các phần tử cơ như tay ,chân)

Cường độ kết nối SYNAP xác định lượng tín hiệu truyền đến đầu vào và giá trị cường độsynap được gọi là trọng số

Người ta dùng mạng neuron nhân tạo để giải quyết các bài toán trong kỹ thuật(mụctiêu là mô phỏng hoạt động của não người)

Để xây dựng một mạng neuron nhân tạo giống như hệ neuron con người,vào năm

1943 Mc.culloch và Pitts đề ra cấu trúc cơ bản của một neuron thứ I trong mô hình củamạng neuron nhân tạọ

Trong đó:xj(k):tín hiệu vào thứ j ở thời điểm k

Yi(k):tín hiệu ra thứ I ở thời điểm k

Wij :trọng số trên tín hiệu vào thứ j

Фi : ngưỡng tác động của neuron i

F: hàm tích hợp

Ặ) :hàm tác động

Wij biểu diễn cường độ kết nối giữa neuron thứ j và neuron thứ ịwij >0 tương ứng với tínhiệu tác động,wij <0 tương ứng với tín hiệu ức chế và wij =0 thí không có sự kết hợp giữa

Trang 3

I.2.CÁC THÀNH PHẦN CƠ BẢN CỦA MẠNG NEURON NHÂN TẠO

Mạng neuron nhân tạo được đặc trưng bởi 3 yếu tố:phần tử xử lý,cấu trúc vàghép nối của các phần tử xử lý,phương pháp huấn luyện để cập nhập các trọng số wij.

Trang 4

Hàm sigmoid lưỡng cực :

Hình 2.đồ thị một số hàm tác độngA)hàm bước nhảy B)hàm dấu C)hàm dốc D)hàm tuyến tính

E)hàm sigmoid đơn cực F)hàm sigmoid lưỡng cực

I.2.2.Cấu trúc và ghép nối của các phần tử xử lý

Mô hình ghép nối của các mạng neuron nhân tạo có thể chia ra làm 2 loại:Mạngtruyền thẳng(feedforward network) và mạng hồi tiếp(feedback network)

Mạng truyền thẳng là mạng được xây dựng bằng cách đầu ra của neuron của lớpđứng trước chính là đầu vào của các neuron đứng sau nó.Mạng truyền thẳng có mạngtruyền một lớp và mạng truyền thẳng nhiều lớp

Mạng hồi tiếp là mạng được xây dựng khi các đầu ra được định hướng lùi về làm các đầuvào cho các neuron ở cùng lớp hoặc các lớp đứng trước nó.mạng hồi tiếp trở thành mạnghồi qui(recurrent network) khi các đầu ra của lớp neuron ra là các đầu vào của lớp neuronvào(hay còn gọi là mạng hồi qui vòng kín)

Trang 5

Hình 3.các cấu trúc của mạng neuronA.mạng truyền thẳng một lớp

B.mạng truyền thẳng nhiều lớpC.nút đơn hồi tiếp

D.mạng hồi quy nhiều lớp

I.2.3.Huấn luyện mạng neuron

Yếu tố quan trọng thứ ba của các mạng neuron là huấn luyện mạng(trainning)hay còn gọiviệc học(learning)cho các mạng sử dụng các luật học khác nhau.có hai cách học trong cácmạng neuron:học thông số(parameter learning) và học cấu trúc(structure learning).họcthông số là phương pháp học bằng cách cập nhật các trọng số,còn học cấu trúc là phươngpháp học bằng cách thay bên trong cấu trúc mạng bao gồm các phần tử xử lý và các kiểukết nối mạng

Giả sử có một mạng neuron có n phần tử xử lý và mỗi phần tử xử lý có m trọng số thíchnghi

Ma trận trong số w được xác định:

Trong đó: wi =(wi1,wi2,….,wim)T ,i = 1,2,….n

Wij là trọng số ngõ vào thứ j của neuron thứi

Ma trận W chứa các phần tử thích nghi,học thông số là cập nhật ma trận trọng số W saocho xấp xỉ với ma trận trọng số mong muốn của mạng.một cách tổng quát,học thông số cóthể chia ra làm ba chế độ học:Học có giám sát ,Học tăng cường và Học không có giám sát

 Học có giám sát(supervised learning)

Trang 6

Hình 4.học có giám sátTrong cách học có giám sát,mạng neuron được cung cấp với một dãy các cặp đầu vào ramong muốn(x(1),d(1);x(2),d(2);… ;x(k),d(k)).

Khi mỗi đầu vào x(k) đặt vào mạng tại thời điểm k thì đầu ra mong muốn tương ứng d(k)cũng được cung cấp đến mạng.sai lệch giữa đầu ra thật sự y(k) và đầu ra mong muốn d(k)được giám sát trong bộ tín hiệu lỗi(error signal generator).Mạng dựa vào tín hiệu lỗi (errorsignal) để điều chỉnh các trọng số sao cho tín hiệu đầu ra thật sự y(k) tiến gần đến tín hiệuđầu ra mong d(k)

Hình 5.học tăng cườngTrong một vài tình huống nào đó,mạng được cung cấp các mẫu đầu vào nhưngkhông được cung cấp rõ rang các mẫu đầu r among muốn(chẳng hạn như mạng chỉ được

Trang 7

thì chỉ có một thông tin hồi tiếp chỉ định đầu ra của mạng là đúng hay sai.Học tăng cường

là một dạng học có giám sát

Trong cách học này,không có bất kỳ một thông tin hồi tiếp nào.mạng chỉ được cungcấp các mẫu đầu vào không có thông tin hồi tiếp,mạng tự điều chỉnh các trọng số bằngcách sử dụng các mẫu đầu ra thật sự của mạng

Hình 6.học không có giám sátBây giờ chúng ta khảo sát một cấu trúc huấn luyện mạng tổng quát cho một phần tử

xử lý thứ I trong một mạng neuron được mô tả trong hình 2.8

Hình 7.luật học các trọng số

Luật học các trọng số

Trang 8

Nếu học có giám sát : r = di – yi là tín hiệu sai lệch

Nếu học tăng cừong : r = di là tín hiệu tăng cường

Nếu học không có giám sát : r = yi là tín hiệu ra thực sự

Với các hàm fr(wi(k),x(k),di(k))khác nhau thì có luật học khác nhau

Luật học của Hebbian không có tín hiệu ra mong muốn di(k)nên phương pháp học củaHebbian là phương pháp học không giám sát

I.3.phân loại mạng neuron

Phân loại theo cấu trúc liên kết gồm có mạng truyền thẳng và mạng hồi tiếp

Phân loại theo số lớp gồm có mạng đơn và mạng đa lớp

Phân loại theo phương pháp học gồm có học có giám sát ,học tăng cường và họckhông có giám sát

I.4.một số mạng neuron thường gặp

Mạng perceptron một lớp (trình bày 2.2),mạng truyền thẳng nhiều lớp(trình bày2.3),mạng RBF(Radial Basis Function Network),mạng Hopfield và mạng Kohonen.mạngRBF được Broomhed và Lpwe đưa ra vào năm 1988 và ngày càng chứng tỏ hiệu quả trongviệc giải các bài toán thực tế

Trang 9

Hình 8.mạng radial basicMạng hopfield là mạng hồi tiếp một lớp với các đặc tính:

Mỗi nút có một tín hiệu vào từ bên ngoài(external input) xi và một ngưỡng Фi.không có tựhồi tiếp wij =0, đối xứng wij =wji

Luật cập nhật của mỗi nút:

Cập nhật không đồng bộ nghĩa là mỗi thời điểm chỉ cập nhật một nút.mạng Hopfield hiệuquả trong các bài toán tối ưu hóa tổ hợp

Hình 9.mạng hopfied ba nútMạng Kohonen là mạng truyền thẳng không có giám sát dung các neuron thíchnghi để nhận các tín hiệu từ không gian sự kiện.Ý tưởng chính trong mạng Kohonen là tạo

ra một hệ thống tự sửa đổi sao cho các neuron gần nhau đáp ứng tương tự như nhau.khi

Trang 10

một neuron đáp ứng tốt với một tín hiệu vào,neuron này và các neuron kế cận với nó sẽ cócác trọng số thay đổi sao cho tất cả đều đáp ứng giống như neuron có đáp ứng tốt nhất.

Ị5.MẠNG PERCEPTRON MỘT LỚP

Hình 10 mạng perceptron một lớp với m-1 tín hiệu vào và n tín hiệu raTrong đó: xj(k) là tín hiệu vào,j=1,2… ,m(xm = -1)

Wij là trọng số trên nhánh vào thứ j của neuron thứ i

Wim ,i=1,2,….n là các ngưỡng tác động của các neuron

Yi(k) là tín hiệu ra thực của neuron thứ i

ặ) là hàm tác động

di(k) là tín hiệu ra mong muốn của neuron thứ i{x(k),d(k),k=1,2,….p}là p mẫu huấn luyện mạng neuron sao cho

yi(k) =di(k),k=1,2,….p

Ị5.1 MẠNG TRUYỀN THẲNG NHIỀU LỚP

Định nghĩa hàm Squashing:Hàm ăf):R→[0,1] (hoặc R→[-1,1])được gọi là hàmsquashing nếu ăf) không giảm khi f tăng, ă-∞)=0 (hoặc ă-∞)= -1) và ă+∞)=1

Trang 11

Người ta chứng minh được rằng mọi quan hệ phi tuyến đều có thể được xấp xỉ với độchính sát tùy ý bởi một mạng truyền thẳng nhiều lớp với số nút ẩn đủ lớn,hàm tích hợptuyến tính hoặc đa thức và hàm tác động squashing.

Hình 11.mạng truyền thẳng ba lớp

I.5.2 GIẢI THUẬT LAN TRUYỀN NGƯỢC

Giải thuật lan truyền ngược là một trong các giải thuật quan trong nhất trong lịch sửphát triển của các mạng neuron nhân tạo.Giải thuật được sử dụng để huấn luyện các mạngtruyền thẳng nhiều lớp với các phần tử xử lý trong mạng có hàm tác động là hàm phituyến.cho tập các cặp mẫu huấn luyện vào – ra (x(k),d(k)) với k = 1,2,…p,giải thuật sẽcung cấp một thủ tục cho việc cập nhật các trọng số trong mạng từ lớp neuron đầu ra tớilớp neuron đầu vào.giải thuật vận hành theo 2 luồng dữ liệu,đầu tiên là các mẫu huấn luyệnx(k) được truyền từ lớp neuron đầu vào đến lớp neuron đầu ra và cho kết quả thực sự y(k)của lớp neuron đầu ra.sau đó các tín hiệu sai lệch giữa neuron đầu ra mong muốn d(k) vàđầu ra thực sự y(k) của mạng được truyền ngược từ lớp đầu ra đến các lớp đứng trước đểcập nhật các trọng số trong mạng

Giả sử xét mạng truyền thẳng ba lớp như hình 2.12 gồm lớp neuron đầu vào(inputlayer),lớp neuron ẩn (hidden layer) và lớp neuron đầu ra (output layer)

Lớp neuron đầu vào của mạng có m đầu vào trong đó x1… ,xi ,xm.lớp neuron ẩn có r phần

tử xử lý với các đầu ra,đó là z1….,zq… ,zr.và lớp neuron đầu ra của mạng có n phần tử xử

lý với n đầu ra,đó là y1….,yi….,yn.trọng số kết nối giữa đầu vào thứ j của lớp neuron đầu

Trang 12

vào với phần tử xử lý thứ q của lớp neuron ẩn là vqj và trọng số kết nối giữa phần tử xử lýthứ q của lớp neuron ẩn với phần tử xử lý thứ i của lớp neuron đầu ra là wiq.

Dữ liệu huấn luyện : {x(k),d(k),k =1,2….p}

Trang 13

Luật học lan truyền ngược :

Nhập :Tập các cặp mẫu huấn luyện {x(k),d(k),k =1,2,… p},trong đó các

vector đầu vào với các phần tử cuối cùng được gán bằng -1

Xác định tín hiệu học tại các nút (2.42)

Bước 2 : Lan truyền ngược sai lệch :

Cập nhật các vector trọng số (2.41) và (2.43)Xác định các tín hiệu học (2.44)

Bước 3 : Kiểm tra :

Nếu E > Emax : k =1 ,nhảy đến bước 1Nếu E ≤ Emax : kết thúc

Trong mạng truyền thẳng nhiều lớp, việc huấn luyện mạng dùng giải thuật lantruyền ngược chịu tác động bởi các yếu tố :

Trang 14

- trị khởi động của các trọng số : các trọng số nên khởi động với các giá trị bé

và ngẫu nhiên Các giá trị lớn của vector trọng số có thể làm tác động bãohòa khi bắt đầu học

- hằng số học :η lớn sẽ hội tụ nhanh nhưng có thể gây vọt lố, do đó có thểchọn η giảm dần

- Hàm mục tiêu

- Luật học

- Dữ liệu huấn luyện

- Số nút ẩn

Giải thuật gradient descent rất chậm bởi vì nó yêu cầu tốc độ học thấp cho

sự ổn định quá trình học.Việc lựa chọn hằng số học η cho phù hợp mạngnhiều lớp là không đơn giản, η quá lớn dẫn đến quá trình học không ổn định

và ngược lại η quá nhỏ sẽ làm cho thời gian huấn luyện lớn

Mạng phụ thuộc vào số neuron có trong lớp ẩn quá ít neuron sẽ dẫn đếntình

trạng thiếu, quá nhiều neuron sẽ dẫn đến tình trạng thừa

I.5.3 Một số giải thuật huấn luyện nhanh (faster training)

Hai phương pháp thường được dùng cho mạng lan truyền ngược là gradient descent

và gradient descent với momentum, tuy nhiên hai phương pháp này có tốc độ huấn luyệnchậm khi áp dụng cho các bài toán thực tế để nâng cao hơn tốc độ huấn luyện người viết

sẽ giới thiệu thêm một vài giải thuật có khả năng thực thi cao và lại có khả năng hội tụnhanh hơn 10 đến 100 lần so với giải thuật đã trình bày trong phần trước Các giải thuậtnày đều hoạt động theo kiểu batch training

Những giải thuật này đều qui hai loại chính: Loại thứ nhất là dùng kỹ thuật thử vàkiểm tra (giải thuật tốc độ học thay đổi và giải thuật Rprop), loại thứ hai là kỹ thuật tối ưuhóa các thông số chuẩn trên mạng ( giải thuật conjugate-gradient, giải thuật Quasi-newton

và giải thuật Levenberg-marquardt)

Giải thuật tốc độ học thay đổi(variable learning rate)

Trong giải thuật giảm dốc chuẩn,tốc độ học được giữ cố định trong suốt thời gianhuấn luyện hiệu suất giải thuật này rất nhạy với sự thay đổi của tốc độ học Nếutốc độ học quá lớn thì giải thuật sẽ bị dao động và không ổn định Ngược lại tốc độ

Trang 15

định được tốc độ học tối ưu và nó thay đổi trong quá trình xử lý huấn luyện khi giảithuật di chuyển trên mặt phẳng hiệu suất Tốc độ học thích nghi sẽ cố gắng giữbước nhảy càng lớn càng tốt mà vẫn giữ việc học ổn định Tốc độ học sẽ tương ứngvới độ phức tạp của mặt phẳng sai số cục bộ.

Giải thuật phục hồi mạng bachproparation (resilient bachpropagation)

Mạng nhiều lớp thường sử dụng hàm tác động sigmoid trong các lớp ẩn.Nhữnghàm này thường gọi là hàm squashing vì chúng nén vùng ngõ vào vô hạn thànhvùng ngõ ra hữu hạn.Hàm sigmoid có đặc tính là độ dốc của hàm đạt zero khi ngõvào lớn.Đây chính là vấn đề khi sử dụng giải thuật steep descent để huấn luyệnmạng đa lớp dùng hàm sigmoid.Vì gradient có thể có biên độ rất nhỏ,do đó trọng số

và ngưỡng chỉ thay đổi nhỏ cho dù trọng số và ngưỡng ở rất xa giá trị tối ưu

Mục đích giải thuật resilient bachpropagation là loại bỏ các hậu quả về biên độ củacác đạo hàm riêng, chỉ sử dụng dấu của đạo hàm để xác định việc cập nhật trọngsố.Độ lớn của đạo hàm không ảnh hưởng đến việc cập nhật trọng số.Độ thay đổitrọng số dựa trên cập nhật riêng lẽ.Gía trị cập nhật của mỗi trọng số và ngưỡng tăngbởi hệ số del-inc khi đạo hàm của hàm hiệu suất tại trọng số tức thời cùng dấu vớihai lần lặp tiếp theo ngược lại trọng số và ngưỡng giảm bởi hệ del-dec khi đạo hàmcủa hàm hiệu suất ứng với trọng số hiện tại đổi dấu so với lần lặp trước đó.Nếu đạohàm bằng không thì giá trị cập nhật giữ nguyên.Khi trọng số dao động thì trọng số

sẽ giảm,nếu trọng số tiếp tục thay đổi trên cùng một hướng sau nhiều vòng lặp thìbiên độ thay đổi trọng số sẽ giảm

Giải thuật conjugate-gradient

Giải thuật bachpropagation cơ bản điều chỉnh trọng số theo hướng giảm dốcnhất.Đây là hướng mà hàm hiệu suất giảm nhanh nhất.Mặc dù giảm nhanh theohướng gradient nhưng không có nghĩa hội tụ nhanh.Trong các giải thuật conjugate-gradient sẽ tìm dọc theo hướng liên hợp,Thông thường tạo ra độ hội tụ nhanh hơnhướng giảm dốc nhất.Có bốn phương pháp khác nhau về giải thuật conjugate-gradient :

Trong hầu hết các giải thuật huấn luyện đã được trình bày,tốc độ học dùng để xácđịnh độ dài cập nhật trọng số(kích thước nấc).Còn trong các giải thuật conjugate-gradient, kích thước nấc sẽ thay đổi sau mỗi lần lặp.giải thuật sẽ tìm dọc theohướng gradient kết hợp để xác định kích thước nấc cực tiểu hóa hàm hiệu suất

Trang 16

Giải thuật cập nhật Fletcher – Reeves

Tất cả các giải thuật conjugate – gradient đều bắt đầu bằng việc định hướnggiảm dốc nhất ớ bước lặp đầu tiên (gradient âm) p0 = -g0.

Định hướng sau đó sẽ thực hiện để xác định khoảng tối ưu di chuyển dọc theohướng tìm hiện tại:

Xk+1 = xk + αkpk

Hướng tìm kiếm tiếp theo được xác định bằng cách lấy liên hợp hướng trướcđó.Thủ tục tổng quát để xác định hướng tìm mới là kết hợp hướng giảm dốcmới với hướng tìm được trước đó

Pk = -gk + βkpk-1

Sự phân biệt các giải thuật conjugate – gradient dựa trên cách tính βk.đối vớiphương pháp Fletcher – Reeves ,βk được tính như sau :

Giải thuật cập nhật Polak – Ribiera

Đây là phương pháp khác của giải thuật conjugate – gradient

Tương tự như phương pháp Fletcher – reeves ,hướng tìm của mỗi vòng lặpđược xác định:

Giải thuật khởi động lại Powell – Beale

Đối với các giải thuật conjugate – gradient ,hướng tìm sẽ được khởi động saumỗi chu kỳ.Điểm khởi động chuẩn xuất hiện khi số chu kỳ bằng thông số củamạng.Phương pháp Powell – Beale sẽ tăng hiệu xuất huấn luyện,khởi động lại

về giá trị âm gradient nếu giá trị trực giao giữa gradient cũ và mới còn lại rấtnhỏ,nghĩa là thõa điều kiện :

Trang 17

Trong mỗi thuật toán comjugate – gradient đều yêu cầu hướng tìm ở mỗi vònglặp.Việc tìm hướng rất phức tạp vì yêu cầu mạng đáp ứng cho tất cả các ngõvào huấn luyện và được tính nhiều lần trong mỗi vòng lặp.giải thuật Scaleconjugate – gradient tránh sự phức tạp này.

I.5.4 Các vấn đề cần xử lý trước khi huấn luyện

Chuẩn hóa biến vào và biến đích làm cho quá trình huấn luyện tốt hơn.Hàmpremnmx sử dụng để chuẩn hóa ngõ vào và đích trong khoảng [-1,1].do hàm premnmxchuẩn hóa giá trị vào,đích nên giá trị ngõ ra của mạng nằm trong khoảng [-1,1].Để đổi giátrị ngõ ra trở về bình thường ta sử dụng hàm Postmnmx.Nếu hàm premnmx dùng để tiền

sử lý tập huấn luyện thì bất cứ khi nào mạng được huấn luyện với giá trị vào mới ta sửdụng hàm tramnmx để chuẩn hóa giá trị vào.Kỹ thuật khác dùng để phân đoạn giá trịvào,đích của mạng chuẩn hóa là trung bình và phương sai chuẩn.Hàm prestd chuẩn hóangõ vào,đích sao cho có giá trị trung bình là zero và phương sai chuẩn đơn vị.Hàm poststdbiến đổi ngõ ra của mạng trở lại giá trị trung thường.Nếu ta muốn mạng được huấn luyệnvới giá trị vào mới ta sử dụng hàm trastd để chuẩn hóa giá trị vào

I.6.TRÌNH TỰ THIẾT KẾ MẠNG NEURON ỨNG DỤNG

Mạng neuron là một công cụ tốt cho phép xấp xỉ lớp tương đối quan hệ phụ thuộchàm giữa tín hiệu ra y(n) và tín hiệu vào x(n) của một hệ thống nào đó.Điểm mạnh củamạng neuron là khả năng thích nghi khi tập dữ liệu huấn luyện (x,d) được cập nhật thườngxuyên

Quá trình thiết kế mạng neuron thường trải qua các bước:Xác định bài toán, xác định cácbiến vào ra, thu thập dữ liệu, tiền xử lý dữ liệu, lựa chọn mô hình mạng neuron, huấn luyệnmạng, thử nghiệm mạng và cuối cùng là tinh chỉnh mạng

Xác định bài toán :Tùy theo yêu cầu bài toán cần giải quyết cụ thể mà có thể xác định

thuộc bài toán phân lớp dữ liệu hoặc nhận dạng hoặc mô hình hóa hoặc biến đổi khônggian biểu diễn

Xác định các biến vào ra : Xác định các biến vào/ra và miền giá trị của các biến đó Thu thập dữ liệu : Thu thập môt lượng lớn các mẫu dữ liệu đảm bảo nguyên tắc ngẫu

nhiên, khách quan và phủ toàn bộ không gian đầu vào.Đối với các dữ liệu biến động kiểuchuỗi thời gian thì cần đảm bảo trình tự các sự kiện sao cho tạo ra các thông tin cốt lõi vềđối tượng.Đối với các dữ liệu ngẫu nhiên có dạng hoàn toàn độc lập nhau thì phải bảo đảm

đã quét hết các dạng cần thiết

Trang 18

Tiền xử lý dữ liệu : Thông thường tập dữ liệu thu thập được cần phải xử lý để đảm bảo

các yêu cầu :Dữ liệu mẫu phân bố đồng đều ,đủ đại diện cho tất cả các dạng trong mộtphân hoạch không gian nào đó,Dữ liệu được thu gọn trong mô hình mạng neuron phù hợp

Lựa chọn mô hình mạng neuron : Tùy theo bản chất xử lý dữ liệu của bài toán mà ta lựa

chọn mạng neuron phù hợp

Huấn luyện mạng : Các thao tác thực hiện bao gồm:

- phần dữ liệu mẫu thành ba tập con: tập mẫu học, tập kiểm soát( để xác địnhkhi nào dừng quá trình học) và tập kiểm thử(để kiểm tra khả năng đón nhận,

dự đoán mạng) Trong đó tập mẫu học phải mang tính đại diện, còn tậpkiểm thử gắn với dáng điệu thực của môi trường đang xét

- Xác định luật học

- Xác định cơ chế cập nhật trọng số các neuron trong quá trình huấn luyện

- Khởi tạo các tham số ( các loại mạng khác nhau tương ứng có các tham sốkhác nhau các trọng số tham số ban đầu xác định ngẫu nhiên hay theo kinhnghiệm)

cải tiến cơ chế huấn luyện, tinh chỉnh cấu trúc và tham số mạng

Trong trường hợp mạng tuy đã huấn luyện tốt nhưng kết quả không đáp ứng yêu cầu vớicác dữ liệu kiểm thử( hiện tượng học quá khít) thì tiến hành:

- tăng số liệu mẫu và huấn luyện lại mạng

- xem xét lại tập dữ liệu mẫu với sự tư vấn của chuyên gia

II.CÁC ỨNG DỤNG CỦA MẠNG NEURON

Mạng neuron nhân tạo đã và đang được ứng dụng rộng rãi trong các ngành kỹ thuật(Kỹ thuật điều khiển, Điện tử viễn thông, hệ thống điện, công nghệ thông tin, y học, quân

sự, tài chính, trí tuệ nhân tạo… )

Trang 19

ảnh, nhận dạng ảnh, nhận dạng tiếng nói, nhận dạng các đối tượng được kết hợp với cácđặc thù vật lý của chúng.Trong hệ thống điện, mạng neuron được ứng dụng nhận dạng dựbáo và điều khiển các trạm biến áp…

II.1 Nhận dạng ký tự quang học bằng mạng neuron:

Nhận dạng ký tự bằng quang học là kỹ thuật được sử dụng để chuyển đổi ảnh vănbản sang dạng văn bản có thể chỉnh sửa trong máy tính Nó được ứng dụng trong công tácquét và lưu trữ các tài liệu cũ,đẩy nhanh việc nhập dữ liệu vào máy với ít lỗi hơn

Trong kỹ thuật nhận dạng ký tự ,mạng neuron tỏ ra ưu thế hơn các phương pháptruyền thống ở chỗ không tốn thời gian cho tiền xử lý, làm mảnh ký tự, trích chọn đặctrưng mặt khác các phương pháp ra quyết định trong nhận dạng truyền thống được cài đặttĩnh trong chương trình ,khi muốn bổ sung thêm các mẫu học mới phải thiết kế lại chươngtrình trong khi với mạng neuron ,chỉ cần cung cấp một tập mẫu vào ra của dữ liệu mớichop ha huấn luyện là có thể bổ sung vào “bộ nhớ mạng” những kiểu dữ liệu mới màkhông ảnh hưởng đến cấu trúc chương trình ban đầu

Phương pháp và thuật toán nhận dạng ký tự

Cơ sở dữ liệu

Mẫu các ký tự trong nhận dạng ký tự quang

Cơ sở dữ liệu cho bài toán nhận dạng ký tự quang gồm 90 ký tự LATINH với các loại fontkhác nhau,cùng với giá trị Unicode tương ứng của chúng

Phương pháp nhận dạng ký tự quang bằng mạng neuron bao gồm các bước được

mô tả như hình sau:

Trang 20

Hình 12.Các bước trong nhận dạng ký tự dùng mạng neuron+thu nhận ảnh

ảnh văn bản , tài liệu có thể được thu nhận bằng máy quét scanner,webcam,hoặc các thiết

chương trinh nhận dạng ký tự quang sử dụng mạng MLP(MultiLayer Perceptron) có 3lớp :lớp vào có 150 nút tương ứng với 150 phần tử của vecto ma trận pixel ,lớp ẩn có 250neuron và lớp ra có 16 neuron tương ứng với 16 bit nhị phân của giá trị Unicode của các

ký tự

Trang 21

Hình 13.Mạng MLP trong nhận dạng ký tự quangQuá trình huấn luyện mạng:

Quá trình huấn luyện mạng là quá trình sinh học với các tập mẫu đểđiều chỉnh tập trọng số liên kết.giải thuật huấn luyện được áp dụng trong thiết kế chươngtrình nhận dạng ký tự là giải thuật lan truyền ngược sai số Propagation

Bước 1:Lan truyền xuôi đầu vào Xs= qua mạng :

Bước 2: Lan truyền ngược sai số :

So sánh các phần tử của vectơ đầu ra thực Ys với các phần tử tương ứng của vectơđầu ra mẫu Ts để tính sai lệch :

Tổng bình phương sai số của mạng ứng với mẫu học (Xs,Ts):

Thông tin về sai số được lan truyền ngược qua mạng để điều chỉnh lại các giá trịtrọng số tại vòng lặp thứ 1:

 Với liên kết giữa neuron ẩn và neuron ra :

Trang 22

*Với liên kết giữa neuron vào và neuron ẩn:

Sau khi hiệu chỉnh trọng số ,mẫu Xs tiếp tục được đưa vào mạng lần (l+1) và tiếptục thuật toán hiệu chỉnh trọng số cho đến khi E < ε cho trước hoặc số vòng lặp đạt đếnmức định trước

Mẫu tiếp theo được đưa vào mạng và quá trình huấn luyện lặp lại như trên cho đếnkhi mạng học thuộc tất cả các mẫu.lưu cấu hình mạng lại để sẵn sàng đưa vào sử dụng

Hàm kích hoạt sử dụng trong mạng perceptron nhiều lớp là hàm sigmoid lưỡng cực

hoặc hàm sigmoid đơn cực đạo hàm của cả 2 hàm này đều

Giai đoạn này làm nhiệm vụ chuyển đổi giá trị Unicode sang dạng ký tự tương ứng

và sắp xếp lại các ký tự dưới dạng text theo dạng ảnh văn bản ban đầu

kết quả và đánh giá :

Thử nghiệm việc huấn luyện mạng với tập mẫu của 3 loại font : Latinh Arial,LatinhTahoma, Latinh Times Roman

kết quả khi thay đổi số vòng lặp (Epoch)

Số ký tự =9,tốc độ học learning _rate=150,hệ số góc hàm sigmoid α = 0.014

Trang 23

kết quả thay đổi tham số learning _rate

Số ký tự = 90 ,số Epoch = 600 ,hệ số góc α = 0.014

Đánh giá ảnh hưởng của sự thay đổi các thông số :

Tăng số vòng lặp tổng quát sẽ tỉ lệ thuận hiệu suất của mạng Nhưng đến một mứcnào đó nó sẽ gây ra hiện tượng học vẹt ( over learning),sẽ bỏ qua trạng thái tối ưu

Kích thước đầu vào cũng là một nhân tố ảnh hưởng trực tiếp đến hiệu suất củamạng Thực tế số đầu vào càng nhiều mạng được yêu cầu huấn luyện nhiều hơn để có thểnhận bắt lỗi tốt

Sự thay đổi tham số learning _rate cũng ảnh hưởng hiệu suất của mạng đối với số vòng lặpxác định Giá trị tham số này càng nhỏ thì mạng hiệu chỉnh trọng số càng chậm.Nhưngmuốn đạt đến trạng thái tối ưu thì ta phải tăng số vòng lặp nhiều hơn

Kết luận : với các kết quả thu được trong quá trình thử nghiệm huấn luyện ta chọn cácthông số mạng : số vòng lặp epoch = 600 ,tốc độ học learning _rate =150,hệ số góc hàmsigmoid α =0.014,ngưỡng sai số ε = 0.0002

II.2 Nhận dạng tiếng việt dùng mạng neuron:

Trong quá trình xây dựng hệ thống nhận dạng ,có nhiều yếu tố ảnh hưởng đến nănglực nhận dạng của hệ thống ,trong đó phải kể đến:

-các đặc tính âm học

-phiên âm âm vị của âm tiết

-mô hình hóa độ dài

-các phương pháp huấn luyện

Trang 24

-kích thước dữ liệu huấn luyện

Hai phương pháp trích chọn đặc điểm được sử dụng trong hệ thống nhận dạng làMFCC(Mel-scale Frequency ceptral coefficients) và PLP(Peceptual Linear Prediction ),cảhai phương pháp đều dùng cửa sổ phân tích Hamming Kỹ thuật khử lệch DC(Dc-offset)được áp dụng nhằm loại bỏ ảnh hưởng của sai lệch DC sinh ra trong quá trình ghi âm,17filterbank được thực hiện trên thang tần số Mel-scale đối với MFCC ,và thang tần số Bark–scale đối với PLP

Ngoài 12 hệ số MFCC hoặc PLP ,logarit giá trị năng lượng (logE) được bổ sung vào vectơđặc tính để thêm thông tin về sự biến thiên các đặc tính theo thời gian,giá trị các delta của

13 hệ số trên được thêm vào vectơ các đặc tính tạo thành tập 26 vectơ đặc tính tương ứngvới mỗi khung tín hiệu

Hai kỹ thuật xử lý tín hiệu RASTA (Relative SpecTral)và CMS ( Ceptral MeanSubstraction) được áp dụng để loại bỏ ảnh hưởng của nhiễu đường truyền tới các giá trịceptral.Như vậy có 4 loại đặc tính phổ khác nhau được sử dụng:

-12 hệ số MFCC+năng lượng (MFCC13)dùng CMS và giá trị D của 13 hệ số nói trên.-MFCC13 dùng RASTA và giá trị D

-12 hệ số PLP + năng lượng (PLP13) dùng CMS và giá trị D của 13 hệ nói trên

-PLP13 dùng RASTA và giá trị D

Để mạng neuron có thể mô hình hóa biến thiên tiếng nói theo thời gian ,ngoài đặc tính củakhung tín hiệu chính,các đặc tính của 4 khung tín hiệu lân cận cách khung chính -60ms,-

Trang 25

30ms,30ms,60ms cũng được tính toán và kết hợp với đặc tính của khung chính tạo thànhmột tập vectơ 130 đặc tính

Phiên âm âm vị của âm tiết

Đơn vị tiếng nói cơ sở sử dụng là âm vị phụ thuộc ngữ cảnh các âm vị bị ảnh hưởng mạnhbởi ngữ cảnh xung quanh mỗi âm vị được chia thành 2,3 phần ,được gọi là category.mỗicategory phụ thuộc vào ngữ cảnh ở bên trái hoặc bên phải của nó ví dụ âm /kh/được chiathành 2 phần ,phần bên trái phụ thuộc vào các âm vị đứng bên trái âm vị /kh/ và phần bênphải phụ thuộc vào các âm vị đứng bên phải âm vị /kh/ do /kh/ là phụ âm đứng đầu câu vàxuất hiện duy nhất trong từ “không” nên phần bên phải của /kh/ chỉ có thể là âm vị /oo/ ,từ

đó ta có một category /kh>oo/,phần bên trái của /kh/ sẽ cho ta category /,pau>kh/ khi từ

“không “ đứng đầu câu hoặc sau một khoảng nghỉ pause khi “không” đứng sau các từkhác ta có các category tương ứng /oong>kh/,/oot>kh/,//ai>kh/,/a>kh/,oon>kh/,/awm>kh/,/au>kh/,/aai>kh/,am>kh/,/in>kh/,như vậy âm vị /kh/ cho ta 12 category tương ứng với 12nút đầu ra của mạng noron

Huấn luyện mạng MLP được trình bày ở phần trên

II.3 Điều khiển robot bằng phương pháp momen:

Phương pháp tính momen là một phương pháp phổ biến trong điều khiển robot hiệnđại.nó cho phép loại được tất cả các thành phần phi tuyến và liên kết chéo trongrobot nhược điểm của pháp này là các tham số phi tuyến thường không được ước lượngchính xác và quá trình tính toán phức tạp đòi hỏi thời gian thực vì vậy trong thực tế daođộng và quá trình thường xuyên xuất hiện khi điều khiển bằng phương pháp tínhmomen.mạng nơron và thuật di truyền có thể cho phép khắc phục được những nhược điểmnày bài báo cáo này giới thiệu việc sử dụng mạng nơron được tối ưu bằng thuật di truyềnthực hiện tính toán chính xác các tham số phi tuyến và liên kết chéo của hệ robot.hệ điềukhiển được kiểm chứng bằng MATLAB SỊMULINK 6.0 trên cánh tay máy 2 bậc tự do

Sơ đồ hệ điều khiển tính momen được biểu diễn như sau:

Phương pháp tính momen

Trang 26

Dựa vào sơ đồ trên ta viết được phương trình:

KI, KP, KD là các ma trận đường chéo xác định dương nếu ma trận H và vectơ h được xácđịnh chính xác thì momen cũng được xác định chính xác và robot sẽ được điều khiểnbám sát quĩ đạo mong muốn.vì ma trận H là xác định dương và khả đảo nên từ hình vẽ vàcông thức trên vòng điều khiển kín có dạng: (1)

Như vậy hệ kín có dạng là n tích phân riêng biệt điều khiển độc n khớp và tín hiệuđiều khiển độc lập tại mỗi khớp sẽ là :

Khi ma trận H và vectơ h giả thiết được xác định chính xác ,hệ thống sẽ là ổn định tiệmcận nếu các hệ số và thậm chí không còn xuất hiện dao động và độ quá chínhxác trong hệ thống.thực tế ma trận H và vectơ h không thể biết được chính xác mà chúng tachỉ nhận được một giá trị ước lượng thay thế các giá trị ước lượng

và vào phương trình động lực học của robot ta nhận được :

Ró ràng phương trình này khác với phương trình (1) và vì vậy luật điều khiển tính momennhư trên sẽ gây ra sai số trong thực tế phương pháp này phần nào xác định được tínhkhông xác định của mô hình vì hệ thống đã tính đến các thành phần phi tuyến của đốitượng điều khiển và sai số của điều khiển phụ thuộc vào mức độ sai lệch giữa

một khó khăn nữa của phương pháp tính momen là phảiđòi hỏi thực hiện ở thời gian thực.việc tính toán như vậy đòi hỏi những hệ tính toán phứctạp và đắt tiền để nâng cao chất lượng của điều khiển theo phương pháp phản hồi tuyếntính trong kỹ thuật điều khiển nói chung hay trong điều khiển robot nói riêng đã có nhiềunghiên cứu được đề xuất chủ yếu tập trung vào việc tính toán một cách chính xác và

Trang 27

nhanh chóng các giá trị ước lượng và các hệ số của bộ điềukhiển

Thuật di truyền (Gas) đóng vai trò giám sát sẽ thay đổi trọng số liên kết của ANN để tìmđược tập hợp trọng số tối ưu sao cho chất lượng của điều khiển là tốt nhất

Hệ điều khiển tính momen dùng ANN và thuật học Gas

Điều khiển robot 2 bậc tự do sử dụng ANN được tối ưu bằng Gas theo phươg pháp tínhmomen

Xét một mô hình robot 2 bậc tự do được mô tả như sau:

Phương trình chuyển động của robot 2 bậc tự do:

là ma trận quán tính của robot có các phần tử được cho như sau:

Trang 28

I1,I2 là momen quán tính của khớp thứ nhất và khớp thứ hai

khoảng cách từ khớp thứ nhất và khớp thứ hai đến trọng tâm của khớp 1 vàkhớp 2

Vectơ biểu diễn thành phần của lực

Corilis và trọng lực của 2 khớp :

Với các tham số của robot được cho như sau:

Quỹ đạo mong muốn của robot được giả thiết là hàm thời gian của vị trí ,vận tốc và gia tốcgóc:

Trang 29

Mục đích của bài toán điều khiển là tìm momen tác động lên các khớp của robot để robotchuyển động đến vị trí mong muốn thỏa mãn các yêu cầu của quá trình điều khiển sai sốcủa mô hình robot ,sự thay đổi các tham số của robot ,vị trí và đạo hàm của tín hiệu phảnhồi được dùng để tính toán chính xác tín hiệu điều khiển tác động lên robot.do tính khôngxác định của mô hình robot nên phương trình () được viết:

Khi hoàn toàn giống như thì phương trình của vectơ sailệch sẽ thỏa mãn phương trình tuyến tính sau:

Như vậy ta chọn KI, KP, KD để hệ thống này ổn định như mong muốn

Hệ điều khiển khi đó được coi như là một hệ tuyến tính ,các hệ số KI, KP, KD lúc đó đượcchọn như khi thiết kế bộ điều khiển PID với đối tượng tuyến tính cho hệ nhiều đầu vàora.các hệ số này có thể lựa chọn theo phương pháp dễ dàng nhất như phương pháp đặtđiểm cực

Với ANN có cấu trúc 6-8-2 tức là có 6 nơron trên lớp vào [ ] ,8 nơron tạilớp ẩn và 2 nơron trên đầu ra với cấu trúc như trên hình sau số lượng các liên kếtcủa ANN sẽ là (7x8)+(9x2)=74.hàm tác động của các nơron tại đầu vào là hàm tuyếntính ,tại lớp ẩn là hàm sigmoid lưỡng cực và của nơron tại lớp ra là hàm dấu bão hòa

Hệ thống điều khiển robot trong trường này có sơ đồ cấu trúc như sau:

Trang 30

Bộ điều khiển tính momen sử dụng ANN và thuật học Gas

Cấu trúc mạng noron được biểu diễn như sau:

Hình 14.Cấu trúc ANN và thuật học Gas

III.GIỚI THIỆU VỀ HỆ MỜ

1.GIỚI THIỆU:

Khái niệm về logic mờ được đưa ra lần đầu tiên năm 1965 bởi giáo sư L.A.Zadeh tại trường đại học Berkeley, bang California-Mỹ Từ đó lý thuyết mờ được phát triển và ứng dụng rộng rãi Năm 1970 tại trường Mary Queen, London-Anh, E.Mandani đã dùng

Trang 31

kinh điển Tại Nhật, logic mờ được ứng dụng vào nhà máy xử lí nước của Fuji Electronic năm 1983, hệ thống xe điện ngầm của Hitachi vào năm 1987 Lý thuyết mờ ra đời tại Mỹ, ứng dụng đầu tiên tại Anh nhưng pháy triển mạnh mẽ nhất tại Nhật Trong lĩnh vực tự động hóa, logic mờ ngày càng được ứng dụng rộng rãi Nó thực sự hữu dụng với các đối tượng phức tạp mà ta chưa biết rõ hàm truyền, logic mờ có thể giải quyết các bài toán mà điều khiển kinh điển không làm làm được.

2 TẬP HỢP MỜ

2.1 Khái niệm về tập hợp mờ

Đối với tập hợp kinh điển, biên của tập hợp là rõ ràng Cho một phần tử bất

kỳ chúng ta hoàn toàn có thể xác định được phần tử có thuộc tập hợp hay không Xét tập hợp A ở hình 2.2a ,trực quan ta thấya A và b A

Trái với tập hợp kinh điển, của tập hợp mờ không rõ ràng, do đó có một số phần tử ta không thể xác định được là thuộc tập hợp mờ hay không Ví dụ ở hình 2.2b ta không thể khẳng định được phần tử c thuộc tập mờ Ã hay không thuộc tập

mờ Ã (để phân biệt giữa tập mờ và tập kinh điển,chúng ta dùng các chữ cái có dấu ngã ở trên để đặt tên cho các tập mờ)

hình 2.2: a) biên của tập rõ b) biên của tập mờNếu như không khẳng định được một phần tử có thuộc tập mờ hay không thì cũng không thể khẳng định được là phần tử đó không thuộc tập mờ Vậy một phần tử bất kỳ thuộc tập mờ bao nhiêu phần trăm? Gỉa sử câu trả lời đó có thì thì độ phụ thuộc của một phần tử vào tập mờ phải là một gía trị nằm trong khoảng [0,1] (tức là từ 0% đến 100%) Hàm số cho biết độ phụ thuộc của các phần tử vào tập mờ gọi là hàm liên thuộc

(membership function) Từ phát biểu mô tả tập mờ ta không thể suy ra hàm liên thuộc Do

đó, hàm liên thuộc phải được nêu lên như là một điều kiện trong định nghĩa tập mờ

Trang 32

Hàm liên thuộc có thể có dạng tuyến tính từng đoạn như hình 2.3a hay dạngtrơn như hình 2.3b

Ví dụ về tập mờ và hàm liên thuộc của nó:

_Tập mờ B gồm những số thực nhỏ hơn nhiều so với 6: gồm những số thực nhỏ hơn nhiều so với 6:

B={x gồm những số thực nhỏ hơn nhiều so với 6: R|x<<6}

_Tập mờ C gồm những số thực gần bằng 6: gồm những số thực nhỏ hơn nhiều so với 6:

C={x gồm những số thực nhỏ hơn nhiều so với 6: gồm những số thực nhỏ hơn nhiều so với 6: R|x≈6}

a) b)Hình 2.3: a) hàm liên thuộc của tập mờ B

b) hàm liên thuộc của tập mờ C gồm những số thực nhỏ hơn nhiều so với 6:

Trang 33

Chú ý, trong các ký hiệu trên,dấu gạch ngang không phải là dấu chia mà là dấu phân

cách,dấu  và dấu  không phải là dấu tổng hay dấu tích phân mà hiểu là “gồm các phần tử”

2.2 Hàm liên thuộc

1-Các đặc điểm của hàm liên thuộc

Vì tập mờ được xác định bởi hàm liên thuộc nên cần định nghĩa một số thuật ngữ

để mô tả các đặc điểm của hàm này Để đơn giản, các hàm liên thuộc được trình bày dưới đây đều liên tục nhưng các thuật ngữ được sử dụng tương đương cho tập mờ liên tục và tập

Trang 34

Lõi của hàm liên thuộc của tập mờ Ã là vùng gồm các phần tử có độ phụ thuộc bằng 1, nghĩa là lõi gồm các phần tử x của tập cơ sở X sao choÃ( ) 1x

Biên

Biên của hàm liên thuộc của tập mờ Ã là vùng gồm các phần tử có độ phụ thuộc khác 0

và nhỏ hơn 1, nghĩa là biên của tập mờ gồm các phần tử x của tập cơ sở X sao cho

Trang 35

Hình 2.6: a) tập mờ lồi b) tập mờ không lồi

Hình 2.7 trình bày một ví dụ về sự phân hoạch mờ Nếu các tập mờ chính tắc

và lồi tạo nên sự phân hoạch mờ thì không có nhiều hơn hai tập mờ chồng nhau

Hình 2.7: các tập mờ được phân hoạch mờ

Số mờ và khoảng mờ

Nếu à là tập mờ lồi chính tắc xác định trên trục thực và chỉ có một phần tử

có độ phụ thuộc là 1 thì Ã được gọi là số mờ(hình 2.8a )

Nếu à là tập mờ lồi chính tắc xác định trên trục thực có nhiều hơn một phần

tử có độ phụ thuộc bằng 1 thì Ã được gọi là khoảng mờ(hình 2.8b )

Trang 36

Hình 2.8: a) số mờ “gần bằng 4” b) khoảng mờ “gần bằng 3 đến gần bằng 6”

3-Các dạng hàm liên thuộc thường gặp

Hàm liên thuộc định nghĩa trên tập cơ sở một chiều tổng quát có dạng tuyến tính từng đoạn hay là các đường cong “trơn”, hàm liên thuộc hình chữ nhật tương ứng với tập rõ, hàm liện thuộc dạng vạch tương ứng với giá trị rõ Hàm liên thuộc dạng “trơn” có biểu thức μ(x) thường chứa hàm mũ nên để tính độ phụ thuộc của các phần tử cần nhiều phép tính, thời gian thực hiện lâu và rất khó thực hiện trên vi

xử lí cấp thấp Vì vậy, trong kỹ thuật điều khiển mờ thường các hàm liên thuộc dạng “trơn” được thay thế bằng các hàm liên thuộc tuyến tính hóa từng đoạn

Hình 2.9: các dạng hàm liên thuộc cơ bản.

(a) Dạng S (b) Dạng (phân bố Gauss) (c) Dạng Z

Trang 37

Hình 2.10: Giao của hai tập mờ.

Tuy nhiên có nhiều cách khác định nghĩa giao của hai tập mờ Tổng quát giao của hai tập mờ được biểu diễn bởi chuẩn T(T-norm)

Công thức Lukasiewixz:

( A( ), B( )) max 0, A( ) B( ) 1

T  x  x   x  x Công thức Einstein:

Trang 38

( ) ( )( ( ), ( ))

2 ( ( ) ( )) ( ) ( )

B A B

( ) ( ), B( )

A B x S A x x

   Chuẩn S là ánh xạ [0,1]x[0,1] [0,1] thỏa mãn tính chất:

_S(a,1)=a_S(a,b)S(c,d) khi a c b d , _S(a,b)=S(b,a) (tính giao hoán)_S(S(a,b),c)=S(a,S(b,c)) (tính kết hợp)Các công thức sau đây thường được sử dụng để lấy hợp hai tập mờ Trong điều khiển mờ, chuẩn S thường sử dụng là toán tử MAX (công thức Zadeh)

Công thức Lukasiewixz(tổng bị chặn BSUM-Bounded Sum):

( A( ), B( )) min 1, A( ) B( )

S  x  x   x  x

Trang 39

( ) ( )( ( ), ( ))

1 ( ) ( )

B A B

A

B A

A B C   A B   A C 

A B C   A B   A C Tính bắc cầu

Nếu A BC thì A C  

Trang 40

Tính lặp:

A A 

4.BIẾN NGÔN NGỮ VÀ GIÁ TRỊ NGÔN NGỮ

Con người suy nghĩ và giao tiếp với nhau bằng ngôn ngữ tự nhiên Vì vậy muốn thiết kế một bộ điều khiển bắt chước sự suy nghĩ, xử lí thông tin và ra quyết định như con người, trước tiên chúng ta phải biểu diễn được ngôn ngữ tự nhiên bằng mô hình toán học Đặc điểm của ngôn ngữ tự nhiên là chứa thông tin mơ hồ, không chắc chắn, mà tập hợp mờ cũng chứa thông tin mơ hồ không chắc chắn nên chúng ta có thể dùng tập mờ để biểu diễn ngôn ngữ tự nhiên

Biến mờ

Biến mờ là biến được đặc trưng bởi ba phần tử( , , X ( )x ) ,trong đó  là tên biến, X

là tập hợp cơ sở,( )x là môt tập mờ định nghĩa trte6n cơ sở X biểu diễn sự hạn chế mờ(fuzzy restriction) ngụ ý bởi 

Ví dụ trong bài toán mực chất lỏng,chúng ta có thể định nghĩa các biến mờ như sau: (cao,X,cao( )x ) và (thấp,X,  thấp(x)) Hình minh họa hàm liên thuộc của cao( )x và 

thấp(x) của 2 biến mờ trên như sau:

Hình 2.13: hàm liên thuộc của hai tập mờ mô tả biến mờ “cao” , “thấp”

Biến ngôn ngữ

Ngày đăng: 09/05/2014, 09:43

Nguồn tham khảo

Tài liệu tham khảo Loại Chi tiết
[4] Nguyến Thanh Thuỷ, Trần Ngọc Hà, (1999)Tích hợp kỹ thuật mạng nơron và giải thuật di truyền trong phân tích dữ liệu. Tạp chí tin học và điều khiển học T15, S.2 Sách, tạp chí
Tiêu đề: Tích hợp kỹ thuật mạng nơron và giải thuật di truyền trong phân tích dữ liệu
[6] A. Haeussler, K. C. Ng Y. Li, D. J. Murray- Smith, and K. C. Sharman - Neurocontrollers designed by a genetic algorithm. In Proc. First IEE/IEEE Int. Conf. on GA in Eng. Syst.: Innovations and Appl., pages 536- 542, Sheffield, U.K., September 1995 Sách, tạp chí
Tiêu đề: Neurocontrollers designed by a genetic algorithm
[1] Nguyễn Trần Hiệp, Phạm Thượng Cát-Genetic Algorithm and its applications in ControlEngineering Khác
[2] Nguyễn Trần Hiệp, Phạm Thượng Cát- Nghiên cứu bài toán dao động con lắc ngược sử dụng thuật Gen bằng MATLAB. Hội thảo toàn quốc về phát triển Phát triển công cụ tin học trợ giúp cho giảmg dạy và nghiên cứu ứng dụng toán học – hà nội 4/199, trang 326-334 Khác
[5] Trần Văn Hãn - Đại số tuyến tính trong kỹthuật – Nhà xuất bản Đại học và trung học chuyên nghiệp 1978 Khác

HÌNH ẢNH LIÊN QUAN

Hình 1.cấu trúc cơ bản của một neuron - LUẬN VĂN ĐIỆN TỬ ĐIỀU KHIỂN CÁNH TAY MÁY DÙNG MẠNG NEURON
Hình 1.c ấu trúc cơ bản của một neuron (Trang 1)
Hình 2.đồ thị một số hàm tác động - LUẬN VĂN ĐIỆN TỬ ĐIỀU KHIỂN CÁNH TAY MÁY DÙNG MẠNG NEURON
Hình 2. đồ thị một số hàm tác động (Trang 4)
Hình 4.học có giám sát - LUẬN VĂN ĐIỆN TỬ ĐIỀU KHIỂN CÁNH TAY MÁY DÙNG MẠNG NEURON
Hình 4.h ọc có giám sát (Trang 6)
Hình 5.học tăng cường - LUẬN VĂN ĐIỆN TỬ ĐIỀU KHIỂN CÁNH TAY MÁY DÙNG MẠNG NEURON
Hình 5.h ọc tăng cường (Trang 6)
Hình 7.luật học các trọng số - LUẬN VĂN ĐIỆN TỬ ĐIỀU KHIỂN CÁNH TAY MÁY DÙNG MẠNG NEURON
Hình 7.lu ật học các trọng số (Trang 7)
Hình 6.học không có giám sát - LUẬN VĂN ĐIỆN TỬ ĐIỀU KHIỂN CÁNH TAY MÁY DÙNG MẠNG NEURON
Hình 6.h ọc không có giám sát (Trang 7)
Hình 8.mạng radial basic Mạng hopfield là mạng hồi tiếp một lớp với các đặc tính: - LUẬN VĂN ĐIỆN TỬ ĐIỀU KHIỂN CÁNH TAY MÁY DÙNG MẠNG NEURON
Hình 8.m ạng radial basic Mạng hopfield là mạng hồi tiếp một lớp với các đặc tính: (Trang 9)
Hình 9.mạng hopfied ba nút - LUẬN VĂN ĐIỆN TỬ ĐIỀU KHIỂN CÁNH TAY MÁY DÙNG MẠNG NEURON
Hình 9.m ạng hopfied ba nút (Trang 9)
Hình 10. mạng perceptron một lớp với m-1 tín hiệu vào và n tín hiệu ra Trong đó: x j (k) là tín hiệu vào,j=1,2…..,m(x m  = -1) - LUẬN VĂN ĐIỆN TỬ ĐIỀU KHIỂN CÁNH TAY MÁY DÙNG MẠNG NEURON
Hình 10. mạng perceptron một lớp với m-1 tín hiệu vào và n tín hiệu ra Trong đó: x j (k) là tín hiệu vào,j=1,2…..,m(x m = -1) (Trang 10)
Hình 11.mạng truyền thẳng ba lớp - LUẬN VĂN ĐIỆN TỬ ĐIỀU KHIỂN CÁNH TAY MÁY DÙNG MẠNG NEURON
Hình 11.m ạng truyền thẳng ba lớp (Trang 11)
Hình 12.Các bước trong nhận dạng ký tự dùng mạng neuron +thu nhận ảnh - LUẬN VĂN ĐIỆN TỬ ĐIỀU KHIỂN CÁNH TAY MÁY DÙNG MẠNG NEURON
Hình 12. Các bước trong nhận dạng ký tự dùng mạng neuron +thu nhận ảnh (Trang 20)
Hình 13.Mạng MLP trong nhận dạng ký tự quang Quá trình huấn luyện mạng: - LUẬN VĂN ĐIỆN TỬ ĐIỀU KHIỂN CÁNH TAY MÁY DÙNG MẠNG NEURON
Hình 13. Mạng MLP trong nhận dạng ký tự quang Quá trình huấn luyện mạng: (Trang 21)
Hỡnh 2.4: miền nền, lừi, biờn và độ cao của tập mờ. - LUẬN VĂN ĐIỆN TỬ ĐIỀU KHIỂN CÁNH TAY MÁY DÙNG MẠNG NEURON
nh 2.4: miền nền, lừi, biờn và độ cao của tập mờ (Trang 33)
Tập mờ chính tắc là tập mờ có độ cao bằng 1. hình 2.5 mô tả tập mờ chính  tắc và tập mờ không chính tắc. - LUẬN VĂN ĐIỆN TỬ ĐIỀU KHIỂN CÁNH TAY MÁY DÙNG MẠNG NEURON
p mờ chính tắc là tập mờ có độ cao bằng 1. hình 2.5 mô tả tập mờ chính tắc và tập mờ không chính tắc (Trang 34)
Hình 2.13:   hàm liên thuộc của hai tập mờ mô tả biến mờ “cao” , “thấp” - LUẬN VĂN ĐIỆN TỬ ĐIỀU KHIỂN CÁNH TAY MÁY DÙNG MẠNG NEURON
Hình 2.13 hàm liên thuộc của hai tập mờ mô tả biến mờ “cao” , “thấp” (Trang 40)

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

🧩 Sản phẩm bạn có thể quan tâm

w