1. Trang chủ
  2. » Giáo Dục - Đào Tạo

chương 2 ứng dụng mạng neuron nhân tạo trong robot

40 383 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 40
Dung lượng 2,07 MB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

Giá trị ngưỡng q của neuronthứ i có thể được đưa vào trong việc học, nó được xem như là một trọng số wim bằng cách gán một giá trị cố định cho đầu vào xm , giá trị đó là xm = - 1.. trọng

Trang 1

CHƯƠNG 2 : ỨNG DỤNG MẠNG NEURON NHÂN TẠO

TRONG ROBOT

2.1 Giới thiệu :

Thế mạnh của mạng neuron nhân tạo là tạo ra những đặc tính khác biệt trongxử lý bền vững và thích nghi trong một môi trường thay đổi và có nhiễu Người taước lượng rằng bộ não con người gồm khoảng 100 tỉ neuron, cấu trúc neuron gồmnhiều đầu vào dendrite có chức năng nhận tín hiệu từ những neuron khác hoặc từmôi trường bên ngoài thông qua điểm nối sysnape mỗi neuron chỉ có một đầu ragọi là axon, có chức năng truyền xung kích đến những neuron khác Mặc dù thờigian chuyển đổi trong mạng neuron chậm hơn những phần tử xử lý trong máytính nhưng bù lại bộ não con người có số lượng phần tử xử lý lớn hơn rất nhiềulần so với những máy tính hiện đại ngày nay

Mạng neuron nhân tạo là lĩnh vực vừa khoa học vừa kỹ thuật, trong đó khoahọc được định nghĩa như là kiến thức có cấu trúc, và kỹ thuật chính là khoa họcứng dụng Vì kỹ thuat đơn lẻ không thể giải quyết tối ưu những bài toán mà bướchiện tại luôn là kết quả của các bước trước đó Công nghệ mạng neuron nhân tạohình thành, nó thay thế cho các giải pháp tính toán truyền thống và đưa ra một vàikhả năng để tiếp cận nhiều vấn đề hiện tại không giải quyết được Mạng neuronđược ứng dụng rộng rãi trong các ngành kỹ thuật như : kỹ thuật điều khiển, điệntử viễn thông, hệ thống điện và công nghệ thông tin Trong kỹ thuật điều khiển,mạng neuron nhân tạo được ứng dụng để nhận dạng, dự báo và điều khiển các hệthống động Trong điện tử viễn thông, mạng neuron nhân tạo được ứng dụng đểxử lý ảnh, nhận dạng ảnh và truyền thông Trong hệ thống điện, mạng neuronnhân tạo được ứng dụng để nhận dạng, dự báo và điều khiển các trạm biến áp

Trang 2

2.2 Giới thiệu tổng thể các mạng Neuron :

2.2.1 Mạng Perception một lớp:

Trong phần này chúng ta trình bày mạng nuôi tiến một lớp còn gọi la mạngPerception một lớp Mô hình của mạng Perception một lớp được trình bày nhưsau:

trong đó d (k) = [d1(k) ,d 2 (k ) d n (k ) ]T là đầu ra mong muốn của mạng x (k )

= [x1(k) ,x2 (k ) x m (k) ]T là những đầu vào của mạng y (k) = [y1(k ) , y2 (k) y n (k)

]T là những đầu ra thực sự của mạng tương ứng

với những đầu vào

e (k ) = [e1(k) ,e2(k ) e n (k ) ]T là sai số giữa đầu ra mong muốn và đầu ra thực sự của mạng

với k = 1,2 p là số cặp mẫu vào ra dùng để sử dụng huấn luyện mạng, wij

là trọng số kết nối giữa phần tử xử lý thứ i và thứ j Giá trị ngưỡng q của neuronthứ i có thể được đưa vào trong việc học, nó được xem như là một trọng số wim

bằng cách gán một giá trị cố định cho đầu vào xm , giá trị đó là xm = - 1

Giá trị đầu ra của phần tử xử lý thứ i trong mạng được xác định bằng côngthức sau :

Trang 3

SVTH Hoàng Trung Hiếu & Nguyễn Trung Dũng trang

a Luật Học Perception :

Mô tả giải thuật :

mong muốn chỉ nhận giá trị +1 hoặc –1 đầu ra thực sự của mạng được xác địnhnhư sau :

y i (k) = sgn( w i T x (k) ) (2.2) với i = 1,2… m , k = 1,2 … p

trọng số wi của phần tử xử lý thứ i phải được chọn tương ứng với đầu vào x(k)

để đầu ra thực sự của mạng yi(k) tiến đến đầu ra mong muốn di(k) Mặt phẳng phâncách có phương trình wiTx(k) =0 chia không gian ra làm hai phần wiTx(k) > 0 và

wiTx(k) < 0 Từ phương trình 2.2 ta thấy rằng đầu ra yi(k) tiến tới giá trị âm hoặcdương ( 1 hoặc -1)

Miền phân cách được đề cập ở trên không phải luôn luôn tồn tại, nghĩa làluật học Perception sẽ không giải quyết được một số bài toán Một bài toán tiêubiểu mà luật học Perception không thể giải quyết được, nghĩa là chúng ta khôngtìm được miền phân cách, đó là bài toán XOR : đầu ra = 1 khi có một đầu vào = 1và đầu ra = -1 khi tất cả các đầu vào = 1 hoặc 0

Cho trước tập các cặp giá trị vào ra :

Đầu vào

1

n

x x x

2 ( , 2, ,2)

2

2 1

2

n

x x x

K

), ,,(1 2 K

n K K

Trang 4

Từ hình trên ta thấy rõ ràng rằng không tồn tại một đường thẳng chia mặtphẳng đầu vào thành hai lớp

Vì thế điều kiện để giải bài toán phân lớp đầu vào bằng luật học Perceptionđơn giản phụ thuộc vào bài toán đó có phân biệt tuyến tính hay không Một bàitoán phân biệt tuyến tính luôn giải được nghĩa là ta luôn tìm được miền phân cách

• (0,1)

• (0,0)

• (1,1)

• (1,0)

Trang 5

tập đầu vào để đầu ra = + 1 hoặc = -1 để làm rõ hơn, nếu bài toán phân lớp làphân biệt tuyến tính, chúng ta có thể tìm vectot trọng số wi để : wiTx > 0 với đầuvào x cho đầu ra = + 1 (2.3) wiTx < 0 với đầu vào x cho đầu ra = - 1 (2.4) điềunày phải đúng với mọi phần tử đầu ra PE i, (i =1,2 n)

Sau đây chúng ta sẽ giới thiệu một luật học cho việc tìm ra trọng số hợp lýcủa một mạng Perception đơn giản để có thể tìm được miền phân cách, giải thuậtnày được gọi là luật học Perceptron Với luật học Perceptron, tín hiệu học trongluật học tổng quát là sai số mong muốn và đầu ra thực sự của mạng được biểudiễn như sau: r = di - yi

với yi = sgn( wiTx) là đầu ra thực sự của phần tử xử lý thứ i và di là đầu ra mong muốn của phần tử xử lý thứ i Vì đầu ra mong muốn di chỉ bằng +1 hoặc –1nên trọng số cập nhật được tính như sau:

• Tóm tắt giải thuật :

Bước 1 : chọn một giá trị η > 0

Bước 2 : khởi tạo trọng số w một cách ngẫu nhiên, thiết lập sai lệch E = 0,

bắt đầu với mẫu thứ nhất k = 1

Bước 3 : bắt đầu học Cho x = xk và đầu ra của mạng được tính như sau :

Trang 6

E = E + 1 y − d 2

2

Bước 6 : nếu k < K (tức chưa hết tập dữ liệu cần học) thì tăng k lên để qua

mẫu kế tiếp rồi trở lại bước 3, nếu k = K qua bước 7

Bước 7 : kết thúc một chu kỳ học Nếu E = 0 thì kết thúc quá trình học Còn

nếu E >0 thì thiết lập E = 0, k = 1 và khởi tạo chu kỳ học mới bằng cách trở lại

bước 3

Thuyết sau đây chứng tỏ rằng nếu bài toán có nhiều lời giải thì giải thuật họcperceptron sẽ tìm ra một lời giải trong số đó

Thuyết hội tụ : Nếu bài toán là phân biệt tuyến tính thì chương trình sẽ hội tụ

sau một số lần lặp xác định

b Luật Học LMS(Least Mean Square) Hay Còn Gọi Là Luật Học Widrow_Hoff :

Trong phần (a) chúng ta đã trình bày mạng Perceptron đơn giản với đơn vịngưỡng tuyến tính Trong phần này chúng ta sẽ xét các Neuron có hàm tác độnglà tuyến tính

Cho p tập mẫu huấn luyện như sau : { (x1,d1); (x2,d2); (xp,dp)} Bài toán đặt

ra là tìm trọng số wj sao cho :

m w j x j k = d k (2.5) với k = 1, 2, p và p <= m

j=1 phương trình trên chỉ tồn tại lời giải (nghĩa là tìm được trọng số wthoả mãn)

khi các mẫu đầu vào (x1,x2, xp) là độc lập tuyến tính

Để tìm trọng số từ phương trình (2.5), chúng ta định nghĩa hàm chi phí E(w)như sau :

Trang 7

hay ∆w j =h ∂E =hp (d k − w T x k )x j k vôùi j=1,2 m

∂ w j k=1

• Toùm taét giaûi thuaät

Böôùc 1 : choïn tröôùc giaù trò η > 0 vaø Emax > 0

Böôùc 2 : khôûi taïo ngaãu nhieân w, baét ñaàu vôùi maãu thöù nhaát k = 1 vaø gaùn sai

3

c Luaät Hoïc Delta :

Trong phaàn naøy, chuùng ta xeùt caùc Neuron coù haøm taùc ñoäng laø tuyeán tínhănet)=net Luaät hoïc Delta laø luaät hoïc ñöôïc toång quaùt hoaù töø luaät hoïc Perceptronñôn giaûn

Haøm chi phí ñöôïc tính nhö sau :

vôùi k laø taäp döõ lieäu huaán luyeän thöù k , p laø soá taäp döõ lieäu huaán luyeän vaø ặ)laø

haøm taùc ñoäng

AÙp duïng giaûi thuaät gradient-descent ta coù :

Trang 8

• Tóm tắt giải thuật

Cũng như luật học Perceptron, luật học Delta cần một tập dữ liệu mẫu choquá trình học

Mẫu số Giá trị đầu vào Đầu ra mong muốn

Trong thực tế người ta còn có một tiêu chuẩn dừng theo số lần lặp : khi đạt

đến một số lần lặp xác định thì dừng

Bước 1 : chọn trước giá trị η > 0 và Emax > 0

Bước 2 : khởi tạo ngẫu nhiên w, bắt đầu với mẫu thứ nhất k = 1 và gán sai

Trang 9

3

2.2.2 Mạng Perception Nhiều Lớp (Mạng Nuôi Tiến Nhiều Lớp ):

Như đã trình bày ở phần trên, mạng Perceptron đơn gian không thể giải đượcbài toán XOR vì bài toán này không phải là bài toán phân biệt tuyến tính , đây làhạn chế của mạng Perceptron đơn giản Trong phần này , chúng ta sẽ chứng minhmạng Perceptron nhiều lớp có thể giải quyết được bài toán XOR nêu trên Môhình của bài toán XOR được cho như sau :

x1 x2 y(x1,x2) = x1 XOR x2

với x1,x2 là đầu vào và y(x1,x2) là đầu ra tương ứng

Bài toán XOR được thực hiện như sau : trước hết ta dùng 2 đường thẳng

x1x2+0.5 = 0 và x1-x2-0.5 = 0 để chia mặt phẳng ra làm 3 phần như ở hình (a) Từ không gian (x1,x2) ta biến đổi thành không gian (z1,z2) như sau : z1=sgn(x1-

x2+0.5) và z2=sgn( x1-x2-0.5)

Trang 10

Từ đó ta có được mẫu đầu vào và đầu ra tương ứng trong không gian (z1,z2)như sau :

với z1,z2 là đầu vào và d(z1,z2) là đầu ra tương ứng

Trong không gian (z1,z2) các mẫu đầu vào là phân biệt tuyến tính ,vì vậy taluôn tìm được đường thẳng phân cách đó là đường thẳng z1-z2-0.5 = 0 chia mặtphẳng ra làm hai phần d(z1,z2) =1 và d(z1,z2)= -1 như được mô tả ở hình (b) Lúcnày đầu ra được tính như sau : d(z1,z2)=sgn( z1-z2-0.5)

Như vậy một mạng Perceptron 3 lớp gồm 3 phần tử ở lớp đầu vào, 2 phần tử

ở lớp ẩn và 1 phần tử ở lớp đầu ra để giải bài toán XOR được mô tả ở hình (c)

• Giới thiệu :

Giải thuật truyền lùi (Back propagation algorithm ) hay còn gọi là giải thuật

học BP là một trong các giải thuật học quan trọng nhất trong lịch sử phát triển củacác mạng Neuron nhân tạo Giải thuật được sử dụng để huấn luyện các mạngnuôi tiến nhiều lớp với các phần tử xử lý trong mạng có hàm tác động là dạng phituyến Mạng nuôi tiến nhiều lớp kết hợp với giải thuật truyền lùi còn được gọi làmạng truyền lùi (Back propagation network ) Nếu cho tập các cặp huấn luyệnvào_ra ( x(k),d(k) ) với k= 1, 2,… ,p , giải thuật sẽ cung cấp một thủ tục cho việccập nhật các trọng số kết nối trong mạng truyền lùi từ lớp đầu ra đến lớp đầu vào.Giải thuật vận hành theo hai luồng dữ liệu đó là đầu tiên các mẫu huấn luyệnđược truyền từ lớp Neuron đầu vào đến lớp Neuron đầu ra và cho kết quả thực sựy(k) của lớp Neuron đầu ra Sau đó các tín hiệu sai lệch giữa đầu ra mong muốnvà đầu ra thực sự của mạng được truyền lùi từ lớp đầu ra đến các lớp đứng trướcđể cập nhật các trọng số kết nối mạng

Để hiểu rõ nguyên lý làm việc của các mạng nuôi tiến được kết hợp với giảithuật truyền lùi, ta xét một mạng nuôi tiến ba lớp tổng quát gồm có lớp Neuron

Trang 11

đầu vào, lớp Neuron ẩn và lớp Neuron đầu ra, và từ đó ta có thể mở cho cácmạng nuôi tiến nhiều lớp hơn Giả sử lớp Neuron đầu vào của mạng có m đầuvào là x1 ,… ,xj ,… ,xm, lớp Neuron ẩn có l phần tử xử lý với các đầu ra là z1 ,… ,zq ,…, zl , và lớp neuorn đầu ra có n phần tử xử lý với n đầu ra đó là y1 ,… , yi ,… , yn Tacũng giả sử rằng vqj là trọng số kết nối giữa đầu vào thứ j của lớp Neuron đầuvào với phần tử xử lý thứ q của lớp Neuron ẩn và wiq là trọng số kết nối giữa phầntử xử lý thứ q của lớp Neuron ẩn với phần tử xử lý thứ i của lớp Neuron đầu ra.

Cho cặp mẫu huấn luyện (x,d), hàm tổng hợp cho mỗi phần tử xử lý thứ q củalớp Neuron ẩn là :

net q = ∑m v qj x j

j=1

Và đầu ra của nó là:

z q = a(net q )Hàm tổng hợp cho mỗi phần tử xử lý thứ i của lớp Neuron đầu ra là:

Trang 12

Vì thế các trọng số giữa lớp Neuron đầu ra và lớp Neuron ẩn có thể được cậpnhật bằng một lượng :

∆w iq = −h(∂E/∂w iq)

Sử dụng luật chain cho (∂E /∂wiq) , ta có :

∆w iq = −h(∂E /∂y i )(∂yi /∂neti )(∂neti /∂wiq ) trong đó (∂E /∂yi ) = −∑n

(d i − y i ),(∂yi /∂neti ) = a' (net i ) và (∂net i /∂wiq ) = z q

d oi = −(∂E /∂net i ) = −(∂E /∂yi )*(∂yi /∂neti ) =[di − y i ][a'(net i )]

Trong đó neti là đầu vào phần tử xử lý thứ i trong lớp đầu ra và a'(net i ) =

∆v qj = −h(∂E /∂v qj ) = −h(∂E /∂yi )(∂yi /∂z q )(∂z q /∂netq )*(∂net q /∂vqj ) trong đó

(∂E /∂yi ) = −∑n (d i − y i ),∂yi /∂zq = (∂y i /∂net i )(∂neti /∂zq ) = a'(neti )(w iq )

Trang 13

• Giải Thuật Học Truyền Lùi BP :

Một cách tổng quát, cho mạng nuôi tiến q lớp , q = 1 , 2 ,… q và qneti và qyi làđầu vào và đầu ra của phần tử xử lý thứ i của lớp thứ q Mạng có m Neuron đầuvào và n Neuron đầu ra Cho qwij là trọng số kết nối giữa q-1yj và qyi Giải thuậttruyền lùi được kết hợp với mạng nuôi tiến q lớp để tìm ra các trọng số kết nốixấp xỉ thích nghi cho mạng được mô tả như sau :

Nhập : Tập các cặp mẫu huấn luyện {( x(k), d(k) / k= 1,2,… ,p } trong đó cácvector đầu vào với các phần tử cuối cùng được gán bằng –1 , đó là xm+1(k) = -1 Bước 0 : Thiết lập hằng số học h> 0 , và thiết lập sai lệch Emax cho phép giữađầu ra mong muốn và đầu ra thực sự của mạng Thiết lập các trọng số ban đầu Thiết lập E = 0 và k = 1

Bước 1 :(vòng lặp huấn luyện ): Gán mẫu đầu vào thứ k với lớp Neuron đầuvào (q = 1)

qyi = 1yi = xi(k) cho tất cả i

Bước 2 : Truyền tín hiệu tiến thông qua mạng sử dụng công thức :

Trang 14

Bước 5 : Kiểm tra xem nếu k < p , thì cho k = k + 1 và quay về bước 1 Mặt

khác đi đến bước 6

Bước 6 : Kiểm tra xem tổng sai lệch hiện có nếu E < Emax thì kết thúc quátrình huấn luyện và xuất các trọng số cuối cùng được xem như là các trọng sốkếtnối xấp xỉ thích nghi cho mạng, mặt khác thiết lập lại E = 0 , k = 1 và thực hiệnmột quá trình huấn luyện mới bằng cách quay về bước 1

• Các Thông Số Học Của Giải Thuật Truyền Lùi Bp :

Vấn đề hội tụ của giải thuật học truyền lùi BP còn phụ thuộc vào nhiều yếutố khác nhau đó là việc chọn lựa để thiết lập các thông số học trong giải thuật saocho giải thuật có thể hội tụ hoặc hội tụ nhanh đến lời giải bài toán Các thông sốđó là :

+ Trọng số ban đầu : thường chọn rất nhỏ Chúng có thể được chọn ngẫunhiên với giá trị rất nhỏ trong phạm vi [−3/ ki ,3/ k i ], trong đó ki là số đầu vào củaphần tử xử lý thứ i

+ Hằng số học : để giải thuật có thể hội tụ đến lời giải của bài toán, bằngthực nghiệm, hằng số học h được chọn với một giá trị rất nhỏ có thể là trongphạm vi từ 10-3 đến 10 Tuy nhiên để chính xác hơn , hằng số học h nên được cậpnhật bằng qui luật

Có 2 qui luật được sử dụng để cập nhật hằng số học đó là :

+

+ a nếu E < 0 ∆h= − bh nếu E >0

0 mặt khác

trong đó , E là sai số trong hàm chi phí, a và b là hai hằng số dương

Một phương pháp khác được đề nghị để cập nhật hằng số học đó là luật :

Trang 15

E = 12 ∑i n=1 (d i (k)− Q y i ) 2 + E

+ Momentum : tốc độ học của phương pháp gradient descent rất chậm nếuhằng số học h nhỏ và tốc độ học của phương pháp này có thể dao động cực lớnnếu hằng số học h quá lớn Để khắc phục điều này , luật học bằng phương phápgradient descent được bổ sung thêm một lượng hệ số trọng lượng đã được sửdụng ở bước thời gian trước đó là :

∆w(t) = −h∇E(t) +a∆w(t −1) trong đó a ∈[0,1] là thông sốmomentum và giá trị 0.9 thường được sử dụng cho thông số này

+ Các luật cập nhật trọng số: phương pháp gradient descent là một trong cáckỹ thuật tối ưu đơn giản nhất, nó đảm bảo dẫn đến hội tụ của bài toán, tuy nhiêntốc độ học của phương pháp này rất chậm, vì nó chỉ xem xét đến nhóm vi phânbậc nhất của hàm sai lệch Để bổ ích nhiều hơn, nên sử dụng phương pháp cậpnhật trọng sốmà được xem xét đến nhóm vi phân bậc cao hơn của hàm sai lệch + Dữ liệu huấn luyện : dữ liệu huấn luyện cũng là yếu tố quan trọng có tácđộng đến tốc độ hội tụ của giải thuật Chúng ta luôn luôn muốn có tập dữ liệuhuấn luyện sao cho đủ hiệu lực và thích hợp để huấn luyện mạng Tuy nhiên

Trang 16

không có một thủ thuật nào hoặc qui luật nào thích hợp cho các trường hợp đểchọn tập dữ liệu huấn luyện có hiệu lực và thích hợp

Có một qui luật chủ chốt duy nhất đó là dữ liệu huấn luyện nên bao trùm toànbộ không gian đầu vào mong muốn và sau đó trong thời gian quá trình huấn luyệnchọn lọc các cặp vector huấn luyện ngẫu nhiên từ tập hợp dữ liệu huấn luyệnnày

+ Số các Neuron ẩn : kích thước của lớp Neuron ẩn là câu hỏi cơ bản thườngđược đặt ra trong việc ứng dụng các mạng nuôi tiến nhiều lớp Câu hỏi này khómà trả lời chính xác có bao nhiêu Neuron trong lớp Neuron ẩn Tuy nhiên kíchthước của lớp Neuron ẩn thường được xác định bằng thực nghiệm cụ thể, nếumạng không hội tụ đến lời giải thì có thể thêm số Neuron ẩn sao cho mạng cóthể hội tụ đến lời giải

2.2.3 Mạng Truyền Lùi Một Lớp :

Có nhiều loại mạng truyền lùi một lớp, hai mạng tiêu biểu là mạng Hopfieldvà máy Boltzman sẽ được trình bày sau đây

a Mạng Hopfield :

Mạng Hopfield là một mạng truyền lùi một lớp Đầu vào của mỗi Neuron baogồm một đầu vào từ môi trường bên ngoài xi , một giá trị ngưỡng q j và các giá trịhồi tiếp từ đầu ra của các Neuron khác thông qua trọng số kết nối wij ( với i, j=1 n ;i#j ) Ơû mạng Hopfield đầu ra của Neuron thứ i không hồi tiếp về đầu vàocủa chính nó, mà chỉ hồi tiếp về đầu vào của các Neuron khác, có nghĩa là wii=

Qui luật cập nhật tại đầu ra của mỗi neuron được xác định như sau :

y i (k+1) = f (∑ n w ij y j (k) + x i −q i )

j=1

i# j

Trang 17

với f(.) là hàm tác động, wij là trọng số kết nối giữa neuron thứ i và neuron thứ

j, yi(k) là đầu của neuron i tại thời điểm k, q i là giá trị ngưỡng ,x i là đầu vào từmôi trường bên ngoài

Nếu vector đầu vào là lưỡng cực thì trọng số kết nối được tính theo qui luậtsau:

E(k) = − 1 ∑n .∑n w ij y i (k)y j (k) − n x i y i +∑n q i y i (k)

2 i=1 j=1 i= i=1

với k là lần hiệu chỉnh thứ k

Để chứng minh là mạng ổn định thì hàm năng lượng phải giảm khi trạng tháitại mỗi nút thay đổi Chúng ta giả sử tại nút thứ i, trạng thái đầu ra thay đổi từ

yi(k) đến yi(k+1) , khi đó năng lượng thay đổi được tính như sau :

∆E = E(y i (k +1) ) − E(yi (k) )

∆E = −(net i )∆yi

Từ phương trình trên nếu giá trị đầu ra thay đổi từ –1 sang trạng thái kế tiếplà +1 thì hàm tổng hợp net i sẽ dương và ∆E sẽ có giá trị âm Tương tự như vậynếu giá trị đầu ra thay đổ từ +1 sang trạng thái kế tiếp là -1 thì hàm tổng hợp net i

Trang 18

sẽ âm và ∆E cũng có giá trị âm Trong trường hợp không có sự thay đổi giữa hailần liên tiếp thì giá trị của ∆E = 0

Vì vậy hàm năng lượng với qui luật cập nhật như trên sẽ đạt đến giá trị cựctiểu Do đó với trạng thái bắt đầu bất kỳ mạng Hopfield luôn hội tụ về trạng tháiổn định sau một số bước lặp xác định Ma trận trọng số của mạng Hopfield đượcđề nghị là một ma trận xác định đối xứng và không âm

Trong trường hợp với các đầu ra đơn vị {0,1} ta không xét đến giá trị ngưỡngvà độ lệch đầu vào thì trạng thái ổn định tương ứng với số nhỏ nhất của hàm nănglượng sau:

E(k) = − 1 ∑n .∑n w ij y i (k)y j (k)

2 i=1 j=1

điều này xuất hiện qui tắc xác định w ij như sau:

w ij = ∑n (2y i s −1)(2y j s −1) với i#j

s=1

trong đó y s là đầu ra tại thời điểm s

Quá trình xác định trọng số từ phương trình trên có thể được làm rõ hơn bằngcông thức hiệu chỉnh trọng số được cho như sau:

w ij = w ij + h y i y j

2Đây là một hình thức đơn giản của luật học Hebbian Thay vì hiệu chỉnh trọngsố theo luật học Hebbian , luật học Hopfield sử dụng toàn bộ trọng số { w ij }trongquá trình huấn luyện để xác định trọng số cố định với sai số đầu ra tiến đến 0,trọng số được xác định theo công thức sau:

w ij = ∑n (2y i s −1)(2y j s −1)

s=1

b Máy Boltzmann:

Máy Boltzmann là một mạng Hoplfield đơn giản mà mỗi phần tử xử lý (mỗi

nút ) thực hiện một quá trình mô phỏng (simulated annealing process) để nó khả

năng đạt được tối thiểu năng lượng toàn cục từ việc tối thiểu cục bộ Yù tưởng vềquá trình huấn luyện mô phỏng được đưa ra dựa trên việc huấn luyện (tôi luyện)kim loại và những vật liệu khác Trong quá trình luyện kim loại chúng sẽ đượcnung nóng đến gần nhiệt độ nóng chảy và sau đó kim loại được là lạnh từ từ vềnhiệt độ phòng Quá trình này sẽ làm tối thiểu năng lượng toàn cục của kim loại

Trang 19

T E

Nếu nhiệt độ giảm xuống quá nhanh thì năng lượng của kim loại sẽ cao hơn nănglượng tối thiểu ở trên vì sự thay đổi nhiệt độ đột ngột sẽ phá huỷ những lưới kimloại

Sau một thời gian huấn luyện mạng sẽ được trạng thái ổn định và lúc nàytrạng thái của nó sẽ luôn thay đổi theo chiều hướng giảm năng lượng

Để làm rõ quá trình huấn luyện mô phỏng, ta xét một hệ thống có trạng tháithay đổi từ trạng thái cũ sold đến trạng thái mới snew với xác xuất p được cho bởi:

p =

1+ exp(− )với ∆E = E old − E new là sự thay đổi năng lượng

T là nhiệt độ môi trường , T > 0

Từ công thức xác xuất ở trên người ta chứng minh được rằng : xác xuất để

∆E > 0 luôn lớn hơn xác xuất để ∆E < 0 với mọi T > 0, vì vậy chúng ta tin rằngnăng lượng của hệ thống luôn giảm

Khi quá trình huấn luyện mô phỏng được ứng dụng trong mạng Hoplfield thìmạng sẽ được gọi là máy Boltzmann Vì vậy máy Boltzmann cơ bản là một mạngtruyền lùi một lớp với luật cập nhật như sau :

T là nhiệt độ; z là số ngẫu nhiên trong khoảng (0,1)

∆E i = E y i= 0 − E y i = = ∑n w ij y j = net i

Trang 20

thái hội tụ dùng máy Boltzmann sẽ gần với giá trị cực tiểu toàn cục của hàm nănglượng E

Luật học để cập nhật trọng số cho máy Boltzmann được tính như sau:

2.2.5 Mạng Học Không Giám Sát:

Các luật học được trình bày trong các phần trước là luật học giám sát , nghĩalà ứng với mỗi đầu vào ta luôn biết được đầu ra mong muốn Sai số giữa đầu ramong muốn và đầu ra thực sự của mạng được hồi tiếp để cập nhật trọng số chomạng

Trong cách học không giám sát, ta không biết bất kì một thông tin nào,không biết đầu ra thực sự của mạng là đúng hay sai Trong trường hợp này, mạngchỉ được cung cấp các mẫu đầu vào, mạng tự điều chỉnh các trọng số kết nối giữacác Neuron trong mạng bằng cách sử dụng hồi tiếp là các mẫu đầu ra thực sự củamạng Mô hình của một mạng không giám sát đuọc biểu diễn như sau:

Ngày đăng: 28/11/2015, 06:19

HÌNH ẢNH LIÊN QUAN

Hình 1  hình 2 - chương 2 ứng dụng mạng neuron nhân tạo trong robot
Hình 1 hình 2 (Trang 33)
Hình động - chương 2 ứng dụng mạng neuron nhân tạo trong robot
nh động (Trang 37)

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

🧩 Sản phẩm bạn có thể quan tâm

w