1. Trang chủ
  2. » Luận Văn - Báo Cáo

Tiểu luận môn mô hình hóa hệ thống điều khiển và mạng neuron

30 205 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 30
Dung lượng 1,51 MB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

Hình 1.1 Bộ não người Mỗi neuron có phần thân với nhân bên trong gọi là soma, một đầu thần kinh ragọi là sợi trục axon và một hệ thống dạng cây các dây thần kinh vào gọi là dendrite.xem

Trang 1

ĐỀ BÀI: Cho tay máy một khớp như hình vẽ

1.Mô hình hóa hệ thống điều khiển trượt cánh tay robot một khớp

2.Ứng dụng mạng Neural truyền thẳng nhận dạng vị trí cánh tay robot một khớp

Hình Mô hình cánh tay rôbot

Im: Mô men quán tính của động cơ

I: Mô men quán tính của tay máy

Kr: Hệ số giảm tốc của hộp số

1: Chiều dài cánh tay

l: Chiều dài cánh tay

m: Khối lượng của vật

l

y

x M1

m v1

v2

Trang 2

A.PHẦN LÝ THUYẾT

1 Tổng quan về bộ não người và Neural sinh học

Hệ thần kinh của con người gồm thần kinh trung ương (não), tủy sống và các dâythần kinh Thần kinh trung ương được cấu tạo từ 2 lớp tế bào, tế bào thần kinh (gọi làneuron) và tế bào glia Trong đó, glia chỉ thực hiện chức năng hổ trợ, neuron mới trực tiếptham gia vào quá trình xử lý thông tin Bộ não người chứa khoảng 1011 neuron, với hơn

1014 liên kết giữa chúng, tạo thành một mạng tế bào thần kinh khổng lồ Hình 1.1 cho thấytổng thể của một bộ não người

Hình 1.1 Bộ não người

Mỗi neuron có phần thân với nhân bên trong (gọi là soma), một đầu thần kinh ra(gọi là sợi trục axon) và một hệ thống dạng cây các dây thần kinh vào (gọi là dendrite).xem hình 1.2 Trục dây thần kinh ra cũng có thể phân nhánh theo dạng cây để nối với cácdây thần kinh vào hoặc trực tiếp với nhân tế bào của các neuron khác thông qua các khớpnối (gọi là synapse) Thông thường mỗi neuron có thể có từ vài chục đến vài trăm ngànkhớp nối

Hình 1.2 Cấu trúc của một neuron sinh học

Các tín hiệu truyền trong các dây thần kinh vào và ra của các neuron là tín hiệu điện, đượcthực hiện thông qua quá trình giải phóng các chất hữu cơ.Các chất này được phát ra từ cáckhớp nối, hình 1.3, dẫn tới các dây thần kinh vào sẽ làm tăng hay giảm điện thế của nhân

Trang 3

tế bào Khi điện thế đạt tới một ngưỡng nào đó (gọi là ngưỡng kích hoạt), sẽ tạo ra mộtxung điện dẫn tới trục dây thần kinh ra Xung này được truyền theo trục tới các nhánh rẽ,khi chạm vào các khớp nối nối với các neuron khác, sẽ giải phóng các chất truyền điện,hình 1.4 Người ta chia thành 2 loại khớp nối, khớp kích thích (excitatory) và khớp ức chế(inhibitory).

Hình 1.3 Khớp nối thần kinh

Hình 1.4 Xung điện trên trục thần kinh

Việc nghiên cứu neuron sinh học cho thấy hoạt động của nó khá đơn giản, khi điện thế ởdây thần kinh vào vượt quá một ngưỡng nào đó, neuron bắt đầu giật (firing), tạo ra mộtxung điện truyền trên dây thần kinh ra đến các neuron khác, cơ chế này cho phép dễ dàngtạo ra mô hình neuron nhân tạo

2 Mô hình Neural nhân tạo

2.1 Mô hình Neuron một ngõ vào

Hình 2.1 là mô hình 1 neuron nhân tạo với một ngõ vào

Trang 4

Hình 2.1 Mô hình neuron 1 ngõ vào Ngõ vào p truyền qua một kết nối có độ lợi w, gọi là trọng số kết nối (weight) tạo thành

wp, sau đó wp được đưa vào hàm kích hoạt f của neuron, gọi là hàm truyền sẽ tạo thành ngõ ra a của neuron.

a = f(wp)

Trường hợp neuron có ngưỡng kích hoạt 12 (bias), wp được cộng với b, ngõ ra của neuron

sẽ là

a = f(wp+b) Quá trình huấn luyện sẽ thay đổi trọng số w và ngưỡng b làm cho quan hệ vào ra p/a thay

đổi theo Thông thường có 3 hàm truyền được sử dụng nhiều trong thực tế, đó là hàm

Linear, Log sigmoid và Hyperbolic tangent sigmoid.

Hàm truyền tuyến tính – ‘purelin’:

Trang 5

Hình 2.3 Hàm truyền Log Sigmoid

Hyperbolic tangent sigmoid – ‘tansig’

n

ne1

e1

Hình 2.4 Hàm truyền Hyperbolic tangent sigmoid

Bằng cách sử dụng các hàm truyền khác nhau, ta được các neuron có tính chất khác nhautương ứng Neural Network ToolBox của MATLAB cung cấp các hàm truyền được liệt

kê trong bảng 2.1

Sự tương quan giữa neuron sinh học và neuron nhân tạo như bảng 2.2

Trang 6

Neuron sinh học Neuron nhân tạo

Tế bào Đơn vị (hay gọi là nút trong mạng) Khớp thần kinh Trọng số kết nối w

Đầu vào kích thích Trọng số kết nối dương

Đầu vào ức chế Trọng số kết nối âm

Kích hoạt bằng tần số Trị ngưỡng b

Phạm vi hoạt động giới hạn bởi Phạm vi hoạt động giới hạn bởi

lý tính của tế bào hàm truyền f

2.2 Mô hình neuron nhiều ngõ vào

Tương tự như trên, mô hình neuron nhiều ngõ vào cho bởi hình 2.5, nhưng ngõ vào

p là một véctơ R phần tử

p1, p2, …, pR

Các trọng số kết nối tương ứng với từng ngõ vào là

w1,1, w1,2, …, w1,R Với ngưỡng kích hoạt b ta có:

3.1 Phân loại mạng neuron

Người ta phân loại mạng neuron dựa vào kiểu kết nối của các neuron và dựa vào số lớpneuron trong mạng

Trang 7

Phân loại theo kiểu kết nối các neuron:

Dựa theo kiểu kết nối, ta có mạng neuron truyền thẳng (feedforward Neural Network) vàmạng hồi qui (recurrent NN) Trong mạng truyền thẳng, các kết nối đi theo một hướngnhất định, không tạo thành chu trình Ngược lại, các mạng hồi qui cho phép các kết nốineuron tạo thành chu trình, với đỉnh là các neuron và cung là các kết nối giữa chúng Cácneuron nhận tín hiệu vào gọi là neuron vào, các neuron đưa thông tin ra gọi là neuron ra,các neuron còn lại gọi là neuron ẩn

Phân loại theo số lớp neuron:

Các neuron trong mạng có thể được tổ chức thành các lớp theo nguyên tắc các neuron ởlớp này, chỉ được nối với các neuron ở lớp khác, không cho phép kết nối giữa các neurontrên cùng lớp, hoặc từ neuron lớp dưới lên neuron lớp trên, cũng không cho phép kết nốinhảy qua 1 lớp Lớp nhận tín hiệu vào gọi là lớp vào, lớp đưa thông tin ra gọi là lớp ra,các lớp ở giữa gọi là lớp ẩn Xem hình 3.1 Thông thường lớp vào không tham gia quátrình tính toán của mạngneuron 13, nên khi tính số lớp người ta không kể lớp vào Ví dụ ởhình 3.1a, tacó mạng 2 lớp, gồm lớp ẩn và lớp ra

3.1.1 Mạng neuron một lớp

Mô hình mạng neuron 1 lớp với R neuron vào và S neuron ra14 như hình 3.2 Mỗi

phần tử trong véctơ vào p, được nối với từng nút vào tương ứng (các neuron nằm trên lớp vào) thông qua ma trận trọng số W

Neuron thứ i (trong lớp tính toán) có:

Ngõ ra tương ứng của neuron thứ i là: ai = f(ni), trong đó f là hàm truyền của neuron.

Chúng ta có thể biểu diễn ngõ ra của mạng:

a = f(Wp+b)

Trang 8

Hình 3.1 Phân loại mạng neuron

Trang 9

Tuy nhiên, ta thêm các chỉ số 1, 2, 3 để dễ phân biệt các lớp của mạng.

Hình 3.3 Mạng neuron nhiều lớp

Neural Network ToolBox của MATLAB cung cấp các hàm tạo mạng neuron được liệt kêtrong bảng 3.1

Bảng 3.1 Các hàm tạo mạng neuron của MATLAB

New Neural Networks

newcf Create a cascade-forward backpropagation network.newelm Create an Elman backpropagation network

newff Create a feed-forward backpropagation network

newfftd Create a feed-forward input-delay backprop network.newgrnn Design a generalized regression neural network

newhop Create a Hopfield recurrent network

newlvq Create a learning vector quantization network

newpnn Design a probabilistic neural network

newrbe Design an exact radial basis network

newsom Create a self-organizing map

Trang 10

4 Huấn luyện mạng Neural

Huấn luyện mạng là quá trình thay đổi các trọng số kết nối cũng như cấu trúc củamạng sao cho phù hợp với các mẫu học Người ta phân biệt 3 kỹ thuật học, đó là học cógiám sát (supervised learning), học không giám sát (unsupervised learning) và học tăngcường (reinforcement learning)

4.1 Học có giám sát

Là giải thuật điều chỉnh các trọng số kết nối dựa vào sự khác biệt giữa ngõ ra thực

tế của mạng (actual network output) và ngõ ra mong muốn (target or desired networkoutput)15 , ứng với một tập tín hiệu vào Học có giám sát đòi hỏi phải có một teacher hay supervisor cung cấp ngõ ra mong muốn, vì thế người ta còn gọi là học có thầy Giả sử ta

có tập mẫu học là {(p,t)}, với p là véctơ vào, t là véctơ ra mong muốn, tức là ứng với ngõ vào p thì ngõ ra đúng của hệ phải là t Gọi ngõ ra thực tế của mạng làa,thì giải thuật học phải điều chỉnh mạng sao cho error=|t-a| nhỏ hơn một tiêu chuẩn nào đó

Các giải thuật học có giám sát sẽ được đề cập chi tiết hơn ở các phần sau

4.2 Học không giám sát

Trong phương pháp học không giám sát, không đòi hỏi tập ngõ ra mon muốn, vì

thế người ta gọi là học không thầy Trong quá trình huấn luyện, chỉ có tập dữ liệu vào

được đưa vào mạng, mạng tự điều chỉnh theo nguyên tắc gộp các mẫu dữ liệu vào có đặcđiểm tương tự thành từng nhóm Phương pháp này được dùng trong mạng Kohonen vàmạng ART Có hai giải thuật học không giám sát là: Học cạnh tranh (CompetitiveLearning) và Cấu hình tự tổ chức (Self-organizing feature maps – SOFM)

Giải thuật học cạnh tranh

Mạng neuron áp dụng giải thuật học này gọi là mạng cạnh tranh (competitive neural

network) Trong hình 4.1, khối || ndist || nhận véctơ vào p và ma trận trọng số IW 1,1, để tạo

ra một véctơ có S 1phần tử Các phần tử của véctơ này có giá trị là khoảng cách Euclidean

âm (Euclidean distance < 0) giữa véctơ vào p và ma trận trọng số IW1,1 Sau đó véctơ này được cộng với trị ngưỡng b1 tạo thành n1.Hàm truyền cạnh tranh C (competitive transfer function), nhận n 1 và làm cho các ngõ ra của các neuron bằng 0 ngoại trừ winning neuron

sẽ có ngõ ra bằng 1 Winning neuron là neuron mà khoảng cách Euclidean giữa véctơ

trọng số của nó và ngõ vào ít âm nhất, nghĩa là véctơ trọng số của nó gần đúng với véctơngõ vào nhất

Trang 11

Hình 4.1 Giải thuật học cạnh tranh Các trọng số của winning neuron sẽ được cập nhật theo luật sau: Giả sử neuron thứ

i trong mạng là winning neuron, thì các phần tử ở hàng thứ i trong ma trận trọng số được

điều chỉnh như sau:

Trong đó là tốc độ học (learning rate), € [0, 1].Luật cập nhật trọng số này gọi làluật Kohonen, nó cho phép các trọng số của một neuron học theo véctơ vào Các neuron

có véctơ trọng số gần giống nhất so với véctơ vào sẽ được điều chỉnh cho gần giống hơn

nữa Kết quả là, winning neuron ở bước huấn luyện16 thứ (i) sẽ gần giống với winning neuron ở bước thứ (i+1), và sẽ khác xa so với winning neuron ở một bước huấn luyện nào

đó, mà ở đó véctơ ngõ vào có sự thay đổi

Khi ta đưa nhiều mẫu huấn luyện khác nhau vào mạng, sẽ dẫn tới sự hình thànhtừng nhóm neuron có các đặc điểm gần giống với các mẫu dữ liệu huấn luyện Sau khihuấn luyện, mạng sẽ hình thành nhiều nhóm neuron, mỗi nhóm sẽ phản ánh một đặc điểmnào đó của các mẫu huấn luyện

Điều này cũng tương đương như việc phân chia các vùng chức năng trên bộ nãongười, vì lý do này mà giải thuật học cạnh tranh tỏ ra ưu điểm trong các ứng dụng nhậndạng, ví dụ dựa trên những đặc điểm ‘thân quen’ còn lại để nhận dạng khuôn mặt người

10 năm sau

Cấu hình tự tổ chức

Mạng neuron áp dụng giải thuật này gọi là mạng tự tổ chức SOFM (Self- organizing feature maps), hình 4.2 Mạng này cũng giống như mạng cạnh tranh, chỉ khác ở chổ nó không dùng ngưỡng kích hoạt b

Trang 12

Hình 4.2 Cấu hình tự tổ chức SOFM nhận biết winning neuron i * cũng giống như trong giải thuật học cạnh tranh, nhưngthay vì chỉ điều chỉnh trọng số của neuron đó, nó còn điều chỉnh cả trọng số của tất cả các

neuron trong tập neuron láng giềng Ni*(d) của winning neuron i * ,bao gồm i * và tất cả các

neuron láng giềng của nó Các neuron i€ Ni*(d) được điều chỉnh trọng số theo luật sau:

Ta ký hiệu tập neuron láng giềng Ni*(d) với ý nghĩa như sau: Chỉ số i * cho biết winning neuron là neuron thứ i trong tổng số neuron của mạng, chỉ số d cho biết số neuron láng giềng của i * nằm trong vòng tròn bán kính là d neuron, tâm là winning neuron

4.3 Học tăng cường

Học tăng cường là một giải thuật đặc biệt của học có giám sát Thay vì phải do thầycung cấp ngõ ra mong muốn thì giải thuật này sẽ nhờ mộ ‘chuyên gia’ (critic) ước lượngngõ ra tốt nhất ứng với một ngõ vào cho trước Tiêu biểu cho học tăng cường là giải thuật

di truyền (Genetic Algorithm - GA) Giải thuật GA đơn giản nhất được cho bởi lưu đồhình 4.3 Giải thuật này bắt đầu bằng cách khởi tạo thế hệ neuron hiện tại một cách ngẫunhiên, sau đó áp dụng các phép toán di truyền để tạo thế hệ mớ phù hợp hơn Các phéptoán di truyền gồm có: Chọn lọc, lai tạo và đột biến Có thể minh họa phép lai như hình

4.4 Giả sử có 2 chuỗi cha và mẹ, ta cắt 2 chuỗi này thành những đoạn nhỏ bằng nhau có

độ dài ngẫu nhiên, hoán đổi các chuỗi nhỏ này cho nhau ta sẽ thu được 2 con Đơn giản nhất là ta cắt chuỗi cha và mẹ thành 2 phần.

Trang 13

Hình 4.3 Giải thuật GA

Cha: 1 0 0 0 1 0 0 1 1 1 1 0 Mẹ: 0 0 1 0 1 1 0 0 0 1 1 0 Con1: 1 0 0 0 1 1 0 0 0 1 1 0 Con2: 0 0 1 0 1 0 0 1 1 1 1 0

Hình 4.4 Phép lai của GA

Kết thúcKhông đạt

Khởi tạo thế hệ hiện tại

Trang 14

5.Nhận dạng đối tượng dùng mạng Neural

Giả sử ta có hệ thống nhận dạng đối tượng dùng mạng nơ-ron như hình 1:

Ta sử dụng mô hình thuận (hình5 1-a) để nhận dạng đối tượng Tín hiệu vào x được đưa vào đồng thời cho cả đối tượng P và mạng nơ-ron Tín hiệu ra của mạng nơ-ron y1 được so sánh với tín hiệu ra y của đối tượng P Ta có sai lệch d-y1 Trong đó:

d=y là tín hiệu ra của đối tượng ứng với tín hiệu vào x , đây cũng chính là tín

hiệu ra mong muốn đạt được của mạng nơ-ron

y1 là tín hiệu ra thực của mạng nơ-ron.

Chuẩn của vec-tơ sai lệch 1׀׀y-d ׀׀ sẽ được sử dụng để đào tạo mạng nơ-ron Nó sẽđược lan truyền ngược trên toàn cấu trúc mạng để thay đổi khối lượng liên kết giữa cácnơ-ron để giảm thiểu độ sai lệch này Kết quả ta sẽ có một mạng nơ-ron sau khi đào tạo sẽthực hiện một ánh xạ x→y1 ~y với bất kỳ một cấp chính xác kỳ nào mà ta mong muốn.Mạng nơ-ron sau khi đào tạo chính là mô hình đồng dạng của đối tượng điều khiển

Tương tự như vậy, ta sử dụng cấu trúc nhận dạng mô hình ngược của đối tượng P nhưhình 5.1-b Tín hiệu ra y của đối tượng P được sử dụng làm tín hiệu vào của mạng nơ-ron

Tín hiệu ra của mạng nơ-ron x1 được so sánh với tín hiệu vào của đối tượng P Chuẩn của

véc-tơ sai lệch ׀׀x-x1׀׀ sẽ được sử dụng để đào tạo mạng nơ-ron Nó được lan truyềnngược trên toàn cấu trúc mạng để thay đổi khối lượng liên kết giữa các nơ-ron để làmgiảm thiểu độ sai lệch này Mạng nơ-ron sau khi đào tạo sẽ chính là mô hình ngược củađối tượng P Nó thực hiện một ánh xạ ngược y→x1 ~x với bất kỳ một cấp chính xác kỳnào mà ta mong muốn Tuy nhiên, nếu mô hình ngược của đối tượng P không tồn tại duy

nhất, nghĩa là ứng với một giá tị của y sẽ có nhiều hơn một giá trị của x, thì ta không thể

thực hiện nhận dạng thành công được, chẳn hạn như trên hình 5 2 Trong trường hợp này,mạng nơ-ron chỉ thực hiện được một ánh xạ ngược y→x1 bằng giá trị trung bình của các

giá trị x.

Mạng nơ-ron

Đối tượng P y

x1 x-x1

x

++-Mạng nơ-ron

Đối tượng P

y=d

y1 d-y1

x

+

+-

Hình5 1Cấu trúc mạng nơ-ron nhận dạng đối tượng điều khiển

a) Mô hình thuận

b) Mô hình ngược

Trang 15

Khi tham số của đối tượng thay đổi trong quá trình hoạt động, các khối lượng củamạng nơ-ron sẽ được thay đổi thích nghi với sự thay đổi tham số đó của đối tượng nếumạng được đào tạo on-line Như vậy nhận dạng đối tượng điều khiển dùng mạng nơ-ronmang tính thích nghi với sự thay đổi tham số của đối tượng trong quá trình hoạt động.

Hình 5.3-a trình bày một cấu trúc mạng được đào tạo on-line để nhận dạng một đối tượng

điều khiển trong một hệ hở Trong mô hình này có hai mạng nơ-ron A và B Bộ điềukhiển nơ-ron B là một phiên bản sao chép y nguyên theo mạng nơ-ron A Mạng nơ-ron Ađược đào tạo nhận dạng mô hình ngược của đối tượng Mạng nơ-ron B sẽ bám theo mạng

nơ-ron A sau mỗi một bước đào tạo, nên tín hiệu vào d của bộ điều khiển nơ-ron B sẽ bằng tín hiệu ra y của đối tượng P, có nghĩa là d=y Vậy tín hiệu vào của bộ điều khiển

nơ-ron B chính là tín hiệu mong muốn nhận được của hệ thống Nhưng ta lưu ý rằng sơ đồnày chỉ có thể thực hiện được khi mô hình ngược của đối tượng tồn tại duy nhất Mặtkhác, sơ đồ này không kinh tế vì phải sử dụng đến hai mạng nơ-ron

Sơ đồ điều khiển hình 5.3-b có chức năng giống như sơ đồ điều khiển trên hình 5-a,nhưng nó chỉ cần duy nhất một mạng nơ-ron Tín hiệu vào mạng nơ-ron là giá trị mongmuốn nhận được của hệ thống Chuẩn của vec-tơ sai lệch ׀׀d-y|| được sử dụng để đào tạomạng nơ-ron Mạng nơ-ron được đào tạo chính là mô hình ngược của đối tượng

Chú ý rằng, các sơ đồ nhận dạng điều khiển ở trên chỉ dùng cho các hệ thống tĩnh,nghĩa là tín hiệu vào/ra là bất biến với thời gian Đối với hệ thống động, mạng nơ-ron sẽcần đến các tín hiệu ra của hệ thống ở các thời điểm trước đó để nhận dạng đối tượng Vìthế ta sẽ thêm vào các khâu lấy trễ tín hiệu ra và dùng làm tín hiệu vào cấp cho mạng nơ-ron

Mô hình ngược tồn tại duy nhất

Mô hình ngược không tồn tại duy nhất

Ngày đăng: 08/01/2019, 11:21

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

🧩 Sản phẩm bạn có thể quan tâm

w