1. Trang chủ
  2. » Giáo Dục - Đào Tạo

Neurol Networks and applications ppsx

40 313 0
Tài liệu đã được kiểm tra trùng lặp

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Tiêu đề Neural Networks and Applications
Người hướng dẫn TS. Hoàng Mạnh Thắng
Trường học Hanoi University of Technology
Chuyên ngành Electronics and Telecommunications
Thể loại Bài giảng
Năm xuất bản 2006
Thành phố Bangkok
Định dạng
Số trang 40
Dung lượng 3,41 MB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

 Từ các nghiên cứu về tâm lý học: Làm thế nào để động vật có thể học được…  Từ vật lý về tâm lý thực nghiệm giúp các nhà khoa học hiểu các neuron và nhóm các neuron làm việc như thế

Trang 1

Neural Networks and

Trang 2

Nội dung môn học

Gồm lý thuyết và thực hành:

1 Lý thuyết đưa ra các chủ đề về neural

network và ứng dụng vào quá trình học có/không có giám sát

(supervised/unsupervised learning)

thuật toán học trong neural network

trong lĩnh vực điện tử-viễn thông

Trang 4

Lịch sử

Nguồn gốc của NN bắt nguồn từ:

Các nghiên cứu về thần kinh sinh học (cách đây cả thế

kỷ):

Từ những kích thích thần kinh, và ngưỡng kích thích bằng

bao nhiêu thì có đáp ứng? etc

Từ các nghiên cứu về tâm lý học:

Làm thế nào để động vật có thể học được…

Từ vật lý về tâm lý thực nghiệm giúp các nhà khoa học

hiểu các neuron và nhóm các neuron làm việc như thế

nào.

McCulloch và Pitts lần đầu tiên đưa ra mô hình toán của

neuron đơn và nó được ứng dụng cho các nghiên cứu

sau này.

Trang 5

Lịch sử, cont

Tiền sử:

 Golgi and Ramony Cajal nghiên cứu các hệ thống thần

kinh và phát hiện ra các neuron (cuối thế kỷ 19)

Tóm tắt qua các mốc thời gian:

 McCulloch và Pitts (1943): NN đầu tiên với các neuron

binary

 Hebb (1949): quá trình học khi các neuron nối với nhau

 Minsky (1954): NN cho quá trình reinforcement

learning

 Taylor (1956): associative memory

Trang 6

Lịch sử, cont

 Widrow and Hoff (1960): Adaline (adaptive linear neuron)

 Minsky and Papert (1969): đưa ra các hạn chế của perceptron

một lớp và đưa đến perceptron nhiều lớp

Ngừng trệ trong thập kỷ 70:

 Các nhà nghiên cứu độc lập tiếp tục nghiên cứu

 von der Marlsburg (1973): đưa ra quá trình học competitive

learning và self-organization

NN phát triển cực manh ở thập niên 80's

 Grossberg: adaptive resonance theory (ART)

 Hopfield: Hopfield network

 Kohonen: self-organising map (SOM)

Trang 7

Lịch sử, cont

 Oja: phân tích thành phần độc lập(PCA)

 Ackley, Hinton and Sejnowski: Máy Boltzmann

 Rumelhart, Hinton and Williams: backpropagation

Sự đa dạng hóa trong thập niên 90's:

 Machine learning: Phương pháp toán, Bayesian các

phương pháp, lý thuyết thông tin, support vector

machines (công cụ mạnh hiện nay),

 Computational neurosciences: làm việc với hầu hết các

phần của hệ thống của não và được hiểu ở mức nào

đó Nghiên cứu từ các mô hình mức thấp của các

neuron đến các mô hình bộ não.

Trang 8

Phân loại các giải thuật học

radial basis function

support vector machines

NN models:

self-organizing maps (SOM) Hopfield networks

Trang 9

NNs: mục đích và thiết kế

 Học được thực hiện với tập các mẫu

(dataset) và được gọi là training examples

 Một NN được quan tâm theo 3 khía cạnh:

 Kiến trúc của mạng: Các neuron và liên kết giữa chúng với nhau Mỗi liên kết có một trọng số, gọi là weight ,

 Mô hình của Neuron : liên quan đến số đầu vào và hàm

kích hoạt,

 Thuật tóan học: dùng để dạy NN thông qua điều chỉnh các weight để có đầu ra như mong muốn

 Mục đích cuối cùng là có được NN có thể nhận ra được những thông tin được đưa

Trang 10

Ví dụ: Alvinn

Tự động lái ở tốc độ 110 Km/h

Camera

image

Đầu vào là các ảnh 30x32 pixels

30 đầu ra

30x32 weights Cho 1 trong

4 hidden neuron

4 hidden

Neurons

Trang 12

Các kiến trúc mạng neuron

 Có 3 loại kiến trúc

 single-layer feed-forward Các neuron được nối với nhau

 multi-layer feed-forward không tạo ra vòng (acyclic)

 Recurrent neural network

 kiến trúc của NN có liên hệ với giải thuật học được dùng để

dạy cho mạng

Trang 13

Single Layer Feed-forward

Input layer

of source nodes

Output layer

of neurons

Trang 14

Multi layer feed-forward

Input

layer

Output layer

Hidden Layer

3-4-2 Network

Trang 16

b

Activation function

Local Field

Trang 17

Tín hiệu vào và Weights

 Weights được dùng trong

kết nối giữa các đầu vào

và hàm tổng, hoặc giữa đầu ra của một neuron với đầu vào hàm tổng của lớp tiếp theo.

 Hoạt động của NN được theo các Weights

 Bias là đầu vào hằng số

và có weight xác định

 Thường weights được

Trang 18

 Hàm kích hoạt (Activation function) hình

thành đầu ra dựa trên

(u

Trang 19

Bias của Neuron

 bias b và u

v = u + b

v được gọi là induced field của neuron

x2 x1

u = −

x1-x2=0 x1-x2= 1

x1 x2 x1-x2= -1

Trang 20

Bias as extra input

• Bias có thể được xem như một đầu vào

Input

signal

Synaptic weights

Summing function

Activation function

Local Field

x w

Trang 21

0 1

v if

v if v

2 1 2

1

2 1 1

v if

v if

v

v if v

) exp(

=

ϕ ϕ ( ) v = tanh ( ) v

Trang 22

1 exp

2

1 )

(

σ

µ σ

π

) exp(

1

1 )

(

y xv

z

v

+

− +

>

<

=

otherwise ))

/(

) )(

((

if

if

)

(

c d a b c v a

d v b

c v

a v

c v

a v

if

if

)

(

ϕ

Trang 23

Các giải thuật học

Phụ thuộc vào kiến trúc của mạng:

 Error correcting learning (dùng cho

perceptron)

 Delta rule (AdaLine, Backprop.)

 Competitive Learning (Self Organizing

Maps)

Trang 25

Supervised learning Non-linear classifiers

Linear classifiers

Perceptron Adaline

Feed-forward networks Radial basis function networks

Support vector machines

Unsupervised learning

Clustering

Self-organizing maps K-means

Ứng dụng

Trang 26

Ứng dụng

Trang 27

điểm trong không

1 2

) ,

, 2

, 1 (

v v

n

x v

n

x x

x v

Trang 28

Vector Addition

) ,

( )

, (

) ,

( x 1 x 2 + y 1 y 2 = x 1 + y 1 x 2 + y 2

= + w

v

v

w V+w

Trang 29

Scalar Product

) ,

( )

, ( x 1 x 2 ax 1 ax 2 a

a v = =

v

av

Trang 30

Operations on vectors

 max, min, mean, sort, …

 Pointwise: ^

Trang 31

Inner (dot) Product

v

w

α

2 2

1 1 2

1 2

(

The inner product is a

The inner product is a SCALAR! SCALAR!

).(

, (

Trang 32

m m m

m n

a a

a

a a

a

a a

a

a a

332

31

222

21

112

11

m n m

n m

C × = × + × Sum:

ij ij

c = +

A and B must have the same dimensions

Trang 33

p m m n p

n n

A × × ≠ × ×

Identity Matrix:

A AI

Trang 34

m n

T n

B

A + ) = + (

If A T = A A is symmetric

Trang 35

I A

A A

1222

122122

11

1

2221

12

11 1

a a

a

a a

a a

a a

a

a a

Trang 36

2D Translation

t

P

P’

Trang 37

P ' = ( x + t x , y + t y ) = +

) ,

(

) , (

y

x t t

Trang 38

2D Translation using Matrices

(

) , (

y

x t t

0 0

1

x t

t t

y

t x

y

x y

x

P

Trang 39

P

P’

Trang 40

( '

) ,

(

sy sx

s sy

sx

0

0 '

P

S P

S

P ' = ⋅

Ngày đăng: 01/07/2014, 15:20

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN