1. Trang chủ
  2. » Công Nghệ Thông Tin

MẠNG RADIAL BASIS

6 456 3
Tài liệu đã được kiểm tra trùng lặp

Đang tải... (xem toàn văn)

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Tiêu đề Mạng Radial Basis
Định dạng
Số trang 6
Dung lượng 64,33 KB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

1.3 Thiết kế mạng Hàm newrbe tạo ra một mạng có mức sai số bằng 0 với ngõ vào là vector huấn luyện.. Ngõ vào hàm là ma trận vector P, vector ngõ ra yêu cầu T và một hằng số SPREAD cho lớ

Trang 1

CHƯƠNG 6

MẠNG RADIAL BASIS

Mạng Radial Basis có thể yêu cầu nhiều neuron hơn mạng backpropagation feedforward chuẩn, nhưng thường thiết kế ít tốn thời gian hơn mạng feedforward chuẩn Mạng này sẽ hoạt

động tốt khi có nhiều vector huấn luyện Mạng Radial Basis được thiết kế bằng hàm newrbe hoặc hàm newrb GRNN và PNN được thiết kế bằng hàm newgrnn và newpnn.

1 HÀM RADIAL BASIS

1.1 Mô hình neuron

Mô hình mạng radial basis với R ngõ vào

Ngõ vào neuron của mạng này khác với ngõ vào của những mạng khác Với mạng này, ngõ vào hàm truyền là vector khoảng cách giữa trọng số w và vector nhập p nhân với ngưỡng b Hàm truyền cho mạng là radbas (n) = e –n² Hàm radial basis đạt giá trị lớn nhất là 1 khi ngõ vào bằng 0 Do đó khi khoảng cách giữa w và p tăng, thì ngõ ra giảm

Ngưỡng b cho phép điều chỉnh độ nhạy của neuron radbas

1.2 Cấu trúc mạng

Mạng radial basis có hai lớp : một lớp ẩn radial basis có S1 neuron, và một lớp tuyến tính ngõ ra có S2 neuron

Trang 2

Khối dist trong hình có ngõ vào là vector p và ma trận trọng số IW 1.1, cho ngõ ra vector S1

thành phần Các thành phần này là khoảng cách giữa vector ngõ vào và vector trọng số IW1.1 Sau đó ngõ ra khối dist nhân với vector ngưỡng b1

1.3 Thiết kế mạng

Hàm newrbe tạo ra một mạng có mức sai số bằng 0 với ngõ vào là vector huấn luyện Hàm

được gọi bằng lệnh net = newrbe (P,T,SPREAD) Ngõ vào hàm là ma trận vector P, vector ngõ

ra yêu cầu T và một hằng số SPREAD cho lớp radial basis; hàm trả về cho mạng trọng số và

ngưỡng phù hợp Hàm newrbe tạo số neuron radbas bằng số vector ngõ vào P Do đó, chúng

ta có một lớp các neuron radbas mà mỗi neuron nhận dạng một vector khác nhau

Mỗi ngưỡng của lớp thứ nhất được cài đặt bằng 0,8326/, sẽ cho hàm radial basis có giá trị 0.5 khi ngõ vào là ±SPREAD Điều này xác định vùng trong không gian vào với mỗi neuron đáp ứng Vì vậy SPREAD cần đủ lớn để neuron đáp ứng mạnh trên vùng không gian vào

Lớp thứ hai là lớp tuyến tính được thiết kế dựa trên lớp đầu

Do hàm newrbe tạo một mạng không có sai số trên tập vector huấn luyện Chỉ với điều kiện

SPREAD đủ lớn để vùng ngõ vào của neuron radbas có thể phủ lên nhau sao cho các neuron

Trang 3

radbas luôn luôn có nhiều ngõ ra chính xác tại mọi thời điểm Điều này làm cho hàm của mạng phẳng hơn và cho kết quả tổng quát hóa tốt hơn

Trở ngại của hàm newrbe là tạo nhiều neuron ẩn tương ứng số vector ngõ vào Vì lý do này,

mạng không được chọn khi cần nhiều vector ngõ vào để định nghĩa chính xác mạng

Hàm newrb chỉ tạo mạng radial basis một neuron mỗi lần lặp Các neuron được thêm vào

mạng cho đến khi tổng bình phương sai số nhỏ hơn sai số đích hoặc đã đạt được số neuron tối

đa Hàm gọi là :

net = newrb ( P, T , GOAL , SPREAD )

Hàm newrb mang đối số là ma trận vector ngõ vào và vector đích (P,T) với các thông số GOAL, SPREAD, trả về mạng yêu cầu Phương pháp thiết kế newrb tương tự newrbe, nhưng có một khác biệt là newrb tạo các neuron cùng một lúc Mỗi lần lặp, vector ngõ vào mà cho

kết quả sai số mạng nhỏ nhất sẽ được sử dụng để tạo ra một neuron radbas Lỗi của mạng mới

sẽ được kiểm tra nếu đủ nhỏ thì hàm newrb sẽ dừng, ngược lại neuron mới sẽ được cộng thêm

Thủ tục này được lặp lại cho đến khi đạt được sai số lỗi yêu cầu

Tương tự như newrbe, thông số SPREAD phải đủ lớn để các neuron radbas đáp ứng đủ phủ

vùng không gian ngõ vào, nhưng nếu quá lớn thì các neuron đáp ứng tương tự nhau

Một câu hỏi đặt ra là tại sao không luôn luôn sử dụng mạng radial basis thay thế cho mạng feedforward chuẩn ? Mạng radial basis, ngay cả khi thiết kế mạng có hiệu quả cao bằng hàm

newrbe, cũng có nhiều neuron hơn mạng feed-forward với neuron tansig hoặc logsig trong lớp

ẩn

Câu trả lời là với mô hình mạng feddforward các neuron sigmoid có ngõ ra đáp ứng được trên một không gian rộng ngõ vào, còn mô hình mạng radial basis thì các neuron radbas chỉ có thể đáp ứng trên không gian hẹp của ngõ vào Để đáp ứng được vùng lớn thì cần nhiều neuron radbas Hơn nữa thiết kế một mạng radial basis cần nhiều thời gian hơn mạng sigmoid / linear

2 MẠNG HỒI QUY TỔNG QUÁT HÓA ( GRNN)

Mạng hồi quy tổng quát hóa (GRNN) thường sử dụng hàm gần đúng Mạng gồm một lớp radial basis và một lớp tuyến tính đặc biệt

Cấu trúc mạng

Mạng này có cấu trúc tương tự mạng radial basis, nhưng hơi khác ở lớp thứ hai

Trang 4

Khối nprod cho ra vector n2 có S2 thành phần Các thành phần được chuẩn hóa bằng tổng các thành phần của a1

Lớp thứ nhất giống như mạng radial basis, có số neuron bằng số ngõ vào Ngưỡng b1 được cài đặt bằng 0,8326/SPREAD Lớp thứ hai cũng có số neuron bằng số ngõ vào mạng Trọng số của lớp thứ nhất được đặt là pT , còn lớp thứ hai là ma trận đích T

SPREAD lớn hơn sẽ phủ một vùng lớn hơn quanh vector vào mà các neuron lớp thứ nhất sẽ đáp ứng ở ngõ ra Do đó nếu SPREAD nhỏ, hàm radial basis sẽ rất dốc nên neuron có vector trọng số gần nhất với ngõ vào sẽ có tác dụng lớn hơn ở ngõ ra so với các neuron khác Mạng sẽ có khuynh hướng đáp ứng với vector đích liên kết với vector ngõ vào được thiết kế gần nhất

Khi SPREAD lớn hơn, độ dốc của hàm radial basis phẳng hơn và nhiều neuron sẽ cùng đáp ứng với vector vào

Có thể dùng hàm newgrnn để tạo mạng GRNN.

Trang 5

3 MẠNG XÁC SUẤT (PNN )

Mạng xác suất có thể dùng cho vấn đề phân loại Khi có ngõ vào, lớp thứ nhất tính khoảng cách giữa vector ngõ vào và vector ngõ vào huấn luyện, mạng sẽ đưa ra vector khoảng cách đó Lớp thứ hai tính tổng các ngõ ra lớp thứ nhất đối với mỗi nhóm ngõ vào và tạo ngõ ra mạng là vector xác suất Cuối cùng, hàm truyền cạnh tranh ở ngõ ra của lớp thứ hai lấy thành phần có xác suất lớn nhất, và cho giá trị ngõ ra là 1 đối với lớp đó và 0 đối với tất cả các lớp khác

Cấu trúc mạng

Giả sử rằng có Q cặp vector vào/vector đích Mỗi vector đích có K thành phần Một trong các thành phần là 1, còn lại là 0 Do đó, mỗi vector vào chỉ ứng với một trong các lớp K Lớp thứ nhất có trọng số ngõ vào là pT Khi có một vector vào khối dist  sẽ cho một vector ngõ ra có thành phần là vector khoảng cách giữa ngõ vào và tập huấn luyện Các thành phần này nhân với ngưỡng và qua hàm truyền radbas Khi ngõ vào gần với vector huấn luyện sẽ cho ngõ

ra giá trị gần bằng 1 ở vector a1 Nếu ngõ vào gần với nhiều vector huấn luyện của một lớp đơn, nó sẽ cho ngõ ra nhiều thành phần gần bằng 1 trong a1 Trọng số lớp thứ hai là ma trận vector đích T Mỗi vector chỉ bằng 1 trên hàng liên kết với lớp ngõ vào cụ thể và bằng 0 ở chỗ khác Phần nhân Ta1 lấy tổng các thành phần a1 Cuối cùng hàm truyền lớp thứ hai, hàm cạnh tranh, cho giá trị bằng 1 tương ứng với thành phần lớn nhất của N2 và bằng 0 ở chỗ khác Vì thế mạng đã phân loại vector ngõ vào thành một lớp trong K lớp, vì lớp đó có xác suất đúng lớn nhất

Ta có thể tạo mạng PNN bằng hàm newpnn.

Trang 6

4 KẾT LUẬN

Mạng radial basis có thể được thiết kế rất nhanh theo hai cách khác nhau :

Phương pháp 1 dùng newrbe, tìm ra cách giải quyết chính xác Hàm newrbe tạo

mạng radial basis với số neuron radbas bằng số ngõ vào vector trong dữ liệu huấn luyện

Phương pháp 2 dùng newrb, là mạng kích thước nhỏ nhất có thể giải quyết vấn đề với sai số cho trước Mạng yêu cầu ít neuron hơn newrbe Tuy nhiên do số neuron

radial basis tỉ lệ với kích thước không gian ngõ vào và độ phức tạp của vấn đề nên mạng radial basis lớn hơn mạng backpropagation

Mạng neural hồi quy tổng quát hóa thường sử dụng hàm xấp xỉ Khi có đầy đủ số neuron ẩn GRNN có thể tương ứng gần đúng một hàm liên tục với độ chính xác cao

Mạng neural xác suất được dùng cho vấn đề phân loại Việc thiết kế mạng rõ ràng nhưng không phụ thuộc vào huấn luyện Khi có đủ dữ liệu huấn luyện PNN được bảo đảm hội tụ tới sự phân loại Bayesian

GRNN và PNN có nhiều ưu điểm, nhưng cả hai có cùng khuyết điểm chính là hoạt động chậm, bởi vì có quá nhiều phép tính

Ngày đăng: 29/09/2013, 06:20

HÌNH ẢNH LIÊN QUAN

1.1 Mô hình neuron - MẠNG  RADIAL  BASIS
1.1 Mô hình neuron (Trang 1)
Khối dist trong hình có ngõ vào là vector p và ma trận trọng số IW 1.1, cho ngõ ra vector S1 - MẠNG  RADIAL  BASIS
h ối dist trong hình có ngõ vào là vector p và ma trận trọng số IW 1.1, cho ngõ ra vector S1 (Trang 2)

TỪ KHÓA LIÊN QUAN

w