1. Trang chủ
  2. » Thể loại khác

Mạng neuron và ứng dụng trong xử lý tín hiệu Giảng viên Trần Thị Thanh Hải

28 4 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 28
Dung lượng 1,12 MB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

Mục tiêu Làm thế nào để xác định được ma trận trọng số khi số đầu vào lớn  Các giải thuật lặp cho phép giải bài toán tối ưu hàm mục tiêu  Giới thiệu hai giải thuật học Learning  Thự

Trang 1

International Research Institute MICA

Multimedia, Information, Communication & Applications

Trang 2

Bài 5:

Tối ưu hóa hàm mục tiêu

Trang 3

Mục tiêu

 Làm thế nào để xác định được ma trận trọng số khi số đầu vào lớn

 Các giải thuật lặp cho phép giải bài toán tối ưu

hàm mục tiêu

 Giới thiệu hai giải thuật học

Learning)

 Thực hành với một trong số các thuật toán trên

Trang 4

Nguyên lý chung

đạt f(x i ) ~ d i với mọi giá trị của I

đạt d i

hàm mục tiêu (objective function)

Trang 7

Nguyên lý chung

cho f’(x) = 0 là không khả thi với f là một

hàm bất kỳ bởi các nguyên nhân:

 Sự phức tạp của dạng của đạo hàm

 Dữ liệu có số chiều lớn (high dimension)

 Kích thước của tập dữ liệu lớn (large dataset)

Trang 8

Hướng tiếp cận

 Xuất phát từ một vị trí khởi đầu x (0) ta đi tìm x (1)

sao cho f(x (1) ) < f(x (0) )

 Tiếp tục tìm x (2) sao cho f(x (2) ) < f(x (1) )

 Liên tục như vậy ta sẽ thu được kết quả là một

chuỗi {x (t) } sao cho {f(x (t) )} là chuỗi giảm dần và sẽ đạt tới một cực tiểu nào đó

 Khi đó:

Trang 9

Thuật toán Gradient Descent

Taylor:

Nếu chọn: với eta đủ nhỏ thì:

Nếu chọn: thì giá trị

tại x (t+1) sẽ giảm

Trang 10

Thuật toán học

Trong đó eta là tốc độ học của mạng

Trang 11

Thuật toán học

Nếu eta lớn quá, có thể bỏ qua cực trị và không tốt

cho quá trình update mạng

Trang 12

Hướng tiếp cận

Trang 13

Thuật toán Gradient Descent Learning

Trang 14

Sử dụng Gradient Descent cho 1 neuron

Trang 15

Sử dụng Gradient Descent cho 1 neuron

Trang 16

Đồ thị hàm sai số theo bước lặp

Trang 17

Thuật toán L-M

triển khai bậc 2 của khai triển Taylor

Trang 19

Thuật toán L-M

ở bậc cao hơn thì sẽ có tốc độ hội tụ nhanh

Trang 20

Ví dụ về toán tử OR

x 1 = 1; x 2 = 1 then y = 1

Trang 21

Ví dụ về toán tử OR

Trang 22

Ví dụ về toán tử OR

Trang 23

Ví dụ về toán tử OR

0.00947

Trang 24

Đối với thuật toán L-M

 Sai số khi sử dụng Gradient Descent: E = 0.211

 Sai số khi sử dụng L-M: E = 0.0182

Trang 25

Một số phương pháp nâng cao chất

lượng quá trình học

 Eta: ảnh hưởng đến quá trình học

 Cách lựa chọn đơn giản nhất: lấy giá trị cố định

 Tuy nhiên cách này thường cho giải thuật rơi vào cực trị địa phương hoặc cần số bước lặp lớn khi eta nhỏ hoặc bị giao động xung quanh cực trị nếu như eta quá lớn

thích nghi

 Nếu thì tăng hệ số eta:

 Nếu thì giảm hệ số eta:

Trang 26

Một số phương pháp nâng cao chất

lượng quá trình học

Trang 28

Bài tập về nhà

 Sử dụng matlab, viết hàm huấn luyện neuroncho toán tử OR, AND với giải thuật GradientDescent hoặc L-M

 Hiển thị sai số theo số bước lặp của hai giảithuật trên cùng một hình vẽ

 Nhận xét và so sánh mức độ hội tụ của hai giảithuật

Ngày đăng: 23/05/2021, 03:31

TỪ KHÓA LIÊN QUAN

🧩 Sản phẩm bạn có thể quan tâm

w