1. Trang chủ
  2. » Tất cả

neural net Phần 1

4 8 0

Đang tải... (xem toàn văn)

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 4
Dung lượng 447,91 KB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

Đầu tiên, cô ấy xem lại kiến thức của mình về mạng nơ-ron với các chức năng kích hoạt sigmoid.. Ngoài ra còn có hai đầu vào thiên vị có nhãn -1.. Tất cả các nút đều là hàm sigmoid, nghĩa

Trang 1

Bài tập mạng nơ ron – phần 1

Sinh viên: Nguyễn Thị Nhung

MSSV: 20191409

Lớp: ED2-01 K64

Ngày hoàn thành: 01/06/2021

Bài 1:

Tham khảo: https://ocw.mit.edu/courses/electrical-engineering-and-computer-science/6-034-artificial-intelligence-fall-2010/exams/MIT6_034F10_quiz3_2007.pdf

Lucy nghĩ về việc giải quyết vấn đề gian lận bằng mạng neural Đầu tiên, cô ấy xem lại kiến thức của mình về mạng nơ-ron với các chức năng kích hoạt sigmoid Cô ấy đưa ra một ví dụ đơn giản

có chỉ có một đầu vào i1, hai nút ẩn h1 và h2, và hai nút đầu ra o1 và o2 Ngoài ra còn có hai đầu vào thiên vị có nhãn -1 Vectơ đầu ra y là y = [o1, o2] Tất cả các nút đều là hàm sigmoid, nghĩa là rằng đầu ra của nút s(z) sẽ là tổng các đầu vào có trọng số (z) với:

Bảng giá trị của hàm sigmoid

Trang 2

Mạng nơ ron

Yêu cầu:

Với đầu vào i1 = 1.0, tính đầu ra y01, yo2 của các nút o1, và o2.

Bài làm

 Tính h1

Input : i1=1 , bias= -1 ;

Z(h1) =input *W + bias = 1 * ( -0,85) -1 = -1,85

h(1) = S(Z(h1)) = 1/ ( 1 + e^1.85) =0,136

Input : i1=1 , bias= -1 ;

Z(h2) =input *W + bias = 1 * ( 0,85) -1 = -0,15

h(2) = S(Z(h2)) = 0,463

 Tính O1 ,O2

Z(O1) = - 0,7

O(1) = 0,33

Z(O2) = -0,7

O(2)= 0,33

Bài 2:

Tham khảo: https://ocw.mit.edu/courses/electrical-engineering-and-computer-science/6-034-artificial-intelligence-fall-2010/exams/MIT6_034F10_quiz3_2009.pdf

Perceptron là đơn vị cơ bản của mạng nơ-ron Nó lấy một danh sách các đầu vào x, nhân chúng với một danh sách các trọng số tương ứng w, tính tổng các tích đó và chuyển kết quả qua một

Trang 3

hàm quyết định Chúng ta có thể sử dụng đầu vào "giả" T, thường là -1, nhân với trọng số liên quan wT, như một phần của tổng (để chỉnh bias) Khi sử dụng một perceptron duy nhất để phân

loại, người ta thường sử dụng hàm ngưỡng: nếu tổng z> 0, đầu ra là 1, ngược lại là 0.

Để khám phá những gì các perceptron có thể và không thể làm, chúng tôi yêu cầu bạn xác định trọng số thay vì huấn luyện chúng

1 Hãy xem xét hàm chân trị (hàm boolean) A → B, và lưu ý rằng nó giống như A∨B (A hoặc B) Một perceptron duy nhất với đầu vào A và B có thể xuất ra output tương tự hàm AvB (A hoặc B) hay không?

Có thể

Nếu đúng cho các giá trị của wA= 1, wB = 1, wT=1

Nếu không, tại sao không?

2 Mạng nơ ron có thể biễu diễn biểu thức < hay không? Cho 2 số thực A, B (2 đầu vào), một perceptron có thể cho ra output 1 nếu A<B và 0 nếu ngược lại không?

Nếu đúng cho các giá trị của wA =1, wB =2, wT=3

Nếu không, tại sao không?

Trang 4

3 Muốn biểu diễn biểu thức A=B với epsilon E: cho 3 đầu vào A, B, E, có thể có một perceptron

có thể biểu diễn biểu thức ?

Nếu đúng cho các giá trị của wA =1 wB = 2., wE=3, wT=4

Nếu không, tại sao không?

Ngày đăng: 15/06/2021, 21:06

TỪ KHÓA LIÊN QUAN

w