Kết quả và đánh giá Kết quả và đánh giá Thử nghiệm việc huấn luyện mạng với tập mẫu của 3 loại font Latinh Arial, Latinh Tahoma, Latinh Times Roman Kết quả khi thay đổi số vòng lặp (epoch) Số kí tự =.
Trang 1Kết quả và đánh giá
Thử nghiệm việc huấn luyện mạng với tập
mẫu của 3 loại font: Latinh Arial, Latinh
Tahoma, Latinh Times Roman
Trang 2Kết quả khi thay đổi số vòng lặp (epoch)
Số kí tự = 90, tốc độ học learning_rate = 150, hệ
số góc hàm sigmoid α = 0.014
Trang 3Kết quả thay đổi tham số learing_rate
Số kí tự = 90, số Epoch = 600, hệ số góc α = 0.014
Trang 4Kết luận
Với các kết quả thu được trong quá trình thử nghiệm huấn luyện ta chọn các thông số
mạng:
Số vòng lặp epoch = 300 – 600
Tốc độ học learning_rate = 150
Hệ số góc hàm sigmoid α = 0.014
Ngưỡng sai số ε = 0.0002
Trang 5Phân tích sự ảnh hưởng của
việc thay đổi các thông số
Trang 6Tăng số vòng lặp nói chung tạo ra tương quan về tỉ lệ rõ ràng Tuy nhiên trong trường hợp nào đó, tăng hơn nữa số lần lặp tác động ngược lại: tăng số trường hợp nhận dạng sai Điều này
một phần có thể do giá trị cao của tham số tốc độ học khi mạng tiến gần đến giới hạn tối ưu của nó và trọng số cao hơn cập
nhật kết quả trong việc bỏ qua trạng thái tối ưu Với số lần lặp lớn hơn, mạng sẽ cố gắng “swing” trở lại trạng thái mong muốn
và tiếp tục quay lại một lần nữa và có khả năng bỏ lỡ trạng thái
tối ưu tại vòng lặp cuối cùng Hiện tượng này là learning over
hay còn gọi là hiện tượng học vẹt
Kích thước của các trạng thái đầu vào cũng là một yếu tố tác động trực tiếp đến hiệu suất của mạng Tập các ký tự đầu vào nhiều hơn sẽ yêu cầu để được huấn luyện dễ bị mắc lỗi hơn
Thường thì tập input có cỡ lớn và phức tạp yêu cầu topo mạng lớn với số lần lặp lại nhiều hơn
số vòng lặp xác định Giá trị tham số này càng nhỏ thì mạng
hiệu chỉnh trọng số càng chậm Nhưng muốn đạt đến trạng thái tối ưu thì ta phải tăng số vòng lặp nhiều hơn Giá trị tối ưu được quyết định ở trên cho tham số học là 150