1. Trang chủ
  2. » Kỹ Thuật - Công Nghệ

Thiết lập mô hình động học cho robot 914 PC BOT

83 218 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 83
Dung lượng 2,98 MB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

Một trong những mục tiêu thiết kế giao thức truyền thông người-máy hiện nay là tăng cường khả năng của hệ thống các sensor và động cơ sử dụng để quá trình giao tiếp người-máy trở nên tự

Trang 1

BỘ GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC BÁCH KHOA HÀ NỘI

LUẬN VĂN THẠC SĨ KHOA HỌC

NGÀNH: ĐO LƯỜNG VÀ CÁC HỆ THỐNG ĐIỀU KHIỂN

Trang 2

BỘ GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC BÁCH KHOA HÀ NỘI

Trang 3

LỜI CAM ĐOAN

Tôi xin cam đoan rằng đây là công trình nghiên cứu của riêng tôi Ngoài phần tài liệu tham khảo đã được liệt kê đầy đủ ở dười, các số liệu và kết quả là hoàn toàn trung thực và chưa từng công bố ở đâu

Học Viên

Phạm Hoàng Minh

Trang 4

Danh mục hình vẽ

Hình 1.1: Hình ảnh robot 914 PC-BOT……… ………3

Hình 1.2: Phần đầu của robot……….……… 4

Hình 1.3: Phần thân robot……… 4

Hình 1.4: Sơ đồ hoạt động của robot……… 5

Hình 1 5: IO board………7

Hình 1 6: M3 & IOboard PCB……… 8

Hình 1.7.a: 3 IR Sensor ở thân Robot……….……… 10

Hình 1.7.b: 5 IR sensor ở chân robot ……… 10

Hình 2.1: Không gian 6 chiều thể hiện tương tác của hệ thống multi-sensory-motor ……… 12

Hình 2.2: Mô hình kết hợp đa phương thức……….13

Hình 2.3 : Sơ đồ giao diện tương tác bằng tiếng nói……….14

Hình 2.4 : Mô hình bộ nhận dạng, tổng hợp tiếng nói……… 15

Hình 2.5 : Các phần tử cơ bản của hệ thống nhận dạng tiếng nói……….16

Hình 2.6: Thiết bị nhận dạng cử chỉ “The CyberGlove”……… 19

Hình 2.7 : Các điểm đặc trưng trên khuôn mặt……….23

Hình 2.8 : Các đặc trưng và khoảng cách trên khuôn mặt………24

Hình 2.9 : Một số đặc trưng về góc và khoảng cách của khuôn mặt………26

Hình 2.10 : Hệ thống Put-That-There……… ……….28

Hình 2.11 : Sơ đồ hệ thống xử lý đầu vào của HCWP ……… 29

Hình 2.12 : Hệ thống hội thảo audio/video ở trung tâm CAIP……….30

Trang 5

Hình 2.13 : Bố cục 3 chiều lắp đặt hệ thống microphone trong phòng hội thảo… 30

Hình 2.14 : Hệ số SNR tương ứng với vị trí nguồn âm khác nhau……… 31

Hình 2.15 : Hai ngữ cảnh có cùng thứ tự và thời gian xuất hiện nhưng kết quả khác nhau……… 33

Hình 3.1 : Mô hình bánh xe của 914 PC-BOT……… ……… 42

Hình 3.2 : Mô hình động học của 914 PC-BOT ……… ……….43

Hình 3.3 : Sơ đồ nguyên lý chung của khâu định vị trong mobile robot.………….46

Hình 3.4 : Sơ đồ nguyên lý mô hình NEWT……… ………….47

Hình 3.5 : Không gian thí ngiệm ……… ……… ………….52

Hình 3.6a: Di chuyển ngược chiều kim đồng hồ……… ……… ………….53

Hình 3.6b: Di chuyển thuận chiều kim đồng hồ ……… ……… ………….53

Hình 3.7a: Di chuyển ngược chiều kim đồng hồ……… ……… ………….54

Hình 3.7b: Di chuyển thuận chiều kim đồng hồ ……… ……… ………….55

Hình 3.8: Bán kính cong đường chuyển động……… ………… ………….57

Hình 4.1: Giao diện Microsoft Visual C# Express Edition……… …………59

Hình 4.2: Các thành phần chủ yếu để xây dựng ứng dụng cho 914 PC-BOT…… 60

Hình 4.3: Ứng dụng đang xây dựng sau khi kéo thả Driver, Toolbar, M3 vào……60

Hình 4.4: Điều khiển Drive……… …….64

Hình 4.5: Điều khiển senso ……… ……64

Hình 4.6: Hiển thị các thông báo……… ……65

Hình 4.7: Điều khiển Toolbar………….……… ……65

Hình 4.8: Adapter kết nối mạng không dây wireless LINKSYS WUSB100………66

Hình 4.9a: Giao diện realvnc trên máy tính điều khiển………67

Hình 4.9b: Giao diện realvnc trên máy tính bị điều khiển (robot)………67

Trang 6

Hình 4.10: giao diện ứng dụng Distance……… ……….…68 Hình 4.11: Giao diện ứng dụng Drive … ……… ……….….69

Hình 4.12: Giao diện ứng dụng Roam… ……… ……….….70

Trang 7

MỤC LỤC

Mục lục………i

Lời cám đoan……….iii

Danh mục hình vẽ……… iv

Danh mục bảng……….vii

Mở đầu ……… 1

Chương 1: Chương 1: Giới Thiệu Về Robot 914 PC-BOT ……… 3

1.1 Cấu thành của robot 914 PC-BOT……… ……… 3

1.1.1 Phần đầu robot……….………4

1.1.2 Phần thân robot……… ……… ………4

1.1.3 Phần chân đế robot ……… ………5

1.2 Các module của robot……… ………5

1.2.1 Khối xử lý trung tâm………….……….……… 6

1.2.2 Khối điều khiển trung tâm M3 (Machine Management Module)…… 6

1.2.3 Cơ cấu chấp hành……….….……… 9

1.2.4 Khối thu thập dữ liệu……… ……….9

Chương 2: Tổng quan về bài toán thông minh hóa robot……….11

2.1 Giới thiệu về robot thông minh……… ……….……….11

2.1.1 Khái niệm về robot thông minh………….……….……… 11

2.1.2 Đặc thù của bài toán thông minh hóa robot ………….……….…… 11

2.2 Tương tác người-máy ……… ….…… 14

2.2.1 Tương tác người-máy bằng tiếng nói ………….……….…… 14

2.2.2 Tương tác người-máy bằng cử chỉ ……….………….…… 18

2.2.3 Tương tác người-máy qua tiếp xúc ……….….…… 20

2.2.4 Tương tác người-máy qua biểu cảm nét mặt ……… 20

2.2.5 Tương tác người-máy đa phương thức……… 26

2.2.5.1 Khái niệm tương tác đa phương thức …… 26

2.2.5.2 Giới thiệu một số hệ thống đa phương thức…… 27

2.2.5.3 Các vấn đề quan trọng trong hệ thống đa phương thức.…… 31

2.2.5.3.1 Biểu diễn của không gian và thời gian…… 31

2.2.5.3.2 Yếu tố thời gian .……….………….…… 32

2.2.5.3.3 Yếu tố không gian ……….………….…… 34

Chương 3: Mô hình động học của Robot 914 PC-BOT và kỹ thuật định vị cho robot tự hành……… 36

3.1 Tổng quan về robot tự hành và robot tự hành sử dụng bánh xe…… …….36

3.1.1 Giới thiệu chung……….……… 36

3.1.2 Robot Tự hành sử dụng bánh xe ……… 38

3.2 Mô hình động học……….41

3.3 Kỹ thuật định vị cho robot tự hành……… 45

3.3.1 Giới thiệu chung……… 45

3.3.2 Sai số của phương pháp dead- reckoning……….47

3.3.2.1 Nguyên nhân sai số hệ thống……… 49

3.3.2.2 Nguyên nhân sai số ngẫu nhiên……… 49

Trang 8

3.3.2.3 Sai số hệ thống……….….50

3.3.3 Đo sai số hệ thống……….……51

3.3.4 Sửa lỗi sai số hệ thống…….……….……52

3.3.4.1 Sai số loại A…….……….……52

3.3.4.2 Sai số loại B…….……… ……… ……54

Chương 4 Xây dựng ứng dụng điều khiển robot 914 PC - BOT và vài thử nghiệm mô hình của 914 PC-BOT……….59

4.1 Các bước xây dựng ứng dụng điều khiển……….59

4.2 PC-BOT.NET……….……… 61

4.2.1 M3……….……… 61

4.2.1.1 Các sự kiện……….……… 61

4.2.1.2 Các hàm chức năng……… 62

4.2.2 Drive Control ………64

4.2.3 Senso Control… ……….64

4.2.4 Message Control……… 65

4.2.5 Toolbar Control………65

4.3 Điều khiển robot từ một máy tính khác 66

4.4 Một số thử nghiệm mô hình 68

4.4.1 Điều khiển robot tịnh tiến, hoặc quay theo các thông số do người dùng đặt 68

4.4.2 Điều khiển robot đi theo hướng đặt trước bằng chuột 69

4.4.3 Điều khiển robot tự động tránh chướng ngại vật 70

4.4.4 Kết quả thử nghiệm 71

Chương 5: Kết luận và hướng phát triển của đề tài 72

5.1 Kết luận………72

5.2 Hướng phát triển của đề tài 72

Tài liệu tham khảo……….75

Trang 9

Mở Đầu Ngày nay, với nền tri thức phát triển, việc nghiên cứu, ứng dụng robot đã đạt nhiều thành tựu to lớn Bên cạnh những ứng dụng robot trong công nghiệp, đã có rất nhiều nghiên cứu và ứng dụng robot trong các hoạt động xã hội Đã có nhiều nghiên cứu về robot xã hội ra đời phục vụ cho nhu cầu của con người Cũng từ đó, những khái niệm về robot thông minh, thông minh hóa robot xuất hiện ngày càng nhiều và dành được nhiều sự quan tâm của các nhà nghiên cứu và ứng dụng

Xu hướng phát triển robot hiện đại không chỉ dừng lại ở việc robot có khả năng thực hiện các yêu cầu, công việc con người yêu cầu mà còn có thể tồn tại song hành, “ngang hàng” với con người, giao tiếp với con người để cùng hoàn thành nhiệm vụ nào đó Hiện nay trên thế giới đã xuất hiện những robot tương tác với người phục vụ cho các ứng dụng chủ yếu như: hướng dẫn viên du lịch, trợ giúp việc nhà, hướng dẫn viên Kèm theo các công nghệ trợ giúp khác như PDA, màn hình tương tác việc sử dụng các robot trong các ứng dụng xã hội ngày càng phát triển

Một trong những vấn đề được quan tâm trong việc thông minh hóa robot đó

là làm thế nào để có thể điều khiển robot từ xa hoặc robot có thể chạy tự động tới các vị trí làm việc để thực hiện các nhiệm vụ, tương tác Cở sở của việc giải quyết vấn đề là phải thiết kế, xây dựng được các mô hình động học và thuật toán điều khiển

Xuất phát từ nhu cầu tìm hiểu về cơ chế di chuyển của các robot thông minh

em quyết định chọn đề tài nghiên cứu “Thiết lập mô hình động học cho Robot

914 PC-BOT”

Mục tiêu chính của đề tài là Nghiên cứu khai thác vận hành và phát triển mô hình động học cho Robot 914 PC-BOT, một robot được đánh giá là sự kết hợp tốt nhất giữa máy tính cá nhân và robot di động Đây là loại robot chuyển động bánh

xe, 2 bậc tự do, có mô tơ điều khiển, bo mạch vào ra và cảm biến hồng ngoại

Nội dung chính cần giải quyết của đề tài bao gồm:

- Nghiên cứu, tìm hiểu về robot 914 PC-BOT

Trang 10

- Nghiên cứu, tìm hiểu bài toán thông minh hóa robot và các yếu tố đặc thù, xây dựng các mô hình tương tác người-robot

- Xây dựng mô hình động học cho Robot theo các phương thức hoạt động yêu cầu

- Xây dựng môđun phần mềm điều khiển Robot

- Thử nghiệm, phân tích đánh giá hoạt động của robot

Trong quá trình thực hiện đề tài em đã gặp một số khó khăn tuy nhiên được

sự giúp đỡ, chỉ bảo tận tình của GS.TS Phạm Thị Ngọc Yến đề tài đã đạt được các kết quả nhất định Em xin chân thành cám ơn Cô

Hà Nội, ngày 29 tháng 3 năm 2011

Học viên

Phạm Hoàng Minh

Trang 11

Chương 1: Giới Thiệu Về Robot 914 PC-BOT PC-BOT 914 về cơ bản là một máy tính PC gắn trên xe hay là một robot tự hành sử dụng bánh xe Nó cho phép bạn không chỉ sử dụng robot như

là một máy tính cá nhân, mà còn tận dụng tất cả các công nghệ và phần mềm

có sẵn để thiết lập mở rộng tính năng của robot Người dùng có thể kiểm soát

nó thông qua chuột, bàn phím, phím điều khiển hoặc thậm chí từ xa, qua Internet Robot có thể di chuyển theo đường dẫn được xác định trước hoặc nó

có thể nhập vào chế độ thám hiểm, liên tục quét một diện tích, tránh những trở ngại và cầu thang Bên cạnh đó, Robot còn có khả năng nhận dạng đối tượng, tổng hợp giọng nói và nhận dạng giọng nói để thực hiện tương tác người – máy

1.1 Cấu thành của robot 914 PC-BOT

Trang 12

1.1.2 Phần thân robot

Hình 1.3: Phần thân robot

Phần thân được tổ chức thành các khoang Hai khoang rộng nằm hai bên và các khoang nhỏ kích thước chuẩn 5.25’’ nằm ở giữa Khoang rộng dùng để chứa nguồn nuôi (2 bộ nguồn M2-ATX) và mainboard cho robot Các khoang kích thước

Trang 13

chuẩn chứa các phần tử khác của robot như: sensor, CD-ROM/DVD, HDD, loa, và cho mục đích mở rộng

1.2 Các module của robot

Mô hình hoạt động của robot có thể được minh họa như hình dưới đây:

Hình 1.4: Sơ đồ hoạt động của robot

Có thể phân chia sự hoạt động của robot thành 4 khối chính:

Trang 14

- Khối xử lý trung tâm - Host computer

- Khối điều khiển trung tâm - M3 (Machine Management Module)

- Khối chấp hành - Belt & Wheel và Speakers

- Khối Thu thập dữ liệu - IR sensors , Camera, Microphone

1.2.1 Khối xử lý trung tâm

Cấu hình của khối xử lý trung tâm như sau:

- IGoLogic i3899 Mini-ITX motherboard Thông tin chi tiết về việc hỗ trợ của main board này có thể tìm thấy ở các datasheet trên trang chủ của IGologic

- Bộ xử lý intel Core 2 Duo 2 GHz

- RAM 1 Gbyte, PC3200 DDR 400MHz DIMM ( Có thể upgrade lên 2x1

GB DDR 667MHz)

- Ổ cứng: 80 GB Sata hard drive

- Hệ điều hành: Windows hoặc Linux

Trên mỗi hệ điều hành đều có cung cấp các môi trường phát triển Trên Windows với khá nhiều phần mềm như BRAIN, Microsoft Robotic Studio hay là Visual Studio vì 914 PC-BOT đã hỗ trợ dot.Net Ngoài ra trên một số diễn đàn đã

có những chương trình phát triển với java hay C++ Đối với các phiên bản cài hệ điều hành Linux ( Ubuntu) thì có công cụ phát triển là Players

1.2.2 Khối điều khiển trung tâm M3 (Machine Management Module)

Hạt nhân của khối này là 2 vi điều khiển CM3410 của hãng Power machine device Bên cạnh đó là mạch điều khiển động cơ và mạch giao tiếp

Nhiệm vụ của khối M3 là nhận tín hiệu thiết lập từ Host Computer (qua cổng USB), tín hiệu từ các cảm biến hồng ngoại (qua mạch giao tiếp) và thực hiện tất các

cả công việc liên quan đến việc chuyển động như điều khiển 2 động cơ bước

Phần giao tiếp của M3 gồm 8 cổng vào tương tự (Analog_In1 tới Analog_In8) dùng để nhận tín hiệu từ 8 cảm biến hồng ngoại 8 cảm biến này sẽ cho 8 bit dữ liệu sau khi tín hiệu được đi qua một bộ ADC

Ngoài ra còn rất nhiều cổng chưa được sử dụng có thể tăng cường khả năng

mở rộng kết nối khi cần thiết Như 8 công vào số và 8 cổng ra số, 2 cổng USB, 1

Trang 15

cổng IDC 10 chân dùng để kết nối với bo mạch chủ của máy tính Ngoài ra còn 30 pin Samtec Conn dùng để kết nối với mạch khối điều khiển M3 Trong thế hệ mới thì chỉ có một mạch I/O board Interface thay vì 2 cái, vì chỉ cần 1 mạch là đủ đáp ứng các nhu cầu khác nhau Tuy nhiên ta có thể chọn 1 hoặc 2 cái tùy thuộc vào nhu cầu sử dụng

Hình 1 5: IO board

Trang 16

Hình 1 6: M3 & IOboard PCB

Trang 17

1.2.3 Cơ cấu chấp hành

Khối chấp hàng gồm 2 động cơ bước 1 chiều (DC stepper) điều khiển hệ 2 bánh xe Động cơ được điều khiển ở chế độ vi bước bằng vi xử lý chuyên dụng MC3410 Ngoài ra robot còn có 1 loa được bố trí ở phần thân của robot

1.2.4 Khối thu thập dữ liệu

Khối thu thập dữ liệu bao gồm:

- Một Webcam Camera - Logitech QuickCam Communicate STX được gắn phần đầu của robot, giúp robot thực hiện các chức năng thị giác máy tính

- Microphone thu âm để thực hiện việc nhận dạng giọng nói cũng như cảm xúc qua giọng nói

- 8 sensor hồng phục vụ cho các bài toán liên quan đến mobile robot như: Định vị vị trí, phát hiện và tránh vật cản 8 sensor này được bố trí thành 2 phần:

+ Ba sensor nằm ở phần thân robot , khoang 8x5.25 “ trên cùng ( ở độ cao khoảng 370 mm) Góc nhìn hơi cuối xuống cho phép 914 PC-BOT có cái nhìn toàn cảnh;

+ Năm sensor nằm ở phần chân đế với góc nhìn nằm ngang

Trang 18

Hình 1.7.a: 3 IR Sensor ở thân Robot Hình 1.7.b: 5 IR sensor ở chân robot

Trang 19

Chương 2: Tổng quan về bài toán thông minh hóa robot

2.1 Giới thiệu về robot thông minh

2.1.1 Khái niệm về robot thông minh

Khởi nguồn của robot là từ bên trong các nhà máy sản xuất sản phẩm trên dây chuyền lắp ráp, nơi tốc độ, độ chính xác, và độ tin cậy được đặt lên hàng đầu Nhờ đó mà nâng cao được tính đồng nhất của chất lượng sản phẩm, khả năng vận hành suốt ngày đêm Tuy nhiên, chúng khó có thể thay đổi bất kỳ chi tiết, những chức năng lặp đi lặp lại đã được cài đặt ban đầu của nó và hầu như không có tác động hay ảnh hưởng nào của con người trong môi trường làm việc của robot

Hiện nay, với sự ra đời của các bộ cảm biến tinh vi, các máy tính rất mạnh,

và sự đa dạng của các thiết bị cơ điện tử các nhà nghiên cứu, các phòng thí nghiệm trên thế giới đang có xu hướng chế tạo các robot có khả năng trao đổi thông tin với con người, phục vụ các công việc hàng ngày của con người Các robot này có những yêu cầu đặc thù khác với các loại robot làm việc trong nhà máy Nó đòi hỏi ít hơn về độ chính xác và tốc độ so với robot công nghiệp nhưng lại yêu cầu cao hơn

về khả năng tương tác với con người Những robot có khả năng tư duy và hành xử gần như con người được gọi là robot thông minh.K

2.1.2 Đặc thù của bài toán thông minh hóa robot

Những robot thông minh được thiết kế để giao tiếp với con người theo cách thức giống giao tiếp giữa người với người Do vậy các robot cũng cần có những kiến thức về xã hội, thế giới xung quanh con người liên quan tới nhiệm vụ cụ thể của robot để có thể phân tích và đưa ra những quyết định chính xác, phù hợp với ngữ cảnh giao tiếp

Ngoài ra, robot là một đối tác giao tiếp của con người nên chúng cần có hình dáng, cử chỉ, hành động giống con người giúp cho quá trình giao tiếp trở nên thân thiện và tự nhiên

Giao tiếp giữa robot và người cũng cần dựa trên nền tảng cách thức giao tiếp giữa người với người Do đó, đòi hỏi các giao thức phải đa dạng, bao gồm: chữ viết,

cử chỉ, hình ảnh, tiếng nói, ngữ điệu và sự kết hợp giữa các giao thức đó Những

Trang 20

thành tựu trong việc nghiên cứu các giao thức độc lập đã đạt được nhiều kết quả tốt

và đã được ứng dụng nhiều trong cuộc sống hằng ngày Tuy nhiên, việc kết hợp hệ thống tương tác của nhiều phương thức đang gặp phải không ít khó khăn

Một vấn đề nữa cần giải quyết trong bài toán đa phương thức là hệ thống còn cần phải có khả năng cài đặt đồng thời nhiều phương thức truyền thông khác nhau

và cần có sự phối hợp giữa những phương thức này

Một trong những mục tiêu thiết kế giao thức truyền thông người-máy hiện nay là tăng cường khả năng của hệ thống các sensor và động cơ sử dụng để quá trình giao tiếp người-máy trở nên tự nhiên hơn như con người với nhau Một trong những giải pháp ở đây là sử dụng không gian 6 chiều để xây dựng mô hình nhận thức tương tác cho hệ thống multi-sensory-motor system (MSM) [3] Hai chiều đầu tiên thể hiện số kênh và hướng của các kênh sử dụng Bốn kênh còn lại quyết định cấp độ tính tinh sảo của nhận thức tương tác tích hợp trong hệ thống: cấp độ trừu tượng hóa, ngữ cảnh, sự kết hợp/ phân tách, số lượng tiến trình đồng thời (đa nhiệm)

Hình 2.1: Không gian 6 chiều thể hiện tương tác của hệ thống multi-sensory-motor [3]

Kênh truyền thông có thể xem như là một liên kết thời gian, liên kết ảo hoặc liên kết vật lý mà các đối tác truyền thông có khả năng trao đổi thông tin với nhau Thay vì xem xét khía cạnh mối liên kết theo khoảng cách chúng ta sẽ nhấn mạnh tầm quan trọng của bên truyền và bên nhận trong việc truyền thông với nhau Do

Trang 21

đó, một kênh truyền thông phải bao gồm các sensor, effector để thông tin có thể được nhận, truyền và xử lý Các sensor và effector được phối hợp với nhau thành nhóm phù hợp cho việc xử lý thông tin Quan điểm này đã được sử dụng trong mô hình ICS (Interconnecting Cognitive Subsystem-Hệ thống nhận thức kết nối) Theo

mô hình này, hệ thống xử lý thông tin con người được phân chia thành các hệ con

có nhiệm vụ cụ thể

Hình 2.2: Mô hình kết hợp đa phương thức Như hình trên, hệ thống sensor sẽ gửi dữ liệu thu được theo cấu trúc và nội dung của dữ liệu cho hệ xử lý ở cấp độ cao hơn Hệ này bao gồm tập hợp các hệ

Trang 22

nhỏ hơn có chức năng xử lý riêng: hệ xử lý cấu trúc dữ liệu sơ bộ, hệ xử lý thông tin

về hình ảnh- không gian của đối tượng, hệ tổng hợp dữ liệu phân tích Tín hiệu đầu

ra của sự kết hợp các hệ con này sẽ được đưa tới các effector

Cũng theo hình minh họa trên, khi chúng ta tác động vào màn hình (touch screen), keyboard, mouse dữ liệu thu được sẽ được tiến trình P4 xử lý Ngoài ra, hoạt động này cũng có thể được quan sát thông qua camera và xử lý ở tiến trình P1 Như vậy, với mỗi hoạt động của con người như: thay đổi nét mặt, di chuyển cơ thể, hành động của tay… có thể được cảm nhận bằng nhiều thiết bị đầu vào có thể độc lập hoặc đồng thời

2.2 Tương tác người-máy

2.2.1 Tương tác người-máy bằng tiếng nói

Giao tiếp với hệ thống máy tính qua tiếng nói là một chủ đề được các nhà nghiên cứu dành nhiều thời gian và nỗ lực nghiên cứu, phát triển từ cách đây vài chục năm Cho đến nay thì việc tạo ra một hệ thống tương tác bằng tiếng nói sao cho gần như giao tiếp giữa con người với nhau vẫn là một thách thức lớn

Hình 2.3 : Sơ đồ giao diện tương tác bằng tiếng nói

Trang 23

Có thể hiểu nhận dạng tiếng nói là quá trình biến đổi tín hiệu âm học thành một chuỗi các từ ngữ Ngày nay, chúng ta đã có nhiều công cụ toán học, công cụ phần cứng đủ mạnh cải thiện được rất nhiều khả năng nhận dạng tiếng nói của hệ thống Nhiều sản phẩn trước đây chỉ xuất hiện trong các thư viện nghiên cứu nay đã được thiết kế với mục đích thương mại hóa Những sản phẩm này có ứng dụng rất lớn trong cuộc sống hàng ngày như: hệ thống quay số điện thoại gọi tự động bằng tiếng nói, hệ thống truy cập dữ liệu tự động bằng tiếng nói…

Cho tới nay, các kết quả đạt được trong việc nhận dạng và tổng hợp tiếng nói

từ một đoạn văn có thể giúp xây dựng được một giao thức tương tác giao tiếp đơn giản phục vụ cho một hoặc vài yêu cầu cụ thể xác định trước Bộ nhận dạng tiếng nói cần một thư viện từ vựng khoảng vài trăm từ phổ biến nhất trong ứng dụng cụ thể của nó có thể hiểu được những đoạn hội thoại đơn giản một cách tự nhiên với nhiều người dùng khác nhau Để đảm bảo robot hiểu được đoạn đối thoại thì cả người và robot phải tuân theo một quy tắc nhất định và có giới hạn Các ứng dụng như thế này đang được thương mại hóa trong nhiều lĩnh vực khác nhau như: dịch vụ quay số điện thoại tự động, các dịch vụ tự động cho du lịch, đặt hàng tự động, giao dịch tài chính,…

Hình 2.4 : Mô hình bộ nhận dạng, tổng hợp tiếng nói

Trang 24

Hệ thống nhận dạng có thể được thể hiện bằng các đặc trưng qua nhiều tham

số, một số tham số quan trọng như: chế độ nói (nói ngắt quãng hay nói liên tục), loại tiếng nói (tiếng nói đọc hay tiếng nói giao tiếp), số lượng từ vựng (lớn hay nhỏ), hệ số nhiễu tín hiệu SNR, loại mô hình ngôn ngữ (trạng thái hữu hạn hay cảm nhận ngữ cảnh), vị trí đặt microphone nhất là trong môi trường có nhiễu,…

Có thể phân loại hệ thống này thành 2 loại: hệ thống nhận dạng tiếng nói với

từ ngữ đọc tách rời, và hệ thống liên tục

Việc nhận dạng tiếng nói trong đối thoại gặp nhiều vấn đề khó khăn hơn nhiều so với nhận dạng tiếng nói đọc từ một đoạn văn bản Một số hệ thống yêu cầu tiếng nói mẫu của người nói sau đó hệ thống dựa vào tiếng nói mẫu này để phân loại, nhận dạng người nói Việc nhận dạng nhìn chung là sẽ phức tạp và khó khăn hơn khi cơ sở dữ liệu từ vựng tăng lên và có nhiều từ phát âm tương tự nhau Khi tiếng nói tạo ra là một chuỗi từ thì hệ thống cần có khả năng phân tách hoặc hạn chế

sự kết hợp từ bằng mô hình ngôn ngữ Mô hình ngôn ngữ có thể ở dạng đơn giản là

mô hình mạng trạng thái hữu hạn hay mô hình nhạy cảm ngữ cảnh Trong mô hình trạng thái hữu hạn thì các từ được nhận và xử lý theo một quy tắc tách rời nhau quy định trước

Hình 2.5 : Các phần tử cơ bản của hệ thống nhận dạng tiếng nói

Trong phân tích tín hiệu bài toán nhận dạng tiếng nói người ta thường sử dụng biến đổi Fourier để mô tả tín hiệu và dùng mô hình Markov ẩn để phân loại các đặc trưng đã được trích chọn của tiếng nói Hiện nay, các mô hình âm học trong nhận dạng tiếng nói đã được viết lại dưới dạng mô hình đồ thị xác suất PGM

Trang 25

(Probabilistic Graphical Models) Mô hình Markov ẩn là một trường hợp đặc biệt của PGM Ưu điểm nổi bật của PGM là sự phác họa dạng đồ thị cung cấp một sự giải thích dễ hiểu bằng hình ảnh về quá trình mô hình hóa và giúp tự động hóa quá trình mô tả các giải thuật suy luận hiệu quả sau khi cấu trúc ban đầu của đồ thị được xác định

Những giới hạn trong việc xây dựng vốn từ vựng lớn cho cơ sở dữ liệu và hạn chế của các mô hình ngôn ngữ đã cản trở việc xây dựng những đoạn hội thoại

tự nhiên, không có ràng buộc Việc tăng vốn từ vựng cho cơ sở dữ liệu khiến cho việc nhận dạng các đặc trưng trích chọn của tất cả các từ trở nên không khả thi Những bộ nhận dạng đặc trưng này được thiết kế để phân tích những sự khác biệt

về ngôn ngữ và những đơn vị cơ sở của từ, còn gọi là âm vị (nguyên âm, phụ âm, thanh sắc) Các đặc trưng này sau đó được tổng hợp lại để đánh giá, phân biệt tất cả các từ vựng Hiện nay, các nghiên cứu đã có thể xây dựng được cơ sở dữ liệu tới hàng chục nghìn từ vựng

Một vấn đề khác gặp phải trong nhận dạng tiếng nói là sự không tương đồng giữa điều kiện huấn luyện và ứng dụng Để khắc phục yếu tố này có thể tiền xử lý

để loại bỏ nhiễu của tiếng nói, làm rõ tín hiệu và sử dụng mô hình xác suất nhằm điều chỉnh thích nghi với điều kiện ứng dụng

Ngoài việc nhận dạng tiếng nói, hệ thống còn có thêm mô hình ngôn ngữ và

hệ chuyên gia để phân tích ngữ nghĩa của tín hiệu nhận được và đưa ra đáp ứng chính xác Hệ thống chuyên gia càng hiệu quả thì càng có điều kiện hỗ trợ để đạt được cuộc đối thoại tự nhiên và giàu cảm xúc

Không chỉ có khả năng phân tích ngữ nghĩa, hệ thống nhận dạng tiếng nói còn có khả năng phân tích cảm xúc của người nói qua giọng nói Khi cảm xúc của người nói được nhận biết hệ thống sẽ có những phản ứng phù hợp với tối tác đang giao tiếp Ngày nay, nhiều hệ thống như thế đã được đưa vào ứng dụng và thương mại hóa Trong các hệ thống nhận dạng và tổng hợp tiếng nói hiện nay, việc thiếu thể hiện cảm xúc trong lời thoại và việc tạo tiếng nói với tốc độ phát sinh tiếng nói

Trang 26

không đổi đã làm cho cuộc đối thoại trở nên kém sinh động, không tự nhiên Đây là vấn đề đang rất được quan tâm của các nhà nghiên cứu hiện nay

2.2.2 Tương tác người-máy bằng cử chỉ

Tương tác người-máy bằng cử chỉ là một phương tiện diễn đạt trong giao tiếp mới chỉ bắt đầu phát triển nhất là so với những kết quả đã đạt được so với những phương thức tương tác khác như: tiếng nói, hình ảnh, tiếp xúc Độ phức tạp trong nghiên cứu tương tác này tăng dần từ nhận dạng cử chỉ tượng trưng (symbol) tới nhận dạng ngôn ngữ cử chỉ (sign language) Mỗi một cử chỉ, ký hiệu mang một ý nghĩa nhất định Bộ tổng hợp cử chỉ cần có khả năng phân tích, tổng hợp để nhiểu được ý nghĩa của cuộc đối thoại

Trong tương tác này, yếu tố quan trọng nhất để nhận dạng được cử chỉ là cần điều khiển bám sát được sự di chuyển của tay một cách chính xác [11] Giải pháp thường dùng nhất là sử dụng các thiết bị gắn trên tay như găng tay Trên găng tay gắn hệ thống các loại sensor cung cấp nhiều loại thông tin cần thiết khác nhau như:

vị trí của bàn tay, hướng các ngón tay, và độ gập của các ngón tay

Một trong những thiết bị như thế đầu tiên và đã được thương mại hóa là thiết

bị “găng tay dữ liệu - Dataglove” Thiết bị này được thiết kế bởi nhóm tác giả Zimmerman, Lanier, Blanchard, Bryson and Harvill (1987) Thiết bị này có thể nhận biết được hình dạng của bàn tay thông qua các góc gấp khúc của ngón tay đồng thời cung cấp thông tin về vị trí của bàn tay trong không gian 3 chiều Để thực hiện những chức năng này, một hệ thống sợi cáp quang được đặt nằm phía sau lòng bàn tay Trên găng tay phía sau lòng bàn tay gồm những đường nứt nhỏ để cho ánh sáng truyền trên sợi quang thoát ra ngoài khi ngón tay cử động gấp khúc Bằng cách

đo lượng ánh sáng thất thoát ta có thể tính toán được góc gập của ngón tay Sai số góc gấp khúc của ngón tay nằm trong khoảng từ 5-10 độ Hạn chế của thiết bị này là không có khả năng đo độ dịch chuyển ngang(độ giạng ra) của ngón tay Khắc phục nhược điểm này, thiết bị CybleGlove được phát triển bởi Kramer (1989) đã sử dụng một mạch cầu giữa các ngón tay do vậy mà có khả năng đo độ giạng ra của ngón tay đồng thời làm tăng độ chính xác đo góc gấp khúc các đốt ngón tay

Trang 27

Hình 2.6: Thiết bị nhận dạng cử chỉ “The CyberGlove”

CybleGlove có thể xác định được vị trí và sự di chuyển của ngón tay và cổ tay Nó gồm 22 sensor, 3 sensor trên mỗi ngón tay đo góc gấp khúc của ngón tay, 4 sensor đo độ giạng của ngón tay, và thêm các sensor đo độ uốn và độ giạng ra của

cổ tay, ngón tay cái

Khi dữ liệu về cử chỉ của tay đã được thu thập thì việc nhận dạng cử chỉ có thể thực hiện bằng nhiều kỹ thuật khác nhau Sử dụng mạng nơron hay phương pháp khớp mẫu có thể đạt được độ chính xác trên 95% (Vaananen và Bohm 1993) Tuy nhiên giải pháp phổ phổ biến hơn cả là sử dụng mô hình Makop ẩn Mô hình này có thể đạt độ chính xác cao hơn hẳn các giải pháp được biết tới hiện nay Ngoài

ra, sử dụng mô hình này còn cho phép tách tương tác dữ liệu đầu vào của găng tay

dữ liệu thành các dữ liệu độc lập cho việc nhận dạng cử chỉ riêng rẽ hoặc thực hiện

“học” chế độ online cho các cử chỉ mới xuất hiện chưa được đào tạo Trong nhiều trường hợp thì dữ liệu cử chỉ thu thập được luyện với tập số liệu mẫu sau đó dùng tập số liệu kiểm tra để lựa chọn và đánh giá chất lượng của mô hình Tuy nhiên, trong nhiều trường hợp việc nhận dạng cử chỉ được thực hiện theo phương pháp nhận dạng tự nhiên (hay nhận dạng không cần đào tạo) Wexelblat (1995) đã sử

Trang 28

dụng giải pháp dùng mô hình top down và bottom up để nhận dạng các đặc trưng cử chỉ tự nhiên như: độ cong của ngón tay, hướng của bàn tay và tích hợp yếu tố thời gian để tạo ra bộ khung mô tả một cách toàn diện cử chỉ của bàn tay

2.2.3 Tương tác người-máy qua tiếp xúc

Tiếp xúc là một kênh giao tiếp hỗ trợ quan trọng trong giao tiếp giữa người với người bên cạnh các kênh giao tiếp khác như: tiếng nói, cử chỉ, hình ảnh… Với mục đích giúp cho tương tác người-máy trở nên tự nhiên, thân thiện hơn như con người kênh giao tiếp này đang được nghiên cứu, ứng dụng và đã cải thiện được chất lượng của cuộc đối thoại người-máy Tuy nhiên, các nghiên cứu chỉ mới chủ yếu tập trung vào hình dạng của họa tiết (ví dụ như hành động chạm vào hay cử chỉ của người dùng) trong khi những ứng dụng về lực tiếp xúc (hành động dùng tay, chân đánh, đập vào người đối thoại) vẫn còn gặp nhiều khó khăn Các ứng dụng hiện có

và đã được thương mại hóa mới chỉ dừng lại ở tương tác qua tiếp xúc độc lập nhất

là dùng màn hình cảm ứng có khả năng nhận dạng hành động chạm vào, nhận dạng chữ viết hoặc các dữ liệu phác thảo Mặc dù thế, các hệ thống này cũng chỉ hạn chế

ở việc nhận dạng được những chữ viết, ký tự, nút lệnh (qua chạm vào màn hình) ở dạng đơn giản, rời rạc theo một quy luật nhất định Việc nhận dạng chữ viết liên tục

và những chữ viết tắt, viết nhanh là một thách thức lớn với các nhà nghiên cứu Để nâng cao chất lượng cuộc đối thoại người-máy, người ta đang cố gắng kết hợp kênh giao tiếp này với nhận dạng và tổng hợp tiếng nói

2.2.4 Tương tác người-máy qua biểu cảm nét mặt

Biểu cảm nét mặt là một cách thức trực tiếp, tự nhiên và mạnh mẽ trong giao tiếp người-người (face- to -face) để thể hiện cảm xúc, những đánh giá, sự quan tâm tới vấn đề nào đó trong cuộc hội thoại Đây là một trong những kênh truyền thông quan trọng trong xây dựng giao diện đa phương tiện người-máy Nó giúp cho cuộc đối thoại người-máy trở nên tự nhiên và giàu cảm xúc hơn Để thực hiện được điều này hệ thống cần có khả năng tách được các thông tin về cảm xúc từ biểu cảm nét mặt của người dùng (người đối thoại với hệ thống)

Trang 29

Tuy nhiên, xây dựng được một hệ thống có khả năng như thế là rất khó khăn

Ba vấn đề chính cần giải quyết trong bài toán này là: nhận dạng khuôn mặt trong một hoặc một dãy các ảnh, tách được dữ liệu biểu cảm nét mặt, và phân loại được biểu cảm nét mặt (ví dụ như dạng biểu cảm đó xếp vào loại cảm xúc nào: vui, buồn, giận dữ…)

Để phân loại trạng thái biểu cảm của nét mặt người ta thường sử dụng 3 phương pháp: phương pháp khớp mẫu (pattern), phương pháp sử dụng mạng neural, hoặc phương pháp sử dụng các quy luật (rules) Với phương pháp khớp mẫu, dữ liệu trạng thái biểu cảm nét mặt sẽ được so sánh với bộ số liệu mẫu Mỗi bộ số liệu tương ứng với một trạng thái biểu cảm khác nhau Dữ liệu thu được gần nhất với số liệu mẫu biểu cảm nét mặt nhất sẽ được gán loại biểu cảm đó Chúng ta thường dùng thuật toán PCA (Principle Component Annalysis) và LDA để xác định các vector cơ sở của không gian thể hiện khuôn mặt từ một tập ảnh mẫu ban đầu Đối với phương pháp dùng mạng neural, số liệu về khuôn mặt sẽ được đào tạo (học) để xây dựng mô hình cho bài toán Các mô hình sẽ được kiểm tra bằng tập số liệu kiểm tra Mô hình cho kết quả tốt nhất sẽ được lựa chọn Thông thường thì dữ liệu đầu vào của bài toán là các thông tin về đặc tính, đặc trưng của khuôn mặt như: các vị trí quan trọng trên khuôn mặt, và khoảng cách giữa chúng

Dù sử dụng phương pháp nào thì các hệ thống đều thể hiện nhiều điểm tương đồng nhất là nỗ lực phân loại trạng thái biểu cảm nét mặt Ekman đã phân loại cảm xúc thành 6 trạng thái cơ bản là: vui, buồn, ngạc nhiên, sợ hãi, ghê tởm (disgust), và tức giận Tuy nhiên, sự phân loại biểu cảm nét mặt của Ekman gặp khá nhiều vấn đề khó khăn Thứ nhất, sự phân loại dựa trên những định nghĩa mang tính ngôn ngữ và không rõ ràng Do đó khó có thể miêu tả được mỗi trạng thái biểu cảm bằng một khái niệm, công thức duy nhất Thứ hai, nhiều trạng thái biểu cảm nét mặt phức tạp kết hợp nhiều yếu tố như: lông mày, miệng,…thể hiện các cảm xúc không có sự tách biệt rõ ràng (có thể là cảm xúc ngạc nhiên hoặc vui) nên sự phân loại này gặp nhiều khó khăn Ngoài ra, hệ thống phân loại cảm xúc còn cần có khả năng phân biệt cảm xúc với mọi đối tượng không phụ thuộc vào tuổi tác, giới tính, màu da,…

Trang 30

Hammal đã dùng cách phân loại đơn giản chỉ sử dụng các thông tin về mắt, miệng và lông mày để tách các đặc tính quan trọng cho sự phân loại cảm xúc Sau

đó sử dụng lý thuyết về độ tin cậy để phân loại Phương pháp này có hạn chế là chỉ phân biệt được 3 trạng thái cảm xúc trong số 6 cảm xúc cơ bản Chính vì số lượng trạng thái nó phân biệt ít đi nên lượng thông tin cần xử lý giảm, điều này là có lợi rất lớn cho khả năng tính toán của phần cứng Phương pháp đơn giản, rõ ràng và cho kết quả rất tốt dựa trên phương pháp của Hammal [4] đã so sánh các sự thay đổi các tham số trên khuôn mặt (khoảng cách và góc giữa các điểm đặc trưng quan trọng trên khuôn mặt) với trạng thái bình thường Mỗi trạng thái biểu cảm sẽ được cho điểm dựa trên sự tổng hợp trạng thái của các tham số khuôn mặt thu thập được

từ ảnh Cảm xúc nào có điểm nhất sẽ được lựa chọn là trạng thái biểu cảm của khuôn mặt

Ví dụ chúng ta xét 2 tham số P1 và P2 của khuôn mặt Mỗi tham số này lại

có 3 trạng thái khác nhau: C+ , C-, và S Trạng thái C+ có nghĩa là giá trị của tham số

đã tăng so với giá trị tại trạng thái bình thường; C- tức là giá trị tham số đã giảm so với bình thường; và S chỉ ra rằng trạng thái của nó không thay đổi Sau đó ta lập bảng thể hiện sự thay đổi của các tham số ảnh hưởng tới các trạng thái biểu cảm

Bảng 2.1 : Trạng thái của tham số và loại cảm xúc

Từ bảng này ta sẽ số hóa sự thay đổi các trạng thái C+, C-, S bằng cách thay

sự xuất hiện của nó trong mỗi trạng thái biểu cảm bằng mức logic 1 và ngược lại bằng logic 0 như bảng sau:

Trang 31

Bảng 2.2 : Bảng logic cho mỗi tham số và loại cảm xúc Như vậy, vấn đề tiếp theo cần giải quyết đó là lấy những đặc trưng (tham số) nào trên khuôn mặt và tách chúng ra trong thông tin về khuôn mặt như thế nào Người ta sử dụng 10 điểm đặc trưng trên khuôn mặt, từ những điểm này chúng ta có thể xác định được các tham số của khuôn mặt về khoảng cách và góc Sau đây là các điểm đặc trưng trên khuôn mặt sử dụng chuẩn MPEG-4:

Hình 2.7 : Các điểm đặc trưng trên khuôn mặt

Từ các điểm đặc trưng này sẽ tính được 5 khoảng cách quan trọng để nhận dạng cảm xúc Trong các khoảng cách này, khoảng cách giữa 2 mắt không ảnh hưởng tới biểu cảm nét mặt Nó được chuẩn hóa về một khoảng giá trị thường gặp giữa 2 mắt con người Như vậy, dựa vào khoảng cách này ta có thể xử lý được những vấn đề về tiền xử lý ảnh để tách các tham số như: vị trí đặt camera (ảnh

Trang 32

hưởng tới khoảng cách giữa các điểm tính toán trên mặt), chuẩn kích thước (scale) cho ảnh…

Hình 2.8 : Các đặc trưng và khoảng cách trên khuôn mặt

Để định nghĩa được trạng thái của mỗi tham số đối với từng loại biểu cảm chúng ta cần tìm một ngưỡng giới hạn phân tách giữa các trạng thái của tham số Các giới hạn này muốn chính xác cần có sự tổng hợp một cơ sở dữ liệu đầy đủ Giá trị ngưỡng tách các trạng thái được thay đổi theo từng khoảng cách, theo cơ sở dữ liệu của mỗi người và theo mỗi loại cảm xúc để xác định giá trị ngưỡng Bảng sau thể hiện kết quả thống kê và dự báo giá trị này với khoảng cách D4 Từ số liệu này

ta sẽ xây dựng bảng thể hiện cảm xúc theo các giá trị các trạng thái

Bảng 2.3: Kết quả thống kê và giá trị ngưỡng tách các trạng thái, khoảng cách D4

Trang 33

Bảng 2.4 : Bảng thể hiện trạng thái biểu cảm theo trạng thái của các tham số

Kết quả đạt được khi dùng 5 khoảng cách để nhận dạng trạng thái cảm xúc là không đồng đều, có những cảm xúc đạt phần trăm thành công là rất cao (“neutral”: 100%, “disgust”: 84%) và nhiều trạng thái cảm xúc có kết quả phân loại khá thấp (“Joy”: 37%)

Bảng 2.5 : Phần trăm thành công nhận dạng của các phương pháp

Để tăng khả năng phân loại các trạng thái biểu cảm cần có càng nhiều càng tốt những tham số khác biệt giữa các trạng thái Xuất phát từ ý tưởng này, người ta

đã cải thiện chất lượng của hệ thống bằng cách thêm vào các tham số nhận dạng ngoài 5 tham số về khoảng cách như trên: độ nhăn của mũi, và hình dạng miệng Kết quả khi thêm tham số độ nhăn của mũi được cải thiện đáng kể nhất là cảm xúc

“vui” và “ghê tởm” nhưng 2 trạng thái “buồn” và “ngạc nhiên” thì kết quả thành công nhận dạng vẫn còn thấp Tiếp tục nâng cao khả năng nhận dạng, người ta thêm tham số về độ biến dạng (độ rộng) của miệng Độ rộng của miệng được thể hiện bằng 4 tham số (2 góc mở, độ rộng W, và độ cao H) như trong hình sau:

Trang 34

Hình 2.9 : Một số đặc trưng về góc và khoảng cách của khuôn mặt

Kết quả các trạng thái cảm xúc được phân loại (nhận dạng) với tỷ lệ thành công rất cao Trạng thái “Vui”, “Ghê tởm”, và “Bình thường” tỷ lệ thành công là 100% Trạng thái “Ngạc nhiên” có khả năng phân loại thấp nhất cũng ở mức 63%

Một hệ thống có khả năng rút ra các thông tin cảm xúc từ nét mặt của người dùng (ví dụ như trên) sẽ giúp ích cho việc phát triển một giao diện bắt mắt, tự nhiên,

và thân thiện với con người Tuy nhiên, việc phát triển được một hệ thống như vậy

là một nhiệm vụ rất khó khăn

2.2.5 Tương tác người-máy đa phương thức

2.2.5.1 Khái niệm tương tác đa phương thức

Trong cuộc sống hằng ngày, con người giao tiếp với nhau bằng nhiều phương thức như: tiếng nói, biểu cảm nét mặt, hình ảnh, cử chỉ… Việc sử dụng kết hợp nhiều phương thức giao tiếp một cách tự nhiên và hiệu quả là điều rất bình thường và dễ dàng Tuy nhiên, với giao tiếp người-máy thì điều này gặp rất nhiều vấn đề khó khăn và phức tạp Điều này dẫn tới một thực tế là những thiết kế giao tiếp người-máy của chúng ta thường theo hướng bắt người sử dụng thích nghi với phương thức của máy hơn là bắt máy phải tuân theo quy tắc của người sử dụng Việc sử dụng một tương tác đơn hay các tương tác độc lập nhau đã thu được những thành công nhất định tuy nhiên chúng vẫn còn xa so với mong muốn có được quá trình giao tiếp người – máy một cách tự nhiên, có nhiều cảm xúc như giữa con người với con người

Trước đây, trong các thiết kế giao diện người dùng (Graphic user interfaces) tương tác người-máy chủ yếu thông qua các thiết bị đầu vào của máy như: bàn

Trang 35

phím, chuột,…và các đầu vào này được xử lý hoàn toàn là độc lập với nhau, nó không được thiết kế để thu thập dữ liệu nhiều đầu vào đồng thời (ví dụ khi nhấn chuột thì các đầu vào khác bị bỏ qua) Xuất phát từ ý tưởng “bắt chước” giao tiếp con người với con người kết hợp các phương thức giao tiếp với nhau giao diện đa phương thức ra đời Các hệ thống đa phương thức nhìn chung không thu thập thông tin thông qua chuột và bàn phím Chúng cung cấp khả năng tương tác rõ ràng, linh hoạt, và mạnh mẽ trong giao tiếp người-máy Có thể định nghĩa giao diện đa phương thức là một hệ thống cho phép xử lý kết hợp hai hoặc nhiều hơn các chế độ đầu vào của người dùng như: tiếng nói, cử chỉ, hình ảnh … theo cách thức phù hợp với đầu ra đa phương tiện (bằng loa, màn hình, cử chỉ…) [10] Hai loại hệ thống đa phương thức phổ biến nhất là sự kết hợp giữa tiếng nói và cử chỉ, tiếng nói và sự di chuyển của môi

Ví dụ như khi chỉ sử dụng mô hình nhận dạng ngữ âm thì sẽ có kết quả là cuộc trao đổi thông tin giữa người – máy trở nên đơn điệu, tốc độ phát sinh tiếng nói hầu như không thay đổi Tuy nhiên, khi kết hợp tương tác truyền thông này với

bộ nhận dạng cảm xúc thì kết quả được cải thiện rất nhiều về chất lượng của cuộc đối thoại người – máy

Do các giao thức giao tiếp thành phần (hình ảnh, tiếng nói, cử chỉ…) còn nhiều vấn đề về chất lượng và tính hiệu quả nên việc xây dựng các giao tiếp đa phương thức cần phải xác định nhiệm vụ cụ thể mà hệ thống cần đạt được Xây dựng, thiết kế kỹ lưỡng các ngữ cảnh sử dụng hệ thống là điều kiện tiên quyết ảnh hưởng tới hiệu quả của cuộc đối thoại người-máy đa phương thức Trong đó, việc xác định những thông tin liên quan tới giao tiếp của con người (cử chỉ, văn hóa, thói quen…) để vận dụng trong giao tiếp người-máy là yếu tố hết sức quan trọng

2.2.5.2 Giới thiệu một số hệ thống đa phương thức

Các hệ thống đa phương thức đã ra đời và phát triển từ những năm 80 Cho đến nay nhiều hệ thống với độ phức tạp và hiệu quả ngày càng tăng Sau đây là một

số hệ thống đa phương thức tiêu biểu:

Trang 36

- Một trong những hệ thống tương tác đa phương thức kết hợp tiếng nói và

cử chỉ đầu tiên là hệ thống “Put That There” [9] Hệ thống này cho phép người dùng

có thể sử dụng tiếng nói và cử chỉ để thao tác, ra lệnh các đối tượng trên màn hình 2D Hệ thống này được Bolt giới thiệu năm 1980 Ví dụ khi người dùng nói “đặt hình vuông ở kia” và đồng thời chỉ tay vào vị trí muốn đặt vật Hệ thống sẽ tính toán, xác định tọa độ của hình vuông so với vị trí cần đặt khi nhận được từ “kia”

Trang 37

Hình 2.11 : Sơ đồ hệ thống xử lý đầu vào của HCWP

Hệ thống tích hợp bộ nhận dạng tiếng nói và nhận dạng cử chỉ Thời gian và

vị trí của mỗi cử chỉ được lưu trữ trong một bộ đệm tạm thời Những thông tin về lệnh bằng tiếng nói và cử chỉ sẽ được đưa vào khối nhận dạng ngôn ngữ tự nhiên (natural language understanding - NLU) để xác định ý nghĩa của lệnh tương ứng với các luồng thông tin đầu vào Thông tin thu được tiếp tục được xử lý trong khối phân tích ngôn ngữ chuẩn và tạo ra những sự kiện tương ứng tới trình soạn thảo

- Một hệ thống đa phương thức khác là hệ thống HuMaNet của AT&T Laboratories (Berkley and Flanagan, 1990) Hệ thống này được thiết kế để hỗ trợ hội thảo với nhiều thiết bị đầu cuối ở những nơi khác nhau Hệ thống này bao gồm một dãy các microphone tự động định hướng để thu âm thanh, bộ thiết lập cuộc gọi, truy xuất và hiển thị dữ liệu điều khiển bằng tiếng nói nhờ vào bộ tổng hợp tiếng nói với số từ vựng giới hạn, dữ liệu truy xuất được bảo mật từ xa bằng nhận dạng người nói, hiển thị và tính toán hình ảnh màu chất lượng cao với tốc độ 64 kbps Mỗi bộ phận chức năng được thực hiện bằng một máy tính riêng Các máy tính được nối mạng với nhau và hoạt động một cách đồng bộ

Trang 38

Trên nền tảng của hệ thống trên, một hệ thống đa phương thức nâng cấp tích hợp ánh sáng, âm thanh, và màn hình cảm ứng có thể xác định thêm được khuôn mặt và chữ viết là hệ thống hội thảo video/audio tại trung tâm CAIP (Flanagan 1994)

Hình 2.12 : Hệ thống hội thảo audio/video ở trung tâm CAIP

Hệ thống này đã sử dụng một số lượng lớn các microphone lắp đặt theo bố cục 3 chiều (hình 2.13) để nâng cao chất lượng âm thanh thu được trong phòng hội thảo Nhờ cách bố trí này mà làm giảm được nhiễu không mong muốn trong phòng hội thảo

Hình 2.13 : Bố cục 3 chiều lắp đặt hệ thống microphone trong phòng hội thảo Nhiễu trong phòng đã giảm rất nhiều khi sử dụng mảng 21 sensor 7x7x7 ở chính giữa trần của phòng hội thảo 7x5x3m so với dùng duy nhất 1 sensor ở giữa

Trang 39

phòng Kết quả này thể hiện qua hệ số nhiễu - tín hiệu (signal-to-reverberant noise rate SNR) như dưới hình sau:

Hình 2.14 : Hệ số SNR tương ứng với vị trí nguồn âm khác nhau

2.2.5.3 Các vấn đề quan trọng trong hệ thống đa phương thức

2.2.5.3.1 Biểu diễn của không gian và thời gian

Trong hoạt động giao tiếp của con người thì yếu tố không gian và thời gian

có vai trò rất quan trọng Nó là yếu tố nền tảng cho hầu hết các hoạt động đòi hỏi trí thông minh của con người Trong môi trường tương tác đa phương thức, những thông tin về không gian và thời gian cần được thể hiện, trao đổi, và xử lý giữa các phần tử sử dụng ở các chế độ khác nhau

Trong thực tế, các thông tin về không gian và thời gian cần được phân tích, tách ra từ ngôn ngữ tự nhiên (ngôn ngữ con người) và được xử lý tiếp hoặc ngược lại những thông tin thu được này cần được thể hiện lại bằng ngôn ngữ con người

Những yếu tố này đặt ra cho việc xử lý thông tin về không gian và thời gian trong ngôn ngữ tự nhiên làm 2 chức năng xử lý: nghiên cứu về sự thể hiện và suy luận các yếu tố không gian và thời gian, lý thuyết hóa và tính toán ngôn từ Chức

Trang 40

năng đầu nhằm thu được những thông tin về không gian và thời gian Chức năng sau có liên quan chặt chẽ tới miền đầu và tập chung chủ yếu vào nhận biết nội dung, ngữ nghĩa và xử lý các thông tin này Cả hai chức năng này trong các ứng dụng có tương tác lẫn nhau cần phải được xử lý đồng thời, kết hợp với dữ liệu thực và dữ liệu ngôn ngữ Ví dụ như hiểu được một câu chuyện, miêu tả một quanh cảnh…

Việc hiểu được các yếu tố về không gian và thời gian trong ngôn ngữ tự nhiên và ngược lại dùng ngôn từ để thể hiện ý nghĩa về không gian thời gian bao gồm các nội dung sau:

- Xác định các phần tử ngôn ngữ để truyền tải các thông tin này (mốc đánh dấu - markers);

- Phân thích các nội dung ngữ nghĩa của nó;

- Đưa ra những hệ thống phù hợp cho việc thể hiện và xử lý các nội dung này;

- Thực thi và thể hiện các nội dung về không gian và thời gian

Để đạt được kết quả cuộc đối thoại người – máy tự nhiên và cảm xúc gần như giữa con người với con người thì hệ thống đa phương thức cần phải xử lý được các thông tin về không gian và thời gian trong các kênh thông tin được sử dụng và

sự phối hợp giữa các kênh thông tin này

2.2.5.3.2 Yếu tố thời gian

Những dấu hiệu thể hiện yếu tố thời gian trong hầu hết các ngôn ngữ như thời của động từ, các trạng từ chỉ thời gian (hôm qua, ngày mai, 2 ngày sau…) Chúng có vai trò rất quan trọng để hiểu được nội dung của một câu đưa ra [11] Ví

dụ trong tiếng anh, so sánh 2 câu: “He was crossing the street” và “He crossed the street” thì chỉ có câu thứ 2 là được hiểu rằng người này đã băng qua bên kia con đường Như vậy, cần phải xác định được giá trị thời gian (thời điểm) một cách chính xác của câu lệnh trong giao tiếp đa phương thức

Ví dụ về tầm quan trọng của yếu tố thời gian trong tương tác giữa người và một hệ thống điều khiển Ta sẽ minh họa bằng 2 ngữ cảnh của hệ thống nhận dạng

đa phương thức tiếng nói và cử chỉ cùng có 3 sự kiện (X, Y, Z) giống nhau về thời

Ngày đăng: 19/07/2017, 22:53

Nguồn tham khảo

Tài liệu tham khảo Loại Chi tiết
[1] J. Borenstein and L. Feng, “UMBmark – A Method for Measuring, Comparing, and Correcting Dead Reckoning Errors in Mobile Robots”, Technical Report, University of Michigan, Dec 1994 Sách, tạp chí
Tiêu đề: UMBmark – A Method for Measuring, Comparing, and Correcting Dead Reckoning Errors in Mobile Robots
Tác giả: J. Borenstein, L. Feng
Nhà XB: University of Michigan
Năm: 1994
[3] Coutaz J. Nigay L., Salber D. (1993), The MSM Framework: A Design Space for Multi-Sensori-Motor Systems, Laboratoire de Génie Informatique, IMAG, France Sách, tạp chí
Tiêu đề: The MSM Framework: A Design Space for Multi-Sensori-Motor Systems
Tác giả: Coutaz J., Nigay L., Salber D
Nhà XB: Laboratoire de Génie Informatique, IMAG, France
Năm: 1993
[4] Eva Cerezo1, Isabelle Hupont, (2000), Emotional facial expression classification for multimodal user interfaces, Universidad de Zaragoza, Spain Sách, tạp chí
Tiêu đề: Emotional facial expression classification for multimodal user interfaces
Tác giả: Eva Cerezo, Isabelle Hupont
Nhà XB: Universidad de Zaragoza
Năm: 2000
[6] Joởlle Coutaz, Laurence Nigay, Daniel Salber, (2006), Multimodality from the User and System Perspectives, France Sách, tạp chí
Tiêu đề: Multimodality from the User and System Perspectives
Tác giả: Joởlle Coutaz, Laurence Nigay, Daniel Salber
Nhà XB: France
Năm: 2006
[7] Michael A., Goodrich, and Alan C. Schultz, (2007), Human–Robot Interaction: A Survey, US Naval Research Laboratory, Washington, USA Sách, tạp chí
Tiêu đề: Human–Robot Interaction: A Survey
Tác giả: Michael A. Goodrich, Alan C. Schultz
Nhà XB: US Naval Research Laboratory
Năm: 2007
[8] Michael Jonhston, (1998), Finite-State Multimodal Integration and understanding, AT&T Lab – Research, USA Sách, tạp chí
Tiêu đề: Finite-State Multimodal Integration and understanding
Tác giả: Michael Jonhston
Nhà XB: AT&T Lab – Research
Năm: 1998
[9] Pantic M., Tomc M., Rothkrantz J.M., (1997), A Hybrid Approach to Mouth Features Detection, Delft University of Technology, The Netherlands Sách, tạp chí
Tiêu đề: A Hybrid Approach to Mouth Features Detection
Tác giả: Pantic M., Tomc M., Rothkrantz J.M
Nhà XB: Delft University of Technology
Năm: 1997
[10] Paul Ekman, Thomas S. Huang, Terrence J. Sejnowski, Joseph C. Hager, (1992), Final Report To NSF of the Planning Workshop on Facial Expression Understanding, Institute for Research in Cognitive Science, University of Pennsylvania Sách, tạp chí
Tiêu đề: Final Report To NSF of the Planning Workshop on Facial Expression Understanding
Tác giả: Paul Ekman, Thomas S. Huang, Terrence J. Sejnowski, Joseph C. Hager
Nhà XB: Institute for Research in Cognitive Science
Năm: 1992
[11] Ron Cole, Joseph Mariani, (1997), Survey of the State of the Art in Human Language Technology, Cambridge University Press and Giardini Sách, tạp chí
Tiêu đề: Survey of the State of the Art in Human Language Technology
Tác giả: Ron Cole, Joseph Mariani
Nhà XB: Cambridge University Press
Năm: 1997
[2] Christopher A. Robbins, (2004), Speech and Gesture Based Multimodal Interface Design, Computer Science Department, New York University Khác
[5] Fagel S., (1994), AudioVisual speech: Analysis, Synthesis, Perception, and Recognition, Berlin University of Technology Khác
[12] R. R. Murphy, Introduction to AI Robotics. Cambridge, MA, USA: The MIT Press, 2000 Khác

HÌNH ẢNH LIÊN QUAN

Hình 1.3: Phần thân robot - Thiết lập mô hình động học cho robot 914 PC BOT
Hình 1.3 Phần thân robot (Trang 12)
Hình 1.4: Sơ đồ hoạt động của robot - Thiết lập mô hình động học cho robot 914 PC BOT
Hình 1.4 Sơ đồ hoạt động của robot (Trang 13)
Hình 1. 5:  IO board - Thiết lập mô hình động học cho robot 914 PC BOT
Hình 1. 5: IO board (Trang 15)
Hình 2.3 : Sơ đồ giao diện tương tác bằng tiếng nói - Thiết lập mô hình động học cho robot 914 PC BOT
Hình 2.3 Sơ đồ giao diện tương tác bằng tiếng nói (Trang 22)
Hình 2.4 : Mô hình bộ nhận dạng, tổng hợp tiếng nói - Thiết lập mô hình động học cho robot 914 PC BOT
Hình 2.4 Mô hình bộ nhận dạng, tổng hợp tiếng nói (Trang 23)
Bảng 2.3: Kết quả thống kê và giá trị ngưỡng tách các trạng thái,  khoảng cách D4 - Thiết lập mô hình động học cho robot 914 PC BOT
Bảng 2.3 Kết quả thống kê và giá trị ngưỡng tách các trạng thái, khoảng cách D4 (Trang 32)
Hình 2.11 : Sơ đồ hệ thống xử lý đầu vào của HCWP - Thiết lập mô hình động học cho robot 914 PC BOT
Hình 2.11 Sơ đồ hệ thống xử lý đầu vào của HCWP (Trang 37)
Hình 2.12 : Hệ thống hội thảo audio/video ở trung tâm CAIP - Thiết lập mô hình động học cho robot 914 PC BOT
Hình 2.12 Hệ thống hội thảo audio/video ở trung tâm CAIP (Trang 38)
Hình 2.14 : Hệ số SNR tương ứng với vị trí  nguồn âm khác nhau - Thiết lập mô hình động học cho robot 914 PC BOT
Hình 2.14 Hệ số SNR tương ứng với vị trí nguồn âm khác nhau (Trang 39)
Bảng 3.1 : Sơ đồ bánh xe của robot tự hành - Thiết lập mô hình động học cho robot 914 PC BOT
Bảng 3.1 Sơ đồ bánh xe của robot tự hành (Trang 48)
Hình 3.1: Mô hình bánh xe của 914 PC-BOT - Thiết lập mô hình động học cho robot 914 PC BOT
Hình 3.1 Mô hình bánh xe của 914 PC-BOT (Trang 50)
Hình 3.2: Mô hình động học của 914 PC-BOT - Thiết lập mô hình động học cho robot 914 PC BOT
Hình 3.2 Mô hình động học của 914 PC-BOT (Trang 51)
Hình 3.3. Sơ đồ nguyên lý chung của khâu định vị trong mobile robot - Thiết lập mô hình động học cho robot 914 PC BOT
Hình 3.3. Sơ đồ nguyên lý chung của khâu định vị trong mobile robot (Trang 54)
Hình 3.4 : Sơ đồ nguyên lý mô hình NEWT - Thiết lập mô hình động học cho robot 914 PC BOT
Hình 3.4 Sơ đồ nguyên lý mô hình NEWT (Trang 55)
Hình 4.1: Giao diện Microsoft Visual C# Express Edition - Thiết lập mô hình động học cho robot 914 PC BOT
Hình 4.1 Giao diện Microsoft Visual C# Express Edition (Trang 67)

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w