Trường đại học kỹ thuật công nghiệp Thái Nguyên... Mã hóa tối ưu- Là phép mã hóa mà kết quả là một bộ mã có chiều dài trung bình là nhỏ nhất trong tất cả các phép mã hóa có thể có cho ng
Trang 1Bài thảo luận Môn : Cơ sở thông tin số
Nhóm thảo luận : 02
1-Trần Văn Dũng
2-Trần Xuân Dũng
3-Trương Văn Dương
4-Nguyễn Tiến Đại
5-Trần Khương Đạt
6-Hạ Tiến Đức
7-Nguyễn Hữu Đức
Trường đại học kỹ thuật công nghiệp Thái Nguyên
Trang 2Câu hỏi : Trình bày mã hóa thống kê tối ưu Fano-Shannon
Trang 3Mã hóa tối ưu
- Là phép mã hóa mà kết quả là một bộ mã có chiều dài trung bình là nhỏ nhất trong tất cả các phép mã hóa có thể có cho nguồn
- Bộ mã của phép mã hóa tối ưu cho nguồn
được gọi là mã hóa tối ưu
- Ba phép mã hóa :Shannon,Fano,Huffman
- Trong mỗi phép mã hóa chúng ta sẽ mã hóa với cơ số mã m=2 (mã hóa nhị phân) sau
đó mở rộng cho trường hợp m>2
Trường đại học kỹ thuật công nghiệp Thái Nguyên
Trang 4Giới thiệu về nhà khoa học Shannon
• Shannon sinh ngày 30-4-1916 ở Petoskey,bang
Michigan Ông là một nhà khoa học vĩ đại
trong lĩnh vực viễn thông.Ông là người đã phát minh ra một môn khoa học mới đó là lý thuyết
thông tin.Đó là một môn học trừu tượng mô tả
về những nguyên lý của truyền thông tin,nó đặt nền móng cho các ứng dụng thưc tiễn như
internet,máy tính,v.v.
Trang 5
Claude shannon
Trường đại học kỹ thuật công nghiệp Thái Nguyên
Trang 6Nội dung phương pháp Shannon
quát giả sử P1 ≥ ……≥ Pk
• B2 Định nghĩa q1=0 , qi= với mọi i=1,2,… ,K
nhị phân
trong đó l i =[ -log 2pi]
1 1
i j
pj
Trang 7Ví dụ:hãy mã hóa nguồn S={ a1,a2,a3,a4,a5,a6} với các xác suất lần lượt là : 0.3 ; 0.25 ; 0.2 ; 0.12 ; 0.08 ;
0.05
Tin
ai
Xác suất
pi qi=
Biểu diễn nhị phân li =[ -log2pi]
Từ mã
wi
a1 0.3 0 0.00 2 00
a2 0.25 0.3 0.01001… 2 01
a3 0.2 0.55 0.10001… 3 100
a4 0.12 0.75 0.11000… 4 1100
a5 0.08 0.87 0.11011… 4 1101
a6 0.05 0.95 0.111100
1 1
i j
pj
Trang 8• Độ dài trung bình của từ mã :
- Entropi của nguồn tin
H(s)= - [0.05*log2(0.05)+ 0.08*log2(0.08)+
0.12*log2(0.12)+ 0.2*log2(0.2)+ 0.25*log2(0.25)+
0.3*log2(0.3)]= 2.36
- Trị số kinh tế
ρ=H(s)\n =2.36/2.75= 85.82 %
Trang 9Giới thiệu về nha khoa học Robert Fano
• Robert Mario Fano (sinh ra tại Torino, Italia vào ngày 11 tháng 11 năm 1917 ) là một
người Ý – Mỹ, hiện nay giáo sư danh dự của Viện kỹ sư Điện và Khoa học tại Viện Công
nghệ Massachusetts Fano được biết đến chủ
yếu cho công việc của ông về lý thuyết thông tin , phát minh ra (với Claude shannon )
shannon – fano
Trường đại học kỹ thuật công nghiệp Thái Nguyên
Trang 11Nội dung phương pháp Fano
• B1 Sắp xếp các xác suất theo thứ tự giảm
dần Không mất tính tổng quát giả sử P1 ≥ ……≥ Pk
• B2 Phân các xác suất thành 2 nhóm có tổng xác suất gần bằng nhau
• B3 Gán cho 2 nhóm lần lượt các kí hiệu 0 và 1 (hoặc ngược lại)
• B4 Lập lại bước 2 cho các nhóm con cho tới khi
không thể tiếp tục được nữa
• B5 Từ mã ứng với mỗi tin là chuỗi bao gồm các kí hiệu theo thứ tự lần lượt được gán cho các nhóm có chứa xác suất tương ứng của tin
Trường đại học kỹ thuật công nghiệp Thái Nguyên
Trang 12Ví dụ:hãy mã hóa nguồn S={ a1,a2,a3,a4,a5,a6 } với các xác suất lần lượt là 0.3 ; 0.25 ; 0.2 ; 0.12 ; 0.08 ; 0.05
suất 1 2 3 4 mã
a4 0.12 1 1 0 110
Trang 13• Độ dài trung bình của từ mã :
• n=0.05*4+0.08*4+0.12*3+0.2*2+0.25*2+0.3*2=2.38
• - Entropi của nguồn tin
• H(s)= - [0.05*log2(0.05)+ 0.08*log2(0.08)+
0.12*log2(0.12)+ 0.2*log2(0.2)+ 0.25*log2(0.25)+
0.3*log2(0.3)]=2.36
• Trị số kinh tế
• ρ=H(s)\n =2.36/2.38=99.16%
Trang 14Nhận xét
Phương pháp Fano cho kết quả tốt hơn phương pháp Shannon
• Hai phương pháp trên thực chất là một , không cho phép lập
mã một cách duy nhất vì sự chia nhóm dựa trên cơ sở đồng đều và tổng xác suất nên có thể có nhiều cách chia
• Sự lập mã theo cách chia nhóm trên cơ sở đồng xác suất tạo cho bộ mã có tính prefix
• Phương pháp mã hóa từng tin của nguồn tin chỉ có hiệu quả khi entropy của nguồn lớn hơn 1 ( H(u)>1 ) Trường hợp H(u) <1 thì phương pháp mã hóa từng tin riêng biệt không đưa đến cải tiến tốt tính kinh tế của mã Trong trường hợp
Trang 15Khi đó entropi của nguồn sẽ là H.N Lúc đó độ dài trung bình của
từ mã cho các khối tin phải thỏa mãn điều kiện:
Độ dài trung bình của từ mã cho một tin có thể tính theo tỷ lệ:
Do đó:
Hay:
Khi H<1, với cách mã hóa từng khối tin sẽ đạt được ρ gần
băng 1
N
n
n N
N
H n
1
1
H H
1
N H n
N