Đề tài chia làm ba phần như sau : Entropy trong lí thuyết thông tin và trong vật lí, tính toán Entropy của lỗ đen theo vật lí lượng tử và cuối cùng là lượng tử hóa diện tích lỗ đen theo
Trang 1TRƯỜNG ĐẠI HỌC SƯ PHẠM TP.HCM
BÁO CÁO TỐNG KẾT ĐỀ TÀI CẤP TRƯỜNG
ÁP DỤNG PHƯƠNG PHÁP CỦA LÍ THUYẾT THÔNG TIN
ĐỂ TÍNH ENTROPY CỦA LỖ ĐEN
Mã số :CS.2005.23.96
Chủ nhiệm đê tài: Lê Nam
Trang 2TRƯỜNG ĐẠI HỌC SƯ PHẠM TP.HCM
BÁO CÁO TỐNG KẾT ĐỀ TÀI CẤP TRƯỜNG
ÁP DỤNG PHƯƠNG PHÁP CỦA LÍ THUYẾT THÔNG TIN
ĐỂ TÍNH ENTROPY CỦA LỖ ĐEN
Mã số :CS.2005.23.96
Chủ nhiệm đê tài: Lê Nam
Trang 3MỤC LỤC
TÓM TẮT KẾT QUẢ NGHIÊN CỨU 1
PHẦN A 2
I ĐẶT VẤN ĐỀ 2
II QUÁ TRÌNH THỰC HIỆN 4
1 Mục đích của đề tài 4
2 trong lí thuyết thông tin và trọng vật lí 4
3 Tính Entropy của lỗ đen theo vật lí lƣợng tử 5
4 Tính Entropy của lỗ đen bằng phép lượng tử hóa diện tích 7
I I I K ế t l u ậ n 8
PHẦN B 9
I ENTROPY TRONG TOÁN HỌC VÀ TRONG VẬT LÍ 9
1 Entropy và thông tin 9
2 Entropy và độ mất trật tự 11
3 Entropy và sự mất thông tin 12
4 Kết luận 13
II ENTROPY CỦA LỖ ĐEN 15
1 Sơ lược v ề lỗ đen 15
2 Tính Entropy của lỗ đen theo vật lí lƣợng tử 16
3 Ý nghĩa của Entropy lỗ đen theo lí thuyết thông tin 18
4 Kết luận 20
T À I L I Ệ U T H AM K H ẢO 21
BÁO CÁO KINH PHÍ 22
THUYẾT MINH ĐỀ TÀI 1
Trang 4TÓM TẮT KẾT QUẢ NGHIÊN CỨU
ĐỀ TÀI KHOA HỌC VÀ CÔNG NGHỆ CẤP TRƯỜNG
- Entropy trong toán học, cụ thể là Entropy và thông tin
- Entropy và độ mất trật tự - sự mất thông tin
- Tính Entropy lỗ đen nhờ hệ thức bất định
- Tính Entopy lỗ đen theo phép lượng tử hóa diện tích
- Giải thích Entropy lỗ đen theo lí thuyết thông tin
3 Kết quả chính đạt được (khoa học, ứng dụng, đào tạo, kinh tế-xã hội)
Xây dựng thành 3 bài giảng cho 3 môn khác nhau
- Entropy trong toán học và trong vật lí cho Vật lí thống kê
- Entropy của lỗ đen và hệ thức bất định cho Cơ lượng tử
- Entropy của lỗ đen và phép lượng tử hóa diện tích cho thuyết tương đối rộng
Trang 5Q u ố c g i a H à N ộ i , 1 9 9 6 , v i ế t n h ư s a u : Đại lượng S mới được đưa vào gọi là
Entropỵ, đó là một hàm trạng thái của hệ, độ biến thiên của hàm đó bằng nhiệt lượng mà hệ
nhận được trong quá trình thuận nghịch ( t r a n g 7 2 )
Entropy bằng hàm số nhân với logarit của tổng số các trạng thái vi mô khá dĩ của hệ
ứng với một trạng thái vĩ mô cho trước ( t r a ng 1 8 5 )
S á c h Vật lí thống kê, N g u y ễ n N h ậ t K h a n h , N X B Đ ạ i h ọ c Q u ố c g i a
T p H C M , 1 9 9 8 v i ế t n h ư s a u :
Ta đưa vào ký hiệu là số các trạng thái vi mô của hệ ứng với năng lượng trong
khoảng từ đến + E thì logarit của nó gọi là Entropy của hệ ở trạng thái cân bằng ( t r 1 5 )
S á c h Vật lí thống kê, Đ ỗ T r ầ n C á t , N X B K h o a h ọ c K ỹ t h u ậ t H à N ộ i,
2 0 0 1 v i ế t n h ư s a u :
Đại lượng chính là số trạng thái có trong khoảng năng lượng E ứng với năng lượng
trung bình E Entropy của hệ được định nghĩa bằng hệ số Boltimann nhân với logarit của
Trang 6Xét tập biến cố A1,A2, ,An ứng với xác suất p1, p2 , …pn Entropy thống kê liên kết với tập hợp này được định nghĩa như sau :
∑ k là hằng số dương; ∑
Entropy có giá trị cực đại khi tất cả các biến cố là đồng xác suất tức là ta hoàn toàn thiếu thông tin vê các biến cố Vậy Entropy thống kê cực đại khi trạng thái của các biến cố hoàn toàn mất trật tự (hỗn độn) Khi chọn hệ số k là hằng số Boltzmann thì Entropy thống kê trùng với Entropy nhiệt động lực do Clausius đề ra Vậy Entropy thống kê được xem như là
độ đo sự thiếu thông tin liên quan đến những trạng thái vi mô của hệ Nói cách khác, Entropy
là độ đo tính hỗn loạn (độ mất trật tự) của hệ (trang 32)
Tác giả xin phép có một vài nhận xét sau :
- Tác giả Nguyễn Thanh Khiết sử dụng định nghĩa Entropy của Clausius và Boltzmann
- Tác giả Nguyễn Nhật Khanh, Đỗ Trần Cát, Nguyễn Quang Báu chỉ sử dụng định nghĩa của Boltzmann
- Tác giả Đỗ Xuân Hội sử dụng định nghĩa Entropy thống kê của lí thuyết thông tin
và cách đưa ra khái niệm này là hiện đại nhất, phù hợp với định nghĩa về Entropy của các sách mới nhất hiện nay Ví dụ : trong sách Gravity, B Schutz, Cambridge Univercity Press, 2003 có viết: Entropy là số đo độ mất trật tự trong hệ Nó cũng đồng thời là số đo lượng thông tin chứa trong hệ (tr.427)
Khi đọc sách của các tác giả trên, tôi nảy ra ý định sẽ trình bày lại khái niệm Entropy một cách đầy đủ và chi tiết hơn về những phần mà các tác giả trên chưa đưa ra hoặc đưa ra chưa thật đầy đủ Cách trình bày mà đề tài yêu cầu sẽ không phức tạp nặng nề về mặt toán học mà
sẽ nhấn mạnh đến khía cạnh vật lí nhằm giúp ích cho việc giảng dạy của giảng viên cũng như việc tự đọc của sinh viên khi tiếp xúc với môn Vật lí thống kê và Nhiệt đại cương
Đề tài sẽ mở rộng sang lĩnh vực nhiệt động học lỗ đen mà cụ thể là trình bày cách tính định tính (gần đúng) Entropy của lỗ đen Việc tính toán của Entropy của lỗ đen sẽ theo hai
Trang 7thuyết tương đối rộng cho sinh viên khoa Vật lí Những ý tưởng trên đã thúc giục tác giả đăng kí đề tài mang mã số cs.2005.23.96
II QUÁ TRÌNH THỰC HIỆN
1 Mục đích của đề tài
Có thể việc khó khăn nhất theo tác giả là tìm kiếm tài liệu vì đa số những tài liệu cần thiết không có trên mạng internet Rất may tác giả có liên hệ với các đồng nghiệp Trường Tổng hợp Chicago và Trường Oxfoxrd nên đã tìm được những tài liệu cần thiết như bài báo gốc của Jayner và Brillouin, bài báo gốc của nhà toán học Nga Khinchin bài giảng về vật lí
lỗ đen cho các nghiên cứu sinh trẻ của các chuyên gia hàng đầu thế giới như R.Wald, J.Bekensfein, T.Jacobson và 't.Hooft
Vấn đề tiếp theo là từ các tư liệu trên cần tìm cách đơn giản hóa để có thể đưa vào giảng dạy ở bậc đại học và đây là mục tiêu chính của đề tài này Đề tài chia làm ba phần như sau : Entropy trong lí thuyết thông tin và trong vật lí, tính toán Entropy của lỗ đen theo vật lí lượng tử và cuối cùng là lượng tử hóa diện tích lỗ đen theo phương pháp của Planck
2 trong lí thuyết thông tin và trọng vật lí
Hiện nay có nhiều bài giảng về nhập môn lí thuyết thông tin như : Information theory and Statistics của Kullback hay A Short Course in InformationTheory của MacKay Trong các bài giảng này, khái niệm về Entropy trong toán học được trình bày ngắn gọn và dễ hiểu Mặc dù dễ hiểu nhưng đó là sự dễ hiểu dành cho sinh viên khoa Toán Đối với sinh viên vật lí cần phải đơn giản hơn và ngắn gọn hơn nữa bởi vì phải đơn giản thì tính sử dụng mới cao còn nếu không ngắn gọn thì không còn thời gian để đưa vào vì chương trình đã chật cứng rồi Sau khi lựa chọn nhiều phương án khác nhau tác giả đặt vấn đề như sau :
- Cho một ví dụ rất cụ thể, rất đời thường để sinh viên làm quen với khái niệm thông tin Sau đó dùng đồ thị để từ đó đưa ra hàm thông tin I(p) = -k log p
- Tận dụng biểu thức tính trị trung bình trong toán xác suất và trong cơ lượng tử để đưa ra công thức
- Đưa ra một số ví dụ cụ thể để minh họa rồi từ đó dẫn tới công thức Shannon và so sánh kết quả vừa tìm được với công thức Entropy đã có trong Vật lí thống kê Như vậy, ta đã thực hiện được hai mục đích là đưa vào khái niệm
Trang 8thông tin chứa trong hệ và đồng nhất thông tin chứa trong hệ với Entropy nhiệt động do Boltzmann đưa ra thông qua công thức
Để nói lên sự liên hệ giữa Entropy và độ mất trật tự, tác giả dựa trên công trình của nhà toán học Nga Khinchin Toàn bộ phần chứng minh nặng nề về toán học đã được lược bỏ, tác giả chỉ giữ lại những kết luận quan trọng nhất của Khinchin và trình bày lại theo ngôn ngữ của nhà vật lí Để minh họa, tác giả đưa ra một vài ví dụ cụ thể để từ đó rút ra kết luận : Entropy là số đo lượng thông tin chứa trong hệ và cũng là số đo độ mất trật tự (disorder) trong hệ:
Như vậy Entropy của hệ tăng sẽ đồng nghĩa với lượng thông tin chứa trong hệ tăng kéo theo độ mất trật tự tăng Hệ càng mất trật tự thì thông tin ta nắm về được về hệ sẽ giảm đi Từ
ý tưởng này đã dẫn đến khái niệm mất thông tin (The Information Loss) do Brillouin đưa ra vào năm 1957 Tóm lại, Entropy tăng ⟶ thông tin chứa trong hệ tăng⟶thông tin ta nắm được giảm (mất thông tin)
Phần cuối của mục này sẽ là vấn đề hướng của thời gian Đây là vấn đề rất phức tạp liên quan đến triết học, toán học, vật lí học nên tác giả chỉ giới hạn trong lĩnh vực nhiệt động học Do Entropy của hệ kín luôn tăng nên ta định nghĩa hướng của thời gian như sau :
Chiều dương của thời gian sẽ là hướng mà trong đó Entropy của hệ nhiệt động cô lập tăng Như vậy việc Entropy luôn tăng đã quyết định mũi tên thời gian chỉ theo một chiều và không bao giờ đảo ngược lại được
3 Tính Entropy của lỗ đen theo vật lí lƣợng tử
Theo vật lí lượng tử, trong không thời gian luôn sinh các cặp hạt - phản hạt áo Chúng luôn sinh ra, gặp nhau và tự hủy Xét cặp photon - phản photon sinh ra ngay sát cạnh chân trời sự kiện của lỗ đen Do bên trong lỗ đen có quỹ đạo ứng với năng lượng âm nên các photon với -E (phản photon) sẽ đâm vào lỗ đen còn photon với + E sẽ chuyển động ra xa vô cùng và người quan sát ở đây sẽ nhận thấy lỗ đen bức xạ ra các photon với +E Do photon với -E đâm vào lỗ đen sẽ làm khối lượng của lỗ đen giảm đi Từ cơ chế này, ta có thể tính được gần đúng nhiệt độ lỗ đen bằng hệ thức bất định Heisenberg
Trang 9c : Vận tốc ánh sáng
h : Hằng số Planck
G : Hằng số hấp dẫn
k : Hằng số Boltzmann
m : khối lượng lỗ đen
Nếu ta thêm vào mẫu số số hạng 2 n thì ta nhận được công thức chính xác nhiệt độ lỗ
đen Hawking
A : diện tích chân trời sự kiện (diện tích lỗ đen)
Do bức xạ nên khối lượng lỗ đen giảm đi làm giảm diện tích lỗ đen Điều này có nghĩa bức xạ làm giảm Entropy và điều này trái với định luật hai nhiệt động học Bekenstein đã đưa
ra định luật hai tổng quát (Generalized Second Law) như sau : Entropy tổng quát = Entropy
lỗ đen + Entropy bên ngoài lỗ đen sẽ không bao giờ giảm theo thời gian
Đây là định luật rất đặc biệt vì nó là giao điểm của ba lĩnh vực riêng biệt nhau của vật lí: Nhiệt động học, Thuyết tương đối rộng và Vật lí lượng tử Định luật này được trình bày trong các báo khoa học và các giáo trình dành cho nghiên cứu sinh và các nhà nghiên cứu trẻ Bài toán trên có thể đưa vào giảng dạy cho sinh viên như một minh họa độc đáo cho hệ quả của hệ thức bất định trong cơ lượng tử Bài toán trên cũng có thể đưa vào
Từ công thức trên ta tính được Entropy của lỗ đen (định luật một nhiệt động học)
Thông thường các nhà vật lí lí thuyết hay sử dụng hệ đơn vị hình học G = ћ = k = c =1
nên công thức tính Entropy của lỗ đen có dạng rất gọn :
Trang 10giáo trình thuyết tương đối rộng vì theo sự phân bố của khoa Vật lí thì môn này được học
song song với cơ lượng tử và vật lí thống kê
4 Tính Entropy của lỗ đen bằng phép lƣợng tử hóa diện tích
Ta nhắc lại giả thuyết do Planck đưa ra vào năm 1900 Một dao động điều hòa có tầng số
v chỉ có thể có những giá trị năng lượng gián đoạn Giá trị đó bằng số nguyên lần một đại
lượng là hv và được gọi là lượng tử năng lượng
đã lượng tử hóa diện tích lỗ đen như sau :
- Dựa vào gợi ý của J.Wheeler hai ông chọn độ dài nhỏ nhất là độ dài Planck
S=k.lnW = 1.ln2n = n.ln2; coi k =1 S=k
Sử dung kết quả của Havvking ta thấy nên công thức tính Entropy sẽ là :
S=
Áp dụng công thức Shannon ta tính được lượng thông tin chứa trong lỗ đen
Trang 11Khi A = A0 ta có I = 1 bít Áp dụng cho lỗ đen có khối lượng bằng khối lượng mặt trời ta được
Mặt trời của ta có thể xem như hệ khí cổ điển lí tưởng nên ta tính được Entropy của mặt trời T ừ đây suy ra ngay mặt trời chứa 1057 bít Ta có thể đặt câu hỏi tại sao khi mặt trời biến thành lỗ đen thì Entropy của nó tăng lên ghê gớm như vậy,nhiều hơn gấp 10 lần Việc tăng Entropy trên có thể đươc giải thích một cách hợp lí nhất nhờ lí thuyết thông tin Khi hình thành lỗ đen hoặc khi diện tích lỗ đen tăng do có vật chất bị cuốn vào lỗ đen thì
ta hoàn toàn mất thông tin về lượng vật chất nằm trong lỗ đen Sự mất thông tin này tương ứng với việc tăng Entropy Tóm lại, do lỗ đen nuốt hầu như tất cả thông tin rơi vào nó nên lỗ đen mới có Entropy lớn cực kì khủng khiếp đến như vậy Lỗ đen là vật thể có Entropy lớn nhất mà con người được biết
Nếu đưa bài toán trên vào giáo trình thuyết tương đối rộng thì ta thấy hai cái lợi sau :
Một là nhắc lại phương pháp lượng tử hóa của Planck mà sinh viên đã được học ở chương trình đại cương và hai là hiểu sâu sắc thêm khái niệm Entropy của lỗ đen thông qua lí thuyết thông tin Như vậy, ta đã đưa được một trong những vấn đề mới nhất của vật lí hiện nay vào giáo trình dạy cho sinh viên
I I I K Ế T L U Ậ N
Mục đích của đề tài này gồm những vấn đề sau : Một là nêu lại một cách có hệ thống khái niệm Entropy theo các tác giả khác nhau cả trong toán học lẫn trong vật lí học và hai là
lí giải Entropy của lỗ đen nhờ lí thuyết thông tin
Tác giả nhận thấy với những kết quả đã trình bày trong phần II thì các mục tiêu của đề tài đã được thực hiện Do cách trình bày không nặng về toán học nên tác giả hi vọng tài liệu này sẽ giúp ích cho giáo viên cũng như sinh viên khi tham khảo
Việc đưa những vấn đề mới nhất của vật lí hiện nay vào giảng dạy sẽ đạt những mục đính như : kích thích sự tìm tòi, ham học hỏi của sinh viên, giúp sinh viên dễ dàng hơn trong việc nghiên cứu khoa học và đồng thời kích thích việc nghiên cứu khoa học của giáo viên
Trang 12PHẦN B
I ENTROPY TRONG TOÁN HỌC VÀ TRONG VẬT LÍ
1 Entropy và thông tin
Ta sẽ xây dựng hàm I(p) thỏa mãn các điều kiện được mô tả ở hình 1 Thông tin chứa đựng trong thông báo sẽ bằng zero nếu như sự kiện tương ứng đã hoàn thành Ví dụ : khi người ta báo cáo mặt trời đã lặn vào hôm qua thì thông tin của sự kiện này bằng zero Khi
đó ta cho I(p) = 0 Ngược lại, thông tin chứa đựng nhiều hơn khi các sự kiện có khả năng xảy
ra không được biết trước Nói các khác I(p) sẽ tăng khi p giảm như mô tả trên đồ thị Ta nhận thấy hàm I(p) = -klogp (1) thỏa mãn yêu cầu của ta với k là hàng số dương Người ta hay chọn k = 1 hoặc bằng hằng số Boltzmann còn logarit lấy theo cơ số 2 hoặc cơ số e
Hình 1 Đồ thị nói lên sự phụ thuộc của thông tin I(p)
vào xác suất ngẫu nhiên p
Ta nhận thấy khi p = 1 ta có I(1) = 0, khi p = 0 ta có I(0) =
Bây giờ ta xét tập các sự kiện A1,A2, ,An ứng với sác xuất xảy ra ngẫu nhiên p1,p2, ,pn (a priori probabilities) Khi sự kiện Ai thực sự xảy ra với xác suất pi thì thông tin
có được sẽ là I(Pi) Vậy thông tin trung bình của tất cả các sự kiện trên sẽ là
Ví dụ ta tung đồng xu thì mặt sấp và mặt ngửa sẽ có xác suất bằng nhau và bằng 1/2 Khi đó thông tin khi chọn k = 1 sẽ là
Trang 13do chọn logarit cơ số 2 nên ta có 1 bít1 thông tin
Hoặc ta có một hệ chỉ có 2 trạng thái độc lập nhau với xác suất bằng nhau Ta nói hệ
có 1 bít thông tin Như vậy, 1 bít thông tin là khả năng giải quyết độ không chắc chắn đối với
2 sự kiện có xác suất bằng nhau
Một ứng dụng của lí thuyết thông tin đơn giản trên là hệ đếm nhị phân Chỉ với câu trả lời "có" và "không" hay 1 và 0 ta có thể mô tả đầy đủ số nguyên bất kì từ tập (0, 1, 2, 9) của
hệ đếm thập phân Do xác suất xuất hiện ngẫu nhiên của một trong mười chữ số trên là như nhau và đều bằng 1/10 nên khi chọn k = 1 ta có
Từ kết quả trên ta thấy nếu hỏi 3 lần thì sẽ không đủ nhưng với 4 câu hỏi "có" hoặc
"không" sẽ mô tả chính xác các số của hệ thập phân Như vậy, hệ nhị phân cần 4 câu hỏi hay cần 4 cột chữ số:
Trang 14Công thức (3) được nhà toán học Mỹ Claude Shannon tìm ra lần đầu tiên vào năm
1948 và ông cũng là người đặt nền móng cho lí thuyết thông tin Từ hai công thức trên ta đi tới kết luận quan trọng : lượng thông tin chứa trong hệ (hoặc tập các sự kiện) tỷ lệ với Entropy Thông thường người ta đồng nhất Entropy với lượng thông tin chứa trong hệ
2 Entropy và độ mất trật tự
Khái niệm trật tự - order - hay ngược nghĩa với nó là mất trật tự - disorder - có định tính
như nhau Một bức tường gạch rõ ràng là trật tự hơn một đống gạch Một loạt các bức thư được phân thành nhóm theo thứ tự chữa cái giống như trong từ điển sẽ trật tự hơn rất nhiều nếu phân theo các chữ cái do một con khỉ nghịch trên bàn phím tạo ra
Trong cơ học thống kê ta quan tâm tới độ mất trật tự trong sự phân bố của hệ theo các trạng thái vi mô cho phép Để làm rõ vấn đề trên ta xét ví dụ sau
Giả sử đứa bé được dặn ở nhà chờ bố mẹ đi làm về và nó có thể vào bất cứ phòng nào trong căn nhà nó muốn Rõ ràng đứa trẻ sẽ không ngồi chờ trong một phòng Nó sẽ đi lang thang
không nghỉ từ phòng này sang phòng kia với tỉ lệ Pi đối với phòng thứ i (a fraction of time Pi
in the i-room) Ta cần xác định số đo định lượng của sự mất trật tự trên theo sự phân bố của các p, đã cho Trước khi đo độ mất trật tự ta cần thêm một số yêu cầu định tính sau :
a Việc đo độ mất trật tự được xác định thông qua tập {Pi}
b Do ∑ nên nếu như một trong số các Pi bằng đơn vị (tất cả các pi, còn
lại bằng zero hết) thì hệ sẽ hoàn toàn trật tự số đó định lượng độ mất trật tự lúc này phải bằng zero
c Với W cố định độ mất trật tự cực đại sẽ ứng với trường hợp khi các pi = với i = 1,2, W
Điều này có nghĩa là đứa bé sẽ đi lang thang vào các phòng một cách hoàn toàn ngẫu nhiên
Nó không hề ưu tiên cho bất kì phòng nào trong nhà
d Độ mất trật tự tăng nếu W tăng Nhà càng lớn càng nhiều phòng thì độ mất trật tự càng lớn
e Giả.sử khi đứa bé lang thang ở lầu 1, ta tính được độ mất trật tự D(l) của sự phân bố của nó theo tất cả các phòng của lầu 1 Tương tự ta có D(2) cho lầu 2 Khi đó, tổng số độ mất trật tự khi ta gộp cả lầu 1 và lầu 2 lại mới nhau là