Từ lâu, thời gian phản hồi đã được coi là một nguồn thông tin quan trọng để đánh giá năng lực của một người nhưng ta không có cách nào ghi lại được các thông tin này. Ngày nay, các bài kiểm tra đều có thể thực hiện trên máy tính, câu trả lời và thời gian trả lời của thí sinh đều có thể được lưu trữ lại dễ dàng. Những thông tin trong thời gian phản hồi có thể giúp cải thiện từng phần trong quy trình kiểm tra như hiệu chỉnh câu hỏi, chọn lựa câu hỏi thích ứng, đánh giá năng lực tiềm ẩn, cũng như khám phá và đo lường các yếu tố ảnh hưởng đến quá trình thực hiện bài kiểm tra. Vấn đề làm thế nào để mô hình hóa thời gian phản hồi đã được tiếp cận từ ba khía cạnh khác nhau. Cách tiếp cận đầu tiên là mô hình hóa thời gian phản hồi với các tham số thời gian được thêm vào mô hình IRT thông thường (ví dụ Roskam, 1997; Thissen, 1983; and Verhelst, Verstraalen, và Jansen, 1997). Cách thứ hai là mô hình hóa thời gian phản hồi tách biệt hẳn với các câu phản hồi của thí sinh (ví dụ Maris, 1993; Scheiblechner, 1979; Schnipke và Scrams (1997), van der Linden, Scrams, và Schnipke (1999), và van der Linden và van KrimpenStoop (2003). Van der Linden đã thảo luận về việc chọn các mô hình này cho thời gian phản hồi các câu hỏi kiểm tra. Trong cách tiếp cận thứ ba được giới thiệu bởi Van der Linden (2007), thời gian phản hồì và các câu phản hồi được mô hình hóa kiểu phân cấp. Ở cấp độ đầu tiên, ta giả sử phân bố của độ chính xác trong câu phản hồi và thời gian phản hồi là hai mô hình riêng biệt, mỗi cái có một bộ tham số người và câu hỏi khác nhau. Tham số con người được biểu diễn bởi tốc độ và độ chính xác (hoặc năng lực) của thí sinh khi làm mỗi câu hỏi. Như vậy, nhìn chung chọn tốc độ hay sự chính xác là một lựa chọn khá giằng co và phụ thuộc vào mỗi thí sinh. Ở cấp độ mô hình đầu tiên, ta giả sử thời gian phản hồi (RTs) và độ chính xác của phản hồi (RA) là độc lập có điều kiện tương ứng với tham số tốc độ và tham số chính xác. Tuy nhiên ở bậc hai, các tham số này được cho phép phụ thuộc vào nhau. Trong khuôn khổ luận văn này sẽ tập trung vào việc nghiên cứu tạo chỉ số đánh giá thời gian phản hồi bằng mô hình logarit chuẩn hóa để phục vụ cho cách tiếp cận thứ ba. I. Kiến thức chuẩn bị: Chương này trình bày lại những kiến thức chuẩn bị về mô hình ứng đáp câu hỏi, phân phối chuẩn, phân phối lognormal để làm tiền đề nghiên cứu mô hình phản hồi thời gian lognormal ở chương hai. Các kiến thức về suy luận Bayes, phương pháp xích Markov và đặc biệt là giải thuật Gibbs cũng được nhắc lại để giúp cho phần ước lượng tham số ở chương hai và chương ba được rõ ràng hơn. II. Mô hình phản hồi thời gian ứng đáp câu hỏi lognormal (lognormal item response theory – LNIRT): Chúng tôi giới thiệu lại về lịch sử phát triển của mô hình phản hồi thời gian, nói về động lực để áp dụng mô hình lognormal cho thời gian phản hồi của thí sinh và so sánh nó với mô hình chuẩn cho thời gian phản hồi. Phương pháp ước lượng tham số bằng giải thuật Gibbs cũng được đưa ra ở phần này. III. Nghiên cứu thực nghiêm: Nghiên cứu thực nghiệm. Tôi trình bày lại rõ ràng hơn về nghiên cứu thực nghiêm: áp dụng mô hình lôgarit chuẩn và mô hình chuẩn cho thời gian phản hồi cho phân tích dữ liệu trong bài thi thích ứng ở Mỹ. Cách sắp xếp mẫu, ước lượng tham số và xem xét độ phù hợp của mô hình lôgarít chuẩn và mô hình chuẩn với dữ liệu, từ đó rút ra kết luận mô hình lôgarít chuẩn là sự lựa chọn phù hợp hơn cho thời gian phản hồi.
Trang 1ĐẠI HỌC KHOA HỌC TỰ NHIÊN
Trang 2ĐẠI HỌC KHOA HỌC TỰ NHIÊN
LUẬN VĂN THẠC SĨ KHOA HỌC
NGƯỜI HƯỚNG DẪN KHOA HỌC: TS Trịnh Quốc Anh
Hà Nội - Năm 2019
Trang 3Lời nói đầu
Trong bối cảnh hội nhập quốc tế như hiện nay, việc nâng cao năng lực của độingũ cán bộ là một trong những yếu tố quan trọng nhất cần chú trọng; vì vậy, giáodục và kiểm định đánh giá giáo dục là một phần then chốt giúp Việt Nam ta hiểu
và phân tích được các thông tin để đối chiếu với mục tiêu, tiêu chuẩn đề ra, nhằm
có những quyết định thích hợp để điều chỉnh, nâng cao chất lượng và hiệu quả giáo dục
Trong bài kiểm tra đánh giá năng lực, các phản hồi thô của học sinh có haikhía cạnh quan trọng là độ chính xác và thời gian phản hồi Từ trước đến nay, ởcác bài kiểm tra đánh giá người ta thường chỉ quan tâm đến độ chính xác của câutrả lời và dựa vào số câu đúng sai để đánh giá năng lực của học sinh Tuy nhiêngần đây, với sự phát triển của máy tính và công nghệ thông tin, ta đã có thể dễdàng ghi lại được thời gian phản hồi từng câu hỏi của học sinh khi cho làm kiểm tratrên máy tính để từ đó, đưa ra được kết quả chính xác hơn về năng lực của học sinh đó
Luận văn này là bước phát triển tiếp nối sau khóa luận của em, nghiên cứu thêm
về yếu tố thời gian phản hồi trong đánh giá năng lực người học
Luận văn gồm ba chương
Chương 1: Kiến thức chuẩn bị Chương này trình bày lại những kiến thức chuẩn bị
về mô hình ứng đáp câu hỏi, phân phối chuẩn, phân phối lognormal để làm tiền đềnghiên cứu mô hình phản hồi thời gian lognormal ở chương hai Các kiến thức về suyluận Bayes, phương pháp xích Markov và đặc biệt là giải thuật Gibbs cũng được nhắclại để giúp cho phần ước lượng tham số ở chương hai và chương ba được rõ ràng hơn.Chương 2: Mô hình thời gian phản hồi ứng đáp câu hỏi lô-ga-rit chuẩn (LognormalItem Response Theory) Chúng tôi giới thiệu lại về lịch sử phát triển của mô hìnhphản hồi thời gian, nói về động lực để áp dụng mô hình lô-ga-rít chuẩn cho thời gianphản hồi của thí sinh và so sánh nó với mô hình chuẩn cho thời gian phản hồi Phương
Trang 4pháp ước lượng tham số bằng giải thuật Gibbs cũng được đưa ra ở phần này.
Chương 3: Nghiên cứu thực nghiệm Phần này trình bày lại rõ ràng hơn về nghiêncứu thực nghiêm đã áp dụng mô hình phản hồi thời gian lognormal cho phân tích dữliệu trong bài thi thích ứng ở Mỹ cũng như sắp xếp mẫu, ước lượng tham số và xemxét độ phù hợp của mô hình
Luận văn được hoàn thành tại trường Đại học Khoa học tự nhiên - Đại học quốcgia Hà Nội, dưới sự hướng dẫn của TS Trịnh Quốc Anh
Em chân thành cảm ơn thầy Trịnh Quốc Anh, các nghiên cứu sinh và học trò củathầy Trong quá trình nghiên cứu, mặc dù còn nhiều sơ suất nhưng em đã được thầytận tình dạy dỗ, hướng dẫn, cũng như động viên em trong suốt thời gian làm viêc.Ngoài ra em muốn gửi lời cám ơn sâu sắc đến các thành viên của nhóm seminar Xácsuất thống kê, Đại học Khoa học tự nhiên đã góp ý rất nhiều trong quá trình em hoànthành luận văn
Em cũng xin bày tỏ lòng biết ơn các thầy cô và cán bộ của trường Đại học khoahọc tự nhiên đã quan tâm giúp đỡ trong quá trình học tập và nghiên cứu tại trường
Em cũng xin tỏ lòng biết ơn sâu sắc đến gia đình, bố mẹ, anh chị em và anh PhạmHồng Việt đã bên cạnh đồng hành, giúp đỡ, tạo điều kiện trong suốt quá trình em họctập và làm luận văn thạc sĩ Cảm ơn hai thiên thần bé nhỏ Hồng Quân, Hồng Ngọc đã
là động lực to lớn giúp em cố gắng vượt qua những khó khăn trong quá trình nghiêncứu để hoàn thành được luận văn
Hà Nội, ngày 10 tháng 12 năm 2019
Nguyễn Phương Ly
Trang 5Mục lục
1.1 Mô hình IRT 10
1.2 Phân phối chuẩn 15
1.3 Phân phối lognormal 18
1.4 Suy luận Bayes 21
1.4.1 Suy luận Bayes cho biến ngẫu nhiên rời rạc 22
1.4.2 Suy luận của Bayes cho biến ngẫu nhiên liên tục 23
1.5 Phương pháp xích Markov Monte Carlo (MCMC) 24
1.5.1 Phương pháp Monter Carlo 24
1.5.2 Phương pháp xích Markov Monte Carlo (MCMC) 26
1.6 Giải thuật Gibbs 28
1.6.1 Bài toán sinh mẫu 28
1.6.2 Thuật toán Gibbs giải bài toán sinh mẫu 29
2 Mô hình phản hồi thời gian ứng đáp câu hỏi lognormal 33 2.1 Giới thiệu 33
2.2 Mô hình thời gian phản hồi lognormal IRT - LNIRT 37
2.2.1 Giả thiết của mô hình 37
2.2.2 Mô hình LNIRT 38
2.2.3 Mô hình chuẩn 44
2.3 Ước lượng tham số 45
2.3.1 Phân bố tiên nghiệm 45
2.3.2 Phân bố hậu nghiệm 46
2.3.3 Giải thuật Gibbs 46
2.3.4 Áp dụng giải thuật Gibbs để ước lượng tham số 47
Trang 62.3.5 Độ phù hợp 48
3.1 Mô tả mẫu 513.2 Ước lượng tham số 523.3 Độ phù hợp của mô hình 55
Trang 7Danh sách hình vẽ
1.1 Đường cong đặc trưng câu hỏi mô hình một tham số[1] 12
1.2 Vị trí độ khó của câu hỏi hoặc năng lực của thí sinh trên trục năng lực/độ khó tương ứng với xác suất trả lời 0.5 [1] 13
1.3 Hàm đặc trưng câu hỏi của năm câu hỏi trong mô hình một tham số.[1] 13 1.4 Hàm đặc trưng của ba câu hỏi trong mô hình hai tham số.[1] 14
1.5 Hàm đặc trưng câu hỏi trong mô hình ba tham số.[1] 15
1.6 Hàm mật độ xác suất tuân theo phân phối chuẩn [wiki] 16
1.7 Hàm mật độ xác suất tuân theo phân phối lognormal.wiki 19
1.8 Hàm phân phối xác suất tích lũy tuân theo phân phối lognormal [wiki] 20 1.9 Minh họa thuật toán Gibbs 31
1.10 Sơ đồ khối giải thuật Gibbs 32
2.1 Biểu đồ miêu tả mô hình phân cấp của phản hồi và thời gian phản hồi (RT) trong các câu hỏi của bài kiểm tra ở cáp tiếp cận thứ ba.[6] 36
2.2 Ví dụ hai phép tính số học yêu cầu cường độ thời gian khác nhau.[6] 39
2.3 Ảnh hưởng của tham số phân biệt đối với phân bố thời gian phản hồi (phần trên) và phân bố phản hồi (phần dưới) Bên trái là các hình với tham số phân biệt có giá trị nhỏ, phần bên phải có tham số phân biệt có giá trị lớn hơn Diện tích phần trùng nhau của hai phân bố lớn hơn nếu giá trị tham số phân biệt lớn hơn.[4] 43
3.1 Biểu đồ phân tán với trung bình và phương sai của thời gian phản hồi tính theo giây cho 48 câu (ảnh trên) và 2000 thí sinh trong mẫu (ảnh dưới).[4] 53
3.2 Phân bố của thời gian phản hồi theo đơn vị giây của câu hỏi 3 (hình trên; N=760) và câu hỏi 13 (hình dưới; N=490).[4] 54
3.3 Ước lượng cường độ thời gian (βi) và tham số độ phân biệt (αi) trong mô hình lô-ga-rít chuẩn và mô hình chuẩn cho cả hai trường hợp không có ràng buôc và có ràng buộc của αi.[4] 54
Trang 83.4 Phân bố của tham số tốc độ (τi) đã ước lượng ở mô hình lô-ga-rít chuẩn
và mô hình chuẩn cho cả hai trường hợp tham số αi không có ràng buộc
và có ràng buộc.[4] 553.5 Tổng quan độ phù hợp của mô hình lô-ga-rít chuẩn và mô hình chuẩncho cả hai trường hợp tham số αi không có ràng buộc và có ràng buộc.Càng phù hợp thì đường cong càng gần với đường thẳng đơn vị y=x.[4] 563.6 Độ phù hợp của mô hình lô-ga-rít chuẩn cho câu hỏi tốt nhất và câu hỏi
tệ nhất với cả hai trường hợp tham số αi không có ràng buộc và có ràngbuộc Càng phù hợp thì đường cong càng gần với đường thẳng đơn vịy=x[4] 56
Trang 9Danh sách bảng
1.1 Định nghĩa và các giá trị tuân theo phân bố chuẩn: X ∼ N (µ, σ2).[wiki] 161.2 Định nghĩa và các giá trị tuân theo phân bố lognormal ln(X) ∼ N (µ, σ2)
[wiki] 193.1 Số lượng câu hỏi của từng thí sinh trong mẫu.[4] 523.2 Số thí sinh mỗi câu hỏi trong mẫu.[4] 523.3 Tỷ lệ quan sát được và tỷ lệ kỳ vọng của thí sinh có thời gian phản hồinhỏ hơn phân vị 5 và 10 trong phân bố hậu nghiệm ở từng trường hợpcâu hỏi.[4] 573.4 Tỷ lệ quan sát được và tỷ lệ kỳ vọng của thí sinh có thời gian phản hồinhỏ hơn phân vị 5 và 10 trong phân bố hậu nghiệm ở từng trường hợpcâu hỏi.[4] 58
Trang 10Danh mục các ký hiệu và chữ viết
tắt
X, Y, Z Biến ngẫu nhiên
F (x), FX(x) Hàm phân phối tích lũy, hàm phân phối tích lũy của biến ngẫu nhiên Xp(x), pX(x) Hàm mật độ xác suất, hàm mật độ xác suất của biến ngẫu nhiên X
X ∈ F Biến ngẫu nhiên X có hàm phân phối tích lũy F
C(FX) Tập các hàm phân phối tích lũy liên tục
E, EX Kì vọng (giá trị trung bình), giá trị kì vọng của biến ngẫu nhiên XVar, VarX Phương sai, phương sai của biến ngẫu nhiên X
ϕ(t), ϕX(t) Hàm đặc trưng, hàm đặc trưng của biến ngẫu nhiên X
X ∼ Y Biến ngẫu nhiên X tương đương với biến ngẫu nhiên Y
N (µ, σ2) Phân phối chuẩn
N (0, 1) Phân phối chuẩn tắc
ai Tham số độ phân biệt của câu hỏi trong mô hình IRT
bi Tham số độ khó của câu hỏi trong mô hình IRT
ci Tham số xác suất trả lời đúng ngẫu nhiên câu hỏi trong mô hình IRT
αi Tham số độ dao động thời gian của câu hỏi trong mô hình LNIRT
βi Tham số cường độ thời gian của câu hỏi trong mô hình LNIRT
Trang 11CTT Lý thuyết trắc nghiệm cổ điển - Classical Test Theory
IRT Lý thuyết ứng đáp câu hỏi - Item Response Theory
ICC Đường cong đặc trưng của câu hỏi - Item Characteristic Curve
LNIRT Lý thuyết ứng đáp câu hỏi lô-ga-rit chuẩn - Lognormal Item Response Theory
MCMC Xích Markov Monte Carlo - Monte Carlo Markov Chain
RA Độ chính xác của phản hồi - Response Accuracy
RT Thời gian phản hồi - Response Time
Trang 12Để đánh giá đối tượng nào đó CTT tiếp cận ở cấp độ một đề kiểm tra, còn lý thuyếttrắc nghiệm hiện đại IRT tiếp cận ở cấp độ từng câu hỏi, do đó lý thuyết này thườngđược gọi là Lý thuyết Ứng đáp Câu hỏi.
Ta sẽ quy ước gọi người có thuộc tính cần đo lường là thí sinh (person) và một đơn
vị của công cụ để đo lường (test) là câu hỏi (item) Để đơn giản hóa mô hình nghiêncứu ta có các giả thiết sau:
(i) Năng lực tiềm ẩn (latent trait) cần đo chỉ có một chiều (unidimensionality), hoặc
ta chỉ đo một chiều của năng lực đó
(ii) Các câu hỏi là độc lập địa phương (local independence) , nghĩa là việc trả lời mộtcâu hỏi không ảnh hưởng đến các câu hỏi khác
Trang 13Khi thỏa mãn hai giả thiết nêu trên thì không gian năng lực tiềm ẩn đầy đủ chỉchứa một năng lực Khi ấy, người ta giả định là có một hàm đặc trưng câu hỏi (ItemCharacteristic Function) phản ánh mối quan hệ giữa các biến không quan sát được(năng lực của TS) và các biến quan sát được (việc trả lời CH) Đồ thị biểu diễn hàm
đó được gọi là đường cong đặc trưng câu hỏi (Item Characteristic Curve)
Đối với các cặp thí sinh- câu hỏi (TS – CH), cần xây dựng một thang chung để biểudiễn các mối tương tác giữa chúng Trước hết giả sử ta có thể biểu diễn năng lực tiềm
ẩn của các TS bằng một biến liên tục θ dọc theo một trục, từ −∞ đến +∞ Khi xétphân bố năng lực của một tập hợp TS nào đó, ta gán giá trị trung bình của phân bốnăng lực của tập hợp TS đó bằng không (0), làm gốc của thang đo năng lực, và độlệch tiêu chuẩn của phân bố năng lực bằng 1 Tiếp đến, chọn một thuộc tính của CH
để đối sánh với năng lực: tham số biểu diễn thuộc tính quan trọng nhất đó là độ khó bcủa CH Cũng theo cách tương tự có thể biểu diễn độ khó của các CH bằng một biếnliên tục dọc theo một trục, từ −∞ đến +∞ Khi xét phân bố độ khó của một tập hợp
CH nào đó, ta chọn giá trị trung bình của phân bố độ khó đó bằng không (0), làm gốccủa thang đo độ khó, và độ lệch tiêu chuẩn của phân bố độ khó CH bằng 1
Chúng ta sẽ bắt đầu bằng cách xây dựng một hàm đáp ứng CH cho một CH nhị phân,tức là CH mà câu trả lời chỉ có 2 mức: 0 (sai) và 1 (đúng) Giả thiết cơ bản sau đâycủa George Rasch, nhà toán học Đan Mạch, được đưa ra làm cơ sở để xây dựng môhình hàm đáp ứng CH một tham số:
Một người có năng lực cao hơn một người khác thì xác suất để người đó trả lời đúngmột câu hỏi bất kì phải lớn hơn xác suất của người sau; cũng tương tự như vậy, mộtcâu hỏi khó hơn một câu hỏi khác có nghĩa là xác suất để một người bất kì trả lời đúngcâu hỏi đó phải bé hơn xác suất để trả lời đúng câu hỏi sau(Rasch,1960)
Với giả thiết nêu trên, có thể thấy xác suất để một TS trả lời đúng một CH nào đóphụ thuộc vào tương quan giữa năng lực của TS và độ khó của CH Chọn Θ để biểudiễn năng lực của TS, và β để biểu diễn độ khó của CH Gọi P là xác suất trả lời đúng
CH, xác suất đó sẽ phụ thuộc vào tương quan giữa Θ và β theo một cách nào đó, dovậy ta có thể biểu diễn
f (P ) = Θ
trong đó f là một hàm nào đó của xác suất trả lời đúng
Lấy logarit tự nhiên của phương trình 1.1:
ln f (P ) = ln Θ
β
Trang 14
Để đơn giản, khi xét mô hình trắc nghiệm nhị phân, Rasch chọn hàm f chính
là mức được thua (odds) O, hoặc khả năng thực hiện đúng (likelyhood ratio), tức
ta đường cong đặc trưng của câu hỏi trong mô hình IRT 1 tham số Về mặt ý
Hình 1.1: Đường cong đặc trưng câu hỏi mô hình một tham số [1]
nghĩa, mẫu số trong phương trình chỉ nhằm mục đích đảm bảo hàm số không baogiờ nhỏ hơn không hoặc lớn hơn 1 Phần thú vị nhất của phương trình 1.5 là tử
Trang 15số exp(θj − bi), ta thấy mô hình một tham số logistic đã dự đoán được xác suấttrả lời đúng câu hỏi dựa vào mối tương quan giữa năng lực thí sinh θj và tham
số câu hỏi bi Tham số bi được gọi là tham số địa phương hay chính là tham số
độ khó câu hỏi Trong Hình 1.1, ta xác định trục ngang là trục năng lực θi, cũngchính là trục của độ khó bi IRT đã quy đổi giữa năng lực của thí sinh với độ khó câu hỏi
Ví dụ 1.1.1 Một thí sinh có thể tìm được vị trí của bi trên trục năng lực/độ khó tươngứng với điểm xác suất dự đoán trả lời đúng Pij(θj − bi) bằng 0.5 Điều này được thểhiện trong Hình 1.2 Câu hỏi có đường cong đặc trưng trong hình cho ta thấy để có xácsuất trả lời đúng câu hỏi này là 0.5 thì năng lực của thí sinh bằng 1 hoặc cũng có thểhiểu độ khó của câu hỏi này là 1
Hình 1.2: Vị trí độ khó của câu hỏi hoặc năng lực của thí sinh trên trục năng lực/độ khó tương ứng với xác suất trả lời 0.5[1].
Hình 1.3 cho ta thấy hàm đặc trưng của 5 câu hỏi có độ khó khác nhau (-2.2; -1.5; 0.0;1.0 2.0) có độ dốc khác nhau trải dài trên khoảng xác định của năng lực thí sinh Nămđường cong này chạy song song và không bao giờ cắt nhau
Hình 1.3: Hàm đặc trưng câu hỏi của năm câu hỏi trong mô hình một tham số.[1]
Trang 16Mô hình IRT hai tham số
Mô hình IRT một tham số được Birnbaum mở rộng bằng cách gán cho mỗi câu hỏitrong đề thi trắc nghiệm ứng với mộ độ phân biệt a khác nhau Mô hình này được gọi
là mô hình IRT hai tham số có hàm đặc trưng câu hỏi như sau
P (Xij; θj, bi, ai) = e
a i (θ j −bi)
1 + ea i (θ j −b i). (1.6)
Độ phân biệt của câu hỏi đặc trưng cho khả năng phân loại thí sinh Thông thường
độ phân biệt của câu hỏi có giá trị dương Trong trường hợp câu hỏi sai hoặc mắc lỗithiết kế thì độ phân biệt có thể mang giá trị âm Câu hỏi có độ phân biệt dương cànglớn thì sự chênh lệch về xác suất trả lời đúng của các thì sinh có năng lực cao và nănglực thấp càng lớn Nói một cách khác, câu hỏi có độ phân biệt cao phân loại thí sinhtốt hơn câu hỏi có độ phân biệt thấp
Ví dụ 1.1.2 Trong Hình 1.3 đường cong đặc trưng của các câu hỏi song song với nhau
và không bào giờ cắt nhau; các câu hỏi có tham số độ khó khác nhau sẽ có đường congđặc trưng di chuyển về bên trái hoặc phải trong khi hình dạng của chúng là không đổi
Ta sẽ thấy một biểu đồ khác hẳng ở Hình 1.4 Hai câu hỏi có cùng độ khó -1.0 Giốngnhư trong mộ hình một tham số, xác suất câu trả lời bằng 0.5 cho ta độ khó của câuhỏi Tuy nhiên, một đường cong (đường 1) dốc hơn hẳn đường còn lại (đường 2) Đó
là do câu hỏi đó có tham số phân biệt ai lớn hơn Tham số phân biệt ai còn được gọi
là tham số độ dốc (slope parameter), giống như độ khó câu hỏi bi được gọi là tham số
vị trí Độ dốc của mô hình hai tham số tại b là a/4
Đường cong còn lại (đường 3) và đường cong thứ 2 có cùng độ dốc nhưng đường 3 chạy
về phía bên phải nhiều hơn Do đó, câu hỏi của đường 3 có cùng độ phân biệt với câuhỏi của đường hai nhưng có độ khó lớn hơn
Hình 1.4: Hàm đặc trưng của ba câu hỏi trong mô hình hai tham số.[1]
Trang 17Mô hình IRT ba tham số
Thực tế cho thấy, trong quá trình kiểm tra trắc nghiệm khách quan nhiều lựa chọn,thí sinh luôn dự đoán câu trả lời (theo cách chọn ngẫu nhiên một phương án hoặc theocách loại suy dựa trên kinh nghiệm bản thân) Trong lí thuyết trắc nghiệm cổ điển,người ta giảm việc dự đoán của thí sinh khi trả lời câu hỏi bằng cách đưa vào điểmmay rủi Tuy nhiên, cách làm này có nhược điểm là xem các câu hỏi có độ may rủi nhưnhau Điều này trái với thực tiễn vì thí sinh thường dự đoán để trả lời đúng câu hỏikhi gặp câu hỏi khó hơn là khi gặp câu hỏi dễ Vì vậy, Birnbaum đề xuất thêm tham
số cj ∈ (0, 1) vào mô hình IRT hai tham số để đo lường mức độ dự đoán của thí sinhkhi trả lời câu hỏi trắc nghiệm trong mỗi câu hỏi Mô hình với tham số đo lường mức
độ dự đoán của thí sinh được gọi là mô hình IRT ba tham số có hàm đặc trưng câuhỏi như sau:
c + (1 − c)/2 = 0.2 + 0.4 = 0.6 Hơn nữa, độ dốc tại điểm b lúc này là (1 − c)/4 thay
vì là a/4
Hình 1.5: Hàm đặc trưng câu hỏi trong mô hình ba tham số [1]
Phân phối chuẩn (normal distribution), còn gọi là phân phối Gauss, là một phân phốixác suất cực kì quan trọng trong nhiều lĩnh vực Nó là họ phân phối có dạng tổng
Trang 18quát giống nhau, chỉ khác tham số giá trị trung bình (µ) và phương sai (σ2).
Phân phối chuẩn tắc (standard normal distribution) là phân phối chuẩn với giá trịtrung bình bằng 0 và phương sai bằng 1 (đường cong màu đỏ trong Hình 1.6) Phânphối chuẩn còn được gọi là đường cong chuông (bell curve) vì đồ thị của mật độ xácsuất có dạng chuông
Ta có thể khảo sát phân phối chuẩn cho một biến ngẫu nhiên hoặc nhiều biến ngẫunhiêu; hay nói cách khác ta có thể khảo sát phân phối cho biến ngẫu nhiên một chiềuhoặc biến ngẫu nhiên nhiều chiều
Biến một chiều (Univariate)
Biến ngẫu nhiên X tuân theo phân phối chuẩn X ∼ N (µ, σ2) với tham số kỳ vọng µ
và phương sai σ2, ta sẽ có các thông số như trong bảng 1.1
Kỳ vọng - E[X] µ Phương sai - V ar(X) σ 2
Bảng 1.1: Định nghĩa và các giá trị tuân theo phân bố chuẩn: X ∼ N (µ, σ2).[wiki]
Φ x − µ
σ
ở đây là 1 phân phối chuẩn đã được tính toán từ trước
Biểu đồ hàm mật độ xác suất tuân theo phân phối chuẩn có dạng như trong Hình 1.6sau:
Hình 1.6: Hàm mật độ xác suất tuân theo phân phối chuẩn [wiki]
Nhận xét: Phương sai σ2 càng lớn thì mức độ phân tán xác suất cũng càng rộng,
Trang 19đỉnh thấp hơn và trải rộng hơn Đường màu đỏ với µ = 0 và σ2 = 1 thể hiện phân phốichuẩn tắc f (x) = √1
Thường các phân phối chuẩn được tính toán theo các phép biến đổi tuyến tính tức
là dựa vào các phân phối chuẩn dễ tính và tính được từ trước (như phân phối chuẩntắc) để ước lượng cho phân phối cần tính Giờ ta sẽ tìm cách biểu diễn một phân phốichuẩn bất kì qua phân phối chuẩn tắc
Giả sử Y = aX + b thì Y cũng sẽ là phân phối chuẩn có luật phân phối là: Y ∼
N (aµ + b, a2σ2)
Ta có Z − score của phân phối chuẩn là Z = X − µ
σ .Nếu đặt a = 1
σ và b = −
µ
σ Ta sẽ biểu diễn được Z tuyến tính theo X với dạng:
Z = aX + b Như vậy, Z sẽ tuần theo phân phối chuẩn:
Phân phối tích lũy chuẩn tắc Φ x − µ
σ
có thể tra cứu từ các bảng tính có sẵn nên
ta hoàn toàn có thể tích được các phân phối chuẩn khác qua nó
Biến đa chiều (Multivariate)
Đây là tổng quát hoá của phân phối chuẩn đối với biến ngẫu nhiên một chiều và sửdụng cho hợp của nhiều biến ngẫu nhiên - véc-tơ ngẫu nhiên Giả sử véc-tơ ngẫu nhiên
Trang 20có số chiều là k:X = [X1, X2, , Xk]T Lúc đó phân phối chuẩn của nó sẽ được tham
số hóa bởi:
• Vecto kỳ vọng: µ = E[X] = [E[X1], E[X2], , E[Xk]]T
• Ma trận hiệp phương sai:P = E[(X − µ)(X − µ)T] = [Cov(Xi, Xj), 1 ≤ i, j ≤ k].Phân phối này sẽ được kí hiệu là X ∼ Nk(µ, Σ) hoặc giản lược k là X ∼ N (µ, Σ) và
Ví dụ với trường hợp có 2 biến ngẫu nhiên x, y (k=2) ta sẽ có véc-to kỳ vọng µ =µX
f (x) = 1
2πρ X ρ Y p1 − ρ 2 exp
− 12(1 − ρ 2 )
(x − µ x ) 2
σ 2 X
+(y − µy)
2
σ 2 Y
−2(x − µx)(y − µy)
σ X σ Y
(1.8)
Phân phối xác suất loga chuẩn hay phân phối lognormal (Lognormal distribution) làphân phối thống kê các giá trị logarit từ một phân phối chuẩn có liên quan Phânphối lognormal có thể được chuyển hóa thành phân phối chuẩn và ngược lại bằng cách
sử dụng các tính toán logarit liên quan Cụ thể, nếu biến ngẫu nhiên X có phân bốlognormal, thì Y = ln(X) có phân bố chuẩn Hoặc ngược lại, nếu biến Y có phân bốchuẩn thì hàm mũ của Y là X = exp(Y ) có phân bố lognormal
Cho Z là biến chuẩn tắc, µ và σ > 0 là hai số thực thì phân bố của biến ngẫu nhiên
X = eµ+σZđược gọi là phân bố lognormal với tham số µ và σ Như vậy, tham số µ và σ là giá trị
kỳ vọng (hay trung bình) và độ lệch chuẩn logarit của biến tự nhiên chứ không phải
kỳ vọng và độ lệch chuẩn của biến X
Mối quan hệ này đúng bất kể với hàm số logarit hay hàm số mũ Với hai số dương
a, b 6= 1, nếu loga(X) tuân theo phân bố chuẩn thì logb(X) cũng vậy Tương tự, với
0 < a 6= 1, nếu eY tuân theo phân bố lognormal thì aY cũng như vậy
Thông thường, các tham số µ∗ = eµ và σ∗ = eσ thường hay được sử dụng hơn Vớitham số này ta có thể lý giải trực tiếp: µ∗ là trung bình của phân bố và σ∗ hữu ích choviệc xác định khoảng phân tán
Trang 21Biến một chiều (Univaraite)
Biến ngẫu nhiên dương X tuân theo phân bố lognormal nếu logarit của X tuân theophân bố chuẩn ln(X) ∼ N (µ, σ2) với kỳ vọng µ và phương sai σ2 Ta sẽ có các thông
số như trong bảng 1.2
xσ √ 2πexp
e−t2dt Giá trị trung bình (mean) - E[X] exp
Giá trị xuất hiện thường xuyên nhất (mode) exp(µ − σ 2 )
Phương sai (Variance) - V ar(X) exp(σ 2 ) − 1 exp(2µ + σ 2 )
+ 2) √
e σ 2
− 1 Bảng 1.2: Định nghĩa và các giá trị tuân theo phân bố lognormal ln(X) ∼ N (µ, σ 2 ) [wiki]
Đặt Φ và ϕ lần lượt là hàm phân bố xác suất tích lũy và hàm mật độ xác suất củaphân bố N (0, 1) Ta có hàm mật độ xác suất là
= ϕ ln x − µ
σ
ddx
ln x − µσ
= ϕ ln x − µ
σ
1σx
= 1x
1
σ√2π exp
Biểu đồ hàm mật độ xác suất tuân theo phân phối lognormal có dạng như trong Hình1.7
Hình 1.7: Hàm mật độ xác suất tuân theo phân phối lognormal wiki
Trang 22Hàm phân bố tích lũy là
FX(x) = Φ ln x − µ
σ
,
với Φ là hàm phân bố tích lũy của phân bố chuẩn tắc (ví dụ N (0, 1)) Phân bố tíchlũy có thể viết dưới dạng sau
12
1 + erf ln x − µ
σ√2
e−t2dt
= √2π
Z ∞ x
e−t2dt
Biểu đồ hàm phân bố xác suất tích lũy tuân theo phân phối lognormal có dạng nhưtrong Hình 1.8
Hình 1.8: Hàm phân phối xác suất tích lũy tuân theo phân phối lognormal.[wiki]
Biến lognormal nhiều chiều (Multivariate lognormal)
Nếu X ∼ N (µ,P) là phân bố chuẩn nhiều chiều thì Y = exp(X) có phân bố lognormalnhiều chiều với
• Véc tơ kỳ vọng: µ = E[Y ]i = eµi+
12
Trang 231.4 Suy luận Bayes
Trong những năm gần đây, thống kê Bayes đang được sử dụng ngày càng rộng rãi hơntong mọi lĩnh vực của đời sống Thống kê Bayes là phương pháp thống kê dựa trênđịnh lý Bayes nhằm củng cố quan điểm của chúng ta về các dữ liệu được đưa ra Điểmkhác biệt căn bản giữa thống kê Bayes và thống kê tần suất thông thường là nếu thống
kê tần suất xem tham số là một giá trị cố định chưa biết nhưng không ngẫu nhiên thìthống kê Bayes coi tham số là biến ngẫu nhiên Ta có thể gán cho tham số một phânphối xác suất để biểu thị sự tin cậy về giá trị thực của tham số Ngoài ra, còn cá điểmkhác biệt sau:
• Thống kê Bayes sử dụng cả hai nguồn thông tin, thông tin tiên nghiệm về quátrình và thông tin chứa trong dữ liệu bằng cách sử dụng định lý Bayes Trong khithống kê tần suất bỏ qua các kiến thức về tiên nghiêm, khá lãng phí thông tin
• Thống kê Bayes sử dụng một công cụ duy nhất là định lý Bayes, khác với thống
kê tần suất sử dụng nhiều phương pháp khác nhau
• Thống kê Bayes dễ dàng giúp xử lý các khó khăn trong tính toán ước lượng tham
số Định lý Bayes đưa ra các cách để tìm phân phối dự đoán của các quan sáttương lai Nhưng điều này không dễ thực hiện trong thống kê tần suất
Những lợi thế này đã được biết đến từ lâu, tuy nhiên ta sẽ gặp khó khăn với các trườnghợp phải tính tích phân lớn Lúc này, với sự phát triển của các thuật toán máy tínhnhư thuật toán Metropolis-Hasting hoặc giải thuật Gibbs (ta sẽ để cập ở phân tiếptheo) sẽ giúp lấu mẫu ngẫu nhiên từ phân phối hậu nghiệm mà không phải đánh giátoàn bộ nó Chúng có thể xấp xỉ phân phối hậu nghiệm chính xác bằng cách lấy mộtmẫu ngẫu nhiên đủ lớn từ nó Điều này loại bỏ được những bất lợi của thống kê Bayes
Trang 24Sử dụng công thức nhân xác suất, ta có
P (B|A) = P (B) × P (A|B)
P (B) × P (A|B) + P (B) × P (A|B), (1.13)trong đó, B là phần bù của B
Công thức xác suất đầy đủ: Giả sử biến cố A có thể xảy ra đồng thời với một trongcác biến cố B1, B2, , Bn Nhóm B1, B2, , Bn là nhóm đầy đủ các biến cố Có nghĩalà:
• Các biến cố B1, B2, , Bngọi là các giả thuyết Các xác suất P (B1), P (Bn) đượcxác định trước khi phép thử được tiến hành, do đó gọi là các xác suất tiên nghiệm(prior )
• P (A|Bi) là xác suất có điều kiện của A nếu biết Bi xảy ra, còn được gọi là hàmkhả năng (likelihood )
• Xác suất P (B1|A), , P (Bn|A) được xác định sau khi các phép thử đã được tiếnhành và biến cố A đã xảy ra, gọi là các xác suất hậu nghiệm (posterior )
Vậy công thức Bayes cho phép đánh giá lại xác suất xảy ra các giả thuyết sau khi đãbiết kết quả của phép thử là biến cố A đã xảy ra
1.4.1 Suy luận Bayes cho biến ngẫu nhiên rời rạc
Ta xét tham số là biến ngẫu nhiên X, có các giá trị x1, x2, xI Y là một biến ngẫunhiên phụ thuộc vào tham số và có các giá trị y1, y2, , yJ Chúng ta sẽ sử dụng định
lý Bayes để suy luận về tham số của biến ngẫu nhiên X dựa trên quan sát Y = yj.Không gian Bayes gồm một cặp (xi, yi) với i = 1, , I và j = 1, , J , f () là phân phối
Trang 25xác suất (có điều kiện hoặc không có điều kiện) của quan sát ngẫu nhiên Y và g() làxác suất của biến ngẫu nhiên X.
Y là biến ngẫu nhiên mà ta sẽ quan sát còn X là tham số ngẫu nhiên không dùng
để quan sát mà dùng để suy luận Mỗi xác suất trong không gian Bayes được tìm bởicông thức:
f (xi; yi) = g(xi) × f (yi|xi),trong đó
• g(xi) với i = 1, , n là xác suất tiên nghiệm của tham số X
• f (yj|xi) với i = 1, , n là hàm hợp lý (hàm khả năng likelihood) Đây chính làxác suất có điều kiện của Y với điều kiện X = xi
• Khi đó, xác suất hậu nghiệm g(xi|yi) tại xi với i = 1, , n cho bởi Y = yj đượcxác định bởi công thức
g(xi|yi) = g(xi) × f (yi|xi)
Pn i
i=1×f (yi|xi).1.4.2 Suy luận của Bayes cho biến ngẫu nhiên liên tục
Trang 26trong đó tham số θ được coi là biến ngẫu nhiên.
Phần trên, đã nhắc lại một số khái niệm và phương pháp tiếp cận cơ bản của thống
kê Bayes Mặc dù phương pháp Bayes rất hiệu quả trong việc đưa ra các dự đoán vềnhững quan sát chưa biết Tuy nhiên không phải lúc nào ta cũng dễ dàng làm việcđược với phương pháp này Ví dụ trong công thức 1.4.2 với biến ngẫu nhiên liên tụctrong trường hợp nhiều chiều, nhiều biến số thì tích phânR−∞+∞f (θ) × f (y|θ)dθ rất khóthực hiện Phương pháp xích Markov Monte Carlo được đưa ra để giải quyết vấn đềnày
1.5.1 Phương pháp Monter Carlo
Phương pháp Monter Carlo là một phương pháp mô phỏng có ứng dụng quan trọngtrong nhiều lĩnh vực, nó sử dụng mô phỏng để ước lượng xác suất xuất hiện của những
sự kiện không chắc chắn Đặc biệt trong toán học thì phương pháp này rất hiệu quảđối với các bài toán tích phân không dễ giải được bằng các bài toán khác
Như đã biết, trong thống kê Bayes, hệ số Bayes và xác suất hậu nghiệm là các đại lượngđược dùng để đánh giá các giả thuyết về mô hình Tuy nhiên, các phân tích của chúngkhông phải lúc nào cũng thực hiện được vì chúng liên quan tới việc tích phân tham số θ
Vì vậy để giải quyết vấn đề này, ta nhắc lại một kỹ thuật để xấp xỉ những tích phân khó
Phương pháp mô phỏng Monte Carlo
Thông thường để tính tích phân hàm f (x) trên miền D một chiều, ta tiến hành nhưsau:
1 Chia miền lấy tích phân D thành n đoạn với các đầu mút x1, x2, , xn
2 Tính giá trị f (x) tại những điểm này được f (x1), , f (xn)
3 Nhân f (xi) với độ dài đoạn tương ứng
4 Tích phân được xấp xỉ bằng tổng các tích Khi n tăng lên thì sai số của xấp xỉđược giảm đi
Theo phương pháp Monte Carlo, để tính tích phân, thay vì chọn x1, , xn là các điểm
cố định, chúng ta lấy x1, , xn ngẫu nhiên từ một phân phối π(x) trên miền lấy tích
Trang 27phân D Sau đó, tính f (xi) cho mỗi xi Trung bình các giá trị f (xi) cho ta xấp xỉ tíchphân cần tính.
- Nếu miền lấy tích phân D bị chặn, π(x) được chọn là phân phối đều trên miền lấytích phân
- Nếu miền lấy tích phân D không bị chặn, có thể tính tích phân hàm f (x) bằng cáchbiểu diễn nó dưới dạng tích của một hàm h(x) với một phân phối π(x) mà có thể lấyđược các giá trị x
xi lấy ngẫu nhiên từ π(x) trong miền D
Quá trình rút mẫu ngẫu nhiên (X1, , Xn) từ π(x) gọi là mô phỏng hàm phân bố π(x).Xét X1, X2, , Xn là mẫu ngẫu nhiên được sinh ra từ phân phối π(x) Khi đó kì vọngcủa f (X) được ước lượng bởi
lim
n→∞
1n
Trang 282 Quá trình Markov Giả sử trước thời điểm s, hệ đã ở trạng thái nào đó, còn tại thờiđiểm s, hệ ở trạng thái i Chúng ta muốn đánh giá xác suất để tại thời điểm t (t > s),
hệ sẽ ở trạng thái j Nếu xác suất này chỉ phụ thuộc vào bộ bốn (s, i, t, j), nghĩa làp(X(s) = i, X(t) = j) = p(s, i, t, j) đúng ∀i, ∀j, ∀s, ∀t, điều này thể hiện: sự tiến triểncủa hệ trong tương lai chỉ phụ thuộc vào hiện tại, và hoàn toàn độc lập với quá khứ(tính không nhớ) Đây chính là tính Markov
Quá trình ngẫu nhiên X(t) có tính chất Markov như trên được gọi là quá trình Markov
3 Phân loại quá trình Markov: Ta xét quá trình Markov X(t)
- Nếu tập các giá trị t không quá đếm được (t = 0, 1, 2, ), ta có quá trình Markovthời gian rời rạc
- Nếu t ∈ [0, ∞), ta có quá trình Markov thời gian liên tục
4 Quá trình Markov thuần nhất theo thời gian Xét một chuỗi Markov Nếu xác suấtchuyển trạng thái
p(s, i, t, j) = p(s + h, i, t + h, j)∀i, ∀j, ∀s, ∀t và ∀h > 0
ta nói chuỗi Markov thuần nhất theo thời gian Trong khuôn khổ luận văn này, ta chỉxét quá trình Markov thời gian rời rạc và thuần nhất Vì vậy, từ nay, nếu không nói gìthêm thì quá trình Markov được hiểu là thời gian rời rạc và thuần nhất
1.5.2 Phương pháp xích Markov Monte Carlo (MCMC)
Để giải quyết bài toán sinh mẫu từ một phân phối, phương pháp MCMC hoạt độngnhư sau
• Vai trò của phương pháp Monte Carlo tạo ra một chuỗi Markov, còn gọi là môphỏng
• Chuỗi Markov thỏa mãn điều kiện ergodic có phân phối dừng là phân phối cầnsinh mẫu
Như vậy, phương pháp MCMC sinh ra được các mẫu theo phân phối yêu cầu
Trở lại mô hình xác suất f (y, θ), áp dụng MCMC, chúng ta cần xây dựng chuỗiMarkov trên tập trạng thái θ ∈ Θ, có phân phối dừng là phân phối hậu nghiệm của môhình chúng ta quan tâm f (y, θ) Mô phỏng MCMC xấp xỉ đúng mật độ hậu nghiệmbằng cách sử dụng tập các mẫu rút ra từ hàm mật độ, nghĩa là cho ra tập M mẫu
θ(1), , θ(M ), mỗi mẫu được lấy từ f (θ|y)
Trang 29Mô hình hóa dữ liệu
MCMC hoạt động theo cách mô phỏng một chuỗi Markov thời gian rời rạc, nghĩa làtạo ra một dãy biến ngẫu nhiên x(t)Mt=1 xấp xỉ phân phối f (x(t)) = f (x)
• Chuỗi được khởi tạo giá trị ban đầu x(0)
• Tính chất Markov chỉ ra rằng phân phối của x(t+1)|x(t), x(t−1), chỉ phụ thuộcvào trạng thái hiện thời x(t)
• Ma trận xác suất chuyển trạng thái sau n bước: Pn(x(0), A) = P (x(n) ∈ A|x(0))trong đó A là tập trạng thái của x
MCMC xây dựng chuỗi Markov theo cách Pn(x(0), A) ≈ P (x) với một vài n tương ứng
x(0)
Thêm vào đó việc xấp xỉ tại mỗi bước |Pn(x(0), A) − P (x ∈ A)| → 0 khi n → ∞ nghĩa
là phân phối của trạng thái của chuỗi f (x(t)) hội tụ tới phân phối mục tiêu f (x) khi t
x(t) là trạng thái hiện thời, x∗ là trạng thái đề xuất từ phân phối q(x), ta có:
- Nếu α = 1, xác suất chuyển sang trạng thái x∗ lớn hơn, chấp nhận trạng thái mới
- Nếu α 6= 1, ngoài xác suất chuyển sang trạng thái x∗ , còn có xác suất ở lại trạngthái đó Để quyết định, chuyển sang trạng thái mới hay ở lại trạng thái cũ, chúng
ta sinh một số u ngẫu nhiên từ phân phối đều trên khoảng (0, 1) So sánh α với
u Nếu a > u, chấp nhận trạng thái mới, x(t+1) = x∗, ngược lại α ≤ u ở lại trạngthái cũ x(t+1)= x(t)
Trang 30Khi đó giải thuật chung cho MCMC là
MCMC là một cuộc cách mạng trong thống kê Bayes Các bài toán suy luận
f (θ|y), f (θi|y), f (|y) được MCMC mô phỏng một cách dễ dàng Các nhà khoa học
đã nghiên cứu và đề xuất ra nhiều giải thuật thuộc lớp phương pháp MCMC giải quyếtbài toán lấy mẫu Trong số đó, lấy mẫu Gibbs là một giải thuật khá mạnh giải quyếtvấn đề này, đặc biệt với sự trợ giúp của máy tính điện tử
Giải thuật Gibbs là một thuật toán trong phương pháp Markov chain Monte Carlo.Nội dung thuật toán gắn với một lớp bài toán cụ thể “bài toán sinh mẫu” trên các khíacạnh ý tưởng, cách thức triển khai, hoạt động cũng như tính đúng của thuật giải Bêncạnh đó, những vấn đề liên quan tới giải thuật cũng được nêu ra cho thấy tiềm năngứng dụng trong thực tế
Ta sẽ đi qua các nội dụng chính của Giải thuật Gibbs gồm:
1 Bài toán sinh mẫu
2 Thuật toán Gibbs giải bài toán sinh mẫu
3 Minh họa
1.6.1 Bài toán sinh mẫu
Phát biểu bài toán
Sinh mẫu ngẫu nhiên từ một phân phối cho trước, bài toán được diễn đạt bằng ngônngữ toán học như sau:
Cho f (x1, , xk) là hàm mật độ đồng thời của biến ngẫu nhiên k chiều X =
Trang 31(X1, , Xk) Hãy sinh ra một dãy các giá trị x(1) = (x(1)1 , , x(1)k ), x(2) =(x(2)1 , , x(2)k ), ,x(n)= (x(n)1 , , x(n)k ) tuân theo phân phối f (x1, , xk).
Giờ ta sẽ xác định đầu vào, đầu ra của bài toán như sau:
• Đầu vào: f (x1, , xk)
• Đầu ra: dãy x(1), x(2), , x(n) có cùng phân phối f (x1, , xk)
Ta gọi f (x1, , xk) cần sinh mẫu là phân phối mục tiêu
1.6.2 Thuật toán Gibbs giải bài toán sinh mẫu
Ý tưởng
Chúng ta không sinh trực tiếp mẫu từ phân phối mục tiêu Thay vào đó, ta chọn nhữngphân phối đơn giản, dễ sinh mẫu hơn Yêu cầu mẫu sinh ra từ những phân phối thaythế phải đảm bảo hoặc chính xác hoặc xấp xỉ mẫu sinh ra từ phân phối mục tiêu.Xét biến ngẫu nhiên k chiều X = (X1, , Xk)(k ≥ 2) có phân phối đồng thời
f (x1, , xk) Đây là phân phối mục tiêu cần sinh mẫu
Ký hiệu:
• X−i = (X1, , Xi−1, Xi+1, , Xk) là biến ngẫu nhiên k − 1 chiều, các thành phầnlấy từ biến ngẫu nhiên X = (X1, , Xk) ngoại trừ thành phần thứ i
• fX i |X −i(.|x1, , xi−1, xi+1, , xk) là phân phối có điều kiện đầy đủ của Xi
• fX−i(x1, , xi−1, xi+1, , xk) là phân phối riêng của X−i
Các ký hiệu có quan hệ như sau:
fXi|X −i = f (x1, , xk)
fX−iChúng ta chọn những phân phối có điều kiện đầy đủ fXi|X −i(.|x1, , xi−1, xi+1, , xk)
để sinh mẫu, vì:
• Những phân phối này xác định duy nhất phân phối mục tiêu
• Những phân phối này có dạng đơn giản, quen thuộc (giả thiết đơn giản hơn phânphối mục tiêu)
• Số chiều đã được giảm đi
Xuất phát từ phương pháp Markov chain Monte Carlo, chúng ta tạo ra các chuỗiMarkov có phân phối dừng là fXi|X −i(.|x1, , xi−1, xi+1, , xk) của từng thành phần
Xi Từ đó, chúng ta tạo được một chuỗi Markov chung có phân phối dừng là phân phối