1. Trang chủ
  2. » Văn Hóa - Nghệ Thuật

Mô hình tự động phát hiện chủ đề nóng trên các trang thông tin điện tử tiếng Việt dựa trên thuật toán phân cụm DBSCAN cải tiến

7 12 0

Đang tải... (xem toàn văn)

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 7
Dung lượng 236,11 KB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

Bài báo này đề xuất mô hình tự động phát hiện chủ đề nóng trên các trang thông tin điện tử tiếng Việt trong một khoảng thời gian dựa trên thuật toán phân cụm DBSCAN cải tiến [r]

Trang 1

MÔ HÌNH TỰ ĐỘNG PHÁT HIỆN CHỦ ĐỀ NÓNG TRÊN CÁC TRANG THÔNG TIN ĐIỆN TỬ TIẾNG VIỆT DỰA TRÊN THUẬT

TOÁN PHÂN CỤM DBSCAN CẢI TIẾN

Nguyễn Nhật An*, Cao Đăng Huy

Tóm tắt: Hiện nay, với sự phát triển mạnh mẽ của công nghệ thông tin, số lượng

thông tin được chuyển tải trên các trang thông tin điện tử (báo điện tử, mạng xã hội, blog ) càng lớn Việc theo dõi thông tin nhằm phát hiện ra các vấn đề mới, nóng (chủ đề nóng) được dư luận quan tâm, theo dõi chiều hướng phát triển của chúng để dự báo các nguy cơ được xem là rất quan trọng đối với nhiều lĩnh vực, đặc biệt đối với lĩnh vực an ninh quốc phòng Bài báo này đề xuất mô hình tự động phát hiện chủ đề nóng trên các trang thông tin điện tử tiếng Việt trong một khoảng thời gian dựa trên thuật toán phân cụm DBSCAN cải tiến và cách xác định “độ nóng” của các chủ đề được phân cụm

Từ khoá: Chủ đề nóng tiếng Việt; Thuật toán phân cụmDBSCAN cải tiến; “Độ nóng”chủ đề

1 ĐẶT VẤN ĐỀ 1.1 Giới thiệu

Với sự phát triển nhanh chóng của công nghệ thông tin, thông tin các sự kiện xảy ra được đăng tải trên các trang thông tin điện tử trên Internet đã trở thành một trong những nguồn thông tin quan trọng Theo báo cáo thống kê của Bộ Thông tin

và Truyền thông, tính đến năm 2016, Việt Nam có số lượng người sử dụng Internet lớn, đạt tỷ lệ khoảnglà 62,76% dân số [1] Số báo điện tử là 135, chủ yếu là báo điện tử của các cơ quan báo chí in; Số trang thông tin điện tử của các cơ quan báo chí được cấp phép là 258 [2], ngoài ra, còn hàng trăm trang tin không chính thống cũng tham gia tổng hợp, truyền tải thông tin trên mạng Khi có một sự kiện xảy ra, lập tức các phóng viên viết bài và đăng trên trang thông tin điện tử của mình với các quan điểm khác nhau, số lượng thông tin tăng lên nhanh chóng Do vậy, việc phát hiện, phân cụm chủ đề, theo dõi chủ đề nóng một cách tự động trở nên cần thiết, là giải pháp để xử lý vấn đề quá tải thông tin Vấn đề này đã được nhiều nhà khoa học quan tâm và được gọi chung là bài toán “Phát hiện và theo dõi chủ đề” (Topic Detection and Tracking) [6]

1.2 Các nghiên cứu liên quan

Bài toán Phát hiện và theo dõi chủ đề (Topic Detection and Tracking) được giới thiệu lần đầu tiên vào năm 1996, sau đó bài toán này được đông đảo các nhà khoa học trên thế giới quan tâm và nghiên cứu Một số nghiên cứu giải quyết bài toán này dựa trên các đặc trưng của văn bản và thuật toán phân cụm [14, 8, 17, 24]; một

số lại tập trung vào các mô hình ngôn ngữ và xác xuất [16, 20, 21, 23, 18, 19] Có thể kể một số nghiên cứu gần đây: Khoo đề xuất sử dụng đặc trưng TF-IDF (Term Frequency * Proportional Document Frequency) để tạo vector văn bản tìm ra chủ

đề quan trọng[7]; Chel dựa trên ý tưởng của Khoo để đề xuất một phương pháp mới phát hiện chủ đề nóng dựa trên phân tích thời gian và mô hình câu đa chiều [8]; Ruiguo Yu đề xuất phương pháp phát hiện chủ đề nóng dựa trên phân đoạn

Trang 2

thời gian và lý thuyết lão hoá [14]; PGS.TS Đỗ Phúc đề xuất mô hình phát hiện chủ đề nóng trên mạng xã hội dựa trên lý thuyết lão hoá [13]

Tuy nhiên, các công trình trên chủ yếu thực hiện việc phát hiện và theo dõi chủ đề tiếng Anh mà chưa có các công trình nghiên cứu cho tiếng Việt Do vậy, chúng tôi tập trung nghiên cứu, đề xuất mô hình phát hiện chủ đề nóng trên các trang thông tin điện tử tiếng Việt và xem xét tính hiệu quả của phương pháp đề xuất dựa vào lựa chọn thuật toán phân cụm phù hợp và cách xác định thế nào là

“chủ đề nóng”

Nghiên cứu của chúng tôi giải quyết hai vấn đề chính: Một là, đề xuất sử dụng thuật toán phân cụm DBSCAN cải tiến để tự động phân cụm các chủ đề tiếng Việt; hai là, dựa trên số lượng bài viết, số lượng trang thông tin điện tử đăng tải, trọng số trang thông tin điện tử để đánh giá “độ nóng” của các chủ đề được phân cụm Sau

đó, chúng tôi tiến hành thử nghiệm trên tập dữ liệu thu thập và đánh giá chúng Bài báo được trình bày theo thứ tự sau: Phần 2 trình bày nội dung nghiên cứu; Phần 3 trình bày các kết quả thử nghiệm và đánh giá; cuối cùng kết luận được trình bày trong Phần 4

2 NỘI DUNG CẦN GIẢI QUYẾT 2.1 Mô hình đề xuất

Hình 1 Mô hình phát hiện chủ đề nóng

Mô hình phát hiện chủ đề nóng bao gồm hai bước:

Bước 1: Phát hiện chủ đề dựa trên thuật toán phân cụm văn bản

Bước 2: Phát hiện chủ đề nóng bằng cách tính “độ nóng” cho các chủ đề đã được xác định ở bước 1 dựa vào các đặc trưng: số văn bản trong chủ đề; thời gian xuất hiện;“độ chính thống” của các trang thông tin điện tử (trang thông tin điện tử được cấp phép hay trang tin tổng hợp không được cấp phép)

2.2 Phát hiện chủ đề

Trang thông tin điện tử 1

Trang thông tin điện tử 2

Trang thông tin điện tử n

Phân cụm văn bản

Chủ đề 1

Chủ đề 2

Chủ đề m

Tính “độ nóng”, sắp xếp chủ đề theo “độ nóng”

Chủ đề nóng 1

Chủ đề nóng 2

Chủ đề nóng m

Trang 3

Mục tiêu của phát hiện chủ đề là xác định những vấn đề liên quan đến nhau được trình bày trong các bài viết Đó chính là bài toán phân cụm văn bản, mục đích của bải toán này là tự động nhóm các bài viết về cùng một vấn đề vào một cụm nhất định Trong nghiên cứu này, chúng tôi lựa chọn thuật toán DBSCAN cải tiến

để phân cụm văn bản, thuật toán này dựa trên thuật toán DBSCAN gốc và cải tiến

cách tự động tính giá trị của các tham số eps, MinPts dựa trên các thuộc tính thống

kê của bộ dữ liệu đầu vào

Vector hóa văn bản

Để sử dụng được thuật toán DBSCAN cải tiến để phân loại văn bản, ta cần mô hình hóa văn bản thành vector Cụ thể, ta sẽ sử dụng mô hình Bags of words (word count document representation) Mô hình này biểu diễn văn bản như những điểm

trong không gian Euclid m-chiều, mỗi chiều tương ứng với một từ trong tập hợp m

từ khác nhau của tập văn bản Giá trị của các thành phần trong vector này được tính bằng tính bằng công thức TF*IDF Đây là công thức giúp đánh giá mức độ quan trọng của một từ đối với văn bản trong một tập văn bản Trong đó:

o TF (term frequency) là tần số xuất hiện của một từ trong một văn bản

o IDF (inverse document frequency) là tần số nghịch của 1 từ trong tập văn bản

Để giảm chiều của vector, trong bước xây dựng vector cho văn bản tiếng Việt các hư từ sẽ bị loại bỏ chỉ còn lại các thực từ [3] Mặt khác, các thực từ có tần số TF*IDF dưới 1 ngưỡng quy định sẽ bị lọc bỏ Việc lọc này nhằm lựa ra những thực từ đủ tính chất đặc trưng cho văn bản, loại bỏ những thực từ quá hiếm xuất hiện hoặc xuất hiện quá phổ biến trong tập văn bản

Khoảng cách giữa hai văn bản chính là độ tương tự giữa hai văn bản được tính bằng độ đo Cosine similary Độ đo Cosinesimilary của 2 văn bản A và B được xác định như công thức sau:

( , ) = .

‖ ‖‖ ‖=

trong đó:

= { , … , } là vector của văn bản A với là trọng số TF*IDF của từ

thứ i của văn bản A;

= { , … , } là vector của văn bản B với là trọng số TF*IDF của từ

thứ i của văn bản B

Thuật toán DBSCAN

Thuật toán DBSCAN gốc dùng phân cụm văn bản được trình bày như sau [4]:

Cần có 2 tham số quan trọng trong DBSCAN là epsilon (eps) và số điểm tối thiểu (MinPts) Thông số eps định nghĩa bán kính khu vực lân cận xung quanh một văn bản (chính là một điểm trong không gian n chiều) Tham số MinPts là số lượng văn bản lân cận tối thiểu trong bán kính eps Ứng với eps và MinPts cho trước,

DBSCAN xác định một cụm thông qua 2 bước:

1) Chọn văn bản bất kỳ thoả mãn điều kiện văn bản lõi làm văn bản hạt giống; 2) Tìm các văn bảnđến được theo mật độ từ văn bản hạt giống

Trang 4

Qua thuật toán này, ta có thể thấy để thuật toán hoạt động hiệu quả phụ thuộc

vào 2 yếu tố chính đó là tham số eps và MinPts Trong trường hợp lý tưởng thì ứng với mỗi cụm cần phải xác định được thông số eps và MinPts ít nhất một văn bản

thuộc cụm Sau đó, tìm tất cả các văn bản cho từng cụm Tuy nhiên, không dễ gì để xác định được các thông tin trên nhanh chóng và chính xác nên DBSCAN sử dụng

thông số eps, MinPts của cụm có mật độ ít dày đặc nhất làm thông số chung cho tất

cả các cụm

Đối với một eps xác định, số văn bản lõi sẽ giảm đáng kể khi giá trị của MinPts

lớn Trong trường hợp này, một vài văn bản của một số cụm có có thể bị loại bỏ Ngược lại, một số văn bản sẽ bị đánh giá nhầm thành văn bản lõi nếu giá trị

MinPts quá nhỏ Mặt khác, đối với giá trị MinPts xác định, một số văn bản có thể

trở thành nhiễu hoặc một cụm có thể bị chia thành vài cụm nhỏ hơn nếu giá trị eps

quá nhỏ Một số nhiễu có thể được phân vào một cụm không chính xác hoặc một

số cụm rời rạc có thể bị gom lại thành một cụm một cách không chính xác khi giá

trị eps quá lớn Dựa trên phân tích này, một thuật toán được trình bày để ước tính hai tham số eps và MinPts một cách tối ưu[5]

Ý tưởng của thuật toán DBSCAN cải tiến là tự động tính giá trị của các tham số

eps, MinPts được ước tính dựa trên các thuộc tính thống kê của bộ dữ liệu Trong

trường hợp lý tưởng, một ma trận khoảng cách × được đưa ra:

× = { ( , )|1 ≤ ≤ , 1 ≤ ≤ } (2) trong đó:

- là số lượng văn bản của tập văn bản đầu vào D;

- × là một ma trận đối xứng hàng cột trong đó mỗi thành phần thể

khoảng cách được tính bằng độ đo cosine giữa văn bản i và j trong tập văn bản đầu vào D

Xác định thông số eps tối ưu

Thông số eps cho thuật toán DBSCAN có thể được xác đinh bằng tay hoặc thông qua thuật toán Heuristics xác định thông số eps cho cụm có mật độ ít dày

đặc nhất Thuật toán dựa trên 2 quan sát:

1) Gọi X i là khoảng cách giữa văn bản i và văn bản gần nhất thứ k thì vùng lân cận X i của văn bản i chứa k+1 văn bản (hoặc nhiều hơn k+1văn bản khi nhiều văn bản có cùng khoảng cách đến i)

2) Thay đổi giá trị k không dấn đến thay đổi lớn giá trị của X i trừ khi kvăn bản

này cùng nằm xấp xỉ trên cùng một đường thẳng

Chúng ta xác định giá trị của mỗi thành phần trong ma trận × , sau đó sắp xếp theo thứ tự tăng dần theo từng hàng Sử dụng × để thể hiện giá trị của

cột thứ i trong × Với giá trị k cho trước và các dữ liệu trong × được sắp xếp theo thứ tự tăng dần dẫn đến × là cột thể hiện khoảng cách từ điểm

p đến điểm gần nhất thứ k Từ đó, chúng ta sử dụng ước lượng khả năng tối đa

trong toán học để ước lượng giá trị của eps Tức là, eps có thể thu được bằng

phương pháp tính giá trị trung bình của ×

= ∑ (3)

Trang 5

Thực nghiệm cho thấy số lượng cụm có xu hướng ổn định khi k = 4 và chi phí

tính toán lại giảm đáng kể [4,5] Vì vậy, có thể thấy kết quả phân nhóm có thể tối

ưu ngay tại thời điểm này

Thuật toán DBSCAN cải tiến để tìm eps tối ưu trong tập dữ liệu

Mục đích Tìm giá trị tối ưu của eps

Input Bộ dữ liệu n văn bản

Số lượng k điểm lân cận tối thiểu

Output Thông số eps tối ưu cho tập dữ liệu

Thủ tục

for i=1 to n for j=1 to n tính khoảng cáchgiữa 2 văn bản i và j:

( , ) = ( , ) end for

sắp xếp các giá trị khoảng cách theo thứ tự tăng dần end for

tính eps tối ưu dựa vào bộ dữ liệu khoảng cách tìm được

Xác định tham số MinPts tối ưu

Sau khi eps tối ưu được xác định, ta cần phải ước tính giá trị của MinPts Đầu tiên, ta cần tính số lượng các văn bản trong vùng bán kính eps lân cận với mọi

điểm trong tập dữ liệu từng điểm một Sau đó, tính trung bình giá trị của tất cả các

dữ liệu này, đó chính là giá trị MinPts tối ưu

Trong đó, p i là số điểm lân cận trong vùng bán kính eps của điểm i

2.3 Phát hiện chủ đề nóng

Số lượng tài liệu trong một chủ đề là yếu tố quan trọng để đánh giá mức độ nóng, ngoài ra, nguồn trang thông tin điện tử cũng nên được xem như là một đóng góp quan trọng cho mức độ nóng của một chủ đề Chúng tôi cho rằng các chủ đề được thảo luận bởi nhiều trang thông tin điện tử quan trọng hơn những chủ đề chỉ được thảo luận bởi ít trang thông tin điện tử, mặc dù các chủ đề này có thể chứa nhiều tài liệu Mặt khác, số ngày đăng tin trong một khoảng thời gian nhất định cũng đóng góp vào mức độ nóng của chủ đề

Dựa trên nguyên tắc thuật toán TF-PDF (Term Frequency - Proportional Document Frequency) đã được trình bày trong một số công trình nghiên cứu [7,8,22], chúng tôi đề xuất phương pháp tính “độ nóng” của một chủ đề được phân cụm Cụ thể, độ nóng của một chủ đề T trong khoảng thời gian được ký hiệu là

ℎ (T) được tính như sau:

trong đó:

Trang 6

: là số trang thông tin điện tử chứa các bài viết đang được xem xét

: là tổng số chủ đề được phân cụm mà chứa các bài viết của trang thông tin

điện tử thứ i

: Là số bài viết của chủ đề T được đăng trên trang thông tin điện tử thứ i : Là số bài viết của trang trang thông tin điện tử thứ i trong chủ đề thứ j

( ∈ )

: Là tổng số bài viết trên trang thông tin điện tử thứ i

: Là trọng số của trang thông tin điện tử thứ i, = 1 nếu trang thông tin

điện tử thứ i là một trang thông tin điện tử được cấp phép (chính thống), =

0.5 nếu trang thông tin điện tửthứ i là một trang thông tin điện tử không được cấp

phép, = 0.1 nếu trang thông tin điện tử thứ i chỉ là trang thông tin điện tử tổng

hợp tin tức từ các nguồn khác

: Là số ngày khác nhau của các bài viết trong chủ đề T

: Là số ngày khác nhau của tất cả các bài viết đang được xem xét

3 THỬ NGHIỆM, ĐÁNH GIÁ 3.1 Kho ngữ liệu

Kho ngữ liệu thử nghiệm được xây dựng dựa trên việc thu thập dữ liệu trong một khoảng thời gian từ 09/08 – 15/08/2017 từ các trang thông tin điện tửBáo Nhân dân, Báo Quân đội nhân dân, Báo Dân trí, Báo Thanh niên, Báo vnexpress, news.zing.vn Chúng tôi chọn khoảng thời gian này vì có một số sự kiện quan trọng nổi lên như: căng thẳng Triều Tiên, trạm thu phí Cai Lậy, bạo lực ở bang Virginia Hoa Kỳ, bút phê lãnh đạo vào hồ sơ sinh viên Tổng số văn bản thu thập được từ các nguồn trên là 131 bài được phân thành 10 cụm chủ đề (bằng phương pháp thủ công do con người thực hiện)

Do đặc điểm riêng của tiếng Việt [3], ở bước tiền xử lý tiếng Việt chúng tôi sử dụng các bộ công cụ sau:

Sử dụng các kỹ thuật tách từ của nhóm tác giả [10, 11,12] được dùng để tách từ tiếng Việt Sử dụng bộ công cụ vnTagger [15] để gán nhãn từ loại với bộ 18 nhãn Ngoài ra, để nâng cao độ chính xác, các thực từ đồng nghĩa trong tiêu đề, tóm tắt, nội dung của các văn bản thử nghiệm được thay thế bằng một từ duy nhất bằng cách sử dụng từ điển đồng nghĩa của tác giả Nguyễn Văn Tu [9]

3.2 Thử nghiệm, đánh giá

Trong quá trình phân cụm ở giai đoạn đầu tiên,với 131 văn bản đầu vào chưa

được phân cụm, chúng tôi sử dụng thuật toán DBSCAN cải tiến với k=4 [4,5], thuật toán tính ra các hệ số tối ưu eps = 0,952, MinPts=4 Kết quả thực hiện phân

ra thành 10 cụm chủ đề, chúng ta so sánh với 10 cụm chủ đề đã được phân cụm bằng phương pháp thủ công Kết quả được trình bày ở bảng 1, trong đó chúng tôi

sử dụng độ đo Precision, Recall, F-score để đánh giá độ chính xác của thuật toánphân cụm

=

=

Trang 7

=2 × ×

trong đó:

TP: Số lượng các bài thuộc cụm c được phân loại chính xác vào cụm c;

FP: Số lượng các bài không thuộc cụm c bị phân loại nhầm vào cụm c;

FN: Số lượng các bài thuộc cụm c bị phân loại nhầm vào các lớp cụm khác c

Bảng 1 Bảng kết quả phân cụm sử dụng thuật toán DBSCAN cải tiến

T

Số lượng văn bản

(%)

Recall (%)

F (%)

PP thủ công

DBSCAN cải tiến

1 Căng thẳng Triều

2 Phản đối trạm thu

phí BOT Cai Lậy 17 14 14 0 3 100 82,4 90,4

3 Thời tiết nắng

nóng tại Bắc bộ 16 15 15 0 1 100 93,8 96,8

4

Khắc phục hậu quả trận lũ quét Yên Bái

5 Phê lý lịch sinh

6

Ông Đoàn Ngọc Hải xử lý vi phạm lấn chiếm vỉa hè

7

Lao xe vào cuộc biểu tình tại bang Virginia - Mỹ

8

Căng thắng biên giới Trung Quốc -

Ấn Độ

9

Bé trai bị bỏ rơi tại trước bệnh viện Sài Gòn

10

Căng thẳng biên giới Campuchia - Lào

Trên cơ sở của các cụm chủ đề được phân, ở giai đoạn 2 chúng tôi tính “độ nóng” chủ đề Bảng 2 trình bày các chủ đề với “độ nóng” chủ đề được tính bằng công thức (5)

Ngày đăng: 01/04/2021, 12:24

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

🧩 Sản phẩm bạn có thể quan tâm

w