Bài viết trình bày phương pháp nhận dạng tín hiệu dựa trên các mô hình mạng nơ ron tích chập và khảo sát độ chính xác khi nhận dạng tín hiệu điều chế. Các kết quả mô phỏng cho độ chính xác cao so với các mô hình phân loại tín hiệu trong điều kiện tín hiệu chỉ chịu tác động của nhiễu tạp âm trắng.
Trang 1Tự động nhận dạng điều chế dưới tác động của nhiễu pha-đinh đa đường sử dụng kỹ thuật học sâu
Lê Hà Khánh1, Đoàn Văn Sáng2, Hoàng Văn Phúc1 và Đào Thị Thủy1
1Viện Tích hợp hệ thống, Học viện Kỹ thuật Quân sự
Số 236 Hoàng Quốc Việt, Quận Bắc Từ Liêm, Hà Nội
2Học viện Hải Quân, Nha Trang, Khánh Hòa Email: phuchv@mta.edu.vn
Tóm tắt— Tự động phân loại điều chế tín hiệu (Automatic
Modulation Classification: AMC) đã được nghiên cứu trong
hơn một phần tư thế kỷ Tuy nhiên, việc thiết kế một bộ phân
loại hoạt động tốt trong môi trường nhiễu và các điều kiện
khác nhau là rất khó khăn Gần đây, các phương pháp học tập
sâu được áp dụng cho các hệ thống AMC và đạt được các kết
quả cao trong việc cải thiện độ chính xác trong phân loại tín
hiệu Trong bài viết này, chúng tôi khảo sát các mô hình phân
loại ứng dụng các mạng nơ rơn tích chập để phân loại 26 dạng
tín hiệu điều chế dưới tác động của năm loại môi trường nhiễu
pha-đinh khác nhau với SNR từ -20 dB đến +18 dB Bài báo
trình bày phương pháp nhận dạng tín hiệu dựa trên các mô
hình mạng nơ ron tích chập và khảo sát độ chính xác khi nhận
dạng tín hiệu điều chế Các kết quả mô phỏng cho độ chính xác
cao so với các mô hình phân loại tín hiện trong điều kiện tín
hiệu chỉ chịu tác động của nhiễu tạp âm trắng Một số mô hình
như ResNet, SqueezeNet cho độ chính xác cao hơn 97,5% cho
SNR > +2 dB
Keywords—Tự động phân loại điều chế, học sâu, mạng nơ
ron tích chập (CNN)
I GIỚI THIỆU
Tự động phân loại tín hiệu điều chế (AMC: Automatic
Modulation Classification) là một quy trình để xác định sơ
đồ điều chế của tín hiệu vô tuyến Đây là một bước trung
gian giữa phát hiện tín hiệu và giải điều chế Tuy nhiên, rất
khó để thiết kế một bộ phân loại tín hiệu hoạt động tốt trong
các điều kiện nhiễu khác nhau, đặc biệt là ảnh hưởng nhiễu
pha đinh đa đường Các thuật toán AMC đã được nghiên cứu
rộng rãi trong hơn 20 năm qua Nhìn chung, các thuật toán
AMC cổ điển có thể được chia thành hai loại: dựa trên tỷ lệ
hợp lệ (LB: Likelihood-based) và dựa trên các đặc trưng (FB
Feature based) Các phương thức LB dựa trên khả năng của
tín hiệu nhận được và các phương thức FB phụ thuộc vào
thiết kế phân loại và phân loại các đặc trưng tín hiệu Phương
pháp phân loại điều chế LB là so sánh giá trị tỷ lệ khả năng
của tín hiệu nhận được trong nhóm điều chế được xem xét
Nó cũng đã được sử dụng trong môi trường đa kênh để ước
tính các tham số không xác định và cung cấp kết quả nổi bật
để phân loại điều chế Các phương thức LB cần biết được
các tham số kênh và tính toán trở nên phức tạp khi các tham
số không xác định được Mặc dù các phương thức LB có thể
đạt được giải pháp tối ưu, nhưng chúng phải chịu sự phức tạp
tính toán cao và yêu cầu thông tin trước từ các máy phát
Ngược lại, các phương thức FB có thể có được các giải pháp
với mức độ độ phức tạp tính toán nhỏ hơn nhiều và không
phụ thuộc vào thông tin tiên nghiệm Hiệu suất của các
phương thức FB chủ yếu phụ thuộc vào bộ đặc trưng được
trích xuất Các đặc trưng này phải được thiết kế thủ công để
phù hợp với bộ điều chế và môi trường kênh tương ứng và có
thể không khả thi trong các điều kiện nhiễu khác Hơn nữa,
việc tìm kiếm các đặc trưng hiệu quả đòi hỏi sự xem xét lớn
về mặt dữ liệu
Gần đây, học sâu (DL: Deep learning) là một nhánh của máy học và đã đạt được thành công đáng kể vì khả năng phân loại tuyệt vời của nó DL đã được áp dụng trong nhiều lĩnh vực như phân loại hình ảnh, nhận dạng khuôn mặt, và xử
lý ngôn ngữ tự nhiên Một số mạng DL điển hình như mạng nơ-ron tích chập (CNN: Convolutional Neural Network), mạng dư (RNN: Residual Neural Network) hay mạng CLDNN (Convolutional Long Short-term Deep Neural Network) đã được áp dụng trong AMC [1] Độ chính xác phân loại của các phương pháp dựa trên DL đã được chứng minh là cao hơn các phương pháp phân loại khác, đặc biệt là khi tỷ lệ tín hiệu trên nhiễu(SNR) thấp
Bảng I: Tập dữ liệu HisarMod2019.1 [2]
Loại điều chế Các kiểu điều chế
Analog
AM-DSB AM-SC AM-USB AM-LSB
FM
PM
FSK
2-FSK 4-FSK 8-FSK 16-FSK PAM
4-PAM 8-PAM 16-PAM
PSK
BPSK QPSK 8-PSK 16-PSK 32-PSK 64-PSK
QAM
4-QAM 8-QAM 16-QAM 32-QAM 64-QAM 128-QAM 256-QAM
Trong bài báo này, chúng tôi sử dụng một tập dữ liệu HisarMod2019.1 trong bài báo [2], bao gồm 26 dạng tín hiệu điều chế thuộc 5 nhóm điều chế khác nhau và chịu ảnh hưởng của 5 loại nhiễu pha đinh với các điều kiện khác nhau
Bộ dữ liệu bao gồm 26 loại điều chế từ 5 nhóm điều chế khác nhau là tín hiệu tương tự, tín hiệu điều tần FSK, điều chế xung biên độ PAM, điều chế pha PSK, và điều chế pha cầu phương QAM Tất cả các loại điều chế được liệt kê trong Bảng I Tập dữ liệu công khai mới này cung cấp tín hiệu
Trang 2không dây trong các điều kiện kênh lý tưởng, tĩnh, Rayleigh,
Rician (k = 3) và Nakagami-m (m = 2) Do đó, có thể quan
sát các điều kiện kênh thực tế hơn đối với các phương pháp
AMC dựa trên DL được đề xuất Trong bộ dữ liệu có 1500
tín hiệu có chiều dài 1024 mẫu I / Q đối với từng loại điều
chế, tỷ lệ mức tín hiệu trên nhiễu (signal to noise ratio: SNR)
là từ -20 dB đến +18 dB, bước cách 2 dB Tổng cộng, bộ dữ
liệu có 780.000 mẫu tín hiệu Khi tạo tín hiệu, tốc độ
oversampling được chọn là 2 và sử dụng bộ lọc cosin nâng
với hệ số roll-off = 0.35
Trong bài viết trình bày và đánh giá những lợi thế và bất
lợi các kỹ thuật sử dụng trong từng mô hình, rất cần thiết để
nghiên cứu trong tương lai về phân loại điều chế dựa trên
DL Nhóm tác giả thực hiện phân loại điều chế 26 tín hiệu vô
tuyến với các mô hình ứng dụng các mạng nơ rơn khác nhau,
sử dụng tập dữ liệu HisarMod2019 Một số mô hình như
ResNet, SqueezeNet cho độ chính xác cao hơn 97,5% cho
SNR > +2 dB Ngược lại một số mô hình khác như
GoogleNet cho độ chính xác thấp, đạt cao nhất là 56,76% tại
+18 dB
Cấu trúc bài báo được trình bày gồm 4 phần Phần I là
giới thiệu và mục tiêu nghiên cứu Phần II trình bày chi tiết
các mô hình cấu trúc mạng nơ ron ứng dụng cho phân loại
điều chế tín hiệu Các kết quả khảo sát phân loại tín hiệu,
tính khả thi của các mô hình kiến trúc mạng đề xuất được
trình bày trong phần III Cuối cùng là phần IV trình bày kết
luận và hướng nghiên cứu tiếp theo của bài báo
II CẤU TRÚC MẠNG HỌC SÂU
Các nghiên cứu gần đây của mạng học sâu tập trung vào
việc cải thiện độ chính xác phân loại tín hiệu Trong bài báo
này, chúng tôi nghiên cứu hiệu suất phân loại điều chế tín
hiệu của các dạng cấu trúc mạng nơ ron khác nhau: mạng
ResNet18, mạng MobileNet_V2, mạng GoogLeNet, mạng
SqueezeNet, mạng Rep_VGG
A Mạng ResNet18
Khi mạng nơ ron phát triển sâu hơn, hiệu suất học tập của
nó bị thách thức do các vấn đề như vanishing gradient (mạng
nơ ron bị vô hiệu) hay overfitting (mô hình quá phù hợp với
dữ liệu huấn luyện nhưng lại kém hiệu quả với dữ liệu chưa
biết) Do đó, việc huấn luyện và kiểm tra độ chính xác bắt
đầu suy giảm khi mạng nơ ron đạt đến độ sâu nhất định Việc
suy giảm kết quả độ chính xác kiểm tra do các vấn đề từ việc
tăng độ phức tạp của mạng nơ ron Sự giảm chính xác từ quá
trình huấn luyện do vanishing gradient làm cho quá trình tối
ưu hoá kém khả thi hơn, dẫn đến khả năng hội tụ đến mức tối
thiểu cho khả năng ước lượng giảm
Cấu trúc mạng ResNet được đưa ra trong ImageNet và
COCO 2015 [3] Nó đã giải quyết vấn đề suy giảm độ chính
xác của mạng nơ ron sâu và là một lựa chọn rộng rãi cho các
nhiệm vụ học máy Mô hình ResNet [1] và DenseNet [1, 4]
gần đây đã góp phần giải quyết các vấn đề trên bằng cách tạo
các đường dẫn tắt giữa các lớp khác nhau trong mạng Một
khối xây dựng của mạng ResNet có thể được biểu thị bằng
phương trình trong Hình 1, trong đó đầu vào là x l−1, một
hàm ánh xạ x l =H x( )l−1 được sử dụng cho hàm
F x− =H x− −x− , hàm F x( )l−1 gọi là hàm dư Cấu
trúc thắt cổ chai của mạng ResNet giúp loại bỏ vấn đề độ
phức tạp tính toán, và thành phần đường nối tắt giúp loại bỏ
vanishing gradient Nhờ việc tổng hợp các đặc trưng giúp giảm sự mất mát thông tin cùng với độ phức tạp tính toán Chúng tôi sử dụng cấu trúc mạng ResNet 18 làm mô hình học sâu trong việc phân loại tín hiệu Sau lớp tích chập đầu tiên, phép gộp cực đại (max-pooling) được sử dụng để trích xuất các đặc trưng mức thấp, và sau lớp tích chập cuối cùng, việc lấy gộp trung bình để tất cả các đặc trưng được trích xuất đều quan trọng như nhau để ra quyết định Hàm kích hoạt ReLU (Rectified Linear Unit): r x( )=max 0,( )x được
sử dụng để tăng quá trình huấn luyện Sử dụng dropout với
xác suất là 0,5 để tránh hiện tượng overfitting cho huấn luyện
dữ liệu
Weight Layer
Weight Layer
+
ReLu
ReLu
Shortcut path Input
Output xl
1
l
x−
( )l1
F x−
( )l 1
H x−
Hình 1: Khối Residual [1]
B Mạng SqueezeNet
Mạng SqueezeNet được đề xuất vào năm 2016 [5] với mục đích tìm kiếm cấu trúc mạng CNN với các tham số ít hơn, nhưng có độ chính xác tương đương với một số mô hình nổi tiếng khác Điều này cho phép giảm hàm lượng tính toán và tốc độ được cải thiện tương đối do số lượng tham số ít đi Cấu trúc mạng SqueezeNet được mô tả như Hình 2, bắt đầu với một lớp tích chập, tiếp theo là 8 khối (từ fire2- fire9) và cuối cùng là một khối tích chập Số lượng bộ lọc được tăng dần từ đầu mạng đến cuối mạng SqueezeNet
sử dụng phép gộp cực đại (max-pooling) với bước trượt (stride) bằng 2 Chúng ta có thể thấy ở Hình 2, các lớp
"Squeeze" là các lớp tích chập được tạo thành từ các bộ lọc 1×1 và các lớp "mở rộng" này là các lớp tích chập với các
bộ lọc 1×1 và 3×3 Bằng cách giảm số lượng bộ lọc trong lớp "squeeze" vào lớp "mở rộng", làm giảm số lượng kết nối vào các bộ lọc 3×3 này, do đó làm giảm tổng số tham số Tác giả của mô hình SqueezeNet gọi kiến trúc cụ thể này là
"mô-đun lửa" và nó đóng vai trò là khối xây dựng cơ bản cho kiến trúc Squeezenet
C Mạng MobileNet
Mạng MobileNet là một mô hình của nhóm tác giả đến
từ Google, cấu trúc mạng được đề xuất cho phép xây dựng một mạng nhỏ phù hợp với các điều kiện hạn chế về tài nguyên (thời gian, kích thước) và được ứng dụng trên các thiết bị nhỏ gọn có tài nguyên hạn chế [6] MobileNet chủ yếu tập trung vào việc tối ưu hóa độ trễ nhưng cũng tập trung cho các mạng nhỏ trong việc cải thiện tốc độ Cấu trúc mạng MobileNet được xây dựng từ việc sử dụng cách tính tích chập có tên là Depthwise Separable Convolution (DSC)
Trang 3để giảm kích thước mô hình và giảm độ phức tạp tính toán
DSC được chia làm hai phần: tích chập theo chiều sâu (DC:
Depthwise Convolution) và tích chập theo điểm (PC:
Pointwise Convolution) [6] Sau mỗi lớp tích chập
MobileNet sẽ sử dụng hàm chuẩn hóa theo cụm (BN: Batch
Normalization) và hàm kích hoạt ReLu
Conv1
fire2
fire3
fire4
fire5
fire6
fire7
fire8 fire9 conv10
Maxpool/2
Maxpool/2
Maxpool/2
Hình 2: Khối SqueezeNet [5]
Giả sử M là số lượng đầu vào của kênh, N là số lượng
đầu ra của kênh, D k là kích thước bộ lọc (kernel), D f là kích
thước của đặc trưng tín hiệu
Khi đó, chi phí tính toán của DC là:
Chi phí tính toán cho PC:
Tổng chi phí tính toán của DSC là:
D D M D D +M N D D (3)
Nếu không sử dụng DSC mà chỉ sử dụng phép tính chập
bình thường thì chi phí tính toán là:
D D M N D k k fD f (4)
Do đó, chi phí tính toán sẽ giảm:
2
D Mạng GoogLeNet
Mô hình mạng GoogleNet được đưa ra vào năm 2014 [7]
và giành được chiến thắng ở cuộc thi ImageNet Mô hình
tập trung vào việc giải quyết vấn đề kích thước nào của bộ
lọc tích chập là tốt nhất, việc kết hợp các bộ lọc có kích
thước khác nhau đôi khi sẽ mang lại hiệu quả tốt Khối tích
chập cơ bản trong mô hình GoogleNet được gọi là Inception
như ở Hình 3
Khối Inception bao gồm bốn nhánh song song với nhau
Ba nhánh đầu sử dụng các tầng tích chập với kích thước cửa
sổ trượt lần lượt là 1×1, 3×3, và 5×5 để trích xuất thông tin
từ các vùng không gian có kích thước khác nhau Hai nhánh giữa thực hiện phép tích chập 1×1 trên dữ liệu đầu vào để giảm số kênh đầu vào, từ đó giảm độ phức tạp của mô hình Nhánh thứ tư sử dụng một tầng gộp cực đại (max-pooling) kích thước 3×3, theo sau là một tầng tích chập 1×1 để thay đổi số lượng kênh Cả bốn nhánh sử dụng bộ lọc phù hợp để đầu vào và đầu ra của khối có cùng chiều cao và chiều rộng Cuối cùng, các đầu ra của mỗi nhánh sẽ được nối lại theo chiều kênh để tạo thành đầu ra của cả khối Các tham số thường được tinh chỉnh của khối Inception là số lượng kênh đầu ra mỗi tầng Mô hình GoogleNet là tập hợp các khối Inception lại với nhau để tạo thành một mạng hoàn chỉnh
Ghép nối
5x5 Conv 3x3 Conv
1x1 Conv 1x1 Conv
1x1 Conv
3x3 Maxpooling 1x1 Conv
Đầu vào
Hình 3: Cấu trúc khối Inception [7]
E Mạng RepVGG
Với các yêu cầu đòi hỏi ngày càng cao đối với học sâu, các mô hình mạng CNN được thiết kế ngày càng phức tạp hơn ResNet, Inception, MobileNet,… mang lại độ chính xác cao nhưng đồng thời cũng tồn tại những bất lợi Sự phức tạp
mô hình khiến việc xây dựng mô hình trở nên khó khăn hơn đồng thời cũng dẫn dến việc suy luận chậm hơn hay làm tăng việc chiếm tài nguyên hệ thống Xuất phát từ mô hình mạng VGG [8] với kiến trúc đơn giản chỉ gồm các lớp tích chập Conv, ReLu và pooling Mô hình mạng RepVGG được cải tiến từ mạng VGG nhằm sở hữu cấu trúc mạng đơn giản
mà vẫn đảm bảo hiệu quả [9] Cấu trúc các khối RepVGG như Hình 4
+
+
+
+
3x3
3x3
3x3 Stride = 2
(a) RepVGG tranning (b) RepVGG inference
Hình 4: Cấu trúc khối RepVGG [9]
Trang 4Mô hình RepVGG được chia thành 5 phần, trong mỗi
phần sẽ gồm các khối tương tự nhau về cấu trúc Các lớp
đầu tiên trong các khối gồm các lớp Conv có bước trượt
bằng 2 để thực hiện down-sampling
Trong khối training (Hình 4A), khi tín hiệu đầu vào
được truyền vào từng đoạn, tín hiệu sẽ được đi qua đồng
thời 2 lớp Conv3x3 và Conv1x1 với bước trượt bằng 2, sau
đó đầu ra của hai lớp này sẽ được cộng lại với nhau và đi
qua một lớp kích hoạt ReLU cuối cùng Tín hiệu của khối
đầu tiên được tiếp tục sử dụng cho khối tiếp theo Từ khối
thứ hai trở đi, cấu trúc các khối là giống hệt nhau Các khối
đều gồm ba nhánh: Conv3x3 với bước trượt bằng 1,
Conv1x1 với bước trượt bằng 1, nhánh Identity sử dụng BN
Đầu ra của các nhánh cũng sẽ được cộng lại với nhau trước
khi đưa qua một lớp ReLU như trong Hình 4a
Trong khối inference (Hình 4b), cấu trúc của RepVGG
có sự thay đổi nhẹ Thay vì sử dụng các nhánh Conv rồi
cộng các đầu ra lại với nhau như trong khối training thì
trong inference, tín hiệu đầu vào khi đi qua mô hình sẽ chỉ
còn đi qua các lớp Conv3x3 và lớp kích hoạt ReLU liên tiếp
(Hình 4B) Tuy nhiên đây là điểm phức tạp khi xây dựng mô
hình này, vì các Conv3x3 không chỉ đơn giản là một
Conv3x3 với trọng số được lấy ngẫu nhiên Trọng số của
các Conv3x3 trong inference sẽ được triển khai bằng cách
cộng các trọng số của các nhánh Conv3x3, Conv1x1 và
Identity (nếu có) trong training Phương pháp này được gọi
là cấu trúc lại các tham số (reparameterization)
Các phần có cấu trúc khối tương tự nhau, điểm khác biệt
duy nhất của các phần đó là số lượng của các khối trong
phần đó
III SO SÁNH VÀ THẢO LUẬN
A Tập dữ liệu
Các mô hình sử dụng cùng một tập dữ liệu
HisarMod2019.1 [1] để phân loại điều chế tín hiệu Tập dữ
liệu bao gồm 26 dạng điều chế tín hiệu như trong Bảng I với
SNR từ -20 dB đến +18 dB Số lượng mẫu tín hiệu là
780 000 mẫu tín hiệu có độ dài 1024 cho 5 loại nhiễu khác
nhau trong các điều kiện kênh lý tưởng, tĩnh, Rayleigh,
Rician (k = 3) và Nakagami-m (m = 2), 520 000 mẫu tín
hiệu cho huấn luyện và dữ liệu còn lại cho kiểm tra
Các mô hình huấn luyện sử dụng số vòng lặp (epoch) là
10, mini-batch size là 64, tốc độ học khởi tạo là 0,001 Thiết
bị sử dụng để mô phỏng là 3.70 GHz CPU, 32GB RAM, và
NVIDIA GeForce GTX 3060ti GPU
B Thảo luận kết quả
Trong phần này, nhằm đánh giá hiệu quả các mô hình cấu
trúc mạng ResNet18, SqueezeNet, MobileNet, GoogleNet và
RepVGG, nhóm tác giả sử dụng mô phỏng trên Matlab làm
công cụ mô phỏng Các kết quả so sánh độ chính xác của các
mô hình thể hiện ở Hình 5
Từ kết quả mô phỏng, mô hình GoogleNet cho kết quả
thấp nhất so với các mô hình khác, độ chính xác cao nhất là
56,76% tại +18 dB Với hai mô hình MobileNet và
RepVGG cho kết quả tốt hơn so với GoogleNet lần lượt là
khoảng 10% và 15% cho SNR từ -20 dB đến 18 dB Với ưu
điểm của mô hình ResNet là bổ sung thông tin tín hiệu và
ưu điểm của mô hình SqueezeNet là giảm tham số tính toán
làm tăng tốc độ mô hình Hai mô hình đều cho kết quả phân
loại tín hiệu tốt ở đoạn SNR cao từ +2 dB đến +18 dB, trong
đó mô hình SqueezeNet cho kết quả phân loại cao nhất so với các mô hình khác (độ chính xác đạt được từ 97,5% cho SNR > +8 dB)
Khi xem xét với ma trận nhầm lẫn (confusion matrix) cho hiệu suất phân loại 26 tín hiệu của các mô hình tại SNR=10 dB được chỉ ra trong Hình 6 phân tích kỹ hơn Từ confusion matrix, có thể thấy một vài loại điều chế tín hiệu mức thấp như AM, FM cho kết quả nhận dạng phân loại ít
bị nhầm lẫn, có độ chính xác trên 70% tại +10dB SNR và ít
bị lỗi hơn Với các tín hiệu điều chế mức cao như PSK, QAM cho độ chính xác dưới 60% tại +10dB SNR Có thể thấy các tín hiệu điều chế mức cao mặc dù cho tốc độ truyền dẫn nhanh hơn, nhưng khi phân loại điều chế tín hiệu có nhiều thay đổi khi tỷ lệ lỗi tăng, bởi thực tế sự phân bố chòm sao tín hiệu sát nhau khi bị ảnh hưởng do tạp nhiễu gây ra, làm giảm hiệu quả nhận dạng tín hiệu
Hình 5: So sánh các độ chính xác phân loại các mô hình
a) ResNet18
Trang 5b) MobileNet
c) SqueezeNet
d) GoogleNet
f) RepVGG
Hình 6: Ma trận nhầm lẫn phân loại tín hiệu các mô hình tại +10dB SNR
KẾT LUẬN Với sự phát triển của các mô hình học sâu áp dụng cho
nhiều lĩnh vực khác nhau, nhiều mô hình học sâu đã được sử
dụng cho nhiệm vụ nhận dạng phân loại tín hiệu điều chế vô
tuyến Trong bài báo này, nhóm tác giả đã khảo sát các mô
hình học sâu cho nhận dạng điều chế với 26 loại tín hiệu, với
tập dữ liệu mới dựa trên sự ảnh hưởng các loại nhiễu khác
nhau sát với điều kiện thực tế hơn Độ chính xác phân loại
cao trên một dải SNR từ -20 dB đến +18 dB, tuỳ thuộc vào
cấu trúc của các mô hình cho độ chính xác khác nhau Trong
các nghiên cứu tiếp theo, nhóm tác giả tập trung nghiên cứu
cải thiện các mô hình dựa trên các tính chất các mô hình đã
có, từ đó đưa ra mô hình giải quyết nhiều yêu cầu đầu ra hơn,
ví dụ vừa phân loại tín hiệu vừa nhận dạng tín hiệu điều chế Cuối cùng, với sự phát triển của cấu trúc mạng và phần cứng tính toán, phân loại điều chế dựa trên học sâu có thể được áp dụng rộng rãi trong các hệ thống truyền thông trong tương lai Hơn nữa, vì môi trường vô tuyến là đa dạng, một
số thông số môi trường thay đổi, gây ra sự không phù hợp giữa dữ liệu huấn luyện và suy luận dữ liệu, chắc chắn làm suy yếu hiệu suất phân loại nhận dạng tín hiệu, cần được tập trung nghiên cứu hơn nữa
REFERENCES [1] Xiaoyu Liu; Diyu Yang; Aly El Gamal, “Deep Neural Network Architectures for Modulation Classification,” 2017 51st Asilomar Conference on Signals, Systems, and Computers
[2] Kürşat Tekbıyık, Ali Rıza Ekti, Ali Görçin, Güneş Karabulut Kurt, Cihat Keçeci, “Robust and Fast Automatic Modulation Classification with CNN under Multipath Fading Channels,” 2020 IEEE 91st Vehicular Technology Conference (VTC2020-Spring)
[3] K He, X Zhang, S Ren, and J Sun, “Deep residual learning for image recognition,” CoRR, vol abs/1512.03385, 2015
[4] G Huang, Z Liu, and K Q Weinberger, “Densely connected convolutional networks,” CoRR, vol abs/1608.06993, 2016 [5] Iandola, Forrest N., Song Han, Matthew W Moskewicz, Khalid Ashraf, William J Dally, and Kurt Keutzer "SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5 MB model size." Preprint, submitted November 4, 2016
https://arxiv.org/abs/1602.07360 [6] Sandler, M., Howard, A., Zhu, M., Zhmoginov, A and Chen, L.C
"MobileNetV2: Inverted Residuals and Linear Bottlenecks." In 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp 4510-4520) IEEE
[7] Szegedy, Christian, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, and Andrew Rabinovich "Going deeper with convolutions." In Proceedings of the IEEE conference on computer vision and pattern recognition, pp 1-9 2015
[8] Karen Simonyan and Andrew Zisserman, “Very deep convolutional networks for large-scale image recognition,” arXiv:1409.1556, 2014 [9] Xiaohan Ding, Xiangyu Zhang, Ningning Ma, Jungong Han, Guiguang Ding, Jian Sun, “RepVGG: Making VGG-style ConvNets Great Again,” Computer Vision and Pattern Recognition (cs.CV); Artificial Intelligence (cs.AI); Machine Learning (cs.LG) arXiv:2101.03697
[10] M T J OShea, J Corgan, and T C Clancy, “Convolutional radio modulation recognition networks,” in International Conference on Engineering Applications of Neural Networks, Springer, 2016, pp 213–226
[11] S Ramjee, S Ju, D Yang, X Liu, A E Gamal, and Y C Eldar,
“Fast deep learning for automatic modulation classification,” arXiv pre print arXiv:1901.05850, 2019
[12] T J OShea, T Roy, and T C Clancy, “Over-the-air deep learning based radio signal classification,” IEEE J Sel Topics Signal Process., vol 12, no 1, pp 168–179, 2018
[13] S Peng et al., “Modulation classification based on signal constellation diagrams and deep learning,” IEEE Trans Neural Netw Learn Syst., vol 30, no 3, pp 718–727, Mar 2019
[14] J Ma, S.-C Lin, H Gao, and T Qiu, “Automatic modulation classification under non-Gaussian noise: A deep residual learning approach,” in Proc IEEE Int Conf Commun (ICC), May 2019, pp 1–6
[15] H Gu, Y Wang, S Hong, and G Gui, “Blind channel identification aided generalized automatic modulation recognition based on deep
learning,” IEEE Access, vol 7, pp 110722–110729, 2019