Nền tảng chia sẻ thông tin về mối đe dọa VirusTotal vừa công bố nghiên cứu mới, cho thấy cách Trí tuệ nhân tạo (AI) có thể được sử dụng bởi những người bảo vệ mạng để nâng cao phân tích mã độc hại.
Qua nghiên cứu này, VirusTotal phát hiện rằng AI rất hiệu quả trong việc phân tích mã độc hại, nhận diện được 70% mã kịch bản độc hại nhiều hơn so với các kỹ thuật truyền thống một mình.
Các nhà nghiên cứu cũng quan sát thấy rằng AI có thể chính xác hơn đến 300% so với các kỹ thuật truyền thống trong việc phát hiện những cố gắng của mã kịch bản độc hại nhằm vào thiết bị thông qua lỗ hổng hoặc kỹ thuật tận dụng phổ biến.
Những kết quả này là một phần của báo cáo mang tựa đề “Bảo vệ Người bảo vệ: Cách AI đang hình thành phân tích mã độc hại,” trong đó VirusTotal, do Google sở hữu, phân tích hàng trăm nghìn mẫu mã độc hại trong suốt một giai đoạn 6 tháng.
Tại Trung tâm Kỹ thuật An toàn Google (GSEC) hàng đầu châu Âu ở Tây Ban Nha, đội ngũ cho biết các mô hình ngôn ngữ lớn rất xuất sắc trong việc tạo ra mã, vì vậy họ muốn khám phá cách mô hình Trí tuệ Nhân tạo có thể hiểu mã nhất là trong lĩnh vực an ninh mạng.
Hội nhập An ninh mạng
Một số tác nhân đe dọa sử dụng AI nhưng với khả năng của Google có thể mở rộng và sử dụng AI để bảo vệ vẫn là một lợi thế.
Ngoài ra, Liên minh châu u đã tuyên bố cần đến 200.000 chuyên gia an ninh mạng- nhiều hơn so với số lượng hiện có. Phân tích mã độc hại là một trong những kỹ năng yêu cầu kỹ thuật cao, thường chỉ có sẵn cho các chức năng an ninh lớn và có nguồn lực tốt.
Nghiên cứu được công bố của Google cho thấy cách AI có thể giúp phân tích mã độc hại nhanh hơn, chính xác hơn và dễ tiếp cận hơn đối với những người không có kiến thức hoặc kinh nghiệm chuyên sâu.
Các công cụ AI có thể giải thích cho người phân tích bằng ngôn ngữ đơn giản liệu mã có phải là độc hại và mục đích của nó là gì.
Trí tuệ nhân tạo có tạo ra mã độc?
Một trong những lo ngại lớn xoay quanh những kẻ tấn công là mối đe dọa lợi dụng AI để dễ dàng tạo ra mã độc và phần mềm độc hại.
Nhiều chuyên gia an ninh mạng thừa nhận AI có thể được sử dụng để tạo ra các chiến dịch kỹ thuật vô cùng hiệu quả, nhưng vẫn còn những câu hỏi xung quanh việc liệu nó có được sử dụng để viết phần mềm độc hại hay không. Rất khó để xác định mã nguồn được tạo ra bởi AI.
Trong tương lai, các băng nhóm ransomware sẽ không tránh khỏi việc phụ thuộc nhiều hơn vào các công cụ AI để cải thiện hoạt động của họ, ví dụ như sử dụng các mô hình ngôn ngữ lớn để viết email lừa đảo tốt hơn.
Nguồn: Infosecurity Magazine