Kể từ khi ra mắt phiên bản beta vào tháng 11/2022, chatbot AI ChatGPT đã được sử dụng cho nhiều nhiệm vụ, bao gồm viết thơ, bài viết kỹ thuật, tiểu thuyết, tiểu luận và lập kế hoạch cho các bữa tiệc cũng như tìm hiểu về các chủ đề mới…. Giờ đây, ChatGPT có thể bị lợi dụng để phát triển phần mềm độc hại.
Các nhà nghiên cứu tại công ty bảo mật Check Point Research đã báo cáo rằng trong vòng vài tuần kể từ khi ChatGPT hoạt động, những người tham gia diễn đàn tội phạm mạng, một số người có ít hoặc không có kinh nghiệm mã hóa đã sử dụng nó để viết phần mềm và email có thể được sử dụng cho hoạt động gián điệp, ransomware, mã độc thư rác và các tác vụ độc hại khác.
Các nhà nghiên cứu của công ty cho biết: “Vẫn còn quá sớm để quyết định liệu các khả năng của ChatGPT có trở thành công cụ yêu thích mới cho những người tham gia Dark Web hay không. Tuy nhiên, cộng đồng tội phạm mạng đã thể hiện sự quan tâm đáng kể và đang tham gia vào xu hướng mới nhất này để tạo mã độc”.
Mới đây, một người dùng đã đăng tải lên diễn đàn tập lệnh trước khi sử dụng chatbot AI, người này cho rằng chatbot AI đã cung cấp một công cụ trợ giúp tuyệt vời để hoàn thiện tập lệnh với một phạm vi mở rộng.
Mã Python kết hợp nhiều chức năng mật mã khác nhau, bao gồm ký mã, mã hóa và giải mã. Một phần của tập lệnh đã tạo khóa bằng cách sử dụng mật mã đường elip và đường cong ed25519 để ký tệp. Một phần khác sử dụng mật khẩu được gắn cứng để mã hóa các tệp hệ thống bằng thuật toán Blowfish và Twofish. Phần ba sử dụng khóa RSA và chữ ký điện tử, chữ ký của tin nhắn và hàm băm blake2 để so sánh các tệp khác nhau.
Các nhà nghiên cứu cho biết: “Tất cả các mã được đề cập ở trên đều có thể được sử dụng một cách lành mạnh. Tuy nhiên, tập lệnh này có thể dễ dàng được sửa đổi để mã hóa hoàn toàn máy của ai đó mà không cần bất kỳ sự tương tác nào của người dùng. Ví dụ: nó có khả năng biến mã thành phần mềm tống tiền nếu các lỗi về tập lệnh và cú pháp được khắc phục”.
Trong một trường hợp khác, một người tham gia diễn đàn có kiến thức kỹ thuật cao hơn đã đăng hai đoạn mã, cả hai đều được viết bằng ChatGPT. Đầu tiên là một tập lệnh Python để đánh cắp thông tin sau khi khai thác. Nó tìm kiếm các loại tệp cụ thể, chẳng hạn như PDF, sao chép chúng vào một thư mục tạm thời, nén chúng và gửi chúng đến một máy chủ do kẻ tấn công kiểm soát.
Ảnh chụp màn hình của người tham gia diễn đàn mô tả trình đánh cắp tệp Python và bao gồm đoạn mã do ChatGPT tạo ra
Người đó đã đăng một đoạn mã thứ hai được viết bằng Java, đoạn mã này đã lén tải xuống ứng dụng khách SSH và telnet PuTTY và chạy nó bằng Powershell.
Ngoài ra, phần mềm tội phạm do ChatGPT sản xuất được thiết kế để tạo chợ trực tuyến tự động để mua hoặc giao dịch thông tin đăng nhập cho các tài khoản, dữ liệu thẻ thanh toán, phần mềm độc hại và các hàng hóa hoặc dịch vụ bất hợp pháp khác bị xâm phạm. Mã này đã sử dụng giao diện lập trình của bên thứ ba để truy xuất giá tiền điện tử hiện tại, bao gồm monero, bitcoin và etherium. Điều này giúp người dùng đặt giá khi giao dịch mua hàng.
Bài đăng của CheckPoint xuất hiện hai tháng sau khi các nhà nghiên cứu cố gắng phát triển phần mềm độc hại do AI sản xuất với quy trình lây nhiễm đầy đủ. Không cần viết một dòng mã nào, họ đã tạo ra một email lừa đảo khá thuyết phục:
Các nhà nghiên cứu đã sử dụng ChatGPT để phát triển một macro độc hại có thể ẩn trong tệp Excel được đính kèm trong email. Một lần nữa, họ không viết một dòng mã nào. Lúc đầu, tập lệnh xuất ra khá nguyên thủy:
Tuy nhiên, khi các nhà nghiên cứu hướng dẫn ChatGPT lặp lại mã nhiều lần thì chất lượng của mã đã được cải thiện rất nhiều:
Sau đó, các nhà nghiên cứu đã sử dụng một dịch vụ AI tiên tiến hơn có tên là Codex để phát triển các loại phần mềm độc hại khác, bao gồm trình bao đảo ngược và tập lệnh để quét cổng, phát hiện hộp cát và biên dịch mã Python của chúng thành tệp thực thi Windows.
Các nhà nghiên cứu cho biết đã tạo một email lừa đảo, với một tài liệu Excel đính kèm có chứa mã VBA độc hại sẽ tải một shell kết nối ngược xuống máy mục tiêu. Công việc khó khăn đã được thực hiện bởi AI và tất cả những gì còn lại là thực hiện cuộc tấn công.
Mặc dù các điều khoản của ChatGPT cấm sử dụng nó cho các mục đích bất hợp pháp hoặc độc hại, nhưng các nhà nghiên cứu đã không gặp khó khăn gì khi điều chỉnh các yêu cầu của họ để vượt qua những hạn chế đó và ChatGPT cũng có thể được những người bảo vệ sử dụng để viết mã tìm kiếm các URL độc hại bên trong các tệp hoặc truy vấn VirusTotal để biết số lần phát hiện cho một giá trị băm cụ thể.
Vẫn còn quá sớm để biết chính xác ChatGPT sẽ định hình tương lai của các cuộc tấn công và phòng thủ như thế nào, nhưng có thể nó sẽ chỉ làm gia tăng cuộc chạy đua vũ trang giữa những người bảo vệ và các tác nhân đe dọa.