Thời gian gần đây, Chat GPT đã gây bão trong giới công nghệ toàn thế giới. Công nghệ siêu thú vị này phản hồi các truy vấn và trao đổi thông tin qua lại theo cách gần giống với con người. Những câu trả lời ấn tượng, với nội dung và dòng chảy của cuộc trò chuyện giữa người với người, tạo cảm giác như chúng ta đã có một bước đột phá về công nghệ, rất giống với Internet thuở sơ khai vào đầu những năm 1990.

Từ AI sơ khai đến chat GPT

Có thể nói, lịch sử trí tuệ nhân tạo (AI) cũng lâu đời như lịch sử Khoa học máy tính. Trong bài báo với chuyên đề “Máy tính và Trí thông minh”, Alan Turing đã xây dựng cái được gọi là Thử nghiệm Turing. Mục đích của bài kiểm tra này là đặt tiêu chuẩn để hiểu liệu một máy tính có thực sự “suy nghĩ” giống con người hay không hay con người phát hiện xem bên mà họ đang tương tác qua cuộc trò chuyện bằng văn bản là một người khác hay một máy móc. Nếu người thẩm vấn không thể biết liệu phía bên kia có phải là máy tính hay không, thì máy tính sẽ thắng. Cho đến nay, không có máy tính nào có thể vượt qua bài kiểm tra Turing.

Các nhà nghiên cứu AI đã và đang thúc đẩy một thuật toán/hệ thống/mô hình chung, phổ quát có thể học mọi thứ và bắt chước quy trình học tập của con người. Bất chấp mục tiêu đó, khả năng học tập linh hoạt của một đứa trẻ ba tuổi vẫn không thể so sánh được với các máy tính và thuật toán ngày nay. “Thất bại” trong việc đạt được  của AI đã dẫn đến một “Narrow AI” vào nửa cuối những năm 1970. Kể từ đó, sau khi không còn được ưa chuộng trong lĩnh vực nghiên cứu và tài trợ vào những năm 80 và đầu những năm 90, cái gọi là “narrow AI” đã đạt được rất nhiều thành quả — nhằm mục đích giải quyết các vấn đề cụ thể, nhận ra rằng các vấn đề lớn hơn. Ngày nay, các mạng nơ-ron thuộc mọi loại – sâu và nông – được sử dụng trong nhiều tác vụ, dễ dàng có sẵn cho tất cả mọi người (nghĩ về các công cụ như Tensorflow hoặc scikit-learn), tăng tốc với phần cứng chuyên dụng (Apple Neural Engine và Bộ xử lý Tensor của Google) và được coi là các công cụ kỹ thuật phần mềm khác để giải quyết các vấn đề cụ thể.

Narrow AI rất thú vị, hữu ích và tiếp tục tiến bộ không ngừng. Nhưng thẻ “narrow” của nó ở đó như một lời nhắc nhở rằng vượt qua Bài kiểm tra Turing không còn là mục tiêu nữa. Có thể trong tương lai một máy tính sẽ vượt qua Bài kiểm tra Turing, và tại thời điểm đó, chúng ta có thể tự hỏi mình liệu máy tính có thực sự suy nghĩ hay không, nhưng đó là một câu chuyện khác. Lý do đằng sau điều này là những tiến bộ được thực hiện trong vài năm qua bởi cái được gọi là Trí tuệ tổng hợp nhân tạo, về cơ bản quay trở lại để giải quyết vấn đề học tập lớn duy nhất (cũng tận dụng các khối xây dựng AI narrow) với các hệ thống có thể yêu cầu ít kỹ thuật hơn khi được điều chỉnh cho một vấn đề và miền cụ thể.

Sự phát triển của ChatGPT

ChatGPT là một chatbot dựa trên Mô hình Large Language Model (LLM) mà bạn có thể đặt câu hỏi (nhắc) và ChatGPT sẽ trả lời và viết văn bản cho câu hỏi đó. Lời nhắc cung cấp cho chatbot một bối cảnh trong đó sử dụng một kho nội dung và xác suất cụ thể để xác định từ nào phù hợp nhất, tạo thành câu mới. Nó tạo văn bản duy nhất mới và không hiển thị nội dung nguồn. Tất cả điều này có sẵn thông qua một ứng dụng web và API để sử dụng.

Tất cả những người dùng thử ChatGPT đều bị ấn tượng bởi chất lượng câu trả lời và có thể dễ dàng nghĩ rằng nó có thể vượt qua Bài kiểm tra Turing — và bằng cách tìm kiếm chủ đề trên web, người ta thậm chí có thể thấy mọi người tuyên bố điều đó. Như các nhà nghiên cứu của OpenAI rất muốn thừa nhận, nó còn lâu mới hoàn hảo. Không hiếm khi các câu trả lời sai, không nhất quán hoặc không chính xác. Tuy nhiên, bot hoạt động “đủ tốt” để mọi người có thể nghĩ rằng nó vẫn đang nói sự thật.

Công nghệ của OpenAI (và cụ thể là phiên bản phù hợp của GPT-3) đã được sử dụng cho GitHub Copilot, một công cụ có thể hỗ trợ các nhà phát triển phần mềm tạo ra phần mềm. Tuy nhiên, nó là một công cụ hỗ trợ, hiệu quả hoặc tăng tốc. Ngày nay, bạn không thể tạo phần mềm bằng Copilot và hy vọng nó sẽ thay thế nhóm Kỹ thuật phần mềm con người. Tất cả các Nhà phát triển phần mềm đều có thể hưởng lợi từ nó. Các nhà phát triển có kỹ năng – được gọi là Nhà phát triển 10x – sẽ được hưởng lợi từ việc tăng tốc độ bổ sung, đến mức có thể một ngày nào đó sẽ không thể hoặc không thể cạnh tranh được trong thị trường Kỹ thuật phần mềm nếu không có mã pin “Nhà phát triển 10x” và yêu cầu phải có những công cụ như vậy theo ý của họ.

Nghiên cứu và phát triển về chủ đề này sẽ không dừng lại. Mọi thứ sẽ ngày càng tốt hơn và những hạn chế sẽ ngày càng ít đi theo thời gian. Các nhà nghiên cứu và kỹ sư giỏi nhất thế giới sẽ nâng cao tiêu chuẩn hàng năm.

ChatGPT sẽ ảnh hưởng đến an ninh mạng như thế nào?

Tất cả công nghệ có thể được sử dụng cho mục đích tốt hoặc xấu. Và ChatGPT cũng không ngoại lệ. Rất nhiều điều đã được chia sẻ trên web về cách sử dụng ChatGPT một cách hiệu quả. Xét cho cùng, công cụ này đã tiếp thu một lượng kiến ​​thức đáng kể và – với những hạn chế được nêu rõ trước đó, nó có thể giúp kẻ xấu tự động hóa, tăng tốc và cải thiện các sáng kiến ​​có mục đích xấu hiện có.

Dưới đây là tóm tắt về cách sử dụng sai ChatGPT mà chúng tôi đã tìm thấy trực tuyến:

  • Mặc dù ChatGPT có các bộ lọc nội dung để tránh sử dụng sai mục đích, nhưng có nhiều ví dụ trực tuyến cho thấy cách sử dụng GUI web hoặc API có lập trình của ChatGPT, một người có thể bỏ qua các bộ lọc nội dung để lấy mã có hại (ví dụ: lấy mã nguồn để tạo phần mềm độc hại đa hình, khó hơn để phát hiện bằng công nghệ chống phần mềm độc hại). Kỹ thuật tương tự có thể được sử dụng để tìm một lỗ hổng được phát hiện gần đây cho phép kẻ tấn công đưa tải trọng độc hại vào nạn nhân. Trường hợp sử dụng này hạ thấp thanh công nghệ cho những người muốn gây hại. Nếu cần ít kỹ năng hơn cho một hành động xấu xa, thì nhiều người có thể làm điều đó hơn.
  • ChatGPT hoàn toàn tự động và không cần sự can thiệp của con người để tạo phản hồi, vì vậy có thể sử dụng ChatGPT theo chương trình (như một phần của chương trình máy tính) và song song (nhiều lần cùng một lúc). Điều này có nghĩa là nếu được sử dụng cho các cuộc tấn công lừa đảo hoặc lừa đảo có chủ đích hơn, nó có thể tinh vi hơn rất nhiều khi sử dụng kỹ thuật xã hội. Với ít lỗi dịch thuật hoặc ngôn ngữ hơn và được tự động hóa cho nhiều người hơn, việc tạo các chiến dịch lừa đảo quy mô lớn, tinh vi hơn và rất đáng tin cậy sẽ dễ dàng hơn.
  • Ngoài các chiến dịch lừa đảo trực tuyến, thường đề cập đến việc mạo danh email dựa trên văn bản, ChatGPT có thể được sử dụng cho các chiến dịch “Giả mạo sâu” quy mô lớn. ChatGPT đã được giới thiệu dưới dạng chatbot, sử dụng giao diện văn bản nhưng với các giai đoạn bổ sung trong đường dẫn dữ liệu, nó có thể được sử dụng để tạo đầu ra âm thanh và video. Bằng cách tìm hiểu cách một người cụ thể nhìn hoặc nói thông qua hình ảnh, video hoặc âm thanh đầu vào, công nghệ AI có thể tạo ra âm thanh đáng tin cậy của giọng nói và/hoặc hình ảnh động của một người (ví dụ như video Thu phóng) theo một kịch bản mà người thật chưa bao giờ thực hiện. Những Deep Fake này có thể được sử dụng cho các chiến dịch lừa đảo, cướp giật, gây hiểu lầm, mạo danh, bôi nhọ, tấn công thương hiệu, v.v.
  • Nếu một người có thể chỉ đạo hoặc sửa đổi nội dung mà ChatGPT sử dụng để ảnh hưởng đến cách ChatGPT tìm hiểu ngữ cảnh (điều này chưa thể thực hiện được trong các bản trình diễn công khai hiện có), thì việc tạo các chiến dịch thông tin sai lệch quy mô lớn sẽ có thể xảy ra. Điều này có thể dẫn đến các cơn bão Twitter lớn xuất hiện để ủng hộ một phiên bản thực tế hoặc sự kiện gây hiểu lầm hoặc các tường thuật sai tương tự khác.
  • ChatGPT hoặc các công nghệ tương tự mạnh đến mức chúng có khả năng được nhúng vào rất nhiều công nghệ và sản phẩm trong tương lai mà chúng ta có thể sẽ sử dụng hàng ngày, điều này mở ra các lỗ hổng nghiêm trọng (bạn có nhớ SolarWinds không?). Từng là một phần trong cuộc sống của chúng ta, ChatGPT có thể bị ảnh hưởng bởi “ảo giác”, là những hiểu biết hoặc kết luận sai lầm rút ra từ việc xử lý nội dung. Những ảo giác này có thể xảy ra một cách tình cờ (chẳng hạn như khi ô tô tự lái không “nhìn thấy” vật thể phía trước nó) hoặc có mục đích xấu.

Mặt khác, công nghệ ChatGPT cũng có thể được sử dụng để thúc đẩy chương trình về an ninh mạng. Ví dụ như:

  1. ChatGPT có thể được tích hợp vào chương trình đào tạo chống lừa đảo của công ty để nâng cao nhận thức của nhân viên và mức độ an toàn của quy trình.
  1. ChatGPT có thể hỗ trợ các nhà phân tích bảo mật trong việc phân tích và báo cáo về các mối đe dọa bảo mật trong thực tế, điều này sẽ giúp khám phá nhanh hơn, chia sẻ thông tin về mối đe dọa nhanh hơn và rộng hơn, đồng thời cuối cùng là khắc phục nhanh hơn khi tiếp xúc với các mối đe dọa đó.
  2. Khi công nghệ ChatGPT có chỗ đứng vững chắc hơn trong thế giới phát triển phần mềm, nó có thể được đào tạo với nội dung an toàn hơn. Các nhà phát triển phần mềm sử dụng loại công nghệ này sẽ sử dụng lại ngày càng nhiều phần mềm với ít lỗ hổng hơn, bảo trì dễ dàng hơn và tuân theo các nguyên tắc an toàn hơn, dẫn đến việc triển khai bảo mật theo thiết kế mạnh mẽ hơn.
  3. Việc sử dụng công nghệ này của các đội Red Team và Blue Team (tự động một phần hoặc hoàn toàn với ChatGPT) có thể được nâng lên một tầm cao mới khi thử nghiệm thâm nhập an ninh mạng, quét lỗ hổng, chương trình tiền thưởng lỗi, khám phá/phân tích bề mặt tấn công, v.v. .

ChatGPT cũng tạo cơ hội cho các nhà cung cấp dịch vụ an ninh mạng. Sự thiếu hụt các chuyên gia an ninh mạng là một thách thức mà các công ty trên toàn cầu phải đối mặt hàng ngày và có thể trong nhiều năm tới. Khả năng dựa vào các công cụ thông minh và tự chủ cao sẽ trở thành một nhu cầu.

Theo Nozomi Networks

VNCS Global là nhà phân phối của Nozomi Network – đối tác hoàn hảo mở ra khả năng giám sát toàn diện hạ tầng OT, IoT giúp các doanh nghiệp tăng tốc bảo mật và chuyển đổi kỹ thuật số.
☎️Điện thoại: (+84) 2462911419
📩Email: sales@vncsglobal.vn