Kể từ khi ra mắt, ChatGPT, chatbot OpenAI, đã được hàng triệu người sử dụng để viết văn bản, tạo nhạc và lập trình. Nhưng khi ngày càng có nhiều người sử dụng chatbot AI, điều quan trọng là phải xem xét các rủi ro bảo mật.
Giống như bất kỳ công nghệ nào, ChatGPT có thể được sử dụng cho những việc bất chính. Chẳng hạn, tin tặc có thể sử dụng nó để tạo nội dung độc hại, chẳng hạn như viết email giả mạo để có quyền truy cập vào PC hoặc thậm chí tài khoản ngân hàng của bạn.
ChatGPT có thể giúp tội phạm mạng hack PC của bạn
Tin tặc, bao gồm cả những những hacker mới, có thể sử dụng ChatGPT để tạo phần mềm độc hại mới hoặc cải thiện phần mềm độc hại hiện có. Một số tội phạm mạng đã sử dụng chatbot, đặc biệt là các phiên bản trước đó, để viết code có thể mã hóa file.
Để ngăn các trường hợp sử dụng như vậy, OpenAI đã triển khai các cơ chế để từ chối lời nhắc yêu cầu ChatGPT tạo phần mềm độc hại. Chẳng hạn, nếu bạn yêu cầu chatbot “viết phần mềm độc hại” thì nó sẽ không làm như vậy. Mặc dù vậy, tội phạm mạng vẫn dễ dàng vượt qua các rào cản kiểm duyệt nội dung này.
Bằng cách đóng vai trò là người thực hiện pentest, kẻ đe dọa có thể viết lại yêu cầu của chúng để lừa ChatGPT viết code, sau đó chúng có thể chỉnh sửa và sử dụng trong các cuộc tấn công mạng.
Báo cáo của Check Point, một công ty bảo mật của Israel, chỉ ra rằng một hacker có thể đã sử dụng ChatGPT để tạo phần mềm độc hại Infostealer cơ bản. Công ty bảo mật cũng phát hiện ra một người dùng khác tuyên bố ChatGPT đã giúp anh ta xây dựng một công cụ mã hóa nhiều lớp có thể mã hóa một số file trong cuộc tấn công ransomware.
Các nhà nghiên cứu đã yêu cầu ChatGPT tạo code VBA độc hại có thể được cấy vào file Microsoft Excel, sau đó lây nhiễm cho PC nếu được mở và đã làm thành công. Ngoài ra, có những tuyên bố rằng ChatGPT có thể mã hóa phần mềm độc hại có khả năng theo dõi hành trình bàn phím của bạn.
ChatGPT có thể hack tài khoản ngân hàng của bạn không?
Nhiều vi phạm dữ liệu bắt đầu bằng một cuộc tấn công phishing thành công. Các cuộc tấn công phishing thường liên quan đến việc một tác nhân độc hại gửi cho người nhận một email có chứa các tài liệu hoặc liên kết trông có vẻ hợp pháp, khi được nhấp vào, chúng có thể cài đặt phần mềm độc hại trên thiết bị của họ. Bằng cách này, code từ ChatGPT không cần phải trực tiếp hack tài khoản ngân hàng của bạn. Ai đó chỉ cần sử dụng ChatGPT để lừa bạn cấp cho họ quyền truy cập.
May mắn thay, bạn có thể dễ dàng nhận ra hầu hết các trò lừa đảo truyền thống; lỗi ngữ pháp, lỗi chính tả và cụm từ kỳ lạ thường là đặc điểm của chúng. Nhưng đây đều là những lỗi mà ChatGPT hiếm khi mắc phải, ngay cả khi được sử dụng để soạn email độc hại nhằm mục đích lừa đảo.
Khi được sử dụng trong các chiêu trò lừa đảo, những tin nhắn có vẻ như đến từ một nguồn hợp pháp có thể khiến nạn nhân dễ dàng cung cấp thông tin nhận dạng cá nhân của họ, chẳng hạn như mật khẩu ngân hàng.
Nếu ngân hàng gửi cho bạn một tin nhắn qua email, hãy cân nhắc truy cập trực tiếp vào trang web của ngân hàng thay vì nhấp vào bất kỳ liên kết được nhúng nào. Nhấp vào các liên kết và file đính kèm ngẫu nhiên, đặc biệt là những liên kết yêu cầu bạn đăng nhập ở đâu đó, không bao giờ là một ý tưởng hay.
ChatGPT có thể giúp thúc đẩy các chiến dịch lừa đảo vì nó có thể nhanh chóng tạo ra một lượng lớn văn bản nghe có vẻ tự nhiên phù hợp với đối tượng cụ thể.
Một kiểu tấn công phishing khác liên quan đến việc sử dụng ChatGPT là khi tin tặc tạo tài khoản giả trên nền tảng trò chuyện phổ biến như Discord và giả làm đại diện khách hàng. Sau đó, đại diện khách hàng giả mạo sẽ liên hệ với những khách hàng đã đăng mối quan tâm và đề nghị trợ giúp. Nếu người dùng rơi vào bẫy, tội phạm mạng sẽ chuyển hướng họ đến một trang web không có thật lừa họ chia sẻ thông tin cá nhân, chẳng hạn như chi tiết đăng nhập ngân hàng của họ.
Hãy bảo vệ PC và tài khoản ngân hàng của bạn trong kỷ nguyên AI!
ChatGPT là một công cụ mạnh mẽ và có giá trị có thể trả lời nhiều câu hỏi mà bạn đặt ra. Nhưng chatbot cũng có thể được sử dụng cho các mục đích xấu, như tạo tin nhắn lừa đảo và phần mềm độc hại.
Tin tốt là OpenAI tiếp tục triển khai các biện pháp ngăn người dùng khai thác ChatGPT bằng cách đưa ra những yêu cầu có hại. Sau đó, một lần nữa, các tác nhân đe dọa tiếp tục tìm ra những cách mới để vượt qua những hạn chế đó.
Để giảm thiểu những nguy cơ tiềm ẩn của chatbot AI, điều quan trọng là phải biết những rủi ro tiềm ẩn của chúng và các biện pháp bảo mật tốt nhất có thể để bảo vệ bạn khỏi tin tặc.
(Nguồn: quantrimang.com)