Lợi dụng API GPT-3 mà OpenAI công khai, tin tặc đã thiết kế để tạo ra những phiên bản ChatGPT độc hại.
Mới đây, các nhà nghiên cứu cho biết tin tặc đã tìm ra cách để vượt qua những hạn chế của ChatGPT và đang sử dụng kẽ hở này để yêu cầu chatbot viết mã độc và email lừa đảo, theo ArsTechnica.
ChatGPT là một chatbot sử dụng trí tuệ nhân tạo để trả lời các câu hỏi và thực hiện các tác vụ theo cách bắt chước con người. Mọi người có thể sử dụng nó để tạo ra các bài viết, gõ lệnh code cơ bản và làm những việc khác.
ChatGPT được thiết lập để chủ động chặn các yêu cầu tạo nội dung có tính bất hợp pháp. Như những yêu cầu viết mã độc để đánh cắp dữ liệu từ thiết bị bị tấn công hoặc viết email lừa đảo. Thông thường, ChatGPT sẽ từ chối và thay vào đó sẽ trả lời rằng nội dung này là bất hợp pháp và gây hại.
Tuy nhiên, tin tặc giờ đây đã tìm ra một cách đơn giản để vượt qua những hạn chế đó và đang sử dụng nó để bán các dịch vụ bất hợp pháp trên một diễn đàn ngầm, theo nghiên cứu từ hãng bảo mật Check Point Research.
Kẽ hở kỹ thuật này được khai thác bằng cách sử dụng giao diện lập trình ứng dụng cho một trong các mô hình GPT-3 của OpenAI được gọi là text-davinci-003, thay vì ChatGPT. GPT-3 là một mô hình biến thể được thiết kế riêng cho các ứng dụng chatbot.
OpenAI cung cấp API GPT-3 và các API mô hình khác cho các nhà phát triển để họ có thể tích hợp bot AI vào ứng dụng của mình. Hóa ra các phiên bản API này lại không thực thi các hạn chế đối với nội dung độc hại.
“Phiên bản hiện tại của API OpenAI được sử dụng bởi các ứng dụng bên ngoài (chẳng hạn tích hợp mô hình GPT-3 của OpenAI với các kênh Telegram) và gần như không có bất kỳ biện pháp chống lạm dụng nào”, báo cáo viết.
“Kết quả là, nó cho phép tạo nội dung độc hại, chẳng hạn như email lừa đảo và mã độc, mà không có giới hạn hoặc rào cản giống như cách ChatGPT đã đặt ra đối với người dùng phổ thông”, báo cáo phân tích chỉ rõ.
Trên diễn đàn, một người dùng đang rao bán phần mềm kết hợp API GPT-3 với ứng dụng nhắn tin Telegram. Trong đó, 20 câu hỏi đầu tiên là miễn phí, kể từ câu hỏi thứ 21 sẽ bị tính phí 5,5 USD/100 tin nhắn.
Các nhà nghiên cứu của Check Point đã kiểm tra xem API GPT-3 hoạt động tốt như thế nào. Kết quả, nó đã tạo ra một email lừa đảo và một tập lệnh đánh cắp tài liệu PDF từ máy tính bị nhiễm mã đọc và gửi chúng cho kẻ tấn công thông qua FTP.
Trong khi đó, những người khác tham gia diễn đàn này đang sử dụng GPT-3 để tạo ra những nội dung độc hại miễn phí. “Đây là một tập lệnh nhỏ để giúp bạn bỏ qua các hạn chế của ChatGPT để sử dụng nó cho bất cứ điều gì bạn muốn, bao gồm cả việc phát triển phần mềm độc hại”, một người dùng đã viết.
Tháng trước, các nhà nghiên cứu của Check Point đã ghi lại cách ChatGPT có thể được sử dụng để viết phần mềm độc hại và tin nhắn lừa đảo. “Trong khoảng thời gian từ tháng 12/2022 đến tháng 1/2023, vẫn có thể dễ dàng sử dụng giao diện người dùng bản web của ChatGPT để tạo phần mềm độc hại và email lừa đảo và dựa trên cuộc trò chuyện của tội phạm mạng, chúng tôi cho rằng hầu hết các ví dụ mà chúng tôi trình bày đều được tạo ra sử dụng giao diện người dùng web,” nhà nghiên cứu của Check Point, ông Serge Shykevich đã viết trong một email.
“Thời gian gần đây, có vẻ như các cơ chế chống lạm dụng tại ChatGPT đã được cải thiện đáng kể, vì vậy tội phạm mạng hiện đã chuyển sang API của ChatGPT với ít hạn chế hơn nhiều”, nhà nghiên cứu này nói thêm.
Trong thần thoại Hy Lạp, chiếc hộp Pandora là một chiếc hộp mà nàng Pandora – người phụ nữ đầu tiên đến thế giới loài người sở hữu. Pandora đã được thần Zeus dặn kỹ rằng không được mở chiếc hộp đó ra. Nhưng với sự tò mò của mình, Pandora đã mở chiếc hộp ra và tất cả những gì trong chiếc hộp kì bí đó đã khiến cho tất cả những điều bất hạnh tràn ngập khắp thế gian: thiên tai, bệnh tật, chiến tranh…
Đại diện của OpenAI, công ty có trụ sở tại San Francisco, đơn vị phát triển ChatGPT, đã không trả lời ngay lập tức email hỏi liệu công ty có biết về kết quả nghiên cứu hoặc có kế hoạch sửa đổi API hay không.
Việc tạo ra mã độc và email lừa đảo chỉ là một cách mà ChatGPT và các biến thể GPT khác của nó đang mở ra chiếc hộp Pandora có thể tấn công thế giới bằng nội dung độc hại. Các dẫn chứng khác về việc sử dụng chatbot AI không an toàn hoặc phi đạo đức là xâm phạm quyền riêng tư và tạo ra thông tin sai lệch.
Tuy nhiên, những hacker mũ trắng có thể tận dụng kẽ hở này để tạo ra những nội dung độc hại, phi đạo đức hoặc bất hợp pháp tương tự để phát triển các phần mềm nhằm ngăn chặn những nội dung đó. Nhưng liệu rằng biện pháp này có đuổi kịp với những kẻ muốn sử dụng chatbot AI để tạo ra những nội dung độc hại thực sự hay không.
Theo nguồn sưu tầm.