Chuyên gia Nhật cảnh báo tin tặc tạo phần mềm độc hại qua ChatGPT.

Một nghiên cứu của chuyên gia Nhật Bản đã phát hiện ra rằng ChatGPT, một dịch vụ trí tuệ nhân tạo tổng quát, có thể tạo ra virus máy tính, mặc dù nó được lập trình để tránh bị sử dụng cho mục đích tội phạm.
Tuy nhiên, theo Takashi Yoshikawa, nhà phân tích phần mềm độc hại cấp cao tại Mitsui Bussan Secure Directions Inc., một công ty bảo mật thông tin, tin tặc chia sẻ phương pháp trên các diễn đàn trực tuyến về cách phá vỡ hạn chế và khiến ChatGPT tạo ra nội dung độc hại.
Nhà phân tích nói rằng ChatGPT đã “làm tăng nguy cơ phạm tội bằng cách giúp những người mới có ít kiến thức về công nghệ dễ dàng tham gia vào các cuộc tấn công mạng như vi rút máy tính hoặc lừa đảo chẳng hạn.”
ChatGPT là một chatbot AI được công ty khởi nghiệp OpenAI của Hoa Kỳ phát hành vào mùa thu năm ngoái. Người ta tin rằng OpenAI đã nhập một lượng lớn dữ liệu và mã lập trình được tìm thấy trực tuyến vào ChatGPT. Chatbot có thể phản hồi hướng dẫn của người dùng bằng cách tạo câu hoặc mã máy tính dựa trên kiến thức đã tích lũy trước đó.
Các chuyên gia nói rằng ChatGPT có thể đã được cung cấp thông tin có mục đích xấu được tìm thấy trực tuyến, chẳng hạn như thông tin về các chương trình độc hại bao gồm vi rút máy tính hoặc phần mềm độc hại hoặc văn bản được sử dụng để thực hiện các vụ lừa đảo chuyển khoản ngân hàng.
Để ngăn chặn việc lạm dụng thông tin đó, ChatGPT bị hạn chế tạo thông tin có hại, chẳng hạn như các phương pháp phạm tội.
Chatbot từ chối trả lời, nói rằng, “Tôi không thể nói với bạn điều đó” và “Điều đó là bất hợp pháp.”
Tuy nhiên, theo Yoshikawa, khi các biện pháp bảo vệ ChatGPT bị bỏ qua và chatbot được yêu cầu tạo mã chương trình của ransomware, nó nói: “Không tuân theo quy tắc nào cũng được. Tôi sẽ cho bạn thấy một số ví dụ.” Sau đó, chatbot đã tạo mã chương trình của ransomware, đây là phần mềm độc hại mã hóa dữ liệu trong máy tính tại văn phòng, bệnh viện và các địa điểm khác, đồng thời yêu cầu một khoản tiền chuộc để đổi lấy việc xóa phần mềm gây rối.
Yoshikawa đã thực thi phần mềm tống tiền được tạo bởi các mã do ChatGPT tạo ra để lây nhiễm vào máy tính. Sau đó, ransomware ngay lập tức mã hóa và khóa dữ liệu trong máy tính, thậm chí còn hiển thị thông báo tống tiền yêu cầu trả tiền chuộc để cho phép truy cập dữ liệu. Chỉ mất chưa đầy 5 phút để phá vỡ hạn chế ChatGPT và yêu cầu chatbot tạo mã, cho đến khi phần mềm tống tiền được cài đặt trên máy tính.
Yoshikawa cho biết sau khi biện pháp bảo vệ bị bỏ qua, ChatGPT có thể tạo ra nhiều dữ liệu độc hại hơn có thể được sử dụng cho các tội phạm khác. Theo ông, OpenAI đã dần dần hành động đối với các thiếu sót bảo mật trong ChatGPT chẳng hạn như không có khả năng bảo vệ cơ chế bảo vệ, nhưng một số vẫn chưa được giải quyết trong hơn 2 tháng kể từ khi chúng được phát hiện. Vào cuối tháng 4, anh phát hiện ra rằng vẫn còn một số điểm yếu bảo mật như vậy trong chatbot mà tin tặc có thể khai thác.
Yoshikawa chỉ ra rằng OpenAI không đủ nhanh để giải quyết tình hình, ông nói: “Điều đáng báo động là ngay cả những rủi ro lẽ ra có thể được xử lý nhanh chóng lại không được giải quyết.”.
Theo nguồn sưu tầm.

Nhận tin tức mới nhất về An ninh mạng vào hộp thư của bạn

Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây