Kỷ nguyên hack bằng trí tuệ nhân tạo đang đến gần.

Chúng ta cần chuẩn bị kỹ lưỡng để đối phó với mối hiểm họa tiềm tàng mới mang tên trí tuệ nhân tạo.
Bài viết dựa trên cuốn sách “A Hacker’s Mind: How the Powerful Bend Society’s Rules, and How to Bend Them Back” của chuyên gia bảo mật Bruce Schneier.
Giống như máy tính hay Internet, công nghệ trí tuệ nhân tạo (AI) được kỳ vọng phục vụ mọi lĩnh vực của cuộc sống. Tuy nhiên, nó cũng là cánh tay đắc lực giúp tội phạm mạng hay các thế lực công nghệ lớn thực hiện ý đồ xấu một cách hiệu quả và nhanh chóng hơn.
Ông Bruce Schneier, chuyên gia bảo mật máy tính, đồng thời là giảng viên về Chính sách công tại Đại học Harvard cho rằng chúng ta cần chuẩn bị kỹ lưỡng trước những hậu quả “không thể lường trước” do AI mang lại.
Ứng dụng AI vào hack
Tính khả thi của việc hack bằng trí thông minh nhân tạo (AI) phụ thuộc chủ yếu vào mục tiêu được nhắm đến. Cụ thể, các lựa chọn như đúng – sai, có – không cần được đưa ra rõ ràng và AI cũng cần phải nhận được phản hồi về độ hiệu quả của nó.
Sẽ còn rất lâu nữa các trí tuệ nhân tạo mới có khả năng tự mô phỏng cách thức con người làm việc. Tuy vậy, việc ứng dụng trí tuệ nhân tạo để hack đang xảy ra ngày một nhanh hơn.
Máy tính đã tăng tốc hoạt động hack trên 4 khía cạnh: tốc độ, quy mô, phạm vi và mức độ phức tạp. AI sẽ càng đẩy nhanh những xu hướng này hơn nữa.
Chuyên gia bảo mật Bruce Schneier.
Thứ nhất, tốc độ. Quá trình hack của con người có thể mất hàng tháng hoặc hàng năm, nhưng AI có thể đẩy nhanh điều này xuống hàng ngày, hàng giờ hoặc thậm chí vài giây.
Điều gì sẽ xảy ra khi bạn cung cấp cho AI toàn bộ mã số thuế của Mỹ và ra lệnh cho nó tìm ra tất cả cách mà một người có thể giảm thiểu nghĩa vụ thuế của mình?
Hoặc, trong trường hợp của một tập đoàn đa quốc gia, AI có thể phân tích và tối ưu hóa mã số thuế của toàn thế giới. Có rất nhiều cách để trí tuệ nhân tạo có thể lợi dụng lỗ hổng hay lách luật mà con người không thể lường trước được.
Tiếp theo, quy mô. Một khi các hệ thống AI tự học được khả năng hack, chúng sẽ có khả năng mở rộng quy mô rất nhanh. Vì vậy, khi AI bắt đầu phá vỡ các hệ thống tài chính, chúng sẽ trở thành những kẻ thống trị.

AI không cần ngủ. Và chúng sẽ hack theo những cách mà chúng ta không thể lường trước được.Chuyên gia bảo mật Bruce Schneier

Thị trường tín dụng, mã số thuế và luật nói chung của chúng ta thường có lợi cho những người giàu có, và AI sẽ đẩy nhanh sự bất bình đẳng đó. Những người đầu tiên có khả năng sử dụng AI để lợi dụng hệ thống tài chính nhằm theo đuổi lợi nhuận sẽ là nhà tài phiệt, ngân hàng toàn cầu và quỹ phòng hộ.
Về phạm vi, chúng ta có các hệ thống xã hội xử lý các vụ hack, nhưng những hệ thống này được phát triển khi hacker còn là con người và các vụ hack diễn ra với tốc độ của con người. Chúng ta không có hệ thống quản trị nào có thể xử lý nhanh chóng và hiệu quả hàng trăm, hàng nghìn các lỗ hổng được AI phát hiện.
Cuối cùng, ​sự phức tạp. Các vụ hack được AI hỗ trợ sẽ mở ra cánh cửa cho các chiến lược phức tạp ngoài những chiến lược mà trí óc con người có thể nghĩ ra. Các phân tích thống kê tinh vi của AI có thể khai thác những lỗ hổng mà các chiến lược gia và chuyên gia giỏi nhất cũng chưa bao giờ nhận ra.
Sự tinh vi đó có thể cho phép AI thao túng thị trường chứng khoán, hệ thống pháp luật hoặc truyền thông, tạo điều kiện cho các thế lực đứng sau nó làm mọi thứ mình muốn. Với tốc độ, quy mô, phạm vi và mức độ phức tạp của máy tính, việc hack sẽ trở thành một vấn đề mà chúng ta không thể quản lý được nữa.
Mối nguy hiểm tiềm tàng
Hiện tại, việc thế giới tràn ngập các hacker sử dụng trí tuệ nhân tạo vẫn là một viễn cảnh xa vời. Tuy vậy, việc công nghệ AI đang phát triển một cách chóng mặt đang là lời cảnh tỉnh dành cho các chuyên gia an ninh.
“Khi tôi còn là sinh viên đại học vào đầu những năm 1980, chúng tôi được dạy rằng máy tính sẽ không bao giờ làm chủ được trò chơi cờ vây vì độ phức tạp quá lớn của nó. Ngày nay, AI là những kiện tướng cờ vây”, ông Schneier viết.
Vì vậy, mặc dù AI đang là vấn đề của tương lai, chúng ta cần bắt đầu suy nghĩ về các giải pháp ngay bây giờ, bởi nếu chậm trễ, con người có thể sẽ phải đối mặt với những hậu quả lớn.
Ông Schneier lo ngại rằng trí tuệ nhân tạo có thể trở thành “tay sai” giúp tin tặc tìm kiếm những lỗ hổng bảo mật chưa từng có.
Có lẽ nơi đầu tiên để tìm kiếm các vụ hack do AI tạo ra là trong các hệ thống tài chính, vì những quy tắc đó được thiết kế để có thể điều khiển được bằng thuật toán. Các thuật toán giao dịch cao tần là một ví dụ ban đầu về điều này và sẽ trở nên phức tạp hơn nhiều trong tương lai.
Chúng ta có thể tưởng tượng việc trang bị cho AI tất cả thông tin, luật và quy định tài chính trên thế giới, cộng với các nguồn tin tức và kiến thức liên quan, sau đó gán cho nó mục tiêu là “lợi nhuận hợp pháp tối đa” hoặc có thể là “ lợi nhuận tối đa mà chúng ta có thể đạt được”.
Tôi đoán điều này không còn xa nữa, sẽ có hàng loạt vụ hack mới và hoàn toàn bất ngờ, thậm chí là các vụ hack ngoài tầm hiểu biết của con người. Chúng ta sẽ không bao giờ nhận ra chúng đang xảy ra.

Khi AI trở thành kẻ thù, chúng ta sẽ không thể theo kịp khả năng phi thường của nó.Chuyên gia bảo mật Bruce Schneier

Trong tương lai gần, nhiều khả năng chúng ta sẽ thấy các vụ hack dưới sự hợp tác giữa AI và con người. AI có thể xác định một lỗ hổng có thể khai thác, sau đó một kế toán viên hoặc luật sư thuế có kinh nghiệm sẽ sử dụng kinh nghiệm và khả năng phán đoán của họ để tìm hiểu xem liệu lỗ hổng đó có thể bị khai thác hay không.
Việc tìm kiếm các bản hack mới đòi hỏi chuyên môn, thời gian, sự sáng tạo và may mắn. Khi AI học được cách hack, điều đó sẽ thay đổi. Trí tuệ nhân tạo sẽ không bị hạn chế theo cách giống như con người.
Ứng phó với AI
Một số nhà nghiên cứu lo lắng về việc các AI mạnh mẽ có thể vượt qua những hạn chế do con người đặt ra và ​có khả năng ​sẽ thống trị xã hội. Mặc dù điều này vẫn chỉ nằm trong những bộ phim viễn tưởng, chúng ta vẫn cần xem xét và phòng ngừa mọi rủi ro.
Trong tương lai gần, việc lạm dụng AI sẽ được thực hiện bởi những người có quyền lực. Toàn bộ hệ thống trí tuệ nhân tạo hiện tại đều được lập trình bởi những tập đoàn lớn, thường là vì lợi ích của họ chứ không phải của người dùng.
Mặc dù một thiết bị kết nối internet như Alexa có thể mang lại nhiều tiện ích, nhưng đừng bao giờ quên rằng nó được thiết kế để bán các sản phẩm của Amazon.
Ông Schneier là tác giả của 17 cuốn sách về các chủ đề về bảo mật, bảo quyền riêng tư và mật mã máy tính.
Giống như trang web của Amazon khuyến khích người dùng mua các thương hiệu của họ thay vì hàng hóa chất lượng cao hơn của đối thủ cạnh tranh, không phải lúc nào những tập đoàn này cũng hoạt động vì lợi ích tốt nhất của khách hàng.
Hiện tại, chưa có có bất kỳ quy định liên quan đến việc cấm hay hạn chế sự phát triển của AI. Chắc chắn việc lợi dụng AI để hack là không thể tránh khỏi. Vì vậy, chúng ta cần xây dựng các cấu trúc quản lý mạnh mẽ có thể phản ứng nhanh chóng và hiệu quả đồng thời vô hiệu hóa các vụ tấn công của AI.
Thách thức này đặt ra những câu hỏi sâu hơn, khó hơn so với việc AI sẽ phát triển như thế nào hoặc cách các tổ chức có thể ứng phó với chúng. Những cuộc tấn công nào được coi là có lợi? Cái nào gây hại, và ai quyết định? Một số người nghĩ rằng các vụ hack làm giảm khả năng kiểm soát công dân của chính phủ thường là tốt.
Việc các tập đoàn công nghệ lớn đứng lên nắm quyền thay cho các thế lực chính trị chưa hẳn là điều tốt. Cần phải có rất nhiều chuyên gia kiểm tra và đánh giá các vụ tấn công trước khi chúng được tích hợp vào hệ thống xã hội của chúng ta, đặc biệt là đối với các tổ chức và tập đoàn giúp cho những vụ hack đó có thể xảy ra.
Điều này lại làm dấy lên nhiều câu hỏi khác. Các vụ hack do AI tạo ra nên được quản lý cục bộ hay toàn cầu? Bởi quản trị viên hay bằng cách trưng cầu dân ý? Hay có cách nào chúng ta có thể để các nhóm dân sự quyết định?
Việc chúng ta trao quyền sử dụng trí tuệ nhân tạo cho một số cá nhân và tổ chức sẽ định hình tương lai. Và ta sẽ cần đảm bảo rằng quyền lực đó được sử dụng một cách khôn ngoan.
Theo nguồn sưu tầm.

Nhận tin tức mới nhất về An ninh mạng vào hộp thư của bạn

Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây