Chi phí – đám mây đen phủ bóng cuộc cách mạng ChatGPT.

Sự bùng nổ của AI tạo sinh (generative AI) đã gây bão trên toàn thế giới, nhưng có một câu hỏi hiếm khi được đặt ra: Ai có đủ khả năng chi trả?
OpenAI đã kiếm được khoảng 540 triệu USD trong năm ngoái khi phát triển ChatGPT và cho biết cần 100 tỉ USD để thực hiện tham vọng của mình, theo The Information.
“Chúng tôi sẽ trở thành công ty khởi nghiệp sử dụng nhiều vốn nhất trong lịch sử Thung lũng Silicon” – Sam Altman, nhà sáng lập OpenAI, nói trong hội thảo gần đây.
Khi Microsoft – công ty đã rót hàng tỉ USD đầu tư vào OpenAI – được hỏi về chi phí cho cuộc phiêu lưu AI này, công ty khẳng định đang theo dõi lợi nhuận của mình.
Xây dựng thứ gì đó thậm chí gần với quy mô của những gì OpenAI, Microsoft hay Google cung cấp đòi hỏi một khoản đầu tư lớn vào các con chip hiện đại và tuyển dụng các nhà nghiên cứu từng đoạt giải thưởng.
Nhà phân tích độc lập Jack Gold cho hay: “Mọi người không nhận ra rằng, để thực hiện một lượng đáng kể AI như ChatGPT cần lượng lớn sức mạnh xử lí. Và việc đào tạo những mô hình đó có thể tiêu tốn hàng chục triệu USD”.
“Có bao nhiêu công ty thực sự có đủ khả năng để mua 10.000 hệ thống Nvidia H100 với giá hàng chục nghìn USD mỗi hệ thống?” – ông đặt câu hỏi.
Theo AFP, câu trả lời là hầu như không có ai và trong lĩnh vực công nghệ, nếu không thể xây dựng cơ sở hạ tầng, các đơn vị sẽ thuê nó. Các công ty đáp ứng nhu cầu điện toán của mình bằng cách thuê ngoài từ Microsoft, Google và AWS của Amazon.
Và với sự ra đời của AI tạo sinh, sự phụ thuộc vào điện toán đám mây và những gã khổng lồ công nghệ ngày càng sâu, khiến những doanh nghiệp tương tự phải ở thế chủ động, các chuyên gia cảnh báo.
Stefan Sigg – Giám đốc sản phẩm của Software AG, công ty phát triển phần mềm cho doanh nghiệp – cho biết, chi phí không thể đoán trước của điện toán đám mây “là một vấn đề bị nhiều công ty đánh giá quá thấp”.
Stefan Sigg so sánh chi phí đám mây với hóa đơn tiền điện và lưu ý các doanh nghiệp không để tâm tới vấn đề này sẽ gặp “một bất ngờ lớn” nếu không kiểm soát chi phí của các kĩ sư trong quá trình tạo dựng công nghệ, bao gồm cả AI.
Giám đốc điều hành Microsoft Satya Nadella khẳng định, trí tuệ nhân tạo đang “đi đúng hướng”. Microsoft thừa nhận có rủi ro, nhưng nhấn mạnh, về AI, hãng phải “dẫn đầu làn sóng này”, giám đốc tài chính Amy Hood chia sẻ với các nhà phân tích trong tháng 5.
Sự phụ thuộc vào AI được cho là rất tốn kém và các công ty cũng như nhà đầu tư đang tìm kiếm các giải pháp thay thế để ít nhất là giảm hóa đơn.
“Đào tạo AI, đào tạo GPT sẽ trở thành một dịch vụ đám mây rất quan trọng trong tương lai” – Giám đốc điều hành Spectro Cloud Tenry Fu nói.
Giống như nhiều công ty khác trong lĩnh vực này, Spectro Cloud giúp các công ty tối ưu hóa công nghệ đám mây để giảm chi phí.
“Nhưng sau khi đào tạo, một công ty sẽ có thể lấy lại mô hình của họ để ứng dụng AI thực sự” và hi vọng sự phụ thuộc vào những gã khổng lồ trên nền tảng đám mây sẽ giảm bớt, ông nói thêm.
Các cơ quan quản lí đang trông đợi có thể theo kịp và không để những gã khổng lồ áp đặt các điều khoản của họ lên các công ty nhỏ hơn.
Theo nguồn sưu tầm.

Nhận tin tức mới nhất về An ninh mạng vào hộp thư của bạn

Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây