CEO Google DeepMind: Khan hiếm chip nhớ HBM là điểm nghẽn kìm hãm AI toàn cầu
Demis Hassabis cảnh báo các giới hạn vật lý và chuỗi cung ứng chip nhớ đang cản trở việc mở rộng mô hình AI, buộc Google phải chi gần 185 tỷ USD để duy trì lợi thế.
Trong một cuộc phỏng vấn gần đây với CNBC, Demis Hassabis, CEO của Google DeepMind, đã thẳng thắn chia sẻ về những rào cản vật lý đang trực tiếp kìm hãm sự phát triển của trí tuệ nhân tạo (AI). Ông nhấn mạnh rằng mặc dù các thuật toán đang tiến bộ vượt bậc, nhưng khả năng phổ biến và triển khai các mô hình AI ở quy mô lớn đang đối mặt với thử thách nghiêm trọng từ chuỗi cung ứng phần cứng.
Áp lực hạ tầng trước sự bùng nổ của các mô hình ngôn ngữ lớn
Theo lãnh đạo Google DeepMind, nhu cầu thực tế cho các mô hình ngôn ngữ lớn như Gemini đang tăng trưởng với tốc độ vượt xa năng lực hạ tầng hiện có. Việc thử nghiệm và đánh giá các ý tưởng AI mới ở quy mô công nghiệp đòi hỏi một lượng chip xử lý và chip nhớ khổng lồ. Đây không chỉ là thách thức riêng của các startup mà ngay cả những tập đoàn công nghệ hàng đầu như Google cũng đang phải đối mặt.

Tình trạng này tạo ra một "điểm nghẽn" chiến lược: các nhà nghiên cứu không chỉ cần nguồn lực tài chính mà còn cần quyền tiếp cận trực tiếp vào nguồn cung chip để giảm thiểu các rào cản hành chính và kỹ thuật. Quan điểm này cũng tương đồng với nhận định của Mark Zuckerberg, CEO Meta, khi cho rằng sự sẵn có của phần cứng là yếu tố tiên quyết trong cuộc đua AI hiện nay.
Chip nhớ HBM: Thành phần chiến lược trong kỷ nguyên AI
Mặc dù Google đã đạt được những bước tiến quan trọng trong việc tự phát triển đơn vị xử lý Tensor (TPU) để phục vụ nhu cầu nội bộ và dịch vụ đám mây, tập đoàn này vẫn chưa thể đạt được sự tự chủ hoàn toàn. Các hệ thống AI hoàn chỉnh vẫn phụ thuộc chặt chẽ vào các đối tác cung ứng linh kiện thiết yếu, đặc biệt là các nhà sản xuất chip nhớ hàng đầu thế giới như Samsung, Micron và SK Hynix.

Điểm khác biệt lớn nhất nằm ở nhu cầu về RAM băng thông cao (HBM). So với các loại chip nhớ thông thường dùng trong máy tính cá nhân (PC) hay laptop, chip HBM có cấu trúc phức tạp hơn nhiều và chi phí sản xuất cực kỳ đắt đỏ. Sự mất cân đối giữa cung và cầu đối với loại linh kiện này không chỉ làm chậm tiến độ nghiên cứu AI mà còn đẩy giá thành các thiết bị điện tử tiêu dùng khác lên mức cao kỷ lục, do các nhà sản xuất phải ưu tiên phân bổ nguồn lực cho mảng AI có lợi nhuận cao hơn.
Chiến lược đầu tư hàng trăm tỷ USD của Google
Bất chấp những rào cản từ chuỗi cung ứng, Google cho thấy quyết tâm không giảm tốc trong cuộc đua công nghệ. Theo báo cáo tài chính quý IV/2025, tập đoàn dự kiến sẽ rót khoảng 175-185 tỷ USD vào cơ sở hạ tầng và chip AI trong năm 2026. Đây là một con số khổng lồ, minh chứng cho việc chuyển dịch trọng tâm từ phần mềm sang việc làm chủ hạ tầng phần cứng.
Phát biểu của Demis Hassabis một lần nữa tái khẳng định một thực tế mới: trong kỷ nguyên trí tuệ nhân tạo, lợi thế cạnh tranh không chỉ đến từ những thuật toán ưu việt mà còn nằm ở khả năng sở hữu và vận hành hệ thống phần cứng quy mô nhất. Khi giới hạn vật lý trở thành rào cản, những đơn vị nắm giữ được nguồn cung chip nhớ và năng lực tính toán sẽ là những người dẫn dắt cuộc chơi toàn cầu.
