Mỹ lo ngại AI trở thành vũ khí hủy diệt loài người

Báo cáo do chính phủ Mỹ ủy quyền đối tác thực hiện mới đây, cảnh báo AI có thể gây "mối đe dọa với loài người ở cấp độ tuyệt chủng", cần có ngưỡng kiểm soát.

Báo cáo do Time thu thập được có tên Kế hoạch hành động nhằm tăng cường sự an toàn và bảo mật đối với AI tiên tiến, trong đó đề xuất một loạt hành động và chính sách sâu rộng, chưa từng có về trí tuệ nhân tạo. Nếu được ban hành, chúng có thể sẽ thay đổi hoàn toàn ngành công nghiệp AI.

"Sự phát triển AI tiên tiến đặt ra những rủi ro cấp bách và ngày càng tăng đối với an ninh quốc gia", phần mở đầu báo cáo có đoạn. "Sự trỗi dậy của AI tiên tiến và siêu trí tuệ nhân tạo AGI có khả năng gây mất ổn định an ninh toàn cầu, theo những cách khiến mọi người gợi nhớ đến việc sử dụng vũ khí hạt nhân".

terminator-genisys-series-t-80-8258-6042-1710298463.png
Một robot trong bộ phim "Kẻ hủy diệt". Ảnh: Paramount

Cụ thể, báo cáo khuyến nghị Quốc hội Mỹ nên coi việc đào tạo các mô hình AI chứa nhiều hơn mức sức mạnh tính toán cụ thể là bất hợp pháp, tức cần xây dựng ngưỡng sức mạnh cho công cụ trí tuệ nhân tạo, được kiểm soát bởi một cơ quan chuyên trách về AI của liên bang. Cơ quan này sẽ được phép yêu cầu các công ty AI phải xin phép chính phủ để đào tạo và triển khai mô hình mới theo ngưỡng đề ra.

Việc kiểm soát đào tạo hệ thống AI tiên tiến trên một ngưỡng nhất định sẽ giúp "điều tiết" việc cạnh tranh giữa các nhà phát triển AI, từ đó góp phần làm giảm tốc độ cả về chạy đua sản xuất phần cứng lẫn phần mềm. Theo thời gian, cơ quan kiểm soát AI liên bang có thể nâng ngưỡng và cho phép đào tạo hệ thống AI tốt hơn khi "đã cảm thấy đủ an toàn", hoặc hạ ngưỡng khi "phát hiện mối nguy" trong các mô hình AI.

Bên cạnh đó, báo cáo đề xuất nhà chức trách nên "khẩn trương" xem xét việc kiểm soát xuất bản nội dung hoặc hoạt động nội bộ bên trong mô hình AI mạnh mẽ. Việc vi phạm có thể bị phạt tù. Ngoài ra, chính phủ nên thắt chặt hơn biện pháp kiểm soát sản xuất và xuất khẩu chip AI, đồng thời hướng nguồn tài trợ liên bang vào nghiên cứu điều chỉnh AI tiên tiến trở nên an toàn hơn.

Theo hồ sơ, báo cáo được thực hiện bởi Gladstone AI - công ty có bốn nhân viên, chuyên tổ chức các cuộc họp giao ban kỹ thuật về AI cho nhân viên chính phủ - do Bộ Ngoại giao Mỹ ủy quyền vào tháng 11/2022 như một phần của hợp đồng liên bang trị giá 250.000 USD. Báo cáo được gửi dưới dạng tài liệu dài 247 trang cho Bộ Ngoại giao Mỹ ngày 26/2.

Bộ Ngoại giao Mỹ chưa đưa ra bình luận.

Cũng theo hồ sơ, ba tác giả đã tìm hiểu vấn đề bằng cách nói chuyện với hơn 200 thành viên chính phủ, chuyên gia và nhân viên tại các công ty AI hàng đầu như OpenAI, Google DeepMind, Anthropic và Meta. Kế hoạch can thiệp chi tiết được phát triển trong 13 tháng. Tuy nhiên, trang đầu tiên của báo cáo nói "các khuyến nghị không phản ánh quan điểm của Bộ Ngoại giao hoặc Chính phủ Mỹ".

Theo Greg Allen, chuyên gia của Trung tâm Nghiên cứu Chiến lược và Quốc tế (CSIS), đề xuất trên có thể sẽ gặp khó về mặt chính trị. "Tôi nghĩ khuyến nghị khó được chính phủ Mỹ thông qua. Trừ khi có 'cú sốc ngoại sinh' nào đó, tôi nghĩ cách tiếp cận hiện tại khó thay đổi".

AI hiện phát triển bùng nổ với nhiều mô hình có thể thực hiện các công việc mà trước đây chỉ có trong khoa học viễn tưởng. Trước vấn đề này, nhiều chuyên gia lên tiếng cảnh báo về mức độ nguy hiểm. Tháng 3 năm ngoái, hơn 1.000 người, được xem là giới tinh hoa trong lĩnh vực công nghệ, như tỷ phú Elon Musk, nhà đồng sáng lập Apple Steve Wozniak, cũng ký một bức thư kêu gọi các công ty, tổ chức toàn cầu ngừng cuộc đua siêu AI trong sáu tháng để cùng xây dựng một bộ quy tắc chung về công nghệ này.

Giữa tháng 4/2023, CEO Google Sundar Pichai nói AI khiến ông mất ngủ nhiều đêm vì nó có thể gây nguy hiểm hơn bất kỳ thứ gì con người từng thấy, trong khi xã hội chưa sẵn sàng cho sự phát triển nhanh chóng của AI.

Một tháng sau, một thông điệp được ký bởi 350 người, là các lãnh đạo và chuyên gia đầu ngành AI, cũng đưa ra cảnh báo tương tự. "Giảm nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu, bên cạnh những rủi ro ở quy mô xã hội khác như đại dịch hay chiến tranh hạt nhân", thông báo do Trung tâm An toàn AI (CAIS) tại San Francisco đăng trên website tháng 5/2023.

Khảo sát của Đại học Stanford tháng 4/2023 cũng cho thấy 56% nhà khoa học máy tính và nhà nghiên cứu tin AI tạo sinh sẽ chuyển dịch sang AGI trong tương lai gần. Có 58% chuyên gia AI đánh giá AGI là "mối quan tâm lớn", 36% nói công nghệ này có thể dẫn đến "thảm họa cấp hạt nhân". Một số cho biết AGI có thể đại diện cho cái gọi là "điểm kỳ dị về công nghệ" - điểm giả định trong tương lai, khi máy móc vượt qua khả năng của con người theo cách không thể đảo ngược và có thể gây ra mối đe dọa cho nền văn minh.

"Sự tiến bộ về AI và các mô hình AGI vài năm qua thật đáng kinh ngạc", CEO DeepMind Hassabis nói với Fortune. "Tôi không thấy bất kỳ lý do nào khiến tiến độ đó chậm lại. Chúng ta chỉ còn khoảng vài năm, hoặc muộn nhất là một thập kỷ để chuẩn bị".

vnexpress.net

Đọc thêm

Những người thông minh hơn AI

Những người thông minh hơn AI

Google DeepMind và OpenAI đã giành huy chương vàng tại Olympic toán học, nhưng những thiếu niên người Mỹ trong đội tuyển vẫn đạt điểm cao hơn hai cỗ máy này.
Vinmec hợp tác cùng VinUni xây dựng thế hệ bác sĩ trẻ đạt chuẩn quốc tế

Vinmec hợp tác cùng VinUni xây dựng thế hệ bác sĩ trẻ đạt chuẩn quốc tế

Việc Vinmec và VinUni đóng góp tới 15 báo cáo tại Hội nghị Khoa học Quốc tế APAS & VAAS 2025, trong đó 6 báo cáo đến từ các bác sĩ nội trú VinUni, không chỉ khẳng định năng lực chuyên môn và công nghệ dẫn đầu của hệ thống mà còn cho thấy tầm nhìn dài hạn của 2 đơn vị thuộc hệ sinh thái Vingroup trong chiến lược đào tạo nguồn nhân lực y tế tinh hoa mang tầm vóc quốc tế.
Vì sao AI thất bại khi dự đoán sóng thần

Vì sao AI thất bại khi dự đoán sóng thần

AI có thể giúp cải thiện việc cảnh báo sớm sóng thần, nhưng giới hạn về dữ liệu thực tế đang cản trở khả năng dự đoán chính xác và kịp thời các thảm họa ven biển.
ChatGPT 5 đã rất gần

ChatGPT 5 đã rất gần

Các nguồn tin nội bộ cho biết dự kiến mô hình GPT-5 sẽ xuất hiện trong tháng 8. Mô hình sẽ được công khai phát hành trên Azure, Hugging Face và các nhà cung cấp đám mây lớn khác.
Nhiều trẻ em coi AI là bạn

Nhiều trẻ em coi AI là bạn

Khảo sát cho thấy nhiều thanh thiếu niên làm thân với chatbot AI, gây nên loạt vấn đề về kỹ năng tương tác, giao tiếp cộng đồng.
Đột phá trong công nghệ biến CO₂ thành đường ăn

Đột phá trong công nghệ biến CO₂ thành đường ăn

Một nhóm nghiên cứu tại Viện Công nghệ Sinh học Công nghiệp Thiên Tân, Viện Hàn lâm Khoa học Trung Quốc (CAS), vừa phát triển thành công phương pháp chuyển đổi methanol – một loại rượu đơn giản – thành đường trắng (sucrose), tạo tiền đề biến khí CO₂ thu giữ được thành thực phẩm.