Mỹ lo ngại AI trở thành vũ khí hủy diệt loài người

Báo cáo do chính phủ Mỹ ủy quyền đối tác thực hiện mới đây, cảnh báo AI có thể gây "mối đe dọa với loài người ở cấp độ tuyệt chủng", cần có ngưỡng kiểm soát.

Báo cáo do Time thu thập được có tên Kế hoạch hành động nhằm tăng cường sự an toàn và bảo mật đối với AI tiên tiến, trong đó đề xuất một loạt hành động và chính sách sâu rộng, chưa từng có về trí tuệ nhân tạo. Nếu được ban hành, chúng có thể sẽ thay đổi hoàn toàn ngành công nghiệp AI.

"Sự phát triển AI tiên tiến đặt ra những rủi ro cấp bách và ngày càng tăng đối với an ninh quốc gia", phần mở đầu báo cáo có đoạn. "Sự trỗi dậy của AI tiên tiến và siêu trí tuệ nhân tạo AGI có khả năng gây mất ổn định an ninh toàn cầu, theo những cách khiến mọi người gợi nhớ đến việc sử dụng vũ khí hạt nhân".

terminator-genisys-series-t-80-8258-6042-1710298463.png
Một robot trong bộ phim "Kẻ hủy diệt". Ảnh: Paramount

Cụ thể, báo cáo khuyến nghị Quốc hội Mỹ nên coi việc đào tạo các mô hình AI chứa nhiều hơn mức sức mạnh tính toán cụ thể là bất hợp pháp, tức cần xây dựng ngưỡng sức mạnh cho công cụ trí tuệ nhân tạo, được kiểm soát bởi một cơ quan chuyên trách về AI của liên bang. Cơ quan này sẽ được phép yêu cầu các công ty AI phải xin phép chính phủ để đào tạo và triển khai mô hình mới theo ngưỡng đề ra.

Việc kiểm soát đào tạo hệ thống AI tiên tiến trên một ngưỡng nhất định sẽ giúp "điều tiết" việc cạnh tranh giữa các nhà phát triển AI, từ đó góp phần làm giảm tốc độ cả về chạy đua sản xuất phần cứng lẫn phần mềm. Theo thời gian, cơ quan kiểm soát AI liên bang có thể nâng ngưỡng và cho phép đào tạo hệ thống AI tốt hơn khi "đã cảm thấy đủ an toàn", hoặc hạ ngưỡng khi "phát hiện mối nguy" trong các mô hình AI.

Bên cạnh đó, báo cáo đề xuất nhà chức trách nên "khẩn trương" xem xét việc kiểm soát xuất bản nội dung hoặc hoạt động nội bộ bên trong mô hình AI mạnh mẽ. Việc vi phạm có thể bị phạt tù. Ngoài ra, chính phủ nên thắt chặt hơn biện pháp kiểm soát sản xuất và xuất khẩu chip AI, đồng thời hướng nguồn tài trợ liên bang vào nghiên cứu điều chỉnh AI tiên tiến trở nên an toàn hơn.

Theo hồ sơ, báo cáo được thực hiện bởi Gladstone AI - công ty có bốn nhân viên, chuyên tổ chức các cuộc họp giao ban kỹ thuật về AI cho nhân viên chính phủ - do Bộ Ngoại giao Mỹ ủy quyền vào tháng 11/2022 như một phần của hợp đồng liên bang trị giá 250.000 USD. Báo cáo được gửi dưới dạng tài liệu dài 247 trang cho Bộ Ngoại giao Mỹ ngày 26/2.

Bộ Ngoại giao Mỹ chưa đưa ra bình luận.

Cũng theo hồ sơ, ba tác giả đã tìm hiểu vấn đề bằng cách nói chuyện với hơn 200 thành viên chính phủ, chuyên gia và nhân viên tại các công ty AI hàng đầu như OpenAI, Google DeepMind, Anthropic và Meta. Kế hoạch can thiệp chi tiết được phát triển trong 13 tháng. Tuy nhiên, trang đầu tiên của báo cáo nói "các khuyến nghị không phản ánh quan điểm của Bộ Ngoại giao hoặc Chính phủ Mỹ".

Theo Greg Allen, chuyên gia của Trung tâm Nghiên cứu Chiến lược và Quốc tế (CSIS), đề xuất trên có thể sẽ gặp khó về mặt chính trị. "Tôi nghĩ khuyến nghị khó được chính phủ Mỹ thông qua. Trừ khi có 'cú sốc ngoại sinh' nào đó, tôi nghĩ cách tiếp cận hiện tại khó thay đổi".

AI hiện phát triển bùng nổ với nhiều mô hình có thể thực hiện các công việc mà trước đây chỉ có trong khoa học viễn tưởng. Trước vấn đề này, nhiều chuyên gia lên tiếng cảnh báo về mức độ nguy hiểm. Tháng 3 năm ngoái, hơn 1.000 người, được xem là giới tinh hoa trong lĩnh vực công nghệ, như tỷ phú Elon Musk, nhà đồng sáng lập Apple Steve Wozniak, cũng ký một bức thư kêu gọi các công ty, tổ chức toàn cầu ngừng cuộc đua siêu AI trong sáu tháng để cùng xây dựng một bộ quy tắc chung về công nghệ này.

Giữa tháng 4/2023, CEO Google Sundar Pichai nói AI khiến ông mất ngủ nhiều đêm vì nó có thể gây nguy hiểm hơn bất kỳ thứ gì con người từng thấy, trong khi xã hội chưa sẵn sàng cho sự phát triển nhanh chóng của AI.

Một tháng sau, một thông điệp được ký bởi 350 người, là các lãnh đạo và chuyên gia đầu ngành AI, cũng đưa ra cảnh báo tương tự. "Giảm nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu, bên cạnh những rủi ro ở quy mô xã hội khác như đại dịch hay chiến tranh hạt nhân", thông báo do Trung tâm An toàn AI (CAIS) tại San Francisco đăng trên website tháng 5/2023.

Khảo sát của Đại học Stanford tháng 4/2023 cũng cho thấy 56% nhà khoa học máy tính và nhà nghiên cứu tin AI tạo sinh sẽ chuyển dịch sang AGI trong tương lai gần. Có 58% chuyên gia AI đánh giá AGI là "mối quan tâm lớn", 36% nói công nghệ này có thể dẫn đến "thảm họa cấp hạt nhân". Một số cho biết AGI có thể đại diện cho cái gọi là "điểm kỳ dị về công nghệ" - điểm giả định trong tương lai, khi máy móc vượt qua khả năng của con người theo cách không thể đảo ngược và có thể gây ra mối đe dọa cho nền văn minh.

"Sự tiến bộ về AI và các mô hình AGI vài năm qua thật đáng kinh ngạc", CEO DeepMind Hassabis nói với Fortune. "Tôi không thấy bất kỳ lý do nào khiến tiến độ đó chậm lại. Chúng ta chỉ còn khoảng vài năm, hoặc muộn nhất là một thập kỷ để chuẩn bị".

vnexpress.net

Đọc thêm

VinFuture 2025 vinh danh 4 công trình khoa học "cùng vươn mình - cùng thịnh vượng"

VinFuture 2025 vinh danh 4 công trình khoa học "cùng vươn mình - cùng thịnh vượng"

Quỹ VinFuture chính thức công bố các Chủ nhân Giải thưởng VinFuture 2025. 4 công trình khoa học công nghệ xuất sắc được vinh danh đã khẳng định nhất quán chủ điểm năm nay là “Cùng vươn mình – Cùng thịnh vượng”, thể hiện vai trò hợp tác khoa học xuyên biên giới để cùng giải quyết các thách thức toàn cầu về y tế, môi trường và sinh kế cho nhân loại.
Nhà khoa học VinFuture hiến kế để chung sống an toàn khi AI thông minh hơn con người

Nhà khoa học VinFuture hiến kế để chung sống an toàn khi AI thông minh hơn con người

Tốc độ phát triển của trí tuệ nhân tạo (AI) đang diễn ra nhanh hơn bất kỳ cuộc cách mạng công nghệ nào trước đây, đẩy nhân loại vào một tình huống chưa từng có tiền lệ: phải nghĩ cách chung sống với một thực thể thông minh hơn chúng ta. Tại Tọa đàm “AI vì nhân loại: Đạo đức và an toàn AI trong kỷ nguyên mới” diễn ra chiều 2/12, các nhà khoa học VinFuture đã thảo luận nhiều “kế sách” hay.
4 công nghệ mở đường cho tương lai gây chú ý tại Tuần lễ VinFuture 2025

4 công nghệ mở đường cho tương lai gây chú ý tại Tuần lễ VinFuture 2025

Lần đầu tiên được tổ chức, “Diễn thuyết truyền cảm hứng: Công nghệ đột phá tương lai”, diễn ra sáng 2/12 tại Hà Nội, đã mang đến một khởi đầu đầy ấn tượng cho Tuần lễ Khoa học - Công nghệ VinFuture 2025. 4 nhà khoa học quốc tế đã mang đến 4 câu chuyện đổi mới đang tái định hình tương lai thế giới, với chung 1 tầm nhìn là khoa học phục vụ con người.
Các nhà khoa học hàng đầu thế giới hiến kế nuôi sống 10 tỷ người tại Tuần lễ KHCN VinFuture 2025

Các nhà khoa học hàng đầu thế giới hiến kế nuôi sống 10 tỷ người tại Tuần lễ KHCN VinFuture 2025

Biến đổi khí hậu đang đẩy nông nghiệp toàn cầu vào vòng xoáy bất ổn, đe dọa an ninh lương thực của gần 10 tỷ người trong tương lai. Tại Tuần lễ KHCN VinFuture 2025, các nhà khoa học hàng đầu thế giới sẽ cùng thảo luận về những đổi mới có thể giúp nhân loại nuôi sống hành tinh một cách bền vững.
Khi AI “vẽ” giấc mơ an cư

Khi AI “vẽ” giấc mơ an cư

Trong bối cảnh đô thị "đất chật người đông", việc ứng dụng AI giúp các kiến trúc sư phá vỡ những giới hạn về không gian, tạo ra những ngôi nhà phố thông minh và giàu cảm xúc.
Nga phát triển AI phát hiện bệnh não qua ảnh chụp mắt

Nga phát triển AI phát hiện bệnh não qua ảnh chụp mắt

Các nhà khoa học của UrFU, một thành viên của nhóm nghiên cứu quốc tế, đã phát triển phương pháp mới để phân tích ảnh chụp võng mạc cho phép chẩn đoán các rối loạn thần kinh (ADHD, rối loạn phổ tự kỷ và bệnh Parkinson) một cách đơn giản và tiết kiệm chi phí.