Tin tức & Thông cáo Báo chí từ Việt Nam | News & Press Releases from Vietnam

Chúng ta có thể ngăn chặn thảm họa AI giống như chúng ta đã ngăn chặn thảm họa hạt nhân

Robert Oppenheimer nói chuyện tại CERN năm 1960

Vào ngày 16 tháng 7 năm 1945 thế giới đã thay đổi mãi mãi. Vụ thử hạt nhân “Trinity” của Dự án Manhattan, do Robert Oppenheimer điều hành, lần đầu tiên trao cho nhân loại khả năng tự huỷ diệt mình: một quả bom nguyên tử đã được kích nổ thành công cách Los Alamos, New Mexico 210 dặm về phía nam.

Vào ngày 6 tháng 8 năm 1945, quả bom đã được thả xuống Hiroshima và ba ngày sau đó là Nagasaki – giải phóng sức mạnh huỷ diệt chưa từng có. Sự kết thúc của Thế chiến II đã mang lại hòa bình mong manh, bị lu mờ bởi mối đe dọa tồn tại mới này.

Trong khi công nghệ hạt nhân hứa hẹn một kỷ nguyên năng lượng dồi dào, nó cũng đưa chúng ta vào tương lai mà chiến tranh hạt nhân có thể dẫn đến sự kết thúc của nền văn minh của chúng ta. “Bán kính vụ nổ” của công nghệ của chúng ta đã tăng lên quy mô toàn cầu. Ngày càng rõ ràng rằng việc quản lý công nghệ hạt nhân để tránh thảm họa toàn cầu đòi hỏi sự hợp tác quốc tế. Thời gian rất quý giá để thiết lập các tổ chức vững chắc để xử lý vấn đề này.

Năm 1952, 11 quốc gia thành lập CERN và giao nhiệm vụ cho nó “hợp tác trong nghiên cứu khoa học [hạt nhân] hoàn toàn cơ bản” – làm rõ rằng nghiên cứu của CERN sẽ được sử dụng vì lợi ích công cộng. Cơ quan Năng lượng Nguyên tử Quốc tế (IAEA) cũng được thành lập vào năm 1957 để giám sát các kho dự trữ uranium trên toàn cầu và hạn chế phổ biến. Trong số những tổ chức khác, những tổ chức này đã giúp chúng ta sống sót trong 70 năm qua.

Chúng tôi tin rằng nhân loại một lần nữa đang phải đối mặt với sự gia tăng “bán kính vụ nổ” của công nghệ: sự phát triển của trí tuệ nhân tạo tiên tiến. Một công nghệ mạnh mẽ có thể xóa sổ nhân loại nếu không kiểm soát, nhưng nếu được vận hành an toàn, có thể thay đổi thế giới theo hướng tốt đẹp hơn.

Bóng ma của trí tuệ nhân tạo tổng quát

Các chuyên gia đã cảnh báo về sự phát triển của trí tuệ nhân tạo tổng quát (AGI). Các nhà khoa học AI và lãnh đạo của các công ty AI lớn, bao gồm Sam Altman của OpenAI và Demis Hassabis của Google DeepMind, đã ký một tuyên bố từ Trung tâm An toàn AI rằng viết: “Giảm thiểu rủi ro tuyệt chủng từ AI nên là ưu tiên toàn cầu cùng với các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân.” Vài tháng trước đó, một lá thư khác kêu gọi tạm dừng các thí nghiệm AI khổng lồ đã được ký tên hơn 27.000 lần, bao gồm cả các nhà khoa học đoạt giải Turing Yoshua Bengio và Geoffrey Hinton.

Điều này là do một nhóm nhỏ các công ty AI (OpenAI, Google Deepmind, Anthropic) đang nhắm tới việc tạo ra AGI: không chỉ là các chatbot như ChatGPT, mà là các AI có khả năng “tự trị và vượt trội hơn con người ở hầu hết các hoạt động kinh tế”. Ian Hogarth, nhà đầu tư và hiện là Chủ tịch Nhóm công tác Mô hình Nền tảng của Vương quốc Anh, gọi đây là các AI “giống như thần thánh” và kêu gọi các chính phủ làm chậm cuộc đua xây dựng chúng. Ngay cả những nhà phát triển công nghệ cũng mong đợi nguy hiểm lớn từ nó. Altman, CEO của công ty đứng sau ChatGPT, nói rằng sự phát triển của siêu trí tuệ máy móc (SMI) có lẽ là mối đe dọa lớn nhất đối với sự tồn tại liên tục của nhân loại.

Các nhà lãnh đạo thế giới đang kêu gọi thành lập một tổ chức quốc tế để đối phó với mối đe dọa của AGI: một ‘CERN’ hoặc ‘IAEA cho AI’. Vào tháng 6, Tổng thống Biden và Thủ tướng Anh Sunak đã thảo luận về một tổ chức như vậy. Tổng thư ký Liên Hợp Quốc, Antonio Guterres cho rằng chúng ta cần một tổ chức như vậy. Với sự đồng thuận ngày càng tăng về hợp tác quốc tế để ứng phó với các rủi ro từ AI, chúng ta cần nêu rõ cụ thể cách một tổ chức như vậy có thể được xây dựng.

Liệu một ‘CERN cho AI’ có giống như MAGIC không?

MAGIC (Liên minh Đa phương về Trí tuệ Nhân tạo Tổng quát) sẽ là cơ sở AI tiên tiến và an toàn duy nhất trên thế giới tập trung vào nghiên cứu và phát triển AI nâng cao với ưu tiên an toàn. Giống như CERN, MAGIC sẽ cho phép nhân loại đưa sự phát triển của AGI ra khỏi tay các công ty tư nhân và đặt nó vào tay của một tổ chức quốc tế có nhiệm vụ phát triển AI an toàn.

MAGIC sẽ có độc quyền khi nghiên cứu và phát triển AI nâng cao có rủi ro cao. Việc các thực thể khác độc lập theo đuổi sự phát triển của AGI sẽ bị cấm. Điều này sẽ không ảnh hưởng đến đa số các nghiên cứu và phát triển AI, và chỉ tập trung vào nghiên cứu liên quan đến AGI ở tầm cao, tương tự như cách chúng ta đã xử lý nghiên cứu và phát triển nguy hiểm với các công nghệ khác. Nghiên cứu về kỹ thuật các mầm bệnh gây chết người bị cấm hoặc bị giới hạn ở các phòng thí nghiệm an toàn sinh học cấp độ rất cao. Đồng thời, đa số các nghiên cứu về thuốc được giám sát bởi các cơ quan quản lý như FDA.

MAGIC sẽ chỉ quan tâm đến việc ngăn chặn sự phát triển rủi ro cao của các hệ thống AI tiên tiến – các AI giống như thần thánh. Các đột phá nghiên cứu được thực hiện tại MAGIC sẽ chỉ được chia sẻ với thế giới bên ngoài sau khi được chứng minh một cách rõ ràng là an toàn.

Để đảm bảo nghiên cứu AI rủi ro cao vẫn an toàn và được giám sát chặt chẽ tại MAGIC, một lệnh cấm toàn cầu về việc tạo ra các AI sử dụng nhiều hơn một lượng tính toán được ấn định (đây là m