Vào thứ Ba, 24 chuyên gia AI, bao gồm các người đoạt giải Turing như Geoffrey Hinton và Yoshua Bengio, đã công bố một thư mở kêu gọi chính phủ hành động để quản lý rủi ro từ AI. Thư tập trung vào rủi ro cực đoan do các hệ thống tiên tiến nhất gây ra, chẳng hạn như cho phép các hoạt động tội phạm hoặc khủng bố quy mô lớn.
Thư mở đưa ra một số khuyến nghị chính sách cụ thể, chẳng hạn như đảm bảo rằng các công ty công nghệ lớn và nhà tài trợ công dành ít nhất một phần ba ngân sách nghiên cứu và phát triển AI cho các dự án thúc đẩy sử dụng AI an toàn và đạo đức. Các tác giả cũng kêu gọi xây dựng các tiêu chuẩn quốc gia và quốc tế.
Bengio, giám đốc khoa học tại Viện học máy Montreal, nói rằng thư mở nhằm giúp các nhà hoạch định chính sách, báo chí và công chúng nói chung “hiểu được các rủi ro và một số điều chúng ta cần làm để làm cho các hệ thống hoạt động theo ý muốn của chúng ta”.
Các khuyến nghị không mở rộng biên giới kiến thức. Thay vào đó, các tác giả ký tên để ủng hộ quan điểm đồng thuận giữa các nhà nghiên cứu chính sách AI quan tâm đến rủi ro cực đoan (chúng phù hợp chặt chẽ với các chính sách phổ biến nhất được xác định trong một khảo sát vào tháng 5 về các chuyên gia).
“Chúng tôi muốn trình bày những gì (chúng tôi cảm thấy) là suy nghĩ rõ ràng về an toàn AI, hợp lý miễn là ảnh hưởng từ các lợi ích được bảo vệ,” Stuart Russell, giáo sư khoa học máy tính tại Đại học California, Berkeley, và là đồng tác giả của thư, cho biết trong một email gửi cho TIME.
Thư tuần này khác với các thư mở chuyên gia trước đây, theo Russell, bởi “Chính phủ đã hiểu rằng có những rủi ro thực sự. Họ đang hỏi cộng đồng AI: ‘Phải làm gì?’ Tuyên bố này là câu trả lời cho câu hỏi đó.”
Các đồng tác giả khác bao gồm nhà lịch sử và triết học Yuval Noah Harari, và người nhận học bổng “thiên tài” MacArthur và giáo sư khoa học máy tính tại Đại học California, Berkeley, Dawn Song, cùng với một số học giả khác từ các quốc gia và lĩnh vực khác nhau.
Thư mở này là tuyên bố chuyên gia nổi bật thứ ba trong năm nay, trong nỗ lực ngày càng tăng để cảnh báo về các rủi ro tiềm ẩn của sự phát triển AI không được quản lý. Vào tháng 3, một thư mở kêu gọi các phòng thí nghiệm AI “ngay lập tức tạm dừng ít nhất 6 tháng việc đào tạo các hệ thống AI mạnh hơn GPT-4” đã được hàng chục nghìn người ký tên, bao gồm Elon Musk, Bengio và Russell.
Vào tháng 5, một tuyên bố do Trung tâm An toàn AI tổ chức tuyên bố rằng “giảm thiểu rủi ro tuyệt chủng do AI nên là một ưu tiên toàn cầu cùng với các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân”. Tuyên bố này đã được hơn 500 nhà học thuật và lãnh đạo ngành ký tên, một lần nữa bao gồm Hinton, Bengio và Russell, nhưng còn CEO của ba công ty AI nổi tiếng nhất: Sam Altman của OpenAI, Demis Hassabis của DeepMind, và Dario Amodei của Anthropic.
Pieter Abbeel, đồng sáng lập, chủ tịch và giám đốc khoa học của công ty robot Covariant.ai, và giáo sư kỹ thuật điện và khoa học máy tính tại Đại học California, Berkeley, đã ký thư mở tuần này mặc dù không ký các bức thư trước đó. Abbeel cho biết ngôn tốc thận trọng lạc quan hơn của tuyên bố gần đây phù hợp hơn với quan điểm của ông so với ton thái độ đe dọa hơn của các thư mở trước đó. “Nếu chúng ta làm đúng điều cần làm – và chúng ta còn nhiều điều phải làm đúng – chúng ta có thể rất lạc quan về tương lai,” ông nói.
Các nhà nghiên cứu AI đã lâu nay đang cố gắng thu hút sự chú ý đến các rủi ro tiềm ẩn do công nghệ mà họ đã giúp phát triển. Năm 2016, Hinton, Bengio và Russell đã ký một thư do Viện Tương lai cuộc sống tổ chức, một tổ chức phi lợi nhuận nhằm giảm thiểu các rủi ro toàn cầu và tuyệt chủng, kêu gọi “cấm vũ khí tự động vượt quá sự kiểm soát có ý nghĩa của con người”.
Lịch sử cho thấy các nhà khoa học đã cảnh báo sớm và là những người ủng hộ đầu tiên cho các vấn đề liên quan đến nghiên cứu của họ. Các nhà khoa học khí hậu đã gây chú ý về vấn đề biến đổi khí hậu từ những năm 1980. Và sau khi lãnh đạo phát triển quả bom nguyên tử, Robert Oppenheimer trở thành người ủng hộ phát ngôn mạnh mẽ cho việc kiểm soát quốc tế, thậm chí là xóa bỏ hoàn toàn vũ khí hạt nhân.
Bengio nói rằng sự ủng hộ chính sách AI của ông đã phát triển theo thời gian khi “hiểu biết của tôi về vấn đề, và chính trị xung quanh nó đã được cải thiện rất nhiều.”
Một trong những chính sách được khuyến nghị trong thư mở mới là yêu cầu các công ty phải xin giấy phép trước khi phát triển “các mô hình tương lai đặc biệt mạnh mẽ”. Một số nhà phát triển AI và bình luận viên đã cảnh báo rằng việc cấp phép sẽ mang lại lợi thế cho các công ty lớn có thể chịu được gánh nặng quản lý để nhận được giấy phép.
Bengio cho rằng đây là một “luận điểm hoàn toàn sai”, chỉ ra rằng gánh nặng do cấp phép đặt ra chỉ áp dụng đối với các công ty phát triển các mô hình AI lớn, mạnh nhất. Thay vào đó, Bengio lập luận rằng rủi ro thực sự của sự chi phối quản lý là nếu các công ty được phép ảnh hưởng đến luật pháp đến mức nó không đủ mạnh.
Russell nói rằng luận điểm rằng các công ty