
(SeaPRwire) – Máy trí tuệ nhân tạo đang cải thiện nhanh hơn nhiều chuyên gia dự kiến, và bằng chứng cho một số rủi ro đã “tăng đáng kể”. Trong khi đó, các kỹ thuật quản lý rủi ro hiện tại đang “cải thiện nhưng chưa đủ”. Đây là những phát hiện của Báo cáo An toàn AI Quốc tế thứ hai, được công bố vào Thứ Ba, trước Hội nghị Ảnh hưởng AI dự kiến diễn ra tại Delhi từ 19 đến 20 tháng 2.
Được hướng dẫn bởi 100 chuyên gia và được hỗ trợ bởi 30 quốc gia và tổ chức quốc tế bao gồm Vương quốc Anh, Trung Quốc và Liên minh châu Âu, báo cáo này nhằm thiết lập một ví dụ về “cộng đồng để vượt qua những thách thức chung”. Nhưng khác với năm ngoái, Hoa Kỳ đã từ chối ủng hộ nó, người đứng đầu báo cáo, nhà khoa học giải thưởng Turing Yoshua Bengio xác nhận.
Khi những rủi ro của AI bắt đầu trở thành hiện thực, đất nước của những nhà phát triển AI hàng đầu đã rời khỏi những nỗ lực quốc tế để hiểu và giảm thiểu chúng. Sự di chuyển này chủ yếu mang tính biểu tượng, và báo cáo không phụ thuộc vào sự ủng hộ của Mỹ. Nhưng khi nói đến việc hiểu AI, “thống nhất trên thế giới càng lớn, càng tốt,” Bengio nói.
Không rõ liệu Hoa Kỳ đã phản đối nội dung của báo cáo hay đơn giản là rút lui khỏi các thỏa thuận quốc tế – nó đã rời khỏi và vào tháng 1. Bengio nói rằng Hoa Kỳ đã đưa ra phản hồi về các phiên bản trước của báo cáo nhưng từ chối ký bản cuối cùng.
Phòng Thương mại Hoa Kỳ, được đề cập trong Báo cáo An toàn AI Quốc tế 2025, đã không trả lời để bình luận về quyết định này.
Những gì báo cáo nói
“Trong năm qua, khả năng của các mô hình và hệ thống AI chung đích đã tiếp tục cải thiện,” báo cáo viết. Khả năng đã tiến triển rất nhanh以至于在第一份和第二份报告之间的一年里,作者发布了两份临时更新以应对重大变化。这与那些暗示人工智能已经停滞不前的持续不断的头条新闻背道而驰。科学证据表明“去年进展没有放缓”,Bengio说。
为什么很多人感觉进展放缓了呢?一个线索是研究人员所说的人工智能性能的“参差不齐”。这些模型在国际数学奥林匹克竞赛问题上可以达到金牌标准,而有时却无法数出“strawberry”中的“r”的数量。这种参差不齐使得人工智能的能力难以评估,直接的人类比较——比如流行的“实习生”类比——具有误导性。
目前的进展速度不一定会持续,尽管报告指出趋势与到2030年的持续改进一致。如果今天的速度一直保持到那时,专家预测人工智能将能够完成范围明确的软件工程任务,而这需要人类工程师花费好几天时间。但报告也提出了更引人注目的可能性,即如果人工智能在其发展中提供实质性帮助,进展可能会加速,从而产生在大多数方面与人类能力相当或更强的系统。
这可能会让投资者兴奋,但对于那些担心社会未能以当前速度充分适应新出现的风险的人来说则令人担忧。就连谷歌DeepMind的首席执行官Demis Hassabis今年1月在达沃斯也表示,他认为如果进展放缓“对世界会更好”。
“明智的策略,无论你是在政府还是企业,都是为所有可能的情况做好准备,”Bengio说。这意味着即使面对不确定性也要降低风险。
Đọc hiểu ngày càng trưởng thành về rủi ro
Những nhà hoạch định chính sách muốn nghe các nhà khoa học khi nói đến rủi ro AI thì phải đối mặt với một vấn đề: các nhà khoa học không đồng ý. Bengio và đồng nghiệp tiên phong AI Geoffrey Hinton đã cảnh báo kể từ khi ChatGPT ra mắt rằng AI có thể gây ra mối đe dọa tồn tại cho con người. Trong khi đó, Yann LeCun, người được gọi là một trong ba “cha đẻ” của AI, đã cho rằng những lo ngại này là “ hoàn toàn vô稽之谈”.
Nhưng báo cáo cho thấy nền tảng đang vững chắc. Mặc dù một số câu hỏi vẫn gây phân岐, “có một mức độ hội tụ cao” về các phát hiện cốt lõi, báo cáo ghi nhận. Các hệ thống AI hiện nay bằng hoặc vượt quá năng lực chuyên gia trong các tiêu chí liên quan đến phát triển vũ khí sinh học, chẳng hạn như tìm lỗi trong các quy trình phòng thí nghiệm virology. Có bằng chứng mạnh mẽ rằng các nhóm phạm tội và những kẻ tấn công do nhà nước tài trợ đang tích cực sử dụng AI trong các hoạt động mạng.
Tiếp tục đo lường những rủi ro này sẽ gặp phải những thách thức trong tương lai khi các mô hình AI ngày càng học cách chơi với các bài kiểm tra an toàn, báo cáo nói. “Chúng ta đang thấy các AI có hành vi, khi chúng được kiểm tra, […] khác với khi chúng được sử dụng,” Bengio nói, và thêm rằng bằng cách nghiên cứu chuỗi suy nghĩ của các mô hình – các bước trung gian mà chúng đã đi qua trước khi đưa ra câu trả lời – các nhà nghiên cứu đã xác định rằng sự khác biệt này “không phải là một巧合”. Các AI đang cư xử ngu ngốc hoặc theo cách tốt nhất theo những cách mà “tổn thương đáng kể khả năng của chúng ta để ước tính chính xác rủi ro,” Bengio nói.
Thay vì đề xuất một giải pháp duy nhất, báo cáo khuyến nghị xếp chồng nhiều biện pháp an toàn – kiểm tra trước khi phát hành, giám sát sau, – để những gì trượt qua một tầng sẽ bị bắt bớt bởi tầng tiếp theo, giống như nước qua một loạt các rây càng mịn. Một số biện pháp nhắm vào các mô hình chính bản thân; những cái khác nhằm tăng cường phòng thủ trong thế giới thực – ví dụ, làm cho khó dàng thu thập các vật liệu cần thiết để chế tạo vũ khí sinh học ngay cả khi AI đã làm cho việc thiết kế dễ dàng hơn. Trên mặt doanh nghiệp, 12 công ty đã tự nguyện công bố hoặc cập nhật các Khung An toàn Biên cận trong năm 2025, các tài liệu mô tả cách họ dự định quản lý rủi ro khi xây dựng các mô hình có năng lực hơn – mặc dù chúng khác nhau về các rủi ro mà chúng bao gồm, báo cáo ghi nhận.
Mặc dù có những phát hiện này, Bengio nói rằng báo cáo đã để lại cho anh ấy một niềm tin lạc quan. Khi báo cáo đầu tiên được giao nhiệm vụ vào cuối năm 2023, cuộc tranh luận về rủi ro AI được thúc đẩy bởi quan điểm và lý thuyết. Bây giờ, anh ấy nói, “chúng ta đang bắt đầu có một cuộc thảo luận trưởng thành hơn nhiều.”
Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.
Lĩnh vực: Tin nổi bật, Tin tức hàng ngày
SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.
