Tin tức & Thông cáo Báo chí từ Việt Nam | News & Press Releases from Vietnam

Cơ quan giám sát cạnh tranh của Anh tín hiệu cách tiếp cận thận trọng đối với quy định về AI

UK-ai-regulation

Một báo cáo được công bố tuần này của Cơ quan Cạnh tranh và Thị trường (CMA) của Anh đã đưa ra những lo ngại về những cách tiềm ẩn mà ngành công nghiệp trí tuệ nhân tạo có thể bị độc quyền hóa hoặc gây hại cho người tiêu dùng trong tương lai, nhưng nhấn mạnh rằng vẫn còn quá sớm để nói liệu các kịch bản này có thể hình thành hay không.

Những vấn đề được đưa ra bởi báo cáo này làm nổi bật những khó khăn mà các nhà hoạch định chính sách phải đối mặt trong việc quản lý AI, một nguồn cả giá trị thương mại khổng lồ tiềm năng và nhiều rủi ro. Rishi Sunak, Thủ tướng Anh, đang thúc đẩy Vương quốc Anh chiếm một vị trí trung tâm trong các cuộc thảo luận chính sách AI quốc tế, với trọng tâm cụ thể vào các rủi ro từ các hệ thống AI tiên tiến. Nếu cơ quan giám sát cạnh tranh của Anh quyết định bắt đầu hành động chống lại các nhà phát triển AI, các công ty công nghệ trên toàn thế giới có thể bị ảnh hưởng.

Lo ngại về quy định

Báo cáo, được công bố vào thứ Hai, tập trung vào các mô hình nền tảng, mà CMA định nghĩa là “một loại công nghệ AI được đào tạo trên khối lượng dữ liệu khổng lồ có thể được thích ứng với nhiều nhiệm vụ và hoạt động khác nhau.” Ví dụ bao gồm các mô hình AI tạo văn bản, chẳng hạn như GPT-3.5, mô hình mà OpenAI sử dụng để cung cấp ChatGPT, cũng như các mô hình AI tạo ảnh, chẳng hạn như Stable Diffusion.

Báo cáo nêu ra những lo ngại rằng lượng tính toán và dữ liệu ngày càng tăng được sử dụng để đào tạo các mô hình AI có thể tạo ra các rào cản gia nhập thị trường, làm giảm cạnh tranh trong ngành.

“Quyền truy cập vào sức mạnh tính toán đã quyết định động lực cạnh tranh của thị trường này,” Anton Korinek, giáo sư kinh tế tại Đại học Virginia, nói với TIME qua email. “Báo cáo nhận định đúng khi thừa nhận rằng thị trường cho các mô hình nền tảng sẽ cạnh tranh nếu có nhiều mô hình đẩy mạnh khả năng lên tới ranh giới; một thị trường mà chỉ có một vài mô hình ở ranh giới thì không cạnh tranh ngay cả khi hàng trăm mô hình khác ở phía sau ranh giới đó.”

CMA cũng nói trong báo cáo rằng một số bên liên quan cho rằng những người dẫn đầu trong phát triển các mô hình nền tảng có thể sử dụng khả năng của những mô hình đó để tiếp tục cải thiện chúng và tách biệt với các đối thủ cạnh tranh của họ, trong một quá trình được gọi là “cải tiến tự đệ quy”, mặc dù báo cáo cũng lưu ý rằng kịch bản này vẫn còn suy đoán.

Năm 2021, Sam Altman, CEO của nhà phát triển AI nổi tiếng OpenAI, dự đoán rằng AI sẽ tạo ra một “vòng lặp đệ quy của sự đổi mới,” trong đó “các máy thông minh tự giúp chúng ta tạo ra các máy thông minh hơn.” Vào tháng 4, TechCrunch đưa tin rằng một tài liệu gây quỹ do nhà phát triển AI nổi bật Anthropic sản xuất có chứa các tuyên bố cho thấy sớm có thể có một động lực chiến thắng tất cả trong phát triển các mô hình nền tảng.

Tranh luận về nguồn mở

Báo cáo CMA cũng nói rằng nếu các mô hình mạnh mẽ như Llama 2 của Meta vẫn nguồn mở, điều này sẽ giảm khả năng các nhà phát triển AI khác lạm dụng quyền lực thị trường và có thể bảo vệ người tiêu dùng. Báo cáo thừa nhận rằng có thể có sự căng thẳng giữa việc đảm bảo an toàn công cộng và thúc đẩy cạnh tranh, bởi vì nếu các mô hình AI mạnh mẽ có sẵn rộng rãi, chúng có thể được sử dụng để gây hại.

Hai Thượng nghị sĩ Hoa Kỳ Richard Blumenthal và Josh Hawley đưa ra một khung cho dự luật AI của Mỹ tìm kiếm đề xuất một cách tiếp cận khác vào ngày 7 tháng 9. Theo khung đó, các nhà phát triển AI sẽ cần giấy phép để phát triển các hệ thống mạnh nhất, và thực hiện các bước để hạn chế việc chuyển giao các mô hình AI tiên tiến cho “Trung Quốc, Nga và các quốc gia đối địch khác.” Cả hai biện pháp này đều mâu thuẫn mạnh mẽ với việc thúc đẩy các mô hình nguồn mở mạnh mẽ.

“Chính sách cạnh tranh cần được kết hợp với quy định chủ động về các rủi ro khác, bao gồm cả rủi ro an toàn,” Korinek nói. “Nếu loại quy định đó chậm trễ, khuyến khích cạnh tranh thực sự có thể có tác dụng ngược lên an toàn.”

Cuối cùng, do hầu hết các mô hình nguồn mở AI mạnh mẽ được phát triển bên ngoài Vương quốc Anh, các cơ quan quản lý ở Anh sẽ có quyền hạn hạn chế đối với nguồn cung cấp các hệ thống AI nguồn mở nếu Hoa Kỳ và các nước khác có hành động ngăn chặn việc phát hành chúng.

Các công ty phát triển các mô hình nền tảng sẽ cần phải chịu trách nhiệm để đảm bảo người tiêu dùng được bảo vệ, báo cáo nói.

Ủy ban Thương mại Liên bang Hoa Kỳ (FTC), cơ quan cạnh tranh và bảo vệ người tiêu dùng của Mỹ, đã có hành động về bảo vệ người tiêu dùng. Vào tháng 7, FTC mở cuộc điều tra về OpenAI xem liệu ChatGPT, chatbot dựa trên AI, có gây hại cho người tiêu dùng thông qua việc thu thập dữ liệu và đăng tải thông tin sai lệch hay không.

FTC, dưới sự lãnh đạo của Lina Khan, đã có lập trường đối đầu với quy định về AI. Trong một bài đăng blog được công bố vào tháng 6, FTC đã nêu bật các lo ngại về cạnh tranh tiềm ẩn được đặt ra bởi AI tạo ra nội dung – các hệ thống tạo ra nội dung thay vì phân tích dữ liệu hiện có. (Các mô hình nền tảng thường thực hiện các nhiệm vụ tạo ra nội dung, nhưng không phải tất cả các mô hình nề