Tin tức & Thông cáo Báo chí từ Việt Nam | News & Press Releases from Vietnam

Tại sao Sắc lệnh AI của Biden chỉ đi được một đoạn đường

Tổng thống Biden tuần này đã ký một lệnh hành pháp toàn diện về trí tuệ nhân tạo nhằm đối phó với các mối đe dọa do công nghệ này gây ra, nhưng một số chuyên gia cho rằng quy định này đã để lại nhiều câu hỏi chưa được trả lời về cách thức hoạt động trong thực tế.

Lệnh hành pháp nhiệm vụ các cơ quan phải tái cân nhắc cách tiếp cận trí tuệ nhân tạo của họ và nhằm đối phó với các mối đe dọa liên quan đến an ninh quốc gia, cạnh tranh và quyền riêng tư người tiêu dùng, đồng thời thúc đẩy đổi mới, cạnh tranh và sử dụng trí tuệ nhân tạo cho các dịch vụ công cộng.

Một trong những yếu tố quan trọng nhất của lệnh hành pháp là yêu cầu các công ty phát triển các mô hình trí tuệ nhân tạo mạnh nhất phải công bố kết quả kiểm tra an toàn. Vào thứ Ba, Bộ trưởng Thương mại Gina Raimondo nói với CNBC rằng theo Lệnh Hành Pháp của Tổng thống, “Tổng thống chỉ đạo Bộ Thương mại yêu cầu các công ty cho chúng tôi biết: họ đang áp dụng những biện pháp an toàn nào và cho phép chúng tôi đánh giá xem đó có đủ hay không. Và chúng tôi có kế hoạch làm cho những công ty này phải chịu trách nhiệm.”

Tuy nhiên, Lệnh Hành Pháp 63 trang này không nêu rõ hậu quả khi một công ty báo cáo rằng mô hình của họ có thể nguy hiểm. Các chuyên gia có quan điểm khác nhau – một số người cho rằng Lệnh Hành Pháp chỉ cải thiện tính minh bạch, trong khi những người khác tin rằng chính phủ có thể hành động nếu một mô hình được xác định là không an toàn.

Điều này khiến một số chuyên gia kết luận rằng Nhà Trắng đã đối mặt với giới hạn của quyền lực hành pháp trong việc giải quyết một số mối quan tâm về trí tuệ nhân tạo.

Hướng dẫn trước

Tại một cuộc họp trực tuyến trước khi công bố Lệnh Hành Pháp, một quan chức cao cấp cho biết Tổng thống đã giao nhiệm vụ cho đội ngũ của mình tìm mọi cách và khai thác tất cả, theo người tham dự Helen Toner, giám đốc chiến lược và nghiên cứu hỗ trợ sáng lập tại Trung tâm An ninh và Công nghệ Mới nổi, một tổ chức tư vấn.

Phần lớn nội dung lệnh hành pháp bao gồm hướng dẫn các cơ quan và cơ thể khác thực hiện các nghiên cứu hoặc phát triển hướng dẫn chi tiết hơn. Ví dụ, Văn phòng Quản lý và Ngân sách có 150 ngày để ban hành hướng dẫn cho các cơ quan liên bang về cách thúc đẩy đổi mới trong khi quản lý rủi ro do trí tuệ nhân tạo gây ra.

Giới hạn tính toán

Một số phần của lệnh hành pháp của chính quyền Biden có thể có tác động ngay lập tức, chẳng hạn như thay đổi quy tắc liên quan đến nhập cư chuyên gia. Những thay đổi này nhằm thúc đẩy đổi mới của Mỹ bằng cách tăng lượng nhân tài trí tuệ nhân tạo có sẵn, một số thay đổi sẽ được thực hiện trong vòng 90 ngày tới.

Một quy định khác có thể có tác động ngay lập tức đến ngành công nghiệp trí tuệ nhân tạo là một số yêu cầu áp đặt cho các công ty đang phát triển hoặc dự định phát triển các mô hình nền tảng kép. Những mô hình này có thể gây ra mối đe dọa an ninh quốc gia vì khả năng hoạt động trên nhiều nhiệm vụ, như chính phủ Anh gần đây đã nêu trong một báo cáo công bố trước Hội nghị An toàn Trí tuệ nhân tạo. Các công ty sẽ cần thông báo cho chính phủ Mỹ về kế hoạch phát triển trí tuệ nhân tạo, các biện pháp an ninh – cả vật lý và mạng – họ đã áp dụng để bảo mật các mô hình trí tuệ nhân tạo và kết quả kiểm tra an toàn đã thực hiện.

Bộ trưởng Thương mại được giao nhiệm vụ xác định các mô hình trí tuệ nhân tạo nguy hiểm đến mức phải tuân thủ các yêu cầu này. Hiện tại, các chuyên gia không biết cách thực hiện điều này, theo Paul Scharre, Phó chủ tịch điều hành và giám đốc nghiên cứu tại Trung tâm An ninh Mỹ mới, một tổ chức nghiên cứu về quân sự.

Trong khi đó, các yêu cầu sẽ áp dụng cho các mô hình được đào tạo bằng lượng tính toán vượt quá ngưỡng 100 triệu tỷ tỷ phép toán. Hiện tại chưa có mô hình trí tuệ nhân tạo nào được đào tạo bằng lượng tính toán này. GPT-4 của OpenAI, mô hình trí tuệ nhân tạo có khả năng công khai nhất, được ước tính bởi tổ chức nghiên cứu Epoch chỉ được đào tạo bằng lượng tính toán gấp 5 lần con số này.

Tuy nhiên, lượng tính toán sử dụng để đào tạo trí tuệ nhân tạo đã tăng gấp đôi cứ sau sáu tháng trong thập kỷ qua, theo Epoch.

Một quan chức chính quyền Biden cho biết ngưỡng này được đặt để các mô hình hiện tại không bị bắt buộc nhưng thế hệ mô hình tiên tiến nhất trong tương lai có thể bị ràng buộc, theo lời Scharre, người cũng tham dự cuộc họp trên.

Khả năng tính toán chỉ là “sự thay thế thô sơ” cho điều các nhà hoạch định chính sách quan tâm thực sự là khả năng của mô hình, theo Scharre. Tuy nhiên, Kaushik lưu ý rằng việc đặt ngưỡng tính toán có thể tạo động lực cho các công ty trí tuệ nhân tạo phát triển các mô hình đạt hiệu quả tương tự nhưng giữ lượng tính toán dưới ngưỡng, đặc biệt nếu các yêu cầu báo cáo đe dọa tiết lộ bí mật thương mại hoặc sở hữu trí tuệ.

Giới hạn quyền lực tổng thống

Ngay cả đối với các mô hình vượt quá ngưỡng tính toán, Lệnh Hành Pháp chỉ yêu cầu rõ ràng các công ty cung cấp thông tin về kết quả kiểm tra an toàn bằng phương pháp đối đầu, trong đó các kiểm toán viên cố gắng phát hiện vấn đề với các mô hình trí tuệ nhân tạo một cách thù địch. Để có cơ sở pháp lý, chính quyền Biden đã áp dụng Đạo luật Sản xuất Quốc phòng, một đạo luật có thể cho phép Tổng thống ảnh hưởng đến ngành công nghiệp trong nước nhằm thúc đẩy an ninh quốc gia.

“Hoàn toàn không rõ” chính phủ sẽ phản ứng như thế nào nếu một công ty báo cáo rằng mô hình trí tuệ nhân tạo của họ không vượt qua các bài kiểm tra an toàn yêu cầu, theo Toner của Trung tâm An ninh và Công nghệ Mới nổi.