Mỗi ngày quân đội Mỹ tin tưởng giao cho hàng trăm ngàn binh sĩ đóng quân trên toàn cầu những vũ khí mạnh nhất thế giới, phần lớn trong số họ dưới 30 tuổi. Quân đội giảm thiểu rủi ro tiềm ẩn của công nghệ mạnh này được triển khai trên toàn cầu trong tay những người dùng trẻ tuổi và thường xuyên non kinh nghiệm thông qua ba cách tiếp cận: họ quy định công nghệ, người dùng và đơn vị của họ. Chính phủ có cơ hội làm tương tự với trí tuệ nhân tạo.
Tùy theo nhiệm vụ, binh sĩ phải hoàn thành thành công các khóa học, thực tập và kiểm tra trắc nghiệm trước khi được giao quyền điều khiển tàu, bắn vũ khí hoặc thậm chí trong một số trường hợp, thực hiện các nhiệm vụ bảo trì. Mỗi chứng chỉ phản ánh mức độ phức tạp công nghệ của hệ thống, mức độ chết người của nó và quyền hạn mà người dùng sẽ được giao để đưa ra quyết định. Ngoài ra, biết rằng ngay cả những người có chứng chỉ cũng có thể mệt mỏi, buồn chán hoặc căng thẳng, quân đội có hệ thống dự phòng là các quy trình hoạt động tiêu chuẩn (SOP) và danh sách kiểm tra đảm bảo hành vi an toàn và nhất quán – điều mà bác sĩ phẫu thuật, ví dụ, đã bắt chước.
“Carrier quals,” ví dụ, không chỉ dành cho phi công cá nhân. Chúng cũng phải được kiếm qua việc trình diễn chung của một tàu sân bay và cánh không quân được phân công (nhóm phi công). Các chứng chỉ đơn vị nhấn mạnh sự hợp tác, trách nhiệm tập thể và chức năng tích hợp của nhiều vai trò trong bối cảnh cụ thể. Điều này đảm bảo rằng mọi thành viên đội không chỉ giỏi trong các nhiệm vụ của riêng mình mà còn hiểu rõ trách nhiệm của mình trong bối cảnh lớn hơn.
Cuối cùng, để bổ sung cho các chứng chỉ và danh sách kiểm tra, quân đội tách biệt và phân định quyền hạn cho các cá nhân khác nhau tùy thuộc vào nhiệm vụ và mức độ trách nhiệm hoặc kinh nghiệm của cá nhân. Ví dụ, sĩ quan chiến tranh trên biển có quyền phát hành vũ khí vẫn phải yêu cầu sự cho phép của thuyền trưởng trước khi phóng một số loại vũ khí nhất định. Việc kiểm tra này đảm bảo rằng các cá nhân có thẩm quyền và nhận thức thích hợp có cơ hội giải quyết các loại rủi ro đặc biệt – chẳng hạn như những rủi ro có thể leo thang xung đột hoặc làm giảm kho dự trữ vũ khí đặc biệt quan trọng.
Những chiến lược quân sự này để giải quyết rủi ro nên truyền cảm hứng cho các cuộc thảo luận về cách quy định trí tuệ nhân tạo bởi vì chúng ta đã thấy các cách tiếp cận tương tự hoạt động tốt cho các cộng đồng phi quân sự khác. Các chứng chỉ, SOP và trách nhiệm phân định đã bổ sung cho các quy định kỹ thuật và kỹ thuật trong các lĩnh vực như chăm sóc sức khỏe, tài chính và cảnh sát. Trong khi quân đội có khả năng thực thi các chế độ chứng chỉ như vậy, những khung khổ này cũng có thể được áp dụng hiệu quả trong các lĩnh vực dân sự. Việc áp dụng có thể được thúc đẩy bằng cách chứng minh giá trị kinh doanh của các công cụ như vậy, thông qua quy định của chính phủ hoặc bằng cách khai thác các động lực kinh tế.
Ưu điểm chính của chế độ chứng chỉ sẽ là hạn chế quyền truy cập vào hệ thống trí tuệ nhân tạo có thể gây nguy hiểm chỉ dành cho những người dùng được đào tạo và kiểm tra. Quá trình đánh giá giúp giảm thiểu rủi ro của những kẻ xấu, chẳng hạn những người sẽ sử dụng nó để sản xuất văn bản hoặc video giả mạo nhân vật công cộng hoặc thậm chí để theo dõi hoặc quấy rối công dân tư nhân. Việc đào tạo giúp giảm thiểu rủi ro rằng những người có ý tốt nhưng không hoàn toàn hiểu các công nghệ này sẽ sử dụng chúng không đúng cách, chẳng hạn như một luật sư sử dụng ChatGPT để chuẩn bị hồ sơ pháp lý.
Để tăng cường trách nhiệm cho từng người dùng, một số chứng chỉ, ví dụ thiết kế các tác nhân sinh học đặc biệt, có thể yêu cầu người dùng có một nhận dạng duy nhất, tương tự như một mã nhà cung cấp quốc gia hoặc số giấy phép lái xe. Điều này sẽ cho phép các tổ chức chuyên nghiệp, tòa án và cơ quan thực thi pháp luật có thể theo dõi và xử lý hiệu quả các trường hợp lạm dụng trí tuệ nhân tạo, thêm một cơ chế trách nhiệm mà hệ thống pháp lý của chúng ta hiểu rõ.
Bổ sung chứng chỉ cá nhân với chứng chỉ tổ chức có thể tạo ra giám sát đa lớp phức tạp và mạnh mẽ hơn đối với các hệ thống siêu hiệu suất phục vụ chức năng then chốt. Điều này củng cố rằng an toàn trí tuệ nhân tạo không chỉ là trách nhiệm cá nhân mà còn là trách nhiệm tổ chức. Cách tiếp cận chứng chỉ cũng hỗ trợ phát triển trách nhiệm phân định chỉ cho phép những người không chỉ có chứng chỉ mà còn được ủy quyền đặc biệt, tương tự như cách Ủy ban Chứng khoán và Giao dịch (SEC) quy định ai có thể tham gia vào hoạt động giao dịch tần suất cao. Nói cách khác, việc biết cách sử dụng trí tuệ nhân tạo không đủ; người dùng cũng phải biết khi nào thích hợp để làm như vậy và dưới quyền lực của ai.
Các chứng chỉ và danh sách kiểm tra có thể mang lại lợi ích thứ cấp. Thiết kế, quản lý và theo dõi chúng sẽ tạo ra công ăn việc làm. Chính phủ quốc gia cũng như tiểu bang có thể trở thành cơ quan chứng chỉ, hiệp hội chuyên nghiệp có thể trở thành những nhà lãnh đạo trong nghiên cứu an toàn và tiêu chuẩn đi kèm. Thậm chí các công ty trí tuệ nhân tạo cũng có thể hưởng lợi