
(SeaPRwire) – Vào ngày 16 tháng 4, OpenAI đã công bố GPT-Rosalind, một mô hình AI mới nhắm mục tiêu vào lĩnh vực khoa học sự sống. Nó vượt trội hơn hẳn so với các mô hình hiện có sẵn công khai của họ trong các nhiệm vụ hóa học và sinh học, cũng như thiết kế thí nghiệm. Giống như Claude Mythos của Anthropic và GPT-5.4-Cyber của OpenAI cũng được phát hành trong tháng này, mô hình này không có sẵn cho công chúng—ít nhất là ban đầu, nó được dành riêng cho “khách hàng đủ tiêu chuẩn” thông qua một “chương trình truy cập đáng tin cậy”.
Các bản phát hành này báo hiệu một xu hướng mới và đáng lo ngại khi các công ty AI coi những mô hình mạnh nhất của họ là quá mạnh để giao phó cho công chúng. Peter Wildeford, trưởng ban chính sách tại AI Policy Network, một nhóm vận động, nói: “Tôi nghĩ các nhà phát triển tiên phong đang hạn chế quyền truy cập vào các mô hình mạnh nhất của họ vì họ thực sự lo ngại về một số khả năng mà các mô hình này có.”
Không rõ tại sao OpenAI lại quyết định hạn chế quyền truy cập vào GPT-Rosalind nói riêng. Một phát ngôn viên của OpenAI cho biết trong một email rằng việc cấp quyền truy cập cho các đối tác đáng tin cậy cho phép công ty “cung cấp các hệ thống mạnh mẽ hơn sớm hơn cho người dùng đã xác minh, đồng thời vẫn quản lý rủi ro một cách thận trọng.”
Ai quyết định?
Sự tiến bộ nhanh chóng của năng lực AI đặt ra câu hỏi liệu các công ty tư nhân có nên đưa ra những quyết định ngày càng nặng nề về việc liệu và làm thế nào các mô hình AI có khả năng nguy hiểm nên được xây dựng, và ai nên được phép sử dụng chúng. Dân biểu Mark DeSaulnier, một đảng viên Dân chủ từ California, nói: “Tôi nghĩ chính phủ liên bang có một vai trò cần phải thực hiện.”
Việc phát hành Mythos của Anthropic dường như đã cải thiện mối quan hệ vốn căng thẳng trước đó với Nhà Trắng, nơi cho biết tuần trước họ đã có một cuộc họp “hiệu quả và mang tính xây dựng” với CEO của Anthropic Dario Amodei. NSA cũng được cho là đã bắt đầu sử dụng Claude Mythos. Vào tháng Hai, Tổng thống Trump đã ra lệnh cho các cơ quan liên bang ngừng hợp tác với “công ty cánh tả cực đoan, thức tỉnh” này, sau một tranh chấp hợp đồng với Lầu Năm Góc.
Các hạn chế truy cập đối với loạt mô hình gần đây là tự nguyện từ phía Anthropic và OpenAI. Nhưng khi những rủi ro do các mô hình AI gây ra trở nên nghiêm trọng và phức tạp hơn, một số người đang kêu gọi giám sát bên ngoài chặt chẽ hơn.
Connor Leahy, giám đốc Hoa Kỳ của ControlAI, một nhóm vận động quy định AI, nói: “Chúng ta không cho phép các công ty quyết định lượng chất ô nhiễm độc hại mà họ được phép đổ vào nước uống của con tôi—đây là quyết định của chính phủ. Chúng ta có thể tranh luận [liệu] chính phủ đang làm tốt hay tồi, nhưng đó là về sự phân chia quyền lực.”
‘Nghiên cứu khoa học và chế tạo vũ khí sinh học trông rất giống nhau’
Các khả năng sử dụng kép, như nghiên cứu sinh học và an ninh mạng, đặt ra thách thức cho các công ty AI. Cùng một công cụ giúp nhà nghiên cứu an ninh mạng tìm và vá lỗ hổng phần mềm cũng có thể hỗ trợ một kẻ tấn công tiềm năng. Một AI giúp nghiên cứu virus, về mặt giả thuyết, có thể giúp một kẻ khủng bố sinh học thiết kế một chủng độc lực hơn. Wildeford nói: “Phòng thủ mạng và tấn công mạng trông rất giống nhau. Nghiên cứu khoa học và chế tạo vũ khí sinh học trông rất giống nhau.”
Trong quá khứ, các công ty đã chọn cách hạn chế các khả năng này cho tất cả mọi người. Ví dụ, nhiều chatbot từ chối các truy vấn về đột biến COVID nào khiến virus trở nên dễ lây truyền hơn. Trong khi điều này không làm phiền người dùng trung bình, nó lại là một thách thức đối với các nhà nghiên cứu. James Diggans, phó chủ tịch phụ trách chính sách và an toàn sinh học tại Twist Bioscience, một công ty tổng hợp DNA, nói: “Thật bực bội. Nhưng tôi nghĩ đó là điều đúng đắn nên làm.”
Các bản phát hành mô hình gần đây nới lỏng một số ràng buộc này cho các bên đáng tin cậy. OpenAI cho biết họ chỉ cấp quyền truy cập GPT-Rosalind cho các tổ chức có “kiểm soát nội bộ mạnh mẽ” để đảm bảo mô hình sẽ không bị sử dụng sai mục đích. Anthropic đã hợp tác với các cơ quan chính phủ Hoa Kỳ và các công ty tư nhân sử dụng Mythos để tìm và vá các lỗ hổng bảo mật mạng. Tuy nhiên, Batalis nói rằng việc xác định các nhà nghiên cứu “hợp pháp” khó khăn hơn bên ngoài các tổ chức của Hoa Kỳ, làm dấy lên lo ngại về sự công bằng cho các nhà nghiên cứu quốc tế.
Quyết định mô hình nào nên bị hạn chế truy cập là một hành động cân bằng tinh tế và thay đổi theo từng lĩnh vực. Diggans nói rằng thật dễ dàng để đo lường liệu một mô hình AI có gây ra mối đe dọa mạng tiềm tàng hay không: “Chúng có thể bẻ khóa các hệ thống hiện có không?” Nghiên cứu sinh học là một quá trình phức tạp, nhiều giai đoạn hơn và mất nhiều thời gian hơn các cuộc tấn công mạng; ít rõ ràng hơn liệu tác hại có đến từ một mô hình như GPT-Rosalind nếu nó được phát hành công khai. Batalis nói: “Chúng ta biết rằng mọi người muốn và thực sự thực hiện các cuộc tấn công mạng. Chúng ta chỉ không có cùng cỡ mẫu đó với các rủi ro sinh học.” Các lĩnh vực khác có thể trở nên tranh cãi hơn khi năng lực AI tiếp tục tiến bộ. Các chiến dịch truyền thông có thể bị coi là hoạt động tuyên truyền trong tay kẻ xấu.
‘Năng lực mạng sẽ lan tỏa’
Các mô hình mã nguồn mở, có thể được tải xuống và chạy miễn phí, có thể thay đổi cách tính toán xung quanh các hạn chế mô hình AI. Theo Epoch AI, một viện nghiên cứu về tiến bộ AI, năng lực của các mô hình mã nguồn mở trong lịch sử đã tụt hậu so với các mô hình độc quyền từ ba đến bảy tháng. Điều này có nghĩa là, nếu xu hướng tiếp tục, một mô hình AI với năng lực tương đương GPT-Rosalind và Mythos có thể được công khai vào cuối năm nay. Phát ngôn viên của OpenAI cho biết: “Năng lực mạng sẽ lan tỏa. Những người bảo vệ cần các công cụ tốt hơn sớm hơn, không phải muộn hơn.”
Các mô hình mã nguồn mở có thể mang lại lợi ích cho những kẻ tấn công mạng quốc tế. Vào tháng 11, Anthropic thông báo rằng họ đã phá vỡ một nhóm do nhà nước Trung Quốc tài trợ đang sử dụng các mô hình tính phí của công ty, bằng cách chặn quyền truy cập AI của họ. Nếu các mô hình có khả năng tương tự được cung cấp miễn phí trên mạng mở, điều này sẽ làm giảm đòn bẩy của các công ty phương Tây.
Tuy nhiên, một số nhà phát triển mã nguồn mở trước đây đã dựa vào đầu ra từ các hệ thống độc quyền hàng đầu để giúp đào tạo mô hình của họ. Các hạn chế truy cập gần đây đối với các mô hình mới có thể làm chậm hoặc ngăn chặn sự lan tỏa của các khả năng tiên tiến nhất vào các mô hình mã nguồn mở—miễn là các công ty có thể thực thi các hạn chế. (Một số người dùng trái phép được cho là đã thành công trong việc truy cập Claude Mythos.)
Cho dù các mô hình mã nguồn mở có bắt kịp các mô hình độc quyền hàng đầu hay không, Mythos và GPT-Rosalind là nền tảng mới của năng lực AI tiên phong—và những cơ hội cũng như rủi ro ngày càng tăng do AI tạo ra không có dấu hiệu chậm lại. Wildeford nói: “Tôi nghĩ chính phủ có lợi ích mạnh mẽ trong việc quản lý điều đó. Tôi không thực sự biết làm thế nào để tránh được nhu cầu can thiệp của chính phủ.”
Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.
Lĩnh vực: Tin nổi bật, Tin tức hàng ngày
SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.
