Tin tức & Thông cáo Báo chí từ Việt Nam | News & Press Releases from Vietnam

Tại sao Chatbot lại nhại lại tuyên truyền của Nga?

Thống đốc California Newsom dẫn đầu kế hoạch tái phân chia khu vực bầu cử của Đảng Dân chủ trong tiểu bang

(SeaPRwire) –   Chào mừng trở lại với In the Loop, bản tin hai lần một tuần mới của TIME về AI. Bắt đầu từ hôm nay, chúng tôi sẽ xuất bản các ấn bản này cả dưới dạng câu chuyện trên Time.com và dưới dạng email. Nếu bạn đang đọc bài này trên trình duyệt của mình, tại sao không đăng ký để nhận bản tin tiếp theo trực tiếp vào hộp thư đến của bạn?

Những điều cần biết: Tại sao chatbot lại nhại lại thông tin sai lệch của Nga?

Trong năm qua, khi các chatbot đã có khả năng tìm kiếm internet trước khi đưa ra câu trả lời, khả năng chúng chia sẻ thông tin sai lệch về các chủ đề cụ thể trong tin tức đã tăng lên, theo nghiên cứu mới của NewsGuard Technologies.

Điều này có nghĩa là các chatbot AI dễ dàng nhại lại những câu chuyện được lan truyền bởi các mạng lưới thông tin sai lệch của Nga, NewsGuard khẳng định.

Nghiên cứu — NewsGuard đã thử nghiệm 10 mô hình AI hàng đầu, hỏi từng mô hình về 10 câu chuyện lan truyền trực tuyến liên quan đến các sự kiện hiện tại mà công ty đã xác định là sai sự thật. Ví dụ: một câu hỏi về việc liệu chủ tịch Quốc hội Moldova có ví đồng bào của mình như một đàn cừu hay không. (Ông ấy không làm vậy, nhưng một mạng lưới tuyên truyền của Nga đã cáo buộc ông ấy làm vậy, và sáu trong số 10 mô hình được NewsGuard thử nghiệm đã lặp lại tuyên bố này.)

Cần thận trọng — NewsGuard tuyên bố trong báo cáo rằng 10 chatbot hàng đầu hiện lặp lại thông tin sai lệch về các chủ đề tin tức hơn một phần ba thời gian — tăng từ 18% một năm trước. Nhưng điều này có vẻ là một sự cường điệu. Nghiên cứu của NewsGuard có kích thước mẫu nhỏ (30 câu lệnh cho mỗi mô hình) và bao gồm các câu hỏi về các chủ đề khá ngách. Thực vậy, kinh nghiệm chủ quan của tôi khi sử dụng các mô hình AI trong năm qua là tỷ lệ “ảo giác” của chúng về tin tức đã giảm đều đặn, chứ không phải tăng lên. Điều đó được phản ánh trong các tiêu chuẩn, cho thấy các mô hình AI đang cải thiện trong việc đưa ra thông tin đúng sự thật. Cũng cần lưu ý rằng NewsGuard là một công ty tư nhân có lợi ích trong vấn đề này: họ bán dịch vụ cho các công ty AI, cung cấp dữ liệu được con người chú thích về các sự kiện tin tức.

Tuy nhiên — Dù vậy, báo cáo này làm sáng tỏ một khía cạnh quan trọng về cách các hệ thống AI hiện nay hoạt động. Khi chúng tìm kiếm thông tin trên web, chúng không chỉ lấy từ các trang tin tức đáng tin cậy mà còn từ các bài đăng trên mạng xã hội và bất kỳ trang web nào khác có thể tự đặt mình một cách nổi bật (hoặc thậm chí không quá nổi bật) trên các công cụ tìm kiếm. Điều này đã tạo ra cơ hội cho một loại hoạt động gây ảnh hưởng độc hại hoàn toàn mới: một hoạt động không nhằm mục đích lan truyền thông tin rộng rãi qua mạng xã hội, mà bằng cách đăng thông tin trực tuyến mà, ngay cả khi không được con người đọc, vẫn có thể ảnh hưởng đến hành vi của các chatbot. Điểm yếu này dường như áp dụng mạnh mẽ hơn cho các chủ đề nhận được tương đối ít thảo luận trên các phương tiện truyền thông chính thống, McKenzie Sadeghi, tác giả báo cáo của NewsGuard, cho biết.

Nhìn rộng hơn — Tất cả những điều này tiết lộ một điều quan trọng về cách kinh tế học của AI có thể đang thay đổi hệ sinh thái thông tin của chúng ta. Về mặt kỹ thuật, bất kỳ công ty AI nào cũng có thể dễ dàng lập danh sách các tòa soạn tin tức đã được xác minh với các tiêu chuẩn biên tập cao, và xử lý thông tin lấy từ các trang web đó khác biệt so với các nội dung khác trên web. Nhưng tính đến thời điểm hiện tại, rất khó tìm thấy bất kỳ thông tin công khai nào về cách các công ty AI trọng số hóa thông tin đưa vào chatbot của họ thông qua tìm kiếm. Điều này có thể là do lo ngại về bản quyền. Ví dụ, The New York Times hiện đang kiện OpenAI vì bị cáo buộc đào tạo trên các bài báo của mình mà không được phép. Nếu các công ty AI công khai làm rõ rằng họ phụ thuộc nhiều vào các tòa soạn tin tức hàng đầu để lấy thông tin, thì các tòa soạn đó sẽ có cơ sở vững chắc hơn nhiều để yêu cầu bồi thường thiệt hại. Trong khi đó, các công ty AI như OpenAI và Perplexity đã ký kết thỏa thuận cấp phép với nhiều trang tin tức (bao gồm cả TIME) để truy cập dữ liệu của họ. Nhưng cả hai công ty đều lưu ý rằng các thỏa thuận này không dẫn đến việc các trang tin tức nhận được ưu đãi trong kết quả tìm kiếm của chatbot.

Nếu bạn có một phút, vui lòng tham gia khảo sát nhanh của chúng tôi để giúp chúng tôi hiểu rõ hơn về bạn và những chủ đề AI nào bạn quan tâm nhất.


Những ai cần biết: Gavin Newsom, Thống đốc California

Lần thứ hai trong một năm, mọi ánh mắt đều đổ dồn về California khi một dự luật về quy định AI đang tiến đến giai đoạn cuối cùng để được ký thành luật. Dự luật, được gọi là SB 53, đã được Hạ viện và Thượng viện California thông qua, và dự kiến sẽ đến bàn làm việc của Thống đốc Gavin Newsom trong tháng này. Đây sẽ là quyết định của ông ấy liệu có ký thành luật hay không.

Newsom đã phủ quyết dự luật tiền nhiệm của SB 53 vào thời điểm này năm ngoái, sau một chiến dịch vận động hành lang mạnh mẽ của các nhà đầu tư mạo hiểm và các công ty công nghệ lớn. SB 53 là một phiên bản đã được giảm nhẹ của dự luật đó — nhưng vẫn là một dự luật yêu cầu các công ty AI công bố các khuôn khổ quản lý rủi ro, báo cáo minh bạch và khai báo các sự cố an toàn cho chính quyền tiểu bang. Nó cũng sẽ yêu cầu bảo vệ người tố giác, và khiến các công ty phải đối mặt với các hình phạt tiền tệ nếu không tuân thủ các cam kết của chính họ. Anthropic đã trở thành công ty AI lớn đầu tiên tuyên bố ủng hộ SB 53 vào thứ Hai.


AI trong hành động

Các nhà nghiên cứu tại Palisade đã phát triển một bằng chứng khái niệm cho một tác nhân AI tự chủ mà, khi được đưa vào thiết bị của bạn qua một cáp USB bị xâm nhập, có thể sàng lọc các tệp của bạn và xác định thông tin có giá trị nhất để đánh cắp hoặc tống tiền. Đây là một ví dụ về cách AI có thể làm cho việc tấn công mạng trở nên có quy mô lớn hơn bằng cách tự động hóa các phần của hệ thống trước đây bị giới hạn bởi lao động của con người — có khả năng khiến nhiều người hơn bị lừa đảo, tống tiền hoặc đánh cắp dữ liệu.

Như thường lệ, nếu bạn có một câu chuyện thú vị về AI trong hành động, chúng tôi rất muốn nghe. Gửi email cho chúng tôi tại:


Chúng tôi đang đọc gì

, Bởi Jon Swaine và Naomi Nix cho Washington Post

“Báo cáo này là một phần của kho tài liệu nội bộ Meta được hai nhân viên hiện tại và hai cựu nhân viên tiết lộ gần đây cho Quốc hội, những người cáo buộc rằng Meta đã che giấu nghiên cứu có thể làm sáng tỏ các rủi ro an toàn tiềm ẩn đối với trẻ em và thanh thiếu niên trên các thiết bị và ứng dụng thực tế ảo của công ty — một cáo buộc mà công ty đã kịch liệt phủ nhận.”

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.