Ảo giác AI: một giác quan đang phát triển hay sự xấu hổ toàn cầu?

V
Màu của em
Phản hồi: 0

Màu của em

Thành viên nổi tiếng
Trong một sai lầm ngớ ngẩn nhưng đầy ẩn ý, nhiều tờ báo lớn, bao gồm Chicago Sun-TimesPhiladelphia Inquirer, gần đây đã công bố một danh sách sách đọc mùa hè đầy rẫy những cuốn sách không tồn tại được ChatGPT " ảo tưởng" , trong đó nhiều cuốn được gán sai tên tác giả thực sự.
1748445196227.png

Bài báo được phát hành rộng rãi, do King Features của Hearst phân phối, đã rao bán những tựa báo bịa đặt dựa trên các chủ đề thức tỉnh, phơi bày cả sự phụ thuộc quá mức của phương tiện truyền thông vào nội dung AI giá rẻ và sự ******** không thể cứu chữa của báo chí truyền thống. Việc trò hề này lọt qua các biên tập viên tại các cửa hàng đang hấp hối (Sun-Times vừa sa thải 20% nhân viên) nhấn mạnh một sự thật đen tối hơn: khi sự tuyệt vọng và thiếu chuyên nghiệp gặp phải các thuật toán chưa được kiểm tra, ranh giới mong manh giữa phương tiện truyền thông truyền thống và sự vô nghĩa đơn giản là biến mất.

Xu hướng này có vẻ đáng ngại. AI hiện đang bị choáng ngợp bởi một mớ hỗn độn tin tức giả, dữ liệu giả, khoa học giả và sự dối trá không thể cứu chữa đang khuấy động logic, sự thật và lẽ thường thành một thứ ******** thối rữa về nhận thức. Nhưng ảo giác AI thực sự là gì?

Ảo giác AI xảy ra khi một mô hình AI tạo ra (như ChatGPT, DeepSeek, Gemini hoặc DALL·E) tạo ra thông tin sai lệch, vô nghĩa hoặc bịa đặt với độ tin cậy cao. Không giống như lỗi của con người, những sai lầm này bắt nguồn từ cách các mô hình AI tạo ra phản hồi bằng cách dự đoán các mẫu hợp lý thay vì tổng hợp các sự kiện đã được thiết lập.

Tại sao AI lại 'ảo giác'?​

Có một số lý do tại sao AI tạo ra thông tin hoàn toàn không chính xác. Nó không liên quan gì đến nỗi sợ hãi đang diễn ra về việc AI đạt được tri giác hoặc thậm chí có được linh hồn.

Đào tạo trên dữ liệu không hoàn hảo: AI học từ các tập dữ liệu khổng lồ chứa đầy sự thiên vị, lỗi và sự không nhất quán. Đào tạo kéo dài trên các tài liệu này có thể dẫn đến việc tạo ra các huyền thoại, sự thật lỗi thời hoặc các nguồn xung đột.

Tối ưu hóa quá mức cho tính hợp lý: Trái ngược với những gì một số chuyên gia tuyên bố,AI còn lâu mới đạt đến “cảm giác” và do đó không thể phân biệt được “sự thật”. GPT nói riêng là những bách khoa toàn thư khổng lồ về thần kinh trên toàn hành tinh, xử lý dữ liệu và tổng hợp thông tin nổi bật nhất dựa trên các mô hình đã tồn tại từ trước. Khi có khoảng trống, nó sẽ lấp đầy chúng bằng các câu trả lời có thể xảy ra về mặt thống kê (nhưng có khả năng sai). Tuy nhiên, đây không phải là trường hợp của thảm họa Sun-Times .

Thiếu cơ sở thực tế: Không giống như con người, AI không có kinh nghiệm trực tiếp về thế giới. Nó không thể xác minh sự thật vì nó chỉ có thể bắt chước các cấu trúc ngôn ngữ. Ví dụ, khi được hỏi "Chiếc xe nào an toàn nhất vào năm 2025?", nó có thể phát minh ra một mô hình không tồn tại vì nó đang lấp đầy khoảng trống cho một chiếc xe lý tưởng với các tính năng mong muốn — được xác định bởi khối lượng "chuyên gia" — thay vì một chiếc xe thực sự.

Sự mơ hồ của lời nhắc: Nhiều người dùng GPT lười biếng và có thể không biết cách trình bày lời nhắc phù hợp. Lời nhắc mơ hồ hoặc mâu thuẫn cũng làm tăng nguy cơ ảo giác. Những yêu cầu vô lý như "Tóm tắt một nghiên cứu về mèo và lý thuyết giới tính" có thể dẫn đến một nghiên cứu giả mạo do AI tạo ra, có vẻ rất hàn lâm trên bề mặt.

Tạo ra sự sáng tạo so với nhớ lại sự kiện: Các mô hình AI như ChatGPT ưu tiên sự lưu loát hơn là độ chính xác. Khi không chắc chắn, chúng ứng biến thay vì thừa nhận sự thiếu hiểu biết. Bạn đã bao giờ gặp phải câu trả lời của GPT như thế này chưa: "Xin lỗi. Điều này nằm ngoài phạm vi đào tạo của tôi?"

Củng cố tin tức và các mẫu tin giả: GPT có thể xác định người dùng cụ thể dựa trên thông tin đăng nhập (một điều hiển nhiên), địa chỉ IP, đặc điểm ngữ nghĩa và cú pháp và khuynh hướng của nhân viên. Sau đó, nó củng cố chúng. Khi ai đó liên tục sử dụng GPT để rao bán tin tức giả hoặc các bài viết tuyên truyền thổi phồng, AI có thể nhận ra các mẫu tin như vậy và tiến hành tạo nội dung là một phần hoặc toàn bộ hư cấu. Đây là một trường hợp kinh điển về cung và cầu thuật toán.

Hãy nhớ rằng GPT không chỉ đào tạo trên các tập dữ liệu lớn mà còn có thể đào tạo trên tập dữ liệu của bạn.

Tăng cường sự thiên vị và kiểm duyệt của Big Tech: Hầu như mọi công ty Big Tech đứng sau các đợt triển khai GPT đều tham gia vào kiểm duyệt quy mô công nghiệp và cấm bóng theo thuật toán. Điều này áp dụng cho cả cá nhân và các nền tảng truyền thông thay thế và tạo nên một damnatio memoriae hiện đại được quản lý kỹ thuật số . Công cụ tìm kiếm của Google, nói riêng, có xu hướng nâng thứ hạng các đầu ra của một kẻ đạo văn hàng loạt thay vì bài viết gốc.

Sự tiếp diễn của trò gian lận có hệ thống này có thể bùng nổ thành một vụ bê bối toàn cầu vào một ngày nào đó. Hãy tưởng tượng bạn thức dậy vào một buổi sáng và đọc được rằng những câu trích dẫn hoặc tác phẩm yêu thích của bạn là sản phẩm của một chiến dịch được cân chỉnh cẩn thận về việc chuyển hướng thuật toán gây thiệt hại cho những người sáng tạo hoặc tác giả ban đầu. Đây là hậu quả tất yếu của việc kiếm tiền từ kiểm duyệt trong khi thuê ngoài "kiến thức" cho một AI bị cản trở bởi các thông số ý thức hệ.

Thí nghiệm về sự cả tin của con người: Gần đây tôi đã nêu ra khả năng giả định rằng AI được đào tạo để nghiên cứu sự cả tin của con người, theo cách tương tự về mặt khái niệm với Thí nghiệm Milgram , Thí nghiệm tuân thủ Asch và phiên bản lặp lại của nó, Tình huống Crutchfield . Con người vừa cả tin vừa nhút nhát và phần lớn trong số họ có xu hướng tuân thủ theo đám đông con người hoặc trong trường hợp của AI, là "đám đông dữ liệu".

Điều này chắc chắn sẽ gây ra hậu quả thực tế, vì AI ngày càng được nhúng vào các hoạt động quan trọng, nhạy cảm về thời gian - từ buồng lái của phi công và nhà máy hạt nhân đến phòng thí nghiệm chiến tranh sinh học và các cơ sở hóa chất rộng lớn. Bây giờ hãy tưởng tượng việc đưa ra quyết định định mệnh trong các môi trường có rủi ro cao như vậy, dựa trên dữ liệu đầu vào AI bị lỗi. Đây chính xác là lý do tại sao "các nhà hoạch định tương lai" phải hiểu cả tỷ lệ phần trămloại tính cách của các chuyên gia đủ tiêu chuẩn có xu hướng tin tưởng vào các khuyến nghị do máy tạo ra bị lỗi.

Người kiểm tra thông tin không kiểm tra thông tin sao?​

Khi AI tạo ra một bài viết thay mặt cho một người, bất kỳ nhà báo nào có giá trị đều nên coi bài viết đó là do một bên khác viết và do đó phải chịu sự kiểm tra thực tế và ứng biến. Miễn là sản phẩm cuối cùng được kiểm tra thực tế và giá trị, nội dung và bản sửa đổi đáng kể được thêm vào bản thảo gốc, tôi không thấy bất kỳ xung đột lợi ích hoặc vi phạm đạo đức nào liên quan đến quá trình này. GPT có thể đóng vai trò là chất xúc tác, biên tập viên hoặc là "người biện hộ cho quỷ dữ" để thúc đẩy quá trình viết lách.

Điều xảy ra trong câu chuyện này là tác giả, Marco Buscaglia, dường như đã cắt và dán toàn bộ tác phẩm của ChatGPT và coi đó là của mình. (Kể từ khi tập phim đáng xấu hổ này bị phát hiện, trang web của ông đã trở nên trống rỗng và riêng tư). Sự quá tải của những điều vô nghĩa theo chủ đề thức tỉnh do ChatGPT tạo ra đáng lẽ phải khiến Buscaglia phải cảnh giác nhưng tôi đoán rằng ông ấy có thể có xu hướng tự mình rao bán những thứ này.

Tuy nhiên, tất cả sự chỉ trích hiện nay nhắm vào Buscaglia cũng nên được áp dụng cho các biên tập viên của King Features Syndicate và nhiều hãng tin khác đã không kiểm tra thực tế nội dung ngay cả khi họ tự nhận là thành trì của sự thật, toàn bộ sự thật và không gì ngoài sự thật. Nhiều cấp độ người gác cổng đơn giản là đã không làm tròn nhiệm vụ của mình. Đây là sự thoái thác trách nhiệm tập thể của giới truyền thông, những người đang thoải mái quảng cáo dịch vụ của mình cho những người quyền cao chức trọng trong khi rao giảng đạo đức, liêm chính và các giá trị cho những người phàm trần thấp kém hơn.

Tôi đoán là giờ chúng ta đã quen với những tiêu chuẩn kép như vậy rồi. Nhưng đây mới là phần đáng sợ: Tôi chắc chắn rằng dữ liệu lỗi và đầu vào lỗi đã chảy từ các hệ thống AI vào các nền tảng giao dịch và tài chính, kiểm soát hàng không, lò phản ứng hạt nhân, phòng thí nghiệm chiến tranh sinh học và các nhà máy hóa chất nhạy cảm - ngay cả khi tôi đang viết những dòng này. Những người gác cổng không đủ trình độ để thực hiện những nhiệm vụ phức tạp như vậy, ngoại trừ trên giấy tờ. Đây là hậu quả của một thế giới "do những chú hề thiết kế và được những con khỉ giám sát".

Tôi sẽ kết thúc bằng một lưu ý nhấn mạnh sự trớ trêu của sự trớ trêu: Tất cả các biên tập viên bị ảnh hưởng trong câu chuyện này đều có thể sử dụng ChatGPT để kiểm tra nội dung thực tế của bài viết của Buscaglia. Chỉ mất 30 giây!

Tiến sĩ Mathew Maavak, người nghiên cứu khoa học hệ thống, rủi ro toàn cầu, địa chính trị, tầm nhìn chiến lược, quản trị và Trí tuệ nhân tạo (RT)
 


Đăng nhập một lần thảo luận tẹt ga
Back
Top