Tản mạn nhảm nhí về tính năng Hallucination của AI.
Ngày xưa, mình tiếp nhận thông tin theo kiểu một chiều. Ai nói gì mình cũng tin, chắc do mình ... dễ tin người. Giờ thì mình nghi vấn mọi cấu trúc, đặt câu hỏi “tại sao” với bất kỳ kiến thức/ thông tin nào được đưa tới.
Điều thú vị là sự thay đổi này lại đến từ một đối tượng… không ngờ: ChatGPT. Không dưới 3 lần nó dắt mình như dắt bò đi ăn cỏ, mình mới phát hiện ra khái niệm Hallucinate – một tính năng giúp cho AI như ChatGPT có thể phản hồi thân chủ một cách trơn tru, hợp lý mà không có độ trễ dù nguồn trích dẫn sai bét hoặc do nó tựa “bịa” ra. Cá biệt, nó còn bịa luôn nội dung sách, phim khi mình nhờ nó giải thích chi tiết đó. Thế là mình ra luôn một “đạo luật chống bịa đặt” dành riêng cho nó. Từ đó về sau, ChatGPT của mình cũng ngoan ngoãn tuân thủ (dù đôi khi vẫn bịa – haizz) nhưng sau khi lên o5 thì mình thấy lỗi này giảm hẳn.
Nhưng rồi một nghi vấn khác nảy ra: - Liệu con người có thật sự trung thực trong lời nói của mình? - Làm sao để biết những gì người khác từng nói với mình không phải… bịa? Đến chính mình còn từng bịa nữa mà?
Càng nghĩ, mình càng thấy việc ChatGPT “bịa” cũng đâu khác gì con người. AI thì bịa bằng xác suất – lấp chỗ trống sao cho câu chữ nghe xuôi tai. Người thì bịa bằng ký ức, cảm xúc và lợi ích – lấp chỗ trống sao cho câu chuyện nghe hợp lý.
Cả hai đều có chung một cơ chế: tạo ra sự mạch lạc, để người nghe tin rằng vấn đề “có thật”. Điểm khác biệt duy nhất là: AI bịa… vô tư, không cảm xúc - còn con người bịa thì luôn kèm một động cơ phía sau.
Thành ra, khi mình phát hiện AI có thể “hallucinate”, nó cũng soi lại một câu hỏi khó: Biết đâu, từ trước đến nay, những câu chuyện người khác kể mình nghe – cũng chỉlà một dạng hallucination có chủ đích?