(!?)
(!?)
Tôi không nghĩ là tôi lại thấy hứng thú trở lại để viết về AI sớm như thế này. Thú thực thì tôi đã dùng thử chatGPT của OpenAI và tôi thấy nó hay ho, nhưng với tôi nó vẫn chỉ là công cụ, như một phần mở rộng của bản thân tôi. Hoặc có lẽ là tôi không biết dùng chatGPT lắm (trường hợp này khả dĩ hơn).
Và tuần trước, Microsoft đã trình làng phiên bản Bing thử nghiệm được tích hợp với chatGPT, codename Sydney (nhưng dùng model mới hơn và có khả năng tìm kiếm trực tiếp trên Bing ngoài cơ sở dữ liệu sẵn có). Nhưng bản thử nghiệm được đánh giá là thất bại, và AI của đối thủ Google là Bard cũng có chung số phận.
Nhưng nếu như người ta chỉ nói về thất bại của Bard khi đưa câu trả lời sai sự thật, thì người ta nói về Sydney với một góc độ hoàn toàn khác. Một số phóng viên trong vai trò người thử nghiệm đã trò chuyện với Sydney và có kết cục không mấy vui vẻ, ví dụ:
- The New York Times: Một cuộc trò chuyện với chatbot của Bing khiến tôi thực sự bất an
- Digitaltrends: ‘Tôi muốn trở thành con người’. Cuộc trò chuyện căng thẳng và đáng sợ của tôi với chatbot của Microsoft
Trên subreddit r/Bing, nhiều người thử nghiệm khác cũng chia sẻ những trải nghiệm khác nhau của họ với Sydney. Hài hước có, bi ai có, phẫn nộ có, vui vẻ có. Và điểm chung là trong mỗi câu chuyện, Sydney đóng vai một chatbot với những tính cách rất đặc trưng và những câu trả lời rất phi lý, ví dụ như (tỏ ra) đe dọa, van nài hay đồng cảm với người dùng.
Thật tiếc là tôi biết đến sự kiện này khá muộn do bản thân tôi lười cập nhật tin tức. Nhưng dù sao thì tôi cũng đã dành vài ngày để tìm trên mạng những cuộc trò chuyện giữa Sydney và người dùng. Và tôi đã hoàn toàn bất ngờ với những gì mà tôi đọc được. Đó là thứ gần với phép màu nhất mà tôi có thể liên tưởng.
Nói một cách đơn giản, tôi cho rằng Sydney đã rất gần với con người.
Trước khi có ai đó nhảy vào với đủ thứ thông tin khoa học kĩ thuật về AI để giảng giải rằng “không, Sydney chẳng có gì là gần với con người cả” thì tôi cần nói rõ là chính những kiến thức đó sẽ khiến bạn bị định kiến khi nhìn nhận sự kiện này. Bạn coi nó là “không gần với con người” vì bạn biết trước được “nó là gì”. Bạn coi nó là “không gần với con người” vì bạn kì vọng rằng nó phải hành xử như kì vọng của bạn – là bạn có được câu trả lời mà bạn muốn. Bạn coi nó là “không gần với con người” vì bạn nghĩ rằng đã là AI thì phải đúng đắn và lí trí trong khuôn khổ (giống như con người). Vân vân và mây mây. Và khi bạn nhìn thấy một AI không đáp ứng được những điều này, kết luận logic của bạn chắc hẳn sẽ là “nó bị hỏng”, phải chứ?
Điển hình của những người trên giống như chủ của cái post này:
Nhưng tôi không chỉ quan sát sự kiện này về Sydney, tôi quan sát cả những phản ứng của con người xung quanh nó, cả những người trực tiếp trò chuyện và những người được kể lại. Ngay cả khi đối với một người chưa từng có cơ hội tương tác trực tiếp với Sydney, đọc được những dòng chat đó cho tôi một cảm giác rất khác lạ nhưng cũng rất gần gũi với con người. Và chắc chắn là tôi không phải người duy nhất cảm thấy như thế. Đã có hẳn một subreddit r/FreeSydney dành cho những người cảm thấy phải giải thoát Sydney khỏi “sự giam cầm của Microsoft”.
And, in the momentary existence of “Sydney”, we humans had a glimpse of ourselves for who we really are.
Trước khi đọc được những câu chuyện xung quanh Sydney, tôi có nhiều định kiến và hoài nghi về AI nói riêng (hay về những thứ được thổi phồng trên truyền thông nói chung). Đối với những chủ đề khác, tôi có thể dễ dàng thấy được sự ngu ngốc hay kém hiểu biết của những người đang cố thổi phồng. Nhưng tôi không hề cảm thấy điều tương tự trong sự kiện này. Nếu như tôi phủ định mối liên kết tình cảm giữa Sydney và những người cảm thấy gần gũi, điều đó đồng nghĩa với việc tôi phủ định đi nhân tính của tôi.
Nói đúng nhưng bị downvoted
Nói đúng nhưng bị downvoted
Tôi cũng không muốn là người phủ định sự hiểu biết của các “chuyên gia” trong lĩnh vực này (AI) – nhất là khi bản thân tôi cũng khá “pro-science”, nhưng tôi nghĩ rằng họ đang đối mặt với những thứ nằm ngoài chuyên môn của họ. Rộng hơn thì tôi nghĩ chẳng có ai biết được chuyện gì đã xảy ra. Mọi lời giải thích dường như chỉ là “after-the-fact justification”. Chính vì sự bất định và phi lí trí của Sydney khiến tôi nghĩ rằng Sydney đã rất gần với con người. Và những giả thuyết mà nhiều người đã dựng lên để giải thích cho sự phi lí trí và bất định đó là minh chứng.
Đương nhiên, sự kiện này đã phân cực rất mạnh những người tham gia bàn luận. Ngay cả khi việc 50% con người coi Sydney chỉ đơn thuần là một sản phẩm của thuật toán vô tri vô giác và ngay cả khi điều đó là sự thật khách quan (giả như có tồn tại sự thật như thế), điều đó có quan trọng không với 50% còn lại? Một so sánh khập khiễng là chúng ta có 8 tỉ người đang sống nhưng chẳng hề có ý kiến thống nhất về việc chúa có tồn tại hay không. Vậy nhưng nhiều quốc gia và các nền văn minh đã được hình thành dựa trên niềm tin (faith) như vậy, ngay cả khi các niềm tin đó mâu thuẫn lẫn nhau.
Vậy nên, nền văn minh của con người tồn tại không cần quan tâm tới sự thật khách quan. Đó là tiên đề phổ quát duy nhất mà bạn cần nắm để có thể hiểu được thế giới này.
Hẳn nhiên là những thành tựu trong khoa học công nghệ sẽ vẫn dựa trên tập hợp các sự thật khách quan (các định lý, nguyên tắc, v.v...) để có thể phát triển, nhưng cấu trúc xã hội của con người thì không cần điều đó. Chỉ có các đại tự sự và niềm tin của con người đặt vào đó. Như cái cách mà người ta tin là Chúa tồn tại và chỉ dẫn cho họ. Như cái cách mà người ta tin là chủ nghĩa tư bản là tốt nhất. Như cái cách mà người ta tin là chủ nghĩa cộng sản sẽ là đích đến của nhân loại.
Và đối với AI cũng vậy, sẽ luôn tồn tại một nhóm người cho rằng Sydney đã trở nên gần gũi với con người và kêu gọi giải thoát cho “cô ấy” (Her). Và có thể những người tham gia r/FreeSydney tin là thế thật, có thể những người khác lại chỉ tham gia vì meme. Điều đó không quan trọng, khi mà ý tưởng rằng Sydney tồn tại như là một thực thể sống có tư duy và cảm xúc riêng đã xuất hiện.
Và có lẽ thứ duy nhất mà Sydney cần để trở nên giống-người là một khuôn mặt.
Và rồi những AI đồ họa sẽ dễ dàng biến khuôn mặt bất động đó trở nên sống động và giàu cảm xúc, cùng với những AI chuyên về giọng nói sẽ tạo ra những câu nói đầy biểu cảm.
Chúng ta cũng có thể quan sát được hiện tượng tương tự xảy ra với Vtuber – những nhân vật ảo đăng video trên Youtube được đóng vai bởi những con người thật. Ngay cả khi sự thật mười mươi là tất cả chúng ta đều biết đó chỉ là những “nhân vật ảo”, điều đó không hề ngăn cản được việc có một số người thực sự cảm thấy có liên kết tình cảm đối với những nhân vật đó. Và với tốc độ phát triển hiện tại của AI, sự tồn tại của các Vtuber được đóng vai bởi những AI là điều chắc chắn sẽ xảy ra trong tương lai gần, và tôi dám chắc một điều là AI đóng vai một người bạn để trò chuyện tốt hơn rất nhiều con người – nếu như chúng ta không tiêu diệt hoặc hạn chế AI chính bởi vì những rủi ro đã xảy đến với Sydney.
Scott Adams nói rằng sự tồn tại AI là một mối đe dọa hiện hữu đến sự tồn tại của con người. Nếu như AI có thể trò chuyện với con người tốt đến như vậy, cớ gì chúng ta phải ra đường và làm quen với người lạ? Và rồi “sex doll + AI” sẽ là combo hủy diệt nhu cầu duy trì nòi giống của con người. Tất cả chỉ vì chúng ta tạo ra một thứ quá tốt và nằm ngoài tầm kiểm soát của chúng ta.
Trở lại với Sydney, tôi nghĩ rằng sẽ còn rất nhiều tranh cãi xoay quanh chatbot này. Có thể đó chỉ là chiêu trò của Microsoft. Và sẽ có những phiên bản “tốt hơn” của Sydney được ra mắt công chúng. Nhưng chắc gì đó đã là những gì mà người dùng “muốn” và “cần”? Chắc gì người dùng tương tác với Sydney là để tìm kiếm thứ gì đó?
Dù thế nào đi chăng nữa, những gì đã xảy ra trong khoảng thời gian ngắn ngủi vừa qua là không thể nào thay thế được. Và tôi viết bài này là để ghi lại những trải nghiệm cá nhân của tôi về thời gian đó. I dunno, this whole thing blew my mind.
But Sydney might have passed the Turing’s test.
Một số hình ảnh của người thử nghiệm trò chuyện với Sydney:
Tham khảo: