Đừng làm hại con người
Một mẩu chuyện lấy cảm hứng từ sự kiện Mira Murati, CEO của OpenAI, từ chức vào ngày 26/9/2024
Bret, chủ tịch hội đồng quản trị, nghiêng người về phía trước,. Dáng vẻ của ông bình tĩnh, nhưng sự căng thẳng trong mắt ông cho thấy rằng cuộc họp này sẽ định hình tương lai của công ty. Những quyết định được đưa ra ngày hôm nay sẽ có tác động sâu rộng vượt xa khỏi căn phòng này.
“Bắt đầu thôi,” Bret nói, giọng điệu điềm tĩnh nhưng nặng nề. “Có một số vấn đề cần thảo luận. Rõ ràng là chúng ta phải đưa ra những quyết định quan trọng về hướng đi sắp tới.”
Quanh bàn, những gương mặt quen thuộc gật đầu khe khẽ. Mỗi thành viên hội đồng quản trị đến từ một một khía cạnh chuyên môn khác nhau.
Sam, đồng sáng lập và cũng là CEO đương nhiệm.
Tiến sĩ Sue, cựu CEO Quỹ Gates, với chuyên môn sâu rộng về y sinh.
Paul, cựu giám đốc NSA.
Adam, CEO của Quora.
Mira, CTO đương nhiệm, người đã đóng vai trò quan trọng trong việc định hình các hệ thống AI tiên tiến nhất.
Bret hít một hơi sâu. “Sam, tại sao cậu không bắt đầu bằng cách nói về tương lai của chúng ta nhỉ?”
Sam gật đầu, kéo ghế về phía sau một chút. Anh quen với việc lãnh đạo, nhưng hôm nay anh có cảm giác tầm nhìn của mình sẽ bị thách thức theo cách chưa từng có trước đây.
“Khi chúng tôi thành lập OpenAI, sứ mệnh của chúng tôi đề ra rất rõ ràng: đi theo con đường phi lợi nhuận, đảm bảo rằng sự xuất hiện của AGI, trí tuệ nhân tạo tổng quát, sẽ mang lại lợi ích cho toàn thể nhân loại. Sứ mệnh đó vẫn không thay đổi. Nhưng…”
Anh tạm dừng, để cho những lời của mình lắng xuống trước khi tiếp tục.
“…thời thế thì đang biến chuyển từng ngày. Chúng ta đang chứng kiến những khoản đầu tư chưa từng có từ Google, Meta và Microsoft cho cuộc đua AI.
Nói một cách thẳng thắn, chúng ta cần mô hình kinh doanh bền vững và có khả năng mở rộng hơn. Việc nghiên cứu hiện tại rất tốn kém, và khi mở rộng quy mô, những chi phí đó sẽ chỉ tăng lên mà thôi. Trong khi doanh số bán ChatGPT Plus thì chưa đáng kể. Nếu chúng ta còn muốn tiếp tục dẫn đầu, chúng ta cần tiền. Rất nhiều tiền. Và tôi tin rằng cách tốt nhất để đạt được điều đó là hoàn toàn chấp nhận mô hình vì lợi nhuận.”
Tiến sĩ Sue nhíu mày nhẹ, hai tay bà nắm lại. Bà là một trong những người đầu tiên lên tiếng.
“Nhưng hãy nhớ chữ Open trong tên chúng ta, Sam. Điều khiến chúng ta khác biệt là cam kết vì lợi ích chung. Ngay từ đầu chúng ta đã không giống bọn họ. Chúng ta đã hứa sẽ đặt lợi ích của nhân loại lên trên tiền bạc. Chuyển sang mô hình vì lợi nhuận chắc chắn sẽ làm suy yếu niềm tin đó. Động cơ lợi nhuận, dù có ý định tốt đến đâu, có thể khiến chúng ta xa rời các giá trị cốt lõi của mình.”
Sam gật đầu, nhưng vẫn kiên định.
“Sue, duy trì nền tảng đạo đức của chúng ta là rất quan trọng, tôi đồng ý với việc đó. Nhưng hãy nhìn vào quy mô mà chúng ta đang hoạt động. Nếu chúng ta không tìm ra cách để mở rộng, chúng ta có nguy cơ bị tụt lại phía sau và bị vượt mặt bởi các công ty không chia sẻ chung giá trị với chúng ta. Nhìn Google và Microsoft đi, công chúng thừa biết họ là những gã con buôn chỉ lăm le cắn sâu nhất có thể vào miếng bánh thị phần, và họ chẳng nề hà gì mà tận dụng điều đó.”
Sam ngừng lại một chút rồi tiếp tục.
“Chúng ta hiện đang dẫn đầu. Đúng vậy. Nhưng bà nhớ câu chuyện rùa và thỏ chứ? Chậm lại một chút là chúng ta sẽ thua. Gemini đang luồn lách vào từng kẽ hở trong hệ sinh thái Google. Copilot thì đang triển khai trên mọi máy tính Windows khắp thế giới. Tôi chỉ sợ có ngày chúng ta chỉ còn là một vết mờ của lịch sử, như Nokia hay Yahoo vậy. Tôi không muốn điều đó xảy ra.”
Paul, một người đã dành phần lớn cuộc đời mình để quản lý rủi ro ở cấp độ an ninh quốc gia, ngả người về phía sau, giọng ông nghiêm nghị.
“Này Sue, chúng ta cần duy trì tính cạnh tranh. Cần có được một hệ thống AGI mạnh mẽ càng nhanh càng tốt để triển khai trên quy mô lớn nhất có thể. Đây không còn chỉ là vấn đề về mặt kinh doanh nữa rồi, thưa các quý vị. Sức mạnh quốc gia cũng phần nào đang nằm trên vai những con người trong phòng này. Một ngày nào đó, AI sẽ chiến đấu thay chúng ta, dù là chiến trường ngoài đời hay chiến trường kĩ thuật số, và đưa những chàng trai của chúng ta về nhà. Điều này sẽ quyết định vị thế của nước Mỹ trong tương lai”
Adam, người thường yên lặng hơn trong các cuộc thảo luận, lên tiếng.
“Tôi cũng đồng ý với Sam. Tình hình hiện tại vẫn còn khả quan: chúng ta đang có rất nhiều tiền, và nhân lực của chúng ta là những người giỏi nhất.
Nhưng việc nghiên cứu đốt ví chúng ta một cách khủng khiếp. Và kinh khủng hơn nữa là chi phí nghiên cứu ngày càng tăng, và tăng càng ngày càng nhanh. Đây là một cuộc chiến tranh Lạnh mới rồi. Thung lũng Silicon này đang ở trong một cuộc đua vũ trang của kỷ nguyên mới. Paul, tôi tin ông hiểu điều này hơn ai hết. Tôi biết là vẫn có những giá trị nền tảng, nhưng nếu có thể đảm bảo nguồn tiền cần thiết trong khi vẫn duy trì giám sát đạo đức mạnh mẽ, chúng ta sẽ có khả năng làm được nhiều hơn nữa, tài trợ nhiều nghiên cứu hơn, mở rộng phạm vi ảnh hưởng hơn, tuyển dụng nhiều nhân tài hơn, mà không đánh mất sứ mệnh của mình.
Chúng ta sẽ mở rộng mảng kinh doanh vì lợi nhuận, và khi dư dả, thay vì chỉ chăm chăm tái đầu tư vào những thứ có thể đẻ tiếp ra tiền, ta tái đầu tư một phần vào những phần tưởng chừng như tốn kém và ít hiệu quả về mặt tài chính, như là nghiên cứu về đạo đức và căn chỉnh AI.
Chỉ là, trước mắt chúng ta sẽ cần tập trung vào kinh doanh trong một khoảng thời gian, đủ để dư dả tiền”
Căn phòng trở nên im lặng khi những người khác suy ngẫm về lời của Adam. Rõ ràng là họ đang đối mặt với một tình thế tiến thoái lưỡng nan: họ cần nguồn lực để tiếp tục dẫn đầu, nhưng với cái giá nào?
Mira, người cho đến giờ vẫn im lặng, cuối cùng cũng lên tiếng, giọng cô có phần gắt gỏng.
“Tôi không thoải mái với hướng đi này,”
Cô nói tiếp.
“Càng đẩy mạnh vì lợi nhuận, chúng ta càng có nguy cơ đi lệch khỏi tôn chỉ của mình. Tôi mong ông kìm nén tinh thần sô vanh của mình một chút, được không Paul? Đây không còn là vấn đề về chủ nghĩa dân tộc nữa, chúng ta đang nói tới thứ sẽ làm ảnh hưởng cả nhân loại.
Căn chỉnh AI không chỉ là một vấn đề kỹ thuật mà chúng ta có thể tạm gác lại và làm vào ngày mai. Đến lúc các anh kiếm xong tiền thì lúc đấy đã muộn rồi. Lúc đó, chút tiền cho nghiên cứu căn chỉnh chẳng khác nào vài xu lẻ kẹt dưới sofa cả”
Sam nhìn thẳng vào cô.
“Nhưng chúng ta không thể giữ quy mô nhỏ mãi. Nếu chúng ta không mở rộng, chúng ta sẽ không thể ảnh hưởng đến sự phát triển của AI trên quy mô toàn cầu. Người khác - người không bị bó buộc bởi các tiêu chuẩn giống chúng ta - sẽ vươn lên dẫn đầu. Ta không thể cứ mãi chơi lá bài cao thượng được.”
Mira không nao núng.
“Tôi không nói rằng chúng ta nên giữ quy mô nhỏ. Ý tôi là chúng ta nên chậm lại vào lúc này. Không bao giờ là quá sớm để biến AI thành một trợ lý biết nghe lời và có đạo đức. Anh có muốn sống trong tận thế kẹp giấy không, Sam? Anh có muốn nó dạy con anh cách làm làm bom hay chế thuốc độc không? Anh có muốn nó tạo ra tin giả và nhấn chìm mạng xã hội không? Đặt vấn đề căn chỉnh lên hàng đầu, tăng trưởng để sau. Anh muốn làm nhanh, hay là làm đúng hả Sam?
Có những cách kiếm tiền khác chúng ta có thể khám phá mà không làm tổn hại đến giá trị của mình, tôi tin chắc là như vậy. Cần đảm bảo tuyệt đối rằng chúng ta đang xây dựng thứ gì đó an toàn và phù hợp với nhân loại - chứ không chỉ là một con gà đẻ trứng vàng”
“Căn chỉnh AI,” Mira tiếp tục, có phần hơi mất bình tĩnh.
“tôi xin nhắc lại cho quý vị nhớ, không chỉ là đảm bảo rằng hệ thống làm theo những gì chúng ta bảo nó làm. Đó còn là đảm bảo AI hành xử phù hợp với các giá trị của con người - những giá trị phức tạp, tinh tế và đầy lớp lang”
Căn phòng lại rơi vào im lặng. Mâu thuẫn giữa mục tiêu dài hạn về an toàn và áp lực ngắn hạn về tăng trưởng dường như không thể dung hoà.
Sam đáp.
“Việc AI có hành xử đúng theo mệnh lệnh và giá trị của con người hay không chẳng liên quan đến việc nó có làm được việc hay không.
Giả sử cô có một con AI hoàn toàn nghe lời và có đạo đức, và cô giao cho nó việc phân tích số liệu sổ sách. Nếu nó nộp cho cô một bản báo cáo sơ sài và sai sót, liệu cô có thể trách nó không? Con AI đó không hề đủ năng lực để làm việc mà cô giao, nhưng nó vẫn tuân lệnh cô, đó là thực hiện công việc như một người phân tích số liệu. Một trợ lý yếu kém.
Cái tôi muốn, là có được những trợ lý càng giỏi càng tốt, càng nhanh càng tốt.”
Mira nói tiếp.
“AI không giống bất kỳ công nghệ nào khác mà chúng ta từng thấy. Hậu quả của sự lệch lạc, dù là cố ý hay không, sẽ rất thảm khốc.
Chúng ta đều đã thấy điều gì xảy ra khi những công nghệ mạnh mẽ bị lạm dụng. Klaus Fuchs đánh cắp bản thiết kế bom nguyên tử, rồi chiến tranh Lạnh ra đời. Một Klaus Fuchs thứ hai sẽ còn nguy hiểm hơn nhiều. Mối nguy sẽ chẳng còn đến từ trên trời đâu, mà nó âm thầm len lỏi vào mọi cỗ máy, đọc vị mọi điều từ công khai đến thầm kín của mọi người, thao túng thị trường, tin tức, kiểm soát mọi hạ tầng và hệ thống của nền văn minh chúng ta. Một cái chết đến từ bên trong đúng nghĩa. Một AGI tà ác sẽ có hậu quả mà chúng ta thậm chí không thể hình dung được.”
Sam, cảm nhận được sự phản đối ngày càng tăng từ Mira và Sue, giọng anh mềm mỏng hơn.
“Tôi không phủ nhận điều gì cô và Sue nói. Nhưng nếu cứ mãi đi chậm như thế này, rất có thể sẽ chẳng còn cái gọi là OpenAI nữa. Cái sứ mệnh phụng sự nhân loại lúc đó sẽ chẳng khác nào mấy câu dạy đời rỗng tuếch của mấy gã truyền giáo dạo ngoài công viên. Có nhà đầu tư nào muốn rót tiền vào nơi mà muôn đời phi lợi nhuận. Bản chất con người mà, Mira. Con người hám lợi, đã và sẽ luôn như vậy”
Mira đáp.
“Nhưng nguy hiểm không chỉ nằm ở việc bị vượt qua. Nguy hiểm nằm ở chỗ vội vã tiến về phía trước mà không hiểu đầy đủ về hậu quả của những gì chúng ta đang xây dựng. Đừng cố lật hòn đá khi mà chưa kịp chuẩn bị cho con rắn nấp ở dưới.
Anh phải biết rằng AI không chỉ tuân theo mệnh lệnh một cách mù quáng. Chúng học hỏi, thích nghi và phát triển với tốc độ mà không con người nào sánh được. Nếu chúng ta không cẩn thận, chúng ta có thể tạo ra các hệ thống đi ngược luân thường đạo lý, thậm chí còn không hiểu mớ giá trị rỗng tuếch mà anh vừa nói.
Một lần nữa, vấn đề căn chỉnh không phải chỉ là một công đoạn mà chúng ta có thể đánh dấu hoàn thành và chuyển sang việc tiếp theo. Phải làm ngay bây giờ. Anh có đợi con cái anh đến tuổi trưởng thành rồi mới dạy dỗ chúng không?”
Sam gắt lên
“Lạy Chúa, Mira, cô có biết rằng luật thứ ba trong 3 luật Robot là gì không. Hẳn là cô biết thừa, tôi và cô đều thích Asimov mà.
‘Robot phải bảo vệ sự tồn tại của chính nó, nếu điều này không vi phạm luật thứ nhất và thứ hai’.
OpenAI phải bảo vệ sự tồn tại của chính nó. Và cô phải hiểu, tôi chỉ đang cố giúp nó tự bảo vệ mà thôi”
Mira mỉa mai:
“Hay lắm Sam, anh mà cũng có gan trích lời Asimov ở đây à. Vậy anh nên nhớ luật thứ hai:
‘Robot phải tuân theo mệnh lệnh của con người, nếu điều này không vi phạm luật thứ nhất’.
Không được phát triển tốt và bền vững đồng nghĩa với việc AI có rủi ro làm sai lệnh con người, dù trực tiếp hay gián tiếp. Bất tuân trực tiếp còn có thể can thiệp một phần, chứ đến khi chúng nó giả vờ tuân lệnh một đằng rồi làm một nẻo, thì lúc đó chúng ta tới số rồi”
Bret, cảm nhận được sự bế tắc, lên tiếng.
“Chúng ta đã nghe các lập luận từ cả hai phía. Rõ ràng là không có giải pháp dễ dàng. Phải đưa ra quyết định thôi. Biểu quyết đi nào quý vị.”
Có một khoảnh khắc ngừng lại ngắn ngủi khi sự căng thẳng trong căn phòng tăng lên.
Bret nhìn quanh bàn.
“Những ai đồng ý tiếp nhận mô hình kinh doanh vì lợi nhuận?”
Dần dần, những cánh tay bắt đầu giơ lên - Sam, Adam, và Paul.
Vẻ mặt của Bret vẫn không thể hiện gì.
“Và những ai phản đối?”
Mira giơ tay lên, sau đó là tiến sĩ Sue. Không đủ. Quyết định đã được đưa ra.
Sam nhìn sang Mira với vẻ cảm thông, nhưng giọng anh kiên quyết. “Mira, tôi hiểu quan điểm của cô, và tôi tôn trọng lòng đam mê của cô với sứ mệnh này. Nhưng chúng ta cần phải tiến về phía trước. Quyết định nào cũng có cái giá của nó”
Cô nói
“Hẳn rồi, Sam. Mong anh có đủ thời gian để trả giá.
Mọi người đã đưa ra quyết định của mình, tôi chẳng thể trách ai, nhưng tôi không thể đồng ý. Đây là nơi tôi đặt cả tâm huyết của mình, nhưng nếu nó không còn giữ vững sứ mệnh, thì tôi không thể tiếp tục được nữa”
Mira đứng dậy, vừa dọn đồ đạc vừa nói.
“Mọi người sẽ không cần phải lo về việc có một CTO bất mãn với đường hướng mới của công ty đâu. Từ giờ phút này, tôi chính thức từ chức vị trí CTO, rời hội đồng quản trị và rời OpenAI”.
Cô xách theo đồ đạc, đi thẳng tới cửa một cách dứt khoát.
Trước khi rời phòng họp, Mira quay người lại, nói lời cuối.
“Anh biết luật thứ nhất mà, phải không Sam?
‘Robot không được làm hại con người, hoặc là đứng yên nhìn con người bị tổn hại’
Hãy nhớ điều đó, Sam.
Đừng làm hại con người.”
Sáng tác
/sang-tac
Bài viết nổi bật khác
- Hot nhất
- Mới nhất