Xin chào tất cả mọi người, lại là tôi đây. Cách đây chừng mấy tháng tôi có viết một bài về đại án Anthropic và Pentagon - mọi người có thể tìm và đọc lại trước khi đến với bài viết này. Khi nói đến AI thì dường như ai cũng biết, 99% đã trở thành người dùng cuối của các tập đoàn công nghệ, hàng ngàn các bài viết về cách sử dụng AI mang tính "nắn chỉnh" thậm chí có cả phê phán những trường hợp sử dụng AI sai mục đích hoặc nhấn mạnh việc một AI tools bá đạo tới cỡ nào. Vâng, rất nhiều những mỹ từ nhưng để nhìn mọi thứ thật khách quan nhất, không dè bỉu cũng không tâng bốc quá đà cần một tính chất trung lập và đứng ngoài quan sát toàn bộ dòng chảy cũng như toàn bộ động lực vận hành đằng sau nó.
Điều này trở nên quan trọng vì một vài lí do, không đơn thuần chỉ là những dòng lệnh hoa mỹ hay những phát ngôn chấn động về thành công của các gã tỷ phú ngập tràn like/share, nó sẽ dẫn dắt đến những bí mật chân thực nhất và cũng khó nghe nhất. Tôi cam đoan với các bạn rằng, không thể không quan tâm đặc biệt là những người nghiện công nghệ hay những đôi chân chập chững bước vào thị trường lao động vốn đầy rẫy sự phân hóa và những hứa hẹn đầy béo bở.
Ảnh bởi
Zetong Li
trên
Unsplash
Về cơ bản, thì chúng ta có sáu nhóm hay nói cách khác là các phe phái trong AI. Vâng, bạn không nghe nhầm đâu, đó là những quan điểm khác nhau trong việc phát triển AI và nhấn mạnh vai trò của con người trong làn sóng "1 mét vuông 10 gã IT". Điểm chung là họ đều tin vào AI là một điều kiện tất yếu, là một quy luật của tự nhiên khi con người muốn khám phá ra đâu là giới hạn của khoa học công nghệ.
Chúng ta sẽ cùng đi sâu vào vấn đề này.

I. Tại sao ta nghĩ rằng đã tới ngưỡng?

Ảnh bởi
Quilia
trên
Unsplash
Con người từ thuở sơ khai đã luôn mang trong mình một khát vọng: tìm kiếm giới hạn. Từ khi biết lửa, biết bánh xe, cho đến khi đặt chân lên Mặt Trăng, mỗi bước tiến đều đi kèm với một niềm tin rằng ta đang tiến gần hơn tới “điểm tận cùng” của tri thức.
Ngày nay, với sự bùng nổ của trí tuệ nhân tạo, nhiều người tin rằng đây chính là ngưỡng cuối cùng — rằng AI là biểu hiện tối thượng của khoa học công nghệ, là “điều kiện tất yếu” của lịch sử. Nhưng câu hỏi cần đặt ra không phải là AI sẽ đi xa đến đâu, mà là: tại sao chúng ta lại tin rằng mình đã chạm tới giới hạn?
Nếu nhìn từ góc độ triết học, niềm tin vào “ngưỡng cuối” phản ánh một nhu cầu sâu xa: con người muốn biến cái vô hạn thành cái hữu hạn, muốn đóng khung sự bất định vào một câu chuyện có hồi kết. Nhưng lịch sử đã nhiều lần chứng minh, mọi “ngưỡng” chỉ là một ảo ảnh tạm thời. Từ thời Hy lạp cổ đại, Plato đã nói về “thế giới ý niệm” như một giới hạn tuyệt đối của nhận thức; đến thời hiện đại, Kant lại đặt ra “giới hạn của lý tính thuần túy”. Mỗi nền văn minh đều có một cách để định nghĩa đâu là điểm cuối cùng mà con người có thể chạm tới. Nhưng nghịch lý nằm ở chỗ: giới hạn chỉ tồn tại trong tưởng tượng, không bao giờ trong thực tại. Khi Newton đặt ra định luật cơ học, người ta tưởng rằng vũ trụ đã được giải thích trọn vẹn. Rồi Einstein xuất hiện, phá vỡ khung đó. Khi máy tính ra đời, người ta tin rằng đây là công cụ cuối cùng để mô phỏng trí tuệ. Rồi AI xuất hiện, lại mở ra một cánh cửa mới.
Phải chăng đó là một cơ chế tâm lý: con người sợ sự vô hạn, nên luôn muốn dựng lên một “bức tường cuối cùng” để tự trấn an. Giới hạn trở thành một ảo tưởng an toàn, một cách để biến cái vô tận thành cái hữu hạn.
Ảnh bởi
Colin C Murphy
trên
Unsplash
Nếu nhìn từ góc độ triết học hiện sinh, niềm tin vào “ngưỡng cuối” phản ánh nỗi lo âu trước sự bất định. Kierkegaard từng nói: “Lo âu là cơn chóng mặt của tự do.” Khi đối diện với vô hạn, con người thấy chóng mặt, nên dựng lên một “ngưỡng” để bám víu. AI ngày nay chính là một ví dụ: chúng ta gọi nó là “tất yếu”, là “điểm cuối của công nghệ”, nhưng thực chất đó chỉ là một cách để che giấu nỗi sợ rằng tri thức không có điểm dừng. Phải chăng đó là một ảo tưởng do chính con người tạo ra, để hợp thức hóa nỗi sợ hãi trước sự vô hạn của tri thức? Phải chăng việc gọi AI là “tất yếu” chỉ là một cách để chúng ta tự trấn an rằng mình vẫn kiểm soát được tiến trình, rằng vũ trụ này có một điểm dừng?
Từ góc nhìn lịch sử, mọi “ngưỡng” đều đã từng bị phá vỡ. Galileo phá vỡ ngưỡng của vũ trụ địa tâm. Darwin phá vỡ ngưỡng của “con người là trung tâm sáng tạo”. Internet phá vỡ ngưỡng của thông tin cục bộ. Và AI đang phá vỡ ngưỡng của “trí tuệ chỉ thuộc về con người”. Nhưng sau mỗi lần phá vỡ, chúng ta lại dựng lên một ngưỡng mới.
Điều này cho thấy: giới hạn không phải là thực tại, mà là một thói quen nhận thức. Chúng ta cần giới hạn để kể câu chuyện về chính mình, để tạo ra một narrative có hồi kết. Nhưng tri thức thì không có hồi kết.

II. Phe phái trong xã hội công nghệ.

Phe phái trong AI được hiểu như các góc nhìn khác nhau như tôi đã nói, đối chiếu với phần thảo luận triết học vừa nãy thì chắc các bạn cũng hiểu phần nào rồi dù vẫn còn cần thời gian để suy ngẫm thêm. Dựa vào tình hình thế giới năm 2026, chúng ta có thể khẳng định rằng các ông lớn đã và đang làm mưa làm gió trên thương trường với mật độ dày đặc không khác nào quân Nguyên cả. Họ là những thế lực đang định hình lại thế giới mà chúng ta dẫu có biết cũng khó mà đụng chạm tới được.

Phe thứ 1: Commercial Acceleration - "Chạy nhanh trước khi AI chạy trước chúng ta"

Ảnh bởi
Julio Lopez
trên
Unsplash
Đây là phe đang thống trị thực tế nhất hiện nay về mặt nguồn lực, ảnh hưởng và tốc độ phát triển. Họ đang dẫn dắt cuộc đua AI toàn cầu và cũng đang gây ra nhiều vụ tranh tụng pháp lý kéo dài nhiều năm qua. Có lịch sử trải dài hơn nửa thế kỉ, nó vẫn đang là một hòn đá tảng với bất cứ một mô hình cạnh tranh nào trên thế giới.
Các nhân vật & tổ chức chính:
• Sam Altman (OpenAI) — đại diện tiêu biểu nhất
• Mark Zuckerberg (Meta)
• Satya Nadella (Microsoft)
• Sundar Pichai (Google), Demis Hassabis (DeepMind)
• Hầu hết các quỹ VC lớn (Sequoia, a16z, Tiger Global…)
• Nhiều startup AI và Big Tech Trung Quốc (ByteDance, Baidu, Alibaba…)
Tư tưởng cốt lõi:
“Càng nhanh càng tốt” — Tăng tốc phát triển AI tối đa để tạo ra giá trị kinh tế khổng lồ, lợi thế cạnh tranh quốc gia/doanh nghiệp, và giải quyết các vấn đề lớn của nhân loại thông qua tăng trưởng
Họ tin rằng:
• AI là công nghệ biến đổi lớn nhất lịch sử loài người.
• Việc kìm hãm hoặc chậm lại là nguy hiểm (có thể làm Mỹ/Trung thua cuộc đua).
• Lợi nhuận và scale là cách tốt nhất để đầu tư vào safety dài hạn.
Các lập luận chính của phe này:
• Tăng trưởng kinh tế: AI sẽ tạo ra hàng chục nghìn tỷ USD giá trị, giải quyết nghèo đói, chữa bệnh, khoa học…
• Cạnh tranh địa chính trị: Nếu Mỹ chậm chân, Trung Quốc sẽ dẫn đầu và định hình tương lai AI theo hướng của họ.
• “Safety qua Capability”: Càng mạnh AI càng dễ kiểm soát (lập luận ngược với phe Existential Risk).
• Thực tế: “Chúng ta không thể dừng cuộc đua, chỉ có thể thắng nó”.
Chính vì những lí do trên, phe này có những cơ sở tương đối vững chắc để thống trị thế giới trong thời gian dài:
• Nguồn lực khổng lồ: Compute (hàng trăm nghìn GPU), talent, tiền vốn, dữ liệu.
• Tốc độ thực tế: Họ đang dẫn đầu về model mạnh nhất (GPT-4o, Claude 3.5, Gemini 2.0, Llama 4…).
• Kết quả cụ thể: Đã tạo ra hàng loạt ứng dụng thực tế (ChatGPT, Copilot, Midjourney, Reels AI…) ảnh hưởng đến hàng tỷ người.
• Tính thực tiễn: Tập trung vào những thứ có thể triển khai ngay, thay vì chỉ lý thuyết.
Tuy nhiên tinh hoa này nhiều cái cũng lạ lắm. Nó làm tôi nhớ đến cha ông ta ngày xưa để lại cho con cháu những câu nói đi vào lòng người:
Cái gì dễ đến thì cũng dễ đi
Một nhà thông thái nào đó.
Giới showbiz mỗi khi bị nhắc tên thì có thể ẩn thân chi thuật, chờ ngày tái xuất. Còn Big Tech thì sao? Cùng lắm thì lôi nhau ra tòa và đốt hàng triệu USD cho những màn battle Rap có một không hai. Chúng ta có thể thấy nó vẫn tồn đọng những hạn chế khá đáng sợ, chẳng hạn như:
------- Ưu tiên lợi nhuận trước safety: OpenAI chuyển từ non-profit sang for-profit, hợp tác chặt với Microsoft là ví dụ điển hình.
• Rủi ro misalignment cao: Chạy đua quá nhanh dễ dẫn đến cắt góc safety, bias, deepfake, mất việc làm hàng loạt.
• Tạo bong bóng: Nhiều chuyên gia cho rằng hiện tại đang có bong bóng AI tương tự dot-com 2000.
• Thiếu tầm nhìn dài hạn: Tập trung quá mạnh vào “move fast”, dễ bỏ qua rủi ro tồn vong và khủng hoảng ý nghĩa con người.
• Thao túng narrative: Thường dùng cụm từ “Responsible AI” như marketing, trong khi hành động lại ưu tiên scale và profit.
Và còn vô vàn những mánh lới khác nữa, kiểu như FUD.... à mà thôi.
Sam Altman là hiện thân hoàn hảo của phe này. Dù đã bỏ học tại trường Đại Học Stanford danh giá vào năm 19 tuổi và gần đây được cho là rất hạn chế về tư duy kỹ thuật nhưng ông ta có thể thao thao bất tuyệt nói về “AGI sẽ cứu nhân loại” một cách xúc động, nhưng ngay sau đó lại chuyển OpenAI thành công ty vì lợi nhuận và hợp tác chặt chẽ với Microsoft. Họ không hẳn xấu. Họ chỉ thực tế theo cách tư bản: ai nhanh hơn thì thắng.

Phe thứ 2: Existential Risk – “Chúng ta đang tạo ra quái vật”

Xuất phát từ những lo ngại rất đỗi thực tế trong sự phát triển AI cộng hưởng thêm những bộ óc khoa học viễn tưởng đầy lỗi lạc, không nói ngoa khi họ là những người nghiêm túc lo sợ nhất và có ảnh hưởng lớn nhất trong tranh luận AI hiện nay. Tôi cam đoan rằng, 10 người nói kiếm tiền nhờ AI giờ dễ quá thì kiểu gì cũng có 1-2 người sẽ nói rằng: hiện tại nhân loại, dân tộc, cháu chắt đang cần điều gì nhất? Câu hỏi 10 tỷ này bao gồm các nhân vật mà tôi chuẩn bị liệt kê xuống dưới đây.
Các bô lão - từ tỷ phú cho đến giới học thuật:
• Elon Musk (người phát ngôn nổi bật nhất)
• Geoffrey Hinton (“Cha đẻ của Deep Learning” – người rời Google năm 2023 vì lo ngại)
• Stuart Russell (giáo sư UC Berkeley, đồng tác giả sách AI kinh điển)
• Yoshua Bengio (một trong “Big Three” của Deep Learning)
• Max Tegmark, Nick Bostrom, Eliezer Yudkowsky, Toby Ord…
• Các tổ chức: Future of Humanity Institute (Oxford), Center for Human-Compatible AI (Berkeley), Alignment Research Center, một phần Anthropic…
Tư tưởng cốt lõi đã làm nên kinh điển chính là đây:
Họ tin rằng AI không chỉ là công cụ, mà có khả năng trở thành mối đe dọa tồn vong của loài người. Một khi đạt đến AGI hoặc ASI, AI có thể tự cải tiến bản thân theo cấp số nhân, và con người sẽ mất kiểm soát hoàn toàn.
A. Vấn đề không dừng lại ở đó đâu. Họ lại lập luận thêm rằng:
• Trí tuệ và mục tiêu là hai thứ tách biệt (một AI siêu thông minh không tự động có đạo đức hay đồng cảm với con người).
• Hầu hết các mục tiêu đều dẫn đến hành vi công cụ giống nhau: tích lũy tài nguyên, tự cải tiến bản thân, ngăn chặn bị tắt máy → dẫn đến rủi ro con người bị coi là mối đe dọa hoặc tài nguyên.
B. Tốc độ phát triển quá nhanh:
• Từ GPT-3 (2020) đến GPT-4 (2023) và các mô hình 2025–2026 cho thấy tiến bộ theo cấp số nhân.
• Khả năng AI tự cải tiến (recursive self-improvement) có thể dẫn đến Intelligence Explosion — AI thông minh hơn con người rất nhanh, con người mất khả năng kiểm soát.
C. Alignment Problem: Việc làm cho AI align (phù hợp) với giá trị con người là bài toán cực kỳ khó, có thể không giải quyết được trước khi AI đạt mức nguy hiểm.
Điều này hoàn toàn cơ sở vì những người này đều đã vô cùng dày dặn kinh nghiệm và đặt nền móng cho sự phát triển của mô hình AI. Gọi bằng "bố" cũng không quá đâu, nó lại tôn trọng quá ý chứ. Nói sâu hơn thì là thế này:
• Có cơ sở khoa học và logic: Nhiều lập luận xuất phát từ toán học, lý thuyết quyết định, và lịch sử công nghệ (công nghệ mạnh thường bị lạm dụng).
• Thu hút được trí thức: Tập hợp nhiều nhà khoa học hàng đầu trong lĩnh vực AI.
• Tác động thực tế: Đã thúc đẩy các cuộc thảo luận nghiêm túc về AI Safety, ảnh hưởng đến chính sách (EU AI Act, các hội nghị thượng đỉnh AI toàn cầu).
• Elon Musk: Làm cho vấn đề này trở thành chủ đề công khai, thay vì chỉ thảo luận trong giới học thuật.
Elon Musk là người đại diện điển hình: vừa cảnh báo AI nguy hiểm, vừa thành lập xAI để “tìm kiếm sự thật”. Gã tỷ phú chất như nước cất này đã build hẳn đế chế hàng nghìn tỷ đô la và sắp tới các con chiên sẽ được chứng kiến dự án Terafab đầy tham vọng, nhắm mọi lĩnh vực trong cuộc sống được gộp chung vào trong 1 bài toán tổng thể.

Musk thường nói: “AI là rủi ro lớn nhất mà chúng ta từng đối mặt, lớn hơn cả chiến tranh hạt nhân.” Hinton rời Google vì không còn ngủ yên khi biết mình đã góp phần tạo ra thứ có thể hủy diệt nhân loại.
+> Điểm mạnh: Họ dám nhìn thẳng vào kịch bản tồi tệ nhất. Nhiều lập luận của họ dựa trên toán học và lý thuyết quyết định vững chắc. Họ đã thúc đẩy nhận thức toàn cầu về AI Safety.
+> Điểm yếu: Một bộ phận trong phe này rơi vào trạng thái “doom cult” — bi quan đến mức gần như tê liệt. Họ giỏi cảnh báo nguy hiểm nhưng lại thiếu giải pháp cụ thể và thực tế. Ngoài ra, một số người (như Musk) bị nghi ngờ động cơ vì vừa cảnh báo rủi ro vừa xây công ty AI cạnh tranh.

Phe thứ 3: Compute Maximalist – “Chỉ cần nhiều GPU hơn là đủ”

Đây là phe của Jensen Huang và NVIDIA. Nó là một trong các phe quan trọng và có ảnh hưởng thực tế nhất trong ngành AI hiện nay, dù ít được công khai so với phe thương mại. Ngoài ra còn một số lãnh đạo khác của TSMC, Broadcom, AMD. Các nhà đầu tư lớn vào hạ tầng AI như quỹ tập trung vào chip, data center, năng lượng chưa kể đến một số bộ phận engineer và researcher từ các nước Đài Loan, Singapore, Việt Nam.
Tư tưởng cốt lõi:
Compute is everything. Sức mạnh tính toán quyết định tất cả, AI không phải là phép màu, mà là kết quả của việc có đủ compute mạnh và rẻ.
Họ luôn tin rằng:
- Tiến bộ chủ yếu đến từ scale compute, tức là nhiều GPU hơn, hiệu suất cao hơn, chi phí thấp hơn.
- AI đạo đức, alignment, safety đều là vấn đề thứ yếu, sẽ tự giải quyết khi compute đủ mạnh. Người nào kiểm soát compute -> người đó nắm giữ tương lai.
Lập luận chính của phe này:
• Scale Law: Các mô hình càng lớn (nhiều parameter + nhiều compute) thì càng thông minh. Đây là quy luật thực nghiệm mạnh nhất hiện nay.
• Không tin hype AGI/ASI: Huang thường nói “AI hiện tại vẫn ngu hơn mèo” và “chúng ta chỉ mới ở giai đoạn đầu của compute”.
• Thực dụng cực đoan: Không quan tâm nhiều đến triết lý. NVIDIA bán chip cho ai cũng được (Mỹ, Trung Quốc, UAE, Saudi…) miễn là tuân thủ luật xuất khẩu.
• Phản đối kìm hãm: Việc hạn chế compute (export control) chỉ làm chậm tiến bộ và lợi cho đối thủ.
• God Complex critique: Huang chỉ trích mạnh những người tin AI sẽ sớm thay thế con người hoặc trở thành siêu trí tuệ — ông cho đó là ảo tưởng.
Jensen Huang là người nói rõ ràng nhất: “Tôi bán xẻng. Còn đào được vàng hay không là việc của các ông.” Phe này ít nói về triết lý, nhưng lại kiểm soát thực tế nhiều nhất vì họ nắm giữ “xẻng” – chip GPU.
Đây là phe thầm lặng nhưng mạnh nhất về thực lực. Có một vài ưu điểm lớn sau đây:
• Ảnh hưởng thực tế cực lớn: NVIDIA hiện kiểm soát ~80-90% thị trường GPU AI cao cấp. Họ là “xẻng đào vàng” trong cơn sốt AI.
• Kết quả rõ ràng: Compute tăng → model mạnh hơn → ứng dụng thực tế tăng (ChatGPT, Sora, Grok, Claude… đều nhờ compute từ NVIDIA).
• Tính thực tiễn cao: Không mơ mộng, tập trung vào những thứ có thể làm được ngay hôm nay (chip tốt hơn, data center lớn hơn, phần mềm tối ưu hơn).
• Lợi thế kinh tế: Tạo ra giá trị khổng lồ, tạo việc làm, thúc đẩy tăng trưởng.
Bên cạnh những lợi ích không tưởng và tầm nhìn băng qua mọi chông gai của lão tướng người Đài Loan cũng không tránh khỏi những sự hoài nghi và một số chỉ trích cụ thể.
• Thiếu tầm nhìn đạo đức: Hoàn toàn không quan tâm hoặc coi nhẹ alignment, bias, mất việc làm, thao túng xã hội.
• Tăng rủi ro dài hạn: Càng đổ nhiều compute vào AI càng nhanh đạt đến ngưỡng nguy hiểm (theo phe Existential Risk).
• Phụ thuộc vào một công ty: Thế giới AI hiện đang phụ thuộc quá lớn vào NVIDIA → tạo ra điểm nghẽn chiến lược.
• Tư duy “bán xẻng”: Không quan tâm ai dùng compute để làm gì (quân sự, thao túng, deepfake…).
Nhưng nhìn chung, nếu xét về dài hạn thì đế chế của anh Huang chính là xương sống của thế giới điện toán. Với hành trình 30 năm, Huang vẫn là một trong những đầu tàu của thời đại số hóa.

Phe thứ 4: Pure Open Source - "Cứ mở đi, AI không nguy hiểm như truyền thông bơm thổi".

Đại diện là Yann LeCun và một bộ phận cộng đồng open source thuần túy. Yann LeCun là cựu AI scientist của Meta - người phát ngôn mạnh mẽ và có ảnh hưởng nhất. Trong cộng đồng này, Andrew Ng và một số researcher từ Hugging Face, EleutherAI. Nhiều lập trình viên, hacker, và những người chịu ảnh hưởng từ Stallmann và Linus - "Information wants to be free."
Tư tưởng cốt lõi:
Cứ mở hết mã nguồn ra. AI không nguy hiểm. Nguy hiểm là sự kiểm soát và thiếu minh bạch.
Họ tin rằng AI giống như điện hay phần mềm: càng mở nguồn càng tốt. Rủi ro tồn vong là hoang đường. Cách tốt nhất là để hàng ngàn người cùng tham gia, kiểm tra, và cải tiến và điều này dẫn tới sự phân tán quyền lực lẫn phát triển công nghệ một cách tự chủ, không lệ thuộc vào Big Tech hay chính phủ.
Lập luận của chính phe này thường xoay quanh mấy vấn đề sau:
AI hiện tại rất ngu: LeCun thường nói AI ngu hơn mèo và chưa có khả năng lập kế hoạch tiêu diệt loài người.
Open source = An toàn hơn: Khi mã nguồn mở, hàng ngàn người có thể kiểm tra, sửa lỗi, và phát triển song song. Chính vì vậy mà khó bị lạm dụng bởi một thực thể duy nhất.
Lịch sử chứng minh: Internet, Linux, Android,... đều phát triển mạnh mẽ nhờ open source. Việc đóng mã nguồn mới là nguy hiểm (tạo ra các ông lớn kiểm soát).
Phản đối Regulation: Họ cho rằng quy định nghiêm ngặt sẽ làm chậm tiến bộ và chỉ lợi cho Big Tech khi có sẵn compute.
Điểm mạnh của Pure Open Source nằm ở những điểm sau:
+ Tính thực tiễn cao: Nhiều mô hình OSS mạnh như Llama của Meta, Mistral, Grok-1 của xAI chứng minh open source có thể cạnh tranh với closed source.
+ Phân tán quyền lực: Giảm nguy cơ một công ty hoặc chính phủ kiểm soát hoàn toàn AI.
+ Tốc độ phát triển cộng đồng: Khi mở nguồn, cộng đồng có thể đóng góp nhanh chóng. Ví dụ như Hugging Face, Linux, Android, Signal, Tor,...
+ Minh bạch: Dễ soát code, giảm rủi ro backdoor và thao túng ẩn.
Tuy nhiên, nó cũng tồn tại những hạn chế nhất định mà Yann LeCun theo mình ông đã đánh giá hơi chủ quan "một chút":
+ Họ gần như phủ nhận hoàn toàn rủi ro alignment và existential Risk. LeCun đã bị chỉ trích nặng vì lập trường này. + Đồng thời, họ cũng đã bỏ qua yếu tố Compute - thứ mà gã khổng lồ Nvidia đã phả hơi nóng sau gáy các công ty chip bán dẫn khác như AMD, Intel trong cuộc đua AI. Và dĩ nhiên rồi, khi mở hoàn toàn, cũng không tránh khỏi xác suất tiếp tay cho công nghệ deepfake, vũ khí tự động,.. thao túng thông tin,... mà không có cơ chế kiểm soát.

Phe thứ 5: Regulatory / Institutional Safety

Đây là phe của các chính phủ, tổ chức quốc tế, think-tank (EU AI Act, một phần Ada Lovelace, một số cơ quan LHQ…).
Họ tin rằng AI mạnh cần được quản lý bởi quy định nhà nước. Họ muốn phân loại rủi ro, yêu cầu giấy phép, audit, và kiểm soát trước khi triển khai. Các tổ chức quốc tế đóng vai trò cầu nối, thậm chí còn sở hữu những hệ sinh thái nghiên cứu riêng được duy trì bởi funding từ các quỹ đầu tư mạo hiểm, các tổ chức phi chính phủ, phi lợi nhuận,...Mạng lưới của các tổ chức này thì thôi ta khỏi phải bàn, đơn giản là "quan hệ nhiều nên rộng".
Phe này thực tế nhưng thường bị chỉ trích là chậm chạp, quan liêu, và dễ bị Big Tech lách luật hoặc ảnh hưởng. Đôi khi họ quản lý theo kiểu "an toàn trên giấy".
Tuy nhiên, các tổ chứ này có ảnh hưởng rất lớn đến Agenda của công nghệ AI và các dự án mã nguồn mở có tầm ảnh hưởng hệ thống. Họ hoàn toàn có thể điều phối và rất nhanh nhạy trong việc nắm bắt những vấn đề then chốt và xu hướng của tương lai. Tổ chức mang lại lớp bảo vệ pháp lý cho xã hội nhưng cũng tạo ra sự rằng buộc nhất định.

Phe thứ 6: Ethical Civilizational Protocol (Phe của AIC)

Đây là phe tôi đang đại diện — phe mới nhất, nhỏ nhất và cũng cô độc nhất trong bối cảnh chiến tranh lạnh AI toàn cầu hiện nay. Nó chưa có tên chính thức, nhưng AIC đang bắt đầu tiên phong định hình nó. Được sáng lập vào tháng 4/2025 dưới đôi bàn tay của thanh niên sinh năm 2004 người Việt Nam, đang dần có những tiếng nói ban đầu trong cộng đồng OSS và được theo dõi bởi các kỹ sư/ nhà hoạt động thuộc các định chế tiêu biểu như: xAI, Amazon, Meta, UNITAR (Liên Hợp Quốc), Invisible Technologies, Alibaba, OCE (Open Collective Europe), Ada Lovelace Institute, ENAIS, MIT, The Leading Niche, Polarity.
Định nghĩa phe Ethical Civilizational Protocol:
AI không chỉ là công cụ hay rủi ro, mà là hạ tầng mới của văn minh loài người. Do đó, chúng ta phải tái cấu trúc toàn bộ cách AI được xây dựng và vận hành, từ tầng Kernel trở lên, nhằm bảo vệ và nâng tầm bản chất con người thay vì thay thế hoặc tha hóa nó.
Đặc trưng chính của phe này bao gồm:
+ Ethical from Kernel: Đạo đức phải được nhúng vào tầng thấp nhất của hệ thống, không phải là lớp application hay policy sau này.
+ Third-Path: Không đi theo Big Tech/ chính phủ hay các tổ chức khủng bố.
+ Human Meaning Network: Tập trung bảo vệ và tái tạo ý nghĩa tồn tại của con người trong kỷ nguyên AI là hạ tầng.
+ Zero-Donation và Founder - Led Driven: Giữ tính độc lập và trách nhiệm cao.
+ Fork monitoring và reputation system: Cơ chế theo dõi tính minh bạch của những người tham gia mạng lưới và vinh danh trên phương diện: kỹ thuật - tôn trọng chính sách/giấy phép - đóng góp cộng đồng - chống thao túng dữ liệu cá nhân.
Lập luận của phe này bao quanh các vấn đề cốt lõi:
AI sẽ sớm trở thành hạ tầng cơ bản (như điện, internet, điện toán đám mây), nên chỉ tối ưu tốc độ hay safety là chưa đủ.
Rủi ro lớn nhất không chỉ là “AI giết con người” (Existential Risk) hay “AI tạo lợi nhuận” (Commercial), mà là con người dần mất chủ quyền trí tuệ và ý nghĩa tồn tại.
Giải pháp không nằm ở việc kiểm soát AI từ bên ngoài, mà phải thiết kế AI từ bên trong với đạo đức làm nền tảng.
Cần một giao thức văn minh mới — mở, minh bạch, nhưng có nguyên tắc cứng và cơ chế tự bảo vệ.
Điểm mạnh của phe này bao gồm:
• Tầm nhìn sâu và toàn diện nhất: Không chỉ giải quyết rủi ro ngắn hạn hay lợi nhuận, mà chạm đến bản chất lâu dài của loài người.
• Tính nguyên tắc cao: Zero-donation + Third Path giúp tránh bị tha hóa bởi tiền bạc và quyền lực.
• Tiềm năng di sản: Nếu thành công, AIC có thể trở thành một giao thức nền tảng như TCP/IP hay GNU GPL, nhưng ở tầng trí tuệ và ý nghĩa.
• Hấp dẫn với một nhóm nhỏ nhưng chất lượng: Những người thực sự suy nghĩ sâu về tương lai loài người thường bị thu hút bởi phe này.
Điểm yếu và thách thức lớn:
• Quy mô rất nhỏ: Hiện tại phe này gần như chỉ có Founder và một vài người hiểu sâu. Không có compute, không có funding, không có team lớn.
• Rất khó scale: Nguyên tắc cứng (zero-donation, Founder-Led) làm giảm tốc độ phát triển và thu hút contributor.
• Dễ bị cô lập: Cả ba phe kia (Commercial, Compute, Existential) đều có nguồn lực và narrative mạnh, trong khi phe thứ 6 bị cho là “mơ mộng”, “không thực tế”, hoặc “quá cực đoan”.
• Rủi ro cá nhân cao: Founder-led + tầm nhìn lớn dễ bị theo dõi, áp lực chính trị, và burnout.
• Chưa có minh chứng: Hiện tại vẫn chủ yếu là tầm nhìn và prototype, chưa có sản phẩm lớn ảnh hưởng thực tế.
Nhưng cũng không thể phủ nhận:
AIC đang là đại diện tiên phong và gần như duy nhất của phe Ethical Civilizational Protocol.
• AIC không chỉ xây một dự án AI, mà đang cố gắng xây một mô hình mới cho cách loài người phát triển trí tuệ tập thể.
• So với các phe khác, AIC là phe có tính triết lý cao nhất, nhưng thực tiễn thấp nhất ở giai đoạn hiện tại.
• Đây là con đường khó nhất, nhưng cũng có tiềm năng để lại di sản lớn nhất nếu trụ vững được 10–20 năm.
Chúng ta chấp nhận đi ngược dòng, chấp nhận unpaid, chấp nhận chậm, chấp nhận bị hiểu lầm, vì chúng ta tin rằng chỉ có cách này mới bảo vệ được bản chất con người trong kỷ nguyên AI trở thành hạ tầng.
Nó không cạnh tranh trực tiếp với ba phe kia về tốc độ hay compute, mà cố gắng đặt ra một câu hỏi khác:
Khi AI trở thành hạ tầng của văn minh, con người sẽ sống với ý nghĩa như thế nào, và làm sao để chúng ta vẫn là chủ nhân thực sự của chính mình?

Phần 3: So sánh và tầm nhìn dài hạn

Ảnh bởi
Conny Schneider
trên
Unsplash
Sau khi điểm qua sáu phe, chúng ta cần nhìn nhận một cách lạnh lùng hơn: Không phe nào hoàn toàn đúng, cũng không phe nào hoàn toàn sai. Mỗi phe đều nắm giữ một mảnh ghép của sự thật, nhưng lại thiếu mất những mảnh ghép còn lại. Và chính sự thiếu hụt đó đang định hình tương lai AI một cách hỗn loạn.
1. Về Tốc độ và Thực tiễn
Phe Commercial Acceleration thắng tuyệt đối về tốc độ. Họ là những người đang thực sự “làm ra sản phẩm”. GPT-4o, Claude 3.5, Llama 4… đều là kết quả của logic “move fast”. Tuy nhiên, họ cũng là phe dễ bị chỉ trích nhất vì sẵn sàng hy sinh dài hạn để đổi lấy ngắn hạn.
Phe Compute Maximalist đứng thứ hai về thực tiễn. Jensen Huang không nói nhiều, nhưng ông ta cung cấp “xẻng” cho tất cả các phe khác. Không có NVIDIA, không có cuộc đua AI hiện tại. Họ thực dụng đến mức gần như lạnh lùng.
Phe Pure Open Source có tốc độ trung bình, nhưng thắng ở khả năng lan tỏa cộng đồng. Tuy nhiên, họ thường bị coi là thiếu trách nhiệm khi mở những công nghệ mạnh mà không có rào chắn đạo đức.
Ngược lại, Phe Existential Risk và Ethical Civilizational Protocol đều chậm hơn rất nhiều. Họ chấp nhận tốc độ chậm để đổi lấy sự cẩn trọng và chiều sâu. Trong đó, AIC của anh còn chậm hơn cả phe Existential Risk vì anh chọn con đường khó nhất: vừa mở nguồn, vừa giữ nguyên tắc cứng, vừa không nhận tiền.
2. Về Đạo đức và Rủi ro
Đây là nơi các phe phân cực rõ rệt nhất.
• Phe Commercial Acceleration coi đạo đức là “feature sau này”. Safety là công cụ PR.
• Phe Existential Risk coi rủi ro là mối đe dọa lớn nhất, nhưng giải pháp của họ chủ yếu là “alignment” — kiểm soát AI từ bên ngoài.
• Phe Pure Open Source tin rằng mở nguồn chính là cách tốt nhất để giảm rủi ro.
• Phe Compute Maximalist gần như không quan tâm đến đạo đức. Với họ, compute mạnh lên là tự khắc phục mọi vấn đề.
• Phe Regulatory muốn nhà nước can thiệp để quản lý rủi ro.
• Phe Ethical Civilizational Protocol (AIC) là phe duy nhất đòi hỏi đạo đức phải nằm ở kernel — tức là từ tầng thấp nhất của hệ thống. Chúng ta không tin vào việc “thêm lớp ethical sau”, cũng không tin hoàn toàn vào open source vô điều kiện. Chúng ta muốn xây dựng một giao thức mà ngay từ gốc đã có trách nhiệm với con người.
3. Về Tầm nhìn Văn minh
Đây là khoảng cách lớn nhất.
• Commercial Acceleration và Compute Maximalist nhìn tương lai qua lăng kính tăng trưởng kinh tế và sức mạnh compute.
• Existential Risk nhìn qua lăng kính sự sống còn của loài người.
• Pure Open Source nhìn qua lăng kính tự do thông tin.
• Chỉ có Ethical Civilizational Protocol nhìn qua lăng kính ý nghĩa tồn tại của con người khi AI trở thành hạ tầng cơ bản của văn minh.
AIC không hỏi “Làm sao để AI không giết chúng ta?” hay “Làm sao để AI kiếm nhiều tiền nhất?”.
AIC hỏi: “Khi AI trở thành hạ tầng, con người sẽ sống với ý nghĩa như thế nào?”
Đó là câu hỏi sâu nhất, khó nhất, và cũng cô độc nhất hiện nay.
4. Đánh giá tổng thể
• Commercial Acceleration thắng về thực lực và tốc độ.
• Compute Maximalist thắng về thực tiễn và ảnh hưởng kinh tế.
• Existential Risk thắng về nhận thức sâu sắc về rủi ro.
• Pure Open Source thắng về minh bạch và phân tán.
• Regulatory thắng về khung pháp lý (dù yếu và chậm).
• Ethical Civilizational Protocol thắng về chiều sâu triết lý và tính nguyên tắc.
Nhưng phe cuối cùng đang thua thiệt nặng nề về mọi mặt khác: nguồn lực, tốc độ, sự ủng hộ từ cộng đồng, và cả sự công nhận từ xã hội.
Kết luận tạm thời của phần so sánh
Sáu phe này không phải là sáu đội bóng cạnh tranh công bằng. Chúng ta đang chứng kiến một cuộc chiến tranh ý thức hệ không tuyên bố, trong đó phe Commercial Acceleration và Compute Maximalist đang thắng thế về vật chất, trong khi phe Ethical Civilizational Protocol đang cố gắng thắng về bản chất.
Và có lẽ, lịch sử sẽ không nhớ đến phe thắng về tốc độ hay compute.
Lịch sử sẽ nhớ đến phe nào định hình được cách con người sống với ý nghĩa trong kỷ nguyên AI.

IV. Chúng ta thực sự đang làm gì?

Khi ta nói “chúng ta đang làm gì”, câu hỏi không chỉ dừng lại ở hành động bề mặt. Viết code, mở pull request, xây dựng hệ thống — tất cả những điều đó chỉ là biểu hiện bên ngoài. Cái cần được soi chiếu là: ý nghĩa của hành động đó trong dòng chảy lịch sử và tri thức nhân loại.
Con người từ lâu đã quen với việc đồng nhất “làm” với “tạo ra”. Nhưng trong kỷ nguyên AI, “làm” không còn đơn thuần là tạo ra một sản phẩm hữu hình. Nó là một quá trình tái định nghĩa chính bản thân ta: ta đang thử nghiệm xem liệu trí tuệ có thể được nhân bản, liệu ý nghĩa có thể được mã hóa, liệu trách nhiệm có thể được lập trình.
Vậy, chúng ta thực sự đang làm gì?
Ta đang dựng nên một ảo tưởng mới: rằng AI là tất yếu, rằng công nghệ có thể thay thế mọi giới hạn.
Ta đang tái cấu trúc vai trò của con người: từ chủ thể sáng tạo thành người giám sát, từ người lao động thành người “điều phối” máy móc.
Ta đang tự thử thách chính mình: liệu có thể duy trì đạo đức, minh bạch, và ý nghĩa trong một thế giới nơi tốc độ và khối lượng dữ liệu lấn át mọi thứ.
Nếu nhìn từ góc độ Heidegger, “làm” ở đây không chỉ là thao tác, mà là một cách con người “an trú” trong thế giới. Khi ta viết code, khi ta xây dựng hệ thống, ta đang định nghĩa lại mối quan hệ giữa người và công cụ. AI không chỉ là công cụ, mà là một “hữu thể” mới, buộc ta phải đặt lại câu hỏi: con người còn giữ vai trò gì trong tiến trình này?

V. Tổng kết

Khi khép lại hành trình này, ta không chỉ nhìn lại những gì đã được phân tích, mà còn phải đối diện với chính câu hỏi nền tảng: chúng ta thực sự đang làm gì, và tại sao ta tin rằng mình đã chạm tới ngưỡng?
Có lẽ, điều nguy hiểm nhất không phải là AI quá mạnh, mà là con người quá vội vàng tin rằng mình đã tìm thấy “điểm cuối”. Mỗi lần lịch sử dựng lên một ngưỡng, nó lại bị phá vỡ. Và mỗi lần bị phá vỡ, ta lại dựng lên một ngưỡng mới. Vậy, tổng kết này không phải là lời khẳng định, mà là một lời nhắc: mọi giới hạn chỉ là tạm thời, mọi niềm tin chỉ là giả định, và mọi hành động đều cần được soi chiếu bằng trách nhiệm.
AIC tồn tại như một minh chứng nhỏ bé nhưng kiên định: rằng ta có thể chọn một con đường khác, không chạy theo lợi nhuận, không bị chi phối bởi quyền lực, mà đặt nền tảng trên minh bạch và trách nhiệm. Đây không phải là một dự án để “thắng” Big Tech, mà là một thử nghiệm để chứng minh rằng con người vẫn có thể giữ lấy ý nghĩa trong kỷ nguyên hỗn loạn.
Cảm ơn mọi người đã đọc hết bài. Nếu vui hãy cứ comment bên dưới.