AI có lấy đi việc làm? Kinh nghiệm từ câu chuyện của các chuyên gia chẩn đoán hình ảnh
Liệu AI là kẻ thù hay là bạn đồng hành của người lao động?

Đến thời điểm hiện tại có thể nói công ty Anthropic làm rất giỏi hai thứ: tạo ra các mô hình AI tân tiến và hù dọa cả xã hội về việc AI sẽ hủy diệt cuộc sống của họ thế nào.
Vào tháng 5 năm 2025, trong phỏng vấn với Axios, Dario Amodei, CEO của công ty đã đưa ra cảnh báo đáng sợ rằng các công cụ AI (bao gồm Claude của Anthropic) có thể “xóa sổ một nửa số việc làm văn phòng cấp thấp”. Ông nói tỷ lệ thất nghiệp tại Mỹ có thể tăng lên 10–20% trong 1–5 năm tới do làn sóng tự động hóa này, mức gần tương đương giai đoạn tệ nhất của đại dịch Covid-19.
Thông điệp này được ông nhắc lại nhiều lần trong các buổi phỏng vấn với các đài truyền hình khác như CBS hay CNBC của Mỹ.
Ngoài việc đưa ra các cảnh báo u ám, ông còn kêu gọi các CEO, chính trị gia “trung thực” với người lao động về nguy cơ hiện hữu từ AI, đặc biệt với nhân viên văn phòng, khi công nghệ này có thể xóa sổ một nửa số vị trí hiện tại và tạo ra “cơn ác mộng” thất nghiệp với 1/5 dân số.

Nhưng nếu như năm 2025 mọi thứ chỉ dừng ở mức cảnh báo mồm thì qua năm 2026, Dario muốn chứng minh cho mọi người thấy mình nói được làm được. Chỉ trong 4 tháng đầu năm nay công ty của ông đã ra mắt hàng loạt tính năng mới cho mô hình Claude, từ Claude Code, Claude CoWork tới Claude Design, đụng vào chén cơm của mọi anh chị em trong tất cả ngành nghề từ phân tích tài chính, múa số liệu trên Excel, chém gió trên Powerpoint, cho đến tư vấn luật, hack wifi, cho đến thiết kế giao diện sao cho trông wow.
Có vẻ thấy mọi người chưa đủ sợ, Amodei còn yêu cầu nhân viên tung ra bài luận 20,000 từ vào ngày 28/01/2026 với tiêu đề "The Adolescence of Technology", tạm dịch là "Tuổi dậy thì của công nghệ". Đại ý của bài luận đó là trong khi đại chúng vẫn đang AI như những đứa bé 5, 6 tuổi biết nói, biết mua vui, hỏi gì đáp nấy và chém gió số liệu thì thực chất AI thời gian qua đã được bơm hormone tăng trưởng, dậy thì nhanh như Thánh Gióng. Dario Amodei lập luận rằng AI đang tiến rất nhanh tới mức “quá mạnh để xã hội hiện nay quản nổi”, chúng được bổ sung quá nhiều tính năng mạnh mẽ trong thời gian ngắn để nâng cao năng lực tư duy, năng lực khám phá, biết sử dụng công cụ hoặc tự chế tạo công cụ để xử lý vấn đề.
Ông chia rủi ro AI thành năm nhóm lớn, nghe như danh sách trùm cuối trong mấy game nhập vai. Các nhóm đó gồm: AI tự chủ và mất kiểm soát; con người dùng AI để tạo vũ khí hủy diệt hàng loạt, nhất là vũ khí sinh học; AI giúp các chế độ chuyên chế củng cố quyền lực; AI phá nát thị trường lao động và dồn của cải vào tay những nhóm siêu giàu; và cuối cùng là những tác động xã hội khó dự đoán kiểu “không ai đặt hàng nhưng nó vẫn tới”.
Hiển nhiên tác động lên xã hội là mọi người trở nên hoang mang, căng thẳng hơn. Nhiều người cảm thấy ức chế khi đến công ty họ phải dùng một thứ mà bản thân biết rằng vài tháng nữa nó sẽ khiến mình mất việc. Mình không dùng nó thì mình lạc hậu, còn mình dùng nó thì nó thông minh hơn và sau này đá đít mình đi. Tóm lại là con người chỉ còn đóng vai trò trung gian để giúp công ty quá độ lên thời kì không con người.
Nhưng thực sự mọi thứ có tệ như vậy không?
Thật may mắn chúng ta không phải chờ thêm vài tháng hay vài năm nữa để biết được câu trả lời. Chúng ta có thể học được từ một câu chuyện khác trong quá khứ, bởi vì hóa ra việc đi hù người là một thú vui nằm trong gen của những người tiếp xúc với con số nhiều hơn con người chứ không chỉ của riêng Dario Amodei.
Cụ thể ở đây tôi nói đến trường hợp của nhà khoa học Geoffrey Hinton khả kính, người được xem là cha đẻ của AI hiện đại và đã đạt giải Nobel Vật lý năm 2023.
Tại một hội nghị năm 2016 ở quê nhà Toronto, Canada, Geoffrey Hinton, khi được hỏi về tương lai của những bác sĩ làm trong ngành chụp phim X-quang, đã trả lời như sau: “Nếu bạn làm bác sĩ X-quang, bạn giống như con chó sói trong phim hoạt hình đã chạy quá mép vực nhưng chưa kịp nhìn xuống, nên vẫn chưa nhận ra dưới chân mình chẳng còn gì.” Ông nói thêm rằng: “Tôi nghĩ chúng ta nên ngừng đào tạo bác sĩ X-quang ngay từ bây giờ. Rõ ràng là trong vòng năm năm nữa, thuật toán học sâu (deep learning) sẽ làm tốt hơn các bác sĩ X-quang… chúng ta đã có đủ bác sĩ X-quang rồi.”
Hinton đưa ra dự đoán chắc nịch như vậy sau khi thấy sự bùng nổ của deep learning kể từ năm 2012, khi mà AI bắt đầu vượt mặt con người trong các cuộc thi nhận diện hình ảnh quy mô lớn. Ông nhìn nhận nghề chẩn đoán hình ảnh thuần túy là một bài toán phân loại điểm ảnh, một nhiệm vụ mà thuật toán có thể tối ưu hóa cực nhanh dựa trên kho dữ liệu khổng lồ. Theo ông mấy người bác sĩ chẩn đoán được trả lương cao là vì họ biết cách đọc các hình ảnh đó. Vì vậy, ông tin rằng nếu máy móc có thể biết đọc ảnh tốt giống như các bác sĩ thì các bác sĩ này không còn việc gì để làm.
Ở Mỹ và Canada thời điểm đó, ngành chẩn đoán hình ảnh được xem là một trong những chuyên khoa được sinh viên y khoa ưa chuộng nhất, được dân trong ngành Y xếp vào nhóm "Con đường hạnh phúc" (ROAD to Happiness - Radiology, Ophthalmology, Anesthesia, Dermatology). Bởi vì những người làm trong chuyên khoa đó vừa có thu nhập cao vừa có thời gian làm việc tương đối dễ chịu.
Nhưng phát biểu của Hinton khi đó chẳng khác nào phiên bản y khoa của việc tỷ phú Warren Buffett tuyên bố ông đang đặt cược vào sự sụp đổ của cổ phiếu ngành X-quang. Tác động của nó không hề nhỏ. Trong khi trước đây chương trình bác sĩ nội trú X-quang luôn có tính cạnh tranh khốc liệt, thì đến năm 2020, chỉ 41% số vị trí nội trú ở Mỹ được lấp đầy bởi sinh viên tốt nghiệp các trường y trong nước, bởi vì họ cho rằng theo đuổi X-quang là một canh bạc quá rủi ro trong thời đại AI phát triển mạnh (lưu ý lúc này ChatGPT vẫn chưa ra đời).
Rồi người ta quan sát thấy một điều thú vị xảy ra. Sinh viên y nhận ra rằng mức lương của các bác sĩ X-quang hướng dẫn họ vẫn…ở trên trời. (trung bình khoảng 600.000 USD/năm.) Thêm vào đó, thay vì nghe chuyện bác sĩ X-quang thất nghiệp, họ lại chứng kiến một làn sóng tin tuyển dụng bùng nổ trong ngành.
Đến năm 2024, “Hiệu ứng Hinton” hoàn toàn biến mất – số sinh viên y Mỹ chọn chuyên ngành chẩn đoán hình ảnh gần như tăng gấp đôi so với năm 2020. Nếu ngành này đang gặp khủng hoảng, thì đó là vì thiếu hụt bác sĩ X-quang trên toàn quốc, chứ không phải dư thừa như cảnh báo của Hinton.
Thật ra đây là một điều đáng kinh ngạc nếu chúng ta xem xét chuyện này chung với xe tự lái. Vào năm 2016 đó, trong khi giới y khoa đang xôn xao về dự báo của Hinton thì giới công nghệ lại đang hưng phấn với một viễn cảnh khác: những chiếc xe tự lại phủ khắp mọi ngóc ngách đô thị. Đó là năm những cái tên như Tesla và Waymo bắt đầu bước ra ánh sáng.
Tuy nhiên, giả sử vào năm 2016 đó, có người hỏi bạn rằng: Trong 10 năm nữa, bạn sẽ tin và đánh cược vào chuyện nào: AI sẽ đọc và chẩn đoán phim thay thế bác sĩ hay là xe tự lái sẽ chạy khắp phố phường? Khả năng cao bạn sẽ chọn việc AI đọc và chẩn đoán hình ảnh. Rõ ràng công việc đó đơn giản hơn rất nhiều so với việc dạy một chiếc xe biết tự lái. Bệnh nhân vô phòng chụp phim, phim được chụp, bác sĩ nhìn phim 3-5 phút và đưa ra chẩn đoán cho người bệnh. Còn một chiếc xe để tự lái, nó phải biết xử lý đủ mọi tình huống hỗn loạn trên đường: từ những thứ có thể dự đoán được, như đi đúng làn, dừng đúng đèn, đi đúng tốc độ, tuân thủ biển báo, cho tới các tình huống bất ngờ, như tránh trẻ em đi qua đường, tránh động vật, né ổ gà.
Ấy vậy mà giờ đây chúng ta đã có xe tự lái chạy ở nhiều quốc gia, trong khi 100% phim chụp X-quang của bạn vẫn cần bác sĩ chẩn đoán hình ảnh.
Tại sao lại vậy?
Thứ nhất đó là vì có sự khác biệt giữa quy tắc giao thông và biến thiên sinh học. Đối với xe tự lái, dù đường phố phức tạp, nhưng nó vận hành dựa trên các quy tắc nhân tạo thể hiện qua các biển báo, làn đường, đèn giao thông. AI chỉ cần học cách "phản ứng" với các quy tắc đó. Ngược lại cơ thể người không được xây dựng bằng một bảng mã tiêu chuẩn. Cùng một khối mờ trên phổi, nhưng ở một sinh viên đã hút thuốc 20 năm, nó mang nghĩa khác; ở một cụ già 70 tuổi chưa hút thuốc lào bao giờ, nó mang nghĩa khác. Cùng một tổn thương gan, nhưng ở một anh dev uống bò húc lâu năm và người vừa nhiễm virus, đường diễn giải lại tách ra thành hai nhánh hoàn toàn khác. Những khác biệt nhỏ trong tuổi tác, tiền sử bệnh, thuốc đang dùng, thậm chí cả yếu tố di truyền không được ghi trong hồ sơ, đều có thể làm thay đổi kết luận. Và chính những biến thiên không thể chuẩn hóa đó khiến chẩn đoán y khoa không bao giờ giống một hệ thống luật lệ mà máy móc có thể học thuộc.
Thứ hai, sự khác biệt còn nằm ở cách hai hệ thống học từ sai lầm. Với xe tự lái, nếu AI đánh giá sai tình huống và rẽ lệch vài độ, nó sẽ đâm vào một boy phố không đội mũ bảo hiểm. Với đa số các tình huống, thông tin phản hồi là tức thì và tuyệt đối: đúng hoặc sai, tránh được hoặc va vào. Loại phản hồi nhị phân này tạo ra một chu trình học cực nhanh vì mỗi lỗi đều được “đóng dấu” ngay lập tức bằng một hậu quả rõ ràng, có camera ghi lại nên ít khi gây ra tranh cãi.
Thế nhưng trong y khoa, để tìm ra đúng sự thật khách quan đòi hỏi các bác sĩ phải trải qua một quy trình cực kì lâu. Để biết AI đọc đúng hay sai một khối u, đôi khi các chuyên gia phải đợi kết quả sinh thiết, hoặc theo dõi bệnh nhân trong nhiều tháng, thậm chí nhiều năm. Trong một số trường hợp, các bác sĩ sẽ không bao giờ có câu trả lời hoàn hảo: bệnh nhân không sinh thiết, tổn thương tự biến mất, hoặc diễn tiến bệnh bị tác động bởi các yếu tố khác. Các sai lầm của AI trong y khoa vì thế không tạo ra phản hồi tức thì; nó chỉ để lại những tín hiệu mơ hồ, phân tán, và đôi khi không bao giờ được xác nhận.
Do đó có thể nói AI trong y học thiếu một "người thầy" hoàn hảo và giúp sửa sai ngay lập tức, thứ mà xe tự lái có được mỗi khi nó va vào dải phân cách. Không có phản hồi nhanh, không có chuẩn mực tuyệt đối, tốc độ tiến hóa của AI y khoa vì thế chậm hơn nhiều so với các hệ thống vận hành trong môi trường có luật lệ rõ ràng. Và chính sự thiếu hụt này khiến việc thay thế bác sĩ bằng AI không đơn giản như thay thế tài xế bằng một thuật toán.
Và cuối cùng, yếu tố quan trọng nhất là khác biệt trong trách nhiệm pháp lý. Khi xe tự lái gây tai nạn, Tesla hay Waymo có thể đứng ra chịu trách nhiệm kỹ thuật. Nguyên nhân cốt lõi gây ra lỗi cuối cùng vẫn sẽ tìm ra được, có thể là cảm biến, phần mềm, thuật toán điều khiển. Như vậy, đây là một mô hình vận hành có trách nhiệm tương đối rõ ràng, nơi nhà sản xuất có thể bị kiện, bị phạt, phải bồi thường hoặc phải thu hồi xe.
Chúng ta không áp dụng được điều đó trong y khoa bởi vì chẩn đoán không phải là một kết quả máy tính mà là một quyết định lâm sàng. Nếu AI đọc sai một khối u, câu hỏi là ai sẽ đi tù? Người ta sẽ không thể kết tội hãng phần mềm, cũng không thể quy trách nhiệm cho nhà sản xuất chip. Người đứng mũi chịu sào cuối cùng vẫn là bác sĩ vì người đó đã ký vào báo cáo, người chịu trách nhiệm trước bệnh nhân, trước hội đồng chuyên môn, trước pháp luật. AI có thể hỗ trợ, nhưng nó không đứng trước tòa. Bác sĩ thì có.
Do đó có thể nói xã hội chưa sẵn sàng giao phó quyền sinh sát cho một "hộp đen" thuật toán mà không có sự giám sát của con người. Khi hậu quả là một tai nạn giao thông, trách nhiệm có thể quy về công ty. Nhưng khi hậu quả là một mạng người trong bệnh viện, chúng ta vẫn đòi hỏi một cá nhân hoặc một tập thể phải chịu trách nhiệm - những người bằng xương bằng thịt, không phải một mô hình xác suất. Chừng nào cấu trúc trách nhiệm này còn tồn tại, AI vẫn chỉ là công cụ, không phải người ra quyết định cuối cùng.
Vậy từ câu chuyện này chúng ta có thể thấy gì về câu chuyện AI sẽ cướp việc làm mà Dario Amodei liên tục kể? Qua câu chuyện về tác động của AI lên các bác sĩ chẩn đoán hình ảnh, chúng ta thấy rằng AI sẽ tạo ra sự thay đổi trong công việc chúng ta làm, nhưng điều đó không có nghĩa rằng sự thay đổi sẽ tiêu cực.
Đầu tiên chúng ta cần hiểu rằng không nên nhìn nhận một nghề nghiệp như một khối thống nhất. Thực tế, bất kỳ nghề nào cũng là một tập hợp gồm hàng chục tác vụ khác nhau, từ đơn giản đến phức tạp, từ lặp lại đến đòi hỏi phán đoán tinh vi. AI chỉ có thể tự động hóa một vài tác vụ trong cái bó đó, thường là những phần có cấu trúc rõ ràng, lặp đi lặp lại, hoặc liên quan đến xử lý dữ liệu. Khi một tác vụ bị máy móc chiếm lấy, thời gian của con người không biến mất; nó được tái phân bổ sang những phần việc mà AI chưa làm được hoặc làm rất tệ.
Một kỹ sư phần mềm không chỉ viết code. Họ phải lấy yêu cầu từ khách hàng, thiết kế kiến trúc hệ thống, thương lượng với các nhóm liên quan, và quan trọng nhất là gỡ lỗi logic kinh doanh, những thứ đòi hỏi hiểu biết về bối cảnh thực tế, về con người, về mục tiêu của tổ chức. AI có thể tạo ra được sản phẩm rất tốt trông xịn sò, nhưng chưa chắc sản phẩm đó đã phù hợp với bối cảnh doanh nghiệp hiện tại.
Trong y khoa, điều này còn rõ ràng hơn. Một bác sĩ chẩn đoán hình ảnh không chỉ “đọc phim”. Họ phải tổng hợp tiền sử bệnh, so sánh với các lần chụp trước, cân nhắc yếu tố tuổi tác, thuốc đang dùng, bệnh nền, rồi đưa ra khuyến nghị lâm sàng phù hợp với bối cảnh của từng bệnh nhân. AI có thể khoanh vùng một khối u, nhưng nó không thể quyết định xem bệnh nhân có nên sinh thiết ngay hay chỉ cần theo dõi sáu tháng. Nó cũng không thể giải thích kết quả cho bệnh nhân, phối hợp với bác sĩ điều trị, hay chịu trách nhiệm pháp lý cho quyết định cuối cùng.
Khi nhìn nghề nghiệp như một bó tác vụ thay vì một khối đơn lẻ, ta thấy rõ rằng AI không "cướp việc"; nó chỉ tái cấu trúc công việc. Con người dịch chuyển sang những phần việc đòi hỏi phán đoán, bối cảnh, trách nhiệm và tương tác, những thứ mà thuật toán, dù mạnh đến đâu, vẫn chưa thể tự một mình ra quyết định được.
Nhìn rộng ra toàn bộ nền kinh tế. Chúng ta cần biết rằng giá trị trong nền kinh tế luôn di chuyển theo quy luật cung–cầu: thứ gì trở nên quá dồi dào thì giá trị của nó giảm xuống. Khi AI khiến việc "tạo ra" trở nên rẻ mạt - viết một đoạn code, phác thảo một bức tranh, tóm tắt một tài liệu, hay khoanh vùng một tổn thương trên phim X-quang - thì giá trị không còn nằm ở hành động tạo ra nữa, mà chuyển sang khả năng thẩm định. Nói cách khác, giá trị dịch chuyển từ "thực thi" sang "đánh giá".
Trong mô hình lao động cũ, người chủ lao động trả tiền cho kỹ năng thực thi của người lao động, nhưng cô ta phải biết vẽ, anh ta cần biết viết code, ông bác sĩ cần biết đọc phim X-quang. Còn trong mô hình lao động mới mà xã hội đang dần dịch chuyển tới, người lao động sẽ được trả tiền cho khả năng ra quyết định: biết bức hình này có giá trị nghệ thuật thế nào; biết đánh giá xem đoạn mã này có an toàn cho hệ thống công ty hay không; biết phân tích tính hợp lý trong kiến trúc một ngôi nhà xây ở vùng hay lũ.
Trong ngành tài chính, AI có thể phân tích hàng triệu giao dịch trong vài giây, nhưng quyết định "có nên khóa tài khoản này không" vẫn cần con người vì đó là quyết định liên quan đến pháp lý, uy tín và rủi ro đạo đức.
Trong giáo dục, AI có thể chấm bài về nhà của học sinh, nhưng việc quyết định một học sinh có đang gặp vấn đề tâm lý hay cần hỗ trợ đặc biệt lại là công việc của giáo viên.
Như vậy nhìn theo hướng tích cực, có thể nói AI không đẩy con người xuống dưới, mà đẩy con người lên cao hơn trong chuỗi giá trị. Chúng ta không còn là những người "làm ra sản phẩm", mà trở thành những người kiểm soát chất lượng, định nghĩa tiêu chuẩn, và điều phối hệ thống. Khi phần "tạo ra" trở nên rẻ, phần "thẩm định", "đánh giá" trở thành tài sản quý hiếm - và đó là nơi con người vẫn giữ vai trò trung tâm.
Vậy thì có phải những điều Dario Amodei đang cảnh báo là phi lí? Thật ra có phần đúng và không. Cái đúng ở đây là rủi ro lớn nhất mà AI mang tới không hẳn là thị trường lao động mà con người không hiểu được và kiểm soát được khả năng của nó. Như trong tuyên bố mới nhất của Anthropic về phiên bản Claude Mythos của họ, vấn đề lớn nhất nó gây ra không phải đến từ việc nó cướp thêm việc của khối ngành nào đó, mà đến từ việc nó có thể xuyên thủng hệ thống bảo mật của rất nhiều cơ quan chính phủ cũng như tổ chức tài chính trên toàn cầu. Tức khả năng nó khiến hệ thống tài chính toàn cầu bị rối loạn dẫn tới một cuộc khủng hoảng tài chính là hoàn toàn có thật.
Nhưng đó là những vấn đề mà chúng ta dù có cố gắng thay đổi bản thân kiểu gì cũng không giải quyết được. Cố gắng đối phó với chuyện đó cũng giống như cố gắng tập chạy marathon để né thiên thạch rớt xuống Trái Đất vậy.
Và đó là lý do nhiều tiếng nói trong ngành đã cất lên phản đối Dario Amodei và thói quen thích tiên tri tận thế của anh ta. Gary Marcus, Giáo sư ở Đại học New York, là một trong những tiếng nói phản đối mạnh nhất. Ông cho rằng Amodei (và nhóm “AI doomer”) đang thổi phồng nguy cơ theo hướng phi thực tế. Marcus nói: “Nếu anh thực sự tin AI có nguy cơ tuyệt chủng nhân loại, vậy tại sao anh vẫn tiếp tục xây nó? Đó là câu hỏi rất công bằng.” CEO của Nvidia, Jensen Huang, tuy không công khai chỉ trích đích danh Amodei, nhưng đã có những nỗ lực trấn an đại chúng rằng có một số người thổi phồng quá đáng tác hại của AI, và ông tin rằng nó là một công cụ mang lại lợi ích cực lớn cho xã hội hơn là đẩy loài người vào con đường tự hủy.
Còn tôi thấy về phía chúng ta, những người đang đi lao động hay cố gắng nuôi doanh nghiệp. Tôi nghĩ rằng những gì đã khiến chúng ta thành công vẫn sẽ hoạt động như thế. Bởi vì ngay cả trước khi có AI, các công nghệ mới đã tạo ra một xã hội luôn thay đổi. Con người đã phải luôn thích nghi với hàng loạt công nghệ mới. Vào năm 2016, ai có thể nghĩ rằng có cả một nền công nghiệp sống nhờ vào giao đồ ăn, livestream hay là làm video ngắn 30 giây?
Do đó tôi không cho rằng AI sẽ khiến con người mất hết việc làm, bởi vì con người đã được rèn luyện khả năng thích nghi với sự thay chóng mặt đổi kể từ khi Internet ra đời. Tôi cho rằng AI là một công cụ khuếch đại hơn. Nếu bạn là một người thành công nhờ chăm chỉ, thì bây giờ bạn vẫn tiếp tục thành công nhờ chăm chỉ và có AI hỗ trợ. Nếu bạn là một người thành công nhờ ham học kiến thức mới, bạn vẫn sẽ tiếp tục thành công vì nhờ có AI mà bạn thu nạp kiến thức kỹ năng mới nhanh hơn. Nếu bạn là người giỏi thích nghi với môi trường mới, thì giờ có AI bạn sẽ có thể thích nghi nhanh hơn.
Do đó tôi tin rằng những kỹ năng, lối tư duy đã giúp bạn thành công trước khi có AI vẫn sẽ là thứ giúp bạn sống sót trong kỷ nguyên mới tràn ngập AI này.
-----------------------------------------------------------------------------------------------
Nếu bạn đã đọc đến đây mình rất cám ơn và hi vọng bạn đã hài lòng với bài viết này. Đây là bài viết thứ tư trong chuỗi bài viết phân tích về việc phát triển công nghệ ở Việt Nam và nước ngoài.
Do mình làm series này trong khuôn khổ hợp tác với đội ngũ Spiderum nên cũng muốn quảng cáo. Nếu bạn hứng thú với chủ đề công nghệ thay đổi xã hội, hãy đặt mua sách "Code và Cát: Những quyền lực công nghệ xoay chuyển thế giới". Quyển sách sẽ giúp bạn đọc hiểu hơn về lịch sử của những công ty công nghệ lớn trên toàn cầu, cách họ thay đổi bộ mặt xã hội và thâu tóm quyền lực vào tay mình.
Link đặt sách:

Quan điểm - Tranh luận
/quan-diem-tranh-luan
Bài viết nổi bật khác
- Hot nhất
- Mới nhất

