Thuật toán : Khi Socrates bấm like , Plato thả tim , Zeno share và bị đóng băng .Phần 1.
Một bài viết về thuật toán loằng ngoằng và dài dòng của một con bé 16 tuổi vào ngày chủ nhật chưa thèm làm bài tập về nhà nhưng cố viết cho hết 1 phần
Tôi biết chắc đã rất nhiều người từng tự hỏi : những video, bài viết, và tin tức chúng ta gặp trên mạng lại khớp hoàn hảo với sở thích của ta ? Liệu ta có thực sự chủ động lựa chọn thông tin hay chỉ là nạn nhân của thuật toán ?

...
Liệu những gợi ý đó có làm giới hạn cái nhìn đa chiều của bạn không?
Trước kia , khi tôi còn sử dụng một số mạng xã hội như facebook , Tiktok , ... hay lảng vảng ở mấy trang báo mà chỉ cần lướt chuột xuống ở cốc cốc là có thể nắm được cả mớ thông tin ... không giúp ích gì cho tôi lắm . Khi đó , tôi vẫn hay nghĩ " một lúc nào đó thông tin mình đọc có thể giúp ích cho mình " , và quả thật nó có giúp ích cho tôi trong một vài cuộc nói chuyện với đám bạn về cô A , anh B yêu đương thế nào , sống chết ra sao . Nhiều lúc tôi lại cho rằng việc đọc thông tin trên các trang mạng là một hình thức giải trí , nhưng giải trí đâu không thấy mà chúng khiến tôi bực bội nhiều hơn khi nhiều trang trên Facebook lan truyền thông tin sai sự thật nhằm câu kéo sự chú ý của cư dân mạng hay lấy một phần của sự thật vẽ nên một bức tranh toàn cảnh để khiến chúng " đáng tin " . Hệ quả , khi tôi còn chưa đủ " chín " để nhận thức thế nào là những trang thông tin tổng hợp hay đâu là trang thông tin chính thống thì những thứ tưởng chừng đang giúp tôi giải trí thực ra đang khiến tôi " rước nhọc" vào thân .
Ví dụ thường thấy : Một người ban đầu chỉ tìm hiểu về thể hình với mục tiêu cải thiện sức khoẻ cá nhân . Tuy nhiên , sau một thời gian ,nhờ vào các thuật toán cá nhân hoá trên mạng xã hội , họ dần bị cuốn vào những nguồn thông tin cực đoan - chẳng hạn như những video "red pill " , "alpha male " , hay những quan điểm cực đoan về nam tính .Dễ thấy là chúng rất nhanh chóng bị lan truyền trên mạng xã hội như tiktok , một người " xào " ý tưởng này thành công thì có hàng ngàn người khác đem ra " xào " lại . Về cơ bản thời lượng nội dung trên tiktok quá ngắn để truyền tải thông tin dưới một cái nhìn toàn cảnh có đủ căn cứ xác thực về một vấn đề để người dùng có thể lựa chọn có nên chấp thuận với quan điểm đó hay không .
Lan man thế là đủ rồi , dưới đây là những phần chính có trong bài viết :
1. Lịch sử và cơ chế của thuật toán.
2. Tác động tâm lý, nhận thức và hành vi.
3. Ảnh hưởng xã hội, chính trị & ví dụ thực tế.
4. Tác động đến kinh tế, giáo dục và trẻ em.
5. Luật pháp, chính sách .
Lịch sử và cơ chế thuật toán............................................................
Lịch sử phát triển
1998: Google PageRank – Cách xếp hạng dựa trên liên kết, mở đường cho các thuật toán tìm kiếm.
Google PageRank là một thuật toán nền tảng được phát triển bởi Larry Page và Sergey Brin khi họ còn là nghiên cứu sinh tại Đại học Stanford, và được giới thiệu rộng rãi qua bài báo “The Anatomy of a Large-Scale Hypertextual Web Search Engine” vào năm 1998.
PageRank được xây dựng dựa trên ý tưởng rằng các liên kết giữa các trang web tương tự như các trích dẫn trong các bài báo học thuật. Một trang được coi là quan trọng nếu có nhiều trang khác (đặc biệt là những trang có uy tín) liên kết đến nó . Thay vì chỉ dựa vào nội dung từ khóa, Google sử dụng cấu trúc liên kết của toàn bộ web để xác định mức độ uy tín của một trang. Trang càng được liên kết bởi các trang “quan trọng” khác, càng được đánh giá cao . Trước khi PageRank ra đời, hầu hết các công cụ tìm kiếm chủ yếu dựa vào số lượng xuất hiện từ khóa . PageRank mang lại một cách đánh giá khách quan hơn bằng cách xem xét cách mà các trang liên kết với nhau trên mạng, giúp loại bỏ nhiều nội dung chất lượng thấp và spam.Nhờ vào phương pháp này, Google đã có thể cung cấp những kết quả tìm kiếm chất lượng cao và chính xác hơn, đóng góp vào sự thành công vang dội của công cụ tìm kiếm này trên toàn cầu.Thuật toán không chỉ ảnh hưởng đến thứ hạng tìm kiếm mà còn góp phần định hình các chiến lược SEO (Search Engine Optimization), khi các nhà quản trị website nỗ lực xây dựng các liên kết chất lượng để cải thiện thứ hạng trang của mình.PageRank mặc dù ban đầu được giới thiệu vào năm 1998, nhưng khái niệm về “đánh giá theo liên kết” đã trở thành nền tảng cho nhiều thuật toán khác được phát triển sau này. Dù Google hiện nay đã áp dụng rất nhiều thuật toán phụ trợ cùng các yếu tố khác (như machine learning, xử lý ngôn ngữ tự nhiên,…), nhưng nguyên tắc cơ bản của PageRank vẫn là một phần quan trọng trong quá trình xếp hạng trang web.
2000 – 2010: Sự ra đời của các thuật toán cá nhân hóa
Trong giai đoạn từ 2000 đến 2010, các thuật toán cá nhân hóa đã bùng nổ và trở thành “công cụ thần kỳ” giúp các nền tảng số cung cấp trải nghiệm người dùng độc đáo, dựa trên dữ liệu hành vi và sở thích cá nhân . Giai đoạn này chứng kiến sự bùng nổ nhanh chóng của Internet và sự xuất hiện của hàng triệu trang web, khiến thông tin trở nên quá dồi dào. Người dùng cần một cơ chế giúp lọc và cá nhân hóa nội dung để tiết kiệm thời gian và nâng cao hiệu quả tìm kiếm.Giai đoạn này chứng kiến sự mở rộng nhanh chóng của Internet và sự xuất hiện của hàng triệu trang web, khiến thông tin trở nên quá phong phú. Người dùng cần một cơ chế giúp lọc và cá nhân hóa nội dung để tiết kiệm thời gian và nâng cao hiệu quả tìm kiếm.
Một số mô hình thuật toán cá nhân hoá
Collaborative Filtering (Lọc theo Hợp tác)
Thuật toán này dựa trên giả định rằng nếu hai người dùng có hành vi tương tự trong quá khứ (ví dụ: mua hàng, đánh giá sản phẩm, xem nội dung), thì họ có khả năng thích những mục tương tự trong tương lai.
ƯU:
User-Based Collaborative Filtering: Tìm kiếm những người dùng tương tự và gợi ý dựa trên sở thích chung của họ.Item-Based Collaborative
Filtering: Dựa trên các mối liên hệ giữa các mục (sản phẩm, phim, bài viết) được người dùng cùng đánh giá hoặc tiêu thụ.
=====> Khai thác mối quan hệ giữa người dùng, không cần phân tích sâu về nội dung của sản phẩm.
Nhược :
Cold Start Problem: Gặp khó khăn khi có ít dữ liệu về người dùng mới hoặc mục mới.
Sparsity: Dữ liệu bị phân tán khi số lượng người dùng và mục lớn, gây khó khăn trong việc tìm ra mối tương đồng đáng tin cậy.
Amazon sử dụng thuật toán này để đề xuất sản phẩm dựa trên lịch sử mua sắm của người dùng.
Content-Based Filtering (Lọc Dựa Trên Nội Dung)
Phân tích các đặc điểm của sản phẩm hoặc nội dung (ví dụ: từ khóa, thể loại, mô tả) và so sánh với hồ sơ sở thích của người dùng.
Ưu :
Đưa ra các đề xuất chính xác cho người dùng có sở thích rõ ràng.
Không phụ thuộc vào dữ liệu của người dùng khác, giải quyết vấn đề cold start ở một mức độ nào đó.
Nhược :
Hạn chế khám phá: Người dùng có thể bị mắc kẹt trong “vùng an toàn” của những nội dung tương tự, không mở rộng được ra các chủ đề mới.
Hybrid Filtering (Kết Hợp)
Kết hợp ưu điểm của cả hai mô hình trên để đưa ra các đề xuất tốt hơn
Sử dụng cả thông tin từ lịch sử hành vi (collaborative filtering) và phân tích nội dung (content-based filtering).
Ưu :
Giảm thiểu những hạn chế của từng phương pháp riêng lẻ.
Tăng tính đa dạng và chính xác trong đề xuất.
Nhược :
Yêu cầu tính toán phức tạp và cần dữ liệu đa dạng để vận hành hiệu quả.
======> Netflix đã triển khai các hệ thống đề xuất dựa trên hybrid filtering để khuyến nghị phim ảnh cho người dùng
2016 – nay:YouTube chuyển sang thuật toán dựa trên “watch time”, dẫn đến hiệu ứng “nội dung cực đoan”
TikTok ra đời với công nghệ AI tinh vi, chỉ trong 30 phút đã nắm bắt sở thích người dùng (theo báo cáo của Wall Street Journal, 2021).
YouTube đã chuyển từ việc ưu tiên các chỉ số như số lượt click và lượt xem sang tập trung vào “watch time” – tức là tổng thời gian người dùng dành cho việc xem video thế nào.
Ưu tiên nội dung giữ chân người xem: Thuật toán mới ưu tiên đề xuất những video có khả năng giữ người dùng xem lâu hơn. Điều này có nghĩa là nếu một video, dù có nội dung cực đoan hay gây sốc, nhưng lại kích thích cảm xúc mạnh mẽ và làm người xem dán mắt vào màn hình, nó sẽ được đánh giá cao và được đề xuất cho nhiều người hơn.
Kích thích sự lan truyền mạnh mẽ của nội dung "cực đoan": Vì nội dung gây tranh cãi hoặc mang tính kích động thường có khả năng “bám víu” người xem và kéo dài thời gian xem, nên nó trở thành “mồi nhử” hiệu quả cho thuật toán. Hệ quả là, nhiều nội dung cực đoan, nội dung rác dù không phải lúc nào cũng chính xác hay mang tính xây dựng, lại dễ dàng được lan truyền rộng rãi .
Hậu quả không mong muốn: Mặc dù việc tập trung vào watch time giúp YouTube tăng cường mức độ tương tác và thời gian trung bình của người dùng trên nền tảng, nhưng nó cũng dẫn đến việc hình thành “echo chamber” ( buồng vang )– nơi người xem chỉ tiếp cận với những nội dung cùng một hướng, từ đó có thể góp phần làm tăng mức độ cực đoan và phân cực trong cộng đồng mạng.
Cơ chế thu thập và xử lý dữ liệu
“Mỗi lượt xem, like, share, và bình luận của bạn đều được ghi nhận và phân tích.”
Nghiên cứu của Bakshy, Messing & Adamic (Science, 2015) khảo sát dữ liệu từ hơn 10 triệu người dùng Facebook cho thấy hiệu ứng của thuật toán giảm khả năng tiếp cận nội dung đối nghịch khoảng 10%.
Nghiên cứu trên là một trong những nghiên cứu có ảnh hưởng lớn về việc đánh giá mức độ đa dạng thông tin và tiếp cận các quan điểm chính trị trên Facebook. Mục tiêu của nghiên cứu nhằm đo lường mức độ đa dạng về quan điểm chính trị mà người dùng Facebook được tiếp cận, cụ thể là sự khác biệt giữa nội dung “đồng thuận” (congenial) và “đối lập” (cross-cutting). Và xác định vai trò của thuật toán đề xuất (News Feed) và hành vi tự chọn của người dùng trong việc tạo ra hiện tượng “filter bubble.” Thí nghiệm được tiến hành trên quy mô lớn với dữ liệu của hơn 10 triệu người dùng Facebook.
So sánh hai cách thức hiển thị nội dung:
Một nhóm người dùng được xem nội dung thông qua thuật toán cá nhân hóa của Facebook.
Nhóm còn lại được hiển thị nội dung theo cách ngẫu nhiên, tức là loại bỏ bớt sự can thiệp của thuật toán.
Cả quá trình tự chọn của người dùng (chọn theo sở thích) và thuật toán đề xuất đều góp phần giảm bớt sự đa dạng của các bài đăng mà người dùng tiếp nhận. Mặc dù thuật toán có tác động nhất định trong việc lọc nội dung, nhưng hành vi tự chọn của người dùng – tức là việc họ chủ động chọn theo dõi những trang, nhóm hay bạn bè có cùng quan điểm – lại có ảnh hưởng lớn hơn đối với việc tạo ra “filter bubble.”Nếu nội dung được hiển thị ngẫu nhiên (không qua thuật toán), người dùng có khả năng được tiếp cận với các quan điểm đối lập nhiều hơn so với trường hợp nội dung được cá nhân hóa.
Nghiên cứu đã minh chứng rằng cả thuật toán đề xuất và hành vi tự chọn của người dùng đều góp phần làm giảm sự đa dạng trong thông tin.Kết quả này nhấn mạnh tầm quan trọng của việc cải thiện cả thuật toán và cách thức người dùng lựa chọn thông tin để tránh rơi vào “filter bubble” – hiện tượng khiến người dùng chỉ nhìn thấy những quan điểm tương đồng, từ đó góp phần gia tăng sự phân cực trong xã hội
Góc nhìn đối lập
Một số chuyên gia cho rằng, yếu tố tự chọn của người dùng mới là nguyên nhân chính hạn chế thông tin. Nếu người dùng chủ động tìm kiếm nguồn đa chiều, tác động của thuật toán sẽ giảm bớt.
Ví dụ : Netflix với hệ thống gợi ý đa dạng – khi người dùng chọn “khám phá”, thuật toán mở rộng trải nghiệm.
Tác Động Tâm Lý, Nhận Thức và Hành Vi
Cơ chế Dophamine
“Các nghiên cứu cho thấy rằng thuật toán khai thác hệ thống khen thưởng của não bộ, giúp tạo ra cảm giác hưng phấn mỗi khi nhận được gợi ý phù hợp.”
Từ nghiên cứu của Alter trong cuốn Irresistible (2017) chỉ ra rằng thuật toán có thể kích hoạt dopamine, góp phần tạo thói quen sử dụng mạng xã hội.
The Rise of Addictive Technology and the Business of Keeping Us Hooked (2017)
Adam Alter nghiên cứu về cách các công ty công nghệ thiết kế sản phẩm để tạo ra "sự nghiện" tâm lý ở người dùng. Cuốn sách tập trung vào việc phân tích các yếu tố khiến công nghệ, đặc biệt là mạng xã hội, trò chơi điện tử và điện thoại thông minh, trở nên "không thể cưỡng lại" (irresistible).
Điểm chính trong nghiên cứu của ông :
1. Công nghệ khai thác cơ chế "phần thưởng biến đổi" của não bộ
Alter nhấn mạnh rằng nhiều ứng dụng và nền tảng số được thiết kế để kích hoạt dopamine – chất dẫn truyền thần kinh liên quan đến phần thưởng và động lực.
Hệ thống phần thưởng biến đổi (variable rewards) trong game, mạng xã hội và ứng dụng hẹn hò (như Tinder, Instagram) làm cho người dùng liên tục quay lại, vì họ không thể đoán trước khi nào sẽ nhận được phần thưởng (like, comment, tin nhắn mới, v.v.).
2. Cơ chế "không có điểm kết thúc" khiến người dùng không thể dừng lại
Trái ngược với các trò chơi truyền thống có hồi kết rõ ràng, những nền tảng như Facebook, Instagram, và YouTube không bao giờ kết thúc. News Feed liên tục làm mới, khiến người dùng rơi vào vòng lặp vô tận.Tính năng "auto-play" trên YouTube hay "infinite scroll" trên mạng xã hội khiến con người tiêu thụ nội dung mà không nhận ra mình đang làm gì.
3. "Nút Like" – Vũ khí tâm lý mạnh
Ông chỉ ra rằng tính năng "Like" của Facebook là một trong những công cụ mạnh nhất trong việc tạo ra sự phụ thuộc vào mạng xã hội.Khi người dùng nhận được Like, dopamine được giải phóng, tạo cảm giác hưng phấn. Nhưng khi không nhận được Like, họ cảm thấy hụt hẫng, lo âu, và có xu hướng đăng nhiều hơn để tìm kiếm sự công nhận.
4. Trò chơi điện tử lợi dụng tâm lý người chơi
Các game như World of Warcraft, Fortnite, Candy Crush… sử dụng cơ chế nhiệm vụ dang dở (Zeigarnik effect), khiến người chơi luôn cảm thấy cần hoàn thành thêm một nhiệm vụ nữa.
Các nhà phát triển cố ý tạo ra những phần thưởng không thể đoán trước, như loot box (hộp quà may mắn), để khiến người chơi nghiện.
Hiệu Ứng “Filter Bubble” & “Echo Chamber”
Filter Bubble: Người dùng chỉ tiếp nhận thông tin đồng nhất với sở thích đã có.
Echo Chamber: Môi trường chỉ chứa các quan điểm tương tự, giảm khả năng tiếp cận ý kiến đối lập.
Filter Bubble – Bong bóng lọc
Thuật ngữ này được Eli Pariser giới thiệu trong cuốn The Filter Bubble: What the Internet Is Hiding from You (2011). Nó mô tả cách thuật toán cá nhân hóa nội dung trên mạng (Google, Facebook, YouTube, TikTok…) làm cho mỗi người chỉ thấy những thông tin phù hợp với sở thích và niềm tin của họ, vô tình loại bỏ các quan điểm đối lập.
Các nền tảng sử dụng thuật toán cá nhân hóa để đề xuất nội dung dựa trên lịch sử tìm kiếm, lượt thích, thời gian xem, v.v.Người dùng càng tương tác với một loại nội dung, thuật toán càng hiển thị nhiều nội dung tương tự.Dần dần, họ bị nhốt trong một “bong bóng” chỉ chứa các thông tin củng cố niềm tin sẵn có.Nếu bạn thích xem video về đầu tư tiền mã hóa, YouTube sẽ đề xuất thêm các video về crypto thay vì những quan điểm phản biện như rủi ro pháp lý .Nếu bạn có xu hướng chính trị nghiêng về một phía, Facebook sẽ hiển thị nhiều bài viết cùng quan điểm thay vì cung cấp cái nhìn đa chiều.Điều đó làm giảm khả năng tiếp xúc với thông tin đa dạng.Gây ra hiệu ứng cực đoan hóa: Khi chỉ tiếp xúc với một loại quan điểm, người ta có thể trở nên bảo thủ hơn với góc nhìn của mình. Không có sự đối chiếu giữa các quan điểm trái chiều, người dùng có thể tin rằng quan điểm của họ là hiển nhiên và duy nhất đúng.
Echo Chamber – Buồng vang
là hiện tượng con người chỉ giao tiếp với những người có cùng quan điểm, khiến cho những ý kiến trong nhóm được lặp đi lặp lại như một tiếng vang. Không giống như Filter Bubble (do thuật toán quyết định), Echo Chamber chủ yếu hình thành do hành vi lựa chọn thông tin của người dùng.
Người dùng có xu hướng tham gia vào các nhóm, diễn đàn, trang mạng xã hội có cùng quan điểm với mình.Những quan điểm tương đồng được nhắc đi nhắc lại, tạo ra ảo tưởng rằng đây là sự thật hiển nhiên.Những ý kiến trái chiều bị xem là “sai trái” hoặc bị loại bỏ.
Ví dụ :Những hội nhóm về sức khỏe tự nhiên bác bỏ hoàn toàn y học hiện đại, tin rằng chỉ cần ăn thực phẩm hữu cơ là có thể chữa ung thư. Hay những cộng đồng cực đoan chính trị trên Reddit hoặc Telegram, nơi thông tin được chọn lọc để củng cố tư tưởng của nhóm.
Hệ quả :
Gia tăng sự phân cực xã hội – nhóm này coi nhóm kia là “kẻ thù” thay vì đối thủ tranh luận.
Tạo ra ảo tưởng về sự thật – khi chỉ nghe một quan điểm, người ta dễ tin rằng đó là quan điểm duy nhất đúng.
Dẫn đến hành vi cực đoan hơn – khi niềm tin không bị thách thức, nó có thể trở nên ngày càng cứng nhắc.
Nghiên cứu của Del Vicario et al. (2016)
"The spreading of misinformation online" (Sự lan truyền của thông tin sai lệch trên mạng trực tuyến)
Nó được công bố trên Proceedings of the National Academy of Sciences (PNAS).
Nhóm nghiên cứu của Michela Del Vicario và cộng sự phân tích cách thông tin (đặc biệt là tin giả và thông tin sai lệch) lan truyền trên mạng xã hội, đồng thời so sánh cách người dùng phản ứng với các loại thông tin khác nhau.
Nhóm thu thập dữ liệu từ Facebook: Nghiên cứu tập trung vào hơn 1,2 triệu người dùng trên Facebook. Tập trung vào so sánh hai loại nội dung chính : Tin giả và thông tin khoa học .Và phân tích cách người dùng tương tác: Xem xét lượt chia sẻ, bình luận và tốc độ lan truyền của hai loại thông tin này.
Tin giả (misinformation): Các thông tin không có căn cứ khoa học, thường đến từ các trang web lan truyền thuyết âm mưu.
Thông tin khoa học: Các bài viết từ các trang web và tạp chí khoa học có uy tín.
Kết quả mà nhóm nghiên cứu nhận được :
1.Tin giả lan truyền nhanh hơn và xa hơn so với thông tin khoa học
Người dùng có xu hướng tin và chia sẻ tin giả trong cộng đồng của họ, ngay cả khi có bằng chứng khoa học bác bỏ tin đó.Tin giả thường có nội dung cảm xúc mạnh mẽ (sợ hãi, giận dữ, hy vọng), khiến nó dễ dàng thu hút sự chú ý hơn.
2.Sự hình thành Echo Chambers (Buồng vang)
Người dùng có xu hướng tập hợp thành các nhóm có chung niềm tin và chỉ tương tác với những người có quan điểm giống họ.Những nhóm này hiếm khi tiếp xúc với thông tin trái chiều, làm cho tin giả càng khó bị phản biện.
3.Thông tin sai lệch bám rễ lâu dài
Khi một tin giả đã bám rễ trong một cộng đồng, nó có thể tồn tại trong thời gian dài mà không bị thách thức.Ngay cả khi có thông tin phản biện, những người tin vào tin giả vẫn tiếp tục tin vào nó, một phần vì thiên kiến xác nhận (confirmation bias).
Theo Wikipedia :
Thiên kiến xác nhận (còn gọi là thiên kiến (thiên lệch) khẳng định) là một khuynh hướng của con người ưa chuộng những thông tin nào xác nhận các niềm tin hoặc giả thuyết của chính họ. Con người biểu hiện thiên kiến hoặc định kiến này khi họ thu thập hoặc ghi nhớ thông tin một cách có chọn lọc theo ý riêng của mình, hay khi họ diễn giải nó một cách thiên vị, thường đi kèm với sự từ chối xem xét các góc nhìn khác. Ảnh hưởng của thiên kiến xác nhận mạnh hơn đối với các vấn đề liên quan tới cảm xúc, hoặc những đức tin đã ăn sâu vào tâm thức. Người ta cũng có xu hướng diễn dịch bằng chứng không rõ ràng để ủng hộ cho lập trường có sẵn của họ. Sự tìm kiếm bằng chứng, giải thích và ghi nhớ một cách thiên vị cũng được viện dẫn để giải thích bốn hiệu ứng cụ thể sau:
Phân cực thái độ(khi bất đồng trở nên cực đoan hơn mặc dù các bên khác nhau đều tiếp xúc với cùng một bằng chứng)
Tín điều cố chấp(khi những tín điều vẫn tồn tại ngay cả khi bằng chứng rằng nó sai lầm đã được đưa ra)
Hiệu ứng ưu tiên phi lý (khi người ta tin tưởng hơn vào thông tin nhận trước trong một loạt thông tin)
Tương quan ảo tưởng (khi người ta nhận thức một cách sai lầm về mối tương quan giữa hai sự kiện hoặc tình huống).
====> Công trình này đã góp phần vào các cuộc tranh luận về cách Facebook và các nền tảng mạng xã hội thúc đẩy sự lan truyền của tin giả.Nó cũng là một trong những nghiên cứu nền tảng giúp các công ty công nghệ, nhà nghiên cứu và chính phủ tìm cách hạn chế tác động tiêu cực của Echo Chambers và tin giả trên không gian mạng.
Nghiên cứu của Bail et al (2018)
"Exposure to opposing views on social media can increase political polarization" (Tiếp xúc với quan điểm đối lập trên mạng xã hội có thể làm gia tăng sự phân cực chính trị)
Được công bố trên Proceedings of the National Academy of Sciences (PNAS).
Nhóm nghiên cứu do Christopher A. Bail dẫn đầu muốn kiểm tra xem việc tiếp xúc với quan điểm chính trị đối lập trên mạng xã hội có giúp người dùng trở nên cởi mở hơn hay không, hay ngược lại, khiến họ trở nên cực đoan hơn. Họ thực hiện thí nghiệm trên Twitter với 1.220 người Mỹ, bao gồm:Chính trị gia Đảng Dân chủ (liberals).Chính trị gia Đảng Cộng hòa (conservatives).Người tham gia được trả tiền để theo dõi một bot Twitter trong một tháng.Bot này sẽ tự động đăng tải và chia sẻ các nội dung từ phe đối lập với quan điểm chính trị của họ.Các nhà nghiên cứu sẽ đo lường quan điểm chính trị của người tham gia để xem liệu họ có thay đổi không.
1. Những người bảo thủ (conservatives)
Trở nên bảo thủ hơn sau khi tiếp xúc với quan điểm cấp tiến.Những người theo Đảng Cộng hòa khi tiếp xúc với các nội dung tự do (liberal) trên Twitter không trở nên cởi mở hơn mà lại càng nghiêng về phe bảo thủ hơn.Họ cảm thấy các quan điểm của phe đối lập quá xa lạ hoặc đe dọa đến niềm tin của họ.
2. Những người theo chủ nghĩa tự do (liberals)
Ít bị ảnh hưởng hơn.Những người theo Đảng Dân chủ tiếp xúc với quan điểm bảo thủ có xu hướng ít bị ảnh hưởng hơn, nhưng một số vẫn trở nên cấp tiến hơn.
3. Tiếp xúc với quan điểm trái chiều có thể gia tăng sự phân cực
Ngược lại với kỳ vọng ban đầu rằng giao tiếp giữa các nhóm có thể làm giảm cực đoan, nghiên cứu này cho thấy việc ép buộc tiếp xúc với quan điểm trái chiều có thể dẫn đến phản ứng bảo vệ, khiến mọi người trở nên cực đoan hơn trong niềm tin của họ.
=====> Việc tiếp xúc với quan điểm trái chiều trên mạng xã hội không nhất thiết làm giảm sự phân cực mà thậm chí còn làm nó tăng lên.Các thuật toán khuyến khích "đối thoại" giữa các phe chính trị có thể phản tác dụng nếu không được thiết kế đúng cách.

Quan điểm - Tranh luận
/quan-diem-tranh-luan
Bài viết nổi bật khác
- Hot nhất
- Mới nhất