Những tình huống tiến thoái lưỡng nan về đạo đức trong trí tuệ nhân tạo (AI)
Đã bao giờ bạn nghe về khái niệm Ethics of AI - Đạo đức trong trí tuệ nhân tạo?
Trong một số kịch bản kinh điển của phim Hollywood, trí tuệ nhân tạo (AI) xuất hiện như một thành tựu chói lòa của tương lai, và rồi cũng từ nó, vô vàn những thảm họa gay cấn xảy ra. Con người trở thành mồi tha của những thợ săn mình đầu sắt số. Loài máy tính thống trị loài người.
Tuy nhiên, viễn cảnh này còn khá xa vời. Qua những tài liệu mà tôi tìm hiểu ở ITviec và Vietnam Innovator của Vietcetera, khả năng của AI còn khá kém cỏi để đạt được đến điểm Singularity - điểm kỳ dị công nghệ. Nói một cách dễ hiểu, đây là điểm quy chiếu giả định xảy ra khi nền công nghệ phát triển đến mức trí thông minh nhân tạo vượt qua trí tuệ và khả năng khống chế của con người. Thật khó để dự đoán thế giới vận hành ra sao sau sự thay đổi này, có lẽ lúc đó, một đợt tuyệt chủng khác mà đối tượng là con người sẽ diễn ra.
Vì thế ở thời điểm hiện tại, chúng ta cần quan tâm đến những vấn đề gần gũi và đang có tác động cụ thể hơn - đó là vấn đề đạo đức trong trí tuệ nhân tạo. Những vũ khí với khả năng hủy diệt khổng lồ, những quyết định thiếu nhân văn được lập ra một cách “máy móc” về cả nghĩa đen lẫn nghĩa bóng,...
Theo tạp chí Forbes, vũ khí hoá trí tuệ nhân tạo là xu hướng trung tâm trong cuộc chơi quyền lực toàn cầu. AI, machine learning và deep learning đang có những sự phát triển vượt trội và nhanh chóng về sức mạnh tính toán, bộ nhớ, dữ liệu lớn và giao tiếp tốc độ cao. Khi đó, những ứng dụng của AI vào quân sự càng trở nên đa dạng: dàn trận trên không bằng các thiết bị bay không người lái (drone), ứng dụng AI để đưa ra ước tính thiệt hại, tự động hóa mọi thứ từ hệ thống nhân sự đến việc triển khai giám sát, và hơn thế nữa. Cuộc đua cải tiến vũ khí trên toàn cầu đã đi đến đỉnh điểm là ứng dụng hệ thống vũ khí tự trị vào tác chiến, đặt ra nhiều thách thức cho công cuộc quản lý an ninh.
Mặt khác, trí tuệ nhân tạo không được cho phép sử dụng để thay thế con người trong các công việc cần đến sự tôn trọng và chăm sóc, như dịch vụ chăm sóc khách hàng, trị liệu tâm lý, hộ lý chăm sóc người già, quân đội, công an, và quan tòa. Chúng chưa hiểu được hết thế giới con người, chúng không hiểu về common sense, các thuật toán máy tính chưa tìm ra được mối liên quan giữa nguyên nhân và kết quả khiến cho máy tính còn khá khuôn rập trước những thay đổi của xã hội, đặc biệt là trước những tình huống đạo đức.
Trong thiết kế các sản phẩm AI ứng dụng cho cuộc sống hằng ngày, các nhà khoa học cũng gặp phải những vấn đề liên quan. Tôi xin đề cập đến ví dụ từ TED-Ed về một tình huống đạo đức phức tạp mà máy móc không thể giải quyết được.
Hãy thử tưởng tượng, khi tham gia giao thông, phanh chiếc ôtô tự lái của bạn bị hư và nó chỉ có hai lựa chọn duy nhất: một là tiếp tục đâm đầu vào chiếc xe tải phía trước, chấp nhận khả năng khiến bạn bị thương nặng; hai là quẹo sang làn bên trái - nơi chỉ có một chiếc xe máy đang chạy để giảm thiểu rủi ro, bù lại, gây ra tai nạn giao thông cho người lái xe vô tội khác. Lúc này, chiếc ôtô tự lái của bạn sẽ lựa chọn phương án nào: vẫn để chủ nhân đối mặt với hiểm nguy, hay là gây thiệt hại cho người khác? Trên thực tế, mức độ phức tạp của tình huống này còn có thể được nâng cao hơn.
Sự tiện lợi của máy móc đôi khi cũng đưa chính người sử dụng chúng vào những tình huống tiến thoái lưỡng nan. Với ví dụ trên, nếu chính bạn là người quyết định, chắc hẳn, lựa chọn tức thời của bạn là quẹo sang hướng khác. Tất nhiên, đây là điều dễ hiểu, và chẳng ai có thể trách cứ bạn vì điều này. Suy cho cùng, đó là phản ứng (reaction) tự vệ bình thường.
Giờ thì hãy tưởng tượng đến việc bạn chuẩn bị vung tiền cho một phương tiện di chuyển, lần này bạn cũng lại mắc kẹt giữa hai lựa chọn hack não: một chiếc xe tự lái có chức năng bảo vệ bản thân hay chức năng hạn chế gây tai nạn cho những người tham gia giao thông khác. Nên nhớ rằng, khả năng của máy móc còn nhiều thiếu sót, một chiếc xe ôtô không người lái không thể vừa giảm thiểu số lượng tai nạn xảy đến cho những người chung quanh, vừa bảo vệ chủ nhân của nó bằng mọi cách (kể cả việc phải tông vào một người vô tội). Nó không phải là chú robot siêu xe Bumblebee trong Transformers. Vì vậy khi quyết định chọn mua, lúc này hành động của bạn không còn đơn thuần là phản ứng (reaction) nữa, đó là một quyết định có chủ đích (deliberate decision), bạn sẽ lựa chọn phương án nào bây giờ?
Quả thật, chỉ một khối óc đủ minh mẫn và một trí tuệ am hiểu sâu rộng về AI mới có thể đưa ra được những quyết định đúng đắn và phát minh phù hợp trong lĩnh vực này. Hiện tại trên thế giới, nhằm giảm thiểu những mối nguy hiểm tiềm ẩn nêu trên và trấn an quần chúng, đã có nhiều nhà khoa học đứng lên tuyên bố lời thề không sử dụng trí tuệ nhân tạo phục vụ cho dã tâm thống lĩnh thế giới hay diệt vong loài người. Các quốc gia cũng đang nỗ lực đưa sự tồn tại của trí tuệ nhân tạo trở về với những lý do cốt lõi ban đầu - nâng cao chất lượng cuộc sống con người và xây dựng một xã hội tốt đẹp. Đơn cử là sự ra đời của diễn đàn AI for Good - một nền tảng kỹ thuật số hoạt động quanh năm, nơi các nhà đổi mới trong lĩnh vực AI tìm hiểu, xây dựng và kết nối để xác định ra những giải pháp tận dụng AI cho việc thúc đẩy các mục tiêu phát triển bền vững (SDGs) của Liên Hợp Quốc.
Xét về cấp độ vi mô hơn, thiết nghĩ, để duy trì sự ưu việt của khối óc loài người, chúng ta cần tận dụng sự phát triển của nền văn hóa nghe nhìn trong thời đại số để thúc đẩy tư duy, suy luận phức tạp và toàn diện hơn “máy móc” trong đời sống hằng ngày. Để từ đó, các quyết định mà chúng ta đưa ra hằng ngày không còn là những điều khuôn rập, cảm tính nữa.
Khoa học - Công nghệ
/khoa-hoc-cong-nghe
Bài viết nổi bật khác
- Hot nhất
- Mới nhất