Một góc nhìn khác

Bạn đang trên một hành tinh lững thững bay trên dải ngân hà. Cùng trên hành tinh đó với bạn là 900 nhà vật lí học chất lượng cao, họ đang trong quá trình chế ra một loại dược phẩm cách mạng có thể chữa được bất cứ loại bệnh nào. Hành trình hiện tại của hành tinh là đi thẳng qua Tinh Cầu Mồ Côi, nơi tất cả cư dân xuyên ngân hà thả những đứa con không mong muốn của mình, ở đó, có 100 nghìn tỉ đứa, tất cả đều sống, hít thở và rên rỉ. Nếu như bạn hi sinh hành tinh của mình, tất cả các bác sĩ sẽ chết, cùng với hi vọng chữa lành tất cả bệnh tật trong vũ trụ. Nếu bạn không hi sinh hành tinh, các bác sĩ sẽ có thời gian chế ra thuốc và gửi đến Hành Tinh Chữa Lành, sau đó hành tinh của bạn sẽ đâm và phá hủy Tinh Cầu Mồ Côi. Vậy là bạn đối diện với câu hỏi hết sức quan trọng: Giả tưởng trên có lợi như thế nào với việc làm sáng tỏ chân lí đạo đức?  ( nó mỉa đấy nên là cười đeee)
Ví dụ trên được lấy từ một bài viết có tên " The trolley problem will tell you nothing usefull about morality" hay "Vấn đề tàu hỏa sẽ không cho bạn biết bất cứ gì có ích về đạo đức". Mọi người có thể tìm đọc bài đó ở đây . Theo mình thì đây là góc nhìn hậu tranh luận khá châm biếm, hầu như phủ nhận hoàn toàn vai trò của ví dụ này đối với việc mở mang nhận thức của con người về các quyết định đạo đức. Bài viết cho rằng việc giằng co, tranh cãi chỉ thể hiện sự phân biệt trong lí luận giữa hai trường phái triết học khác nhau, trong khi về bản chất, ví dụ này (về tàu hỏa ý) lại quá xa vời và viển vông để trở nên thật sự có ích. Với cả, nó cho rằng ví dụ này không có tính thống nhất ,vì giả thiết linh hoạt, và có thể thay đổi khi góc nhìn hay mục đích lí giải thay đổi.
Theo đó thì ví dụ này không chỉ đánh lạc hướng chúng ta khỏi câu hỏi cấu trúc mà nó còn chẳng highlight được phạm vi mà lựa chọn cá nhân có giá trị. Nó được thận trọng set up như một tình huống "no-win", nhằm thuyết phục chúng ta rằng câu hỏi đạo đức rất phức tạp và sẽ không có câu trả lời dễ dàng. (Mặc dù có câu trả lời đúng) Nhưng thật ra, một khi bạn thoát khỏi thế giới lố bịch mà bất kì lựa chọn nào cũng dẫn đến đổ máu thì một số lượng lớn câu hỏi đạo đức lại dễ dàng không tưởng. Thứ khó khăn không phải là "tìm ra điều nên làm là gì" mà là "có đủ dũng cảm và lòng vị tha để thật sự thực thi nó". Trong đời thực, vấn đề đạo đức chủ yếu là thế giới có quá nhiều khổ đau và thử thách, và hầu hết chúng ta bất lực trong việc ngăn chặn nó. Nếu chúng ta bắt buộc phải nhìn mọi thứ như với trolley problem thì cái tương đương gần nhất sẽ là: một đoàn tàu đang phóng tới 5 người, và một người nói với bạn "Nếu mày cho tao tiền, tao có thể cứu 5 người họ". Bạn lập tức cảm thấy không thoải mái vì bạn đang muốn dành dụm để mua cái gì đó và bạn nghĩ ra một lí do vớ vẩn nhất "Uh, tớ không thể đi linh tinh xong đưa tiền cho bất kì ai xin tớ được, nó không đúng". (Sau đó tất cả đều chết)
Bài viết cũng có nhắc đến một số tác phẩm liên quan đến ví dụ này. The good place của đài NBC thể hiện sự thiếu thốn tính sâu sắc của ví dụ trong đời thực. Michael, một con quỷ tham gia một khóa học về đạo đức, quyết định rằng hắn có thể hiểu về the trolley problem tốt hơn nếu nó bớt trừu tượng đi, và đẩy vị giáo sư bối rối của mình vào phiên bản thật của ví dụ. Những gì xảy ra, như dự đoán, sự hoảng loạn đi cùng nỗi kinh hoàng và một cơn mưa phèo phổi. " Chúng ta đã học được gì?" Michael nói với vị giáo sư sũng máu sau khi toa tàu dừng lại. Câu trả lời, như tất cả chúng ta đều thấy, không gì cả.
 Đương nhiên, đây là viễn tưởng, cũng như bản chất của ví dụ vậy. Tuy vậy thì có người đã thử nghiệm nó ngoài đời thực rồi, có hoảng loạn nhưng không có kinh hoàng và lục phủ ngũ tạng. Đây là một video thực nghiệm The greater good - Mindfield (S2)-Ep1 và ông host của chuỗi vid này cũng tên là Michael (trùng hợp ghê :)). Ông này không phải người đầu tiên và duy nhất đưa nó ra đời nhưng mình thấy video này dễ xem và khá nhân văn nên highly recommend nè.
The trolley problem đến từ một công trình về luân thường trong phá thai, được viết bởi Phillipa Foot (cái bà hôm trước ý). Nó thuộc vị trí cuối cùng trong tổng 3 thí nghiệm tưởng tượng với độ khó tăng dần mà bà đưa ra nhằm giúp người đọc đánh giá liệu chủ đích tổn thương ai đó có ngang bằng với việc thụ động cho phép thương tổn xảy ra (về mặt đạo đức) không ? Tổ hợp ví dụ này được giới thiệu vào năm 1967, vậy tại sao đến giờ nó, hay đặc biệt là ví dụ thứ 3, vẫn được dư luận quan tâm như vậy? Là vì 

How it relates to autonomous vehicles 

Trong phần mở đầu của video Mindfield - The greater good, xe tự động được thiết kế để có thể tránh gây tai nạn cho con người, xe sẽ dừng lại nếu phía trước là một người công nhân đường sắt. Nhưng nếu phương tiện đó bị đặt vào trường hợp phải đưa ra lựa chọn giữa đâm vào hai người hoặc bẻ lái để chỉ đâm vào một thì sao? Nó nên được lập trình ra sao trong tình huống này?
Nhiều người có vẻ cho rằng cần thiết giải quyết vấn đề hóc búa này trước khi đưa phương tiện lái tự động ra đường phố. Nếu không, làm thế nào mà nó có thể chọn ai sống ai chết khi thuật toán quá nhanh?
Vấn đề này đã từng rất nảy lửa độ 1-2 năm trước, do sự nổi lên của xe oto không người lái, đưa ví dụ về toa tàu tử thần lên bảng xếp hạng các dilemma công chúng và được memes-hóa nhiều nhất. Rồi người ta bắt đầu bàn luận thêm và thêm và thêm để rồi cuối cùng đi ra kết luận: hai vấn đề này chả liên quan gì sất. Bởi máy móc không có đạo đức  (nghe có vẻ harsh nhưng thô mà thật =)). 
Người nào nghĩ chủ đích là trọng yếu đạo đức thường giữ góc nhìn mãnh liệt về tự do ý chí. Nhưng machines không (chưa) có tự do ý chí. Vậy nên, kể cả về với 3 định luật robot của Isaac Asimov, ta nhận thấy rằng máy móc gây tổn hại cho ai đó_ hoặc "thông qua không hành động, khiến một người phải chịu tôn hại"_ về mặt đạo đức là như nhau. Tức là nếu bạn (ở ví dụ mở đầu) là một người máy, và bạn để chết 1 người hay 5 người, thì bạn vẫn không có lương tri:)). Hơn thế nữa, the trolley problem đặc biệt không điếm xỉa đến bất kì phương diện nào của hành vi đạo đức có liên quan đến xe tự lái. Lấy ví dụ, trên đường ray xe lửa, bạn biết chắc chắn hoặc 1 hoặc 5 người chết. Nhưng xe tự động phải lần mò trong một môi trường nhiều ngờ vực, nơi mà chúng liên tục phỏng đoán những người tham gia giao thông khác sẽ làm gì. Bất cứ người lái xe nào cũng biết việc dự đoán này là quan trọn và nghĩ ra giả thiết của riêng họ. Làm thế nào ta có thể dạy máy móc mức độ này của hiểu biết và cảm thông? Có vẻ các triết gia không quan tâm lắm. 
Why the three laws of robotics won't save us from Google's AIs
3 định luật về robot của ông Isaac Asimov

Một góc nhìn nữa mà người ta hay đề cập, là cảm giác tội lỗi của con người. Người bẻ ghi sẽ vật lộn với lựa chọn của họ, sẽ cảm thấy thương cảm và đau đớn cho những người (hoặc người) phải chết và sẽ bị ám ảnh bởi sự kiện này rất nhiều năm về sau. Ở một mức độ nào đó, ta sẽ cảm thấy xe tự lái, vì nó không có cảm xúc, giống như một người có thể quay lại làm việc mà không hề nghĩ ngợi gì về sự kiện kinh hoàng vừa trải qua. Làm sao mà sự vô tư đến vậy trong hành vi có thể trở thành đạo đức thật sự ?
Nhưng đừng quá lo lắng, mặc dù qua tất cả những luận điểm trên ta có thể kết luận rằng ai đến trước thì chết sau, may mắn thì cái xe nó tránh được bạn , không may mắn thì cái xe nó sẽ đâm vào bạn để tránh người khác, vì tất cả về AI hiện đại là nó dựa trên thuật toán học hỏi của máy móc và nó sẽ không ngừng cải thiện quá trình ra lựa chọn của mình để đạt được mục đích mong muốn và tránh né mục đích không mong muốn. Điều này có thể dẫn hệ thống AI hoạt động một cách không ngờ tới, kể cả sáng suốt và quái lạ, và có nghĩa là nó sẽ mãi mãi học hỏi từ sai lầm của chính nó và tìm ra cách tốt hơn. Hay có nghĩa là đâm chết 1 người hay 5 người, sau khi được đổ thêm xăng thì vào dịp sau này , cái chết của họ (hay của một người) sẽ đóng góp vào một quyết định bớt đẫm máu hơn. (nghe kinh dị ha) 
Bài nhiều chữ quá mà hông có ảnh gì cả huhuhu

Cái comic này thể hiện khá hay sự vận dụng quá đà và vô duyên the trolley problem Truyện tranh