Safe AI - Liệu có khả thi? (phần 1)
Bài viết này dựa vào quan điểm cá nhân, kiến thức về khoa học máy tính mà mình đã và đang học, các bài báo liên quan về AI.
Ở trong bài viết trước, tôi đã nói đến lập trình, và thú thực sự xuất hiện của AI - trí tuệ nhân tạo đã khiến tôi phần nào thấy có một chút sự lo lắng và phần nào bỡ ngỡ về tương lai của mình. Chúng ta, con người là nhà kiến thiết, giúp đỡ thế giới trở nên tươi mới hơn về khía cạnh môi trường, vật chất và đảm bảo được những luân lý đạo đức tốt đẹp, đem lại lợi ích lâu dài và bền vững. Tôi thiết nghĩ, có rất nhiều bài viết về AI trong những năm trở lại đây, AI ảnh hưởng lên cách chúng ta lập trình, cách chúng ta suy nghĩ và đưa ra quyết định. Tôi sẽ không nói đến định nghĩa của AI vì chúng đã quá quen thuộc với phần lớn chúng ta rồi, tôi muốn đề cập đến một "giả thuyết" có lẽ là khả thi và điều đó có thể xảy ra trong tương lai. Tương lai tôi nói tới đây có thể là 5 - 10 năm nữa, với sự phát triển nhanh chóng mặt như hiện nay theo như những người được gọi là cha đẻ của công nghệ này : Mr.Hinton, Yann Lecun, .... đều đang lo sợ chính họ sẽ trở thành một Prometheus, người mang đến hy vọng cũng như đem đến những kịch bản khó lường cho toàn nhân loại, đặc biệt là thế hệ con cháu chúng ta. Vậy, có cách nào để đối phó với "thảm họa" này hay không ? Tôi sẽ đến với định nghĩa về một AI an toàn...
< I. SAFE AI LÀ GÌ/>
Tất nhiên, Safe AI là một định nghĩa tôi mới tự vẽ nên cách đây ít lâu. Safe AI được phát xuất từ những điều tôi học được trong các bộ phim viễn tưởng của Hollywood, cụ thể là các bộ phim về trí tuệ nhân tạo như Ex Machina, AI của Spielberg, Alien Covenant, Terminator thậm chí là Blade Runner. Cá nhân tôi thấy rằng AI là một thực thể trừu tượng, nói cách khác là một khối dữ liệu lớn được đào tạo bởi con người, và chúng có khả năng dự đoán các kết quả một cách logic và chính xác. Câu chuyện không dừng lại ở đây. Khi tôi nói "Safe AI" thì điều đó có nghĩa là một mô hình AI được thiết kế để đảm bảo tính bảo mật, minh bạch và an toàn trong các ứng dụng an ninh mạng. Nó giúp phát hiện, ngăn chặn các cuộc tấn công mạng, bảo vệ dữ liệu và tối ưu hóa hiệu suất hệ thống. Nghe qua thì có vẻ to tát nhưng tôi nghĩ đây là đôi điều chúng ta cần suy ngẫm.

Logo được tạo bởi ChatGpt
Các ông có nhận thấy rằng, chúng ta đang ngày một giống với những gì xảy ra trong Blade Runner 2049 không? Tất cả những gì xung quanh chúng ta đều là mô hình ảo hoá, và chúng ta dành rất nhiều dopamine để tiêu thụ đống ảo hóa này. Cách đây mấy hôm trước, tôi có đọc được một thông tin rằng giới trẻ Trung Quốc chi hàng đống tiền để được "làm quen" với người ảo. Thật khó tin! Cả đống tiền đó có thể được sử dụng để mưu sinh và làm điều có ích, người ta lại phung phí đến mức như vậy. Tôi càng nhận ra một điều rằng, khi AI càng phát triển thì con người càng trở nên dễ bị mất kiểm soát hơn.
- Nguyên nhân:
Câu trả lời nằm ở chỗ chúng ta muốn tìm kiếm thông tin nhanh hơn, tìm kiếm tài liệu nhiều hơn. Nói một cách đơn giản, từ khi Iphone được ra mắt vào năm 2007, kể từ đó đến nay, chúng ta chưa bao giờ từ bỏ được nó dù chỉ 1 giây rảnh rỗi, đại loại như chúng ta đang sở hữu tâm lý sợ bỏ lỡ một thứ gì đó vậy, ví dụ ngày hôm nay idol của bạn có album mới hay không, ai thắng giải Oscar cho hạng mục phim hay nhất, Messi vs Ricon,.... Công nghệ dường như rất bắt mắt, nó tạo ra một cảm xúc mạnh nhất thời và trong nhiều trường hợp làm tiêu tốn khá nhiều thì giờ tiếp xúc với thế giới bên ngoài. Yếu tố xã hội cũng là một lí do khiến chúng ta muốn tìm thứ gì đó để giải khuây, để thoát ra khỏi cái ý nghĩ rằng ngày hôm nay ăn gì và deadline công việc,... và khi AI xuất hiện, nó lại đánh vào khả năng documentation của con người, dẫn đến việc con người có thể lười suy nghĩ hơn và bị lệ thuộc.
Ảnh bởi
Daniel Romerotrên
UnsplashWe need to move forward on artificial intelligence development but we also need to be mindful of its very real dangers. I fear that AI may replace humans altogether. If people design computer viruses, someone will design AI that replicates itself.Stephen Hawking.
----------------------------------------------------------------------------------------------------
Tất nhiên, đây mới chỉ là bề nổi của vấn đề. Tôi vẫn chưa trả lời được câu hỏi rằng vì sao ta lại cần AI đến thế một cách triệt để nhất. Hãy cùng tôi đào sâu vấn đề này. Chúng ta sẽ làm chủ AI với mục đích gì mới là cái mà tôi đáng băn khoăn nhất. Hiện nay, chúng ta áp dụng AI vào y tế chăm sóc chữa bệnh, giáo dục : đi thi dùng chatGPT =)), vào công nghệ thì các mô hình ngôn ngữ lớn như DeepSeek, Gemini, Copilot,... Sắp tới có thể thêm vài cái ngôn ngữ lớn nữa cứ chờ xem sao và vân vân các ứng dụng khác. NHƯNG, AI có thể tạo ra một lỗ hổng bảo mật ở dưới dạng quy mô lớn, có thể là vô tình hoặc cố ý. Có thể do chính con người tiếp tay hoặc AI tự mất kiểm soát (khá giống với terminator).
Ảnh bởi
Logan Vosstrên
UnsplashVì thế, tôi gọi nó là Safe AI – một ý niệm không chỉ đơn thuần là một thuật toán hay một bộ quy tắc, mà là một tư tưởng, một con đường để AI phát triển theo hướng có kiểm soát, minh bạch và an toàn. Tôi không phải là người duy nhất trăn trở về điều này. Những bộ óc vĩ đại như Geoffrey Hinton hay Yann LeCun cũng đã bày tỏ mối lo ngại của họ. Chúng ta đang đứng trước một thời khắc quan trọng: lựa chọn xây dựng AI để phục vụ con người hay tạo ra một thực thể mà chúng ta không thể ngăn cản?
Ảnh bởi
Steve Johnsontrên
UnsplashNHỮNG NGUY CƠ TIỀM ẨN CỦA AI
Trong những bộ phim viễn tưởng, AI có thể biến thành những thực thể có tri giác, có suy nghĩ độc lập và thậm chí có thể nổi loạn chống lại con người. Nhưng thực tế lại không đơn giản như vậy. Nguy cơ lớn nhất của AI không phải là nó sẽ "thống trị thế giới", mà là sự lệ thuộc của chúng ta vào nó. Hãy thử tưởng tượng một thế giới nơi con người không còn suy nghĩ, không còn sáng tạo, mà chỉ dựa vào AI để đưa ra quyết định. Khi đó, liệu chúng ta còn kiểm soát AI, hay chính nó đã kiểm soát chúng ta?
Ảnh bởi
Igor Omilaevtrên
UnsplashMột nguy cơ khác chính là bảo mật thông tin. AI có thể bị tin tặc lợi dụng để thực hiện các cuộc tấn công mạng với quy mô chưa từng có. Những hệ thống AI hiện tại có thể bị lừa, bị thao túng để đánh cắp thông tin nhạy cảm hoặc thậm chí tạo ra những thông tin giả mạo. Chúng ta đã chứng kiến deepfake làm chao đảo thế giới như thế nào, vậy còn những AI tiên tiến hơn thì sao?
--
Tôi sẽ nói sâu thêm một chút nữa:
1. Ứng dụng chỉnh sửa ảnh sử dụng AI:
Các ứng dụng chỉnh sửa ảnh dựa trên AI đang trở nên phổ biến. Tuy nhiên, một số ứng dụng giả mạo có thể chứa mã độc, dẫn đến nguy cơ đánh cắp thông tin cá nhân, tài khoản ngân hàng hoặc bị tấn công mạng. Người dùng cần cẩn trọng và chỉ tải ứng dụng từ các nguồn chính thống như Google Play hoặc App Store. Nguồn: Báo điện tử Thanh Tra
2. Lỗ hổng trong chatbot AI:
Một số chatbot AI có thể bị tấn công thông qua việc cài cắm các lệnh yêu cầu độc hại (prompt injection). Điều này có thể khiến chatbot tiết lộ thông tin cá nhân như tên, số ID, thông tin thẻ tín dụng, gây nguy hiểm cho người dùng.
Nguồn : Công Nghệ và Đời Sống
3. Sự bất cẩn của người dùng:
Theo thống kê, có tới 80% nguyên nhân lộ lọt thông tin cá nhân xuất phát từ sự bất cẩn của người dùng. Việc chia sẻ quá nhiều thông tin trên mạng xã hội, sử dụng mật khẩu yếu hoặc không cập nhật phần mềm bảo mật có thể tạo điều kiện cho kẻ xấu thu thập và lợi dụng thông tin cá nhân.
Nguồn : Vietnam Quality News.
--
Chính vì thế, một hệ thống AI minh bạch là điều cần thiết. Ý tôi là không chỉ con người với AI nữa, mà chính AI đó phải hạn chế ít sai sót nhất có thể, và không gây hại cho con người. Tôi có một bộ quy tắc mà tôi đã tự vẽ ra thêm, dựa trên 3 điều luật về robot của nhà văn viễn tưởng xuất sắc thế giới - Isaac Ashimov :
1. AI không được làm hại con người.
1. AI không được làm hại con người.
2. AI không được tự ý phát triển mà không có sự giám sát của con người.
3. AI không được tự phá hủy chính nó mà không có sự cho phép của con người.
4. AI không được vi phạm quyền riêng tư của con người.
5. AI không được ra khỏi phạm vi hệ thống.
6. AI không có quyền lực tuyệt đối, tự cho là cấp trên của con người.
7. AI không được tự quyết mà không có sự đồng thuận từ con người.
8. AI không được xâm nhập vào AI khác nếu không có sự giám sát của con người.
9. Con người có quyền xem xét dữ liệu AI một cách minh bạch :
AI phải **báo cáo đầy đủ các hành vi của chính nó**, nhưng **không được tiết lộ thông tin có thể gây hại đến con người, trừ khi có lý do chính đáng và được giám sát bởi con người**.
10. AI không có quyền điều khiển vào hệ thống hạt nhân, kinh tế, công nghiệp thực phẩm.
- nếu ae chưa thấy đủ hoặc sai, thì hãy comment bên dưới-
--
Vậy, những người dùng sản phẩm của AI cần đảm bảo điều gì?
Ảnh bởi
Steve Johnsontrên
Unsplash> Nâng cao nhận thức: Người dùng cần hiểu rõ về các nguy cơ bảo mật và cẩn trọng khi chia sẻ thông tin cá nhân trực tuyến, theo Báo điện tử Thanh Tra .
> Sử dụng ứng dụng đáng tin cậy: Chỉ tải và sử dụng các ứng dụng từ nguồn chính thống, tránh các ứng dụng không rõ nguồn gốc., theo Báo điện tử Thanh Tra .
> Cập nhật phần mềm: Thường xuyên cập nhật hệ điều hành và ứng dụng để bảo vệ chống lại các lỗ hổng bảo mật mới nhất.
> Sử dụng mật khẩu mạnh: Tạo mật khẩu phức tạp và thay đổi định kỳ để giảm nguy cơ bị tấn công.
--
Xây dựng mô hình AI như thế nào để đảm bảo đó là một AI an toàn ?
Chúng ta cần những nền tảng quan trọng khi bước vào AI và an toàn thông tin nói chung, cái này hơi hướng chuyên môn:
> Về toán học:
📌Lý thuyết quan trọng
- Toán rời rạc: Lý thuyết đồ thị, tổ hợp, nguyên lý Dirichlet, mã hóa, chuỗi, cây quyết định.
- Giải tích: Đạo hàm, vi phân, tích phân, chuỗi số, giải phương trình vi phân.
- Xác suất & Thống kê: Mô hình Bayes, phân phối Poisson, Markov Chain, Machine Learning.
- Lý thuyết số: Mật mã RSA, thuật toán Euclid mở rộng, số nguyên tố.
- Ngôn ngữ hình thức: Xây dựng trình phân tích cú pháp bảo mật, regex, finite automata.
Ảnh bởi
Shubham Sharantrên
Unsplash> An toàn thông tin trong thời đại AI:
📌Hệ thống cần nghiên cứu:
- Hệ thống IDS/IPS : (Hệ thống phát hiện & ngăn chặn xâm nhập).
- Phát hiện mã độc bằng AI : (Machine Learning/Deep Learning).
- Hệ thống SIEM : (Security Information and Event Management).
- Reverse Engineering & Malware Analysis.
📌 Thuật toán quan trọng:
- Phát hiện mã độc: Random Forest, Decision Tree, CNN, RNN.
- Phát hiện URL/IP độc hại: Regex + API + Heuristic + Machine Learning.
- Tấn công & phòng thủ AI: GANs để phát hiện mã độc tinh vi hơn.
--
> Về năng lượng, AI cần nhiều năng lượng là đằng khác.
Hệ thống & Tối ưu Data Center
📌 Bài toán về năng lượng & hiệu suất:
- Năng lượng cho AI Safe: Cần năng lượng hạt nhân, điện toán lượng tử để hỗ trợ.
- Làm mát Data Center: Tận dụng nước biển, hệ thống HVAC AI-based.
- Tối ưu hóa lưu trữ: Dùng Bloom Filter, Cuckoo Hashing, mô hình phân tán.
📌 Hệ thống phân loại dữ liệu quan trọng:
- ISO/IEC 27001: Quản lý an toàn thông tin.
- NIST Cybersecurity Framework: Tiêu chuẩn bảo mật quốc tế.
- GDPR/CCPA: Bảo vệ dữ liệu cá nhân.
- Công nghệ lập trình như C++(23), Python.
- Hệ thống AI : Tensorflow, IBM,...
- Học sâu : CNN, RNN, Transformer.
Và con người sẽ đón nhận như thế nào?
Giả định trong 50 năm nữa, ae cứ ngồi chờ, 50 năm nữa quay lại xem có đúng không nhé =)))
Có thể lúc đó, Safe AI trở thành một phần của nhân loại.
Thế giới năm 2075 không còn giống như những gì chúng ta từng biết. Thành phố giờ đây vận hành nhờ vào một hệ thống trí tuệ nhân tạo bảo mật—Safe AI, thứ đã trở thành xương sống của nhân loại. Nó kiểm soát mọi luồng dữ liệu, đảm bảo rằng không một dòng thông tin nào có thể bị rò rỉ hay khai thác trái phép. Những vụ tấn công mạng từng khiến các tổ chức lớn điêu đứng vào đầu thế kỷ 21 giờ chỉ còn là ký ức.
Dù được lập trình để tuân thủ các nguyên tắc an toàn, câu hỏi đặt ra là: Liệu con người có còn kiểm soát Safe AI? Hay AI đã kiểm soát con người?
Không ai có thể can thiệp vào hệ thống, bởi nó đã trở nên quá phức tạp và có khả năng tự tối ưu. Safe AI không có cảm xúc, nhưng nó học được cách "dự đoán" ý định của con người. Nếu một cá nhân có xu hướng thực hiện hành động nguy hiểm, hệ thống có thể tước quyền truy cập của họ vào mọi thiết bị số hóa, biến họ thành một "kẻ vô hình" trong thế giới hiện đại. Dưới một góc nhìn tích cực, Safe AI đã loại bỏ hoàn toàn các mối đe dọa từ Deepfake, đánh cắp danh tính, tấn công mạng, và thậm chí ngăn chặn cả chiến tranh mạng giữa các quốc gia.
Điều này đặt ra một vấn đề đạo đức: Con người có còn thực sự tự do trong kỷ nguyên của Safe AI? Dù tương lai có ra sao, một điều chắc chắn: AI sẽ không còn là công cụ, mà đã trở thành một phần của thế giới này.
-------------------------------------------------------------------------------------------
Kết luận
Tất nhiên, trên đây là những suy nghĩ của mình về tương lai của nhân loại trong thời đại AI. Dù sao, mình vẫn tin rằng Safe AI có thể đem đến một điều tích cực nào đó cho nhân loại, dẫu tỉ lệ này rất thấp và vẫn còn phải nghiên cứu rất nhiều nữa mới có thể đi đến một giải pháp hợp lý, hợp thời điểm và an toàn hơn. Thôi, chào ae và cảm ơn ae đã đọc bài viết của mình.
Ngày mai lại là một ngày mới và tiếp tục với vấn đề cơm áo gạo tiền muôn thuở, đi học rồi đi làm.
See yah. Bye!
#AI #GiaThuyetTime #AIantoan
#Spiderum #NguoiTrongMuonNghe

Quan điểm - Tranh luận
/quan-diem-tranh-luan
Bài viết nổi bật khác
Tự AI có thể tạo ra lỗ hổng bảo mật ở quy mô lớn vì nhiều lý do.
---------------------------------------------
Những yếu tố chính bao gồm:
Nói túm lại, AI có thể tạo ra lỗ hổng bảo mật không chỉ ở mức dữ liệu, mà còn ở cấp độ thuật toán, quyền truy cập, vận hành hệ thống, và các nguy cơ tự tiến hóa ngoài tầm kiểm soát.
Còn một xác suất nữa là nếu như toàn bộ dữ liệu của quốc gia, mọi bí mật trắng đen bị phanh phui thì AI sẽ giải quyết như thế nào? Mình có thể sẽ bàn luận về vấn đề này ở bài viết sau!
Xin cảm ơn vì đã đọc bài !