Trí tuệ nhân tạo, những cỗ máy có tri giác, cảm xúc, sự thông minh của con người, kể từ ngày đầu được biết tới tại Hội nghị Dartmouth, mùa hè 1956, được tổ chức bởi nhà khoa học máy tính John McCarthy, cho đến nay, đã là mồi lửa, châm ngòi cho vô vàn các cuộc tranh luận giữa các nhà khoa học, những doanh nhân trên thế giới về giới hạn của máy móc cũng như tính an toàn của chúng. 
<i>Liệu AI có là mối nguy của thế giới ?</i>
Liệu AI có là mối nguy của thế giới ?
Trong vô vàn các quan điểm đó, trong gần ba năm, từ Tháng 4/2021 cho đến Tháng 3/2024, 27 các quốc gia thành viên của Châu Âu cuối cùng đã thống nhất quan điểm và đưa ra đạo luật đầu tiên trên thế giới về Trí tuệ nhân tạo, và sẽ sớm có hiệu lực trong thời gian tới. Đạo luật đã đặt ra những làn ranh, những giới hạn đối với AI để đảm bảo sức khỏe, tính mạng, an ninh, cũng như các quyền cơ bản của con người, đồng thời cũng đưa ra những cơ chế mới giúp cân bằng giữa sự đổi mới sáng tạo và rủi ro mà công nghệ mới này mang lại. Vậy, Quy chế trên sẽ bảo vệ nhân loại như thế nào trước những rủi ro mà các hệ thống AI mang lại, mời các bạn cùng tìm hiểu qua loạt bài viết này.

I. Khái niệm về Trí tuệ nhân tạo của Châu Âu

1. Khái niệm về Hệ thống Trí tuệ nhân tạo

Vì xuất thân là một người học luật, tôi đã phải rất cố gắng để có thể hiểu được về cách mà một hệ thống AI hoạt động, cũng như khái niệm của EU về vấn đề này.
Theo đó, AI hay hệ thống AI được hiểu là một hệ thống dựa trên máy móc để thực hiện các mức độ tự chủ khác nhau và có thể thực hiện khả năng thích ứng sau khi triển khai, và với các mục tiêu rõ ràng hoặc ngầm suy ra, từ các đầu vào (inputs) mà hệ thống này nhận được, để tạo thành các đầu ra (outputs) như dự đoán, nội dung, khuyến nghị hoặc quyết định có thể ảnh hưởng đến môi trường thực tế hoặc môi trường ảo. 
Tôi biết, tôi biết, điều này có thể dễ hiểu với những ông anh 96 học Cơ khí Bách khoa, nhưng cho phép tôi được giải thích cho các độc giả khác, theo đó khái niệm của EU về AI có thể phân tích ra thành ba phần: Một, đây là một hệ thống dựa trên máy móc, như một hệ thống máy tính. Hai, hệ thống này có thể tự nó có thể điều khiển bản thân ở các mức độ khác nhau, nghĩa là nó có một sự độc lập về hành động và có thể hoạt động mà không cần sự can thiệp của con người, từ đó, sẽ tự thích ứng, hay có thể hiểu là tự học hỏi. Và ba, thông qua các mục tiêu rõ ràng hoặc mục tiêu ngầm, theo sự xác định của con người hay các đối tượng khác, để tạo ra output là các nội dung, dự đoán, khuyến nghị hoặc quyết định có ảnh hưởng tới môi trường thực tế, hoặc môi trường ảo (trên mạng máy tính, mạng Internet,...), dựa vào các input mà hệ thống này được cung cấp.
Ví dụ, ở một hệ thống AI nhận diện gương mặt tại cửa ra vào, thông qua đầu vào là các hình ảnh của con người qua camera, hệ thống AI này sẽ thực hiện các hoạt động phân tích, nhận diện thông qua bộ dữ liệu, từ đó, tạo ra output là các hành vi đóng hoặc mở cửa tương ứng.
<i>Ứng dụng của AI trong việc nhận diện khuôn mặt</i>
Ứng dụng của AI trong việc nhận diện khuôn mặt

2. Khái niệm về mô hình Trí tuệ nhân tạo đa mục đích

Một khái niệm nữa cũng cần làm rõ, đó chính là Mô hình AI đa mục đích và hệ thống AI đa mục đích. Theo định nghĩa của EU, mô hình AI đa mục đích là một mô hình AI, kể cả khi được đào tạo bằng một khối lượng lớn dữ liệu tự vận hành ở quy mô lớn, thể hiện tính tổng quát đáng kể và có khả năng thực hiện thành thạo một loạt các nhiệm vụ riêng biệt bất kể mô hình được đưa ra thị trường như thế nào và có thể được tích hợp vào nhiều hệ thống hoặc ứng dụng hạ nguồn. Điều này không bao gồm các mô hình AI được sử dụng trước khi đưa rạ thị trường cho các hoạt động nghiên cứu, phát triển và tạo ra các bản mẫu. Dựa trên mô hình AI đa mục đích, ta sẽ có hệ thống AI đa mục đích, đây là hệ thống AI dựa trên các mô hình AI đa mục đích, có khả năng phục vụ nhiều mục đích khác nhau, kể cả sử dụng trực tiếp hoặc được tích hợp vào một hệ thống AI khác. 
<i>GPT 4 chính là một mô hình AI đa mục đích</i>
GPT 4 chính là một mô hình AI đa mục đích
Thật là một đống khái niệm quá phức tạp, nhưng đừng lo, tôi sẽ giải thích cho các bạn ngay sau đây. Về cơ bản, trên thị trường sẽ có một công ty sở hữu rất nhiều nguồn tài nguyên, bao gồm cả dữ liệu - một yếu tố quan trọng để đào tạo AI, và công ty này sẽ thực hiện quá trình đào tạo giống như việc đào tạo con người thông qua chương trình giáo dục cơ sở, từ tiều học đến trung học phổ thông, để mô hình AI có một lượng kiến thức tổng quát và có thể thực hiện được một số công việc đơn giản của các lĩnh vực khác nhau. Sau đó, tùy thuộc vào nhu cầu của những khách hàng khác nhau, ở các lĩnh vực khác nhau, mà mô hình này sẽ được phân chia để đào tạo bằng những dữ liệu chuyên ngành khác nhau, tương tự với việc lựa chọn chuyên ngành ở cấp bậc đại học.
Vậy tại sao các công ty lại phải thực hiện việc chia nhỏ này, câu trả lời chính là vì tài nguyên. Bạn có thể tưởng tượng để sở hữu một mô hình AI có kiến thức trong mọi lĩnh vực, các công ty phải sử dụng một khối lượng dữ liệu khổng lồ, dẫn đến chi phí đào tao rất lớn, thay vào đó, việc đào tạo một mô hình có kiến thức chung, tổng quát, nhưng chưa sâu để sau này có thể chia ra và đào tạo bằng những dữ liệu đặc thù, sẽ tối ưu hóa lượng tài nguyên, dẫn đến giảm chi phí mà người dùng phải bỏ ra để sở hữu hệ thống AI đó. 
<i>ChatGPT là một hệ thống AI dựa trên mô hình của GPT4</i>
ChatGPT là một hệ thống AI dựa trên mô hình của GPT4

III. Phân loại Trí tuệ nhân tạo

1. Đối với Hệ thống Trí tuệ nhân tạo

Tiếp theo, dựa vào mức độ rủi ro, EU đã phân loại AI thành 3 mức độ, bao gồm: Hệ thống AI bị cấm, Hệ thống AI rủi ro cao, Hệ thống AI được tự do sử dụng. 
a. Hệ thống AI bị cấm sử dụng
(Lưu ý, những quy định dưới đây đã được tôi tổng hợp và tinh chỉnh, các quy định chi tiết và chính xác mời độc giả tham khảo thêm tại đây).
Đối với hệ thống AI bị cấm, bất kỳ hành động nào dưới đây được hệ thống AI thực hiện đều sẽ bị cấm tại Liên minh Châu Âu, nhằm đảm bảo sức khỏe, an toàn, tính mạng và các quyền cơ bản của con người:
Việc sử dụng AI nhằm mục đích tác động lên quyết định, hành vi của con người, nhằm gây ra những tổn hại đáng kể
<i>Cấm việc sử dụng kỹ thuật thôi miên thông qua AI nhằm gây tổn hại tới con người</i>
Cấm việc sử dụng kỹ thuật thôi miên thông qua AI nhằm gây tổn hại tới con người
Các hành động này có thể bao gồm: triển khai kỹ thuật tiềm thức vượt ra khỏi ý thức của con người (như thôi miên, sử dụng các thông điệp ẩn), thao túng hành vi, lừa đảo nhằm gây ảnh hưởng tiêu cực đến việc ra quyết định của con người; hoặc lợi dụng tính dễ tổn thương như tuổi già, khuyết tật, tình trạng kinh tế, xã hội đặc biệt, để bóp méo hành vi của họ nhằm gây ra thiệt hại đối với những đối tượng này. 
Việc sử dụng hệ thống phân loại sinh trắc học, phân loại thể nhân để suy đoán, suy diễn các vấn đề cá nhân của một người, như chủng tộc, quan điểm chính trị, tôn giáo, xu hướng tính dục,...
<i>Cấm sử dụng AI để suy đoán các thông tin cá nhân nhạy cảm </i>
Cấm sử dụng AI để suy đoán các thông tin cá nhân nhạy cảm
Các thông tin trên đều là các thông tin cá nhân và nhạy cảm, và đã được bảo vệ bởi Quy chế chung về bảo vệ dữ liệu cá nhân GDPR, do đó, chúng  cần phải được tôn trọng, bảo vệ và bảo mật. Chính vì vậy, việc sử dụng AI để suy diễn các thông tin này dựa trên các đặc điểm sinh trắc học, trừ trường hợp sử dụng quá trình thi hành pháp luật, đều sẽ bị cấm. 
Việc phân biệt đối xử trong quá trình đánh giá điểm số xã hội hoặc đánh giá, dữ đoán rủi ro phạm tội của một người. 
Đối với nhóm hành vi này, mục đích để EU ban hành lệnh cấm chính là do việc đánh giá thiếu chính xác, sai sót sẽ dẫn đến các hậu quả nghiêm trọng đối với những người bị đánh giá sai này. Ví dụ: khi đánh giá tín nhiệm của một người để phục vụ cho quá trình nuôi nhận con, việc hệ thống AI sử dụng những dữ liệu sai sót, không đúng ngữ cảnh, như một đoạn phim người này có hành vi lừa đảo trong bộ phim mà họ đóng, và đưa ra đánh giá đây là một người không đáng tin cậy, dẫn đến việc đối xử bất công đối với những diễn viên này khi họ nhận con nuôi. Tất nhiên, đây chỉ là ví dụ để minh họa cho hành vi kể trên, nhưng có thể thấy các hành vi này, do sự phản ánh sai lầm của hệ thống AI, đã làm ảnh hưởng tiêu cực đến một cá nhân như thế nào, do đó, các hành vi gây ra đồng thời cả hai hậu quả kể trên của hệ thống AI đều bị cấm sử dụng.
Việc sử dụng hệ thống AI giúp nhận diện sinh trắc học, hệ thống nhận diện cảm xúc tại một số không gian đặc biệt.
Đối với hệ thống nhận diện sinh trắc học thời gian thực từ xa, nôm na là việc sử dụng camera để ngay lập xác định một người cụ thể tại không gian công cộng như cửa hàng, siêu thị, ngân hàng,...quy định này nhằm loại trừ các hành vi thi hành pháp luật không có thẩm quyền và độc quyền sử dụng hệ thống AI để thi hành pháp luật cho các cơ quan nhà nước có thẩm quyền. Tuy nhiên điều kiện để sử dụng hệ thống này cũng rất phức tạp và phải đảm bảo “trong chừng mực và cần thiết”, đã được quy định cụ thể trong Đạo luật.
Đối với hệ thống nhận diện cảm xúc, do vấn đề về sự mất cân bằng quyền lực tại môi trường làm việc (cấp trên - cấp dưới), hoặc môi trường học đường (giáo viên - học sinh, khóa trên - khóa dưới,..) cũng như sự nghi ngờ về khả năng chính xác của một hệ thống AI, mà việc sử dụng AI để xác định cảm xúc của một người tại nơi làm việc và trường học sẽ bị cấm sử dụng, để đảm bảo không gây ra sự phân biệt đối xử cũng như không ảnh hưởng đến các quyền và sự tự do của con người. Ngoại lệ duy nhất đối với hệ thống nhận diện cảm xúc đó là sử dụng vì các mục đích y tế hoặc vì các mục đích an toàn. 
Ngoài ra, việc sử dụng hệ thống AI để tạo ra, mở rộng bộ dữ liệu nhận diện khuôn mặt bằng cách sử dụng vượt quá mục đích ban đầu của các hình ảnh trên CCTV, Internet cũng sẽ hoàn toàn bị cấm

b. Hệ thống AI rủi ro cao

<i>Các hệ thống cảm biến, tự lái trên ô tô được coi là hệ thống AI rủi ro cao</i>
Các hệ thống cảm biến, tự lái trên ô tô được coi là hệ thống AI rủi ro cao
Đối với hệ thống AI rủi ro cao, đây được coi là những hệ thống AI có xác xuất gây thiệt hại và mức độ thiệt hại cao khi xảy ra. Những hệ thống này thường là những hệ thống được sử dụng như các cấu phần an toàn trong các sản phẩm hoặc là các sản phẩm được Liên minh Châu Âu coi là những sản phẩm có nguy cơ gây ảnh hưởng đến sức khỏe, tính mạng của con người. Mội số các nhóm sản phẩm như máy móc, thang máy, thiết bị y tế,....vốn đã có những quy định thống nhất của cả Liên minh về vấn đề an toàn, thì nay, với sự phát triển mạnh mẽ của AI, việc áp dụng các quy định về kiểm soát các hệ thống này khi chúng được sử dụng trong các lĩnh vực trên hoàn toàn hợp lý. 

2. Mô hình AI đa mục đích và mô hình AI đa mục đích có rủi ro hệ thống

Dựa trên sự kết nối giữa các hệ thống AI với nhau, một mô hình AI có thể được sử dụng để áp dụng vào nhiều hệ thống AI khác nhau, như với mô hình GPT 3, GPT 4 của OpenAI, các mô hình này có thể được tích hợp vào các hệ thống phát hiện đạo văn, hay hệ thống trợ lý ảo,...Chính vì thế, việc một mô hình gặp sự cố sẽ có thể kéo theo các hệ thống được tích hợp mô hình này sẽ có vấn đề, tạo ra hiệu ứng dây chuyền, gây ảnh hưởng tiêu cực đến cuộc sống. Do đó, EU cũng đưa ra những quy định để phân loại, kiểm soát các mô hình AI này, và chia chúng ra thành hai loại: Mô hình AI đa mục đích và Mô hình AI đa mục đích có rủi ro hệ thống.
Về khái niệm mô hình AI đa mục đích, các bạn có thể xem lại tại phần đầu của bài viết này, đối với mô hình AI đa mục đích có rủi ro hệ thống, mô hình này được phân loại dựa vào hai tiêu chí sau: Một là, mô hình có ảnh hưởng lớn, được đánh giá dựa trên các công cụ, các phương pháp luận, bao gồm các chỉ số và các banchmark; Hai là dựa vào các báo cáo của Ủy ban khoa học của Liên minh Châu Âu, một mô hình AI có thể có tác động tương đương với điều thứ nhất.
Phân tích Benchmark của các kiến trúc mạng deep noron.
Phân tích Benchmark của các kiến trúc mạng deep noron.
Đây mới chỉ là những quy định, những viên gạch đầu tiên của Liên minh Châu Âu trong quá trình kiểm soát các hệ thống AI, do đó, những chỉ số, benchmark cũng như phương pháp xác định ra chúng sẽ cần tiếp tục được hoàn thiện trong thời gian tới. 

IV. Tạm kết 

Trên đây là những khái niệm, quy định tổng quát nhất, thể hiện quan điểm của EU, rằng
“Trí tuệ nhân tạo nên là một công nghệ lấy con người làm trung tâm. Nó nên phục vụ như một công cụ cho mọi người, với mục đích cuối cùng là tăng phúc lợi của con người.”   (trích Đề xuất ban hành Quy chế về trí tuệ nhân tạo và sửa đổi pháp luật của Nghị viện và Hội đồng Châu Âu)
Phần số hai của bài viết sẽ cung cấp cho bạn cái nhìn rõ hơn về các giới hạn và nghĩa vụ của các nhà cung cấp, người triển khai hệ thống AI trong việc đảm bảo sự an toàn, tính mạng cũng như các quyền cơ bản của con người.