EU sẽ tiên phong bảo vệ con người trước Trí tuệ nhân tạo như thế nào ? (P2)
Phần hai của bài viết, chúng ta sẽ cùng tìm hiểu về một số nghĩa vụ pháp lý liên quan đến việc phát triển, đào tạo và sử dụng hệ thống AI, cũng như một số các cơ chế và cơ quan quản lý AI của Liên minh Châu Âu.
Xin chào xin chào, như đã giới thiệu ở phần trước, trong bài viết này, mình sẽ đưa đến cho các bạn những quy định về nghĩa vụ của các nhà cung cấp hệ thống AI và những người triển khai hệ thống AI đó, cũng như các cơ quan sẽ sớm được thành lập để quản lý trí tuệ nhân tạo tại Châu Âu.
I. Khái niệm và phạm vi áp dụng
Trước khi đi vào các quy định chính, ta cần phải nắm rõ một số khái niệm và phạm vi áp dụng của Đạo luật AI.
1. Khái niệm
Người triển khai: nghĩa là bất kỳ thể nhân hoặc pháp nhân, cơ quan công quyền, các cơ quan hoặc bộ máy nào khác, sử dụng hệ thống AI thuộc thẩm quyền của mình, trừ trường hợp hệ thống AI được sử dụng trong quá trình hoạt động không chuyên của một cá nhân.
Nhà cung cấp: nghĩa là bất kỳ thể nhân hoặc pháp nhân, cơ quan công quyền, các cơ quan hoặc bộ máy nào khác, phát triển một hệ thống AI hoặc một mô hình AI tổng quát hoặc sở hữu một hệ thống AI hoặc mô hình AI tổng quát đã được phát triển và đưa ra thị trường hoặc đưa vào sử dụng dưới tên hoặc nhãn hiệu của họ, cho dù có yêu cầu trả phí sử dụng hay không.
Ví dụ, với hệ thống nhận diện khuôn mặt ở phần trước, công ty tạo ra hệ thống nhận diện đó và bán chúng với nhãn hiệu của mình sẽ được coi là nhà cung cấp hệ thống AI, người mua hệ thống nhận diện đó để sử dụng trong việc chấm công sẽ được coi là người triển khai.
2. Phạm vi áp dụng
Do mang tính chất là một văn bản pháp luật của một tổ chức chính trị mà các quy định này sẽ chỉ áp dụng đối với các chủ thể (như nhà cung cấp, người triển khai, nhà nhập khẩu,..) có các hoạt động liên quan đến AI (như triển khai, phát triển, nhập khẩu, cấu hình lại,...) tại Liên minh Châu Âu hoặc có ảnh hưởng đến người dân Liên minh Châu Âu.

Quy chế sẽ chỉ điều chỉnh các hoạt động diễn ra tại EU hoặc có tác động tới EU
II. Các nghĩa vụ pháp lý đặt ra khi cung cấp, triên khai hệ thống AI.
1. Đối với hệ thống AI rủi ro cao
Đối với các hệ thống AI rủi ro cao, có nguy cơ ảnh hưởng tiêu cực đến sức khỏe, an toàn, tính mạng của con người, Đạo luật đã đặt ra 06 yêu cầu kỹ thuật để kiểm soát và đảm bảo hoạt động của các hệ thống AI rủi ro cao, như:
- Xây dựng và duy trì hệ thống quản lý rủi ro; - Đảm bảo sự phù hợp của bộ dữ liệu đào tạo hệ thống AI; - Soạn thảo các tài liệu kỹ thuật; lưu trữ nhật ký hoạt động của hệ thống; - Đảm bảo sự minh bạch trong việc vận hành hệ thống; - Đảm bảo việc giám sát của con người; - Đặt ra các yêu cầu tối thiểu về ba chỉ số, độ chính xác, biên mạnh và an ninh mạng.
Bởi đây là những yêu cầu mang tính kỹ thuật và thủ tục, do đó, đối với các bạn đọc thông thường, tôi sẽ chỉ điểm qua một vài quy định nổi bật trong số này. Đối với các bạn đọc muốn tìm hiểu sâu về quy định này, các bạn có thể tham khảo quy định từ Điều 8 đến Điều 29 của Đạo luật trên.
a. Nghĩa vụ đối với nhà cung cấp hệ thống AI rủi ro cao
Đối với các dữ liệu sử dụng để đào tạo hệ thống AI, nhà cung cấp phải kiểm tra các thành kiến có thể xảy ra, ảnh hưởng đến sức khỏe và an toàn của con người, tác động tiêu cực đến các quyền cơ bản hoặc dẫn tới việc phân biệt đã bị cấm theo pháp luật của Liên minh.
Cũng giống như con người có xu hướng coi một quan điểm là đúng hơn các quan điểm khác bởi các yếu tố như cảm xúc, trải nghiệm,... , việc AI xuất hiện các thành kiến khác nhau dựa vào các dữ liệu khác nhau mà chúng được tiếp nhận là không thể tránh khỏi.
Các thành kiến này có thể đơn giản như việc xác định một người dựa vào mái tóc dài, chiếc váy hồng trước khi có các thông tin rõ ràng hơn là một người phụ nữ, cho đến các vấn đề phức tạp hơn, liên quan đến đạo đức, như thuyết vị lợi, liệu trong hoàn cảnh ngặt nghèo nhất, một AI điều khiển ô tô sẽ lựa chọn việc gây tai nạn cho một người già đang băng qua đường hay một nhóm trẻ em đang chơi đùa trên sân,...thật khó để có thể quyết định, ngay cả đối với con người. Qua ví dụ trên, các bạn có thể thấy việc quản lý dữ liệu đầu vào và kiểm tra các thành kiến của một hệ thống AI có ý nghĩa như thế nào.

Hình ảnh về thuyết vị lợi được tạo ra bởi Copilot
Việc kiểm soát của con người cần phải được thực hiện trong quá trình sử dụng hệ thống AI, nhằm ngăn chặn hoặc tối thiểu hóa các rủi ro tới sức khỏe, an toàn và các quyền cơ bản của con người. Các biện pháp kiểm soát này có thể được thực hiện bởi nhà cung cấp hệ thống AI hoặc được chỉnh sửa bởi người triển khai hệ thống đó, miễn sao đảm bảo được mục đích kể trên.Như đã đề cập ở phần 1, hệ thống AI rủi ro cao được xác định là các hệ thống được áp dụng trong các lĩnh vực yêu cầu về sự an toàn nhất định, do đó, các biện pháp kiểm soát phải tạo điều kiện cho người có nghĩa vụ giám sát thực hiện hoặc có các khả năng sau đây:
- Duy trì nhận thức về xu hướng tự động dựa vào hoặc sự quá phụ thuộc vào đầu ra của hệ thống (được gọi là thiên kiến tự động hóa), đặc biệt là trong các hệ thống cung cấp thông tin hoặc khuyến nghị với con người.
Giống như ví dụ bên trên về việc các dữ liệu có thể gây ra thiên kiến với một hệ thống AI, việc đưa ra các lưu ý hoặc cảnh báo với người giám sát trước khi thực hiện các quyết định, sẽ giúp quyết định đó trở nên phù hợp hơn.

Cảnh báo về việc sử dụng các khuyến nghị của AI
- Có khả năng quyết định, trong các trường hợp đặc biệt, không sử dụng hệ thống, hoặc ghi đè mệnh lệnh, đảo ngược các đầu ra của hệ thống.
- Có khả năng can thiệp vào quá trình vận hành của hệ thống, hoặc làm gián đoạn hệ thống thông qua nút “STOP” hoặc các hình thức tương đương.

Chức năng tạm ngừng phản hồi trong Copilot
Có thể nói, hai quy định này đã chứng minh rõ nhất việc AI nên được sử dụng như một công cụ hỗ trợ cho con người và không thể thay thế con người. Việc có thể chấm dứt, tạm ngưng, các hành động được thực hiện bởi AI là các hành động thể hiện sự kiểm soát tuyệt đối của con người với các công cụ mà mình tạo ra.
- Đảm bảo một mức độ chính xác, biên mạnh và an ninh mạng nhất định.
Hệ thống AI rủi ro cao phải được thiết kế, phát triển để đạt được một mức độ chính xác, mạnh và an ninh mạng nhất định. Theo đó, mức độ chính xác và biên mạnh của hệ thống cũng như cách đo lường chúng sẽ sớm được Ủy ban Châu Âu ban hành. Một chỉ số khác cũng cần lưu ý đó là mức độ an ninh mạng của hệ thống. Hệ thống AI rủi ro cao phải vượt qua các nỗ lực xâm nhập của bên thứ ba nhằm thay đổi việc sử dụng hoặc hiệu suất của hệ thống thông qua các lỗ hổng. Vụ việc của VNDirect bị tấn công mạng vừa qua đã gây ảnh hưởng rất lớn đến những nhà đầu tư chứng khoán, vậy các bạn thử tưởng tượng viễn cảnh, khi AI được sử dụng phổ biến trong vô vàn lĩnh vực, và con người đã quá phụ thuộc vào chúng, rồi Bùm, các cuộc tấn công mạng xảy ra, thật kinh khủng.

Thông báo của VNDirect sau khi bị tấn công
b. Đối với người triển khai hệ thống AI rủi ro cao
Ở trên là một số các nghĩa vụ nổi bật của nhà cung cấp hệ thống AI rủi ro cao, đối với những người triển khai hệ thống AI rủi ro cao, như cơ quan, doanh nghiệp, hoặc cá nhân, một số nghĩa vụ nổi bật cần tuân thủ đó là:
Nghĩa vụ tuân thủ hướng dẫn sử dụng của nhà cung cấp hệ thống, điều này giúp đảm bảo hệ thống AI rủi ro cao hoạt động ở tình trạng tốt nhất, phù hợp với mục đích được thiết kế ban đầu.
Nghĩa vụ thông báo với nhà cung cấp khi việc sử dụng theo như hướng dẫn sử dụng có thể gây nên một rủi ro tới sức khỏe, an toàn, môi trường,....Ngoài ra, người triển khai hệ thống khi phát hiện ra một lỗi nghiêm trọng của hệ thống, đầu tiên sẽ phải thông báo với nhà cung cấp và sau đó là các chủ thể khác như nhà nhập khẩu hoặc nhà phân phối, và các cơ quan giám sát thị trường có thẩm quyền.
Nghĩa vụ lưu trữ nhật ký được tạo ra tự động bởi hệ thống trong ít nhất sáu tháng nếu các nhật ký này được đặt dưới sự kiểm soát của người triển khai hệ thống.
Đặc biệt, khi sử dụng hệ thống AI xác thực sinh trắc học từ xa “không ngay lập tức” (post-remote biometric edentification) để tìm kiếm một người đã bị kết án hoặc nghi ngờ phạm tội hình sự, người triển khai hệ thống AI cần phải được cho phép bởi một cơ quan tư pháp hoặc cơ quan hành chính rồi mới có thể sử dụng, đảm bảo không xâm phạm các quyền tự do và cơ bản của con người.
Ngoài các nghĩa vụ với nhà cung cấp hệ thống AI rủi ro cao, Đạo luật của EU cũng quy định các nghĩa vụ đối với từng nhóm chủ thể khác, như nhà nhập khẩu, nhà phân phối, bạn đọc có thể tìm hiểu thêm tại Điều 26 đến Điều 28 của Đạo luật.
2. Đối vơi mô hình AI tổng quát
Các nhà cung cấp mô hình tổng quát có nghĩa vụ tuân thủ các yêu cầu kỹ thuật và công khai khả năng và giới hạn của mô hình đó với các nhà cung cấp sử dụng mô hình đó để tích hợp vào hệ thống của mình. Ngoài ra, nhà cung cấp mô hình AI này cũng sẽ phải xây dựng một chính sách tuân thủ pháp luật về bản quyền của Liên minh, bảo vệ các quyền thể hiện tác phẩm, cũng như công khai một bản tóm tắt về các nội dung đã được sử dụng trong quá trình đào tạo mô hình đó.
3. Nghĩa vụ minh bạch đối với nhà cung cấp và người triển khai của một số hệ thống và mô hình AI
Việc minh bạch thông tin nhằm đảm bảo khả năng phân biệt giữa con người và máy móc, ngăn chặn các tình trạng giả mạo con người, gây ảnh hưởng tiêu cực đến sự phát triển của nghệ thuật, chính trị và các khía cạnh khác.
Nhà cung cấp hệ thống AI tiếp xúc trực tiếp với con người phải đảm bảo người đó nhận thức được mình đang tương tác với hệ thống AI chứ không phải con người, trừ các trường hợp đã quá rõ ràng hoặc trường hợp sử dụng để xác định và ngăn chặn tội phạm. Các viễn cảnh máy móc giả dạng con người để tương tác trong các bộ phim cyperbunk, chắc chắn sẽ không xảy ra (thật đáng tiếc ?).
Các nội dung được sáng tạo bởi AI tạo sinh, như âm thanh, hình ảnh, video, hay thậm chí các văn bản công bố thông tin như báo chí, sẽ cần phải được đánh dấu để con người hoặc máy móc phát hiện ra các nội dung đó được tạo ra bởi AI. Tuy nhiên, quan điểm của EU vẫn sẽ ủng hộ sự sáng tạo của con người khi sử dụng các hệ thống AI, giống như họa sĩ và cây cọ vẽ, việc sử dụng AI để hỗ trợ biên tập các nội dung theo một tiêu chuẩn nhất định hoặc không thay đổi đáng kể, vẫn sẽ được cho phép và không cần phải đánh dấu.
Tháng 9/2021 Tiktok đã đưa ra chính sách dán nhãn các nội dung được tạo ra bởi AI, và mới đây Youtube cũng đã cập nhật chính sách tương tự, tất cả đều nhằm ngăn chặn các thông tin sai lệch đến người dùng.

Chính sách gán nhãn của Tiktok
Ngoài ra, mối lo ngại về deepfake cũng được EU xem xét và điều chỉnh, tương tự với việc gán nhãn các nội dung được tạo ra bởi AI ở trên, người triển khai hệ thống AI tạo ra các nội dung này phải tiết lộ rằng các nội dung đó đã được tạo ra hoặc tác động bởi trí tuệ nhân tạo. Dành cho những bạn đọc chưa hiểu rõ về deepfake, về cơ bản, chúng được định nghĩa là các hình ảnh, âm thanh, video giống với một người, một đồ vật, địa điểm hoặc các đối tượng, sự kiện đã tồn tại và sẽ giả mạo con người như thế chúng là chính xác và đáng tin.
Đối với các hệ thống nhận diện cảm xúc hoặc phân loại sinh trắc học, người triển khai hệ thống cần phải thông báo với người chịu ảnh hưởng và phải đảm bảo xử lý các dữ liệu đó theo quy định về bảo về dữ liệu cá nhân.
Ngoài các yêu cầu riêng với từng hệ thống AI nói trên, các nhà cung cấp AI nói chung còn cần phải thực hiện các biện pháp để đảm bảo các nhân viên của mình cũng như những người liên quan đến việc vận hành và sử dụng hệ thống sẽ có những hiểu biết nhất định về Trí tuệ nhân tạo. Quy định này của EU có phần hợp lý, bởi khi coi AI là một công nghệ lấy con người làm trung tâm, hay AI là công cụ cho mọi người, việc có những hiểu biết nhất định về nó là vô cùng cần thiết, tương tự như việc biết về nguồn gốc của các thực phẩm ta tiêu thụ hàng ngày.
III. Xây dựng cơ chế Sandbox dành cho các hệ thống AI
Trong quá trình điều chỉnh các hệ thống AI để phù hợp với quan điểm “lấy con người làm trung tâm”, Liên minh Châu Âu sẽ thành lập các mô hình sandbox ở cấp độ quốc gia, mỗi Thành viên sẽ sở hữu hoặc phối hợp với các Thành viên khác để xây dựng, dưới sự hỗ trợ và cố vấn của Ủy ban Châu Âu, ít nhất một sandbox có kiểm soát. Thậm chí, ở cấp độ Liên minh, Ủy ban Giám sát Bảo vệ Dữ liệu Châu Âu cũng sẽ thành lập một sandbox cho toàn bộ các tổ chức, cơ quan, bộ phận của EU để thực hiện các chức năng và nhiệm vụ theo Quy chế này. Một trong các mục tiêu. Vậy cơ chế này có nghĩa là gì ?

Cơ chế Sandbox AI có kiểm soát
Sandbox, là một hộp chứa đầy cát, để trẻ em có thể chơi đùa, sáng tạo bên trong. Đặt trong ngữ cảnh của Đạo luật AI, cơ chế sandbox có kiểm soát được hiểu là một công cụ cho phép thử nghiệm và kiểm tra các sản phẩm đổi mới sáng tạo, được đặt dưới sự kiểm soát của một cơ quan đặc biệt, trong một thời hạn và không gian tách biệt nhất định.
Việc thiết lập các sandbox có kiểm soát nhằm mục đích cải thiện sự tuân thủ quy định về trí tuệ nhân tạo, thúc đẩy hoạt động sự đổi mới và tăng tính cạnh tranh, tạo điều kiện cho sự phát triển của các hệ sinh thái AI, đặc biệt là với các SMEs và start-up,....Đặc biệt, đối với việc một số hệ thống AI được xây dựng vì các mục đích công cộng, như cải thiện môi trường, đa dạng sinh học, giảm ô nhiễm, phòng chống biến đổi khí hậu, cơ chế sandbox còn cho phép việc sử dụng các dữ liệu cá nhân từ các nguồn hợp pháp khác nhau để đào tạo, thử nghiệm và phát triển hệ thống. Cần bổ sung rằng, việc bảo vệ dữ liệu cá nhân rất được coi trọng tại EU, việc thu thập và xử lý dữ liệu cá nhân cho mỗi mục đích khác nhau sẽ cần phải có sự đồng ý của chủ thể, cũng như phải trải qua các quy trình phức tạp khác, do đó, cơ chế sandbox về dữ liệu cá nhân là một bước phát triển lớn, giúp cân bằng giữa việc khuyến khích việc sử dụng AI để cải thiện chất lượng cuộc sống chung và các quyền riêng tư, quyền cơ bản của mỗi cá nhân.
IV. Xây dựng Cơ quan Trí tuệ Nhân tạo Châu Âu, thành lập các cơ quan kiểm soát cấp quốc gia.
Như đã nhắc đến ở các phần trên, ở cấp độ Liên minh, việc thiết lập các phương pháp và chuẩn mực để đánh giá khả năng của các mô hình AI tổng quát, cũng như xây dựng các quy tắc hợp tác giữa các nhà phát triển, cộng đồng khoa học và các chuyên gia, EU sẽ tiến hành thành lập Cơ quan Trí tuệ Nhân tạo Châu Âu (AI Office). Cơ quan này sẽ đóng vai trò thư ký nhưng không có quyền biểu quyết tại Hội đồng Trí tuệ Nhân tạo Châu Âu (European Artificial Intelligence Board), một trong những Hội đồng giúp tư vấn và hỗ trợ Ủy ban Châu Âu và các Quốc gia Thành viên trong việc triển khai Đạo luật này. Về cơ cấu tổ chức của Hội đồng Trí tuệ Nhân tạo Châu Âu, mỗi Quốc gia Thành viên sẽ cử một đại diện của mình tham gia, mỗi đại diện sẽ có nhiệm kỳ 03 năm, được phép tái cử một lần duy nhất. Bên cạnh đó, EU cũng xây dựng diễn đàn tham vấn và hội đồng khoa học của các chuyên gia độcc lập để hỗ trợ mình trong quá trình hoạt động của Cơ quan Trí tuệ nhân tạo và Hội đồng Trí tuệ Nhân tạo Châu Âu.
Ở cấp độ quốc gia, Đạo luật yêu cầu mỗi Quốc gia Thành viên phải thành lập hoặc chỉ định ít nhất một cơ quan tạo lập quy trình đánh giá sự phù hợp và một cơ quan quản lý thị trường, giúp đánh giá đúng nguy cơ của từng hệ thống AI ở mỗi quốc gia và giám sát chúng sau khi đã được đưa ra thị trường.
Ở cấp độ quốc gia, Đạo luật yêu cầu mỗi Quốc gia Thành viên phải thành lập hoặc chỉ định ít nhất một cơ quan tạo lập quy trình đánh giá sự phù hợp và một cơ quan quản lý thị trường, giúp đánh giá đúng nguy cơ của từng hệ thống AI ở mỗi quốc gia và giám sát chúng sau khi đã được đưa ra thị trường.

Khoa học - Công nghệ
/khoa-hoc-cong-nghe
Bài viết nổi bật khác
- Hot nhất
- Mới nhất