Các đạo luật và quy định về AI đầu tiên trên thế giới

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam
ANTD.VN - Công nghệ trí tuệ nhân tạo (AI), tức máy móc được đào tạo để thực hiện các nhiệm vụ thông minh có tiềm năng lớn để thay đổi mọi thứ nhưng nó cũng tạo ra mối đe dọa mơ hồ cho chuẩn mực xã hội, ngành công nghiệp và các công ty công nghệ. Một số nước đã kịp thời soạn thảo các quy định liên quan nhằm tìm ra cách khai thác sức mạnh biến đổi của AI, đồng thời hạn chế rủi ro có thể gặp phải.
Mỗi nước có cách tiếp cận về việc sử dụng AI khác nhau, tùy theo những ưu tiên mà họ đặt ra

Mỗi nước có cách tiếp cận về việc sử dụng AI khác nhau, tùy theo những ưu tiên mà họ đặt ra

Trung Quốc

Trong “Kế hoạch phát triển trí tuệ nhân tạo thế hệ tiếp theo” do chính phủ Trung Quốc công bố năm 2017, mục tiêu đặt ra rằng đến năm 2030, “các lý thuyết, công nghệ và ứng dụng AI của Trung Quốc sẽ đạt được đẳng cấp hàng đầu thế giới”. Hiện Trung Quốc đang lấy ý kiến đóng góp của công chúng đối với dự thảo quy định về AI.

Theo bản dịch tài liệu của Dự án DigiChina do Đại học Stanford công bố, dự thảo quy định rằng các nhà phát triển “chịu trách nhiệm” về kết quả do AI của họ tạo ra; thậm chí trách nhiệm pháp lý nếu dữ liệu đào tạo của họ vi phạm quyền sở hữu trí tuệ của người khác. Quy định cũng viết rằng các dịch vụ AI phải được thiết kế để chỉ tạo ra nội dung “đúng và chính xác”. Không giống như hầu hết các quốc gia khác, dự thảo của Trung Quốc lưu ý rằng, AI có tính sáng tạo phải phản ánh “Các giá trị cốt lõi của xã hội chủ nghĩa”.

Các quy tắc được đề xuất này được xây dựng dựa trên luật hiện hành liên quan đến deepfake, thuật toán đề xuất và bảo mật dữ liệu, những quy định mà Trung Quốc gần như đi đầu so với các quốc gia khác. Cơ quan quản lý internet của nước này cũng đã công bố các hạn chế đối với công nghệ nhận dạng khuôn mặt vào tháng 8.

Brazil

Brazil có dự thảo luật AI đã được thảo luận và đề xuất trong 3 năm qua. Theo đó, dự thảo luật quy định, người dùng có quyền được thông báo đang tương tác với AI và được giải thích về cách thức AI đưa ra quyết định hoặc đề xuất nhất định. Người dùng cũng có thể phản đối các quyết định của AI hoặc yêu cầu sự can thiệp của con người, đặc biệt nếu quyết định của AI có thể có tác động đáng kể đến người dùng, chẳng hạn như các hệ thống liên quan đến ô tô tự lái, tuyển dụng, đánh giá tín dụng hoặc nhận dạng sinh trắc học.

Các nhà phát triển AI cũng được yêu cầu tiến hành đánh giá rủi ro trước khi đưa sản phẩm AI ra thị trường. Rủi ro cao nhất là hệ thống AI triển khai các kỹ thuật “ngầm” hoặc gây hại cho sức khỏe hoặc sự an toàn của người dùng; những điều này bị cấm hoàn toàn. AI có “rủi ro cao” gồm AI được sử dụng trong chăm sóc sức khỏe, nhận dạng sinh trắc học và chấm điểm tín dụng, cùng các ứng dụng khác. Đánh giá rủi ro đối với các sản phẩm AI “rủi ro cao” sẽ được công bố công khai trong cơ sở dữ liệu của chính phủ. Tất cả các nhà phát triển AI đều phải chịu trách nhiệm về thiệt hại do hệ thống AI của họ gây ra, thậm chí cả trách nhiệm pháp lý.

Liên minh châu Âu

Vào tháng 6-2023, Nghị viện châu Âu đã bỏ phiếu thông qua “Đạo luật AI”. Đạo luật vẫn cần được Hội đồng châu Âu thông qua, mặc dù các nghị sĩ hy vọng quá trình này sẽ kết thúc vào cuối năm nay.

Tương tự như dự thảo luật của Brazil, Đạo luật AI của Liên minh châu Âu phân loại AI theo 3 mức: Rủi ro không thể chấp nhận được, rủi ro cao và hạn chế. Các hệ thống AI được coi là không thể chấp nhận được khi được coi là “mối đe dọa” đối với xã hội (ví dụ đồ chơi kích hoạt bằng giọng nói khuyến khích hành vi nguy hiểm ở trẻ em), chúng bị cấm hoàn toàn. AI có rủi ro cao cần phải được nhà chức trách phê duyệt trước khi đưa ra thị trường và trong suốt vòng đời của sản phẩm. Chúng bao gồm các sản phẩm AI liên quan đến thực thi pháp luật, quản lý biên giới và sàng lọc việc làm, cùng những sản phẩm khác. Ngoài ra, các hệ thống AI được coi là có rủi ro hạn chế phải được gắn nhãn phù hợp để người dùng đưa ra quyết định sáng suốt khi tương tác với AI.

Nhật Bản

Nhật Bản đã áp dụng cách tiếp cận “luật mềm” đối với quy định về AI, quốc gia này không có quy định cụ thể trường hợp nào có thể và không thể sử dụng AI. Thay vào đó, Nhật Bản đã chọn cách chờ xem AI phát triển như thế nào với lý do mong muốn tránh cản trở sự đổi mới.

Hiện tại, các nhà phát triển AI ở Nhật Bản đã phải dựa vào các luật có liên quan, như luật bảo vệ dữ liệu để làm theo hướng dẫn. Ví dụ, vào năm 2018, Quốc hội Nhật Bản đã sửa đổi Đạo luật bản quyền, cho phép sử dụng nội dung có bản quyền để phân tích dữ liệu. Từ đó, các nhà lập pháp nước này đã làm rõ rằng bản sửa đổi cũng áp dụng cho dữ liệu đào tạo AI, dọn đường cho các công ty AI đào tạo thuật toán của họ trên tài sản trí tuệ của các công ty khác.

Các tiểu vương quốc Ảrập thống nhất

Nhìn chung, quy định không phải là ưu tiên hàng đầu trong cách tiếp cận AI của mọi quốc gia. Ví dụ, trong Chiến lược quốc gia về trí tuệ nhân tạo của Các Tiểu vương quốc Ảrập Thống nhất, phần quy định pháp lý chỉ được đưa ra trong một vài đoạn. Theo đó, Hội đồng Trí tuệ nhân tạo và Blockchain sẽ “xem xét các phương pháp tiếp cận quốc gia đối với các vấn đề như quản lý dữ liệu, đạo đức và an ninh mạng”, đồng thời quan sát và tích hợp các phương pháp hay nhất trên toàn cầu về AI. Phần còn lại của tài liệu dài 46 trang được dành để khuyến khích phát triển AI ở UAE bằng cách thu hút nhân tài AI và tích hợp công nghệ này vào các lĩnh vực quan trọng như năng lượng, du lịch và chăm sóc sức khỏe. Chiến lược này phù hợp với nỗ lực của UAE nhằm trở thành “quốc gia tốt nhất thế giới vào năm 2071”.