Quản lý AI - vấn đề cấp bách toàn cầu

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam
ANTD.VN - Trong nỗ lực kiểm soát lĩnh vực trí tuệ nhân tạo (AI), một công nghệ có tiềm năng tạo thay đổi đột phá nhưng cũng đặt ra nhiều rủi ro tiềm tàng, Tổng Thư ký Liên hợp quốc (LHQ) Antonio Guterres đã thành lập Ban cố vấn phụ trách khuyến nghị trong lĩnh vực nhạy cảm này.
Tháng 4-2023, Trung Quốc đã công bố dự thảo quản lý các dịch vụ AI tạo sinh

Tháng 4-2023, Trung Quốc đã công bố dự thảo quản lý các dịch vụ AI tạo sinh

Nguy cơ từ tình trạng thiếu tính minh bạch

Ban cố vấn về AI gồm khoảng 40 chuyên gia trong các lĩnh vực công nghệ, luật pháp và bảo vệ dữ liệu cá nhân, làm việc tại các học viện, cơ quan chính phủ và khu vực tư nhân. Trong số các chuyên gia có ông Amandeep Singh Gill, Đặc phái viên về công nghệ của Tổng Thư ký LHQ Antonio Guterres; ông James Manyika, Phó Chủ tịch phụ trách AI tại Google và Alphabet; bà Mira Murati, Giám đốc kỹ thuật của Công ty OpenAI - nhà phát triển chatbot ChatGPT và Bộ trưởng AI của Các Tiểu vương quốc Arab thống nhất (UAE) Omar al-Olama.

Là sản phẩm của trí tuệ con người, AI nhận được sự quan tâm rộng rãi trong vài thập kỷ qua do tiềm năng của nó trong việc tăng cường tự động hóa và đẩy nhanh năng suất. Đặc biệt trong những năm gần đây, thế giới đã chứng kiến bước tiến vượt bậc về khả năng của AI và việc sử dụng công nghệ này thông qua chatbot, nhân bản giọng nói, ứng dụng video… Công nghệ mang tính đột phá này tập trung ở một số công ty và quốc gia, tạo ra những tiến bộ vượt bậc cho nhân loại. Chúng có thể được ứng dụng để giúp xóa đói giảm nghèo, chữa ung thư, chống biến đổi khí hậu... Chính phủ Bỉ đã công bố kế hoạch ngân sách trong năm 2024 để phát triển các dự án ứng dụng AI trong ngành y tế. Thủ đô Jakarta của Indonesia tìm đến sự trợ giúp của AI để giải quyết bài toán tắc nghẽn giao thông trầm trọng. Chương trình Lương thực Thế giới (WFP) thì lên kế hoạch từ năm 2024 dùng các xe robot tích hợp AI để phân phát các gói thực phẩm đến những khu vực xảy ra xung đột và thiên tai.

Tuy nhiên, tất cả điều này phụ thuộc vào việc khai thác AI một cách có trách nhiệm. Ngược lại, AI có thể gây ra những hậu quả rất nghiêm trọng đối với con người và xã hội loài người. Trong lĩnh vực an ninh, nếu bị sử dụng cho mục đích xấu hoặc khủng bố, AI có thể gây ra chết chóc và hủy diệt ở mức độ khủng khiếp, đặc biệt là đối với vũ khí hạt nhân hoặc sinh học. Theo Ngoại trưởng Anh James Cleverly, AI có thể phá vỡ sự ổn định chiến lược toàn cầu, thách thức các giả định cơ bản về phòng thủ và răn đe. Nó đặt ra những câu hỏi đạo đức về trách nhiệm giải trình đối với các quyết định gây chết người trên chiến trường.

AI có thể gây tác động tiêu cực bởi các mô hình AI thường thiếu tính minh bạch khi rất ít thông tin về cách thức thiết lập hoạt động của mô hình. Kết quả nghiên cứu cho thấy, mô hình ngôn ngữ AI mã nguồn mở mang tên Llama 2 của Tập đoàn Meta (chủ sở hữu của Facebook và Instagram) có chỉ số minh bạch cao nhất, song chỉ đáp ứng các tiêu chí về minh bạch ở mức 54%. Đứng theo sau là mô hình GPT-4 của OpenAI và mô hình PaLM 2 của Google. Theo các nhà nghiên cứu, không tập đoàn công nghệ AI nào cung cấp thông tin về số lượng người dùng phụ thuộc vào mô hình AI mà họ chế tạo. Ngoài ra, phần lớn công ty AI không tiết lộ số lượng tài liệu có bản quyền được sử dụng trong việc thiết lập và vận hành mô hình AI.

Tiêu chuẩn toàn cầu trên thực tế cho trí tuệ nhân tạo

Quản lý AI đã trở thành vấn đề cấp bách và việc LHQ cho ra đời Ban cố vấn phụ trách khuyến nghị trong lĩnh vực AI chính là nhằm ngăn chặn những mặt trái của nó. Tổng Thư ký LHQ Antonio Guterres đã kêu gọi Ban cố vấn về AI “chạy đua với thời gian để kịp thời đưa ra các khuyến nghị về cách thức quản lý việc sử dụng AI vào cuối năm nay, cũng như xác định những rủi ro và cơ hội từ công nghệ này”.

Nhiều tổ chức quốc tế và các nước cũng đưa ra các khuyến nghị và biện pháp quản lý AI. Hồi tháng 5-2023, Nhóm các nước công nghiệp phát triển hàng đầu thế giới (G7) đã nhất trí về một sáng kiến nhằm xây dựng các quy tắc quốc tế đối với AI. Sáng kiến này có tên gọi là Quy trình AI của Hiroshima (nơi thông qua sáng kiến) nhằm mục đích thống nhất quan điểm về các quy tắc công nghệ giữa các quốc gia G7. Nhóm này cũng thảo luận về tiềm năng và rủi ro của AI, đặc biệt là các mô hình đàm thoại như ChatGPT, một dịch vụ đã trở nên phổ biến trong thời gian gần đây nhưng cũng gây lo ngại lớn về nguy cơ vi phạm bản quyền.

Liên minh châu Âu (EU) hiện đang là khu vực hành động quyết liệt hơn cả trong việc thiết lập quy định quản lý công nghệ mới. Ngay từ năm 2021, giới chức EU đã đề xuất một đạo luật AI nhằm quản lý tất cả các sản phẩm và dịch vụ sử dụng công nghệ này. Đạo luật sẽ phân loại các công cụ AI theo mức độ nguy cơ mà mỗi công cụ có thể gây ra, từ mức thấp tới mức không thể chấp nhận được, và buộc các chính phủ, doanh nghiệp sử dụng những công cụ này phải tuân thủ các nghĩa vụ khác nhau tùy theo mức độ nguy cơ, trong đó bao gồm yêu cầu minh bạch và sử dụng dữ liệu chính xác. Dự thảo đạo luật này đã được Nghị viện Châu Âu bỏ phiếu thông qua hồi tháng 6-2023, giúp có thể tạo ra ảnh hưởng lớn đến phần còn lại của thế giới, thậm chí trở thành tiêu chuẩn toàn cầu trên thực tế cho trí tuệ nhân tạo.

Hàng trăm chuyên gia công nghệ và nhà nghiên cứu khoa học hàng đầu cũng đã lên tiếng cảnh báo về sự nguy hiểm của AI. Trong một bức thư ngỏ được công bố hồi cuối tháng 3-2023, các nhà khoa học đã kêu gọi các doanh nghiệp cần “tạm dừng” việc phát triển những mô hình AI mới trong vòng 6 tháng. Các tên tuổi lớn như tỷ phú Elon Musk - Giám đốc điều hành hãng xe điện Tesla hay nhà đồng sáng lập hãng công nghệ Apple Steve Wozniak đều coi đây là điều cần thiết để xem xét các rủi ro. Thậm chí nhà khoa học kỳ cựu

Geoffrey Hinton đã quyết định từ bỏ vị trí Phó chủ tịch tại Google để có thể trực tiếp đưa ra những cảnh báo về mối đe dọa của trí tuệ nhân tạo. Ông Geoffrey Hinton kêu gọi cần có các quy định và sự hợp tác toàn cầu để kiềm chế công nghệ mà ông và nhiều người khác cho rằng có thể hủy hoại thị trường lao động, làm biến dạng môi trường Internet, hoặc thậm chí vượt qua trí thông minh của con người. Chia sẻ với tờ New York Times, vị chuyên gia thường được ví như “cha đỡ đầu” của AI nói: “Tôi không nghĩ họ nên mở rộng quy mô của các mô hình AI, cho đến khi họ thực sự chắc rằng mình có thể kiểm soát được nó”.

Tại Mỹ - quê hương của nhiều hãng công nghệ lớn, ngay từ năm 2022, giới chức chính phủ đã bắt đầu soạn thảo các hướng dẫn sử dụng và phát triển AI do lo ngại vấn đề về vi phạm quyền riêng tư. Hồi cuối tháng 4-2023, Ủy ban Thương mại Liên bang và Bộ Tư pháp Mỹ cho biết sẽ sử dụng các công cụ pháp lý để chống lại mối nguy hại liên quan đến AI. Bộ Thương mại Mỹ cũng tiến hành lấy ý kiến đóng góp của các cơ quan, tổ chức và chuyên gia trong lĩnh vực công nghệ về các quy định liên quan đến các biện pháp trách nhiệm giải trình tiềm năng đối với các hệ thống AI.