- Ngăn ngừa hiểm họa hạt nhân đe dọa sự tồn vong của nhân loại
- Tác động đa chiều của trí tuệ nhân tạo và con người
- Tương lai của trí tuệ nhân tạo tạo sinh 2023
|
Trí tuệ nhân tạo hoàn toàn có khả năng thay thế con người trong nhiều lĩnh vực |
Khi AI có khả năng thao túng con người
Đây là cảnh báo mới nhất vừa được hàng trăm nhà khoa học hàng đầu nghiên cứu về AI, gồm cả ông chủ của ChatGPT, đưa ra. Theo các chuyên gia, việc quản lý AI đang trở nên vô cùng cấp bách. Giảm thiểu nguy cơ tuyệt chủng của nhân loại do AI phải là ưu tiên toàn cầu, cũng giống như các rủi ro gây ra bởi đại dịch hay chiến tranh hạt nhân.
Kể từ khi nhà toán học John McCarthy (1927 - 2011) đưa ra thuật ngữ “trí tuệ nhân tạo” tại Hội nghị Dartmouth vào năm 1956, không ai có thể ngờ AI sẽ có lúc trở nên quen thuộc với chúng ta như hiện nay. AI có thể coi là một ngành khoa học liên quan đến việc tự động hóa các hành vi thông minh. Nói một cách khác, AI là trí tuệ của máy móc được con người tạo ra. AI có thể tư duy, suy nghĩ, học tập… như trí tuệ con người với mức độ xử lý thông tin quy mô hơn, khoa học và nhanh hơn. Ngày nay, AI có mặt trong nhiều lĩnh vực của đời sống, từ điện thoại cho tới máy tính, robot tự hành… Tính ưu việt mà công nghệ AI mang lại cho con người là không thể phủ nhận.
Ban đầu AI được phát triển để trợ giúp con người trong công việc, đặc biệt là với các công việc nhàm chán lặp đi lặp lại như phân loại hình ảnh, rà soát thông tin... Nhưng nay, hiệu suất đáng kinh ngạc của mô hình AI đàm thoại tiên tiến, được OpenAI phát triển và ra mắt vào cuối tháng 11-2022 với tên gọi ChatGPT, làm dấy lên kỳ vọng rằng, các hệ thống có khả năng phù hợp với khả năng nhận thức của con người, hoặc thậm chí sở hữu trí thông minh “siêu phàm”, có thể sớm trở thành hiện thực. Không giống như các chatbot truyền thống bị giới hạn bởi các phản hồi được lập trình sẵn, ChatGPT có thể đưa ra các phản hồi, trả lời các câu hỏi, gợi ý giống như con người trong thời gian thực; hiểu và tạo ra vô số loại văn bản có tính sáng tạo. Tuy nhiên, với sự phát triển nhanh chóng của AI, các nhà khoa học và chuyên gia công nghệ lo ngại rằng, nếu phát triển một cách không kiểm soát, hoặc được lập trình với mục đích không đúng đắn, trí tuệ nhân tạo có thể gây ra những hậu quả nghiêm trọng cho con người và xã hội. Trước hết là nguy cơ mất việc của hàng triệu người. Ngân hàng Goldman Sachs ước tính khoảng 300 triệu việc làm trên toàn thế giới có thể bị tự động hóa và 1/4 tổng số việc làm có thể được thay thế bằng AI. Các chatbot hiện nay đã viết được nội dung và tạo hình ảnh giống như các nhà thiết kế và kỹ sư phần mềm. Thậm chí, các công ty có thể có một giám đốc AI - người có quyền quyết định trong tương lai.
Khi AI phát triển đến trình độ có thể tự ra quyết định để đối phó với sự biến đổi của môi trường xung quanh hoặc tự tìm kiếm mục tiêu thay thế, hay mở rộng phạm vi mục tiêu thì có lẽ loài người sẽ không còn an toàn nữa. Chẳng hạn, trong tương lai AI sẽ hỗ trợ các hệ thống quan trọng như điện lực, giao thông, y tế, tài chính... Nó có thể làm chủ và kiểm soát toàn bộ các hệ thống này và tự ra quyết định, thực hiện các quyết định trong các tình huống khẩn cấp. Khi AI được tích hợp thêm các mục đích mang tính “dã tâm” có chủ đích, nó có thể gây ra nhiều hậu quả nghiêm trọng như làm rối loạn hệ thống giao thông khi vô hiệu hóa hệ thống đèn giao thông hay ngắt điện hệ thống vận hành tàu điện đô thị, gây tai nạn liên hoàn, làm mất điện trên diện rộng...
Hay như trong tương lai, các hệ thống AI hoạt động trên cơ sở Deep Learning (học sâu) dần dần có được khả năng thao túng con người thông qua tình trạng tâm lý và sửa đổi hành vi. Deep Learning có thể được xem là một lĩnh vực con của Machine Learning (học máy). Ở đó, các máy tính sẽ học và cải thiện chính nó thông qua các thuật toán. Trên thực tế, những hệ thống như vậy có thể nắm quyền kiểm soát xã hội. Với các hành vi không thể đoán trước của các hệ thống AI dựa trên Deep Learning, nếu không được kiểm soát chặt chẽ, nó có thể gây ra hậu quả thảm khốc cho nhân loại.
Cần tiêu chuẩn toàn cầu để ngăn chặn các hiểm họa từ AI
Dường như, một kịch bản “ngày tận thế” của nhân loại giống như phim khoa học viễn tưởng kiểu Hollywood gây ra bởi công nghệ máy tính tiên tiến có thể xảy ra trên thực tế. Đây là điều mà các nhà khoa học lên tiếng cảnh báo từ lâu. Năm 2014, nhà vật lý lý thuyết nổi tiếng người Anh Stephen Hawking cho rằng: “Sự phát triển toàn diện của trí tuệ nhân tạo có thể sẽ hủy diệt loài người”. Ông cũng nhận định loài người sẽ bị trí tuệ nhân tạo hoàn toàn thay thế trong 500 năm nữa nếu không cẩn trọng trong quá trình nghiên cứu và phát triển công nghệ nguy hiểm này.
Nhà khoa học máy tính người Mỹ Eliezer Yudkowsky, người được coi là một trong những người sáng lập ra lĩnh vực AI, thậm chí còn lo lắng hơn khi công bố một bài báo trên tờ Time của Mỹ với tựa đề “Tạm dừng phát triển AI là chưa đủ. Chúng ta cần đóng cửa tất cả”. Theo ông Yudkowsky, rất có thể sẽ xuất hiện một mô hình AI với trí thông minh siêu phàm. Lúc đó, con người trên Trái đất có nguy cơ sẽ chết theo đúng nghĩa đen. Không phải là “có thể xảy ra” mà “đó là điều hiển nhiên sẽ xảy ra”.
Theo các nhà khoa học, lịch sử phát triển vũ khí hạt nhân là bài học cho thấy nguy cơ tiềm ẩn khi nghiên cứu khoa học không bị kiểm soát. Chính vì thế, năm 1949, một số nhà vật lý hạt nhân hàng đầu và những cựu chiến binh khác của dự án bom nguyên tử đã biểu tình từ chối tham gia dự án phát triển loại vũ khí dựa trên nhiệt hạch (bom hydro), do năng lượng giải phóng của loại bom này có thể lớn hơn 1.000 lần so với bom nguyên tử phân hạch. Đa số các nhà khoa học đều chia sẻ quan điểm rằng, bom nhiệt hạch sẽ đe dọa chính tương lai của loài người. Nhân loại sẽ tốt hơn nếu không có loại siêu bom này.
Liên quan đến AI, cuối tháng 3-2023 vừa qua, tỷ phú Elon Musk - Giám đốc điều hành của 3 công ty là Tesla, SpaceX và Twitter và nhóm hơn 1.000 chuyên gia công nghệ hàng đầu thế giới đã xem xét gửi một bức thư ngỏ tới Liên hợp quốc cảnh báo về nguy cơ AI phát triển không kiểm soát. Bức thư kết thúc bằng tuyên bố: “Vì vậy, chúng tôi kêu gọi tất cả các phòng thí nghiệm AI tạm dừng ngay việc đào tạo các hệ thống AI mạnh hơn GPT-4 trong ít nhất 6 tháng”.
Để kiểm soát AI, các nhà khoa học gợi ý nhiều biện pháp. Theo ông Sam Altman, Giám đốc điều hành OpenAI, bởi các hệ thống AI đang trở nên rất mạnh, có tốc độ phát triển vượt trội, lại tác động trên quy mô toàn cầu, nên cần phải thiết lập một tiêu chuẩn toàn cầu để ngăn chặn các “tác dụng phụ” không mong muốn. Thông qua hợp tác quốc tế, các quốc gia có thể chia sẻ kiến thức, kinh nghiệm và tạo ra các tiêu chuẩn chung, xây dựng một môi trường quốc tế an toàn, minh bạch và phát triển bền vững cho AI.
Ở tầm quốc gia và khu vực, hàng loạt chính phủ các nước như Mỹ, Trung Quốc, Liên minh châu Âu (EU), Nhóm G7... đang nỗ lực soạn thảo, xin ý kiến về các quy định nhằm quản lý AI hiệu quả. Các quy định xoay quanh vấn đề an toàn, bảo mật và quyền riêng tư hay quy định mở các cuộc điều tra về sai phạm do hệ thống AI có thể gây ra.