Chống gian lận và thông tin giả mạo do AI tạo sinh thực hiện

ANTD.VN - Những tiến bộ của trí thông minh nhân tạo AI tạo sinh ((Generative AI) - một “nhánh” của AI - cũng đồng nghĩa với việc ngày càng có nhiều nội dung giả mạo, tin tức giả, ảnh giả, video giả tràn lan trên mạng, gây ảnh hưởng đến việc tiếp nhận thông tin. Chuyên gia Hany Farid, thuộc Đại học California, Mỹ, một nhà khoa học về máy tính, chuyên về xử lý hình ảnh đã đưa ra cách thức để đối phó với thông tin giả mạo do AI tạo ra.

Những bức ảnh giả mạo cảnh ông Donald Trump bị cảnh sát bắt giữ được tạo ra bởi Al

Rất khó phân biệt ảnh do người chụp hay do AI tạo ra

Ngay sau khi có những tin đồn rò rỉ về việc cựu Tổng thống Mỹ Donald Trump có thể bị truy tố, những hình ảnh cho thấy ông bị bắt đã xuất hiện trên mạng. Những hình ảnh này không khác gì ảnh tin tức thực sự, tuy nhiên, chúng đều là ảnh giả, được tạo ra bởi công nghệ trí tuệ nhân tạo tạo sinh (Generative AI).

AI tạo sinh là một loại trí tuệ nhân tạo tập trung vào việc tạo ra nội dung/dữ liệu mới dựa trên dữ liệu hiện có. Cũng giống như các dạng trí tuệ nhân tạo khác, AI Generative sẽ “học” cách thực hiện các yêu cầu nhờ vào các dữ liệu đã thu thập được trong quá khứ. Nhưng thay vì chỉ đơn giản là phân loại hoặc xác định dữ liệu như các AI phổ biến khác, Generative AI sẽ tạo ra nội dung hoàn toàn mới - từ văn bản, hình ảnh, thậm chí cả mã máy tính - dựa trên quá trình “đào tạo” đó.

Generative AI, ở dạng trình tạo hình ảnh như DALL-E, Midjourney và Stable Diffusion hay trình tạo văn bản như Bard, ChatGPT, Chinchilla và LLaMA đã bùng nổ trong thời qua. Bằng cách kết hợp các thuật toán máy học thông minh với hàng tỷ nội dung do con người tạo ra, các hệ thống này có thể làm bất cứ điều gì từ việc tạo ra một hình ảnh chân thực một cách kỳ lạ đến tổng hợp một bài phát biểu bằng giọng nói của Tổng thống Mỹ Joe Biden, thay hình ảnh của người này bằng một người khác trong video hoặc viết một bài báo dài 800 từ một cách mạch lạc theo yêu cầu.

Ngay từ những ngày đầu tiên, Generative AI đã có khả năng tạo ra nội dung có tính thực tế cao. Nhiều chuyên gia nhận thấy rằng, một người bình thường hầu như không thể phân biệt được hình ảnh do con người chụp với hình ảnh do AI tạo ra. Mặc dù hình ảnh, âm thanh và video vẫn chưa hoàn toàn thoát khỏi hiệu ứng “thung lũng kỳ lạ” (uncanny valley - là hiện tượng xảy ra trong tâm lý và nhận thức của con người liên quan đến các vật thể giống người và xác định phản ứng của chúng ta đối với vật thể đó), tuy nhiên, hiệu ứng này sẽ sớm biến mất bởi công nghệ sẽ làm cho hình ảnh, video, âm thanh do AI tạo ra ngày càng giống thật. Và khi đó, việc tạo hình ảnh, video tin tức giả, bóp méo thực tế sẽ ngày càng dễ dàng hơn.

Trong thế giới mới này, rất dễ dàng và nhanh chóng để tạo ra một đoạn video của một CEO công ty nổi tiếng nói rằng lợi nhuận của công ty giảm 20% - thông tin có thể gây tổn thất đáng kể hay việc tạo ra những video có nội dung về một nhà lãnh đạo thế giới đe dọa có hành động quân sự - điều có thể gây ra khủng hoảng địa chính trị, hoặc như việc chèn ảnh của bất kỳ cá nhân nào vào video khiêu dâm…

Những tiến bộ trong AI tạo sinh ngày càng làm cho nội dung giả mạo có sức thuyết phục về mặt hình ảnh sẽ sinh sôi nhanh chóng trên mạng. Ngoài ra, ở chiều ngược lại, những đối tượng lợi dụng có thể “đánh lận con đen” bằng việc cho rằng những bằng chứng về hình ảnh, video thực tế lại bị coi là giả mạo, bị coi là do AI tạo ra. Những tiến bộ trong công nghệ Al tạo sinh cũng bao gồm cả mặt tiêu cực, và đi đôi với nó là những biện pháp can thiệp hợp lý và khả thi về mặt công nghệ có thể được sử dụng để giúp giảm thiểu những lạm dụng này. Là một nhà khoa học máy tính chuyên về phân tích hình ảnh, chuyên gia Hany Farid cho rằng một phương pháp quan trọng là kỹ thuật Watermark (hình mờ).

Hình mờ và AI

Watermark truyền thống là hình thức đóng dấu dạng mờ lên văn bản Word hoặc hình ảnh nhằm bảo vệ bản quyền nội dung, quyền tác giả. Những loại dấu watermark đóng vào văn bản và hình ảnh này thường có dạng chữ, logo, số điện thoại, địa chỉ đơn vị cung cấp hoặc tác giả. Watermark đã có từ lâu để đánh dấu tài liệu và các mặt hàng khác để chứng minh tính xác thực, quyền sở hữu và chống làm giả. Chẳng hạn như Getty Images - kho lưu trữ hình ảnh khổng lồ đã thêm hình mờ có thể nhìn thấy được vào tất cả các hình ảnh kỹ thuật số trong kho danh mục của hãng. Điều này cho phép khách hàng có thể tự do duyệt hình ảnh trong khi hãng vẫn có thể bảo vệ được nguồn ảnh của mình.

Loại hình mờ kỹ thuật số không thể nhìn thấy được sử dụng để quản lý quyền kỹ thuật số. Chẳng hạn, một hình mờ có thể được thêm vào ảnh kỹ thuật số bằng cách điều chỉnh mọi pixel hình ảnh thứ 10 sao cho màu của nó có giá trị chẵn. Hình mờ này có thể được sử dụng để xác minh nguồn gốc của hình ảnh. Loại hình mờ không thể nhìn thấy này cũng có thể được áp dụng cho âm thanh và video. Hình mờ lý tưởng là hình mờ không thể nhận thấy và cũng có khả năng phục hồi đối với các thao tác đơn giản như cắt xén, thay đổi kích thước, điều chỉnh màu sắc hay chuyển đổi định dạng kỹ thuật số. Các hình mờ này có thể được đưa vào các hệ thống AI tạo sinh bằng cách đánh dấu mờ tất cả dữ liệu đào tạo, sau đó nội dung được tạo sẽ chứa cùng một hình mờ.

OpenAI đang thử nghiệm một hệ thống để đánh dấu các sáng tạo của ChatGPT. Tất nhiên, các ký tự trong một đoạn văn không thể được điều chỉnh giống như giá trị pixel của hình ảnh, do đó, hình mờ văn bản có một dạng khác. Văn bản đã tạo có thể được đánh dấu bằng cách bí mật gắn thẻ một tập hợp con các từ và sau đó chọn một từ được gắn thẻ đồng nghĩa để nhận dạng. Phương pháp này thường hiệu quả với văn bản có 800 từ trở lên tùy thuộc vào chi tiết hình mờ cụ thể.

Theo chuyên gia Hany Farid, nên đánh dấu hình mờ tất cả nội dung của các hệ thống AI tạo sinh, cho phép nhận dạng dễ dàng hơn và can thiệp nếu cần. Thậm chí, có thể cụ thể hóa thành quy định bắt buộc để thực thi nguyên tắc này. Mặc dù, không thể loại trừ hết các trường hợp lạm dụng AI vào mục đích xấu, tuy nhiên, nếu những “người gác cổng” trực tuyến lớn như Apple, Google, Amazon, Google, dịch vụ đám mây của Microsoft và GitHub… thực thi các quy tắc này bằng cách cấm phần mềm không tuân thủ, thì tác hại sẽ giảm đáng kể.

Cách đánh dấu để nhận diện nội dung do con người tạo ra và nội dung do AI tạo ra sẽ không ngăn chặn được tất cả các hình thức lạm dụng, nhưng nó sẽ cung cấp một số biện pháp bảo vệ. Và bất kỳ biện pháp nào cũng sẽ phải được điều chỉnh và cải tiến liên tục bởi những người muốn lợi dụng luôn tìm ra những cách mới để đối phó các công nghệ mới nhất. Cũng giống như cách các chuyên gia công nghệ đối phó với “cuộc chiến” kéo dài hàng thập kỷ chống lại các mối đe dọa khác như thư rác, phần mềm độc hại hay lừa đảo trực tuyến…. theo chuyên gia Hany Farid, người dùng Internet cũng cần chuẩn bị để đối phó một trận chiến kéo dài không kém chống lại các hình thức lạm dụng khác nhau được thực hiện bằng cách sử dụng AI thế hệ mới.