Bóng ma từ công nghệ" deepfake" và những ứng dụng " kì quái" cần tránh lạm dụng

ANTD.VN - Ngày nay, với sự phát triển của khoa học công nghệ hiên đại, trên smartphone xuất hiện nhiều ứng dụng “kì quái” khiến người dùng lạm dụng chúng và tồn tại nhiều mặt trái tai hại. Mới dây, còn xuất hiện ứng dụng lột đồ, tạo ảnh khỏa thân từ bóng ma công nghệ deepfake đáng cảnh báo. Hơn thế, còn rất nhiều ứng dụng “ kì quái” mà người dùng đang lạm dụng những trò tiêu khiển cần tránh.

 Những điều cần biết về công nghệ "Deepfake"

Công nghệ Deepfake (tạm dịch: Siêu làm giả) cho phép gán khuôn mặt của một người này sang cho một người khác trong video với độ chính xác cao. Deepfake được xây dựng dựa trên nền tảng Machine learning mã nguồn mở của Google. Nó sẽ quét video và ảnh chân dung của một người, hợp nhất nó với video riêng biệt nhờ công nghệ trí tuệ nhân tạo (AI) và thay thế chi tiết trên gương mặt như mắt, miệng...

Tuy nhiên deepfake chỉ trở thành một danh từ vào tháng 12-2017, khi người dùng có tên "deepfakes" trên Reddit công bố một loạt video khiêu dâm trên diễn đàn Reddit. Người dùng này đã sử dụng trí tuệ nhân tạo để ghép mặt các diễn viên nổi tiếng như Scarlett Johansson hay Gal Gadot vào cơ thể của những diễn viên khiêu dâm.

Vào năm 2018, Reddit đã đóng một loạt mục chia sẻ những video deepfake. Dù vậy, deepfake đã kịp để lại sự lo lắng và hoang mang cho nhiều người. Người dùng deepfakes cho biết anh ta chỉ cần sử dụng những clip từ YouTube, ảnh tìm kiếm từ Google và một vài thuật toán mã nguồn mở như Google TensorFlow để cho cỗ máy “học”.

Bóng ma từ công nghệ" deepfake" và những ứng dụng " kì quái" cần tránh lạm dụng ảnh 1

Ảnh minh họa 

Công nghệ deepfake tạo ra vấn đề đáng lo ngại nhất là lạm dụng tình dục. Không những thế, nó cũng sẽ tạo cản trở sai lệch liên quan đến những thông tin chính trị, giáo dục tuyên truyền.Nguy hiểm hơn, ứng dụng này chỉ có khả năng tạo ra các hình ảnh của nữ còn nam thì không.

Ứng dụng DeepNude có khả năng “nhìn xuyên” quần áo, tạo nên hình ảnh khoả thân giả chỉ bằng một cú click chuột. Tuy nhiên, chỉ vài giờ sau khi bị chú ý, ứng dụng nhìn xuyên thấu quần áo dựa trên công nghệ deepfake có tên DeepNude đã bị chính nhóm phát triển gỡ xuống.

DeepNude sử dụng công nghệ deepfake để tạo ra hình ảnh giả. Phần mềm này có cả phiên bản trên hệ điều hành Windows và Linux, trong đó phiên bản cao cấp cho ra chất lượng ảnh tốt hơn được rao bán giá 99 USD.

Người dùng có thể bỏ 99 USD để có chất lượng hình ảnh tốt hơn. Ảnh: The Verge.

DeepNude hoạt động tốt nhất với ảnh có độ phân giải cao hoặc đối tượng trong hình đã mặc sẵn quần áo hở hang. Tuy nhiên, ảnh khoả thân tạo ra vẫn có chất lượng thấp, với phần da bị làm mờ và nhiều lỗi pixel.

Tuy nhiên, chỉ vài giờ sau khi bị chú ý, ứng dụng nhìn xuyên thấu quần áo dựa trên công nghệ deepfake có tên DeepNude đã bị chính nhóm phát triển gỡ xuống. Theo The Verge, nhà phát triển ứng dụng đã xóa website, ngừng bán ứng dụng và sẽ không tung ra thêm những phiên bản sau.

Nhà phát triển DeepNude đăng tải trên Twitter lời chia tay của ứng dụng này. Theo đó, ứng dụng đã được công bố cách đây vài tháng, tuy nhiên nhà phát triển đã không tính đến việc DeepNude được nhiều người biết đến như vậy. Ứng dụng này có cả phiên bản trả phí và miễn phí.

DeepNude sử dụng công nghệ deepfake để tạo ra hình ảnh khỏa thân giả. Ảnh: DeepNude.

Theo nhà phát triển, họ đã tính đến việc “bảo vệ” ứng dụng bằng dấu đóng lên hình, tuy nhiên họ nhận ra “khả năng người dùng sử dụng sai mục đích là quá cao”.

Theo The Verge, một phần mềm mới xuất hiện có khả năng sử dụng công nghệ AI để chuyển bất cứ hình chụp nào của phụ nữ thành ảnh khoả thân.

Hình ảnh giả có thể được sử dụng với mục đích trả thù, quấy rối và đe doạ phụ nữ. Thậm chí, có những diễn đàn nơi nam giới trả tiền để tạo ra ảnh khoả thân của đồng nghiệp, bạn bè hoặc thành viên gia đình. Các công cụ như DeepNude giúp họ dễ dàng thực hiện ý đồ một cách riêng tư.

Hình ảnh được tạo ra từ phần mềm DeepNude. Ảnh: The Verge

* Ai cũng có thể trở thành nạn nhânn nếu lạm dụng "Deepfake"

Nạn nhân của công nghệ trên có thể kể đến Scarlett Johansson (bị ghép mặt vào phim người lớn) hoặc cựu tổng thống Hoa Kỳ Barack Obama.

Ngày 17 -4-2018, xuất hiện video giống như thật với hình ảnh ông Obama gọi Tổng thống Mỹ Donald Trump là "kẻ móc túi" đã được lan truyền rất nhanh

Thực tế, không có chuyện đó, mà giọng nói trong video thực ra là của Jordan Peele, đạo diễn người Mỹ gốc Phi đầu tiên thắng giải Kịch bản gốc xuất sắc tại Oscar 2018 với phim Get Out. Việc sử dụng một phần mềm biên tập, giọng nói và khuôn miệng của Peele đã được chỉnh sửa cho phù hợp và ghép vào video gốc của cựu Tổng thống. Video được thực hiện trong 56 giờ.

Giọng nói và khuôn miệng của Peele được sửa để ghép vào video của ông Obama.

Scarlett Johansson đã quá quen thuộc với những vụ tấn công vào hình ảnh của cô. Nữ diễn viên 34 tuổi xuất hiện trong hàng chục video ghép mặt trên các trang phim khiêu dâm. Trước đó, cô từng bị hacker lấy trộm ảnh nhạy cảm trong điện thoại, hay nhẹ nhàng hơn là lấy khuôn mặt ghép vào một robot.

Các thông tin sai sự thật, một khi đã xuất hiện trên các mạng xã hội, sẽ có cơ hội lan rất nhanh. Một phần vì con người có xu hướng đọc và chia sẻ nhiều những tin mang tính giật gân, bạo lực, gây tranh cãi. Trong khi đó, trên mạng xã hội, nội dung càng nhận được nhiều tương tác như bình luận, like, share càng được ưu tiên hiển thị.

Vì tính ẩn danh của những diễn đàn, các chuyên gia pháp luật cho rằng rất khó tìm kiếm được kẻ tấn công. Việc giới hạn bằng công cụ cũng không đơn giản. Dữ liệu là những bức ảnh mà người dùng công khai trên mạng. Những thuật toán mã nguồn mở được các công ty cung cấp cho những nhà nghiên cứu, sinh viên và tất cả những ai quan tâm đến công nghệ máy học.

Những ứng dụng "kì quái" khác

Giả vật thể lạ và người ngoài hành tinh

Trên iOS và Android có khá nhiều ứng dụng kiểu này, một số cái tên phổ biến là Camera 360, Camera Zoom FX hay UFO Camera Pro.

Với vài thao tác đơn giản, người dùng đã có thể tạo ra các bức ảnh chụp vật thể lạ xuất hiện trên bầu trời hay hồn ma trong góc nhà hay những bức ảnh chụp chung với người nổi tiếng như Nữ hoàng Anh hay Tổng thống Mỹ. Vậy thì việc chụp ảnh với thần tượng hay nguyên thủ Quốc gia chẳng phải là quá đơn giản và dễ lạm dụng chăng?

Ảnh minh họa 

Biến người trẻ thành già

Ứng dụng như AgingBooth, Old Face hay Age Booth cho phép người dùng có thể mường tượng được dung nhan của mình trong tương lai, sau 10, 20 hay 30 năm nữa sẽ già đi như thế nào chỉ bằng một tấm hình chân dung. Ngoài ra, trên iOS hay Android còn các ứng dụng cho phép biến người mặt gầy thành béo FatBooth, làm hói tóc BaldBooth với cách thức sử dụng tương tự.

Biến người sống thành ma

Không chỉ mang lại ảnh hay video để hù dọa, ZombieBooth hay HautedBooth còn có thể tạo ra những con ma hay Zombie (xác sống) trong điện thoại như kêu gào dữ tợn hay cắn tay người dùng khi chạm vào màn hình. Ứng dụng có nhiều điều mới lạ, độc đáo tuy nhiên người dùng không biết kiểm soát và lạm dung chúng như những trò chơi vô bổ.

Ảnh minh họa 

Tạo video thảm họa

Với Action Movie FX trên iOS hay FX Guru trên Android người dùng có thể dễ dàng quay được các cảnh thảm họa khủng khiếp như cháy nổ, tai nạn ô tô hay thậm chí là máy bay và vệ tinh không gian bị rơi từ trên trời xuống.

Tuy nhiên, thực chất  tất cả các ứng dụng trên đều sử dụng máy ảnh có trên điện thoại và lồng ghép thêm các hiệu ứng, kỹ xảo đồ họa để tạo ra các bức hình, hay đoạn video kỳ quái.