Một video “trông như thật”, trong đó ông Obama gọi Tổng thống Mỹ Donald Trump là “kẻ móc túi” đã được lan truyền rất nhanh trong ngày 17/4, cho thấy vấn nạn video giả có thể sẽ hoành hành thời gian tới.
Thực tế, ông Obama không hề phát ngôn những từ đó, mà giọng nói trong video thực ra là của Jordan Peele, đạo diễn người Mỹ gốc Phi đầu tiên thắng giải Kịch bản gốc xuất sắc tại Oscar 2018 với phim Get Out. Bằng việc sử dụng một phần mềm biên tập, giọng nói và khuôn miệng của Peele đã được chỉnh sửa cho phù hợp và ghép vào video gốc của cựu Tổng thống.
Peele, BuzzFeed và Monkeypaw Productions đã hợp tác với nhau để dựng lên video gây tranh cãi với mục đích cho người xem thấy được mối huy hiểm của deepfake – từ chỉ những video được chỉnh sửa “để khiến người xem tưởng ai đó đang nói hoặc làm gì đó”, dù điều đó không hề xảy ra.
Giọng nói và khuôn miệng của Peele được sửa để ghép vào video của ông Obama.
“Video cần tới 56 giờ để thực hiện. Tin tốt là bạn cần có cả kỹ năng, sức mạnh xử lý lẫn thời gian để có thể tạo ra một deepfake đủ thuyết phục”, BuzzFeed cho hay.
Tuy nhiên, deepfake không còn là nguy cơ mà nó đã diễn ra, như gương mặt của một số ngôi sao bị cố tình ghép vào video khiêu dâm, gây ra những phiền phức không nhỏ cho người nổi tiếng.
Với những công nghệ video mới tích hợp trí tuệ nhân tạo (AI), deepfake sẽ bùng phát thời gian tới. Những mạng xã hội như Facebook đang đau đầu với vấn nạn tin giả và trong tương lai sẽ còn vất vả hơn khi phải phát triển công cụ nhận biết đâu là video đã bị chỉnh sửa để phát tán “tin vịt”.
Các thông tin sai sự thật, một khi đã xuất hiện trên các mạng xã hội, sẽ có cơ hội lan rất nhanh. Một phần vì con người có xu hướng đọc và chia sẻ nhiều những tin mang tính giật gân, bạo lực, gây tranh cãi. Trong khi đó, trên mạng xã hội, nội dung càng nhận được nhiều tương tác như bình luận, like, share càng được ưu tiên hiển thị. Một thông tin giả mạo, kiểu tắt điện thoại để tránh tia vũ trụ, có thể thu hút tới 50.000 lượt chia sẻ mà không cần kiểm chứng.
Deepfake cũng sẽ lây lan với cơ chế tương tự. Hàng chục nghìn người xem sẽ tin vào nội dung họ thấy trong video giả mạo và hồn nhiên chia sẻ chúng.
Một chương trình AI đủ mạnh có thể biến Michelle Obama thành sao khiêu dâm. Nói cách khác, video dàn dựng và khó phân biệt thật giả chắc chắn sẽ trở nên phổ biến. “Không có lựa chọn nào khác. Tôi lo ngại sẽ có người lợi dụng công nghệ AI để tống tiền người khác, hoặc làm điều xấu”, Phó giáo sư Hao Li tại Đại học Southern California, trả lời New York Times.
Minh Minh
Thực tế, ông Obama không hề phát ngôn những từ đó, mà giọng nói trong video thực ra là của Jordan Peele, đạo diễn người Mỹ gốc Phi đầu tiên thắng giải Kịch bản gốc xuất sắc tại Oscar 2018 với phim Get Out. Bằng việc sử dụng một phần mềm biên tập, giọng nói và khuôn miệng của Peele đã được chỉnh sửa cho phù hợp và ghép vào video gốc của cựu Tổng thống.
Peele, BuzzFeed và Monkeypaw Productions đã hợp tác với nhau để dựng lên video gây tranh cãi với mục đích cho người xem thấy được mối huy hiểm của deepfake – từ chỉ những video được chỉnh sửa “để khiến người xem tưởng ai đó đang nói hoặc làm gì đó”, dù điều đó không hề xảy ra.
“Video cần tới 56 giờ để thực hiện. Tin tốt là bạn cần có cả kỹ năng, sức mạnh xử lý lẫn thời gian để có thể tạo ra một deepfake đủ thuyết phục”, BuzzFeed cho hay.
Tuy nhiên, deepfake không còn là nguy cơ mà nó đã diễn ra, như gương mặt của một số ngôi sao bị cố tình ghép vào video khiêu dâm, gây ra những phiền phức không nhỏ cho người nổi tiếng.
Với những công nghệ video mới tích hợp trí tuệ nhân tạo (AI), deepfake sẽ bùng phát thời gian tới. Những mạng xã hội như Facebook đang đau đầu với vấn nạn tin giả và trong tương lai sẽ còn vất vả hơn khi phải phát triển công cụ nhận biết đâu là video đã bị chỉnh sửa để phát tán “tin vịt”.
Các thông tin sai sự thật, một khi đã xuất hiện trên các mạng xã hội, sẽ có cơ hội lan rất nhanh. Một phần vì con người có xu hướng đọc và chia sẻ nhiều những tin mang tính giật gân, bạo lực, gây tranh cãi. Trong khi đó, trên mạng xã hội, nội dung càng nhận được nhiều tương tác như bình luận, like, share càng được ưu tiên hiển thị. Một thông tin giả mạo, kiểu tắt điện thoại để tránh tia vũ trụ, có thể thu hút tới 50.000 lượt chia sẻ mà không cần kiểm chứng.
Deepfake cũng sẽ lây lan với cơ chế tương tự. Hàng chục nghìn người xem sẽ tin vào nội dung họ thấy trong video giả mạo và hồn nhiên chia sẻ chúng.
Một chương trình AI đủ mạnh có thể biến Michelle Obama thành sao khiêu dâm. Nói cách khác, video dàn dựng và khó phân biệt thật giả chắc chắn sẽ trở nên phổ biến. “Không có lựa chọn nào khác. Tôi lo ngại sẽ có người lợi dụng công nghệ AI để tống tiền người khác, hoặc làm điều xấu”, Phó giáo sư Hao Li tại Đại học Southern California, trả lời New York Times.
Minh Minh