Deepfake - công nghệ khởi đầu cho những video khiêu dâm, dung tục giả mạo

Deepfake nghe có vẻ là một từ ngữ xa lạ mang đầy tính ám ảnh nhưng thực chất đó lại là một trào lưu mà bạn có thể gặp sản phẩm của nó hàng ngày.

Deepfake là gì?

Nói một cách đơn giản nhất, deepfake là một công nghệ sản xuất, chỉnh sửa ảnh hoặc video dựa trên trí tuệ nhân tạo (AI) với các nội dung không xảy ra trong thực tế. Nó chủ yếu tập trung sản phẩm vào việc ghép mặt những nhân vật nổi tiếng vào một sản phẩm nào đó và thường vì mục đích xấu. Để dễ hình dung hơn, bạn có thể hiểu đây là một kỹ thuật tổng hợp hình ảnh con người dựa vào AI. Trong đó, nó kết hợp và chồng các hình ảnh hoặc video của người nổi tiếng lên các hình ảnh hoặc video nguồn bằng cách sử dụng trí tuệ nhân tạo.

Việc chỉnh sửa ảnh hay video đã có từ cách đây khá lâu nhưng trào lưu ứng dụng AI vào các công đoạn thì đến gần đây mới xuất hiện. Từ deepfake được coi là xuất hiện vào tháng 12/2017 khi một người dùng có tên ‘deepfakes' công bố một đoạn video với rất nhiều cảnh nóng trên diễn đàn Reddit. Người này sử dụng trí tuệ nhân tạo để ghép mặt nữ diễn viên Scarlett Johansson hoặc Gal Gadot vào các đoạn phim khiêu dâm. Trước đó, vào tháng 7/2017, một nhóm nghiên cứu của đại học Washington cũng đã rất nổi tiếng khi cho ra một video ghép mặt cựu tổng thống Mỹ Obama với giọng đọc của người khác. Trong video này, từng cử chỉ của miệng ông Obama khớp đến kỳ lạ với giọng đọc.

Đương nhiên những video hay hình ảnh được tạo ra bởi deepfake không có thật và được tạo ra bằng AI. Tuy vậy, thời gian trôi qua, những sản phẩm công nghệ này ngày càng giống thật, được sửa các lỗi nhỏ khiến việc phân biệt thật giả là rất khó khăn.

Đến hiện tại, deepfake là trở thành một thuật ngữ rất phổ biến dù chưa có định nghĩa chính xác. Các nhà khoa học máy tính cho rằng nó mới chỉ dừng lại ở những trò chơi khăm hoặc phục vụ mục đích giải trí, hài hước. Tuy nhiên đằng sau đó có thể là những mục đích chính trị. Những video làm giả của deepfake sẽ trở thành một mối đe dọa lớn với xã hội, khi công nghệ phát triển hơn, các lỗi cơ bản dần được sửa thì gần như sẽ không thể phân biệt ảnh hoặc video thật giả nếu dùng công cụ này.

Nạn nhân của Deepfake là ai?

Nạn nhân của deepfake thường là những ngôi sao giải trí hoặc người nổi tiếng trong xã hội. Tuy nhiên, càng ngày, ứng dụng này lại càng được chỉnh sửa với nhiều biến thể khác nhau và nạn nhân của nó cũng đa dạng hơn rất nhiều. Thực tế hiện nay, một chiếc máy tính với card đồ họa bình thường cũng có thể thực hiện được những video hay hình ảnh giả mạo một cách dễ dàng. Cách làm và công cụ có sẵn trên mạng, người dùng deepfake chỉ cần sử dụng những hình ảnh hay video có sẵn cùng một vài thuật toán để tạo ra sản phẩm.

Scarlett Johansson có lẽ là một trong những người ghét deepfake nhất trên thế giới khi cô thường xuyên là chủ đề trong những đoạn phim khiêu dâm làm giả tràn lan trên mạng. Không chỉ vậy, nữ diễn viên này còn từng bị hacker lấy trộm ảnh trong điện thoại hay dùng mặt cô ghép vào một con robot. Quá chán nản với điều này, Scarlett Johansson cho rằng internet là hoàn toàn không có luật lệ và việc cố xóa sạch video người lớn giả mạo là điều không thể. Cô cũng cho biết sẽ không cố gắng loại bỏ bất kỳ một bộ phim nào làm giả hình ảnh của mình bởi nó không ảnh hưởng đến hình ảnh công khai của bản thân.

Hình ảnh khiêu dâm được chỉnh sửa từ deepfake trông rất giống một ngôi sao người Hàn Quốc

Deepfake không chỉ có thể làm giả hình ảnh của Scarlett Johansson mà còn gây nên những sự phiền toái với một loạt các sao nữ khác như Emma Watson, Katy Perry, Tayor Swift… Nhưng họ là ngôi sao, lời giải thích sẽ được nhiều người nghe và thông cảm. Với sự phát triển của mình, deepfake còn đang hướng tới cả những người bình thường.

Tháng 4/2018, một nhà báo người Ấn Độ có tên Rana Ayyub bị ghép mặt mình vào cơ thể một người phụ nữ khác trong video khiêu dâm trên internet. Khi cô phát hiện ra, video này đã lan truyền một cách chóng mặt trên các mạng xã hội và không thể kiểm soát nổi.

Khi xem đoạn video này, Rana Ayyub đã buồn nôn, sau đó là khóc nhiều ngày rồi nhập viện vì quá hoảng loạn. Đến khi vào đồn cảnh sát để trình báo sự việc, Rana còn thất vọng hơn khi thấy những người tại đây đang xem video giả mạo cô.

Deepfake đang ngày càng tràn lan trên thế giới bởi nó dễ sử dụng và sản phẩm thì rất giống thật. Giờ đây, chỉ cần một máy tính đủ mạnh và phần mềm tạo video deepfake, bất kỳ ai cũng có thể bị giả mạo. Nạn nhân của nó cũng bất lực trong việc tìm ra thủ phạm. Họ hoang mang cực độ, suy sụp tinh thần và cũng chẳng có ai ở bên để bảo vệ họ.

Tháng 6/2019, một biến thể của deepfake có tên Deepnude được phát hành trên mạng. Nó có sẵn và cho phép tải xuống miễn phí trên hệ điều hành Windows. Ứng dụng này cho phép dễ dàng tạo ra hình ảnh khỏa thân của phụ nữ chỉ bằng một cú nhấp chuột. Người dùng chỉ cần chọn hình ảnh mình thích, bỏ vào ứng dụng. Phần còn lại, hệ thống của Deepnude sẽ xử lý, lột bỏ quần áo của phụ nữ và cho ra sản phẩm là một hình ảnh khỏa thân.

Deepnude là một biến thể rất nguy hiểm của deepfake

Sự ra đời của Deepnude cho thấy trào lưu làm giả hình ảnh hay video ngày càng phổ biến và nguy hiểm đến mức nào. Kẻ xấu hoàn toàn có thể lợi dụng ứng dụng này nhằm tạo ra hình ảnh giả mạo của ai đó rồi tung ra tin đồn sai lệch nhằm hạ uy tín và khiến nạn nhân suy sụp.

Khó khăn khi chống lại deepfake

Chống lại deepfake là điều không hề đơn giản. Các diễn đàn hiện nay cho phép ẩn danh nên tìm ra thủ phạm làm giả hình ảnh, video là không dễ dàng. Rất nhiều diễn đàn, trang web (kể cả các web người lớn) đã cấm video, hình ảnh được làm từ deepfake nhưng vẫn không thể chống lại sự phát triển và phổ biến của nó.

Nạn nhân của deepfake cũng không có cách nào tìm ra thủ phạm đã làm giả video hay hình ảnh của mình bởi chẳng ai biết kẻ tấn công. Và nếu có tìm ra được kẻ tấn công thì sản phẩm hắn làm ra cũng đã lan truyền, phát tán tràn lan trên internet.

Vào tháng 8/2018, các nhà nghiên cứu của Trung tâm nghiên cứu thuộc Bộ Quốc phòng Mỹ đã giới thiệu 1 công cụ cho phép nhận diện video là sản phẩm của deepfake. Tuy nhiên, công cụ này được chính những nhà phát triển cho rằng phải liên tục phát triển vì deepfake phát triển quá nhanh và ngày càng tinh vi.

Trong tương lai không xa, deepfake có thể sẽ không chỉ đánh gục một cá nhân hay tổ chức nhỏ nào mà thậm chí ảnh hưởng đến doanh nghiệp lớn, tạo ra biến động sâu sắc. Thậm chí, nó cũng có thể gây nên những kích động quân sự hay ảnh hưởng đến chính trị.

Hãy tưởng tượng một ngày nào đó xuất hiện video deepfake CEO của Apple là Tim Cook cho rằng công ty này sẽ khai tử iPhone. Ngay sau đó là hệ lụy khôn lường khi cổ phiếu của hãng công nghệ này rớt giá thê thảm và ảnh hưởng đến cả thị trường tài chính. Khi mọi người nhận ra rằng đó là sản phẩm của deepfake thì mọi thứ đã muộn.

Jeffrey McGregor – CEO của một startup công nghệ nhận định rằng trong 12 tháng tới, chúng ta sẽ chứng kiến các hình ảnh, video không thể phân biệt được thật giả. Xã hội bắt đầu không tin tưởng mọi thứ họ thấy.

Cách đây không lâu, Ủy ban đặc biệt về tình báo của Thượng viện Mỹ đã tổ chức một phiên điều trần tập trung về việc làm sao để chống lại deepfake. Họ cho rằng các mạng xã hội, diễn đàn và website phải tự chịu trách nhiệm trước nội dung giả mạo, gây hại được lan truyền trên mạng. Đồng thời, khi xuất hiện video một video không thể xác minh thật giả thì phải gắn nhãn cảnh báo.

T.T

 
 
List comment
 
Lazada toàn cầu có Tổng Giám đốc mới
icon

Ông Li Chun sẽ kế nhiệm ông Pierre Poignant trở thành Tổng Giám đốc (CEO) Lazada với nhiệm vụ đẩy nhanh tăng trưởng thông qua địa phương hóa mạnh hơn.  

 
Sử dụng sơ yếu lý lịch điện tử thay sơ yếu lý lịch giấy từ năm 2023
icon

Một mục tiêu cụ thể của Đề án xây dựng cơ sở dữ liệu quốc gia về cán bộ, công chức, viên chức trong các cơ quan nhà nước là đến năm 2023 sử dụng sơ yếu lý lịch điện tử thay thế sơ yếu lý lịch giấy.

 
Facebook cảnh báo khi người dùng chia sẻ tin cũ
icon

Facebook ra mắt tính năng cảnh báo khi người dùng chuẩn bị chia sẻ một bài báo cũ, có thể khiến người khác nhầm lẫn về sự kiện đang diễn ra.  

 
Bộ trưởng TT&TT 'mời' Hậu Giang đẩy việc khó lên Bộ
icon

Có những vấn đề nếu tỉnh thấy khó thì cứ 'đẩy' lên Bộ, Bộ sinh ra để phục vụ tỉnh - Bộ trưởng Nguyễn Mạnh Hùng cho biết như vậy trong buổi làm việc chiều 25/6.

 
Nhà mạng lớn thứ hai Mỹ tẩy chay Facebook
icon

Nhà mạng Verizon tuyên bố rút quảng cáo khỏi Facebook và Instagram trong tháng 7/2020, trong khi đại lý quảng cáo Goodby Silverstein cũng thông báo tương tự.

 
 
Google trả tiền 'nội dung chất lượng cao' cho các hãng tin địa phương
icon

Trước áp lực từ nhà quản lý, Google từ nay sẽ trả tiền cho một số hãng tin địa phương tại Đức và Australia để sử dụng nội dung của họ.  

Thế giới đầu tư 30 tỷ USD cho công tơ thông minh trong 5 năm tới
icon

Theo hãng nghiên cứu Wood Mackenzie Power and Renewables, 5 năm tới, thế giới sẽ có gần 1,3 tỷ công tơ điện thông minh đi vào hoạt động.  

Google mặc định xóa lịch sử vị trí sau 18 tháng
icon

Google thông báo từ nay sẽ tự động xóa lịch sử người dùng và hoạt động web sau 18 tháng.  

Olympus rút khỏi thị trường máy ảnh
icon

Olympus chính thức từ bỏ bộ phận máy ảnh 84 tuổi đời của mình.  

Viettel khởi công nhiều công trình hỗ trợ huyện nghèo
icon

10 năm qua, Viettel đã đầu tư gần 250 tỷ đồng hỗ trợ hơn 4.700 hộ nghèo để xây dựng nhà ở, tặng bò giống, xây dựng trường học, trạm y tế và tặng quà Tết hỗ trợ huyện nghèo theo Nghị quyết 30A của Chính phủ.

 
123

Giấy phép hoạt động báo chí: Số 09/GP-BTTTT, Bộ Thông tin và Truyền thông cấp ngày 07/01/2019.

Tòa soạn: Tầng 7, Tòa nhà Cục Tần số Vô tuyến điện, 115 Trần Duy Hưng, Quận Cầu Giấy, Hà Nội

Điện thoại: 024 3 936 9966 - Fax: 024 3 936 9364

Hotline nội dung: 0888 911 911 - Email: toasoan@ictnews.vn

123