Nhiều năm nay, các chuyên gia đã lên tiếng cảnh báo về bảo mật dữ liệu sinh trắc học yếu kém. Vấn đề đặc biệt trầm trọng tại Trung Quốc, nơi nhận diện gương mặt đã trở thành một hình thức xác thực phổ biến. Deepfake còn có thể tạo ra nhiều rắc rối mới.

Ứng dụng dễ thấy nhất của deepfake và ghép mặt ai đó vào các video sẵn có. Deepfake được trọng dụng trong video khiêu dâm. Tuy nhiên, trong một số trường hợp, hacker đã khai thác thành công deepfake vì động cơ tài chính.

Theo chuyên gia an ninh mạng trong lĩnh vực tài chính Job Baterman, deepfake mang tới mối de dọa của sự ngờ vực và hoài nghi, khi mọi người bắt đầu giả định mọi thứ đều là giả mạo. Deepfake gần như không thể khiến một thị trường tài chính trong nền kinh tế hiện đại sụp đổ nhưng có khả năng gieo rắc nỗi lo ngại cùng các cạm bẫy khác.

Chẳng hạn, nó đổ thêm dầu vào lửa vào nỗi bất an trong cuộc khủng hoảng tài chính hiện tại, đặc biệt tại các nước kém phát triển, vốn đã thiếu lòng tin. Nếu người dùng lo lắng về bảo mật của tài khoản ngân hàng, nó sẽ khiến tổ chức tài chính gặp khó.

Nhiều người làm trong lĩnh vực bảo mật cũng có chung quan điểm. Khảo sát 105 giám đốc bảo mật của nhà cung cấp dịch vụ xác thực iProov hồi tháng 1 cho thấy, 77% lo lắng về tác động tiềm tàng của hình ảnh, âm thanh và video deepfake. Nguy cơ được nhắc tới nhiều nhất là gian lận ủy quyền thanh toán và chuyển tiền.

Dù các vụ như vậy khá hiếm gặp, chúng không phải lý thuyết suông. Năm 2019, kẻ lừa đảo đã sử dụng phần mềm AI để lừa CEO một công ty năng lượng Anh qua điện thoại. CEO nghĩ rằng đang nói chuyện với người đứng đầu công ty mẹ tại Đức và gửi 220.000 EUR cho nhà cung ứng không có thật. Deepfake đã giả mạo thành công giọng Đức của ông chủ của CEO nói trên.

Theo chuyên gia Kok Tin Gan, bất kỳ khi nào công nghệ mới xuất hiện và được dùng phổ biến, nó đều mang đến cơ hội cho hacker lợi dụng để kiếm tiền.

{keywords}
Deepfake ngày càng phát triển và được sử dụng nhiều hơn

Một số công ty đã phải trấn an mọi người rằng, deepfake không đe dọa hệ thống của họ. Năm 2019, sau khi ứng dụng hoán đổi gương mặt Zao làm mưa, làm gió trên mạng xã hội, nền tảng thanh toán Alipay phải lên tiếng, khẳng định bất kể kết quả tráo đổi gương mặt có giống thật thế nào, công cụ thanh toán của họ cũng không thể bị vượt qua.

Alipay là một trong các ứng dụng thanh toán di động được ưa chuộng nhất tại Trung Quốc. Chính vì vậy, nó cũng là mục tiêu hấp dẫn của hacker. Năm 2018, 5 người bị bắt tại Trung Quốc do sử dụng ảnh và dữ liệu cá nhân bị rò rỉ để tìm cách đánh cắp tiền qua Alipay. Thông tin cá nhân được dùng để đăng ký tài khoản trên Alipay, còn ảnh được dùng để tạo ảnh đại diện 3D nhằm lừa công nghệ nhận diện gương mặt. Tuy nhiên, nỗ lực nhanh chóng bị phát hiện và kế hoạch của nhóm thất bại.

Công nghệ nhận diện gương mặt hiện được dùng rộng rãi tại Trung Quốc, từ ứng dụng ngân hàng tới rút giấy vệ sinh trong toilet. Song, các vụ rò rỉ dữ liệu gần đây đặt ra nhiều lo lắng và gây ra làn sóng phản đối. Nhiều hình ảnh cùng số căn cước và số điện thoại được bán rẻ mạt trên mạng. Đặc biệt, có trường hợp chỉ cần 10 NDT (hơn 35.000 đồng) để mua được một lố 5.000 ảnh gương mặt.

Gan cho rằng, deepfake sẽ khiến mọi người nghĩ nhiều hơn về hậu quả khi cung cấp dữ liệu sinh trắc học. Dù sử dụng sinh trắc học trong xác thực mang đến nhiều tiện ích, mọi người không thể thay đổi gương mặt hay dấu vân tay như đổi mật khẩu bị lộ.

Tuy nhiên, như bất kỳ công nghệ mới nào khác, mỗi nguy cơ lại vấp phải biện pháp phòng vệ tương ứng. Một cách mà nhiều doanh nghiệp đang dùng để bảo vệ người dùng là thông qua xác thực nhiều lớp. Ví dụ, nếu quét gương mặt để truy cập ứng dụng ngân hàng, đây sẽ chỉ là bước xác thực ban đầu. Muốn sử dụng dịch vụ khác, khách hàng cần đến token hay mã gửi qua SMS. Ngân hàng cũng thường đặt ra hạn mức chuyển tiền.

Tới thời điểm này, deepfake chủ yếu dùng để ghép mặt người nổi tiếng vào ảnh/video khiêu dâm hay dùng cho mục đích hài hước. Tổng thống Mỹ Donald Trump và CEO Facebook Mark Zuckerberg cũng là nạn nhân của deepfake.

Theo Kok, các công ty cần có quy định mạnh hơn và minh bạch hơn để chống lại các vấn đề có thể nảy sinh từ deepfake và rò rỉ dữ liệu sinh trắc. Ông dự đoán sẽ có sự cố lớn làm gián đoạn thị trường.

Một số nhà quản lý và ngân hàng trung ương bắt đầu quan tâm nhiều hơn đến deepfake. Vài tổ chức tài chính, bao gồm HSBC, đã chuẩn bị cho nguy cơ từ deepfake, theo Financial Times. Nguy cơ có thể đến dưới nhiều dạng thức khác nhau như: mở tài khoản gian lận để rửa tiền; tấn công tài khoản của nhân vật cao cấp; lừa doanh nghiệp gửi tiền cho kẻ lừa đảo.

Các giải pháp như thuật toán phát hiện deepfake đang được nghiên cứu. Microsoft gần đây phát triển công cụ xác thực video, tìm những dấu hiệu cho thấy ảnh được chỉnh sửa bằng trí tuệ nhân tạo mà mắt thường không thể phân biệt được.

Tại Trung Quốc, thái độ của công chúng về dữ liệu sinh trắc đang thay đổi. Trong cuộc khảo sát hơn 6.000 người năm 2019, hơn 80% cho biết, họ sợ bị rò rỉ dữ liệu gương mặt, 65% lo ngại về deepfake. Sẽ mất nhiều năm để công chúng nhận thức được về vấn đề này.

Như Gan chỉ ra, phải mất hơn một thập kỷ mọi người mới có thể hiểu rõ vấn đề mà mạng xã hội gây ra. Từng được xem là công cụ để liên lạc với gia đình, bạn bè, mạng xã hội ngày nay bị toàn cầu chỉ trích vì vi phạm quyền riêng tư và lan truyền thông tin sai sự thật.

Du Lam (Theo SCMP)

Deepfake đã tiến đến mức gần "giống như thật", dễ dùng, giá lại cực rẻ

Deepfake đã tiến đến mức gần "giống như thật", dễ dùng, giá lại cực rẻ

Chỉ bằng cách sử dụng phần mềm mã nguồn mở và tiêu tốn chưa đến 100 USD, bạn đã có thể tạo ra những hình ảnh và giọng nói giả mạo tương đối chân thật về bất cứ người nào.

Video deepfake Putin và Kim Jong Un gây sốt trên mạng

Video deepfake Putin và Kim Jong Un gây sốt trên mạng

Video deepfake (hiệu ứng làm giả video ghép hình nhân vật) của Tổng thống Nga Putin và Chủ tịch Triều Tiên Kim Jong Un nói về nước Mỹ được chia sẻ nhiều trên mạng xã hội.