Friday, 29/05/2020 - 07:05:32
Font-Size:

Nguy cơ từ Deepfake lan rộng ra nhiều lãnh vực

Advertising


Kỹ thuật Deepfake được dùng để tạo hình ảnh giả y như thật, như một ví dụ trong hai hình trên đăng trên mạng IEEE Spectrum với hình lấy từ Facebook.

 

Vào tháng trước, chương trình The Last Dance của ESPN chiếu một video quảng cáo của State Farm, và video này sau đó trở thành một trong những quảng cáo được thảo luận nhiều nhất trong lịch sử.

Quảng cáo đó chiếu lại một video từ năm 1998, trong đó một chuyên gia phân tích của ESPN dự đoán chính xác về những gì sẽ xảy ra trong năm 2020. Khi biết đó chỉ là nội dung được tạo từ trí tuệ nhân tạo AI, rất nhiều người đã ngạc nhiên và cảm thấy thích thú. Tuy nhiên, theo truyền thông, lẽ ra người xem nên cảm thấy lo ngại.

Quảng cáo của State Farm chỉ là ví dụ về một hiện tượng mới nhưng đầy nguy hiểm trong lãnh vực trí tuệ nhân tạo - deepfake. Công nghệ này cho phép bất cứ ai có chút ít kiến thức điện toán đều có thể chế tạo hình ảnh, giọng nói và video sinh động như thật về người nào đó đang nói hoặc làm gì đó, mà trên thực tế họ không hề hành động như vậy.

Kết hợp giữa deep learning (học chuyên sâu) và fake (giả mạo), deepfake bắt đầu nổi lên từ cuối 2017. Một số video deepfake thu hút hàng triệu lượt xem đã phần nào giúp mọi người hiểu hơn về công nghệ mới này, như video Mark Zuckerberg thừa nhận mục tiêu của Facebook là khai thác người dùng, hay video Barack Obama bình phẩm với những lời lẽ thô tục về Donald Trump...

Đầu năm 2019, một nhóm hacker dùng công cụ AI nhái giọng CEO của một công ty có trụ sở Đức để gọi điện cho giám đốc chi nhánh ở Anh, đề nghị người này chuyển gấp $243,000 Mỹ kim. Vị giám đốc nhận ra giọng quen thuộc của "sếp" nên không hề nghi ngờ và đã chuyển tiền.

Nội dung deepfake đang phát triển với tốc độ nhanh chóng. Theo công cụ theo dõi Deeptrace, đầu năm 2019 có khoảng 7,964 video deepfake trên mạng, nhưng 9 tháng sau, con số này tăng lên 14,679 video.

"Vào tháng 1, 2019, deepfake vẫn có nhiều lỗi. Tuy nhiên, tôi chưa từng thấy thứ gì cải tiến nhanh như deepfake,” ông Hany Farid, chuyên gia về deepfake tại đại học UC Berkeley nói. Ông cho rằng trong thời gian tới, deepfake sẽ phát triển từ một hiện tượng trên Internet thành một thế lực có sức tàn phá lớn đối với xã hội và chính trị, và mọi người phải chuẩn bị cho điều này.

Thành ngữ có câu "trăm nghe không bằng một thấy,” nhưng với deepfake, "nhìn thấy" cũng chưa chắc đáng tin. Nhiều người dùng Internet vẫn chủ quan, cho rằng deepfake chưa hoàn thiện và họ có thể dễ dàng phân biệt video giả và video thật. Tuy nhiên, mục đích của một số người khi tung ra video deepfake không phải để phô diễn công nghệ, mà là để gây hoang mang, khiến người xem không biết đâu là thật, đâu là giả, từ đó có thể thay đổi ý kiến của nhiều người.

Theo Deeptrace, tính đến tháng 9, 2019, 96% các video deepfake được chia sẻ trên mạng đều là nội dung khiêu dâm, trong đó khuôn mặt của nhiều người nổi tiếng bị gắn vào các hình ảnh khỏa thân. Tuy nhiên, đến nay, deepfake đang lan sang lĩnh vực chính trị với nguy cơ lớn hơn.

Hãy hình dung video deepfake về một chính trị gia có hành động hối lộ hay tấn công tình dục bị tung ra ngay trước một cuộc bầu cử. Thông thường, các tin xấu và gây tranh cãi luôn lan truyền rất nhanh, nhưng các tin đính chính sau đó lại ít người biết tới. Khi người xem không chắc chắn về những gì họ trông thấy, hậu quả có thể mang tính hủy diệt.

"Ngày xưa, nếu muốn đe dọa Hoa Kỳ, đối thủ cần có 10 hàng không mẫu hạm, vũ khí hạt nhân và hỏa tiễn tầm xa,” Nghị Sĩ Marco Rubio nhận xét. "Ngày nay, tất cả những gì bạn cần là khả năng sản xuất một video giả mạo nhưng trông như thật, để gây ảnh hưởng tới kết quả bầu cử, đẩy nước Mỹ vào khủng hoảng và làm suy yếu chúng ta.”

Các chuyên gia công nghệ đồng ý với bình luận này và lo ngại người dùng sẽ có xu hướng hoài nghi mọi video họ xem, kể cả thông tin chính thống. Ông Hani Farid, một trong những chuyên gia hàng đầu thế giới về deepfake, nói: "Nếu bạn không còn tin những video hay những đoạn âm thanh mà bạn xem, đó thật sự là nguy cơ an ninh quốc gia nghiêm trọng.”

Một ví dụ cho ý kiến này là sự kiện ở Gabon cuối năm 2018. Khi đó, Tổng Thống Ali Bongo Ondimba của nước này đã không xuất hiện trước công chúng trong vài tháng. Trong dư luận xuất hiện các tin đồn cho rằng tổng thống Ondimba bệnh nặng, thậm chí đã chết. Nhằm dập tắt tin đồn này, chính phủ đã công bố một video cho thấy tổng thống đọc diễn văn chức mừng năm mới. Trong video, ông Ondimba xuất hiện trông cứng nhắc với nét mặt thiếu tự nhiên. Video lập tức gây nghi ngờ và tranh cãi trên mạng xã hội. Các nhóm chống đối khẳng định video là sản phẩm của deepfake và tổng thống đã qua đời. Ông Ondimba sau đó xuất hiện trở lại và tiếp tục lãnh đạo Gabon. Cho đến nay, giới chuyên gia vẫn chưa thể khẳng định đoạn video của ông có phải là giả mạo hay không.

Các chuyên gia lo ngại deepfake sẽ trở thành vũ khí tấn công với mục đích chính trị tại các nước có dân trí thấp, chưa có kiến thức về kỹ thuật điện toán. Thông tin giả mạo có thể dẫn đến biểu tình, bạo động, gây bất ổn, hoặc phá hoại danh tiếng cá nhân.

Cuộc chiến chống deepfake được ví như trò chơi "mèo vờn chuột" không có hồi kết. Một giải pháp được nhiều nước cân nhắc là đưa ra luật quy định việc tạo và phát tán nội dung deepfake là bất hợp pháp. Vào tháng 10, 2019, California quy định rằng việc tạo hoặc chia sẻ video, hình ảnh, giọng nói của các chính trị gia bằng công nghệ deepfake trước cuộc bầu cử là phạm luật.

Tuy nhiên, các chuyên gia cho rằng giải pháp này vẫn không hiệu quả, do tính ẩn danh và không biên giới của Internet. Trong giai đoạn này, cách hiệu quả nhất là các hãng công nghệ lớn như Facebook, Google và Twitter phải hành động để hạn chế sự lan truyền của những video giả mạo.

Advertising
Advertising
Bình luận
Vô Ngã Phạm Khắc Hàm đã nói: Đúng vậy, nhờ có sự phân tích của Hany Farid, chuyên gia về deepfake tại đại học UC Berkeley, người đọc mới nhận ra mối nguy hiểm khôn lường do kỹ thuật chỉnh sửa khuôn mặt, lời nói với một mục đích xấu, như để tạo một cuộc nội loạn chẳng hạn. Deepfake vốn là sản phẩm của Trí Tuệ Nhân tạo AI nên chuyện này nhắc nhở ta là không có cái gì hoàn toàn tốt cũng như không có cái gì tuyệt đối xấu. Các cụ đời xưa đã nói một câu đầy minh triết: "thuyền chở người mà cũng có thể đắm người'. "
Vô Ngã Phạm Khắc Hàm đã nói: Bài "...Nguy cơ từ Deepfake" đã THỨC TỈNH người đọc về những nguy hiểm có thể sẩy ra, do AI đưa tới. Thật vậy, người ta thường chỉ nghĩ tới viễn ảnh tươi sáng khi phát triển Trí Tuệ Nhân Tạo mà không nghĩ tới hậu quả khôn lường khi người sáng chế muốn phá hoại thế giới." đã THỨC TỈNH người đọc về những nguy hiểm có thể sẩy ra, do AI đưa tới. Thật vậy, người ta thường chỉ nghĩ tới viễn ảnh tươi sáng khi phát triển Trí Tuệ Nhân Tạo mà không nghĩ tới hậu quả khôn lường khi người sáng chế muốn phá hoại thế giới.
Bình luận Facebook

Bình luận trực tiếp

Về đầu trang