咨詢客服
立即升級

謹防詐騙知識科普簡約橙色模板

眼見未必為實

謹防詐騙

BEWARE OF FRAUD



謹防AI新騙局

10分鐘被騙430萬元

近期,“AI換臉”的應用范圍越來越廣,但存在濫用之嫌,甚至有人利用AI換臉實施犯罪,例如偽造不雅視頻、換臉詐騙等。前不久,就有一男子因AI“偷臉”,10分鐘被騙430萬元。



10分鐘被騙430萬元
BEWARE OF FRAUD



近日,內蒙古包頭JIN方發(fā)布一起利用AI實施電信詐騙的典型案例。

來自福建的郭先生是一家科技公司的法人代表。今年4月,他的好友突然通過微信視頻聯系他,稱自己的朋友在外地競標,需要430萬元保證金,想借用郭先生公司的賬戶走賬。

基于對好友的信任,加上已經視頻聊天“核實”了身份,郭先生在10分鐘內,先后分兩筆把430萬元轉到了對方的銀行賬戶上。事后,郭先生撥打好友電話才得知被騙,原來騙子通過AI換臉和擬聲技術,佯裝好友對其實施詐騙。


眼見未必為實



AI換臉冒充明星帶貨
BEWARE OF FRAUD




除了佯裝“熟人臉”實施詐騙,AI換臉還可能出現在直播帶貨中。最近,網上出現了一些“換臉直播”教程,教程發(fā)布者聲稱實時變臉軟件可以幫助用戶輕松“變臉”,極大地助力引流賣貨。

在一個展示換臉直播效果的視頻中,使用者把名為“成龍”的模型載入相關軟件后,攝像頭前的人在直播畫面中就有了與成龍相似的五官,但臉型和發(fā)型還保持原樣。記者發(fā)現,使用者歪頭或變換表情時,五官動效切換得自然順滑,只有手掌從臉前劃過時,出現了比較明顯的破綻。


眼見未必為實



整治AI換臉,要用“法”打敗“魔法”
BEWARE OF FRAUD



整治AI換臉,當用“法”打敗“魔法”。這個法,是方法、辦法的法。有人說,防騙最有效的一招就是不信,無論對方怎么“換”、怎么變、怎么翻著花樣騙,就是“不聽不信不轉賬”。

這個法,也是法規(guī)、法律的法。此前,一款主打AI換臉的App很火,“只需一張照片,演遍天下好戲”。但很快,在監(jiān)管部門約談后,這款App下架,原因很簡單,如此換臉侵犯了公民的肖像權。

去年12月,《互聯網信息服務深度合成管理規(guī)定》發(fā)布,對人臉生成、替換、操控,合成人聲、仿聲等都有明確約束。顯然,隨著制度設計更精準,相關立法更健全,AI換臉空間將越來越逼仄。


眼見未必為實


2023
立即掃碼

排版|135編輯器素材|135編輯器

文字|135AI寫作,僅用作占位,使用時請?zhí)鎿Q

圖片|135攝影圖(ID:43944)使用時請自行替換



價格: 會員免費
模板編號: 134155
投訴

手機掃碼預覽

立即購買