跳到主要內容區塊

有關AI深偽技術成新型詐騙,請民眾多加注意防範

隨著人工智慧發展,深僞(Deepfake)技術恐遭有心人士利用於假訊息、影片、語音等媒體素材合成製作,達到「換臉、變聲」等效果,甚至用於強化詐欺手法的擬真性,令民眾難辯真偽,信以為真!

例如:

電話中再熟悉不過的聲音、影片中的人物面貌…等

都是可以透過AI合成技術來仿冒的! 

請小心 深偽技術 因而受騙,以及它如何被運用於詐騙手法中。