【防詐騙宣導】眼見不為憑 AI變臉詐騙 一秒變爺爺!!! 發佈日期: 2023-08-28 作者: 洪松山 matsuyama 「#眼見不為憑#AI變臉詐騙」 #一秒變爺爺 近期深度偽造(#Deepfake)技術的快速發展,已對社會帶來巨大衝擊,這項技術可以製造出~#逼真的虛假影像和音訊,將人們的臉孔和聲音合成到完全捏造的場景中,不肖分子可能使用這種技術,#假冒你的親友或名人,製造出混亂治安的假訊息! 刑事警察局呼籲大眾,請務必提高警覺,進行查證,#發現深偽犯罪請立刻檢舉或撥打165反詐騙諮詢專線! #反詐請撥165查詢 #眼見不為憑 #聲音可偽造 #眼見不為憑????#AI變臉詐騙❗️」Facebook 資訊來源:165全民防騙 | Facebook 學生事務處生活輔導組提醒您