faqs.tw 台灣生活常見問題

AI 換臉詐騙是什麼?

AI 換臉詐騙是利用 Deepfake(深度偽造)技術,把一個人的臉即時替換成另一個人,用在視訊通話或影片中進行詐騙。隨著 AI 技術進步,2026 年的 Deepfake 已經可以做到幾乎肉眼看不出破綻。

AI 換臉詐騙 vs 傳統詐騙:

項目 傳統冒充詐騙 AI 換臉詐騙
冒充方式 電話口頭宣稱 即時視訊換臉,看到「本人」的臉
可信度 中等,聽聲音可能懷疑 極高,臉和聲音都像本人
技術門檻 低(只需一支電話) 中等(但工具越來越容易取得)
製作成本 幾乎零成本 過去很高,現在大幅降低
辨識難度 較容易識破 非常困難

台灣近年的 AI 換臉詐騙案例

AI 換臉詐騙在全球快速蔓延,以下是近年的重大案例:

時間 地點 案例 損失金額
2024 年初 香港 員工被 AI 換臉的「財務長」視訊騙走匯款 約 8 億台幣
2024 年 台灣 詐騙集團用目標親友照片訓練 AI,視訊借錢 數十萬至百萬
2025 年 台灣 冒充名人的 AI 換臉投資廣告在社群擴散 大量受害
2025 年 全球 AI 生成的假名人代言影片泛濫於 YouTube 和 Facebook 難以統計

台灣的 165 反詐騙專線指出,AI 相關的詐騙通報從 2024 年起大幅增加,其中以「假名人投資廣告」和「AI 語音冒充親友」最為常見。

Deepfake 影片怎麼辨識?

雖然 Deepfake 技術越來越好,但目前仍有一些破綻可以觀察:

5 個視覺辨識重點

1. 臉部邊緣

AI 換臉在臉部與背景的交界處容易出現:

2. 眼睛和眨眼

3. 嘴型同步

4. 大幅度動作

5. 光線變化

防範驗證法

驗證方式 做法 原理
動作測試 要求對方用手遮住半邊臉 AI 換臉在遮擋時會露出原始臉部
知識測試 問只有本人知道的事 AI 可以換臉但不知道私密資訊
角度測試 請對方轉頭 90 度 極端角度 AI 容易失真
掛斷回撥 掛掉視訊,用已知號碼打回去 確認是否為本人
暗語測試 說出事先約定的家庭暗語 最可靠的身分驗證方式

AI 語音詐騙怎麼防?

AI 語音克隆技術比換臉更難防範,因為只需要 3 秒鐘的語音樣本就能複製一個人的聲音。

語音來源管道

詐騙集團會從以下管道取得你的語音樣本:

管道 風險程度
Facebook/Instagram 的影片 高(公開可取得)
YouTube 頻道
LINE 語音訊息(被轉發)
Podcast 或演講錄影
公司網站的影片介紹

防範 AI 語音詐騙的方法

1. 建立家庭暗語

這是目前最有效的防範方式。跟家人約定一句只有彼此知道的通關密語:

好的暗語 不好的暗語
「我們家那個壞掉的電鍋」(具體且私密) 「我愛你」(太常見,可能被猜到)
一串無意義的數字或詞組 生日或紀念日(可從社群推測)
只有家人知道的笑話或事件 寵物名字(可能在社群公開過)

2. 掛掉後用已知號碼回撥

收到任何要求匯款或提供個資的電話,不管聲音多像本人:

  1. 先掛掉電話
  2. 從手機通訊錄中找到本人的號碼
  3. 主動打電話過去確認

3. 減少公開的語音素材

AI 生成的假名人影片怎麼辨識?

台灣最常見的 AI 詐騙之一就是利用名人的 AI 換臉影片來推銷假投資:

常見手法:

辨識方式:

觀察項目 可疑跡象
影片品質 解析度偏低或畫質不穩定
背景 背景過於簡單或模糊
嘴型 嘴巴動作與語音不完全同步
內容 保證獲利、號稱零風險
連結 導向不明網站或要求下載 APP
官方管道 去名人的官方社群帳號查證,通常會有澄清聲明

免費的 Deepfake 檢測工具

目前有一些工具可以幫助辨識 AI 生成的影片和圖片:

工具 類型 使用方式 費用
Microsoft Video Authenticator 影片檢測 上傳影片分析 免費(限特定機構)
Hive Moderation 圖片/影片檢測 API 或線上上傳 免費試用
Sensity AI Deepfake 偵測 線上上傳分析 部分免費
FakeCatcher(Intel) 即時檢測 分析血流模式 研究階段
AI or Not 圖片檢測 上傳圖片判斷是否 AI 生成 免費(有次數限制)

注意:沒有任何工具能 100% 準確判斷。這些工具可以作為輔助,但不能完全取代你的判斷。最有效的防範方式仍然是「掛掉重撥」和「家庭暗語」。

社群平台上的 AI 詐騙廣告怎麼檢舉?

如果你在 Facebook、Instagram、YouTube 上看到可疑的 AI 換臉廣告:

Facebook/Instagram 檢舉流程:

  1. 點擊廣告右上角的「...」或「⋮」
  2. 選擇「檢舉廣告」→「詐騙或誤導」
  3. 附上說明(如「此影片使用 AI 換臉技術冒充名人」)

YouTube 檢舉流程:

  1. 點擊影片下方的「...」→「檢舉」
  2. 選擇「垃圾內容或誤導」→「詐騙或詐欺」

向 165 反詐騙專線通報:

  1. 撥打 165 通報可疑的 AI 詐騙內容
  2. 提供廣告的截圖、連結和詐騙帳號資訊
  3. 165 會協調平台下架

被 AI 換臉詐騙了怎麼辦?

如果你已經被 AI 換臉或語音詐騙受害:

立即處理步驟:

步驟 行動 說明
1 撥打 165 反詐騙專線 報告經過,啟動帳戶圈存
2 聯繫銀行 嘗試攔截匯款,凍結可疑交易
3 到派出所報案 取得報案三聯單
4 保存所有證據 AI 影片/語音、對話紀錄、匯款明細
5 通知被冒充的本人 讓對方知道身分被盜用

證據保全特別重要:

常見問題

Deepfake 技術是違法的嗎?

Deepfake 技術本身不違法,它在影視製作、教育和藝術領域有合法用途。但利用 Deepfake 進行詐騙、製作非經同意的色情影片、誹謗他人,則分別可能觸犯《刑法》的詐欺罪、《兒童及少年性剝削防制條例》、妨害名譽罪等。2024 年起,台灣也加強了對 AI 深偽技術濫用的法律規範。

家庭暗語真的有效嗎?

非常有效。AI 可以複製你的臉和聲音,但無法知道你跟家人之間的私密約定。暗語的關鍵是要夠私密(不能是社群上公開過的資訊)、夠具體(不會被猜到),而且全家人都要記得。建議定期更換暗語,並確保家中長輩也熟悉這個機制。

我的照片和影片被拿去做 Deepfake 怎麼辦?

如果發現自己的肖像被用於 AI 換臉影片,可以採取以下行動:向影片發布平台檢舉並要求下架、向 165 反詐騙專線通報、保存證據後到派出所報案、以及考慮諮詢律師提起民事訴訟求償。同時建議降低社群上公開影片和照片的數量,減少被利用的素材。

長輩不懂 AI 技術,怎麼教他們防範?

不需要解釋 AI 技術的原理。只需要告訴長輩三件事:第一,現在的技術可以假造任何人的臉和聲音,視訊看到的人不一定是真人。第二,不管是誰打電話來要錢,一律先掛掉,用自己手機裡存的號碼打回去確認。第三,約定一句家庭暗語,收到可疑電話時用暗語確認身分。把這三點反覆提醒就好。

延伸閱讀

分享:

📖 延伸閱讀