AI 換臉詐騙是什麼?
AI 換臉詐騙是利用 Deepfake(深度偽造)技術,把一個人的臉即時替換成另一個人,用在視訊通話或影片中進行詐騙。隨著 AI 技術進步,2026 年的 Deepfake 已經可以做到幾乎肉眼看不出破綻。
AI 換臉詐騙 vs 傳統詐騙:
| 項目 | 傳統冒充詐騙 | AI 換臉詐騙 |
|---|---|---|
| 冒充方式 | 電話口頭宣稱 | 即時視訊換臉,看到「本人」的臉 |
| 可信度 | 中等,聽聲音可能懷疑 | 極高,臉和聲音都像本人 |
| 技術門檻 | 低(只需一支電話) | 中等(但工具越來越容易取得) |
| 製作成本 | 幾乎零成本 | 過去很高,現在大幅降低 |
| 辨識難度 | 較容易識破 | 非常困難 |
台灣近年的 AI 換臉詐騙案例
AI 換臉詐騙在全球快速蔓延,以下是近年的重大案例:
| 時間 | 地點 | 案例 | 損失金額 |
|---|---|---|---|
| 2024 年初 | 香港 | 員工被 AI 換臉的「財務長」視訊騙走匯款 | 約 8 億台幣 |
| 2024 年 | 台灣 | 詐騙集團用目標親友照片訓練 AI,視訊借錢 | 數十萬至百萬 |
| 2025 年 | 台灣 | 冒充名人的 AI 換臉投資廣告在社群擴散 | 大量受害 |
| 2025 年 | 全球 | AI 生成的假名人代言影片泛濫於 YouTube 和 Facebook | 難以統計 |
台灣的 165 反詐騙專線指出,AI 相關的詐騙通報從 2024 年起大幅增加,其中以「假名人投資廣告」和「AI 語音冒充親友」最為常見。
Deepfake 影片怎麼辨識?
雖然 Deepfake 技術越來越好,但目前仍有一些破綻可以觀察:
5 個視覺辨識重點
1. 臉部邊緣
AI 換臉在臉部與背景的交界處容易出現:
- 不自然的模糊或閃爍
- 膚色跟脖子不一致
- 髮際線附近有像素異常
2. 眼睛和眨眼
- 早期 Deepfake 的眨眼頻率不自然,但 2026 年的技術已改善很多
- 注意瞳孔反光是否一致(真人的兩眼反光位置對稱)
- 眼球移動是否過於平滑或不協調
3. 嘴型同步
- 嘴巴的動作跟聲音是否完全同步
- 說話時牙齒和舌頭的細節是否自然
- 大笑或張大嘴時 AI 容易出錯
4. 大幅度動作
- 要求對方快速轉頭、用手遮臉、把頭低到畫面下方再抬起
- AI 換臉在大幅度動作時容易出現「臉跟不上」的情況
- 側臉角度超過 45 度時破綻最明顯
5. 光線變化
- 如果可以,請對方靠近或遠離光源
- AI 在處理光線變化時可能出現不自然的陰影
- 臉部光影跟環境光不一致
防範驗證法
| 驗證方式 | 做法 | 原理 |
|---|---|---|
| 動作測試 | 要求對方用手遮住半邊臉 | AI 換臉在遮擋時會露出原始臉部 |
| 知識測試 | 問只有本人知道的事 | AI 可以換臉但不知道私密資訊 |
| 角度測試 | 請對方轉頭 90 度 | 極端角度 AI 容易失真 |
| 掛斷回撥 | 掛掉視訊,用已知號碼打回去 | 確認是否為本人 |
| 暗語測試 | 說出事先約定的家庭暗語 | 最可靠的身分驗證方式 |
AI 語音詐騙怎麼防?
AI 語音克隆技術比換臉更難防範,因為只需要 3 秒鐘的語音樣本就能複製一個人的聲音。
語音來源管道
詐騙集團會從以下管道取得你的語音樣本:
| 管道 | 風險程度 |
|---|---|
| Facebook/Instagram 的影片 | 高(公開可取得) |
| YouTube 頻道 | 高 |
| LINE 語音訊息(被轉發) | 中 |
| Podcast 或演講錄影 | 高 |
| 公司網站的影片介紹 | 中 |
防範 AI 語音詐騙的方法
1. 建立家庭暗語
這是目前最有效的防範方式。跟家人約定一句只有彼此知道的通關密語:
| 好的暗語 | 不好的暗語 |
|---|---|
| 「我們家那個壞掉的電鍋」(具體且私密) | 「我愛你」(太常見,可能被猜到) |
| 一串無意義的數字或詞組 | 生日或紀念日(可從社群推測) |
| 只有家人知道的笑話或事件 | 寵物名字(可能在社群公開過) |
2. 掛掉後用已知號碼回撥
收到任何要求匯款或提供個資的電話,不管聲音多像本人:
- 先掛掉電話
- 從手機通訊錄中找到本人的號碼
- 主動打電話過去確認
3. 減少公開的語音素材
- 社群平台的影片和限時動態設定為好友可見
- 避免在公開平台發布長時間的語音內容
- LINE 語音訊息發完後考慮設定「限時已讀即刪」
AI 生成的假名人影片怎麼辨識?
台灣最常見的 AI 詐騙之一就是利用名人的 AI 換臉影片來推銷假投資:
常見手法:
- 用知名企業家、藝人的臉和聲音製作推薦影片
- 在 Facebook、YouTube、Instagram 投放廣告
- 標題通常是「某某某推薦的賺錢方法」、「某財經專家獨家投資系統」
辨識方式:
| 觀察項目 | 可疑跡象 |
|---|---|
| 影片品質 | 解析度偏低或畫質不穩定 |
| 背景 | 背景過於簡單或模糊 |
| 嘴型 | 嘴巴動作與語音不完全同步 |
| 內容 | 保證獲利、號稱零風險 |
| 連結 | 導向不明網站或要求下載 APP |
| 官方管道 | 去名人的官方社群帳號查證,通常會有澄清聲明 |
免費的 Deepfake 檢測工具
目前有一些工具可以幫助辨識 AI 生成的影片和圖片:
| 工具 | 類型 | 使用方式 | 費用 |
|---|---|---|---|
| Microsoft Video Authenticator | 影片檢測 | 上傳影片分析 | 免費(限特定機構) |
| Hive Moderation | 圖片/影片檢測 | API 或線上上傳 | 免費試用 |
| Sensity AI | Deepfake 偵測 | 線上上傳分析 | 部分免費 |
| FakeCatcher(Intel) | 即時檢測 | 分析血流模式 | 研究階段 |
| AI or Not | 圖片檢測 | 上傳圖片判斷是否 AI 生成 | 免費(有次數限制) |
注意:沒有任何工具能 100% 準確判斷。這些工具可以作為輔助,但不能完全取代你的判斷。最有效的防範方式仍然是「掛掉重撥」和「家庭暗語」。
社群平台上的 AI 詐騙廣告怎麼檢舉?
如果你在 Facebook、Instagram、YouTube 上看到可疑的 AI 換臉廣告:
Facebook/Instagram 檢舉流程:
- 點擊廣告右上角的「...」或「⋮」
- 選擇「檢舉廣告」→「詐騙或誤導」
- 附上說明(如「此影片使用 AI 換臉技術冒充名人」)
YouTube 檢舉流程:
- 點擊影片下方的「...」→「檢舉」
- 選擇「垃圾內容或誤導」→「詐騙或詐欺」
向 165 反詐騙專線通報:
- 撥打 165 通報可疑的 AI 詐騙內容
- 提供廣告的截圖、連結和詐騙帳號資訊
- 165 會協調平台下架
被 AI 換臉詐騙了怎麼辦?
如果你已經被 AI 換臉或語音詐騙受害:
立即處理步驟:
| 步驟 | 行動 | 說明 |
|---|---|---|
| 1 | 撥打 165 反詐騙專線 | 報告經過,啟動帳戶圈存 |
| 2 | 聯繫銀行 | 嘗試攔截匯款,凍結可疑交易 |
| 3 | 到派出所報案 | 取得報案三聯單 |
| 4 | 保存所有證據 | AI 影片/語音、對話紀錄、匯款明細 |
| 5 | 通知被冒充的本人 | 讓對方知道身分被盜用 |
證據保全特別重要:
- 保存 AI 換臉的視訊錄影或截圖
- 保存 AI 語音的錄音檔
- 截圖所有對話紀錄(含時間戳)
- 記錄對方使用的平台、帳號、號碼
常見問題
Deepfake 技術是違法的嗎?
Deepfake 技術本身不違法,它在影視製作、教育和藝術領域有合法用途。但利用 Deepfake 進行詐騙、製作非經同意的色情影片、誹謗他人,則分別可能觸犯《刑法》的詐欺罪、《兒童及少年性剝削防制條例》、妨害名譽罪等。2024 年起,台灣也加強了對 AI 深偽技術濫用的法律規範。
家庭暗語真的有效嗎?
非常有效。AI 可以複製你的臉和聲音,但無法知道你跟家人之間的私密約定。暗語的關鍵是要夠私密(不能是社群上公開過的資訊)、夠具體(不會被猜到),而且全家人都要記得。建議定期更換暗語,並確保家中長輩也熟悉這個機制。
我的照片和影片被拿去做 Deepfake 怎麼辦?
如果發現自己的肖像被用於 AI 換臉影片,可以採取以下行動:向影片發布平台檢舉並要求下架、向 165 反詐騙專線通報、保存證據後到派出所報案、以及考慮諮詢律師提起民事訴訟求償。同時建議降低社群上公開影片和照片的數量,減少被利用的素材。
長輩不懂 AI 技術,怎麼教他們防範?
不需要解釋 AI 技術的原理。只需要告訴長輩三件事:第一,現在的技術可以假造任何人的臉和聲音,視訊看到的人不一定是真人。第二,不管是誰打電話來要錢,一律先掛掉,用自己手機裡存的號碼打回去確認。第三,約定一句家庭暗語,收到可疑電話時用暗語確認身分。把這三點反覆提醒就好。
延伸閱讀
- AI 詐騙防範完整指南 — Deepfake、AI 語音、假 AI 投資平台
- 電話詐騙辨識 — 常見電話詐騙手法與防範
- 投資詐騙辨別 — 假投資平台的辨識方式
- 防詐工具推薦 — 免費的詐騙檢測工具與查證網站
- LINE 詐騙防範 — LINE 帳號安全與常見詐騙手法