AILiteracy Lab
繁中 EN 開始鑑識
本章研究支點
「可不可以用 AI」不是重點;重點是你怎麼交代來源、保留人類判斷,並避免把 AI 當代工。
  • UNESCO 強調教育中的生成式 AI 應採人類代理、人類監督與年齡適配的原則。
  • Common Sense 對家長與學生的建議很直接:AI 可能出錯、通常不會附來源,也可能涉及抄襲與校規問題。
  • NIST 把透明、可說明、有效且可靠的使用方式,放在 AI 信任治理的核心。
Chapter 05 · 負責任使用

會用比會問更重要:
學習、工作與分享中的 AI 使用原則

真正困難的問題通常不是「AI 能不能用」,而是「能用到哪裡」。可以直接把 Gemini 產出的段落交出去嗎?用 AI 整理資料時要不要標註?對於可疑內容,什麼時候該停止轉傳、什麼時候該提出更正?本章聚焦在負責任採用與行動判準。

三色決策框架:「我應該分享嗎?」

🟢 低風險 — 可以分享(附來源)

條件:多個可信的獨立媒體已報導 + 反向圖片/影片搜索未找到更早版本 + AI 鑑識分數低(如有使用)。

建議:可以分享,但建議附上原始來源連結(而不只是截圖),讓看到的人也能查核。

🟡 中風險 — 謹慎分享(附免責說明)

條件:來源存疑但尚未確認為假 + 只有一個來源 + 事實查核機構尚未回應。

建議:如果認為資訊值得分享,請在前面附上「此訊息未經查核,請謹慎判斷」。或者等待事實查核機構的報告後再分享。

🔴 高風險 — 不分享,考慮通報

條件:有明顯的假訊息跡象 + 涉及可能傷害他人名譽的深偽 + 與已知詐騙模式相符。

建議:不分享。考慮向平台舉報,或向相關機構通報(見下方清單)。如果你知道有人可能已相信這則內容,考慮主動提供更正資訊。

如何有效糾正假訊息:「後退效應」的陷阱

研究顯示,不正確的糾正方式反而可能強化假訊息的記憶痕跡。這被稱為「後退效應(Backfire Effect)」——當我們直接反駁某人相信的東西時,他們可能更加固守原有信念。

不過,2019 年後的更新研究顯示,「後退效應」在大多數情況下沒有早期研究描述的那麼強烈。但有效的糾正仍需遵循以下原則:

✅ 有效糾正的四個原則
  • 先提供正確資訊,再解釋錯誤:「正確的說法是…(正確版本)。原本流傳的影片使用了速度操縱技術,把播放速度降低了25%。」不要先複述假訊息本身。
  • 解釋「為什麼這個謊言有效」:說明操縱手法本身(例如「這種技術叫廉價偽造,只需要一個免費的影片編輯軟體」),讓對方理解他們被操縱的機制。
  • 避免攻擊個人:批評「這則訊息」而不是「傳播這則訊息的人」。對人的攻擊會觸發防衛心理,讓對方更難接受更正。
  • 提供「替代敘事」:人的大腦不喜歡空白。當你移除一個解釋時,要同時提供另一個解釋(例如「這其實是2018年的舊照片,當時是花蓮地震的災情」)。

台灣通報管道完整指南

情況通報對象聯絡方式
選舉相關假訊息中央選舉委員會1800-024-099 (免費)
深偽詐騙、電話詐騙165 反詐騙專線撥打 165
一般假訊息查核台灣事實查核中心tfcctw.org
深偽性內容(NCII)iWIN 網路內容防護機構iwin.org.tw
Facebook/Instagram 上的假訊息Meta 舉報系統三點選單 → 回報
YouTube 深偽廣告Google 廣告舉報ads.google.com/report
LINE 群組假訊息LINE 官方舉報line.me/support

台灣深偽相關法律框架

台灣目前已建立以下法律規範,針對深偽的製造和傳播:

⚖️ 主要法律依據
  • 《刑法》第 310 條(誹謗罪):散布深偽影片損害他人名譽,最高處 2 年有期徒刑或拘役。如公然侮辱,最高拘役或 9,000 元罰金。
  • 《總統副總統及各級選舉罷免法》第 104 條:選舉期間散布候選人深偽不實資訊,最高 5 年有期徒刑,可加重其刑至 1/2。
  • 2023 年《性別平等教育法》修正條款:明確禁止未經當事人同意製作或散布含有其影像的深偽性內容,最高處 3 年有期徒刑。
  • 《詐欺罪》加重條款:使用深偽技術實施詐騙,可依《刑法》第 339-4 條加重其刑至 1/2(最高 10 年)。

企業和組織的深偽防禦規範

Arup 香港案例(2024)說明了為什麼企業需要主動建立深偽防禦機制。以下是各組織應考慮導入的核心措施:

  • 帶外驗證(OOB)流程:建立規定,所有超過設定金額(例如 5 萬台幣)的財務指令,必須透過第二個完全獨立的管道(直撥已知電話號碼)確認,無論發出指令的管道看起來多麼可信。
  • 深偽識別員工訓練:每年一次的深偽識別訓練,包括模擬深偽視訊通話演練(類似防釣魚郵件的模擬演習)。
  • 預設挑戰問題:高層管理者之間預先約定一套「挑戰問題」,可在視訊會議開始時要求對方回答,驗證身份。
  • 深偽事件應變計畫(DIRP):制定深偽攻擊發生時的快速應變程序,包括公關聲明範本、法律通報流程、技術鑑識啟動程序。

互動投影片

Ch.05 · 負責任使用
1 / 4
01 / 04
三色決策框架

🟢 低風險

多媒體確認 + 搜索無更早版本 + 鑑識低分 → 可分享,附來源

🟡 中風險

來源存疑,尚未查核 → 等待查核結果,或附免責說明再分享

🔴 高風險

明確假訊息跡象 + 可能傷害他人 → 不分享,考慮通報

⚠️ 緊急通報

涉及公共安全、選舉干預、詐騙 → 立即通報相關機構

02 / 04
有效糾正的四原則
#原則說明
1先說正確版本不要先複述假訊息
2解釋操縱手法讓對方理解「被騙的機制」
3不攻擊個人批評訊息,不批評人
4提供替代敘事移除舊解釋,同時提供新解釋
03 / 04
台灣通報管道速查

165

深偽詐騙、投資詐騙

1800-024-099

選舉相關假訊息

tfcctw.org

一般假訊息查核

iwin.org.tw

非自願性深偽親密影像

04 / 04
保存證據的重要性

若你是深偽詐騙或假訊息的受害者,在通報前請先保存:

  • 截圖或下載可疑的影片/圖片(標注查看時間)
  • 保存所有與對方的通訊記錄(聊天記錄、電子郵件)
  • 保存廣告截圖和廣告連結(URL)
  • 記錄轉帳記錄和時間戳
  • 如能取得,保存原始帳號資訊(用戶名、電話號碼)

真實案例研究

FAKE · AI Voice
英國能源公司 CEO 語音克隆詐騙案(2019)

2019年,英國某能源公司(名稱因法律原因未公開)的 CEO 接到一通電話,說話者使用了德國口音,聲音與德國母公司董事長極為相似。「董事長」以緊急語氣說,公司與一家匈牙利供應商有一筆即將到期的緊急付款,要求 CEO 立即轉帳 22 萬歐元(約台幣 720 萬元)。CEO 認為聲音確實是董事長本人,依指示完成轉帳。

對方隨後要求追加第二筆款項。CEO 這時起疑,嘗試回撥確認,才發現真正的董事長從未打過這通電話。安全研究機構 Symantec 後來確認,這是首批被公開記錄的商業 AI 語音克隆詐騙案例。

  • 收到「緊急轉帳指令」,無論對方聲音多像熟人,必須透過第二個獨立管道(直撥對方的已知手機號碼)確認
  • 建立「帶外驗證(OOB)」的企業規範:所有大額轉帳都需要兩個獨立管道的確認
  • 對「緊急」二字保持高度警覺——製造時間壓力是詐騙的核心手法
Wall Street Journal, Symantec, 2019
FAKE · 選舉干預
拜登 AI 語音機器人電話:「不要去投票」(2024)

2024年1月,美國新罕布什爾州初選前夕,數千名民主黨選民接到一通機器人電話,使用了高度逼真的美國總統拜登語音克隆,說:「選舉在11月,不是今天。今天投票會讓川普輕易獲勝。把你的票留到11月的大選。」訊息設計目的,是壓制民主黨選民在初選中的投票率。

FCC(聯邦通訊委員會)隨後認定,電話由政治顧問 Steve Kramer 策劃,使用了商業 AI 語音克隆服務生成拜登的聲音。Kramer 最終支付超過 600 萬美元罰款,此案推動了美國各州迅速立法規範 AI 語音在選舉中的使用。

選舉前要特別警覺以下訊息類型:① 「要你不去投票」② 「改變投票地點或時間」③ 「選舉取消或延期」——這些是選舉干預的經典手法,AI 語音讓它們的成本降至幾乎為零。收到任何此類訊息,立即聯絡選舉委員會(台灣:1800-024-099)查詢,不要相信任何電話、訊息或社群媒體帖文中的這類說法。

FCC, New York Times, CNN, January–March 2024