AILiteracy Lab
繁中 EN 開始鑑識
本章研究支點
這一章要建立的不是「逢 AI 必反」,而是先暫停、再查源、最後判斷。
  • MIT 與 Science 的研究指出,假訊息在社群平台上擴散得更快、更深,而且主要驅動者是人,不只是機器人。
  • Cambridge 的 prebunk/Bad News 研究支持「先練過操弄手法,再遇到假訊息時比較不容易被帶走」。
  • SIFT 的四步驟把「先停、先查來源、追原始脈絡」變成可以反覆練習的資訊判讀流程。
Chapter 01 · 認識 AI

先認識 AI,才能談信任:
生成式 AI 能做什麼、不能做什麼

AI 現在可以寫文案、整理資料、生成圖片、模仿聲音,也會用很流暢的語氣回答問題。但流暢不等於正確,逼真也不等於真實。AI 素養的第一步不是直接談 deepfake,而是先理解生成式 AI 的能力邊界,以及人類在什麼情境下最容易把它錯當成權威。

為什麼假訊息傳播那麼快

2018年,麻省理工學院媒體實驗室研究團隊在 Science 發表研究,分析 2006 至 2017 年間 Twitter 上約 12.6 萬則已查證謠言與約 300 萬次轉推後指出:假訊息在平台上傳得更快、也更深;其中最常被引用的三個數字是傳播速度約快 6 倍、觸及獨立用戶數約多 70%、擴散深度可達約 10 倍MIT News / Science 2018

研究者還特別指出,這波擴散不是主要由機器人造成,而是由真實使用者在情緒與新奇感驅動下加速轉傳。這對 AI 素養很重要,因為問題往往不是「有人做假」,而是「很多正常人被推著一起放大」。 MIT News / Science 2018

理解這個機制的意義重大:如果假訊息是「情緒的武器」,那麼對抗假訊息最有效的第一步,就是在情緒被觸發的那一刻,刻意「踩一下煞車」。

認知偏差:你的大腦天生就容易被騙

人類的大腦有兩套決策系統,心理學家 Daniel Kahneman 在《快思慢想》中稱之為「系統一」和「系統二」:

  • 系統一(快速):自動的、直覺的、情緒性的。每天做 95% 以上的日常決策,速度很快但容易出錯。
  • 系統二(慢速):分析的、理性的、刻意的。速度慢、消耗認知資源,但準確率高。

假訊息的設計目的,就是讓你的系統一「劫持」系統二。以下是幾個最常被利用的認知偏差:

📌 關鍵概念:五大認知偏差
  • 確認偏誤(Confirmation Bias):我們傾向相信符合我們既有觀點的資訊,這是假訊息製造者最愛利用的弱點。如果你政治立場偏左,你更容易不加查核地轉發批評右翼的假新聞;反之亦然。
  • 真相幻覺效應(Illusory Truth Effect):一則訊息被重複看到的次數越多,大腦就越容易把它當成真實。這就是為什麼謠言喜歡在群組裡反覆轉傳。
  • 流利性偏誤(Fluency Bias):排版精美、影片畫質清晰的內容,會讓人下意識覺得更可信。深偽影片正是利用這個偏誤——「看起來這麼清楚,應該是真的吧?」
  • 社會驗證效應(Social Proof):「這麼多人分享,應該是真的吧?」轉發數量不等於真實性,但大腦的捷徑常常這樣計算。
  • 稀缺性原則(Scarcity Principle):「快轉,過了就看不到了!」製造緊迫感讓人沒時間思考,是假訊息常見的催化劑。

七大觸發警示詞

假訊息製造者有一套固定的「觸發詞」工具箱,這些詞彙出現時,你的系統一就會被自動啟動。學會識別它們,可以大幅提高你的防衛能力:

觸發詞類型典型例句設計意圖
機密感「獨家曝光」「主流媒體封鎖」讓你覺得自己掌握了特殊資訊
緊迫感「緊急!快轉」「12小時內刪除」剝奪你查核的時間
社群壓力「真正關心的人才會轉」「不傳是沒良心」用道德綁架代替邏輯
陰謀感「他們不想讓你知道」「政府在掩蓋」建立「我們 vs. 他們」框架
權威偽裝「研究顯示」「專家透露」(無出處)借用信任光環而無需承擔責任

SIFT 框架:媒體素養的四個步驟

SIFT 是資訊素養教育者 Mike Caulfield 整理出的四步驟框架,核心精神不是「背下正確答案」,而是先停、先查來源,再回頭看內容與原始脈絡。這套方法特別適合拿來處理生成式 AI 的回答,因為 AI 很會整理語句,卻不一定先替你完成來源驗證。 SIFT

🎯 SIFT 框架
SStop暫停。不要在情緒高漲時做決定。先問:「我現在感到憤怒/驚訝/恐懼嗎?為什麼?」
IInvestigate the Source先查來源,後看內容。在你深讀文章前,先用 30 秒搜尋「這個來源是誰?可信嗎?」
FFind Better Coverage搜尋其他可信媒體是否有相同報導。一個重大事件,可信媒體通常都會報。如果只有一個來源,要特別小心。
TTrace Claims追溯圖片/影片/數據的原始來源。反向圖片搜索、TinEye、InVID 都是你的工具。找到源頭,才能評估真實性。

預防接種理論:為什麼提前「練習」有用

Cambridge 大學心理學教授 Sander van der Linden 花了數年研究一個問題:如何讓人對假訊息「免疫」?他的答案是「預防接種理論(Inoculation Theory)」。

就像醫學疫苗一樣,預防接種理論認為:如果提前讓人接觸「弱化版的操弄手法」,並且明確告訴他這是在操弄,他未來再遇到類似話術時,比較不容易直接相信。Cambridge 團隊在 Bad News 等研究裡反覆驗證過這個方向,效果通常不是讓人變成專家,而是讓人更願意停一下、辨認套路、少被第一時間牽著走。 Cambridge

✅ 這正是本課程的設計原理
你正在閱讀的每一個操縱手法說明、每一個真實案例,都是在為你的大腦「打疫苗」。你接觸的假訊息套路越多,當你在現實中遇到它時,識別它的速度就越快。

三十天暫停習慣建立計畫

研究顯示,媒體素養不是「讀完一篇文章就掌握」的技能,而是需要刻意練習才能內化的習慣。以下是一個循序漸進的四週計畫:

  • 第一週:每次在社群媒體上看到強烈情緒反應的內容時,先停三十秒再決定是否分享。計數這週你「暫停了幾次」。
  • 第二週:對每一個讓你有強烈反應的內容,主動找一個「反方觀點」或一個不同的報導角度。
  • 第三週:回顧過去一個月你分享過的內容,挑選五個做事後查核。記錄結果。
  • 第四週:教一個家人或朋友 SIFT 框架的其中一個步驟。研究顯示,教別人是鞏固自己技能最有效的方法。
📊 為什麼這套練習是 AI 素養,不只是媒體識讀
UNESCO 與 NIST 都把生成式 AI 的使用放在「人類監督、來源驗證、風險治理、透明揭露」的框架中。這代表面對 AI,不是只學會抓假圖就夠了,而是要同時學會:何時可以把 AI 當助手、何時一定要回頭查源、何時必須保留人工判斷。 UNESCO · NIST

互動投影片:章節重點回顧

Ch.01 · 認識 AI
1 / 6
01 / 06
假訊息為什麼傳這麼快?

MIT 研究(2018)的三個核心發現:

假訊息傳播速度是真實新聞的 6 倍

70%

假訊息觸及的獨立用戶比真實新聞多 70%

🤝 真人驅動

主要驅動力是真實人類,不是機器人

😱 情緒觸發

假訊息「更新穎、更令人驚訝」,觸發好奇心

02 / 06
系統一 vs. 系統二

⚡ 系統一(快速)

自動、直覺、情緒性。假訊息的目標,讓你不假思索就分享。

🧠 系統二(慢速)

分析、理性、刻意。識別假訊息需要啟動這個系統。

你的任務:在情緒被觸發時,刻意啟動系統二。「暫停30秒」就是這個開關。

03 / 06
SIFT 框架
SStop暫停,不要馬上分享
IInvestigate Source先查來源,再看內容
FFind Coverage找其他可信媒體的報導
TTrace Claims追溯圖片/影片的原始來源
04 / 06
五大觸發警示詞

🚨 機密感

「獨家曝光」「主流媒體封鎖」

⏰ 緊迫感

「緊急轉發」「12小時刪除」

🤝 社群壓力

「真正關心的人才會轉」

🎭 陰謀感

「他們不想讓你知道」

05 / 06
預防接種理論

Cambridge 大學教授 Sander van der Linden 的研究:

💉 像疫苗一樣

提前接觸弱化版操縱手法 + 解釋 = 心理免疫力

Prebunk

先認識常見操弄套路,再遇到時比較不容易被第一時間帶走

06 / 06
本章行動清單
  • 在手機桌面貼上「SIFT」提醒便條
  • 接下來一週,記錄每次「暫停分享」的次數
  • 識別五個你常見的情緒觸發詞
  • 向一位家人解釋「確認偏誤」是什麼
  • 繼續閱讀第二章:查證與提問

真實案例研究

FAKE
Nancy Pelosi「醉酒演講」影片(2019)

2019年5月,一段 Nancy Pelosi(時任美國眾議院議長)在演講台上看似「口齒不清、說話遲緩」的影片在 Facebook 迅速瘋傳,在48小時內獲得超過 200 萬次觀看。評論欄充斥著「她喝醉了」「她有智力問題」等言論,多位右翼媒體人和部分美國總統川普的支持者大量轉發。

這段影片的製作技術極其低端:完全沒有使用任何 AI,只是用免費的影片編輯軟體,把播放速度調慢至 75%。原始影片中,Pelosi 的演講正常流暢;減速後,任何人都會聽起來像口齒不清。

Washington Post 的技術記者首先注意到影片的語速異常,使用音訊分析軟體發現影片的頻率降低了約 25%(與播放速度降低25%相符)。直接對比原始 C-SPAN 直播錄影,確認影片被減速。整個查核過程耗時不到 20 分鐘。

這個案例完美示範了「情緒先行、查核後到」的機制:影片引發的憤怒和輕蔑情緒,讓大量用戶在幾秒內就決定分享,完全跳過任何查核步驟。Facebook 後來決定不下架影片(因為它不是「合成偽造」),而是將其貼上警告標籤——但此時影片早已傳播了數百萬次。

即使是不需要 AI 的最低技術假訊息,也能造成重大政治影響。 「停下來」的核心就是:當你看到一個讓你對某個政治人物感到強烈鄙視或憤怒的影片時,那個情緒本身就是一個警示信號——先暫停,再搜尋「原始版本」。

Washington Post, AFP Fact Check, May 2019
FAKE · AI Voice
Baltimore 高中校長 AI 語音偽造事件(2024)

2024年1月,一段疑似 Pikesville High School 校長 Eric Eiswert 發表種族歧視言論的音頻錄音,在社群媒體上廣泛流傳,迅速在當地社區引發公憤。錄音中的「校長」被聽到使用歧視性語言,並抱怨學校的非裔美籍學生和老師。

Eiswert 校長隨即被停職接受調查。但隨著調查深入,警方逐漸鎖定了一個令人意外的嫌犯:學校的體育總監 Dazhon Darien,當時正因績效問題與校長發生糾紛。

AI 語音鑑識分析顯示,錄音中的語音韻律(prosody)和情緒起伏模式與已知 Eiswert 真實錄音有統計顯著差異。語音的「呼吸節律」在情緒化段落中顯示出典型的 AI 合成特徵——過於平滑、缺乏自然的微小抖動。此外,背景噪聲在特定段落間有輕微的「剪接感」。

Darien 於 2024年4月被捕,被控 電子騷擾、竊盜及網路犯罪 等多項重罪,成為美國首批因 AI 深偽語音被起訴的刑事案件之一。Eiswert 校長後來被恢復職務,此案成為美國學校系統中 AI 濫用的標誌性案例。

這個案例最重要的啟示是:一段令你感到道德憤慨的錄音(尤其是涉及種族歧視、性醜聞、腐敗等高度敏感話題)正是最需要暫停和查核的時刻。 情緒的強度越高,查核的必要性就越大。在等待官方調查結果前,任何人都不應該在社群媒體上傳播這類未經查核的錄音。

CNN, Baltimore Sun, NBC News, January–April 2024

實用行動清單

  • 遇到讓你情緒激動的內容,先暫停 30 秒再決定是否分享
  • 問自己:「這則內容讓我感到什麼情緒?為什麼設計者要讓我有這種感覺?」
  • 注意觸發詞:「獨家」「緊急」「快傳」「主流媒體不報」
  • 在影片內容中找到具體主張,再對那個主張做獨立查核
  • 搜尋「[事件名稱] + 查核/fact check」看有無事實查核機構報告
  • 如不確定真偽,可選擇「不分享」或標注「未查核,請謹慎」再分享