先認識 AI,才能談信任:
生成式 AI 能做什麼、不能做什麼
AI 現在可以寫文案、整理資料、生成圖片、模仿聲音,也會用很流暢的語氣回答問題。但流暢不等於正確,逼真也不等於真實。AI 素養的第一步不是直接談 deepfake,而是先理解生成式 AI 的能力邊界,以及人類在什麼情境下最容易把它錯當成權威。
為什麼假訊息傳播那麼快
2018年,麻省理工學院媒體實驗室研究團隊在 Science 發表研究,分析 2006 至 2017 年間 Twitter 上約 12.6 萬則已查證謠言與約 300 萬次轉推後指出:假訊息在平台上傳得更快、也更深;其中最常被引用的三個數字是傳播速度約快 6 倍、觸及獨立用戶數約多 70%、擴散深度可達約 10 倍。 MIT News / Science 2018
研究者還特別指出,這波擴散不是主要由機器人造成,而是由真實使用者在情緒與新奇感驅動下加速轉傳。這對 AI 素養很重要,因為問題往往不是「有人做假」,而是「很多正常人被推著一起放大」。 MIT News / Science 2018
理解這個機制的意義重大:如果假訊息是「情緒的武器」,那麼對抗假訊息最有效的第一步,就是在情緒被觸發的那一刻,刻意「踩一下煞車」。
認知偏差:你的大腦天生就容易被騙
人類的大腦有兩套決策系統,心理學家 Daniel Kahneman 在《快思慢想》中稱之為「系統一」和「系統二」:
- 系統一(快速):自動的、直覺的、情緒性的。每天做 95% 以上的日常決策,速度很快但容易出錯。
- 系統二(慢速):分析的、理性的、刻意的。速度慢、消耗認知資源,但準確率高。
假訊息的設計目的,就是讓你的系統一「劫持」系統二。以下是幾個最常被利用的認知偏差:
- 確認偏誤(Confirmation Bias):我們傾向相信符合我們既有觀點的資訊,這是假訊息製造者最愛利用的弱點。如果你政治立場偏左,你更容易不加查核地轉發批評右翼的假新聞;反之亦然。
- 真相幻覺效應(Illusory Truth Effect):一則訊息被重複看到的次數越多,大腦就越容易把它當成真實。這就是為什麼謠言喜歡在群組裡反覆轉傳。
- 流利性偏誤(Fluency Bias):排版精美、影片畫質清晰的內容,會讓人下意識覺得更可信。深偽影片正是利用這個偏誤——「看起來這麼清楚,應該是真的吧?」
- 社會驗證效應(Social Proof):「這麼多人分享,應該是真的吧?」轉發數量不等於真實性,但大腦的捷徑常常這樣計算。
- 稀缺性原則(Scarcity Principle):「快轉,過了就看不到了!」製造緊迫感讓人沒時間思考,是假訊息常見的催化劑。
七大觸發警示詞
假訊息製造者有一套固定的「觸發詞」工具箱,這些詞彙出現時,你的系統一就會被自動啟動。學會識別它們,可以大幅提高你的防衛能力:
| 觸發詞類型 | 典型例句 | 設計意圖 |
|---|---|---|
| 機密感 | 「獨家曝光」「主流媒體封鎖」 | 讓你覺得自己掌握了特殊資訊 |
| 緊迫感 | 「緊急!快轉」「12小時內刪除」 | 剝奪你查核的時間 |
| 社群壓力 | 「真正關心的人才會轉」「不傳是沒良心」 | 用道德綁架代替邏輯 |
| 陰謀感 | 「他們不想讓你知道」「政府在掩蓋」 | 建立「我們 vs. 他們」框架 |
| 權威偽裝 | 「研究顯示」「專家透露」(無出處) | 借用信任光環而無需承擔責任 |
SIFT 框架:媒體素養的四個步驟
SIFT 是資訊素養教育者 Mike Caulfield 整理出的四步驟框架,核心精神不是「背下正確答案」,而是先停、先查來源,再回頭看內容與原始脈絡。這套方法特別適合拿來處理生成式 AI 的回答,因為 AI 很會整理語句,卻不一定先替你完成來源驗證。 SIFT
| S | Stop | 暫停。不要在情緒高漲時做決定。先問:「我現在感到憤怒/驚訝/恐懼嗎?為什麼?」 |
|---|---|---|
| I | Investigate the Source | 先查來源,後看內容。在你深讀文章前,先用 30 秒搜尋「這個來源是誰?可信嗎?」 |
| F | Find Better Coverage | 搜尋其他可信媒體是否有相同報導。一個重大事件,可信媒體通常都會報。如果只有一個來源,要特別小心。 |
| T | Trace Claims | 追溯圖片/影片/數據的原始來源。反向圖片搜索、TinEye、InVID 都是你的工具。找到源頭,才能評估真實性。 |
預防接種理論:為什麼提前「練習」有用
Cambridge 大學心理學教授 Sander van der Linden 花了數年研究一個問題:如何讓人對假訊息「免疫」?他的答案是「預防接種理論(Inoculation Theory)」。
就像醫學疫苗一樣,預防接種理論認為:如果提前讓人接觸「弱化版的操弄手法」,並且明確告訴他這是在操弄,他未來再遇到類似話術時,比較不容易直接相信。Cambridge 團隊在 Bad News 等研究裡反覆驗證過這個方向,效果通常不是讓人變成專家,而是讓人更願意停一下、辨認套路、少被第一時間牽著走。 Cambridge
三十天暫停習慣建立計畫
研究顯示,媒體素養不是「讀完一篇文章就掌握」的技能,而是需要刻意練習才能內化的習慣。以下是一個循序漸進的四週計畫:
- 第一週:每次在社群媒體上看到強烈情緒反應的內容時,先停三十秒再決定是否分享。計數這週你「暫停了幾次」。
- 第二週:對每一個讓你有強烈反應的內容,主動找一個「反方觀點」或一個不同的報導角度。
- 第三週:回顧過去一個月你分享過的內容,挑選五個做事後查核。記錄結果。
- 第四週:教一個家人或朋友 SIFT 框架的其中一個步驟。研究顯示,教別人是鞏固自己技能最有效的方法。
互動投影片:章節重點回顧
真實案例研究
2019年5月,一段 Nancy Pelosi(時任美國眾議院議長)在演講台上看似「口齒不清、說話遲緩」的影片在 Facebook 迅速瘋傳,在48小時內獲得超過 200 萬次觀看。評論欄充斥著「她喝醉了」「她有智力問題」等言論,多位右翼媒體人和部分美國總統川普的支持者大量轉發。
這段影片的製作技術極其低端:完全沒有使用任何 AI,只是用免費的影片編輯軟體,把播放速度調慢至 75%。原始影片中,Pelosi 的演講正常流暢;減速後,任何人都會聽起來像口齒不清。
Washington Post 的技術記者首先注意到影片的語速異常,使用音訊分析軟體發現影片的頻率降低了約 25%(與播放速度降低25%相符)。直接對比原始 C-SPAN 直播錄影,確認影片被減速。整個查核過程耗時不到 20 分鐘。
這個案例完美示範了「情緒先行、查核後到」的機制:影片引發的憤怒和輕蔑情緒,讓大量用戶在幾秒內就決定分享,完全跳過任何查核步驟。Facebook 後來決定不下架影片(因為它不是「合成偽造」),而是將其貼上警告標籤——但此時影片早已傳播了數百萬次。
即使是不需要 AI 的最低技術假訊息,也能造成重大政治影響。 「停下來」的核心就是:當你看到一個讓你對某個政治人物感到強烈鄙視或憤怒的影片時,那個情緒本身就是一個警示信號——先暫停,再搜尋「原始版本」。
2024年1月,一段疑似 Pikesville High School 校長 Eric Eiswert 發表種族歧視言論的音頻錄音,在社群媒體上廣泛流傳,迅速在當地社區引發公憤。錄音中的「校長」被聽到使用歧視性語言,並抱怨學校的非裔美籍學生和老師。
Eiswert 校長隨即被停職接受調查。但隨著調查深入,警方逐漸鎖定了一個令人意外的嫌犯:學校的體育總監 Dazhon Darien,當時正因績效問題與校長發生糾紛。
AI 語音鑑識分析顯示,錄音中的語音韻律(prosody)和情緒起伏模式與已知 Eiswert 真實錄音有統計顯著差異。語音的「呼吸節律」在情緒化段落中顯示出典型的 AI 合成特徵——過於平滑、缺乏自然的微小抖動。此外,背景噪聲在特定段落間有輕微的「剪接感」。
Darien 於 2024年4月被捕,被控 電子騷擾、竊盜及網路犯罪 等多項重罪,成為美國首批因 AI 深偽語音被起訴的刑事案件之一。Eiswert 校長後來被恢復職務,此案成為美國學校系統中 AI 濫用的標誌性案例。
這個案例最重要的啟示是:一段令你感到道德憤慨的錄音(尤其是涉及種族歧視、性醜聞、腐敗等高度敏感話題)正是最需要暫停和查核的時刻。 情緒的強度越高,查核的必要性就越大。在等待官方調查結果前,任何人都不應該在社群媒體上傳播這類未經查核的錄音。
實用行動清單
- 遇到讓你情緒激動的內容,先暫停 30 秒再決定是否分享
- 問自己:「這則內容讓我感到什麼情緒?為什麼設計者要讓我有這種感覺?」
- 注意觸發詞:「獨家」「緊急」「快傳」「主流媒體不報」
- 在影片內容中找到具體主張,再對那個主張做獨立查核
- 搜尋「[事件名稱] + 查核/fact check」看有無事實查核機構報告
- 如不確定真偽,可選擇「不分享」或標注「未查核,請謹慎」再分享