什麼是確認偏誤?只看到自己想看的認知偏差

定義
確認偏誤(Confirmation Bias)是指只尋找支持自己既有信念或想法的資訊,而忽視或低估與之相反資訊的心理現象。簡單來說就是「只看想看的」傾向。
舉個例子吧。朋友 相信「A減肥法真的很好!」那麼朋友就會在網上搜尋只找A減肥法成功的案例。「果然A減肥法最好!」但同樣搜尋的話,A減肥法失敗的案例也有幾十個。損害健康的案例也有。但朋友會把那些資訊當作「他們沒有正確執行」、「特殊情況」而忽視。這就是確認偏誤。
確認偏誤是1960年代心理學家彼得·沃森(Peter Wason)透過實驗證明的。他給人們「2-4-6」這個數字規律,讓他們猜測規則。大部分人認為是「以2遞增的偶數」,為了確認這個假設,只嘗試「8-10-12」這種符合自己假設的數字。但正確答案只是「遞增數字」。只測試符合自己想法的,連可能錯誤的可能性都不嘗試。
特徵
- 無意識地運作 - 不是故意的。大腦會自動讓人更注意符合自己信念的資訊。我們以為自己客觀,但實際上是有偏見的
- 也扭曲資訊解讀 - 即使看到相同資訊也會按照自己信念解讀。模糊的證據解釋成對自己有利,反對證據當作「例外情況」
- 越聰明越強 - 諷刺的是,智力高或知識多的人確認偏誤可能更強。因為他們更擅長製造正當化自己信念的邏輯
- 情緒介入會更嚴重 - 與自己的身份認同、價值觀、自尊心相關的主題,確認偏誤會更強。不願承認「我錯了」
- 在群體中放大 - 相同想法的人聚在一起(回音室,Echo Chamber),確認偏誤會更強。因為互相只確認自己的想法
例子
例子1:政治信念 保守的人只看保守傾向的新聞,進步的人只看進步傾向的新聞。對於同一政策,保守媒體報導為「經濟活躍化」,進步媒體報導為「平民負擔增加」。各自只看符合自己信念的媒體,所以確信「果然我的想法是對的!」把相反意見當作「假新聞」、「偏頗報導」而忽視。這樣政治兩極化越來越嚴重。
例子2:投資決定 股票投資者相信「這家公司一定會漲!」就只看到那家公司的正面新聞。新產品上市、CEO的樂觀發言、小幅營收增加...這些。而負面信號 - 競爭對手的進展、市占率下降、內部人士賣出 - 被當作「暫時現象」、「誇大傳聞」。最後股價暴跌後才想「為什麼沒看到?」投資失敗的主要原因之一就是確認偏誤。
例子3:關係中的懷疑 戀人開始懷疑我的話,確認偏誤就會運作。一旦懷疑「他是不是出軌?」所有行為都看起來可疑。晚回家「可疑」,不接電話「有事情隱瞞?」,買新衣服「要見誰?」...其實是工作忙、在開會、特價買的。反而表達愛意也解釋成「是不是因為被發現了才這樣?」這樣確認偏誤可能破壞正常關係。
例子4:健康資訊 相信「咖啡對健康不好」的人只記得咖啡副作用的研究。失眠、胃酸逆流、心悸...而相信「咖啡對健康好」的人只記得咖啡益處的研究。抗氧化效果、預防失智、促進代謝...即使看到相同研究結果,也只接受自己想相信的。醫學研究大多結論是「適量飲用沒關係」、「因人而異」,但我們只尋找極端資訊。
例子5:招募面試 面試官在最初5分鐘喜歡應徵者的話,在剩餘面試時間只看到那個應徵者的優點。「溝通好」、「有熱情」、「經驗豐富」...相反如果一開始不喜歡,所有回答 看起來都是負面的。「話太多」、「太自信」、「經驗太多樣缺乏焦點」。相同的回答,根據第一印象解讀完全不同。
克服方法
確認偏誤無法完全消除。但認識和減少是可能的。
第1步:承認 首先接受「我也有確認偏誤」。想「我很客觀」的瞬間更容易有偏見。聰明的人、受教育的人、心理學家都有確認偏誤。因為人類的大腦就是這樣設計運作的。
第2步:有意尋找反對意見 有意尋找與自己想法相反的資訊。相信「A好」就搜尋「A的缺點」。一開始會不舒服、有抗拒感。會想「這是錯誤資訊」、「偏頗觀點」。那正是確認偏誤運作的證據。忍受那種不適感,讀到最後。
第3步:問「如果我錯了?」 在做重要決定前問自己。「如果我錯了,會有什麼證據?」「怎麼確認我的想法錯了?」這個問題讓人保留可能錯誤的可能性。是科學家驗證假設時用的方法。
第4步:利用魔鬼代言人(Devil's Advocate) 做重要決定時,請朋友或同事故意扮演反對立場。「幫我找計畫的漏洞」、「告訴我為什麼會失敗」。一開始可能不愉快,但能防止大錯誤。好的組織把這種文化制度化。
第5步:看數字和數據 看客觀數據而不是主觀感覺或軼事。不是「我周圍A做得好」,而是「全國統計中A的成功率是多少%?」當然數據也可能選擇性地看,但比感覺好。
第6步:將決定與自我分離 「這個意見錯了」和「我很愚蠢」是不同的。如果自己的意見與自我認同,承認錯誤就太困難了。要想「我仍然是好人。 只是在這件事上想錯了而已」。
第7步:看多種來源 不要只看一種媒體、一種觀點,要看多個來源。保守報紙也看,進步報紙也看,國內新聞也看,國外新聞也看。一開始頭痛,但會有更立體的觀點。
第8步:記住過去錯誤的經驗 寫下過去自己確信但錯誤的經驗。「那時真的確信但錯了」的經驗。回想這些經驗,就能對現在的確信產生懷疑的餘地。
第9步:留出時間 重要決定不要立即做,一兩天後再想想。第一印象和情緒平息後能更客觀地看。「昨天確信但今天再看覺得可疑?」產生這種變化是正常的。
第10步:保持謙虛 抱持「我可能不知道」、「沒有確定的」態度。最聰明的人是知道自己不知道的人。懷疑的人比確信的人更能學習和成長。
影響
正面方面
- 心理安適:確認偏誤保護自我。確信自己是對的減少焦慮,維持自尊心
- 快速決策:考慮所有資訊很難做決定。確認偏誤幫助在複雜世界快速決定
- 維持信念:有時需要確信。創業家「不知道會不會成功」而猶豫就無法開始。某程度沒根據的確信也能引導行動
負面方面
- 錯誤決定:忽視反對證據會犯大錯誤。可能導致投資失敗、事業失敗、關係破壞
- 妨礙學習與成長:不接受新資訊就無法進步。「我已經都知道」的態度阻擋學習
- 放大衝突:各自只確認自己信念,對話變得不可能。是政治兩極化、社會衝突加劇的主要原因
- 非理性行為:忽視明顯證據,繼續非理性行為。繼續損害健康的習慣、虧損的投資
- 專業的陷阱:專家越在自己領域確認偏誤可能越強。執著於舊知識,拒絕新範式
常見問題
問:確認偏誤和固執的區別是什麼? 答:看起來相似但微妙不同。固執是有意識地決心「我不會改變想法」。確認偏誤是無意識地只看到符合自己想法的資訊。固執的人知道自己固執,但陷入確認偏誤的人以為自己客觀。更危險的反而是後者。因為沒有認識到自己的偏見。
問:有沒有確認偏誤的人嗎? 答:沒有,所有人類都有。心理學家、科學家、法官都有確認偏誤。只是程度不同而已。受過批判性思考訓練的人會認識並試圖控制確認偏誤。但無法完全消除。因為是大腦的基本運作方式。重要的不是想「我沒有確認偏誤」,而是想「我也有確認偏誤,要小心」。
問:社群媒體會讓確認偏誤更嚴重嗎? 答:是的。社群媒體演算法會更多顯示你喜歡的內容。對保守貼文按讚就只出現保守貼文,對進步貼文按讚就只出現進步貼文。這叫「過濾泡泡(Filter Bubble)」。只遇到相 同想法的人,反對意見被封鎖,就會誤以為「世界上的人都和我想法一樣」。實際上反對意見也很多。這是加深政治兩極化的主要原因。解決方法?有意追蹤不同觀點的帳號,或不靠演算法推薦,直接搜尋尋找資訊。
問:科學家也有確認偏誤嗎? 答:有的。所以科學有防止確認偏誤的系統。例如「同儕審查(Peer Review)」是讓其他科學家批判性地檢視研究。「雙盲實驗(Double-blind Test)」是讓研究者和受試者都不知道誰是實驗組來防止偏見。「可證偽性」檢視「有沒有證明錯誤的方法?」科學家個人有確認偏誤,但科學社群的系統會制衡。當然不完美。知名科學家的理論存活很久,與既有範式相反的新理論被接受需要幾十年。
問:能利用確認偏誤說服他人嗎? 答:雖然有倫理問題,但在行銷和政治中常被活用。方法簡單。從對方已經相信的開始。「您很重視健康對吧?那麼這個產品...」這樣。確認對方既有信念後,將你的訊息連結上去。目標廣告也一樣。對環境關心的人推薦「環保」產品,對經濟的人推薦「性價比」產品。利用各自的確認偏誤。但操縱性使用會失去信任。誠實使用才長期有利。
問:和確認偏誤嚴重的人對話時該怎麼辦? 答:直接反駁會反效果。對方會變得防衛,更加確信。試試這樣:1)先找共同點 - 「那部分我也同意」開始。2)提問 - 「那這種情況怎麼解釋?」讓人思考。3)說自己經驗 - 「我也那樣想,但這個經驗後想法改變了」自然地說。4)給時間 - 一次對話不會改變。播種後給時間。5)懂得放棄 - 無法改變所有人。有些主題太情緒化無法對話。那時接受「意見不同也沒關係」。「我們在這部分想法不同。但還是維持朋友吧」這樣。