回主頁

01 April 2026

異鄉人:麥克菲的危險人生 2016

Gringo - The Dangerous Life of John McAfee 2016 這部2016年的美國紀錄片由 Nanette Burstein 執導,聚焦於 約翰·麥克菲(John McAfee) 在貝里斯期間充滿動盪的生活。這位防毒軟體先驅在經歷財務挫折後遷居當地,並建立了一座由武裝警衛守護的戒備森嚴的住所。 影片深入探討他古怪離奇的生活方式、涉足草藥醫療產業的經歷,以及因涉嫌毒品問題而遭警方突襲搜查的事件。同時,也關注他在2012年鄰居 Gregory Faull 遭謀殺案中的「重要關注對象」身份——據稱兩人曾因麥克菲的狗而發生爭執。 透過對前合作夥伴、員工及所謂受害者的訪談,結合檔案影像資料,影片檢視了關於偏執、多項腐敗行為、性不當行為,以及麥克菲逃避執法機關的種種指控,描繪出他從科技巨頭一步步墮落為中美洲叢林逃亡者的過程。
 

社會困境:當科技巨頭開始操控人類行為

編者按:本文根據紀錄片《The Social Dilemma》(社會困境)的完整逐字稿與內容摘要整理而成,保留原片所有核心觀點與關鍵數據。本片由多位前矽谷科技公司高管與工程師親身出鏡,揭露社交媒體平台如何透過算法與心理操縱,系統性地影響數十億人的思想、行為與民主制度。

一、那些打造世界的人,為何開始感到恐懼?

[00:00:59]

片子一開始,螢幕上出現一張張熟悉的面孔——他們不是社會運動家,也不是學術象牙塔裡的批評者。他們是真正建造這個數位世界的人:前 Facebook 員工、前 Instagram 早期成員、前 Google 工程師、前 Apple 與 Twitter 高管、Mozilla Labs 的創辦成員,以及前 Pinterest 總裁。

其中一位自我介紹說:「我是 Google Drive、Gmail Chat、Facebook Pages 和 Facebook 讚按鈕的共同發明人。」

[00:01:58]

這些人曾相信,自己所打造的工具是一股**「向善的力量」**。然而,當鏡頭捕捉到他們今天的神情,幾乎每個人臉上都帶著同樣的情緒——擔憂、後悔,甚至恐懼。

特里斯坦·哈里斯(Tristan Harris),前 Google 設計倫理學家,被稱為「矽谷的良心」,於 2017 年 6 月因倫理顧慮離開 Google,他說:「這種擔憂不只針對 Google,而是整個科技產業。」

[00:02:45]

多位受訪者不約而同地承認:「這些工具一旦被發布,就有了自己的生命,使用方式與我們最初的設想大相徑庭。沒有人故意製造這些後果。沒有一個壞人。」

那麼,問題到底出在哪裡?

二、「免費」的背後:你就是那個被販賣的產品

[00:12:28]

要回答這個問題,必須先了解這些平台的商業模式。

科技投資人賈伦·拉尼尔(Jaron Lanier)說得直白:「矽谷前五十年,這個行業賣硬體、賣軟體,賺的是客戶的錢。這是一個清晰、簡單的商業模式。但過去十年,矽谷最大的公司改變了——他們開始販賣用戶本身。」

[00:13:04]

那句廣為流傳的話因此誕生:

「如果你不為產品付費,那你就是那個產品。」

但這還只是表層。前 Facebook 變現總監解釋,問題比「賣廣告」更深一層:

「真正被販賣的,是你行為和認知的逐漸、輕微、難以察覺的改變。這是他們賺錢的唯一途徑:改變你的行為、改變你的思維、改變你是誰。」

[00:14:59]

每一家廣告主的夢想,從來都是:「只要我投放廣告,我就能保證它成功。」而 Google、Facebook 這些公司,正在出售這種確定性。要做到這一點,他們需要一樣東西——大量的數據

三、監視資本主義:一個前所未有的「人類期貨市場」

[00:15:29]

許多人將這種模式稱為「監視資本主義」(Surveillance Capitalism)——大型科技公司透過無限追蹤每個人的所有行為,為廣告主提供極精準的投放服務,從而從中牟利。

這不是比喻。這是一個真實存在的市場,而且規模史無前例:

「就像有人交易豬肚期貨、石油期貨,現在有一個市場,交易的是『人類期貨』。這個市場創造了數兆美元的財富,讓互聯網公司成為人類歷史上最富有的公司。」

[00:16:27]

你在網路上的每一個動作——點了什麼、停留了多久、看了哪張照片、在哪張圖上滑動了幾秒——全都被監視、追蹤、記錄

一位前科技公司員工說:

「他們知道你何時孤獨、何時抑郁、何時在查看前任的照片、深夜在做什麼。他們知道你是內向還是外向、你的神經質類型、你的人格特質。他們擁有人類歷史上從未想像過的關於我們的資訊。」

[00:17:51]

而這些數據,被輸入幾乎無人監督的系統,不斷自我學習,為每個用戶建立越來越精準的預測模型——「虛擬分身」。Facebook 並非出售你的數據,而是利用數據「建構預測你行為的模型」,誰的模型最準,誰就贏。

四、算法的三個目標,以及它如何操控你

[00:18:56]

這些公司,包括 Facebook、Snapchat、Twitter、Instagram、YouTube,在商業層面有三個核心目標:

  • 參與度(Engagement):讓你持續滾動、停留更長時間
  • 增長(Growth):讓你不斷回來,並邀請更多朋友
  • 廣告(Advertising):在實現前兩項的同時,賺取最多廣告收入

[00:19:41]

這三個目標全部由算法驅動。算法的工作只有一件事:找出展示哪些內容,可以讓上面這三個數字不斷提升。而且這些數字可以精準調控——前 Facebook 高管描述,管理層曾討論過擁有「撥盤」,隨時調整韓國用戶數量、廣告強度、變現力度,「就像旋轉水龍頭一樣精確」。

[00:23:48]

這種設計,不是偶然的。片中提到了斯坦福說服技術實驗室(Stanford Persuasive Technology Lab)——這個實驗室專門研究如何將心理學知識應用於科技,以修改人類行為。許多矽谷的關鍵增長工程師,包括 Facebook 和 Uber 的核心人員,都曾受訓於此。

[00:24:22]

其中最具代表性的心理機制,是「積極間歇性強化」(Positive Intermittent Reinforcement):

下拉刷新,可能出現新內容,也可能沒有。你不知道何時有獎勵,所以你反覆操作。這與拉斯維加斯的老虎機原理完全相同。

這不是意外,這是刻意的設計技巧,目的是讓你的行為變成無意識的習慣,讓你的手在拿起手機的那一刻就自動操作,「不是讓你有意識地使用這個產品,而是在你的腦幹深處植入無意識的習慣」。

[00:25:20]

另一個例子是「照片標記」:你收到一封「你的朋友剛在一張照片中標記了你」的通知,你當然要點開。你有辦法忽略嗎?幾乎不可能——這碰觸的是人類最深層的心理本能。而 Facebook 發現這個機制後,立刻「把它調到最大」,讓用戶整天互相標記照片,創造參與度。

五、你是實驗室裡的小白鼠

[00:27:02]

增長駭客(Growth Hacking)是一個完整的工程領域——由工程師團隊透過「駭入人類心理」來獲取更多增長、更多用戶、更多參與度。

前 Facebook 增長副總裁查马斯·帕里哈皮蒂亞(Chamath Palihapitiya)透露,Facebook 早期最重要的一個發現是:

「讓任何一個用戶在 10 天內擁有 7 個朋友。就這一件事。」

[00:27:30]

Google 和 Facebook 不斷針對用戶進行大規模的 A/B 測試——持續滾動數千個小實驗,找出讓用戶「做你想讓他們做的事」的最優化方式。

一位受訪者聽完這段描述後說:「你讓我感覺自己像一隻實驗室裡的老鼠。」

另一位毫不留情地回應:

「你就是一隻實驗室老鼠。我們都是。而且他們不是在研究治療癌症的方法。他們只是想讓你多看幾則廣告,讓他們賺更多錢。」

[00:28:03]

更令人不安的是,Facebook 曾進行**「大規模傳染實驗」**:在用戶完全不知情的情況下,透過在頁面上植入潛意識線索,影響用戶在現實世界中的行為——包括在中期選舉中投票。他們的結論是:

「我們現在知道,我們可以在不觸動用戶意識的情況下,影響他們在現實世界的行為和情緒。他們完全不知道這件事正在發生。」

六、即使懂得背後的把戲,你還是上癮了

[00:31:32]

令人警醒的,不只是這些設計的精密,更是它的穿透力——即便是知道這一切運作機制的科技業內部人士,也無法倖免。

前 Pinterest 總裁承認,即便清楚知道背後的設計,他下班後依然無法放下手機:「我在廚房裡,帶著兩個需要我陪伴的孩子,卻還在滑 Pinterest。我理解這個諷刺,但我就是控制不了自己。」

[00:31:45]

有人曾用純粹意志力對抗——對自己說了 1,000 次「我今晚不把手機帶進臥室」。然後晚上九點,手機還是帶進去了。有人甚至寫了一個軟體,來強迫自己戒除對 Reddit 的成癮。

[00:33:38]

這背後有生物學基礎:社交媒體直接作用於大腦的多巴胺獎勵迴路。人類進化出對社交連結的強烈本能,這對物種繁衍至關重要。而社交媒體正是透過優化這種連結,創造了高度的成癮潛力。這不是意志力的問題,這是一場不公平的戰爭:你的原始大腦,對上的是數千名工程師與超級電腦。

七、青少年的靈魂正在被侵蝕

[00:37:47]

這些機制設計,從未考慮過兒童心理。這些算法被設計來推薦下一部影片、讓你拍一張加了濾鏡的自拍——而非保護正在發育中的心靈。

[00:38:16]

社交媒體對青少年的傷害,遠不只是「浪費時間」:它深入挖掘孩子的自我價值感與身份認同。人類從來沒有進化出能夠處理「每五分鐘收到一萬個人評價」的能力——那從未在我們的演化史中出現過。

[00:39:15]

我們為了「被感知的完美」而策劃自己的生活,把「讚」和「愛心」等短期信號誤認為自身的價值與真相,獲得的是「虛假而脆弱的短暫人氣」,最終只剩下空虛。而當那種空虛感來臨,我們又被迫回去尋求下一次的認可——形成惡性循環。

[00:40:01]

數據是殘酷的:

  • 美國青少年的憂鬱症與焦慮症,從 2011 至 2013 年間大幅增加
  • 青少年女孩的自傷住院率,自 2010-2011 年後上升 62%;青春期前女孩上升高達 189%(將近三倍)
  • 15-19 歲青少年女孩的自殺率上升 70%;青春期前女孩上升 151%

[00:40:59]

Z 世代(1996 年後出生)是人類歷史上第一批在國中就開始使用社交媒體的孩子。他們更焦慮、更脆弱、更抑鬱,更不願意冒險,考駕照的比例和約會的比例都在迅速下降。這是一整個世代的真實改變。

[00:43:18]

我們正在訓練新一代人:當感到不適、孤獨、不確定或恐懼時,立刻拿起「數位安慰劑」。久而久之,我們處理這些情緒的能力正在萎縮。

八、兔子洞、假新聞,與我們各自活在的「楚門世界」

[00:54:41]

社群媒體不只影響個人,它正在拆解我們的共同現實。

維基百科的例子是一個有力的對照:當你上維基百科查一個條目,你看到的和其他人看到的是同一個版本。但如果你在 Facebook 或 YouTube 瀏覽,你看到的世界與你的鄰居截然不同——因為算法根據每個人的數據,為每個人量身打造了一個「現實」。

[00:56:06]

「換個說法,這就是 27 億個《楚門的世界》。每個人都活在自己的現實裡,擁有自己的事實。」

在這樣的環境中,你的訊息流充滿了「跟你想法一樣的人」,久而久之,你會形成「每個人都同意我」的錯覺——這讓你變得極容易被操縱,就像魔術師的把戲:牌是你「自由選擇」的,但其實早就被安排好了。

[00:59:47]

算法並非在給你你「真正想要」的東西。它在尋找幾個極具吸引力的「兔子洞」,然後把你引導進去,讓你越走越深。

籃球明星凱里·歐文(Kyrie Irving)曾公開表示相信「地平說」,後來道歉,說這是 YouTube 兔子洞的結果。而當他出來道歉時,一群學生的反應是:「哦,那是圓地球者把他拿下了。」

[01:00:39]

「地平說」陰謀論被算法推薦了數億次。 今天他們說服你地球是平的。明天他們說服你的,可能是更危險的東西。

九、虛假信息的利潤機器

[01:02:10]

麻省理工學院(MIT)的一項研究發現:Twitter 上的假新聞傳播速度是真實新聞的六倍

為什麼會這樣?因為這個系統本身就偏向虛假信息——不是出於惡意,而是因為:

「虛假信息比真相更能為公司帶來利潤。真相是無聊的。」

[01:02:46]

這是一個「虛假信息盈利」的商業模式:你讓更多不受監管的訊息觸及更多人,你賺更多錢。真相的傳播速度跑不過謊言,而平台的算法只會選擇「更能讓人點擊的內容」,而非「更真實的內容」。

[01:03:40]

COVID-19 疫情是這一機制的極端版本:關於病毒的謠言與陰謀論在網路上如病毒般擴散——「喝熱水可以沖走病毒」、「5G 訊號塔傳播病毒」、「政府策劃了這一切」——結果是,真實世界裡有人去炸毀了手機訊號塔。

社交媒體的危害,從此不再是抽象概念。

十、從選舉操控到緬甸種族屠殺:民主正在瓦解

[01:06:33]

一位受訪者說:「作為一種說服工具,Facebook 可能是人類有史以來最偉大的發明。但對於一個獨裁者或威權主義者而言,它是控制人口最有效的工具。」

[01:07:01]

緬甸是最駭人的案例之一。在緬甸,「上網」幾乎就等於「上 Facebook」——手機店老闆甚至會在賣出手機時,直接幫客戶開好 Facebook 帳號。而軍方與不良行為者利用這個管道,系統性地煽動對羅興亞穆斯林的仇恨,最終導致:

  • 大規模屠殺
  • 整個村莊被焚燒
  • 大規模強暴
  • 70 萬羅興亞人被迫逃離家園

[01:08:11]

這不是因為高度動機的宣傳者之前不存在。而是因為平台讓他們能夠以極低的成本、極高的速度傳播操縱性敘事

[01:12:21]

2016 年美國大選中,俄羅斯並非「駭入」Facebook,而是使用 Facebook 為合法廣告主建立的工具,把它用於邪惡目的。目標不是讓某一方獲勝,而是:

「在社會中播下徹底的混亂與分裂,讓兩派人無法再互相傾聽、互相信任。」

[01:14:52]

當每個人都活在自己的事實泡泡裡,當沒有人相信真相,當一切都是陰謀論,當仇恨成為常態:

「如果我們對現實沒有共同的理解,我們就不再是一個國家。」

十一、這是存在級別的威脅

[01:17:54]

幾位受訪者明確指出,這不只是社會問題,而是文明層級的生存威脅

但他們強調:問題不在於技術本身,而在於:

「技術有能力激發社會中最糟糕的一面,而社會中最糟糕的一面才是那個生存威脅。」

[01:20:22]

如果按照當前的軌跡再走 20 年:

  • 我們可能透過故意的無知摧毀文明
  • 我們可能無法應對氣候變遷的挑戰
  • 世界民主制度可能退化為某種奇異的專制功能障礙
  • 我們可能毀掉全球經濟
  • 我們可能無法生存

短期而言,有受訪者直接說出他最擔心的事:「內戰」。

十二、解方在哪裡?從監管到個人行動

[01:22:15]

問題的根源在商業模式,而非開發者本身是邪恶的。「讚按鈕」的初衷是傳播正能量與愛,但它導致了青少年抑鬱和政治兩極化——問題在商業模式。

然而這些公司被經濟激勵和股東壓力牢牢束縛,無法自我改變。他們說的「我們會自我監管」是謊言。因此需要外力介入:

監管層面的解方:

  • 重新調整財務激勵機制
  • 對數據收集與處理課稅,就像按用水量收費一樣
  • 將「人類期貨市場」定為非法,正如同我們禁止人體器官市場與奴隸市場一樣
  • 制定真正保護用戶的法律,而非只保護富裕科技公司的特權

[01:28:04]

個人行動的解方:

  • 刪除你覺得在浪費你時間的 App(社交媒體、新聞)
  • 關閉所有非即時重要的推播通知
  • 改用不儲存搜尋歷史的搜尋引擎(如 Qwant)
  • 永遠不要盲目接受 YouTube 推薦的影片,自己選擇想看的內容
  • 在分享前先查核事實,警惕任何「設計來激發你情緒」的內容
  • 主動追蹤與你意見不同的人,接觸不同觀點
  • 用你的點擊投票」:不點擊標題黨內容,就是在減少它的利潤

[01:32:05]

針對家長的三條建議:

  • 每晚在固定時間,將家中所有設備移出臥室
  • 高中以前不使用社交媒體(建議延至 16 歲
  • 與孩子共同制定「螢幕時間預算」,讓他們參與決策

結語:我們能從矩陣中醒來嗎?

[01:21:11]

「如果你不知道自己身在矩陣之中,你要如何從矩陣中醒來?」

這部紀錄片提出的問題,沒有輕鬆的答案。科技的運作方式不是物理定律,不是寫死的宇宙規則,它是人類的選擇。而人類做出的選擇,人類也可以改變。

[01:28:46]

一位受訪者說:「我不恨 Google,我不恨 Facebook。我只是想改革它們,讓它們不要毀掉這個世界。」

另一位說:「在歷史上,每次改善都發生在有人站出來說:這是錯的,我們可以做得更好。 批評者才是真正的樂觀主義者。」

[01:29:44]

改變需要的不是個別英雄,而是大規模的公眾意識與集體意志。而這,從你正在閱讀這篇文章的這一刻開始。

本文根據 Netflix 紀錄片《The Social Dilemma》(2020)整理,涉及時間標記均對應片中原始訪談時間點。文中所有數據與引言均源自片中受訪者的直接陳述


⚡️ Website www.teslabook.me
📡 Telegram t.me/eaglenet1776

 

 

@2025尼古拉特斯拉圖書館 All rights reserved.