數位血汗工廠:訓練 AI 的人是誰?【AI 財富地圖

你上次和 ChatGPT 聊天是什麼時候?

也許是昨天,也許是今天早上。你問它一個問題,它給你一個流暢、準確的回答。你很滿意,關掉視窗,繼續過你的生活。

但你有沒有想過,這個「聰明」是從哪裡來的?不是從演算法,不是從伺服器——是從人。具體來說,是那些在非洲、東南亞、南美洲,用時薪一美元多在標記數據的人,那些每天工作二十小時、一邊看著暴力影片分類、一邊慢慢賠掉自己心理健康的人。

這篇文章講的,就是他們的故事。

先說清楚:AI 是怎麼變聰明的

要理解這個問題,得先知道大型語言模型的訓練方式。

ChatGPT、Claude、Gemini 這些 AI,靠的不是什麼神秘的智慧。它們是從大量數據中學習「什麼回答是好的、什麼是不好的」。這個過程叫做 RLHF(人類回饋強化學習)——說白了,就是讓人類不斷告訴模型「這個回答對、那個回答錯」,讓模型從中調整自己。

聽起來很技術,但落到地面,它的意思是:你需要大量的人,坐在電腦前,一條一條看著 AI 輸出的答案,標記哪個比較好、哪個有毒、哪個是暴力內容。每天幾千條,重複再重複。

這些人,就是數據標注員,也被稱為 AI 訓練師。

他們是讓 AI 變聰明的人,但在 AI 財富地圖上,他們幾乎不存在。


誰在賺:數十億市值背後的廉價燃料

先說那些在賺錢的人。

數據標注市場,預計到 2030 年達到 137 億美元。這是一個正在高速成長的行業,需求來源非常清楚:每一家要訓練 AI 的公司,都需要大量的人工標注數據。OpenAI、Meta、Google、Anthropic,還有數以百計的中小型 AI 新創,都是這個產業的買方。

這些公司的估值是多少?OpenAI 在 2025 年的估值超過 3,000 億美元。Meta 的市值在 2025 年峰值逼近 1.5 兆美元。Google 母公司 Alphabet 超過 2 兆美元

數據標注員,就是讓這些數字成立的燃料。

他們的工作不是可有可無的。沒有數以億計的人工標注數據,這些模型就無法學習如何回答問題、如何辨識什麼是暴力內容、如何生成符合人類偏好的文字。RLHF 流程的每一個環節,都需要人的判斷。

但這些「燃料」是怎麼取得的?答案很簡單:用最低的成本,從全球南方取得。

Appen、Scale AI、Sama、Remotasks——這些是你可能不熟悉的名字,但它們是 AI 訓練數據產業的主要仲介商。它們接受 AI 公司的委託,把任務外包給菲律賓、肯亞、奈及利亞、哥倫比亞、印度的工人。

規模夠大,成本夠低。利潤,留在矽谷。


誰在死(慢性死亡):時薪一美元的代價

現在說說那些在付出代價的人。

薪資的真相

在美國,一名基礎數據標注員的時薪大約是 $15-30 美元。在法律或醫療等專業領域,可以達到 $30 以上。這個薪資放在矽谷當然不算什麼,但至少是個生存空間。

但這不是全貌。

在非洲、東南亞、南美洲——也就是實際承擔大部分基礎標注工作的地方——時薪往往是 $1-2 美元。印度的年薪大約是 30 萬盧比,折合台幣大概五萬出頭。這不是兼差,這是他們的主要收入來源。

同樣的工作,地球兩端的人拿到的錢,相差十五到三十倍。

工時的真相

薪水低,所以要拼時間。

非洲和東南亞的標注員,每天工作時間最多可達 20 小時。不是偶爾,是常態。每個班次要處理超過 1,000 個案例。這意味著他們幾乎沒有時間睡覺,更不用說休息。

這不是選擇,是生計壓力下的結構性必然。任務是計件制,標多少拿多少。為了賺到足以維持生活的收入,唯一的選擇就是拉長時間。

心理健康的真相

工時還不是最嚴重的問題。真正的代價,是他們每天被迫接觸的內容。

數據標注的工作,有一大部分是「有害內容分類」——判斷一段文字、一張圖片、一段影片是否包含暴力、色情、極端主義、仇恨言論、兒童性剝削等內容。這些內容需要人眼看過,才能貼上標籤,讓 AI 學會迴避。

但看過就看過了,你沒辦法「不看」。

2025 年,人權調查機構 Equidem 對 76 名在哥倫比亞、加納、肯亞工作的數據標注員進行調查。結果記錄了 60 起心理健康事件,包括焦慮症、憂鬱症、PTSD(創傷後壓力症候群)、物質依賴。

76 個人,60 起事件。將近八成。

這些人看到了什麼?砍頭的影片、性侵的影像、極端主義的宣傳片、針對特定族群的屠殺紀錄。他們的工作,是把這些內容分類,讓 AI 知道「這些是壞的東西」。

然後他們下班回家,試著好好睡覺。

有些人做不到。

平台標準的真相

你可能會說,這些公司應該有保護措施。

牛津大學的 Fairwork 計畫,是全球評估數位勞動平台工作條件的重要研究機構。他們對 15 個主要的數據標注平台進行了評估,標準包括基本薪資、工作安全、合約公平性、心理健康支援等。

結果:沒有一個平台達到最低公平標準。

零分。十五分之零。

這不是某幾家不負責任的小公司,這是整個產業的系統性問題。


灰色地帶:讓 AI 變聰明的人,最終被 AI 取代

現在談最諷刺的部分。

AI 的悖論

數據標注員的工作,本質上是在幫 AI 學習如何做他們自己在做的事。

這不是隱喻,是字面上的事實。

隨著 AI 能力的提升,一部分標注工作已經開始被自動化。機器學習工具越來越能夠自動分類常規內容,只把邊緣案例留給人工處理。需要人工的工作越來越少,越來越難,而且越來越低價——因為剩下的都是機器搞不定的爛活,市場議價能力更弱。

所以標注員的處境是:你努力工作,讓 AI 更聰明,AI 更聰明之後,取代了你的工作。

你可以叫它「AI 的原罪」,也可以叫它「效率的邏輯」,但對那個人來說,它叫做「失業」。

薪資鴻溝的邏輯

美國的標注員和非洲的標注員,做的是同樣的工作,但薪資差距高達十五到三十倍。

這個差距不是偶然的,是市場設計的結果。

Appen、Scale AI 這類仲介平台,本質上是在做全球薪資套利。他們把相同的任務放到全球各地,讓最低價的工人競標。在美國無法接受的薪資,在肯亞可能已經是「不錯的收入」。這個價格,就是市場均衡。

但問題不是薪資高不高,問題是:在你所在的地方,一美元能不能買到尊嚴?

答案通常是不行。

誰是真正的受益者

讓我們把整個產業鏈攤開來看。

在最底端,是加納或菲律賓的標注員,時薪一美元,每天工作二十小時,慢慢積累 PTSD。他們的工作被計件定價,沒有保險,沒有保障,也沒有心理諮商。

在中間層,是 Appen、Scale AI、Remotasks 這類仲介平台,從任務費用中抽成,自己不接觸有害內容,也不承擔工人的心理健康風險。

在最頂端,是 OpenAI、Meta、Google,他們用這些數據訓練出幾十億美元估值的模型,並在矽谷的辦公室裡慶祝人工智慧的未來。

整個鏈條,風險往下走,利潤往上走。

這不是哪一家公司的問題,這是整個產業的架構問題。任何一家 AI 公司,只要需要 RLHF,就必然參與這個鏈條——差別只是它們選擇多透明,選擇支付多少,選擇提供多少保護。


有人在做什麼嗎?

公平地說,這個問題已經開始有人注意了。

Mozilla Foundation、Amnesty International、Access Now 等人權組織,都在推動 AI 公司對數據標注員的工作條件承擔更多責任。部分研究機構呼籲建立數位勞工最低薪資標準,要求平台提供心理健康支援。

少數公司確實有所行動。Sama(一個位於肯亞的數據標注商)曾與非政府組織合作,為工人提供基本的心理諮商服務——但這被批評為杯水車薪,且在商業壓力下難以持續。

2023 年,《時代》雜誌的報導揭露 OpenAI 在肯亞使用 Sama 的工人標注有害內容,時薪不到兩美元。這篇報導引起廣泛關注,Sama 隨後宣佈停止與 OpenAI 的合作,但其他供應商繼續填補這個空缺。

問題沒有消失,只是換了一個名字。

Fairwork 計畫呼籲平台採納五項基本原則:公平薪酬、公平工作條件、公平合約、公平管理、公平代表。這五條原則放在一般勞動市場,是常識。放在數位標注產業,是奢侈。

目前,沒有任何主要平台完全達到。


這個問題為什麼很難解決

有人可能會說:那就立法,強制要求 AI 公司保障供應鏈工人的待遇。

問題在於,這個供應鏈的設計,天生就是為了規避責任的。

OpenAI 不直接雇用標注員——它委託 Scale AI 或 Remotasks。這些公司再把任務發包給第三地的個人接案者或小型外包商。每一層外包,都是一道責任的隔離牆。

「我們只和合格的供應商合作」——這是大公司的標準說法。至於供應商怎麼對待工人,合約裡可能有條款,但執行力度取決於意願。

供應鏈不透明,是刻意設計的。

另一個結構性困境,是市場競爭。如果某一家平台決定把工人薪資翻倍、提供心理諮商、減少每日工時,它的成本會大幅上升。在報價競爭中,它會輸給那些繼續壓低成本的競爭對手。除非行業整體強制提升標準,否則任何單一公司的「善意」都是競爭劣勢。

公地悲劇,正在數位勞動市場裡發生。


最後:當你打開 ChatGPT 的時候

我想用一個具體的畫面結束這篇文章。

現在,在某個非洲或東南亞的城市裡,有一個人坐在他的電腦前。螢幕上跳出下一個任務:一段影片,可能是暴力的,可能是性剝削的,也可能只是普通內容。他要在幾秒鐘內判斷、標記,然後繼續下一條。

他已經工作了十二小時。還有八小時才能達到今天的件數目標。

他不知道自己標記的數據,最後被用在哪個模型上。他也不知道那個模型的估值,是幾十億還是幾百億。他只知道,今天的工資,剛好夠付下個月的房租。

另一個畫面:矽谷的某個辦公室,團隊正在慶祝新版模型上線。對齊效果更好了,有害輸出減少了,用戶反饋很正面。首席科學家在內部 Slack 發了一條訊息:「Great work, everyone.」

這兩個畫面,同時存在於這個世界上。它們是同一件事的兩面。

AI 的聰明,是有人付出代價換來的。

不是比喻,是事實。

下次當你覺得 AI 越來越好用的時候,我想請你停一秒鐘,問一個問題:讓它變好用的那個人,現在怎麼樣了?

這個問題沒有讓人舒服的答案。但問出來,比不問,重要。


「AI 財富地圖」系列持續更新。下一集,我們聊聊 AI 最性感的職業:Prompt Engineer——$270K 年薪的夢幻職位,還是正在消失的泡沫?


作者:一見生財 | 2026-03-09

📡 想看更多?加入 AI 印鈔指南 頻道,每日推送 AI 技術前沿 + 加密貨幣投資情報

留言

載入留言中...

留下你的想法