上次你在 Google 地圖挑餐廳,那五顆星是真的嗎?
你在 Amazon 看到那幾百條「非常好用」的評論,是真實買家寫的嗎?你在 Zillow 查那棟房子的仲介評價,確定不是 AI 生成的?
我不是要你停止相信評論。我只是想讓你知道:你每天賴以做決策的那套「社會信任系統」,已經有將近三分之一是假的。
先看數字,再談感受
2025 年,全球線上評論中,30% 是假評論。
這不是估算,是跨平台稽核後的數據。而且這 30% 不是均勻分布的——在某些類別,比如健康保健品、餐廳、電商平台的中小賣家,比例更高。
82% 的消費者表示,他們每年都會遇到假評論。 換個說法:你今年看過的評論,平均每五條裡就有一到兩條是假的,而且你不會知道哪幾條。
更具體的損失數字:假評論誘導消費者做出錯誤購買決策,2025 年全球消費者因此損失了 $7,877 億美元。這不是詐騙金額,而是「你本來不需要買、卻因為看了假評論而掏錢」的總和。
這個數字,比許多中型國家的 GDP 還大。
誰在賺?假評論是門好生意
我們先把道德問題放一邊,純粹看商業邏輯。
假評論之所以存在,是因為它有效。研究顯示:一顆星的評分提升,可以讓商品需求增加 38%。前兩週刷一波假好評,可以讓銷售數字提升 12.5%。
對電商賣家來說,這個回報率比任何廣告投放都要高。
那成本呢?被 FTC 起訴、最終關閉的假評論平台 BigBoostUp.com 的定價是:每條假評論 $1 到 $10。搭配 AI 工具和腳本,同一組人可以每天自動生成並發布數千條風格各異的評論——不同用戶名、不同語氣、不同購買場景,看起來毫無破綻。
這不是一個人坐在那邊慢慢打字。這是工業化的流水線。
然後還有更陰暗的玩法:負評攻擊。
你不需要給自己刷好評,你只需要給競爭對手刷差評。讓他們的星級下滑,讓他們的排名跌出前頁,讓消費者自動轉向你。
這個打法在電商圈有個不成文的名字:「開炮」。服務商明碼標價,委託方付錢,目標的生意就慢慢垮掉。沒有任何物理犯罪,只有一條條隱藏在演算法裡的數字。
誰在死?你我這樣的普通消費者
$7,877 億,錢是從哪裡來的?
是消費者的口袋。
你買了那個 Amazon 四顆半星的藍牙喇叭,回家發現音質很差,退不退貨?大多數人不退。太麻煩了,差幾百塊,算了。
你訂了那家 Google 地圖上五顆星的民宿,入住後發現評論根本是亂寫的。你留了一顆星的負評,但沒有人理你,因為他們有五百條假好評把你的真實差評淹沒掉了。
這種損失,不是一次性的鉅款詐騙,而是每一次購物決策的小小扭曲。一年幾次,每次幾百到幾千,全球幾十億消費者加總起來,就是那個 $7,877 億。
然後還有房地產。
Zillow——美國最大的房產資訊平台——的仲介評論,2025 年有 23.7% 被判定為 AI 生成。2019 年,這個比例只有 3.63%。
六年間,AI 生成評論從邊緣現象變成主流的四分之一。
這不是隨便買個咖啡機的決策。這是你可能花一輩子積蓄買的房子,你信任的仲介。那些五星好評說他「專業、誠信、真心為買家著想」,可能是他自己用 AI 生成的。
灰色地帶:反制生意比犯罪更賺錢
Google 不是沒在抵抗。
2024 年,Google 對假評論的反制力度達到歷史最高點:每年自動攔截超過 2.5 億條可疑評論,另外刪除了數百萬條違規評論。Google 和 Amazon 還聯合起訴了假評論販賣商。
但你知道這場戰爭的結果是什麼嗎?
攔截了 2.5 億條,市場繼續運作,因為總產量更大。就像你每天抓幾十萬條垃圾郵件,垃圾郵件還是每天湧入你的信箱。
而且還有一個更荒誕的現象正在發生:反制假評論的產業,比做假評論的更賺錢。
現在有一整個生態圈的 SaaS 工具,專門幫品牌「監測評論真實性」、「標記可疑內容」、「保護品牌評分」。這些工具的訂閱費加起來,遠超過假評論服務的市場規模。
有人在賣病毒,有人在賣疫苗,有人在賣口罩,有人在賣清潔劑。所有人都在這場假評論的戰爭裡收費。
唯一沒有人保護的,是那個看評論做決策的你。
AI 是如何讓這一切加速的
假評論不是 AI 的發明,但 AI 讓它規模化了。
過去,刷評論需要人工——真實的 IP、真實的帳號、聽起來自然的文字。這有成本上限:你需要僱人,需要管理帳號庫,寫出來的評論如果語氣太像,平台演算法會抓到。
現在,AI 可以做以下這些事:
一、生成多元化文本。 同樣的好評,AI 可以生成五百個版本——不同的用詞習慣、不同的購買動機、不同的語氣(熱情型、理性型、猶豫後被說服型)。演算法很難識別,因為它們「看起來不一樣」。
二、批量操作。 配合自動化腳本,可以同時對幾十個商品在幾十個平台刷評論,單位成本趨近於零。
三、生成攻擊性差評。 AI 可以針對競品的真實痛點,寫出聽起來像真實買家抱怨的差評。這比亂造要難反制。
四、保持最新感。 舊帳號發的假評論容易被識別,AI 可以配合新帳號的預熱腳本,讓帳號看起來有正常的使用歷史再開始刷評論。
Amazon 的數據顯示,目前平台上高度可確認為 AI 生成的評論佔 3%,且正在以「內容農場規模」自動化生產。但 3% 是「可確認」的,不可確認的有多少?沒人知道。
你以為自己識得破,其實你不行
這裡有個讓人不舒服的事實:你沒有辦法靠肉眼識別假評論。
不是說你笨。是說這本來就是一個「信息不對稱的戰場」,你沒有武器。
你以為看「評論日期分布」可以識別?不行,AI 可以調整發布時間節奏。
你以為看「評論細節豐富度」可以識別?不行,AI 可以生成帶有很多細節的假評論。
你以為看「有幾個負評」可以識別?不行,賣家可以買假好評的同時,買幾條輕度負評「讓評論看起來真實」。
有一個出現在研究文獻裡的說法:
「即使是訓練有素的稽核員,面對高品質 AI 生成評論,識別準確率也不到 65%。」
你的直覺,比專業稽核員更不可靠。
信任變成了稀缺品
我不想說「所有評論都是假的,不要相信任何評論」——這是懶惰的結論。
但我想說的是:你正在進入一個「信任需要重建的時代」。
過去,評論系統的設計前提是「大多數人說的是真話」。這個前提在被 AI 假評論系統性地破壞。當 30% 的評論是假的,剩下的 70% 也開始失去參考價值——因為你不知道哪 30% 是假的。
這就是「信任污染」。不需要讓所有水都有毒,只要讓你不確定哪杯水是毒的,你就無法正常喝水。
Google 在攔截、Amazon 在起訴、FTC 在罰款,但這些反制的速度遠遠趕不上 AI 生成假評論的速度。這不是政策失靈,這是一個結構性問題:生成假評論的邊際成本趨近於零,但辨識和刪除假評論的成本是固定的。
當一邊的成本是 $0.001/條,另一邊是 $1/條,你怎麼打?
你還能怎麼做?
幾個不那麼樂觀但比較實用的建議:
1. 優先看差評。 假評論系統通常主攻好評,差評成本較高(容易被賣家檢舉)。負評裡,真實的痛點比較難偽造。
2. 找有圖有影片的評論,但不要輕信。 這提高了造假的成本,雖然仍然可以偽造,但至少門檻高一些。
3. 查第三方平台交叉比對。 如果一個商品在 Amazon 五星、在某個獨立論壇上罵聲一片,相信那個論壇。
4. 用 Fakespot 或 ReviewMeta 這類工具。 它們不完美,但能幫你把「高可疑」的評論過濾掉一批。
5. 重視社群推薦,而非平台評論。 真實用戶在 Reddit、PTT、Discord 社群的推薦,造假成本遠高於電商平台。
最後一個問題
當你每天依賴評論來選餐廳、選產品、選服務提供者,但你再也沒有辦法確認哪些評論是真的,你的行為會怎麼改變?
有些人會開始只用口碑。有些人會開始找「我認識的人用過的」。有些人會開始花更多時間做研究,或者乾脆放棄研究、買貴一點但品牌信任度高的商品。
這都是「信任系統崩潰後,個人的應對方式」。
但有一件事你需要接受:
在 AI 假評論的時代,「信任」本身就成了最稀缺的商品。
誰能建立真實的信任,誰就有真正的護城河。不管是人還是品牌。
一見生財,2026-03-09
載入留言中...