1. 跳轉至内容
  2. 跳轉至主選單
  3. 跳轉到更多DW網站

臉書「心理試驗」引發眾怒

2014年6月30日

臉書秘密操控部分用戶所接受的新聞內容,從而進行所謂「情緒傳染」的研究。細致入微的研究報告公佈之後,在社群網站上引發用戶猛烈抨擊。

https://p.dw.com/p/1CSpN
Frage Facebook
圖片來源: DW

(德國之聲中文網)2012年,網路社交平台臉書(Facebook)通過篡改內部程序算法的方式,操作部分用戶所能見到的新聞內容,總共涉及近70萬用戶,其中大約31萬用戶所看到的新聞推送內容實際受到了操控。這項"試驗"持續一周,目的是研究新聞內容會對用戶情緒產生何種影響。

這項"試驗"由臉書、康奈爾大學和加州大學三藩市分校聯合進行,研究結果發表於6月17日一期的《美國國家科學院院刊》。

研究者們希望瞭解,用戶所閱讀訊息中包含積極或消極字眼的數量是否會對他們產生影響,導致這些用戶在自己的狀態更新上也發表積極或效應內容。

Symbolbild Cybermobbing
大約31萬用戶所看到的新聞推送內容實際受到了操控圖片來源: picture-alliance/dpa

情緒傳染程度有限

研究結果顯示,閱讀內容受到操控的用戶在接觸到消極訊息之後,確實會在自己的狀態更新欄中同樣使用消極字眼,反之亦然。但是這一效應非常有限。看到較少消極訊息的用戶,會發表的積極內容僅多出0.06%,消極內容減少0.07%。

周六(6月28日),網路雜誌"Slate"和"大西洋"(The Atlantic)網站就此事件進行報導之後,該項研究結果隨即在公眾輿論中擴散。

"情感狀態可以通過情緒傳染的方式傳遞給他人,讓人們在不自知的情況下感受同樣的情緒,"研究作者寫道。

"這些結果顯示,他人在臉書上的情緒宣洩會對我們自己的情緒產生影響,為社交網路上的大規模(情緒)傳染提供了實證依據。"

其他類似研究項目均使用元數據來進行趨勢研究,而該項研究的獨特性在於研究對數據進行操控,以便觀察對像是否有所反應。

試驗合法 道德存疑

法新社在相關報導中指出,這項研究符合臉書的相關規定,但問題在於,這樣做是否存在道德問題?

一位推特用戶寫道:"如果臉書為了進行大規模心理試驗而操縱用戶內容,Yeah,是時候關閉臉書帳戶了。"

其他推特用戶則使用類似"超級惡心","令人毛骨悚然"和"邪惡"等字眼來形容臉書的做法。

對研究報告進行編輯工作的普林斯頓大學菲斯克教授(Susan Fiske)對"大西洋"網站表示,她此前就對該項研究表示憂慮,並曾與報告作者取得聯繫。

Symbolbild Soziale Medien Social Media Facebook
"臉書顯然始終都在操縱人們的新聞內容"圖片來源: picture-alliance/dpa

對方告知菲斯克,他們的研究審核委員會批准了該項研究,理由是"臉書顯然始終都在操縱人們的新聞內容。"

菲斯克承認,自己對於該項研究感到"頗為恐怖"。

臉書對"大西洋"網站表示,他們對研究進行了"認真考慮",並且經過了"嚴格的內部審核程序"。數據分析員克拉默爾(Adam Kramer)強調,就網路整體而言,這次試驗涉及的盡是很小一部分用戶,"0.04%的用戶,也就是說:每2500個人中只有一個人。"沒有人的臉書內容被隱藏起來,只是在部分其他用戶的推送訊息中無法看到。克拉默爾在臉書上發布帖子稱,研究目的是為改善臉書的服務品質。

臉書是世界最大網路社交平台,聲稱擁有超過10億活躍用戶。

綜合報導:石濤

責編:苗子