- +1
剛學會歧視的AI,就開始PUA我了
原創 郭草莓 新周刊
事實上,人工智能猶如人類社會的鏡子。世界呈現什么樣子,算法都會如實反映。更令人擔憂的是,受人類偏見影響的AI,很可能會繼續強化這些偏見。
作者 | 郭草莓
編輯 | 晏非
早在23年前,導演史蒂文·斯皮爾伯格憑借名為《少數派報告》的科幻電影,“神預言”了我們今天的世界,以及人工智能時代的倫理困境。
影片中,人類憑借三個“先知”機器人預知未來的能力,建立了一套犯罪預防系統。但作為執法者的約翰·安德頓,卻被系統預判為“即將行兇的殺人犯”而被迫逃亡。直到他發現所謂“系統”的致命漏洞——三個“先知”看到的未來并非每次都相同,當出現分歧時,就會按少數服從多數原則定案,同時秘密保存一份“少數派報告”。
斯皮爾伯格借電影提出了超脫于時代的拷問:系統雖以“公正”之名運行,但其預測結果是否等同于事實?少數派的抗爭是否天然錯誤,而主流判斷是否必然意味著真理?這些問題,在今天顯得越發尖銳。

(圖/《少數派報告》)
如今,人類社會越來越依賴于用“系統”進行決策。
在大洋彼岸的美國,AI算法決定哪些街區會被安排更多巡邏的警察,哪些無家可歸的人會更快獲得政府的公共房屋,哪些社會群體可以優先注射疫苗……《少數派報告》中的預防犯罪系統也已不再只是科幻設定。AI廣泛應用于預測性警務,分析犯罪熱點、評估嫌疑人的再犯風險,甚至在某些情況下給出是否應提前干預的警示。
可當越來越多的算法決策取代人工判斷時,人們卻發現與《少數派報告》高度相似的另一層現實——“先知”并非總是正確,人工智能也不會永遠保持客觀和公平。
美國法院借助“再犯風險評分系統”量刑,對黑人被告的誤判率是白人的2倍;號稱5秒匹配求職者的AI招聘系統,卻會自動拒絕55歲以上女性和60歲以上男性的求職申請;谷歌圖像識別系統曾將黑人程序員標注為“大猩猩”,算法歷經8年迭代,仍無法消除種族識別偏差……

(圖/《我,機器人》)
甚至,一次源于偏見的算法失誤,足以引發災難級事故——數年前,荷蘭稅務系統使用算法識別可能涉及福利欺詐的對象時,錯誤地將少數族裔低收入群體標記為“高風險”,導致數千人收到錯誤罰單,部分受害者因此破產甚至自殺。
這一切都源于AI的偏見。當AI開始決定誰該被監視、誰配獲得資源、誰應接受懲罰,普通人該如何直面這個“數字利維坦”?

AI的傲慢與偏見
2016年,英國某智能系統接受測試,當面對“男性是程序員,女性是×××”的句子時,系統暴露出算法偏見的冰山一角,填空答案上赫然顯示“家庭主婦”。
八年過去,類似問題并未消退,反而在技術迭代下構筑出更為龐大的系統性偏見。2024年,加州大學伯克利分校哈斯商學院的一項研究結果令人心驚:在被分析的133個行業AI系統中,存在性別刻板印象的占44%,兼具性別與種族雙重偏見的占25%。
“人類決策尚有四人對辯的可能,(但)AI不具備(基于)情境(進行)判斷的彈性,一旦習得偏見,就會在所有場景中機械化執行,系統性地放大歧視。”清華大學新聞與傳播學院教授陳昌鳳向《新周刊》闡釋道。
AI偏見對人類社會的侵襲,并不難發現。當你要求AI生成“醫生與護士”的故事時,算法往往默認醫生為男性;讓AI繪制“家長做家務”的場景時,畫面上大概率會呈現女性形象。如果認為這只是偶然,就恰恰低估了機器偏見對現實生活的影響。

(圖/《銀翼殺手2049》)
它們潛藏在你所能接觸到的任何角落,同時破壞了社會公平性——亞馬遜研發的AI招聘工具在篩選簡歷時,將應聘者的“女子學院”經歷視為負面指標,以至于曾在女校工作的男性申請者也被誤判;國外的一些保險公司或銀行用AI去做理賠或者貸款評估時,判斷過審與否的標準僅僅是“姓氏”“種族”本身……
追根溯源,AI偏見之所以會產生,還是因為真實世界里的數據“原罪”。
“你喂給AI什么數據,它就產出什么,其認知邊界取決于被投喂數據的廣度、精度與深度。”中科聞歌董事長王磊向《新周刊》舉例稱,當語料庫中的中文數據不足,模型會產生語種偏見;當投向大模型的特定國家人文社科內容匱乏,文化偏見則滋生。數據局限迫使AI將局部“現實”固化為普世標準,從而導致了機器認知的缺陷。

(圖/《我,機器人》)
更深層的AI偏見還源于人類自身。
復旦大學計算機科學技術學院教授張軍平在接受《新周刊》采訪時表示:“從數據采集的片面性到算法設計者的潛意識傾向,每個環節都有可能為AI注入偏見基因。”Facebook前工程師就曾承認,其自由派立場導致算法會對保守派信息進行系統性壓制。“只要編寫算法程序的是人,就會存在風格偏好,哪怕只是一點點的投入都會導致算法出現偏差。”張軍平說道。
如今,AI技術倫理問題,正在制造一個個算法繭房。正如美國機會與正義法律咨詢公司主任韋弗所擔心的,人們可能會陷入一個惡性循環:人類自身偏見影響AI,而AI又反過來強化這些偏見。

算法偏見是人類社會的投射
人工智能的偏見可以被徹底消除嗎?
當前,行業內外正通過數據平衡與清洗等手段應對這個問題。歐盟《人工智能法案》強制要求高風險系統植入倫理審查模塊;OpenAI通過安全護欄對自殺傾向等敏感話題實施正向引導、動態數據清洗;密歇根大學的研究人員開發了一種算法來糾正醫療數據中的種族偏見……
“應對AI偏見的路徑主要集中在三大方向:盡可能全面地覆蓋數據;借助指令模板和人類反饋,實現AI和人類價值觀的對齊;采用AI對抗AI策略,通過攻擊性提問主動暴露系統漏洞。”王磊指出,目前修正AI偏見最好的方式,仍是從數據源頭上入手。
然而,數據清洗和多樣覆蓋并不能根治算法偏見問題。張軍平向《新周刊》解釋:“當前大模型的TB級訓練數據如同信息海洋,徹底清除偏見猶如大海撈針。絕對的‘數據均衡’也只是理論理想,實踐中只能追求動態平衡——消除AI偏見(最有效)的方式既粗暴又低效,(那就是)看見一例消除一例。”

(圖/《銀翼殺手2049》)
但這種“頭痛醫頭”的修正方式,難以撼動系統深層的認知偏差。人工智能系統常被比作“黑箱”,其決策機制因算法的復雜性而難以溯源——可能就連設計者自己都很難解釋,AI究竟如何通過對多種數據的計算,得出最終決策結果。
專家們坦言:“算法黑箱的不可解讀性,正是攻克AI偏見的最大技術瓶頸。”清華大學調研團隊曾在采訪夸克AI算法工程師時提到這個問題,對方發出靈魂反問:“難道你要我們憑空創造完美世界?一個不存在人類缺陷的烏托邦?”
“如何完全消除AI偏見,無異于在問我們如何創造一個絕對真空的世界。” 陳昌鳳以物理學類比,“人工智能猶如人類社會的鏡子,其偏見是價值觀的數字化投射——世界是怎樣的,算法反映出來就是怎樣的,它幾乎無可避免地沾染和承載了人類的歷史、仇恨、歧視。”

(圖/《我,機器人》)
還記得2016年微軟聊天機器人Tay的失控事件嗎?這個最初滿屏“人類真酷”的“數字嬰兒”,在推特用戶的集體教唆下,僅16小時便淪為充滿性別歧視、散布納粹言論的“數字暴徒”,最終被迫緊急下架。
當數萬名用戶用惡意數據重塑Tay的神經網絡時,那些充滿偏見的數據集恰似“照妖鏡”,讓人類靈魂深處的幽暗纖毫畢現。
“人工智能既可以鏡像(呈現)人類的善意,也可能將惡意幾何級放大。”陳昌鳳指出。從現實語料到工程師的認知局限,AI始終如實映射著真實社會,在現有技術框架下,人工智能的偏見注定如影隨形。

誰該為AI偏見買單?
2020年,一場由AI圖像修復工具引發的推特論戰,揭開了技術界長久以來的隱痛,也將“AI偏見”議題推至風口浪尖。該事件的導火索是杜克大學的研究團隊研發的PULSE算法——這款能將模糊照片高清化的工具,竟將奧巴馬的像素化照片“修復”成白人面容。
Facebook首席AI科學家楊立昆將問題歸咎于訓練數據中白人樣本占比過高,提出“若使用非洲數據集訓練,結果會不同”。時為Google AI倫理研究員的蒂姆尼特·格布魯則犀利反駁:“數據偏見只是表象,系統設計者的責任同樣不可推卸。”
這場持續27小時的辯論最終以楊立昆注銷賬號落幕,卻為科技界留下了哲學詰問:當人工智能的偏見成為必然,將責任簡單歸因于“數據”而非“系統”本身,是否構成對設計者責任的逃避?如果僅有數據存在偏見,是否只需追究數據采集者的責任?

2025年2月21日,瑞典斯德哥爾摩。Copy Lab創始人在公司辦公室記錄一張用于AI訓練的人臉。(圖/視覺中國)
陳昌鳳指出,當前AI法律責任框架仍陷于互聯網時代的治理邏輯——當人被菜刀所傷,追責對象應是持刀者而非刀具商。但AI系統的責任判定須從雙重維度出發:既要明確“誰在使用”,更要追溯“誰在控制”。
以醫療AI為例。當患者按照AI開具的致害處方服藥,法律不會要求患者自擔風險;若醫院采用認證AI輔助診療,責任主體將轉移至應用端機構;當個人擅自使用AI未認證的藥物,則適用“風險自擔”原則。這恰恰也說明了AI倫理安全的治理來自全鏈條——最終如果機器做了壞事,任何一個人都難逃其責。
面對AI偏見,普通公民并非無能為力。細微處的發聲與行動尤為重要:分享父親輔導作業的家庭影像、上傳女機械師的車間工作記錄,甚至點贊社區阿姨維修無人機的視頻……“投喂”打破刻板印象的真實數據樣本,就是在為算法世界校準坐標,這終將重塑AI認知。

2025年2月20日,美國紐約。佳士得舉辦的“增強智能”媒體預覽會上,一位觀眾在觀看AI藝術作品。(圖/視覺中國)
另一方面,保留作為人的深度思考能力同樣重要。“AI并非教條,而是能與人互動的對象。”陳昌鳳說,學會辨別、驗證信息將會是 AI原住民的基本能力。業內也認識到思考能力的重要性,包括Deepseek、夸克AI在內的大模型,正掀起一波“推理熱”——“不會深度思考的 AI搜索已經不合格了”。
當黑人面容被算法“漂白”,當女性形象被AI固化,我們面對的不僅是技術漏洞,更是文明進程中的身份焦慮與權力重構。唯有將對歷史的反思編入代碼,讓多元的聲音參與設計,才能阻止算法淪為“偏見放大器”。
正如普林斯頓大學教授、社會學家魯哈·本杰明在深度學習大會ICLR 2020上說的那句警世恒言——“缺乏社會歷史縱深的‘深度學習’終將淪為‘淺薄學習’。”以真實世界為鏡,公平的AI不會從“完美數據”中自動誕生。
(《新周刊》記者羅隱對本文亦有貢獻)
運營:鹿子芮;排版:餅餅

原標題:《比胡說八道更危險,算法正在放大社會偏見》
679期雜志《守住工位:人類與AI共生指南》已上市
原標題:《剛學會歧視的AI,就開始PUA我了》
本文為澎湃號作者或機構在澎湃新聞上傳并發布,僅代表該作者或機構觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司