长兴郴障科技有限公司

澎湃Logo
下載客戶端

登錄

  • +1

澎湃思想周報|AI關乎權力而非技術;心理治療機器人的悖論

季寺,賈敏
2024-11-11 14:21
來源:澎湃新聞
? 思想市場 >
字號

AI關乎權力而非技術  

近日,《雅各賓》發表了研究者Jason Resnikoff的文章,認為AI并非一種特定的技術,而只是一種敘述。AI不過是這個利用技術烏托邦主義來貶低勞動的敘述中的一個新篇章。AI有可能對工人造成嚴重傷害——原因并非來自技術本身,而在于老板掌控了它。Jason Resnikoff是《勞動的終結:自動化的承諾如何降低了勞動質量》一書的作者。

AI帶來的物質變化并未消除人類勞動,反而讓勞動退化。作者認為,這在機械化的歷史中早有先例,從工業革命伊始,技術不但沒有減輕工作量,反而使雇主利用技術——甚至只是技術的概念——把原本優質的工作變成了低技能勞動,并通過技術掩蓋人類的勞動,讓勞動力成本更低。

雇主們借用AI這個詞匯來編織一個技術進步、打壓工會和勞動退化(Labor Degradation,降低勞動質量)密不可分的故事。然而,這種退化并非技術的本質,而是資本和勞動關系的產物。目前關于AI和工作未來的討論,只不過是雇主長期以來試圖削弱工人權力、聲稱人類勞動價值下降的又一新篇章。

當技術企業家談論“AI做這個”、“AI做那個”時(比如埃隆·馬斯克向前英國首相里希·蘇納克承諾的“AI將帶來豐裕的時代,人人無需工作,因為‘AI能夠包攬一切’”),他們用的“AI”一詞更多是掩蓋實際情況。學術研究領域的AI通常并非特指某種技術,而是如權威人士瑪格麗特·A·博登所定義的“讓計算機做與人類思維類似的事情的實踐”。換句話說,AI更像是一種希望,即制造出表現得像是智能的機器。沒有一項單一技術讓AI在計算機科學中獨樹一幟。

當前許多關于AI的討論集中在人工神經網絡在機器學習中的應用。機器學習指的是使用算法在大量數據集中尋找模式以進行統計預測,如ChatGPT這樣的聊天機器人。聊天機器人通過龐大的計算能力和海量數據來計算一個詞出現在另一個詞旁邊的統計概率。

機器學習通常依賴于設計者來幫助系統解釋數據,這時人工神經網絡派上用場(機器學習和人工神經網絡只是AI的兩種工具)。人工神經網絡是一組鏈接的軟件程序(每個程序稱為一個節點),每個節點可以計算一項特定任務。以ChatGPT為例(屬于大語言模型類別),每個節點是一個運行數學模型(稱為線性回歸模型)的程序,接收數據、預測統計可能性并生成輸出。這些節點相互連接,每個鏈接有不同權重,用于影響最終的輸出。

這種模仿與人類意識相去甚遠。研究人員并不了解大腦的運作,因此無法真正將語言規則編碼進機器內。相反,他們采用了微軟研究院研究員凱特·克勞福德稱之為的“概率或蠻力方法”。人類并不以這種方式思考。例如,兒童并不是通過閱讀所有維基百科的內容并統計詞語的相鄰頻率來學習語言的。此外,這些系統消耗大量能源且費用高昂。訓練ChatGPT-4的成本約為7800萬美元;Google的Gemini Ultra則達到1.91億美元。人類學會和使用語言的成本遠低于此。

在標準機器學習中,人類標記不同輸入以教導機器如何組織數據及其在決定最終輸出時的重要性。例如,許多人領著極低的報酬“預訓練”或教導計算機程序辨認圖像內容,標記圖片以便程序區分花瓶和杯子。據《衛報》報道,OpenAI在肯尼亞雇用合同工為ChatGPT標記涉及暴力、自殘、謀殺等內容的文本和圖像,報酬低得驚人。多名工人聲稱這些工作條件剝削性極強,并請求肯尼亞政府對OpenAI展開調查。

《衛報》的文章以非洲員工Mercy和Anita的經歷為例。Mercy是一名位于肯尼亞內羅畢的內容審核員,她的工作包括審查社交媒體上的暴力或色情內容,以確保其符合公司的社區準則。這些內容常常涉及極端暴力、性虐待等,給她的心理帶來了沉重的負擔。在她的一次審核中,她竟意外發現了一段視頻的受害者是自己的祖父,因這段視頻,她在同事面前崩潰,但主管只是安慰她“明天可以休息”,卻要求她繼續當天的工作。

Anita則在烏干達北部城市古魯從事數據標注工作,負責分析視頻內容中的司機面部表情,幫助構建AI的“車內行為監測系統”。她的工作壓力大,報酬低,長時間面對電腦屏幕注視枯燥的視頻內容,每周45小時的勞動報酬僅略高于200美元,約合每小時1.16美元。

這些內容審核員和數據標注員的日常工作極為艱苦,不僅需要時刻集中注意力,還得面對大量令人不安的內容。由于生產效率要求嚴格,他們必須在規定時間內完成大量任務,幾乎沒有時間休息或反思,許多人因此飽受心理創傷、抑郁甚至有自殺傾向。

文章指出,全球南方(如非洲)的工人因經濟脆弱性,不得不接受這樣的工作條件,而雇主通常對他們的身心健康缺乏關懷。內容審核公司會通過閉路電視監控系統、指紋掃描等監視員工的行為,計算每一秒的工作效率。盡管這些公司聲稱為貧困地區提供就業機會,但實際工作條件令人窒息,且合同通常僅為短期,員工隨時可能失去工作。工人不敢抱怨,因為知道自己很容易被替代。

根據《雅各賓》文章的作者,當代AI的使用趨勢卻趨向于將技術神秘化,將其包裹成一個龐大且難以理解的革命性機制。這種效果并非偶然,而是符合資本的利益。AI,并不是一項革命性的技術,而是關于技術的一個敘述。AI不過是這個利用技術烏托邦主義來貶低勞動的敘述中的一個新篇章。

幾家法國大型連鎖超市聲稱他們使用“人工智能”來識別小偷,然而實際情況是這些監控是由馬達加斯加的員工通過觀看監控視頻完成的,而這些員工每月的收入僅在90至100歐元之間。同樣的情況也發生在所謂的“Voice in Action”技術(其制造商聲稱這是一個“人工智能驅動的”系統)上,該技術在美國的快餐店接收顧客的得來速訂單;事實上,超過70%的訂單都是由菲律賓的員工處理的。人類學家瑪麗·格雷(Mary Gray)和微軟的高級首席研究員西達爾斯·蘇里(Siddharth Suri)形象地稱這種將人力勞動隱藏在數字前臺的做法為“幽靈工作”。

將人工智能僅視為一種技術——無論是機器學習還是數字平臺——都是錯誤的。這引出了關于自動化的話語,而近年來的人工智能熱潮正是其最新的迭代??萍歼M步的理念早在戰后時期之前就已出現,但在二戰之后,這些理念逐漸凝聚成了一種通常被用來削弱工人權力的意識形態。

這種意識形態的初始版本是二戰后美國出現的自動化話語,該話語主張所有技術變革必然指向人類勞動,尤其是藍領工業勞動的消失。它是兩種相互交織的現象的直接產物。首先,是在激進的1930年代后形成的工會組織力量,這對資本構成了威脅;其次,是戰后時期非凡的技術熱情。從1930年代開始,美國企業就試圖將自己及其產品描繪為帶來左翼激進分子曾與政治革命聯系在一起的那種烏托邦式未來的源頭。(例如,杜邦公司承諾通過化學實現“革命性”變化以及“更好的生活”,而不是財產的重新分配。)

二戰的勝利、政府資助的技術突破以及隨之而來的經濟繁榮似乎印證了這種觀點。正如1955年《商業周刊》所說,人們“感到實驗室和工廠里誕生了某種新事物和革命性事物”。因此,從工業領袖到工會官員,再到學生運動成員,甚至一些激進的女權主義者,都覺得或許美國技術能夠克服工業資本主義生產中最痛苦的特征:階級斗爭和工作異化。

這種普遍的信念促使福特汽車公司的一位生產副總裁創造了“自動化”一詞,用來描述公司通過再造工業社會本身的過程,以對抗工會、惡化工作條件。福特公司及其他公司很快將“自動化”描繪成一種將根本改變工業工作場所的革命性技術。自動化的定義模糊不清,但仍有許多美國人真心相信它會獨立地帶來豐裕,同時消滅無產階級,并且用社會學家和著名公共知識分子丹尼爾·貝爾的話說,用高技能的白領“薪水階層”取而代之。然而,各行業中的經理和工人所稱的自動化往往只是導致工作條件惡化和加速工作,而非機器代替人工勞動。

AI就像早期的機械化形式一樣,后者包括自20世紀50年代以來對白領辦公室工作的計算機化機械化,其中雇主的目標是將技術含量較高的白領工作轉變為更便宜的半技術性工作。在20世紀下半葉,計算機制造商和雇主推出電子數字計算機,意圖降低文職人員的工資成本。他們用大量低薪的女性操作打孔機來取代熟練的秘書或辦事員,這些操作員生產的打孔卡片被用于大型批處理計算機中。

結果是文職人員的數量增加了,而不是減少了,但新的工作比以前的工作更差。這些工作更加單調,工作節奏也加快了。在20世紀的最后四分之一里,雇主成功地說服中層管理人員自行承擔文書工作,為他們配備了臺式電腦以便自行完成打字、歸檔和通信工作,這些工作曾經由公司付費給文職人員完成。這種工作降級的方式在今天的白領工作中仍然很常見。

自動化話語的力量在于,它迎合了一種科技進步主義,這種進步主義即便在今天,仍吸引著左翼中的某些傾向,如所謂的加速主義者,他們認為工業化的發展本身會產生無產階級革命的條件。

一些工會在自動化浪潮中做出妥協,如美國國際長途和倉庫工人工會成功地在集裝箱化的過程中爭取到對老員工的退休福利,但大多數工會卻未能抵抗自動化話語的影響。美國肉類包裝工人聯合會允許公司引進工具設備,期望獲得退休福利和轉崗機會,但最終自動化并未解決工人失業的問題,反而導致工會瓦解。類似的情況在現代肉類加工行業仍然存在。

文章認為,今天的“AI”已成為“自動化”的同義詞,帶有類似的、不切實際的技術烏托邦敘述。歷史表明工人和組織者需要警惕這些過度的技術敘事,拒絕將其視為不可逆轉的文明進程,而應將技術視為工作場所的一部分,工人有權對此進行民主治理。AI并非一種具體的革命性技術,它更多是一種用來削弱工人力量的技術敘事。文章建議工人拒絕盲目崇拜科技進步,以爭取在工作場所中對技術的自主權,避免因“進步”之名犧牲勞動權益。

心理治療機器人的悖論

當心理治療資源稀缺的現實遭遇以Chatgpt為代表的聊天機器人的興起,越來越多的人開始向人工智能尋求心理健康支持。當心理治療機器人成為一門越來越大的生意,其中暗藏的危險也逐漸暴露出來。Jess McAllen近日在《異見者》(The Baffler)雜志發表了《機器里的治療師》(The Therapist in the Machine)一文,結合自身經歷對這一現象及其背后的隱憂進行了深入探究。

從新西蘭搬到美國之后,McAllen有5年時間沒有進行心理治療。在她看來,心理治療機器人是美國醫療選擇悖論的化身。在新西蘭,只要評估醫生認為你確實有需要,公共心理健康系統就會指派一名心理醫生,但在美國,她不得不從零開始自己尋找心理醫生。她為此求助了Psychology Today、 Alma和 Headway等多家提供心理咨詢服務的平臺,結果卻迷失在了令人眼花繚亂的搜索結果之中:你不僅要選擇治療師的學位、性別、外貌,還必須找到與自己匹配的流派、個性甚至政治立場,而無論怎么選擇都要付出高昂的費用。

這些困難導致很多需要心理健康治療的人無法得到專業幫助,這個所謂的治療缺口就成為了商機。幾年前,BetterHelp和Talkspace這兩家科技公司開始為訂閱用戶提供和有執照的治療師進行文字和視頻聊天的服務。在積極投放廣告和在社交網絡上開展營銷等策略之下,這種模式一度很受歡迎,兩家公司的利潤都達到了數百萬美元。但最近,在線治療的客戶紛紛表示,他們在不同的治療師之間輾轉,這些治療師似乎總是敷衍了事半途而廢,而線上治療師們則抱怨這些平臺重數量輕質量,總是鼓勵他們承擔不可持續的工作量。現在,層出不窮的心理治療機器人試圖更進一步,通過完全拋棄人類來規避人類的缺陷。

McAllen指出,早在半個多世紀之前,研究人員就開始實驗將人工智能應用于心理治療領域。1966年,麻省理工學院教授約瑟夫·維澤鮑姆(Joseph Weizenbaum)創造了第一個聊天機器人ELIZA,可以被看作是今天的心理治療機器人的原型。ELIZA以蕭伯納的戲劇《皮格馬利翁》中的女主人公命名,通過人工智能的 “自然語言處理”分支進行操作。在1966年一篇概述其研究成果的論文中,維澤鮑姆討論了病人與治療師之間的投射,他寫道:“舉例來說,如果一個人告訴精神科醫生‘我坐了很久的船’,而他的回答是‘跟我說說船吧’,我們不會認為他對船一無所知,而會認為他這樣引導隨后的對話是有某種目的的。”維澤鮑姆認為這種假設有利于治療技術的發展,因為這意味著人工智能不需要掌握關于現實世界的明確信息?!癊LIZA至少表明了制造和維持理解的假象是多么容易,那么具有可信度的判斷的假象同樣如此。這其中潛藏著某種危險?!?/p>

這種危險顯然沒能阻止當代科技公司乃至醫療保健公司不斷推出新的改進版本的心理治療聊天機器人來賺取利潤。最近發布的一項研究表明,與寫日記、心理教育小冊子等傳統的自主行為干預手段相比,心理治療機器人并沒有任何突出之處。這項研究的作者之一Todd Essig博士告訴McAllen,這些人工智能應用程序正在利用“科學”營銷來實現及早套現。套現的具體形式包括提供熊貓造型的AI治療師(Earkick,加入每年40美元的高級計劃可以為“熊貓”佩戴飾品)、提供不同形象、性格和特長的AI治療師供用戶選擇(Heartfelt Services,提供大胡子Paul、神話人物般的Serene和大大咧咧的Joy三種AI治療師選項),等等。

大多數情況下,AI心理治療工具的創造者都聲稱他們至少在增強而非取代傳統的心理健康治療,這些工具的一個顯著優勢是可以隨叫隨到。但McAllen指出,除了對治療費用的考量,治療師提供有限度的服務還有其他原因。太多斷斷續續的交流會削弱每次專門治療的效果,而即時生成的、無邊界的回復可能會強化病人尋求安慰的行為,從而導致他們在感到痛苦時忽視自己的自主性。但也有一些例外,布魯克林綜合心理服務機構的臨床心理學家瑪麗·梅爾卡多(Marie Mercado)認為,對于邊緣性人格障礙的患者而言,知道在治療時間之外理論上可以聯系到自己的治療師是有好處的,但他們需要提前和治療師約定回應方案。她也承認,對于恐慌突然發作無法立刻聯系到人類治療師的人來說,人工智能或許能夠提供幫助,但仍然伴隨著過度介入的風險。

McAllen寫道,盡管人們很容易認為人工智能心理治療被過度炒作了,因此會像NFT或是元宇宙一樣歸于失敗,但事實上,它已經在既有的醫療體系中獲得了巨大的發展勢頭。英國國家醫療服務體系(NHS)采用了一款叫做Limbic的人工智能應用程序幫助篩查和評估尋求心理健康治療的人。2021年,NHS參與了心理健康聊天機器人Wysa的研究。此后,該公司與 NHS 展開了一系列合作,其中包括即將推出的 “針對焦慮和情緒低落等常見心理健康問題”的人工智能 CBT項目。在美國,FDA已授予了Wysa公司開發的由人工智能主導的 “心理健康對話代理器”以“突破性設備稱號”,表明其將與該公司合作加快監管流程。除了眾多心理治療聊天機器人之外,還有一些人工智能初創公司致力于將治療師的部分工作自動化。例如由沃頓商學院校友運營的Marvix AI能夠記錄治療過程并自動生成筆記,形成一個或者兩三個診斷代碼,號稱每天可以為臨床心理醫生節省一到兩個小時,每年為其增加4.3萬美元的收入。在McAllen看來,將不斷提高生產力的價值體系推廣到心理治療領域有著很大的局限性。把心理治療視作可以量化的、因而可以甚至應該提高效率的過程,這種觀點與經常發生倒退并且伴隨著很多復雜性的心理疾病的混亂現實相悖離。

Heartfelt Services的創始人Gunnar J?rgen Viggósson是一名正在攻讀心理學本科學位的計算機科學家,他承認人類治療師在過去發揮的作用,但認為人工智能的優勢恰恰在于它沒有人性。Viggósson認為人們在和人工智能聊天時不會將自己的情感投射于其上,不會覺得它耐心有限或是擔心它覺得自己怪異,但McAllen指出,事實上,受到嚴重精神疾病折磨的人——無論是精神錯亂、狂躁癥或強迫癥發作還是創傷后應激障礙——很可能會將自我投射到聊天機器人上。這正是維澤鮑姆對ELIZA得出的結論之一。一個人在異常精神狀態下的確可能用人工智能的回應促成甚至引導魯莽的決定,從而為自己和他人帶來嚴重后果。但在心理治療機器人的創造者們看來,這些面臨嚴峻精神危機的人似乎并不是這些人工智能應用程序的目標受眾。

McAllen進一步指出,過去心理治療針對的主要是患有嚴重精神疾病的人,直到20世紀90年代最后一波精神病患者去機構化浪潮之后,西方各國才開始開展減少對心理疾病的污名化的運動,由此帶來了人們對于心理治療的觀念變化:現在人們普遍認為心理治療是一種必要的大腦調整,所有人都應該參與其中——如果負擔得起的話。到了2000年代的中后期,傳遞的信息又發生了微妙的變化,宣傳活動,尤其是由政府資助的宣傳活動開始把重點放在更好接受的心理健康問題和含混不清的心理健康概念之上。這些修辭促成了政策上的重大勝利,如2008年的《心理健康與成癮法案》(Mental Health Parity and Addiction Act)和2010年的《平價醫療法案》(Affordable Care Act),這兩項法案都要求醫療保險公司將心理健康治療與其他醫療狀況同等對待。其他相關的后果還包括健康產業的爆炸式發展、高產的自助書籍作者對精神類藥物的妖魔化以及急癥治療快速被 “預防治療”所取代。這些結構性變化制造出了真空,科技公司、私募基金和硅谷風投都試圖瞄準這一領域推出產品。公共醫療保險和私人保險公司很可能都會轉向人工智能心理治療工具,從而以更低廉的價格擴大治療范圍。但心理治療資源向一般心理問題傾斜的結果是 ,患有嚴重精神疾病的人想要獲得亟需的治療變得更困難了,這一人群需要的是更加復雜的心理治療,這一缺口顯然是人工智能無法填補的。

McAllen的切身體會是,只有找到一個和自己的狀況相匹配的專業人士,才能得到真正的幫助。要做到這一點,哪怕不對美國的醫療體系進行根本性的改革,為想要接受治療師培訓的人提供獎學金或補貼就能大大緩解目前專業人士短缺的問題;提高報銷比例,讓治療師放心和保險公司簽約,也能夠解決很多人因為費用高昂而對專業治療望而卻步的問題。試圖用人工智能治療師來填補缺口則不過是掩耳盜鈴而已。

巧合的是,伯克利大學哲學教授Alva No?近日在《萬古雜志》(Aeon)發表的《討伐機器》(Rage Against the Machine)一文,恰好從哲學的視角解釋了人工智能的局限性,其中對于人類語言的深刻分析充分說明了心理治療機器人為什么難以取代人類心理治療師。

在No?看來,圖靈測試本身就具有誤導性。其中至關重要的一點是,圖靈在測試中用打字代替了說話,然而“言語是一種伴隨呼吸的、熱烈的運動,總是在語境當中,在需要、感受、欲望、投射、目標和限制的背景之下,與他人共同展開”。在他看來,與文字信息相比,言語和舞蹈的共同之處更多,如今我們在鍵盤的統治之下太過自如,以至于甚至沒能注意到文本如何掩蓋了語言的身體現實。

圖靈測試中更為隱蔽的一個花招則是用游戲代替了有意義的人類交流。No?認為,對生活的游戲化是圖靈最隱秘而令人不安的遺產之一。圖靈對于游戲的理解是片面而扭曲的,從計算的角度來看,游戲是可理解的虛擬世界的透明結構,在其中規則限制了行動,價值判斷和成敗標準都是確定無疑的,但真正的游戲同時也是競賽,是我們接受考驗的試驗場,我們的局限性會被暴露出來,我們的力量和脆弱都會一并顯現。一個參加國際象棋比賽的孩子可能會極度焦慮以至于感到惡心,這種本能表達并不是偶然的附帶現象,也不是對游戲而言沒有本質價值的外在表現,而是游戲的內在組成部分。也就是說,人類不僅僅是遵循規則或規范的行動者,我們的行動總是(至少是潛在的)沖突場所。

就語言來說,我們說話時不會盲目地遵循規則,規則本身就是可供爭奪和可以爭論的。我們從一開始就不得不面對交談的困難,即使在實事求是且沒有過多壓力的多數情況下,我們也很容易誤解對方。在交談中,質疑用詞,要求重新表述、重復和修正,幾乎是不可避免的。也就是說,交談從一開始就包括了對交談的反思和批評,我們在使用語言的同時也在改變語言,語言是一個捕捉和釋放、參與和批評的場所,是一個過程。而這顯然是機器模擬無法做到的?!叭祟惒皇怯柧毘鰜淼摹N覀儞碛薪涷?。我們學習。例如,對我們來說,學習一門語言不是學習生成‘下一個詞’,而是學著工作、玩耍、吃飯、愛、調情、跳舞、打架、祈禱、操縱、談判、假裝、發明和思考。最關鍵的是,我們不僅僅是吸收學到的東西然后不斷繼續;我們總是抵抗。我們的價值判斷總是無定論的。我們不僅僅是詞語的生成器。我們是意義的創造者?!?/p>

    責任編輯:朱凡
    圖片編輯:張穎
    校對:劉威
    澎湃新聞報料:021-962866
    澎湃新聞,未經授權不得轉載
    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網安備31010602000299號

            互聯網新聞信息服務許可證:31120170006

            增值電信業務經營許可證:滬B2-2017116

            ? 2014-2025 上海東方報業有限公司

            反饋
            网络赌博平台| 百家乐官网在线作弊| 百家乐德州桌| 澳门百家乐官网的故事| 真人百家乐蓝盾娱乐网| 香港百家乐官网的玩法技巧和规则| 安仁县| 澳门百家乐怎么才能赢钱| 百家乐官网解密软件| 大发888最新版本下载| 百家乐官网兑换棋牌| 台州星空棋牌下载| 百家乐网络娱乐场开户注册| 网上百家乐官网| 百家乐官网实战玩法| 足球网| 百家乐真人娱乐场开户注册| 百家乐路纸表格| 赌片百家乐官网的玩法技巧和规则| 平泉县| 百家乐分路单| 金世豪百家乐官网的玩法技巧和规则 | 大赢家百家乐的玩法技巧和规则 | 百家乐官网贴| 威尼斯人娱乐城网| 百家乐智能分析| 百家乐游戏机压法| 大哥大百家乐官网的玩法技巧和规则| 百家乐官网PK| 百家乐官网送1000| 百家乐官网最低压多少| 博狗官网| 威尼斯人娱乐场28| 赌场百家乐攻略| 财神百家乐娱乐城| 百家乐官网群号| 百家乐官网电投网址| 百家乐官网天下第一缆| 澳门百家乐官网投注法| 洞头县| bet365备用器|