长兴郴障科技有限公司

澎湃Logo
下載客戶端

登錄

  • +1

澎湃思想周報|人工智能武器的倫理挑戰;劍橋文科博士遭網暴風波

李斯揚,莊沐楊
2025-01-06 12:05
來源:澎湃新聞
? 思想市場 >
字號

美國ASIMOV計劃與人工智能武器的倫理挑戰

2024年12月19日,美國國防部高級研究計劃局(DARPA)發布了一項與人工智能相關的新計劃——“具有軍事作戰價值的自主標準和理想”(The Autonomy Standards and Ideals with Military Operational Values,簡稱ASIMOV) 項目。該項目的啟動進一步引發了對于人工智能、自主武器系統及其倫理評估問題的關注。

在題為《DARPA探索評估自主武器倫理的方法》的官方新聞中,DARPA表示:ASIMOV計劃旨在為未來的自主系統制定基準,客觀和定量地衡量未來自主用例的倫理難度,以及自主系統在軍事作戰的價值背景下執行這些用例的準備情況。DARPA還聲稱,該項目不制造武器,不直接開發自主系統或用于自主系統的算法,也不為所有自主系統制定標準(其重點是自主武器系統),并且其不專注于制定定性基準。ASIMOV的目標是創建一種“倫理自主通用語言”(the ethical autonomy common language),以使開發測試/操作測試(DT/OT)社區能夠有效評估特定軍事場景的倫理復雜性,以及自主系統在這些場景中遵守人類道德規范的能力。ASIMOV的參與團隊將開發原型生成建模環境,以快速探索日益增加的倫理復雜性范圍內的場景迭代與變量。研究人員將通過多種方式評估自主武器系統遵循人類道德規范的能力。如果成功,ASIMOV將為未來自主系統的基準定義奠定基礎。

 

ASIMOV將“軍事作戰價值”定義為在作戰活動中被認為重要的原則、標準或品質,它們指導軍事人員的行動和決策。遵循指揮官的意圖是ASIMOV開發的關鍵方面之一。DARPA認為,ASIMOV所追求的量化方法將對整個自主系統社區產生更為廣泛的影響。此外,該計劃還將包括一個倫理、法律和社會影響小組,為項目參與者提供建議,并在整個項目過程中提供指導。DARPA同時公布了該計劃的七個簽約合作方:CoVar, LLC; Kitware, Inc.; Lockheed Martin; RTX Technology Research Center; SAAB, Inc.; Systems & Technology Research, LLC以及新南威爾士大學。

根據PR Newswire網站2024年12月20日的報道,人工智能和機器學習解決方案開發商、ASIMOV計劃的合作者之一CoVar公司將負責開發一種名為“GEARS”(Gauging Ethical Autonomous Reliable Systems)的自主系統倫理測試基礎設施。“GEARS”將通過適合于人類和機器理解的知識圖譜來表示倫理場景和指揮官的意圖,從而定義一種新的倫理數學,并從中得出特定場景的可量化倫理挑戰評級。CoVar的首席技術官彼得·托里奧內(Peter Torrione)博士表示:“如果這項工作取得成功,它將成為第一個適用于測試自主系統倫理標準的、基于 ELSI(ethical, legal and social implications)的定量評估框架。這將使美國國防部能夠部署具有AI/ML能力的自主系統,不僅能清楚了解系統的技術能力,還能了解其行為的倫理標準。”

實際上,《軍事與航空航天電子》(Military & Aerospace Electronics)雜志在2024年11月22日的文章《COVAR探索人工智能和機器自主性在軍事應用中的倫理使用》中就提到了這一合作。ASIMOV是一項為期24個月的兩階段計劃,美國空軍研究實驗室代表DARPA在10月授予了CoVar這份價值800萬美元的合同。ASIMOV計劃將以美國國防部2022年6月發布的《負責任的人工智能戰略與實施路徑》(Responsible AI Strategy and Implementation Pathway)為指導方針,制定負責任的軍事人工智能技術基準。該文件列出了美國軍方“負責任的人工智能”的五項道德原則:負責任、公平、可追溯、可靠和可治理。

ASIMOV項目的名字來自于科幻作家艾薩克·阿西莫夫(Isaac Asimov)。他在1942年發表的小說《轉圈圈》(Runaround)中提出了著名的“機器人三定律”:

1.機器人不得傷害人類,或因不作為而使人類受到傷害。

2.機器人必須服從人類的命令,除非這些命令與第一定律相沖突。

3.機器人必須保護自己的存在,只要這種保護不與第一定律或第二定律相沖突。這三條法則為機器人設定了基礎的倫理原則。

DARPA認為,阿西莫夫深入探討了這些法則的局限性以及可能導致意圖失敗的極端案例,而這些情況通常以對人類的不利后果為結局。“阿西莫夫在其作品中預測的挑戰和機遇至今仍具有深刻意義。隨著自主技術和人工智能在民用和軍用領域的迅速發展和普及,我們迫切需要一個強大且量化的框架,不僅用于評估這些系統的技術能力,更重要的是評估其遵守人類道德期望的能力。”

ASIMOV項目負責人克勞蘇蒂斯(T. J. Klausutis)博士表示,“倫理問題本身就充滿挑戰,而對倫理進行量化更是難上加難。ASIMOV 正在解決一個極其復雜的問題,其中包含無限的變量。”“我們不知道我們嘗試做的事情是否真的可行,但我們知道,評估自主武器系統是否符合人類的倫理規范是一場必須展開的對話,而且越快越好。我們的目標極具雄心——通過 ASIMOV計劃,DARPA 希望引領關于自主武器系統倫理問題的國際對話。”據稱,在2024年的預算申請中,DARPA為ASIMOV計劃撥款500萬美元,而2025年將撥款2200萬美元。

1月2日,《新共和》雜志發表了題為《探秘向機器人教授戰爭法則的計劃》(Inside the Plan to Teach Robots the Laws of War)的評論文章,作者黎貝卡·麥卡錫(Rebecca McCarthy)圍繞ASIMOV計劃采訪了相關科學家、研究者和管理者,探討了人工智能武器倫理相關話題。

由ASIMOV計劃引發的一個擔憂是,在未來,軍工企業和科技公司是否會決定他們自己的武器倫理條款?對此,國際機器人武器控制委員會聯合創始人和副主席、紐約新學院大學(The New School)媒體研究副教授彼得·阿薩羅(Peter Asaro)認為,“無論如何他們都會這么做。”阿薩羅的研究重點關注人工智能和機器人技術的倫理問題,包括軍用機器人和無人機的社會、法律與倫理面向。他曾從正義戰爭理論和人權視角撰寫了關于致命機器人的論文,研究了無人機定點清除的人權問題和自主致命機器人的軍備控制問題。在他看來,在“DARPA向雷神公司提供了巨額撥款,以研究人工智能武器的倫理問題(RTX的前身即雷神公司,現為雷神公司的母公司)”和“雷神公司將制造人工智能武器”之間,似乎存在著某種顯而易見的聯系或一個不言自明的答案。

人工智能與自主武器的倫理挑戰在麥卡錫看來也是一個哲學問題。在其中,我們使用的是誰的道德標準?這些標準又是如何選擇的?這些問題都至關重要又復雜難解。“畢竟,個人對道德行為的定義千差萬別,而將道德標準付諸實踐的想法似乎有些荒謬。道德困境之所以是道德困境,正是因為它們從根本上來說很痛苦,很難解決。”麥卡錫認為,很難想象一種不受束縛的人工智能能夠合乎道德——“你可以向一項甚至沒有懷疑能力的技術教授道德嗎?”RTX公司的科學家Peggy Wu對此則表現出更為樂觀的態度。他認為,“這可以說是實現自我反思或內省的第一步。……例如,如果系統可以意識到,‘嘿,我本來可以采取其他做法的’,那么它就可以開始進行下一步的推理——‘我是否應該采取另一種做法呢?’……對我們來說,‘懷疑’的概念實際上更像是概率。這類問題在計算上會迅速變得極其復雜。”

人工智能的道德“懷疑”所涉及的哲學問題是復雜的。在Peggy Wu看來,這個問題似乎可以轉化為概率與計算。而在阿薩羅看來,人類道德的運作機制與人工智能的計算和量化存在著根本的不同。他指出,“你可以利用人工智能反復迭代,重復練習某件事數十億次。但道德并不是這樣運作的。它不是量化的……你的道德品質是在一生中培養的,通過偶爾做出錯誤的決定,從中吸取教訓,而在未來做出更好的決定。這并不像下棋。”道德中的權衡涉及非常多的復雜因素,它并不等同于可以明確量化的“利弊計算”。麥卡錫也認為,向人工智能教授道德是不可行的。“做正確的事情往往是痛苦的——得不到回報,費力不討好,有時還要付出巨大的個人代價。你如何向一個與世界沒有實際利益關系、沒有什么可失去的、沒有罪惡感的系統傳授這樣的知識?而且,如果你真的能賦予武器系統以良知,它最終會不會不再服從命令?”

整體而言,受訪者們對AMOSIV計劃及其涉及的人工智能倫理評估表現出了樂觀與疑慮的兩種態度。不過大多數受訪者也表示,軍方正在考慮為自動化戰爭工具制定道德準則至少是一件令人鼓舞的事情。里士滿大學教授、DARPA訪問學者黎貝卡·克魯托夫(Rebecca Crootof)說道,“這并不是說,DARPA 認為我們能用計算機來捕捉道德。(但是)更明確地表明我們能否做到這一點,是很有意義的。”

麥卡錫提到,訪談中有許多人指出,人類一直在行不道德之事。持有這類觀點的人或許更傾向于支持人工智能進行道德評估的未來愿景。一位ASIMOV計劃的申請人指出,“從理論上看,我們沒有理由不能編寫出比人類更擅長遵守《武器沖突法》的人工智能。”只不過,當面對真實世界的復雜圖景時,人工智能是否能夠勝任依然存在著巨大的疑問。麥卡錫強調,“雖然這種理論上的可能性令人信服,但在戰爭的具體實踐中,這到底會是什么樣子卻是完全不清楚的。以現狀來看,人工智能在處理細微差別方面仍然存在巨大挑戰。即使它未來有所改進,將倫理決策交由機器做出仍然是一個令人深感不安的想法。”

對ASIMOV計劃的疑慮不僅針對人工智能是否能夠“學會”道德判斷與倫理評估的問題,更關乎人類是否應該讓人工智能進行這種評判與決策的問題。ASIMOV計劃的另一位申請者、喬治亞大學哲學教授杰里米·戴維斯(Jeremy Davis)說道,“令人恐懼的是,士兵們會說:‘好吧,我殺了這個家伙,因為是電腦告訴我這么做的。’”而我們已經在許多科幻作品中看到了對于類似場景的想象,其中的殺戮者究竟是機器還是人,或者是機器與人的共謀,成為了沒有標準答案的道德難題。此外,問題關乎是人類真的相信人工智能能夠做出更加“理性”或“更好”的選擇,還是人類其實是在將責任推卸給技術或某個抽象的系統?

《新共和》的文章中簡要提及了DARPA的歷史起源和人工智能作為一門學科的前史,二者都發生于美蘇冷戰并展開太空競賽的1950年代。在歷史性的目光中,對ASIMOV計劃的關注必然勾連起人工智能技術與國際政治的關系。在DARPA的官網上,我們看到它對自身使命的描述是——“為國家安全創造技術驚喜”。日前,特朗普承諾將撤銷拜登政府旨在控制人工智能使用的多項法規,且特朗普挑選的美國新任環境保護署負責人、共和黨前國會議員李·澤爾丁(Lee Zeldin)也表示,他的首要任務之一是“讓美國成為人工智能的全球領導者”,“幫助釋放美國能源主導地位,讓美國成為世界AI之都”。在麥卡錫看來,相關去監管化的跡象說明了,“顯而易見的是,在特朗普的領導下,人工智能將不受束縛。”

去年8月,《華爾街日報》刊登的文章,介紹了美國科技公司和創業者如何通過尖端技術為國防部門提供支持,尤其是在潛在軍事競爭中發揮作用。該文指出,人工智能技術被視為未來軍事戰略的核心,科技公司與國防部門的合作日益緊密,尤其是在研發和部署自主系統方面。自主無人系統、自動化防御系統、人工智能決策支持等技術領域的競爭被認為是未來戰爭中的關鍵變量。此外,這篇文章也探討了與ASIMOV計劃的目標類似的議題,即如何確保自主系統在復雜軍事環境中做出符合倫理的決策。因為相關智能技術的發展引發了倫理與政策方面的爭議,例如自主武器系統的合法性和潛在的濫用風險。為此,政府和科技公司之間的協作需要找到技術推進與倫理責任之間的平衡。

“只有當我們將整個系統削減到允許人類的選擇、人類的干預和人類的目標完全不同于系統本身的目的時,科學技術所帶來的真正優勢才能得以保留。”這句話源自美國社會學家、技術哲學家、城市規劃學者劉易斯·芒福德(Lewis Mumford)1964年在《技術與文化》雜志上發表的《集權技術與民主技術》(Authoritarian and Democratic Technics)一文的結尾。在這篇文章中,芒福德區分了“集權技術”和“民主技術”這兩種主要的技術發展模式,并提出了現代技術過于偏向集權模式因而可能會威脅民主價值觀和人類自由的警告。在1967年和1970年出版的兩卷本《機器的神話》(The Myth of the Machine)中,他繼續批判性地探討了以“巨機器”(megamachine)為本質的現代技術的反有機本性,并主張一種“心靈優先論”(the primacy of mind)——不是技術決定心靈,而是心靈決定技術。

毫無疑問,芒福德對技術烏托邦主義的批判,對技術的非中立性或技術的建構主義視角的強調,對技術的集中化和去中心化關系的辨析,對技術治理的思考,等等,為當代技術哲學的發展提供了深刻的思想遺產。六十年后,面對更為新興的人工智能技術與自主武器,我們似乎已經處于某種不得不更加緊迫地考慮這些問題的境地,特別是對于技術與倫理的關系疑難展開辯論。

如芒福德所言,“我們必須問的問題,不是什么對科學和技術有利,更不是什么對通用汽車公司、聯合碳化物公司、IBM或五角大樓有利,而是什么對人類有利。這里所指的不是被機器控制、被系統規訓的大眾人(mass-man),而是作為個體的活生生的人,他能夠自由地穿越生活的每一個領域。”

從博士論文到人身攻擊:仇恨與反智時代的文科學術窘境

2024年11月28日,如同每一個開設社交媒體賬號的青年學者一樣,劍橋大學英語文學專業的艾莉·盧克斯(Ally Louks)在通過博士論文答辯之后,非常激動地在個人X(推特)賬號上發布了這則喜訊,同時也發出了她和博士論文的自拍合影。不過這份名為《嗅覺倫理:現當代散文中的嗅覺政治》(Olfactory Ethics: The Politics of Smell in Modern and Contemporary Prose)的論文卻在接下來的一整個月里讓盧克斯陷入了荒唐的境地中:在她的帖文轉發和評論區里,大量質疑其論文“價值”的言論出現。如果說稍顯合理的質疑還屬于正常的學術交流,且這也是戴上“劍橋文學博士”這一冠冕所必然要應對的挑戰的話,那么大量針對盧克斯的性別、將其與“覺醒”(woke)政治作聯結并堂而皇之裁定文科學術生產的都是垃圾的言論,則讓盧克斯這則報喜帖文淪為了當下互聯網仇恨政治和反智言論的大秀場。

在一張帶有論文標題的自拍點燃輿論之后,為了更好地說明其論文所關注的內容,盧克斯還曬出了論文的摘要,從中我們也可以更清楚地了解這篇論文的主旨以及論點。盧克斯的摘要提到,其論文“目標是通過揭示氣味在創造和顛覆性別、階級、性、種族及物種權力結構中應用的潛在邏輯,提供一種交叉性且廣泛的嗅覺壓迫研究。”對此,論文“主要聚焦于現代和當代時期的散文小說,以追溯嗅覺偏見的歷史傳承,并定位其當代相關性。”顯然,即便是翻譯成中文,這些表述也未免過于專業化,帶有強烈的“學術黑話”(jargon)氣息,這無疑也是諸多針對盧克斯的攻訐的緣由所在。

面對惡評,盧克斯的態度始終堅定,她澄清這篇博士論文的摘要是面向她所在的領域內的專家學者所寫的,而并非面向外行讀者,她本人也不會選擇用這種方式向一般讀者表達她所做的研究內容。但這樣的表態和補充說明顯然也未能完全堵上質疑者的嘴巴——后者的攻擊邏輯也非常清楚,一是認為盧克斯流露出象牙塔精英的傲慢:憑什么盧克斯可以如此輕巧地將學術界和“一般人”區隔開?難道她是在看不起所謂的一般人嗎?此外,也有批判者抨擊這種只能學科內自娛的研究又有何存在的必要呢?一位生物技術學家在批評盧克斯的時候更聳動地表示:“學術界已死。”而像《經濟學人》這樣的大媒體也在一則題為《學術寫作變得越來越難讀——尤其是人文學科》的評論文章中指出,盧克斯所附上的摘要內容正是讓這場輿論圍剿升級的導火索。

當然,社交媒體并非一個讓學界中人理性討論的地方,盧克斯所面對的也遠遠不止上述負面評論,而是大量情緒性的宣泄和攻擊,這些言論也帶有明顯的極端保守和厭女特征。一個刺激到這些攻擊者的要素,或許是盧克斯研究中所提到的“嗅覺壓迫”,以及其所對應的性別、階級和種族等議題。一方面,在當下的西方人文學科領域,要做出一份足以讓人欣喜若狂地公開宣布自己獲得博士學位的論文,勢必也要在當下西方的文化政治語境甚至思想政治上做“到位”。如此看來,盧克斯在她的研究中所力圖把握的性別、種族和階級議題,未免也是當下學術政治大氣候的體現。但另一方面,這種研究取向在社交媒體上被架在火上烤,一個緣由就是它“太想進步了”——“反覺醒”(anti-woke)的極端保守主義者們顯然不會輕易放過盧克斯和她的研究,何況這個題目還有著相當多可以一并打包被抨擊的要素:學術黑話、題目價值遠離大眾等等。

很快,針對盧克斯博士論文的負面評論,逐漸從質疑走向抨擊,再走向充滿厭女氣息的人身攻擊。根據英國廣播公司BBC的報道,盡管盧克斯也承認大多數針對她研究的評論都“非常友好”,但在她的帖子“被幾個極右翼賬戶轉發”后,負面關注也由此產生。盧克斯在接受采訪的時候表示:“我收到了很多強奸威脅,甚至死亡威脅,也有很多人把他們對女人應該是什么樣子或應該做什么的看法強加給我,而這些看法完全與(論文的)主題無關。”而劍橋郡警方更是對外證實,他們已開始對針對盧克斯的“仇恨事件”進行調查。警方發言人表示,他們收到了一起仇恨事件的報告,包括一封威脅性郵件,于格林威治標準時間2024年12月1日22點47分發送給一名女性,也就是盧克斯。對于盧克斯在輿論上遭到的不公和騷擾,劍橋大學官方也在社交媒體上發表聲明聲援盧克斯,并寫道:“當網絡噴子攻擊艾莉的博士論文主題、她的教育背景、她的成就以及她的性別時,這些關注就已然是騷擾和厭女的體現。”

按照某種流量思維,盧克斯在獲得博士學位之后這一個多月以來可以說是一炮而紅,當然她本人也并不拒斥這種狀態,一方面如她所說,的確有不少人對她的成果表達了善意,也有學界同好或者象牙塔外的讀者對她的研究題目感興趣,并且去信表示想閱讀一下這篇論文;另一方面,如同前文提到的,盧克斯本人也有著頗為強大的內心狀態,她應對這些惡評的態度或許有著學界精英固有的傲慢,但卻也不失體面和勇氣。就其論文所遭遇的詰難,盧克斯也不反感與媒體接觸,甚至先后在兩家媒體上發表文章,既試圖用更加平白的語言解釋自己的研究何為,同時也頗為坦誠地說明了學術寫作必然面對的公眾化的壁壘。在盧克斯眼中,她也是足夠幸運的,能夠有這樣的機會面對公眾,盡管在我們旁觀者看來,這種“運氣”未免來得過于滑稽。

在她其中一則回應中,盧克斯自嘲是“一個內向的書呆子”,經過了“在聚光燈下并不舒服的一周”,“但看到這么多人參與我的作品,我感到非常欣慰,我非常欣賞這么多評論者的幽默。”在另一篇短文中,盧克斯則更細致地指出了自己被負面輿論攻擊的其中一個原因:一些評論有意識地略去了她研究的復雜性,而將其邏輯簡化并誤導為“氣味是種族主義的象征”——事實上,即便這篇論文不可避免地用大量學術語言乃至黑話包裝,以便其能夠通過當下世界最頂尖大學的博士論文審查和答辯,但依然提出了很重要的觀點,其中就包括盧克斯所說的:“有充分證據表明,氣味曾被用來為種族主義、階級歧視和性別歧視的表達辯護,自20世紀80年代以來,研究人員一直在評估與氣味相關的觀念和刻板印象的道德影響。”

眼下這則互聯網鬧劇漸漸落幕,盧克斯如今的煩惱則是有太多人向圖書館申請閱讀她的論文。但這起事件更像是當下互聯網生態下各種病態現象的大亂燉,從文科無用論的闡發、象牙塔內外的壁壘與矛盾、學術界政治正確和反覺醒的互相揪斗,再到埋藏在“理客中”之下的厭女情結,每一味“食材”仿佛都是從自我封閉的土壤中生長出來,并用傲慢的水澆灌。本應由科學和人文學科所共享并賦予的理性、開放與批判思維,卻不見了蹤影。

    責任編輯:朱凡
    圖片編輯:張穎
    校對:張艷
    澎湃新聞報料:021-962866
    澎湃新聞,未經授權不得轉載
    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網安備31010602000299號

            互聯網新聞信息服務許可證:31120170006

            增值電信業務經營許可證:滬B2-2017116

            ? 2014-2025 上海東方報業有限公司

            反饋
            银河国际| 百家乐官网游戏试玩免费| 博天堂百家乐官网| 百家乐官网赌场破解| 网络百家乐官网娱乐| 大发888yule| 百家乐必赢法冯耘| 24山向方位度数| 太阳城百家乐官网外挂| 真人娱乐城源码| 大发888娱乐场下| 百家乐中庄闲比例| CEO百家乐官网娱乐城| 玩百家乐官网技巧博客| 足球平台开户| 大发888 迅雷下载| 百家乐牌路图表下| 百家乐桌蓝盾在线| 百家乐如何计牌| 解析百家乐投注法| 百家乐三号的赢法| 模拟百家乐游戏软件| 做生意用的 风水上最好的尺寸有 做生意门朝向什么方向 | 真人百家乐娱乐场| 钱百家乐取胜三步曲| 澳门百家乐加盟| 国美百家乐官网的玩法技巧和规则| 网上百家乐官网大赢家| 澳门百家乐官网真人娱乐场| 真人百家乐官网信誉| 利高百家乐官网游戏| 平江县| 顶旺娱乐| 博彩技巧| 皇冠网投| 沙龙国际娱乐网站| 百家乐官网路单打法| 真人百家乐官网娱乐好玩| 真人百家乐官网赌法| 百家乐官网详情| 风水24山子怎么读|