資訊

倫理即服務:科技倫理與可信AI的下一個浪潮

2025China.cn   2021年08月18日

科技倫理成為

“必選項”和“必答題”

  對于科技行業而言,科技倫理已是“必選項”和“必答題”。科技倫理被寫入了十九屆四中全會《決定》和《十四五規劃和2035年遠景目標綱要》,上升到了國家頂層政策設計。在監管層面,互聯網監管聚焦人工智能算法應用,算法濫用、算法推薦的治理被提上日程,《數據安全法》要求數據活動和數據新技術應當“符合社會公德和倫理”。

  科技倫理是科技活動必須遵守的價值準則,科技公司需要踐行科技倫理。今年5月,在曠視科技IPO過程中,上交所首次對科技倫理進行了問詢,要求曠視披露公司在人工智能倫理方面的組織架構、核心原則、內部控制及執行情況。今年7月28日,科技部發布《關于加強科技倫理治理的指導意見(征求意見稿)》,明確了倫理先行、敏捷治理等基本要求,并提出了五項科技倫理原則,同時要求企業根據實際情況建立科技倫理(審查)委員會,并要求“從事生命科學、醫學、人工智能等科技活動的機構,研究內容涉及科技倫理敏感領域的,應設立科技倫理(審查)委員會”,此外還要求對科技人員加強科技倫理培訓。《深圳經濟特區人工智能產業促進條例(草案)》要求人工智能企業“設立倫理風險崗位”,“履行倫理審查和風險評估職責”。

  可信的(trustworthy)、負責任的(responsible)、以人為本(human-centric)的人工智能已是AI領域的主旋律。然而,過去幾年這一領域的主要進展停留在提出、建立AI倫理原則及相關框架,較少關注如何將這些原則轉化為AI領域的技術實踐。據不完全統計,全球關于人工智能原則的文件超過百份。將倫理原則付諸實踐才能產生現實的價值。當前,各界已在探索將倫理原則翻譯為實踐的機制、做法、工具等,讓人工智能原則操作化、落地化,真正融入、嵌入人工智能研發流程與業務應用。這些機制包括倫理審查委員會、倫理標準與認證、關于算法透明和倫理檢查的最佳實踐做法、技術工具等等,大都處于前期的摸索階段。但這些實踐具有一定的局限性,受限于成本、效率等因素,難以對AI領域產生規模化影響。借鑒互聯網領域中的SaaS概念,以倫理工具方式展現的倫理即服務(ethics as a service)這一全新的理念開始得到重視,推動AI倫理產業化發展,讓可信AI的普惠化成為可能。

圖1:國外科技公司成立的科技倫理相關組織

以倫理即服務的方式消除倫理

要求與技術實踐之間的隔閡

  在此背景下,AI倫理行業繼續方興未艾,AI研發者和使用者對倫理領域的重視程度也愈發濃厚,一種新生的實踐理論呼之欲出:倫理即服務(Ethics as Service)。2021年初,Jessica Morley等國外學者在論文“Ethics as a Service: a pragmatic operationalisation of AI Ethics”中提出了“倫理即服務”這一概念。簡言之,“倫理即服務”旨在運用科技工具或其他方式將抽象的倫理原則轉譯為具體的服務措施,以數字化服務工具的方式將倫理要求嵌入AI產品與服務的全生命周期,從而推動AI倫理的實踐和落地。

  盡管該理念的愿景非常美好,希望切實推動AI倫理的實踐和落地,但距離真正實現將科技倫理嵌入技術服務還存在一些不足。其中,倫理標準的抽象性、不確定性以及多樣性,是制約將倫理轉化為服務工具的首要因素。在眾多關于倫理框架的文件的描述中,這些倫理原則涉足領域廣泛,其標準涵蓋了透明、公平、責任、隱私、信任、安全等內容。但在實踐中,這些標準可能會隨著不同國家的文化、風俗、習慣而不相一致,也導致AI倫理從概念轉化為實踐存在著較大的理論難題,需要通過國家立法和行業標準的“軟硬治理”,消除由概念帶來的模糊性和不可執行性,在抽象原則和技術工具之間建立起溝通橋梁。

  同時,作者在論文中認為,除了倫理定義上的模糊,在實現AI倫理與技術耦合過程中,還存在著一些技術限制:

  首先,倫理轉譯的工具和方法大多不具有強檢驗性(extra-empirical)。其主要體現在倫理標準的選擇上,AI實踐者會傾向于選擇與自身價值觀和理解認識相一致的倫理工具,而不是與社會的主流偏好相一致的倫理工具,這意味著開發者可以自主制定算法實踐的評估標準,但自身卻不受社會普世價值的約束,導致這些轉譯工具可能面臨人為操縱的風險。

  其次,許多既存的轉譯工具和方法都屬于分析和判斷型(diagnostic),而非規范和確定型(prescriptive),使得大部分的倫理工具欠缺實效性。例如,在算法偏見的場景中,倫理工具雖然能夠提示是否存在偏見問題,但卻無法提供解決偏見的路徑。

  最后,倫理轉譯工具通常會被開發者用于完成某些程序的一次性測試(one-off test),只能在系統設計之初對其合乎倫理性進行檢測,而無法在之后對其進行貫穿生命周期的重復審查。

  因此,作者認為,有必要定期檢查算法系統的倫理影響,至少經過三個階段的檢驗程序:確認、驗證、評估。確認程序旨在檢驗算法系統的性能是否良好;驗證程序旨在檢驗算法系統是否遵循了正確的開發流程;評估程序旨在檢驗算法系統在部署期間是否能保持正確的運行狀態(Floridi, 2019)。有學者(Arnold & Scheutz, 2018)認為,除非倫理評估成為算法系統的必備選項,否則難以使倫理轉譯工具(pro-ethical translational tools)對AI系統的倫理影響(ethical implication)產生積極作用。

  此外,上述對倫理工具的批判也引發了人們對倫理工具的質疑,認為倫理難以甚至不可能嵌入算法的設計、升級、部署以及使用等算法流程。然而,諸如醫療倫理、搜索倫理等算法應用領域的經驗表明,將倫理原則付諸AI實踐并非不切實際,而且有利于保護個人、團體、社會以及環境免受算法傷害,激勵AI產出最優的算法結果。

  作者在文中認為,“倫理即服務”是可實現、可操作的,但在研發思路上要滿足以下兩種標準:一是在抽象的倫理概念和具象的技術措施中達成妥協,也即,倫理原則不必過于抽象,也不必過于具體,倫理轉譯工具不能過于嚴格,也不能過于寬松;二是摒棄一次性、一攬子測試的倫理審查機制。

  AI倫理服務是一項長期性、持續性的活動,不應以暫時性的審查結果為目標。同時,AI的開發機制應當是可回溯、可反思的(reflective),因為這種開發理念能夠助益AI從業人員(practitioner)理解自身在特定環境下的主觀目的(subjectivity)以及潛在偏見,從而揭示有悖于倫理的算法結果為何出現,也有利于對此類結果制定合適的解決方案。上述思路對于倫理服務工具的設計、開發以及應用而言,也極具啟發意義。

AI倫理服務產業方興未艾,

為AI產業補上缺失的一環,

助力可信AI發展

  開發倫理工具是提供倫理服務的基礎,也是讓抽象的倫理原則操作化的重要方式。為此,在國內,谷歌、微軟、IBM等頭部科技公司開始積極研發倫理工具,越來越多的初創公司也開始投身于AI倫理市場,AI倫理開啟了由框架到工具、由工具到服務的產業化道路。谷歌、微軟、IBM等科技公司不僅主動研發倫理工具,而且通過將倫理工具開源化,或者在云服務上集成化來促進行業踐行AI倫理。

  例如,在算法模型安全領域,微軟公司發布了一項名為Counterfit的對抗性技術開源化項目,旨在幫助開發人員測試AI系統和機器學習的安全性問題,在不同環境中針對合作伙伴機器學習模型展開測試,繼而為AI企業的算法安全提供合適的風險評估工具,以確保AI業務的穩健性、安全性以及可靠性。

  IBM公司依托其Watson OpenScale平臺,通過IBM云和IBM云私人服務提供倫理服務,幫助企業在達到充分透明度、實現可解釋性與公平性的情況下大規模運行和操作自動化AI系統,確保在AI模型在設計、研發、部署期間始終保持公平性、可解釋性以及合規性,并且可以檢測和糾正人工智能模型在生產中的數據漂移問題,以便對其進行故障診斷,從而提升模型性能。

  谷歌公司則在谷歌云上規劃AI倫理服務化的計劃,以幫助其客戶發現和修復其人工智能系統中的道德問題,相關服務可能包括檢測算法歧視、制定AI項目的倫理指南、對客戶的AI系統進行審計等等。

圖二:國外科技公司開發的倫理工具及服務

  在現階段,除了頭部科技公司開發AI倫理工具、提供相關AI倫理服務外,國外AI產業開始出現以專門提供倫理服務為主要業務的初創公司。該類初創公司并不關注于人工智能技術研發,而是為了幫助從事AI技術研發應用的AI企業應對其AI系統中的潛在倫理問題。AI倫理創業公司的出現,可以彌補AI產業化中缺失的倫理一環,助力可信、負責任AI的發展。類似于Parity AI、Fiddler、Arthur等小有名氣的初創公司紛紛專注于不同倫理領域的技術支持和服務,旨在為其他科技公司提供更具專業和效益的倫理服務。AI倫理服務不僅可以幫助AI企業建立負責任的人工智能系統,還可以為該類企業現有的人工智能業務提供道德指導,從而促進整個AI產業更好思考、應對倫理問題,確保科技向善。

  AI倫理創業市場的興起并非毫無邏輯,其原因主要在于:

  第一,科技企業在日常的AI技術研發上已經投入或占用了企業研發人員大量的時間與精力,在技術研發之外再要求其關注AI倫理問題則會導致分身乏術,并非所有AI企業或團隊都愿意投入時間研發AI倫理工具。

  第二,人工智能技術本身的研發成本始終高昂,并非所有AI研發企業都能夠有充足的資金協調人工智能技術自身的研發成本以及嵌入AI倫理的成本,在技術研發以外再在AI倫理上進行額外的投入將會對技術研發造成一定負面影響。頭部公司具有雄厚的研發資金以支持其倫理工具的研發,但對于其他的中小微企業而言,如果苛求其成立專門的審查機構、投入大量的研發成本,可能會成為壓死駱駝的最后一根稻草,得不償失,既不現實,也無必要。

  第三,AI倫理問題的專業性極高,對從事與AI倫理相關范疇工作的專家要求極高,技術研發人員并不能直接轉化為AI倫理研究人員,技術人員在沒有AI倫理研究人員指導下所開發的倫理工具也將具有局限性。為了破解AI產業中AI倫理的供需不對稱,AI產業中開始出現專門提供AI倫理服務的第三方企業,該類企業專門研發幫助落實AI倫理原則的技術服務,供缺少AI倫理相關內置產品的人工智能技術企業使用。AI倫理產業化發展需要積聚眾多科技企業的智慧和力量,鼓勵、引導AI倫理服務企業的創新和發展,是推動AI倫理落地的長久之策。

AI倫理創業公司

搶占細分領域賽道,

倫理服務趨向精細化和專業化

  目前,細分不同倫理領域,提供專業精細服務,是國外AI倫理企業迅速搶占市場,樹立品牌特色的主流做法。提供倫理服務的初創公司并非提供一攬子面面俱到的服務內容,而是根據細分的倫理要求提供專業度高的精細化服務。現階段,各類初創公司主要關注于如實現可解釋性要求、實現公平性要求、風險管理、倫理審計等服務內容。根據倫理服務的不同領域,可以將目前提供倫理服務的初創公司劃分為以下幾類:

  第一,立足決策穩健,提供風險評估服務。Parity AI公司為AI企業提供開發、監測和修復其人工智能模型的工具方法,主要聚焦于緩解偏見、實現公平、可解釋性以及倫理審計。在審計方面,Parity AI創建了一套能夠縮減倫理審計時間的工具,該工具的運行模式為,根據客戶需求確定人工智能模型審計的內容,進而提供相關建議,而且Parity AI幫助AI企業組織審計的全過程。審計過程中,首先協助AI企業進行內部影響評估,在AI企業內部針對人工智能業務進行開放式調查,在這過程中可以采用由Parity AI公司所建立的建議問題庫,其中包含超過一千個來自世界各地區AI倫理準則或相關立法的提示詞匯及相關問題;在開放調查的基礎上,Parity AI會提出相關倫理風險緩解的推薦與建議。在此過程中,Parity AI能夠幫助專門的技術人員更好地理解AI倫理的原則與要求。

  第二,立足決策透明,提供可解釋性服務。2018年成立的Fiddler公司致力于實現AI可解釋的目標,為解決模型可解釋性、模型監控以及模型偏差檢測等問題,開發出一套機器學習模型性能管理工具(ML Model Performance Management,MPM)。該工具的作用在于能夠有效降低算法模型的黑箱性風險,并實時對模型的參數進行持續監控,幫助AI開發者驗證模型、解釋模型性能以及記錄模型指標。同時,由于機器學習模型的預測質量可能會隨著時間的推移而下降,當用于算法運作的數據和實際使用的數據不相一致時,就會產生模型漂移(model drift)的問題。基于此,MPM工具還能幫助數據科學團隊跟蹤人工智能模型不斷變化的性能,并根據結果為業務主管創建高級別報告,如果該模型的準確性隨著時間的推移而惡化,或者顯示出偏見傾向性,Fiddler亦可幫助該人工智能系統調試及發現可能的原因。

圖三:MPM工具的運作機制

  在定位上,MPM工具并不會替代現有的機器學習訓練、部署以及服務系統,而是在機器學習流程中扮演守夜人的角色,旨在對模型運作的全程進行監控和解釋說明。具體而言,MPM具有兩方面的作用:一是偏離度監測(Detect Train/Serving Skew)。當機器學習的數據發生偏離時,訓練模型會出現異常并需要糾正,MPM工具能夠將訓練數據和預測日志保存在同一個地方,使得開發者可以及時發現偏離。二是時間回溯(Time Travel)。MPM工具能夠為用戶提供程序倒查的功能。Fiddler官方為此舉了一個形象的例子,當銀行使用機器學習算法來駁回客戶的特定貸款申請,而招致客戶的投訴和抱怨時,使用者就可以登錄MPM系統,就其保存的數據為客戶還原模型的預測和決策過程,從而達到AI可解釋的效果。

  Arthur公司與Weights & Biases公司同樣強調可解釋性和緩解偏見、實現公平性。Arthur公司努力解決人工智能系統中的黑盒問題,并且承認解決人工智能可解釋性問題有較高難度,目前并未形成最優解決方案。Weights & Biases公司旨在幫助機器學習工程師分析其網絡的潛在問題,日本豐田公司已經在使用Weights & Biases公司所創建的工具來監測其企業內機器學習設備的訓練情況。

  第三,立足決策公平,提供算法修復服務。針對AI決策層出不窮的算法歧視問題,埃森哲公司致力于開發出一款能夠快速評估數據是否創造公平結果的倫理工具(fairness tool)。該工具運用一種能夠定義公平性的統計算法來識別人們是否受到了算法的不公正對待,同時還會挖掘、分析、定義公平性相關的敏感變量。例如,算法在做決策時通常不會考慮性別問題,但如果加入收入因素的考量,就會容易在男女性別間產生不同的決策結果。該工具會將此類相關信息納入公平性的評估范疇,同時還要關注每個決策變量的錯誤率,通過比較不同變量之間的錯誤率,分析出影響決策公平性的變量因素。同時,此前的研究表明,AI倫理對于公平性的界定存在多達21種類型的解釋方法,因此,很難對不同場景下的公平性作出統一定義。盡管埃森哲的倫理工具能夠減少影響公平性評估的錯誤因素,但考慮到修復程序可能會降低算法評估的準確性,因此該工具將是否調整參數的決定權交還給用戶,也即只提供修復結果的權衡選擇(trade-off),但最終交由用戶來決定錯誤因素的調整范圍。

  雖然目前AI仍無法做到對算法公平進行精確定義,但埃森哲負責任AI的前團隊負責人、現任Twitter公司機器學習倫理團隊負責人的喬杜里表示,該公平性工具能夠用于解決某些實際問題。2020年,埃森哲與愛爾蘭聯合銀行(AIB)達成合作,正式將算法公平工具應用于傳統銀行業。AIB希望借助該工具減少算法模型的偏離度和歧視性,增進銀行AI業務的公平性和可信任度。在應用路徑上,二者采用傳統業務和算法決策相配合的協作機制,共同評估銀行算法模型的公平性,包括將該工具用于檢測、評估銀行業務中的潛在風險以及預期效果,最終取得了顯著成效。實踐證明,算法公平工具能夠基于公平的維度幫助AIB更深入地理解其數據模型結果,也使得AIB的大數據科學團隊可以借助公平性分析減少算法偏見和決策風險,從而增強銀行使用AI的信心和能力。

科技倫理治理需要多管齊下,

以“倫理嵌入設計”的理念與實踐

實現技術與倫理之間的有效互動

  《關于加強科技倫理治理的指導意見(征求意見稿)》提出了“倫理先行,敏捷治理”的基本要求。倫理如何先行?需要倫理委員會、技術工具、倫理培訓等多管齊下,也需要創新治理方式。在這方面,我們可以借鑒互聯網領域的一個成熟概念:隱私嵌入設計(privacy by design,PbD)。PbD已具有很好的實踐基礎,可以為人工智能的倫理治理提供有益經驗。在PbD理念與實踐的基礎上,人工智能產業需要擁抱“倫理嵌入設計”(ethics by design,EbD)這一全新的理念,并推動這一理念在人工智能實踐中的落地。各界可以一起探索“倫理嵌入設計”的最佳實踐做法、行業標準、技術指南等。

  而近年來倫理工具和AI倫理即服務的勃興豐富了“倫理嵌入設計”的理念和實踐路徑,在某種程度上,這也是產業界開始推動負責任創新,以技術的方式解決技術帶來的問題。如前所述,隨著提供AI倫理服務的初創公司不斷涌現,AI產業中的倫理供需失衡促使AI倫理服務公司開始走向成熟化、精細化、規模化,該類服務公司能夠在細分領域中提供適應AI產業變化的倫理服務,加速AI倫理由原則到框架再到實踐的進程,幫助AI倫理在更多使用場景和產業范圍內順利落地,彌補AI產業中缺失的倫理一環。同時,從長遠來看,倫理服務已成為未來AI產業的應有之義,盡管AI倫理服務有著廣闊的發展前景,但目前仍處于起步和探索階段,需要各界一起凝聚更多共識與實現機制、模式等。

  最后,在人工智能、區塊鏈、虛擬現實、metaverse等新興技術與模式加速演進變革的今天,科技倫理固然顯得愈發重要,但一方面需要注意不要把科技倫理當作一種華而不實的雕飾與粉飾,而需要通過真正有效的機制讓科技倫理對科技創新形成正向引導;另一方面科技創新本就是一種不確定性的探索,無法免疫所有的風險,因此也需要立法與倫理規范的精細平衡,平衡好安全與創新發展。

  作者

  曹建峰 騰訊研究院高級研究員

  胡錦浩 騰訊研究院助理研究員

標簽:人工智能 我要反饋 
ABB云展車
世強
工廠MRO間接材使用及管理調研
專題報道
數字化轉型 – 數據賦能——2021西門子化工及玻璃行業客戶日
數字化轉型 – 數據賦能——2021西門子化工及玻璃行業客戶日

西門子作為全球領先的電氣化、自動化和數字化解決方案供應商,始終是中國化工及玻璃光伏企業數字化轉型的忠實合作伙伴。值此之際

大族機器人 MAiRA 多感知智能機器人助手
大族機器人 MAiRA 多感知智能機器人助手

MAiRA高度集成了最新型的傳感器,在控制系統和應用中完美實現前所未有的人工智能集成,引領協作機器人步入智能時代。耐用而

TeSys Giga 系列電動機控制與保護
TeSys Giga 系列電動機控制與保護

作為本地化研發的最新結晶,TeSys Giga系列電動機控制與保護產品通過融入多項自主創新專利技術,以更簡約的創新設計,

加勒比hezyo无码专区