萬(wàn)字長(zhǎng)文詳解:國(guó)外主流科技公司的AI倫理實(shí)踐
編輯導(dǎo)語(yǔ):AI是近兩年國(guó)內(nèi)外的熱門(mén)話題,各大科技公司紛紛把AI倫理和可信AI作為市場(chǎng)競(jìng)爭(zhēng)的核心優(yōu)勢(shì)。本篇文章中,作者分析了微軟、谷歌、IBM、Twitter四家大牌互聯(lián)網(wǎng)公司,在AI方面的發(fā)展。感興趣的小伙伴不妨來(lái)看看。
2022年全國(guó)兩會(huì)期間,社會(huì)各界熱議科技創(chuàng)新與科技倫理。
從業(yè)界具體實(shí)踐來(lái)看,隨著各界對(duì)AI倫理的日益重視和各國(guó)AI監(jiān)管政策和立法的持續(xù)推進(jìn),各大科技公司紛紛擁抱AI倫理,打造可信AI,把AI倫理和可信AI作為打造AI產(chǎn)品和服務(wù)的市場(chǎng)競(jìng)爭(zhēng)優(yōu)勢(shì)的核心引擎之一。
微軟、谷歌、IBM、Twitter等眾多國(guó)外主流科技公司在AI倫理與可信AI方面謀劃早、布局全、實(shí)踐深,涉及原則、治理機(jī)構(gòu)、技術(shù)工具和解決方案、AI倫理產(chǎn)品服務(wù)、行動(dòng)指南、員工培訓(xùn)等諸多層面。
本文對(duì)微軟、谷歌、IBM、Twitter這四家比較有代表性的公司的實(shí)踐做法予以系統(tǒng)梳理,以期能夠有所啟示。
一、微 軟
1. 倫理原則
微軟致力于以人為本地推動(dòng)AI技術(shù)發(fā)展,在AI倫理方面提出公平、安全可靠、隱私保障、包容、透明、負(fù)責(zé)六大原則。
2. 治理機(jī)構(gòu)
微軟主要有三個(gè)內(nèi)設(shè)機(jī)構(gòu)負(fù)責(zé)AI倫理踐行方面的事務(wù)。
它們分別是負(fù)責(zé)任人工智能辦公室(Office of Responsible AI,以下簡(jiǎn)稱(chēng)ORA),人工智能、倫理與工程研究委員會(huì)(AI and ethics in engineering and research committee,以下簡(jiǎn)稱(chēng)Aether committee),以及負(fù)責(zé)任AI戰(zhàn)略管理團(tuán)隊(duì)(Responsible AI Strategy in Engineering,以下簡(jiǎn)稱(chēng)RAISE)。
ORA主要有四個(gè)職能:
- 制定公司內(nèi)部的負(fù)責(zé)任AI規(guī)則;
- 團(tuán)隊(duì)賦能,幫助公司以及客戶(hù)落實(shí)AI倫理規(guī)則;
- 審查敏感用例,確保微軟AI原則在開(kāi)發(fā)和部署工作中得到實(shí)施;
- 推進(jìn)立法、規(guī)范、標(biāo)準(zhǔn)的制定,確保人工智能技術(shù)有助于提升社會(huì)福祉。
通過(guò)這些行動(dòng),人工智能辦公室將微軟的AI倫理原則付諸實(shí)踐。
Aether于2017年設(shè)立,該委員會(huì)由產(chǎn)品開(kāi)發(fā)、研究員、法律事務(wù)、人力資源等部門(mén)的負(fù)責(zé)人組成。
專(zhuān)注于公平與包容、安全可靠、透明可解釋、隱私保障、人工智能交互協(xié)作領(lǐng)域,積極制定內(nèi)部政策,并決定怎樣負(fù)責(zé)任地處理出現(xiàn)的問(wèn)題。
當(dāng)部門(mén)內(nèi)部出現(xiàn)問(wèn)題時(shí),委員會(huì)以研究、反思和建議來(lái)回應(yīng),這些針對(duì)特定案例的建議可能演變?yōu)楣就ㄓ玫睦砟睢⒄吆蛯?shí)踐。
RAISE旨在使負(fù)責(zé)任AI的要求整合到團(tuán)隊(duì)日常開(kāi)發(fā)過(guò)程中。
其有三項(xiàng)職能:
- 建立負(fù)責(zé)任AI的工具和系統(tǒng),幫助公司及客戶(hù)實(shí)現(xiàn)AI倫理落地;
- 幫助工作團(tuán)隊(duì)落實(shí)負(fù)責(zé)任AI規(guī)則,將負(fù)責(zé)任AI的要求整合到日常工作中;
- 為工程團(tuán)隊(duì)提供合規(guī)工具,以監(jiān)控和執(zhí)行負(fù)責(zé)任AI規(guī)則的要求。
3. AI倫理的技術(shù)解決方案
針對(duì)AI倫理實(shí)踐,微軟給出了一系列的技術(shù)解決方案。
這些技術(shù)解決方案包括了貫穿整個(gè)AI生命周期的技術(shù)工具(Technology tools)和管理工具(Management tools)。
同時(shí),還包括了按照應(yīng)用場(chǎng)景將需求特性集成到AI系統(tǒng)中的工具包(Toolkit)。
(1)技術(shù)工具
① 評(píng)估
Fairlearn:一個(gè)python工具包/庫(kù),用于評(píng)估給定AI模型在一系列公平性指標(biāo)上的得分。
如”預(yù)測(cè)個(gè)人收入“的模型是否在男性客戶(hù)群體中的預(yù)測(cè)效果比女性群體更好,進(jìn)而發(fā)現(xiàn)可能的模型歧視,為模型的改進(jìn)提供公平性約束。
InterpreteML:一個(gè)python工具包/庫(kù), 集成了一系列XAI(可解釋AI)的前沿方法。
既允許用戶(hù)從頭訓(xùn)練一個(gè)可解釋的“玻璃箱”模型,還能幫助人們理解/解釋某些給定的”黑箱”模型。
Error Analysis:一個(gè)python工具包/庫(kù),提供一系列對(duì)于主流AI模型進(jìn)行“錯(cuò)誤分析”的功能。
包括但不限于為誤分類(lèi)樣本建立可視化熱力圖,構(gòu)建全局/局部解釋?zhuān)蚬缮娴确治?,幫助人們更好探索?shù)據(jù)、認(rèn)識(shí)模型。
Counterfit:一個(gè)基于命令行的通用檢測(cè)工具,用于測(cè)試給定的AI系統(tǒng)在作為開(kāi)源平臺(tái)時(shí)的穩(wěn)定性和安全性。
② 開(kāi)發(fā)
SamrtNoise:一系列基于“差分隱私”的前沿AI技術(shù):通過(guò)特定方式在AI模型訓(xùn)練過(guò)程中添加噪音,確保開(kāi)發(fā)者在開(kāi)發(fā)過(guò)程中、所用敏感隱私數(shù)據(jù)不會(huì)泄露。
Presidio:一個(gè)python工具包/庫(kù)。能幫助使用者高效地識(shí)別、管理并模糊大數(shù)據(jù)中的敏感信息,比如自動(dòng)識(shí)別文本中的地址、電話等。
③ 部署
Confidential computing for ML:在微軟云的系統(tǒng)上,通過(guò)機(jī)密計(jì)算等系統(tǒng)層面的安全手段,保證模型與敏感數(shù)據(jù)的絕對(duì)安全。
SEAL Homomorphic Encryption:使用開(kāi)源同態(tài)加密技術(shù),允許在加密數(shù)據(jù)上執(zhí)行計(jì)算指令,同時(shí)防止私有數(shù)據(jù)暴露給云運(yùn)營(yíng)商。
(2)管理工具
AI fairness checklist:AI fairness checklist研究項(xiàng)目探討如何設(shè)計(jì)人工智能道德清單,以支持更公平的人工智能產(chǎn)品和服務(wù)的發(fā)展。
研究小組與清單的使用者——人工智能從業(yè)人員協(xié)作,征求他們的意見(jiàn),形成人工智能的設(shè)計(jì)、開(kāi)發(fā)和部署全生命周期的檢查清單。
項(xiàng)目的首批研究已經(jīng)產(chǎn)生了一個(gè)與從業(yè)者共同設(shè)計(jì)的公平性清單,同時(shí)也形成了對(duì)組織和團(tuán)隊(duì)流程如何影響AI團(tuán)隊(duì)解決公平性危害的見(jiàn)解。
HAX Playbook:一個(gè)主動(dòng)、系統(tǒng)地探索常見(jiàn)人工智能交互故障的工具。
Playbook 列出了與人工智能產(chǎn)品應(yīng)用場(chǎng)景相關(guān)的故障,以便為開(kāi)發(fā)者提供有效恢復(fù)的方法。
Playbook 還提供了實(shí)用的指導(dǎo)和示例,以說(shuō)明如何用較低的成本模擬系統(tǒng)行為,以便進(jìn)行早期用戶(hù)測(cè)試。
Datasheets for Datasets:機(jī)器學(xué)習(xí)社區(qū)目前沒(méi)有記錄數(shù)據(jù)集的標(biāo)準(zhǔn)化流程,這可能會(huì)導(dǎo)致高風(fēng)險(xiǎn)領(lǐng)域的嚴(yán)重后果。
為了解決這個(gè)差距,微軟開(kāi)發(fā)了Datasheets for Datasets。
在電子工業(yè)中,每一個(gè)組件,無(wú)論多么簡(jiǎn)單或復(fù)雜,都有一個(gè)數(shù)據(jù)表(datasheet)來(lái)描述其操作特性、測(cè)試結(jié)果、推薦用途和其他信息。
相應(yīng)的,每一個(gè)數(shù)據(jù)集(dataset)都應(yīng)該有一個(gè)記錄其動(dòng)機(jī)、組成、收集過(guò)程、推薦用途等的數(shù)據(jù)表。
Datasheets for Datasets將促進(jìn)數(shù)據(jù)集創(chuàng)建者和數(shù)據(jù)集消費(fèi)者之間的溝通,并鼓勵(lì)機(jī)器學(xué)習(xí)優(yōu)先考慮透明度和問(wèn)責(zé)制。
(3)工具包
Human AI eXperience(HAX)Toolkit:HAX Toolkit是一套實(shí)用工具,旨在幫助AI創(chuàng)造者,包括項(xiàng)目管理和工程團(tuán)隊(duì)等主體,在日常工作中采用這種以人為本的方法。
Responsible AI Toolbox:Responsible AI Toolbox涵蓋了錯(cuò)誤分析(Error Analysis)、可解釋性(Interpretability)、公平性(Fairness)、負(fù)責(zé)任(Responsible)四個(gè)界面。
增進(jìn)人們對(duì)AI系統(tǒng)的了解,使開(kāi)發(fā)者、監(jiān)管機(jī)構(gòu)等相關(guān)人員能夠更負(fù)責(zé)任地開(kāi)發(fā)和監(jiān)控 AI,并采取更好的數(shù)據(jù)驅(qū)動(dòng)行動(dòng)(data-driven actions)。
4. 行動(dòng)指南
為了能讓項(xiàng)目團(tuán)隊(duì)更好地貫徹AI原則,微軟公司發(fā)布了一系列行動(dòng)指南(Guidelines),在項(xiàng)目開(kāi)發(fā)過(guò)程中為團(tuán)隊(duì)提供具體的行動(dòng)建議、解決方案。
如“應(yīng)該收集哪些數(shù)據(jù)”、“應(yīng)該如何訓(xùn)練AI模型”等問(wèn)題上。
行動(dòng)指南旨在為團(tuán)隊(duì)節(jié)省時(shí)間、提高用戶(hù)體驗(yàn)、貫徹AI倫理原則。
行動(dòng)指南不同于任務(wù)清單(checklist),或許并不適用于每一個(gè)應(yīng)用場(chǎng)景,也并非需要團(tuán)隊(duì)強(qiáng)制遵守。
針對(duì)特殊情況、專(zhuān)門(mén)領(lǐng)域,會(huì)發(fā)布專(zhuān)用的行動(dòng)指南。
微軟針對(duì)人工智能交互問(wèn)題、安全問(wèn)題、偏見(jiàn)問(wèn)題、機(jī)器人開(kāi)發(fā)領(lǐng)域問(wèn)題,發(fā)布了6項(xiàng)行動(dòng)指南,貫穿負(fù)責(zé)任AI的評(píng)估環(huán)節(jié)、開(kāi)發(fā)環(huán)節(jié)。
其中HAX Workbook、Human AI Interaction Guidelines以及HAX Design Patterns旨在幫助解決人工智能交互問(wèn)題;
AI Security Guidance針對(duì)人工智能可能帶來(lái)的安全威脅,提供解決方案;
Inclusive Design Guidelines充分考慮了人類(lèi)的多樣性,用于解決AI可能帶來(lái)的偏見(jiàn)問(wèn)題;
Conversational AI guidelines專(zhuān)注于機(jī)器人開(kāi)發(fā)領(lǐng)域可能帶來(lái)的種種問(wèn)題。
二、谷 歌
1. 倫理原則
谷歌從積極方面和消極方面規(guī)定了人工智能設(shè)計(jì)、使用的原則,將其作為公司和未來(lái)AI發(fā)展的基礎(chǔ)。
該原則以“道德憲章”的地位,指導(dǎo)公司的AI研究以及AI產(chǎn)品中的開(kāi)發(fā)和使用。
同時(shí)谷歌也承諾,愿意隨著時(shí)間的推移而及時(shí)調(diào)整這些原則。
具體來(lái)說(shuō),這些原則包括:
積極方面,人工智能的使用應(yīng)該:
- 有利于增進(jìn)社會(huì)福祉;
- 避免制造或強(qiáng)化歧視、偏見(jiàn);
- 以安全為目的的創(chuàng)新;
- 對(duì)公眾負(fù)責(zé);
- 納入隱私設(shè)計(jì)原則;
- 堅(jiān)持科學(xué)卓越的高標(biāo)準(zhǔn);
- 符合這些原則。
消極方面,公司不會(huì)在以下應(yīng)用領(lǐng)域設(shè)計(jì)或部署AI:
- 造成或可能造成危害的技術(shù);
- 對(duì)人造成傷害的武器或其他技術(shù);
- 違反了國(guó)際公認(rèn)規(guī)范,收集或使用信息用于監(jiān)視的技術(shù);
- 目的違反廣泛接受的國(guó)際法和人權(quán)原則的技術(shù)。
2. 治理機(jī)構(gòu)
2018年,谷歌宣布人工智能原則的同時(shí),成立了負(fù)責(zé)任創(chuàng)新中央團(tuán)隊(duì)(central Responsible Innovation team),當(dāng)初這個(gè)團(tuán)隊(duì)僅由6名員工組成。
如今,團(tuán)隊(duì)規(guī)模已經(jīng)顯著擴(kuò)大,數(shù)百名谷歌員工構(gòu)成了數(shù)十個(gè)創(chuàng)新團(tuán)隊(duì),在人權(quán)、用戶(hù)體驗(yàn)研究、倫理、信任和安全、隱私、公共政策、機(jī)器學(xué)習(xí)等領(lǐng)域構(gòu)建了一個(gè)AI原則生態(tài)系統(tǒng)。
谷歌通過(guò)這個(gè)內(nèi)部的AI原則生態(tài)系統(tǒng)來(lái)實(shí)施負(fù)責(zé)任AI的創(chuàng)新實(shí)踐,幫助谷歌技術(shù)開(kāi)發(fā)人員將負(fù)責(zé)任AI落實(shí)到他們的工作當(dāng)中。
這個(gè)生態(tài)系統(tǒng)的核心是一個(gè)三層的治理架構(gòu):
第一層是產(chǎn)品團(tuán)隊(duì),由專(zhuān)門(mén)負(fù)責(zé)用戶(hù)體驗(yàn)(UX)、隱私、信任和安全(T&S)等方面的專(zhuān)家組成,這些專(zhuān)家提供與人工智能原則相一致的專(zhuān)業(yè)知識(shí)。
第二層是專(zhuān)門(mén)的審查機(jī)構(gòu)和專(zhuān)家團(tuán)隊(duì)。
由負(fù)責(zé)任創(chuàng)新中央團(tuán)隊(duì)(Central Responsible Innovation Review Committee)、隱私顧問(wèn)委員會(huì)(Privacy Advisory Council)、衛(wèi)生倫理委員會(huì)(Health Ethics Committee)以及產(chǎn)品審查委員會(huì)(Product Area AI Principles Review Committees)四個(gè)部門(mén)組成。
(1)負(fù)責(zé)任創(chuàng)新中央團(tuán)隊(duì)(Central Responsible Innovation Review Committee)
該團(tuán)隊(duì)為整個(gè)公司的實(shí)施AI原則提供支持。
公司鼓勵(lì)所有員工在整個(gè)項(xiàng)目開(kāi)發(fā)過(guò)程中參與人工智能原則的審查。
一些產(chǎn)品領(lǐng)域已經(jīng)建立了審查機(jī)構(gòu),以滿足特定的受眾和需求。
如谷歌云(Google Cloud)中的企業(yè)產(chǎn)品、設(shè)備和服務(wù)(Devices and Services)中的硬件、谷歌健康(Google Health)中的醫(yī)學(xué)知識(shí)。
(2)隱私顧問(wèn)委員會(huì)(Privacy Advisory Council)
該委員會(huì)負(fù)責(zé)審查所有可能存在潛在隱私問(wèn)題的項(xiàng)目,包括(但不僅限于)與人工智能相關(guān)的問(wèn)題。
(3)健康倫理委員會(huì)(Health Ethics Committee)
HEC成立于成立于2020年,是一個(gè)在健康領(lǐng)域發(fā)揮指導(dǎo)、決策功能的論壇,針對(duì)健康產(chǎn)品、健康研究或與健康有關(guān)的組織決策等領(lǐng)域產(chǎn)生的倫理問(wèn)題提供指導(dǎo),保護(hù)谷歌用戶(hù)和產(chǎn)品的安全。
HEC是一個(gè)綜合性的論壇,其中包括生物倫理學(xué)、臨床醫(yī)學(xué)、政策、法律、隱私、合規(guī)、研究和商業(yè)方面的主題專(zhuān)家。
2021年,谷歌生物倫理項(xiàng)目創(chuàng)建了the Health Ethics Cafe,這是一個(gè)討論生物倫理問(wèn)題的非正式論壇。
公司任何人在項(xiàng)目開(kāi)發(fā)的任何階段都可以在此進(jìn)行討論,論壇中遇到的棘手問(wèn)題將被升級(jí)到HEC進(jìn)行審查。
(4)產(chǎn)品審查委員會(huì)(Product Area AI Principles Review Committees)
PAAPRC是一個(gè)專(zhuān)門(mén)為特定產(chǎn)品領(lǐng)域而設(shè)立的審查委員會(huì)。
其中包括谷歌云的負(fù)責(zé)任AI產(chǎn)品委員會(huì)(Responsible AI Product Committee)和交易審查委員會(huì)(Responsible AI Deal Review Committee)。
其旨在確保谷歌云的AI產(chǎn)品、項(xiàng)目以系統(tǒng)、可重復(fù)的方式與谷歌人工智能原則保持一致,并將道德、責(zé)任嵌入了設(shè)計(jì)過(guò)程中。
產(chǎn)品委員會(huì)專(zhuān)注于云人工智能和行業(yè)解決方案(Cloud AI & Industry Solutions)所構(gòu)建的產(chǎn)品。
根據(jù)AI原則對(duì)社會(huì)技術(shù)前景、機(jī)會(huì)以及危害進(jìn)行綜合審查,并與跨職能、多樣化的委員會(huì)進(jìn)行現(xiàn)場(chǎng)討論,從而形成一個(gè)可操作的協(xié)調(diào)計(jì)劃。
交易審查委員是一個(gè)由四名跨職能的高級(jí)執(zhí)行成員組成的委員會(huì)。
所有決定的作出都必須得到所有四名委員會(huì)成員的完全同意,并根據(jù)需要逐步升級(jí)。
谷歌AI原則生態(tài)系統(tǒng)的相關(guān)人員會(huì)幫助委員會(huì)了解討論的內(nèi)容,避免其憑空做出決定。
第三層是先進(jìn)技術(shù)審查委員會(huì)(Advanced Technology Review Council)。
這是一個(gè)由高級(jí)產(chǎn)品、研究和商業(yè)主管輪流擔(dān)任委員的委員會(huì),代表著谷歌公司多個(gè)部門(mén)的不同意見(jiàn)。
ATRC處理升級(jí)問(wèn)題以及最復(fù)雜的先例性案例,并建立影響多個(gè)產(chǎn)品領(lǐng)域的策略,權(quán)衡潛在的商業(yè)機(jī)會(huì)和某些應(yīng)用程序的道德風(fēng)險(xiǎn)。
案例一:谷歌云的負(fù)責(zé)任AI產(chǎn)品審查委員會(huì)&谷歌云負(fù)責(zé)任AI交易審查委員會(huì)為避免加重算法不公平或偏見(jiàn),決定暫停開(kāi)發(fā)與信貸有關(guān)的人工智能產(chǎn)品
2019年,谷歌云的負(fù)責(zé)任AI產(chǎn)品審查委員會(huì)評(píng)估了信用風(fēng)險(xiǎn)和信譽(yù)領(lǐng)域的產(chǎn)品。
雖然我們希望有一天AI能夠進(jìn)入信貸領(lǐng)域,并在增進(jìn)金融普惠和財(cái)務(wù)健康方面發(fā)揮作用。
但產(chǎn)品審查委員會(huì)最終否定了這項(xiàng)產(chǎn)品——用當(dāng)下的技術(shù)、數(shù)據(jù)打造的信用可靠性產(chǎn)品,可能在性別、種族和其他邊緣化群體方面產(chǎn)生差別影響,并與谷歌“避免創(chuàng)造或加強(qiáng)不公平的偏見(jiàn)”的人工智能原則相沖突。
2020年年中,產(chǎn)品審查委員會(huì)重新評(píng)估并重申了這一決定。
在過(guò)去的一整年中,交易審查委員會(huì)評(píng)估了多個(gè)與信貸評(píng)估有關(guān)的人工智能應(yīng)用(proposed custom AI engagements)。
每一項(xiàng)應(yīng)用都會(huì)根據(jù)其特定的用例進(jìn)行評(píng)估,交易審查委員會(huì)最終決定拒絕進(jìn)行其中的許多業(yè)務(wù)。
多年的經(jīng)驗(yàn)和教訓(xùn)讓我們確信:在風(fēng)險(xiǎn)得到適當(dāng)緩解之前,應(yīng)該暫停開(kāi)發(fā)與信貸相關(guān)的定制AI解決方案(custom AI solutions)。
這個(gè)方針從去年開(kāi)始生效,并一直持續(xù)到今天。
案例二:先進(jìn)技術(shù)審查委員會(huì)基于技術(shù)問(wèn)題與政策考量,拒絕通過(guò)面部識(shí)別審提案
2018年,先進(jìn)技術(shù)審查委員會(huì)處理了谷歌云產(chǎn)品的審查提案,決定在解決重大技術(shù)、政策問(wèn)題之前,不提供通用面部識(shí)別API,并建議團(tuán)隊(duì)專(zhuān)注于專(zhuān)用AI解決方案。
隨后,公司內(nèi)外相關(guān)人員對(duì)此進(jìn)行了大量的投入。
經(jīng)過(guò)團(tuán)隊(duì)的多年努力,谷歌云開(kāi)發(fā)了一個(gè)高度受約束的名人專(zhuān)用API2(Celebrity Recognition API2),并尋求ATRC的批準(zhǔn),最終ATRC同意發(fā)布該產(chǎn)品。
案例三:先進(jìn)技術(shù)審查委員會(huì)對(duì)涉及大型語(yǔ)言模型的研究進(jìn)行審查,認(rèn)為其可以謹(jǐn)慎地繼續(xù)
2021年,先進(jìn)技術(shù)審查委員會(huì)審查的其中一個(gè)主題是關(guān)于大型語(yǔ)言模型的發(fā)展。
審查之后,先進(jìn)技術(shù)審查委員會(huì)決定,涉及大型語(yǔ)言模型的研究可以謹(jǐn)慎地繼續(xù),但在進(jìn)行全面的人工智能原則審查之前,此模型不能被正式推出。
3. 技術(shù)工具
(1)Fairness Indicators:2019年發(fā)布,用于評(píng)估產(chǎn)品的公平性。Min-Diff14 technique:對(duì)日益增多的產(chǎn)品用例進(jìn)行補(bǔ)救,以達(dá)到最佳的學(xué)習(xí)規(guī)模,能夠主動(dòng)解決公平性問(wèn)題。
(2)federated learning:在Gboard等產(chǎn)品中使用的聯(lián)邦學(xué)習(xí),幫助模型根據(jù)真實(shí)的用戶(hù)交互進(jìn)行集中訓(xùn)練和更新,而無(wú)需從個(gè)人用戶(hù)那里收集集中的數(shù)據(jù),以增強(qiáng)用戶(hù)隱私。
(3)federated analytics:使用與federated learning類(lèi)似的技術(shù),在不收集集中數(shù)據(jù)的情況下,深入了解產(chǎn)品特性和模型對(duì)不同用戶(hù)的性能。
同時(shí),federated analytics也允許項(xiàng)目團(tuán)隊(duì)在不訪問(wèn)原始用戶(hù)數(shù)據(jù)的情況下進(jìn)行公平性測(cè)試,以增強(qiáng)用戶(hù)隱私。
(4)federated reconstruction:與模型無(wú)關(guān)的方法,可以在不訪問(wèn)用戶(hù)隱私信息的情況下,實(shí)現(xiàn)更快、大規(guī)模的聯(lián)邦學(xué)習(xí)。
(5)Panda:一種機(jī)器學(xué)習(xí)算法,幫助谷歌評(píng)估網(wǎng)站的整體內(nèi)容質(zhì)量,并相應(yīng)地調(diào)整其搜索排名。
(6)Multitask Unified Model (MUM):使搜索引擎理解各種格式的信息,如文本、圖像和視頻,并在我們周?chē)澜绲母拍?、主題和想法之間建立隱含的聯(lián)系。
應(yīng)用MUM不僅將幫助世界各地的人們更高效地找到他們所需要的信息,而且還將增強(qiáng)創(chuàng)造者、出版商、初創(chuàng)企業(yè)和小企業(yè)的經(jīng)濟(jì)效益。
(7)Real Tone:為深色膚色的用戶(hù)提供了人臉檢測(cè)、自動(dòng)曝光和自動(dòng)增強(qiáng)等功能,幫助人工智能系統(tǒng)發(fā)揮更好性能。
(8)Lookout:一款為盲人和低視力者開(kāi)發(fā)的安卓應(yīng)用程序,使用計(jì)算機(jī)視覺(jué)技術(shù)提供用戶(hù)周?chē)沫h(huán)境信息。
(9)Project Relate:使用機(jī)器學(xué)習(xí)來(lái)幫助有語(yǔ)言障礙的人更便利地交流以及使用科技產(chǎn)品。
(10)Privacy Sandbox:與廣告行業(yè)合作,在支持出版商、廣告商和內(nèi)容創(chuàng)造者的同時(shí),通過(guò)AI技術(shù)增強(qiáng)用戶(hù)隱私,提供更私密的用戶(hù)體驗(yàn)。
4. 產(chǎn)品與服務(wù)
(1)Google Cloud:為各行業(yè)大規(guī)模應(yīng)用可信賴(lài)AI模型,提供可靠的基礎(chǔ)設(shè)施與高效的部署方案,并配套提供員工培訓(xùn)、集成相關(guān)開(kāi)發(fā)環(huán)境等服務(wù),使得各行業(yè)人員能更便捷地掌握和使用可信賴(lài)的AI工具模型。
(2)TensorFlow:世界上最流行的ML框架之一,擁有數(shù)百萬(wàn)的下載量和全球開(kāi)發(fā)者社區(qū),它不僅在谷歌中被使用,而且在全球范圍內(nèi)被用來(lái)解決具有挑戰(zhàn)性的現(xiàn)實(shí)世界問(wèn)題。
(3)Model Cards:一種情景假設(shè)分析工具,能夠?yàn)锳I的算法運(yùn)作提供一份可視化的解釋文檔。
該文檔能夠?yàn)槭褂谜唛喿x,使其充分了解算法模型的運(yùn)作原理和性能局限。
從技術(shù)原理上看,模型卡片設(shè)置的初衷是以通俗、簡(jiǎn)明、易懂的方式讓人類(lèi)看懂并理解算法的運(yùn)作過(guò)程。
其實(shí)現(xiàn)了兩個(gè)維度的“可視化”:
- 顯示算法的基本性能機(jī)制;
- 顯示算法的關(guān)鍵限制要素。
(4)Explainable AI:借助該服務(wù),客戶(hù)可以調(diào)試和提升模型性能,并幫助他人理解客戶(hù)的模型行為。
還可以生成特征歸因,以在AutoML Tables和Vertex AI中進(jìn)行模型預(yù)測(cè),并利用 What-If 工具以直觀的方式調(diào)查模型行為。
5. 治理創(chuàng)新:重視員工培訓(xùn)
相比于其他企業(yè),谷歌在AI倫理實(shí)踐方面的一大特色是專(zhuān)為員工開(kāi)設(shè)了科技倫理培訓(xùn)(Technology ethics training)。
該培訓(xùn)項(xiàng)目旨在通過(guò)科技哲學(xué)來(lái)指導(dǎo)員工遵循道德,使他們了解如何評(píng)估潛在的利害。
同時(shí)還配有課程,為員工解釋谷歌人工智能原則和內(nèi)部治理實(shí)踐。
不僅如此,2021年,谷歌還為新員工配套了AI原則和負(fù)責(zé)任創(chuàng)新培訓(xùn)課程(AI Principles and responsible innovation training course),幫助他們了解谷歌的倫理道德準(zhǔn)則和可用資源。
2021年,谷歌還推出了在線互動(dòng)答題(interactive online puzzles),旨在幫助員工建立對(duì)人工智能原則的認(rèn)識(shí),并測(cè)試他們的記憶程度。
三、IBM
1. 倫理原則
IBM針對(duì)AI倫理問(wèn)題提出了三大原則、五大支柱。
三大原則分別是:
- 人工智能的目的是增強(qiáng)人類(lèi)的智慧
- 數(shù)據(jù)和觀點(diǎn)都屬于它們的創(chuàng)造者
- 技術(shù)必須是透明和可解釋的。
五大支柱分別是:
- 公平性
- 可解釋性
- 魯棒性
- 透明性
- 隱私性
2. 治理機(jī)構(gòu)
IBM在AI倫理踐行方面主要由AI倫理委員會(huì)(AI Ethics Board)負(fù)責(zé),公司AI治理框架的所有核心內(nèi)容均處于AI倫理委員會(huì)之下。
委員會(huì)負(fù)責(zé)制定指導(dǎo)方針,并為人工智能的設(shè)計(jì)、開(kāi)發(fā)和部署工作保駕護(hù)航,旨在支持整個(gè)公司的所有項(xiàng)目團(tuán)隊(duì)執(zhí)行AI倫理原則,并敦促公司和所有員工堅(jiān)守負(fù)責(zé)任AI的價(jià)值觀。
該委員會(huì)是一個(gè)跨學(xué)科的中央機(jī)構(gòu),委員會(huì)成員包括來(lái)自公司各個(gè)部門(mén)的代表,針對(duì)業(yè)務(wù)部門(mén)、科研部門(mén)、營(yíng)銷(xiāo)部門(mén)、宣傳部門(mén)等部門(mén)的工作制定決策。
此外,委員會(huì)還幫助業(yè)務(wù)部門(mén)了解對(duì)技術(shù)特征的預(yù)期,幫助公司各部門(mén)在AI倫理領(lǐng)域做到相互熟悉和了解,以便更好地開(kāi)展協(xié)作。
同時(shí),AI倫理委員會(huì)還將依據(jù)公司AI原則、具體核心內(nèi)容以及技術(shù)特征,審查業(yè)務(wù)部門(mén)可能向客戶(hù)提供的新產(chǎn)品或服務(wù)的提案。
審查未來(lái)可能與客戶(hù)達(dá)成的交易時(shí),委員會(huì)主要關(guān)注以下三個(gè)方面:
- 首先是技術(shù)特征,
- 其次是技術(shù)的應(yīng)用領(lǐng)域,
- 最后是客戶(hù)本身,即審查客戶(hù)以往是否妥善遵循負(fù)責(zé)任AI原則。
案例一:新冠疫情期間,AI倫理委員會(huì)參與數(shù)字健康通行證開(kāi)發(fā)、部署階段的評(píng)審工作。
為協(xié)助新冠疫情治理,IBM制定了數(shù)字健康通行證(Digital Health Pass)。
該通行證的開(kāi)發(fā)團(tuán)隊(duì)從最早的概念階段開(kāi)始,就向委員會(huì)征詢(xún)意見(jiàn)。
該通行證是通用的“疫苗護(hù)照(vaccine passports)”可能導(dǎo)致隱私問(wèn)題或不公平的訪問(wèn)。
因此IBM的解決方案是:只有在個(gè)人同意后才能共享個(gè)人信息,并使每個(gè)人都受益。委員會(huì)參與了開(kāi)發(fā)階段,并在部署解決方案時(shí)繼續(xù)進(jìn)行評(píng)審。
3. 技術(shù)解決方案
IBM根據(jù)AI倫理的五大支柱:
- 可解釋性
- 公平性
- 魯棒性
- 透明性
- 隱私性
提出了五種針對(duì)性的技術(shù)解決方案。相應(yīng)的,它們分別是:
- AI Explainability 360 toolkit
- AI Fairness 360 toolkit
- Adversarial Robustness 360 Toolbox v1.0
- AI FactSheets 360
- IBM Privacy Portal
(1)AI Explainability 360 toolkit
從普通人到政策制定者、從科研人員到工程技術(shù)人員,不同的行業(yè)和角色需要各不相同的可解釋性。
為了有效解決可解釋性多樣性、個(gè)性化的強(qiáng)烈需求,IBM的研究人員提出了集成可解釋性工具箱AI Explainability 360(AIX360)。
這一開(kāi)源工具箱涵蓋了八種前沿的可解釋性方法和兩個(gè)維度評(píng)價(jià)矩陣。
同時(shí)還提供了有效的分類(lèi)方法引導(dǎo)各類(lèi)用戶(hù)尋找最合適的方法進(jìn)行可解釋性分析。
(2)AI Fairness 360 toolkit
人工智能算法中的偏差問(wèn)題越來(lái)越受到關(guān)注,AI Fairness 360是解決這一問(wèn)題的開(kāi)源解決方案。
該工具提供了算法,使開(kāi)發(fā)人員能夠掃描最大似然模型,以找到任何潛在的偏見(jiàn)。
這是打擊偏見(jiàn)的一個(gè)重要工作,當(dāng)然也是一項(xiàng)復(fù)雜的任務(wù)。
(3)Adversarial Robustness 360 Toolbox v1.0
ART最初于2018年4月發(fā)布,是一個(gè)對(duì)抗性機(jī)器學(xué)習(xí)的開(kāi)源庫(kù),為研究人員和開(kāi)發(fā)人員提供最先進(jìn)的工具,以在對(duì)抗性攻擊面前防御和驗(yàn)證人工智能模型。
ART解決了人們對(duì)人工智能日益增加的信任擔(dān)憂問(wèn)題,特別是在關(guān)鍵任務(wù)應(yīng)用中人工智能的安全性。
(4)AI FactSheets 360
以AI事實(shí)清單為代表的自動(dòng)化文檔是增強(qiáng)AI可解釋性的重要方式,它能夠以一種清晰明了的方式,作為技術(shù)人員與使用者的溝通介質(zhì),從而能避免許多情形下的道德和法律問(wèn)題。
AI事實(shí)清單并不試圖解釋每個(gè)技術(shù)細(xì)節(jié)或公開(kāi)有關(guān)算法的專(zhuān)有信息,它最根本的目標(biāo)是在使用、開(kāi)發(fā)和部署AI系統(tǒng)時(shí),加強(qiáng)人類(lèi)決策,同時(shí)也加快開(kāi)發(fā)人員對(duì)AI倫理的認(rèn)可與接納,并鼓勵(lì)他們更廣泛地采用透明性可解釋文化。
4. 行動(dòng)指南
IBM發(fā)布了《人工智能日常倫理指南》(Everyday Ethics for Artificial Intelligence),用于貫徹落實(shí)IBM提出的AI倫理道德原則。
該指南旨在讓人工智能系統(tǒng)的設(shè)計(jì)者和開(kāi)發(fā)人員系統(tǒng)地考慮AI倫理問(wèn)題,將道德、倫理貫徹在AI的全生命流程中。
四、Twitter
1. 治理機(jī)構(gòu)
META團(tuán)隊(duì)(MachineLearning Ethics, Transparency & Accountability):這是一個(gè)由公司內(nèi)部的工程師、研究人員和數(shù)據(jù)科學(xué)家組成的專(zhuān)門(mén)小組。
主要工作是評(píng)估公司使用的算法造成或可能造成的無(wú)意傷害,并幫助Twitter確定待處理問(wèn)題的優(yōu)先級(jí)。
META團(tuán)隊(duì)致力于研究人工智能系統(tǒng)的工作原理,并改善人們?cè)赥witter上的體驗(yàn)。
比如刪除一種算法,讓人們對(duì)自己發(fā)布的圖片有更多的控制權(quán),或者當(dāng)這些圖片對(duì)某個(gè)特定社區(qū)產(chǎn)生巨大影響時(shí),Twitter會(huì)制定新的標(biāo)準(zhǔn)來(lái)設(shè)計(jì)和制定政策。
META團(tuán)隊(duì)工作的成果可能并不總是轉(zhuǎn)化為可見(jiàn)的產(chǎn)品變化,但在機(jī)器學(xué)習(xí)的構(gòu)建和應(yīng)用上給我們帶來(lái)更高層次的認(rèn)知,并對(duì)重要問(wèn)題作出討論。
案例一:對(duì)性別和種族偏見(jiàn)的深入研究
META團(tuán)隊(duì)正在對(duì)圖像裁剪算法中的性別和種族偏見(jiàn)進(jìn)行“深入分析和研究”,其中包括對(duì)圖像裁剪(顯著性)算法的性別和種族偏見(jiàn)分析,對(duì)不同種族亞群體的“主頁(yè)”時(shí)間線推薦內(nèi)容進(jìn)行公平性評(píng)估以及針對(duì)七個(gè)國(guó)家不同政治意識(shí)形態(tài)的內(nèi)容推薦分析。
二、治理創(chuàng)新:算法賞金挑戰(zhàn)賽
頗有意思的是,為解決ML圖像裁剪的公平性問(wèn)題,Twitter舉辦算法賞金挑戰(zhàn)賽,使用社區(qū)主導(dǎo)的方法來(lái)構(gòu)建更好的算法,收集來(lái)自不同群體的反饋。
2021 年 8 月,Twitter舉辦了第一次算法偏見(jiàn)賞金挑戰(zhàn)賽,并邀請(qǐng)邀請(qǐng)人工智能開(kāi)發(fā)者社區(qū)來(lái)拆解算法,以識(shí)別其中的偏見(jiàn)和其他潛在危害。
算法賞金挑戰(zhàn)賽幫助公司在短時(shí)間內(nèi)發(fā)現(xiàn)了算法對(duì)于不同群體的偏見(jiàn)問(wèn)題,成為公司征求反饋和了解潛在問(wèn)題的重要工具。
五、幾點(diǎn)啟示
在這樣一個(gè)新技術(shù)新應(yīng)用新業(yè)態(tài)以指數(shù)級(jí)增長(zhǎng)的數(shù)字化時(shí)代,由于技術(shù)與人之間的交互和相互影響不斷加深,以及技術(shù)越來(lái)越具有更高的自主性,技術(shù)倫理成為了數(shù)字商業(yè)倫理的最新命題。
正如微軟總裁兼副董事長(zhǎng)布拉德·史密斯在其著作《工具,還是武器?》中所言,”如果你掌握了能夠改變世界的科技,那么你就有責(zé)任幫助解決你創(chuàng)造的世界所面臨的問(wèn)題?!?/p>
我國(guó)的相關(guān)頂層政策文件和立法都對(duì)科技倫理提出了新的要求,強(qiáng)調(diào)科技倫理審查的重要性,塑造科技向善的文化理念。
在這樣的背景下,微軟、谷歌、IBM、Twitter等國(guó)外科技公司在AI倫理和可信AI上的實(shí)踐做法,可以提供很多有意義的啟發(fā)。
其一,在一個(gè)高度技術(shù)化、數(shù)字化的社會(huì),在公司的治理版圖上,技術(shù)倫理將成為與財(cái)務(wù)、法務(wù)等既有板塊同等重要甚至更為重要的板塊。
我們看到,技術(shù)倫理作為商業(yè)倫理的新拼圖,越來(lái)越多的科技公司開(kāi)始將首席倫理官、倫理委員會(huì)等機(jī)制內(nèi)化為常態(tài)化的組織架構(gòu),統(tǒng)籌推進(jìn)相關(guān)工作。
其二,AI倫理和可信AI需要系統(tǒng)化的建設(shè),抽象的原則和頂層的框架固然重要,但行勝于言,更重要的是將倫理原則轉(zhuǎn)化為具體的實(shí)踐,融入技術(shù)設(shè)計(jì)以打造負(fù)責(zé)任的技術(shù)應(yīng)用。
在這方面,內(nèi)部治理機(jī)制、技術(shù)解決方案、倫理培訓(xùn)、倫理黑客社區(qū)(類(lèi)似于網(wǎng)絡(luò)安全領(lǐng)域的白帽黑客)、技術(shù)標(biāo)準(zhǔn)等傳統(tǒng)的和創(chuàng)新性的方式日益發(fā)揮出重要作用。
因?yàn)榭尚臕I和AI倫理不僅是理念原則,更是行動(dòng)路線。
其三,正如可信AI和AI倫理的概念本身所表征的那樣,我們需要反思技術(shù)人員主導(dǎo)的技術(shù)研發(fā)應(yīng)用和部署過(guò)程,更多強(qiáng)調(diào)技術(shù)開(kāi)發(fā)應(yīng)用中的多元背景和多元參與。
將政策、法律、倫理、社會(huì)、哲學(xué)等領(lǐng)域的人員引入開(kāi)發(fā)團(tuán)隊(duì),是將倫理要求嵌入技術(shù)設(shè)計(jì)開(kāi)發(fā)的最直接的、最有效的路徑。
好的技術(shù)不僅關(guān)注結(jié)果,更要關(guān)注過(guò)程。
科技向善是高度技術(shù)化社會(huì)的終極愿景。科技向善(techforgood)的理念至少包括兩個(gè)路徑,向外需要用技術(shù)解決各種社會(huì)問(wèn)題挑戰(zhàn),向內(nèi)需要關(guān)注技術(shù)本身,打造“善的/好的技術(shù)”(goodtech)。
AI倫理和可信AI正是聚焦于如何打造“善的/好的技術(shù)”,最終為向外發(fā)力的“科技向善”建立基礎(chǔ)。
參考文獻(xiàn):
[1]https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6
[2]https://www.microsoft.com/en-us/ai/our-approach?activetab=pivot1%3aprimaryr5
[3]https://www.microsoft.com/en-us/ai/responsible-ai-resources
[4]https:://azure.microsoft.com/en-us/solutions/devops/devops-at-microsoft/one-engineering-system/
[5]https://ai.google/responsibilities/
[6]https://cloud.google.com/responsible-ai
[7]https://www.tensorflow.org/responsible_ai
[8]https://blog.tensorflow.org/2020/06/responsible-ai-with-tensorflow.html
[9]https://github.com/microsoft/responsible-ai-toolbox
[10]https://www.ibm.com/artificial-intelligence/ethics
[11]https://aix360.mybluemix.net/?_ga=2.38820964.651461218.1639109085-1605157021.1638780204
[12]https://www.ibm.com/blogs/research/2019/09/adversarial-robustness-360-toolbox-v1-0/
[13]https://blog.twitter.com/en_us/topics/company/2021/introducing-responsible-machine-learning-initiative
[14]https://blog.twitter.com/engineering/en_us/topics/insights/2021/algorithmic-bias-bounty-challenge
作者:曹建峰、梁竹;公眾號(hào):騰訊研究院
本文由@ 騰訊研究院 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來(lái)自Unsplash,基于CC0協(xié)議
我個(gè)人感覺(jué)吧,現(xiàn)在就擔(dān)心人工職能變成武器還太早,但是定好規(guī)則還是很重要的
哈哈哈確實(shí)呢能看出大家都人工智能還是挺擔(dān)心的,科幻電影的影響好大
雖然現(xiàn)在害怕仿生人還早,但是各大公司發(fā)展人工智能之前都先設(shè)立了倫理原則也是負(fù)責(zé)的表現(xiàn)。
我的媽?zhuān)@有點(diǎn)不適合上班摸魚(yú)的時(shí)間看哈哈,我先收藏了回家再看