我們?cè)撛趺葱湃嗡?如何信任電腦)

在 AI 進(jìn)入人類生活每個(gè)角落的時(shí)候,人們一定會(huì)涌起一個(gè)疑問:AI 給我們的這些建議是對(duì)的嗎?如果一個(gè)技術(shù)非常強(qiáng)大,但是卻不能完全符合人類道德,那么如何評(píng)價(jià)它的價(jià)值?
如果不認(rèn)真重視、有效解決 AI 的可信性問題,那么 AI 越強(qiáng)大,人們?cè)讲桓矣?。?2019 世界人工智能大會(huì)(WAIC)期間,IBM 副總裁、大中華區(qū)首席技術(shù)官謝東博士通過主題演講,闡述了 IBM 主推的“可信 AI”概念。
AI 飛速發(fā)展帶來可信性問題
在計(jì)算機(jī)系統(tǒng)投入應(yīng)用的第一天,計(jì)算機(jī)系統(tǒng)及算法的可信性問題就伴隨出現(xiàn)了。
今年是人類登月 50 周年。遙想當(dāng)年,我們?cè)谠O(shè)計(jì)飛船時(shí)采用的計(jì)算機(jī),其算力甚至難以同現(xiàn)在的智能手機(jī)相提并論。那么,為什么在計(jì)算人類從地球飛向月球的軌道時(shí),我們足夠相信這個(gè)算法呢?這是因?yàn)楫?dāng)時(shí)的計(jì)算有完整的數(shù)學(xué)理論、物理定理支持。
時(shí)至今日,以深度學(xué)習(xí)為代表的 AI 算法,先天就有一些不可解釋性。更不用說,我們通常會(huì)模仿人對(duì)問題的理解和判斷來設(shè)計(jì) AI。由于人類對(duì)自身都不是很了解,連自己都搞不清楚自己到底是怎么想的,到底為什么做這個(gè)判斷。
所以,在 AI 進(jìn)入人類生活每個(gè)角落的時(shí)候,人們一定會(huì)涌起一個(gè)疑問:AI 給我們的這些建議是對(duì)的嗎?
當(dāng) AI 醫(yī)生診斷我們得了某種重病,或是提供治療方案時(shí),我們會(huì)擔(dān)心它預(yù)測(cè)是否準(zhǔn)確。
當(dāng) AI 分析師做出投資建議時(shí),我們會(huì)擔(dān)心是否可以把血汗錢押在這上面。
當(dāng) AI 老師制訂了一套符合你能力的教學(xué)方案時(shí),我們也會(huì)擔(dān)心這是否真的就適合自己。
當(dāng) AI 算法綜合大數(shù)據(jù)對(duì)我們做分析和信息流推薦時(shí),我們更會(huì)警惕它是不是“真的懂我”,自己有沒有被公正對(duì)待。
有些時(shí)候,AI 并不能完全符合我們的期待,會(huì)讓人失望甚至恐懼。
當(dāng)行人違反交通規(guī)則,沒有走人行橫道的時(shí)候,有的無人駕駛汽車會(huì)判斷為不用剎車,全球首例無人駕駛車輛事故由此產(chǎn)生;
當(dāng)醫(yī)療 AI 試圖給病人開藥的時(shí)候,如果此前忘記錄入并發(fā)癥信息,開出的藥方可能對(duì)某些患者是致命的;
若是沒有專門介入,人臉識(shí)別等算法無法準(zhǔn)確地識(shí)別數(shù)據(jù)較少的少數(shù)族裔面孔,形成嚴(yán)重的偏見;
而訓(xùn)練 AI 算法的模型需要大量數(shù)據(jù),這些數(shù)據(jù)也可能未經(jīng)授權(quán),讓普通人的隱私在不知不覺中被“偷走”。
如果一個(gè)技術(shù)非常強(qiáng)大,但是卻不能以符合人類道德的方式服務(wù)人類,那么如何評(píng)價(jià)它的價(jià)值?所以,如果不認(rèn)真重視、有效解決 AI 的可信性問題,那么 AI 越強(qiáng)大,人們?cè)讲桓矣谩?/p>
IBM 可信 AI 概念的提出
謝東介紹說,要正確的發(fā)展人工智能,就必須提出可信賴的人工智能。人工智能的未來在于信任,如果想要驅(qū)動(dòng)業(yè)務(wù)成功,人工智能就不能隱藏在“黑盒子”中。
IBM 對(duì) AI 發(fā)展有幾個(gè)基本論點(diǎn):
AI 不是代替人類的,而是人類的輔助;
AI 的數(shù)據(jù)和洞察(即結(jié)論)均屬于其創(chuàng)造者,也就是客戶;
AI 必須被人們所信任。
近年來,IBM 堅(jiān)持不懈的向客戶和業(yè)界解釋,在其產(chǎn)品和服務(wù)中的 AI 是何時(shí),何處,以什么方法植入的,其模型是用什么數(shù)據(jù)來訓(xùn)練的。
在此基礎(chǔ)上,IBM 提煉出可信 AI (Trusted AI)的四條原則:
公平性(Fairness):AI系統(tǒng)應(yīng)該采用不帶偏見的數(shù)據(jù)集和模型,從而避免對(duì)于特定群體的不公平;
可解釋性(Explainability):AI系統(tǒng)所提供的決策或建議不是一個(gè)不可解釋的黑箱,應(yīng)該能夠被用戶和開發(fā)者所分析、理解;
健壯性(Robustness):AI系統(tǒng)應(yīng)該安全和可靠,不會(huì)被篡改,也不會(huì)受被“污染”的訓(xùn)練數(shù)據(jù)集影響;
透明性(Transparency):AI系統(tǒng)可以被透明化管理,其開發(fā)、部署、維護(hù)等可被追蹤,能夠在生命周期范圍內(nèi)被審核。
IBM 非常重視可信 AI,不僅概述實(shí)現(xiàn)這些目標(biāo)的各種方法論,還推出了各種實(shí)用工具,并在自身提供的解決方案設(shè)計(jì)和實(shí)踐的初期,就完整考慮了這些可信問題,讓客戶可以放心使用。
IBM z 系列大型主機(jī)、LinuxONE 主機(jī)、Power 服務(wù)器、存儲(chǔ)等企業(yè)級(jí)專用硬件;數(shù)據(jù)管理、人工智能、應(yīng)用管理和操作系統(tǒng)等企業(yè)級(jí)軟件;以及 IBM 研究院的各種創(chuàng)新實(shí)踐,及多年積累的行業(yè)經(jīng)驗(yàn),讓 IBM 從硬件、軟件、服務(wù)方面入手,為企業(yè)交付可信 AI 的數(shù)字基礎(chǔ)設(shè)施。
IBM 可信 AI 的實(shí)際開發(fā)和應(yīng)用
謝東介紹稱,IBM 特別注重將對(duì) AI 的信任研究,轉(zhuǎn)化為實(shí)際產(chǎn)品和平臺(tái),同時(shí)強(qiáng)調(diào)構(gòu)成技術(shù)團(tuán)隊(duì)的人員多樣性和包容性。針對(duì) IBM 可信 AI 四原則的每一方面,都有相對(duì)應(yīng)的具體工具和產(chǎn)品投入使用。
公平性:AI 系統(tǒng)都是通過人提供的數(shù)據(jù),人打的標(biāo)簽,或者是人歷史上的經(jīng)驗(yàn)訓(xùn)練出來的。我們不能保證這些基礎(chǔ)數(shù)據(jù)是沒有偏見的,但是不希望人造成的偏見就這么帶到 AI 系統(tǒng)里。
IBM 提供了開源工具集合 AI fairness 360,包含用于檢查和減輕 AI 中不必要偏見的算法。在一個(gè)訓(xùn)練好的模型中,它的輸入輸出之間如果存在某種強(qiáng)相干因素,這些工具就能檢查此類強(qiáng)相干是不是開發(fā)者所期望的,是不是因?yàn)橐恍┢娫斐傻摹?/p>
IBM AI OpenScale技術(shù)平臺(tái)也可以在各種 AI 應(yīng)用運(yùn)行時(shí),檢測(cè)并解決其中的偏見問題。
可解釋性:盡管機(jī)器學(xué)習(xí)存在著人類難以明白原理的“黑盒”,但在現(xiàn)有已經(jīng)很成熟的技術(shù)和應(yīng)用基礎(chǔ)上,它還是比決策樹類“白盒”更具潛力。IBM 傾向于通過同樣是基于神經(jīng)網(wǎng)絡(luò)的辦法,來解釋 AI 模型的決策。
2019 年 8 月,IBM 發(fā)布開源算法集合 AI Explainability 360,以增強(qiáng)算法的可解釋性。
例如,如果手寫識(shí)別要區(qū)分一個(gè)手寫的圖片是數(shù)字 3 還是 5 ,該工具可以嘗試給出類似這樣的解釋:
“我之所以沒有把它識(shí)別成 5,是因?yàn)?5 上面還要有小小的一橫。如果我看到這一橫,我就把它識(shí)別成 5 了?!?/em>
健壯性:開發(fā)者往往通過數(shù)據(jù)集訓(xùn)練圖像識(shí)別模型。但是如果人為地給原始數(shù)據(jù)加噪聲,進(jìn)行噪聲迭代,就有可能產(chǎn)生一些危險(xiǎn)的誤導(dǎo)性案例:人看上去還是正確的結(jié)果,機(jī)器卻做出錯(cuò)誤的識(shí)別。
很多模型如果遭受這樣的攻擊,后果是很可怕的。比如自動(dòng)駕駛系統(tǒng)遇到經(jīng)黑客篡改的交通標(biāo)志,一旦識(shí)別錯(cuò)誤,就可能導(dǎo)致交通事故。
Adversarial Robustness 360 Toolkit 是 IBM 研究團(tuán)隊(duì)開源的,用于檢測(cè)模型及對(duì)抗攻擊的工具箱,為開發(fā)人員加強(qiáng) AI 模型被誤導(dǎo)的防御性,讓 AI 系統(tǒng)更加安全。
透明性:AI OpenScale是 IBM 提高所謂“黑箱方法”透明度的一部分,從而加速 AI 的規(guī)?;l(fā)展。
無論 AI 應(yīng)用在何種環(huán)境中構(gòu)建或運(yùn)行,AI OpenScale 都可讓企業(yè)在其整個(gè)生命周期中實(shí)現(xiàn)透明化管理,記錄每項(xiàng)預(yù)測(cè)、每個(gè)模型版本、所有使用的訓(xùn)練數(shù)據(jù)及各種指標(biāo),幫助企業(yè)遵守 GDPR 等法規(guī)。
可信 AI 的未來展望
在 IBM 提出“智慧地球”概念的 2008 年,就提前預(yù)測(cè)了萬物互聯(lián)的現(xiàn)實(shí)演變。這也使得采納 IBM 智慧城市改造方案的案例,都體現(xiàn)了 AI 強(qiáng)力工具的正確“打開方式”。
例如,面對(duì)全球變暖導(dǎo)致的森林火災(zāi)風(fēng)險(xiǎn)提升,葡萄牙公司 Compta 與 IBM 合作,構(gòu)建了名為 Bee2FireDetection的新型火災(zāi)檢測(cè)解決方案,利用 AI 來提高自動(dòng)化程度并加快決策,減輕歐洲和北美的林火風(fēng)險(xiǎn)。
該工具最遠(yuǎn)可發(fā)現(xiàn) 15 公里范圍內(nèi)的火災(zāi),可在森林火災(zāi)發(fā)生后的前 20 分鐘內(nèi)檢測(cè)到,實(shí)現(xiàn)早發(fā)現(xiàn),早撲救。它使用來自 The Weather Company 的數(shù)據(jù),計(jì)算未來幾天的火災(zāi)風(fēng)險(xiǎn)水平,并分析出現(xiàn)火災(zāi)時(shí)可能的蔓延方式。
在 IBM 及業(yè)內(nèi)其它公司的共同推動(dòng)下,值得信賴的人工智能將成為今后 AI 發(fā)展的焦點(diǎn)所在。世界各國(guó)也都開始重視 AI 的安全可控問題,并以不同形式加以規(guī)劃和治理。
近日,由國(guó)家科學(xué)技術(shù)部、工信部、交通運(yùn)輸部、教育部、中國(guó)工程院等單位人士牽頭組成的國(guó)家新一代人工智能治理專業(yè)委員會(huì),發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》。
在其提出的“和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理”等八條原則中,同樣體現(xiàn)了 AI 設(shè)計(jì)需要安全可控可靠、公平公正、尊重隱私等要點(diǎn)。
謝東在演講中提到,雖然 AI 讓我們深刻思考其可信性問題,但也不需要為此過分焦慮。這也是 AI 發(fā)展過程中不可避免的環(huán)節(jié),重點(diǎn)在于相關(guān)方面的正義感和責(zé)任感。
他引用 IBM 董事長(zhǎng)羅睿蘭的話說:
“人工智能正在全方位地影響和改變整個(gè)社會(huì)。IBM 致力于 AI 的研究和應(yīng)用,為企業(yè)提供先進(jìn)和完整的 AI 技術(shù)和方案,并致力于打造可信任的 AI,而社會(huì)也會(huì)選擇它所信任的公司。”