網(wǎng)易智能訊 10月15日消息】AI仍在繼續(xù)興起,盡管它并沒有成為人們所期待的那種廣泛性力量。在過去幾年中,AI領(lǐng)域的發(fā)展速度令人震驚。自2000年以來,活躍的AI初創(chuàng)企業(yè)數(shù)量增加了14倍,風(fēng)投對(duì)AI初創(chuàng)企業(yè)的投資增加了6倍,需要AI技能的工作比例增長(zhǎng)了4.5倍。
不過,領(lǐng)先的互聯(lián)網(wǎng)數(shù)據(jù)統(tǒng)計(jì)機(jī)構(gòu)Statista發(fā)布的調(diào)查結(jié)果顯示,截止2017年,全球只有5%的企業(yè)在其流程和產(chǎn)品中廣泛采用了AI,32%的企業(yè)尚未采用AI,22%的企業(yè)甚至沒有采用AI的計(jì)劃。知名AI研究人員菲利普·皮恩尼斯基(Filip Pieniewski)最近在科技媒體Venturebeat上撰文,闡述了他的觀點(diǎn),宣稱“AI寒冬即將到來?!?/p>
皮恩尼斯基說:“我們現(xiàn)在正處于2018年中后期,AI領(lǐng)域的情況已經(jīng)發(fā)生了變化。盡管表面上看似乎并非如此,比如NIPS會(huì)議仍然超受歡迎,企業(yè)公關(guān)團(tuán)隊(duì)在新聞發(fā)布會(huì)上仍然充斥著AI,美國(guó)連續(xù)創(chuàng)業(yè)家伊隆·馬斯克(Elon Musk)仍在承諾打造無人駕駛汽車,谷歌也始終在推動(dòng)吳恩達(dá)(Andrew Ng)的理念,即AI比電力更強(qiáng)大。但這種敘述已經(jīng)開始崩潰?!?/p>
我們極力宣傳無人駕駛汽車的愿景。今年春天早些時(shí)候,一名行人被無人駕駛汽車撞死,這一事件引起了人們的警覺,人們不僅質(zhì)疑這項(xiàng)技術(shù),還質(zhì)疑無人駕駛系統(tǒng)決策的背后是否存在道德問題。無人駕駛汽車的問題不是在挽救1個(gè)人還是5個(gè)人之間做出簡(jiǎn)單的二元選擇,而是在演變成一場(chǎng)關(guān)于良知、情感和感知的辯論,使機(jī)器做出合理決策的道路變得更加復(fù)雜。
皮恩尼斯基等人得出的結(jié)論是:全自動(dòng)無人駕駛汽車的夢(mèng)想可能比我們想象的遙遠(yuǎn)得多。AI專家們?cè)絹碓綋?dān)心,無人駕駛系統(tǒng)要想可靠地避免事故,可能還需要數(shù)年甚至數(shù)十年時(shí)間的努力。”
| 所謂的AI落地只是試點(diǎn)
讓我們以史為鑒來看下,云計(jì)算和網(wǎng)絡(luò)工業(yè)都花了大約5年的時(shí)間才開始對(duì)人們的生活產(chǎn)生重大影響,而這些行業(yè)影響市場(chǎng)的重大轉(zhuǎn)變也花了近10年時(shí)間。我們正在為AI設(shè)想一個(gè)類似的時(shí)間表。正如平臺(tái)技術(shù)、開源和封閉源系統(tǒng)以及AI技術(shù)方面經(jīng)驗(yàn)豐富的工程主管凱倫·班尼特(Karen Bennet)解釋的那樣:
“為了讓每個(gè)人都能采用,一款產(chǎn)品需要方便可用,需要是能夠擴(kuò)展至被所有人使用,而不僅僅是服務(wù)于數(shù)據(jù)科學(xué)家。該產(chǎn)品將需要考慮數(shù)據(jù)生命周期中數(shù)據(jù)捕獲、準(zhǔn)備、培訓(xùn)模型和預(yù)測(cè)等環(huán)節(jié)。隨著數(shù)據(jù)被存儲(chǔ)在云端,數(shù)據(jù)管道可以不斷地提取,并準(zhǔn)備用它們來訓(xùn)練模型,從而做出預(yù)測(cè)。模型需要借助新的訓(xùn)練數(shù)據(jù)不斷改進(jìn),從而保持模型的相關(guān)性和透明性。這就是目標(biāo)和希望。”
我(本文作者杰西·瓊斯(Jessie Jones))和班尼特都來自科技和AI初創(chuàng)企業(yè)。我們所見證的以及在AI社區(qū)中與同行討論中我們所意識(shí)到的是,我們正在眾多商業(yè)問題上進(jìn)行廣泛的實(shí)驗(yàn),然而這些實(shí)驗(yàn)往往停留在實(shí)驗(yàn)室中。這篇最近的文章證實(shí)了當(dāng)今普遍存在的AI炒作問題:
“AI技術(shù)供應(yīng)商往往會(huì)受到激勵(lì),讓他們的技術(shù)聽起來比實(shí)際中更強(qiáng),但這也暗示了它們?cè)诂F(xiàn)實(shí)世界中的吸引力比實(shí)際上更大……企業(yè)中的大多數(shù)AI應(yīng)用程序不過是‘試點(diǎn)’。在AI領(lǐng)域兜售營(yíng)銷解決方案、醫(yī)療保健解決方案和金融解決方案的供應(yīng)商,基本上只是在測(cè)試這項(xiàng)技術(shù)。在任何特定的行業(yè)中,我們發(fā)現(xiàn),在銷售AI軟件和技術(shù)的數(shù)百家供應(yīng)商中,只有大約三分之一的公司具備開發(fā)AI所需的技能?!?/p>
風(fēng)投公司意識(shí)到,他們可能在一段時(shí)間內(nèi)看不到投資回報(bào)。然而,AI還沒有準(zhǔn)備好迎接黃金時(shí)段的到來,原因之一就在于幾乎無處不在的AI實(shí)驗(yàn)幾乎都沒有看到曙光。
| 算法需要負(fù)責(zé)任嗎
我們聽說過AI“黑箱”,即研究人員目前還不清楚AI如何做出決策。這種做法是在銀行和大型機(jī)構(gòu)面臨要求問責(zé)制的合規(guī)標(biāo)準(zhǔn)和政策的情況下出現(xiàn)的。由于系統(tǒng)是作為“黑箱”操作的,只要這些算法的創(chuàng)建經(jīng)過了審查,并且滿足了關(guān)鍵涉眾的一些標(biāo)準(zhǔn),人們就可能對(duì)算法產(chǎn)生固有的信任。
鑒于大量證據(jù)表明開發(fā)中的算法存在缺陷,以及由此產(chǎn)生意想不到的有害結(jié)果,這種觀點(diǎn)很快就引發(fā)了爭(zhēng)議。我們的許多簡(jiǎn)單系統(tǒng)都像“黑箱”一樣運(yùn)作,超出了任何有意義的審查范圍,原因包括公司有意保密、缺乏足夠的教育以及缺乏了解如何批判性地檢查輸入、結(jié)果,最重要的是,不理解為何會(huì)出現(xiàn)這些結(jié)果。
班尼特表示:“如今,AI行業(yè)正處于企業(yè)準(zhǔn)備采用的早期階段。AI是非常有用的,可以通過大量的數(shù)據(jù)進(jìn)行發(fā)現(xiàn)和分析,但是它仍然需要人類的干預(yù)作為對(duì)數(shù)據(jù)及其結(jié)果進(jìn)行評(píng)估和行動(dòng)指南。”
圖:截至2017年,全球商業(yè)組織中的人工智能的采用水平
班尼特還澄清說,如今的機(jī)器學(xué)習(xí)技術(shù)使數(shù)據(jù)能夠被標(biāo)記出來,以幫助識(shí)別真知灼見。然而,作為這個(gè)過程的一部分,如果有些數(shù)據(jù)被錯(cuò)誤地標(biāo)記,或者沒有足夠的數(shù)據(jù)訓(xùn)練,亦或者有問題的數(shù)據(jù)產(chǎn)生偏見,很可能會(huì)出現(xiàn)糟糕的決策結(jié)果。她還表示,目前的流程仍在不斷完善:“目前,AI都是關(guān)于決策支持的,以提供洞察,讓企業(yè)可以從中得出結(jié)論。在AI發(fā)展的下一個(gè)階段,AI可將數(shù)據(jù)中的動(dòng)作自動(dòng)化,還有些額外的問題需要解決,比如偏見、可解釋性、隱私性、多樣性、倫理和持續(xù)的模型學(xué)習(xí)等。”
這表明,要想真正理解AI產(chǎn)品,需要有個(gè)關(guān)于對(duì)象和人的常識(shí)世界模型,以幫助AI去真正了解它們。一個(gè)模型只暴露在有限數(shù)量的標(biāo)記對(duì)象和有限種類的訓(xùn)練中,這將限制這個(gè)常識(shí)世界模型的有效性。企業(yè)需要進(jìn)行研究,以確定模型如何處理其輸入,并以人類可以理解的方式得出其結(jié)論。亞馬遜發(fā)布的面部識(shí)別技術(shù)Rekognition,是目前正在研發(fā)和許可使用的AI技術(shù)的典型例子,但其有效性存在明顯的差距。
美國(guó)公民自由聯(lián)盟發(fā)布的一項(xiàng)研究稱:“亞馬遜的技術(shù)將28名國(guó)會(huì)議員的照片與罪犯公開的臉部照片混淆了。鑒于亞馬遜積極向美國(guó)各地的執(zhí)法機(jī)構(gòu)推銷自己的Rekognition,這顯示其還遠(yuǎn)遠(yuǎn)不夠好。”算法正義聯(lián)盟(Algorithmic Justice League)的創(chuàng)始人喬伊·布拉馬維尼(Joy Buolamwini)在最近的一次采訪中,呼吁暫停這項(xiàng)技術(shù),稱其無效,并需要更多監(jiān)管。此外,在這些系統(tǒng)被公開發(fā)布之前,政府應(yīng)該制定更多相關(guān)標(biāo)準(zhǔn)。
| 數(shù)據(jù)的完整性問題
如今的AI需要大量的數(shù)據(jù)才能產(chǎn)生有意義的結(jié)果,但無法利用其他應(yīng)用程序的經(jīng)驗(yàn)。雖然班尼特認(rèn)為克服這些局限性的工作正取得進(jìn)展,但是在模型以可擴(kuò)展的方式應(yīng)用之前,學(xué)習(xí)的轉(zhuǎn)移是有必要的。然而,在某些情況下,AI可以在今天得到有效的應(yīng)用,比如在圖像、聲音、視頻和翻譯語言方面的洞察力。
企業(yè)正在學(xué)習(xí)應(yīng)該關(guān)注的問題:
1)數(shù)據(jù)的多樣性,包括適當(dāng)人群的代表性。
2)在創(chuàng)建算法的過程中確保不同的經(jīng)驗(yàn)、觀點(diǎn)和思維。
3)數(shù)據(jù)質(zhì)量?jī)?yōu)先于數(shù)量。這些都是非常重要的,特別是隨著偏見的引入,對(duì)AI的信任和信心數(shù)據(jù)都在下降。例如,在土耳其語中屬于中性的語言,谷歌翻譯中的AI模型在將其翻譯成英語時(shí)卻錯(cuò)誤地預(yù)測(cè)了性別。
此外,癌癥識(shí)別AI在圖像識(shí)別訓(xùn)練時(shí)只使用皮膚白皙的人照片。從上面的計(jì)算機(jī)視覺例子中,喬伊·布拉馬維尼(Joy Buolamwini)測(cè)試了這些AI技術(shù),并意識(shí)到它們?cè)谧R(shí)別男性VS女性或淺色VS深色皮膚方面更有效。識(shí)別男性的錯(cuò)誤率低至1%,而識(shí)別深色皮膚女性的錯(cuò)誤率則高達(dá)35%。這些問題的發(fā)生是因?yàn)闆]有使用多樣化的數(shù)據(jù)進(jìn)行培訓(xùn)。
班尼特承認(rèn):“AI的概念很簡(jiǎn)單,但通過獲取越來越多的真實(shí)世界數(shù)據(jù),算法會(huì)變得越來越聰明,然而要解釋這些決策卻變得極其困難。數(shù)據(jù)可能會(huì)不斷變化,AI模型需要進(jìn)行過濾,以防止錯(cuò)誤的標(biāo)簽,比如將非洲人貼上大猩猩的標(biāo)簽,或者將熊貓誤認(rèn)為長(zhǎng)臂猿。企業(yè)依靠錯(cuò)誤的數(shù)據(jù)來做出決策,將導(dǎo)致更加糟糕的結(jié)果。”
幸運(yùn)的是,由于AI的狹義存在,很少有公司會(huì)根據(jù)今天的數(shù)據(jù)做出重大商業(yè)決策。從我們所看到的情況來看,大多數(shù)解決方案主要是產(chǎn)品推薦和個(gè)性化營(yíng)銷溝通。由此得出的任何錯(cuò)誤結(jié)論都不會(huì)對(duì)社會(huì)造成太大影響,至少目前如此。使用數(shù)據(jù)來進(jìn)行業(yè)務(wù)決策并不新鮮,但發(fā)生變化的是使用結(jié)構(gòu)化和非結(jié)構(gòu)化數(shù)據(jù)的數(shù)量和組合正呈指數(shù)級(jí)增長(zhǎng)。AI使我們能夠持續(xù)性地使用來自他們?cè)搭^的數(shù)據(jù),并更快地獲得洞察力。對(duì)于具有處理來自不同數(shù)據(jù)源的數(shù)據(jù)和結(jié)構(gòu)能力的企業(yè)來說,這意味著巨大的機(jī)會(huì)。
然而,對(duì)于其他企業(yè)來說,大量的數(shù)據(jù)可能代表著一種風(fēng)險(xiǎn),因?yàn)椴煌膩碓春透袷绞沟棉D(zhuǎn)換信息變得更加困難。這些信息來自電子郵件、系統(tǒng)日志、網(wǎng)頁(yè)、客戶記錄、文檔、幻燈片、非正式聊天、社交網(wǎng)絡(luò)以及圖像和視頻更豐富的媒體。數(shù)據(jù)轉(zhuǎn)換仍然是開發(fā)干凈數(shù)據(jù)集和有效模型的絆腳石。
| 偏見比我們意識(shí)到的更普遍
許多商業(yè)模型都存在偏見,以最小化風(fēng)險(xiǎn)評(píng)估和優(yōu)化目標(biāo)機(jī)會(huì),雖然它們可能產(chǎn)生有利可圖的商業(yè)結(jié)果。但眾所周知,它們會(huì)導(dǎo)致意想不到的后果,導(dǎo)致個(gè)人傷害,加大經(jīng)濟(jì)差距。保險(xiǎn)公司可能會(huì)利用位置信息或信用評(píng)分?jǐn)?shù)據(jù)向較貧窮的客戶發(fā)放更高的保費(fèi)。銀行可能會(huì)批準(zhǔn)信用評(píng)分較低的貸款申請(qǐng),盡管這些人已經(jīng)負(fù)債累累,可能無法負(fù)擔(dān)更高的貸款利率。
由于AI的引入不僅會(huì)使現(xiàn)有的偏見永久存在,而且這些學(xué)習(xí)模型的結(jié)果可能會(huì)推廣到加深經(jīng)濟(jì)和社會(huì)鴻溝的程度,因此圍繞著偏見的謹(jǐn)慎程度也越來越高。在當(dāng)前情況下,偏見出現(xiàn)在類似“替代性制裁的懲罰性罪犯管理分析”(Correctional Offender Management Profiling for Alternative Sanctions,簡(jiǎn)稱COMPAS)的算法中。
COMPAS是由名為Northpointe的公司創(chuàng)建的,目的旨在評(píng)估審前聽證中被告犯罪行為的風(fēng)險(xiǎn),并作出預(yù)測(cè)。COMPAS初步研究中使用的問題類型足以顯示,無意中對(duì)待黑人的偏見會(huì)在系統(tǒng)中延續(xù)。在沒有公共標(biāo)準(zhǔn)可用的情況下,Northpointe得以自己創(chuàng)建公平的定義,并在沒有第三方評(píng)估的情況下開發(fā)了一種算法。這篇文章證明:一個(gè)流行的算法在預(yù)測(cè)犯罪方面并不比隨機(jī)的人更好。
如果這款軟件和未受過訓(xùn)練的人對(duì)在線調(diào)查的反應(yīng)一樣準(zhǔn)確,我認(rèn)為法院在做決定時(shí)應(yīng)該考慮到這一點(diǎn)。班尼特稱:“當(dāng)我們?cè)噲D修復(fù)現(xiàn)有系統(tǒng)以最小化這種偏見時(shí),關(guān)鍵是要對(duì)不同的數(shù)據(jù)集進(jìn)行模型訓(xùn)練,以防止將來產(chǎn)生危害?!庇捎阱e(cuò)誤模型的潛在風(fēng)險(xiǎn)遍布企業(yè)和社會(huì),企業(yè)沒有治理機(jī)制來監(jiān)督不公平或不道德的決策,而這些決策將無意中影響最終消費(fèi)者。
| 對(duì)隱私日益增長(zhǎng)的需求
我和班尼特都曾在雅虎工作過,我們與強(qiáng)大的研究和數(shù)據(jù)團(tuán)隊(duì)合作,能夠在我們的平臺(tái)上對(duì)用戶的行為進(jìn)行仔細(xì)研究。我們不斷地研究用戶行為,了解他們?cè)谝魳?、主?yè)、生活方式、新聞等眾多屬性方面的傾向。當(dāng)時(shí),對(duì)數(shù)據(jù)使用沒有嚴(yán)格的標(biāo)準(zhǔn)或規(guī)定。隱私被降級(jí)為平臺(tái)上用戶被動(dòng)遵守的協(xié)議中的條款和條件,與今天的情況類似。
最近的劍橋分析公司濫用Facebook用戶數(shù)據(jù)丑聞把個(gè)人數(shù)據(jù)隱私問題推到了風(fēng)口浪尖。主要信貸機(jī)構(gòu)(如Equifax)、最近的Facebook和Google +頻繁發(fā)生的數(shù)據(jù)泄露,繼續(xù)加劇了這一問題。2018年5月25日生效的歐洲《通用數(shù)據(jù)保護(hù)條例》(GDPR)將改變企業(yè)的游戲規(guī)則,特別是那些收集、存儲(chǔ)和分析個(gè)人用戶信息的公司。它將改變企業(yè)經(jīng)營(yíng)多年的商業(yè)規(guī)則。毫無節(jié)制地使用個(gè)人信息已經(jīng)到了緊要關(guān)頭,因?yàn)槠髽I(yè)現(xiàn)在會(huì)意識(shí)到,數(shù)據(jù)的使用將受到重大限制。更重要的是,所有權(quán)之爭(zhēng)更為激烈。
我們看到了定位廣告的早期效果。這個(gè)價(jià)值750億美元的行業(yè),預(yù)計(jì)到2021年將以21%的年復(fù)合增長(zhǎng)率增長(zhǎng),但仍受到Facebook和谷歌的寡頭壟斷的阻礙,它們獲得了大部分收入。現(xiàn)在,GDPR加大了風(fēng)險(xiǎn),讓這些廣告技術(shù)公司擔(dān)負(fù)起更多責(zé)任。這種風(fēng)險(xiǎn)非常高,以至于(廣告商)必須非常確定,你被告知的內(nèi)容實(shí)際上是符合要求的。對(duì)于什么最終會(huì)構(gòu)成違規(guī),似乎存在著足夠多的普遍困惑,人們對(duì)此采取了廣泛的方法,直到你能夠準(zhǔn)確地了解合規(guī)。
盡管監(jiān)管最終會(huì)削弱營(yíng)收,但至少就目前而言,移動(dòng)和廣告平臺(tái)行業(yè)也正面臨著越來越多的審查,這些行業(yè)多年來一直在從消費(fèi)者身上賺錢。這一點(diǎn),再加上圍繞既定實(shí)踐的審查,將迫使行業(yè)改變收集、聚合、分析和共享用戶信息的方式。對(duì)隱私進(jìn)行操作需要時(shí)間、重大投資以及心態(tài)上的改變,這些將影響企業(yè)政策、流程和文化。
| AI與倫理道德不可避免的結(jié)合
AI的普遍因素確保了社會(huì)效益,包括簡(jiǎn)化流程、增加便利性、改進(jìn)產(chǎn)品和服務(wù),以及通過自動(dòng)化檢測(cè)潛在的危害。在最后一點(diǎn)上妥協(xié)可能意味著,更容易依據(jù)更新的制造過程、服務(wù)和評(píng)估解決方案、生產(chǎn)和產(chǎn)品質(zhì)量結(jié)果來衡量投入/產(chǎn)出。隨著關(guān)于AI的討論和新聞的持續(xù),“AI”這個(gè)術(shù)語和“倫理”的結(jié)合,揭示了越來越嚴(yán)重的擔(dān)憂,即AI技術(shù)在哪些方面會(huì)造成社會(huì)損害,從而考驗(yàn)人類的良知和價(jià)值觀。
圖:有關(guān)AI及其道德標(biāo)準(zhǔn)的討論正在增多
除了個(gè)人隱私問題,今天我們看到了一些近乎不合情理的創(chuàng)新例子。如前所述,Rekognition被用于執(zhí)法和公民監(jiān)視,而該技術(shù)被認(rèn)為是錯(cuò)誤的。谷歌決定向美國(guó)國(guó)防部提供AI技術(shù)支持,用于分析無人機(jī)拍攝的視頻,目標(biāo)是幫助創(chuàng)建一個(gè)復(fù)雜的系統(tǒng),在名為project Maven的項(xiàng)目中對(duì)城市進(jìn)行監(jiān)測(cè),許多員工為此發(fā)起抗議,甚至不惜辭職。
決策者和監(jiān)管機(jī)構(gòu)將需要引入新的流程和政策,以恰當(dāng)?shù)卦u(píng)估AI技術(shù)的使用方式、用途和過程中是否會(huì)出現(xiàn)意外后果。班尼特指出了AI算法中數(shù)據(jù)使用的新問題需要考慮,包括如何檢測(cè)敏感數(shù)據(jù)字段并匿名化它們,同時(shí)保留數(shù)據(jù)集的重要特性?我們能在短期內(nèi)訓(xùn)練合成數(shù)據(jù)作為替代品嗎?在創(chuàng)建算法時(shí),我們需要問自己一個(gè)問題:我們需要哪些字段來提供我們想要的結(jié)果?此外,我們應(yīng)該創(chuàng)建哪些參數(shù)來定義模型中的“公平”,這意味著是否會(huì)區(qū)別對(duì)待兩個(gè)個(gè)體?如果是這樣,原因是什么?我們?nèi)绾卧谖覀兊南到y(tǒng)中持續(xù)監(jiān)控這一點(diǎn)?
| AI寒冬?也許是AI走向更美好未來的良機(jī)
AI已經(jīng)走了很長(zhǎng)的路,但還需要更多的時(shí)間來成熟。在一個(gè)自動(dòng)化程度和認(rèn)知計(jì)算能力不斷提高的世界里,即將到來的AI寒冬也為企業(yè)提供了必要的時(shí)間,讓它們來決定如何將AI融入企業(yè)中,以及如何利用AI解決面臨的問題。AI面臨問題需要在政策、治理以及對(duì)個(gè)人和社會(huì)的影響方面加以解決。