智能穿戴設(shè)備吸引觀眾。湯彥俊 攝
近日,麻省理工學(xué)院媒體實驗室出品了一個“暗黑版AI”,再次將人工智能的黑箱隱憂這個經(jīng)久不衰的話題送上熱門。據(jù)報道,實驗室的三人團(tuán)隊聯(lián)手創(chuàng)造了一個叫諾曼(Norman)的人工智能,與希區(qū)柯克經(jīng)典電影《驚魂記》中的變態(tài)旅館老板諾曼·貝茲同名。
名如其人。諾曼會以負(fù)面想法來理解它看到的圖片。例如,一張在一般AI看來只是“樹枝上的一群鳥”的普通圖片,在諾曼眼中卻是“一名男子觸電致死”。
團(tuán)隊希望通過諾曼的表現(xiàn)提醒世人:用來教導(dǎo)或訓(xùn)練機(jī)器學(xué)習(xí)算法的數(shù)據(jù),會對AI的行為造成顯著影響。AI會成為什么樣,有時人類可能束手無策。
TA們的偏見就是人類的偏見
諾曼們從哪來?答案首先藏在數(shù)據(jù)里。
“人工智能識別出的結(jié)果不是憑空而來,是大量訓(xùn)練的結(jié)果。如果要訓(xùn)練AI某一方面的能力,比如下棋,就需要收集、清洗、標(biāo)記大量數(shù)據(jù)供機(jī)器學(xué)習(xí)。如果用于訓(xùn)練的數(shù)據(jù)不夠多,就會造成AI學(xué)習(xí)的不充分,導(dǎo)致其識別結(jié)果的失誤?!敝锌圃鹤詣踊芯克芯繂T王金橋?qū)萍既請笥浾弑硎?。?shù)據(jù)本身的分布特性,如偏差甚至偏見,也會被機(jī)器“有樣學(xué)樣”。針對諾曼的表現(xiàn),創(chuàng)造它的實驗室也指出,“當(dāng)人們談?wù)撊斯ぶ悄芩惴ù嬖谄詈筒还綍r,罪魁禍?zhǔn)淄皇撬惴ū旧?,而是帶有偏差、偏見的?shù)據(jù)。因為當(dāng)前的深度學(xué)習(xí)方法依賴大量的訓(xùn)練樣本,網(wǎng)絡(luò)識別的特性是由樣本本身的特性所決定。盡管在訓(xùn)練模型時使用同樣的方法,但使用了錯誤或正確的數(shù)據(jù)集,就會在圖像中看到非常不一樣的東西”。
另外是算法本身的影響?!斑@可能是無法完全避免的,由深度學(xué)習(xí)算法本身的缺陷決定,它存在內(nèi)在對抗性?!蓖踅饦虮硎荆壳白盍餍械纳窠?jīng)網(wǎng)絡(luò)不同于人腦的生物計算,模型由數(shù)據(jù)驅(qū)動,和人類的認(rèn)知不具有一致性?;谏疃葘W(xué)習(xí)的框架,必須通過當(dāng)前訓(xùn)練數(shù)據(jù)擬合到目標(biāo)函數(shù)。在這個框架之下,如果機(jī)器要識別狗,它會通過狗的眼睛、鼻子、耳朵等局部特征進(jìn)行可視化識別,而這些可視化特征卻能給想利用深度學(xué)習(xí)漏洞的人機(jī)會,后者可以通過偽造數(shù)據(jù)來欺騙機(jī)器。
除了人訓(xùn)練機(jī)器的數(shù)據(jù)本身有偏差以外,機(jī)器通過對抗性神經(jīng)網(wǎng)絡(luò)合成的數(shù)據(jù)也可能有問題。由于機(jī)器不可能“見過”所有東西(比如識別桌子,機(jī)器不可能學(xué)習(xí)所有長短寬窄各異的桌子),人也不可能標(biāo)記所有數(shù)據(jù)。如果研究者輸入一個隨機(jī)的噪音,機(jī)器可以向任何方向?qū)W習(xí)。這是一把雙刃劍,機(jī)器也可能合成一些有問題的數(shù)據(jù),學(xué)習(xí)時間長了,機(jī)器就“跑偏”了。
數(shù)據(jù)的均衡或可減少“跑偏”
不少科學(xué)家以“garbage in, garbage out”來形容“數(shù)據(jù)和人工智能的關(guān)系”。中科視拓(北京)科技有限公司CEO劉昕說:“對機(jī)器學(xué)習(xí)而言,進(jìn)什么就出什么。監(jiān)督學(xué)習(xí)就是讓模型擬合標(biāo)簽,比如訓(xùn)練者把帥哥都標(biāo)記成‘渣男’,那么機(jī)器看到劉德華,就會認(rèn)為他是……”談到諾曼引發(fā)的討論,劉昕表示:“不需要擔(dān)心,人類本身就有各種歧視和偏見,用人類生產(chǎn)的數(shù)據(jù)訓(xùn)練AI,再批判AI不夠正直良善,這么說有點危言聳聽?!?/p>
偏見、刻板印象、歧視都是人類社會的痼疾,有些流于表面,有些深入社會肌理,無法輕易剝離。在這樣的語境中產(chǎn)生的數(shù)據(jù),攜帶著大量復(fù)雜、難以界定、泥沙俱下的觀點。如果研究者沒有意識到或著手處理這一問題,機(jī)器學(xué)習(xí)的偏見幾乎無解。真正的“公正算法”或許是不存在的。
據(jù)有關(guān)媒體報道,在谷歌研究自然語言處理的科學(xué)家 Daphne Luong 表示,正確地校準(zhǔn)標(biāo)簽對機(jī)器學(xué)習(xí)來說非常關(guān)鍵,有些數(shù)據(jù)集其實并不平衡,像維基百科上的數(shù)據(jù),“他”(He)出現(xiàn)的次數(shù)遠(yuǎn)比“她”(She)要多。
王金橋也著重強(qiáng)調(diào)了“數(shù)據(jù)的均衡”。就算對人來說,不同人秉持著不同的價值觀,但多聽多看多受教育可以讓人向良好的方向改進(jìn)。機(jī)器學(xué)習(xí)也是如此?!坝?xùn)練機(jī)器時,要注重數(shù)據(jù)的均衡,給它更多可靠的數(shù)據(jù)。研究團(tuán)隊成員具有多元的學(xué)術(shù)背景(如吸納更多社會學(xué)、心理學(xué)等領(lǐng)域?qū)W者加入)、性別、年齡、價值觀,也可以幫助機(jī)器學(xué)習(xí)更加均衡,減少機(jī)器出現(xiàn)偏見、謬誤甚至失控的可能?!蓖踅饦蛘f。
“機(jī)器學(xué)習(xí)的模型本身也要有一定的防攻擊能力,從技術(shù)上防止本身結(jié)構(gòu)設(shè)計的漏洞被攻擊,研究者可以使用各種數(shù)據(jù)攻擊機(jī)器,訓(xùn)練機(jī)器的反攻擊能力?!蓖踅饦蛘f。
作惡還是向善,是人類的選擇
1942年,阿西莫夫在短篇小說《環(huán)舞》中首次提出著名的機(jī)器人三定律:機(jī)器人不得傷害人類,或因不作為使人類受到傷害;除非違背第一定律,機(jī)器人必須服從人類的命令;除非違背第一及第二定律,機(jī)器人必須保護(hù)自己。半個多世紀(jì)過去,人工智能在大數(shù)據(jù)的加持下迎來爆發(fā)式發(fā)展。某些專用型人工智能把人類智能甩在身后,人們開始擔(dān)憂,機(jī)器傷害人類的那一天是不是不遠(yuǎn)了。
因此有一種看法很主流——人類訓(xùn)練有意識、有自我覺知的人工智能是不明智的。開個腦洞,機(jī)器一旦發(fā)展出自我意識,要反向攻擊人類,場面或許失控。
前段時間,據(jù)路透社報道,韓國科學(xué)技術(shù)院的人工智能研發(fā)中心正在研發(fā)適用于作戰(zhàn)指揮、目標(biāo)追蹤和無人水下交通等領(lǐng)域的人工智能技術(shù),希望在今年年底前研發(fā)出基于人工智能的導(dǎo)彈、潛艇和四軸飛行器。此事引發(fā)學(xué)術(shù)界的巨大震動,抗議紛至沓來,并最終以院長保證無意于“殺手機(jī)器人”的研發(fā)并重申人類尊嚴(yán)和倫理收場。在美國,以“不作惡”為綱的谷歌也因與國防部的合作協(xié)議涉及“Maven項目”被推上風(fēng)口浪尖,反對者普遍認(rèn)為,識別結(jié)果完全有可能被用于軍事用途,比如說精準(zhǔn)打擊。谷歌最終表示終結(jié)協(xié)議。
相較于輿論環(huán)境的憂心忡忡,研究者對“技術(shù)向善”普遍樂觀。他們認(rèn)為把AI和“殺人機(jī)器”聯(lián)系在一起,近乎“捧殺”,夸大AI能力之余,也引發(fā)不明真相的公眾恐慌,無益于人工智能的發(fā)展環(huán)境。
“很多人提到AI總是一驚一乍,把AI說成超人。我相信人工智能是能解決問題的,但大家的期待也要在合理范圍內(nèi)。人和機(jī)器各有優(yōu)勢,技術(shù)會服務(wù)于特定場景,但也不需要把AI捧上天?!苯邮芸萍既請笥浾卟稍L時,思必馳北京研發(fā)院院長初敏博士忍不住“抱怨”了一下??磥怼拔覀冃枰鯓拥腁I”這一題,大家都還沒有答案。
-
大數(shù)據(jù)"坑熟客",技術(shù)之罪需規(guī)則規(guī)避
2018-03-02 08:58:39
-
高質(zhì)量發(fā)展,怎么消除“游離感”?
2018-03-02 08:58:39
-
學(xué)校只剩一名學(xué)生,她卻堅守了18年
2018-03-01 14:40:53
-
有重大變動!騎共享單車的一定要注意了
2018-03-01 14:40:53
-
2018年,樓市會有哪些新變化?
2018-03-01 09:01:20