一直以來(lái),通過(guò)研究表明,人類(lèi)研發(fā)的機(jī)器也能學(xué)習(xí)到人類(lèi)看待這個(gè)世界的視角,無(wú)論其是否有意。對(duì)于閱讀文本的人工智能來(lái)說(shuō),它可能會(huì)將“醫(yī)生”一詞與男性?xún)?yōu)先關(guān)聯(lián),而非女性,或者圖像識(shí)別算法也會(huì)更大概率的將黑人錯(cuò)誤分類(lèi)為大猩猩。
2015年,Google Photos應(yīng)用誤把兩名黑人標(biāo)注為“大猩猩”,當(dāng)時(shí)這一錯(cuò)誤意味著谷歌的機(jī)器學(xué)習(xí)還處于“路漫漫其修遠(yuǎn)兮”的狀態(tài)。隨后,谷歌立即對(duì)此道歉,并表示將調(diào)整算法,以修復(fù)該問(wèn)題。近日,作為該項(xiàng)錯(cuò)誤的責(zé)任方,谷歌正在試圖讓大眾了解AI是如何在不經(jīng)意間永久學(xué)習(xí)到創(chuàng)造它們的人所持有的偏見(jiàn)。一方面,這是谷歌對(duì)外PR(公共關(guān)系)的好方式,其次,AI程序員也可以用一種簡(jiǎn)單的方法來(lái)概述自己的偏見(jiàn)算法。
在該視頻中,谷歌概述了三種偏見(jiàn):
互動(dòng)偏差 :用戶可以通過(guò)我們和其交互的方式來(lái)偏移算法。例如,谷歌把一些參與者召集其起來(lái),并讓他們每人畫(huà)一只鞋,但多半用戶會(huì)選擇畫(huà)一只男鞋,所以以這些數(shù)據(jù)為基礎(chǔ)的系統(tǒng)可能并不會(huì)知道高跟鞋也是鞋子。
潛在偏差 :該算法會(huì)將想法和性別、種族、收入等不正確地進(jìn)行關(guān)聯(lián)。例如,當(dāng)用戶在Google Search搜索“醫(yī)生”時(shí),出現(xiàn)的大多為白人男性。

此前 Quarts 發(fā)布了一則相關(guān)新聞,該報(bào)道稱(chēng),經(jīng)普林斯頓大學(xué)最新研究成果表明,這些偏見(jiàn),如將醫(yī)生與男性相關(guān)聯(lián),而將護(hù)士與女性關(guān)聯(lián),都來(lái)自算法被教授的語(yǔ)言的影響。正如一些數(shù)據(jù)科學(xué)家所說(shuō):沒(méi)有好的數(shù)據(jù),算法也做不出好的決策。
選擇偏差 :據(jù)了解,用于訓(xùn)練算法的數(shù)據(jù)量已經(jīng)大大超過(guò)全球人口的數(shù)量,以便對(duì)算法實(shí)行更好的操作和理解。所以如果訓(xùn)練圖像識(shí)別的數(shù)據(jù)僅針對(duì)白人而進(jìn)行,那么得到的數(shù)據(jù)也只能來(lái)自AI的認(rèn)定。

去年6月, “青年實(shí)驗(yàn)室”(英偉達(dá)、微軟等科技巨擘均是該實(shí)驗(yàn)室的合作伙伴和支持者)舉辦了一次Beauty.ai的網(wǎng)絡(luò)選美大賽。該比賽通過(guò)人工智能分析,征集了60萬(wàn)條記錄。該算法參考了皺紋、臉部比例、皮膚疙瘩和瑕疵的數(shù)量、種族和預(yù)測(cè)的年齡等等因素。最后結(jié)果表明,種族這一因素比預(yù)期發(fā)揮了更大的作用:在44名獲獎(jiǎng)?wù)弋?dāng)中,其中有36人為白人。









