當(dāng)前位置:首頁 > 科普 > 列表 > 正文

審視人臉識(shí)別:一種AI技術(shù)的全球性濫用
2020-12-07

  作者 Admin

  2020 年的NeurIPS和往屆有所不同。除了在線上舉辦,不同還在于組委會(huì)提出了一個(gè)新的投稿要求:作者需要在投稿論文中單獨(dú)擬一個(gè) “影響陳述” 章節(jié)。

  該章節(jié)必須討論文中工作將帶來的更廣泛影響,包括可能帶來的正面或負(fù)面的社會(huì)影響?!霸u(píng)審員和地區(qū)主席的評(píng)估將僅基于技術(shù)貢獻(xiàn)進(jìn)行。但是,如果將某篇論文標(biāo)記包含潛在的道德問題,則該論文將被發(fā)送給另一組以道德評(píng)估和機(jī)器學(xué)習(xí)為專長的審閱者。這些論文的最終接受還取決于第二批審稿人的正面評(píng)價(jià)?!盢eurIPS 2020通訊主席Michael Littman如此表示。

  這也是AI頂會(huì)首次采用這種評(píng)估作法。但NeurIPS不是唯一一個(gè)有此要求的場合。

  同樣在今年,Nature Machine Intelligence雜志也提出:機(jī)器學(xué)習(xí)論文作者在文中加入對(duì)研究更廣泛的社會(huì)影響和道德承諾的聲明。

  甚至有人在審視自己的AI研究之后已經(jīng)無法承受某種道德瑕疵。

  今年早些時(shí)候,YOLO系列 (v1-v3) 作者 Joe Redmon 宣布,因?yàn)闊o法忽視自己工作帶來的負(fù)面影響,他決定退出計(jì)算機(jī)視覺領(lǐng)域,不再進(jìn)行該方向的研究。此前,Redmon 曾與 Ali Farhadi 共同創(chuàng)建了 YOLO 實(shí)時(shí)物體檢測系統(tǒng),后者的公司 Xnor 最近被蘋果收購。

  這些信息并不是獨(dú)立的故事線。最近,Nature 官網(wǎng)連續(xù)刊登3篇文章,集中反映了以人臉識(shí)別為代表的 AI 技術(shù)濫用及其效應(yīng)。這三篇文章分別是《Is facial recognition too biased to be let loose?》、《The ethical questions that haunt facial-recognition research》和《Resisting the rise of facial recognition》。

  顯然,一場比以往更大范圍的對(duì)AI技術(shù)合理使用(尤其是人臉識(shí)別)的批判正在展開。

  人臉識(shí)別問世所走過的60年

  人臉識(shí)別技術(shù)的起源可以追溯到1960年代。

  當(dāng)時(shí),一位名叫 Woodrow Wilson Bledsoe 的計(jì)算機(jī)科學(xué)家首次使用電磁脈沖對(duì)人臉進(jìn)行了測量,進(jìn)而得以把人臉數(shù)據(jù)輸入到測量系統(tǒng)中,將一張新的未知面孔與先前輸入的照片的數(shù)據(jù)點(diǎn)進(jìn)行比較。以我們今天的技術(shù)標(biāo)準(zhǔn)來看,那個(gè)系統(tǒng)的運(yùn)行速度自然是非常慢,但事實(shí)證明,這一想法是很有價(jià)值的。很長一段時(shí)間內(nèi),由于 Bledsoe 的研究有情報(bào)機(jī)構(gòu)的贊助,使得其對(duì)于人臉識(shí)別技術(shù)基本緘口不言,直到 2000 年以后 CIA 逐漸解密,Bledsoe 才被公認(rèn)是最早研究人臉識(shí)別技術(shù)的科學(xué)家。

  Bledsoe 的發(fā)明之后,技術(shù)的改進(jìn)集中在如何增加人臉測量點(diǎn)上。1970 年代,Goldstein、Harmon 和 Lesk 三人建立了 21 個(gè)人臉測量點(diǎn);1980 年代,研究人員使用線性代數(shù)使用了大約 100 個(gè)人臉測量點(diǎn),人臉圖像的低維表示進(jìn)一步鋪平道路。

  1990 年代,第一個(gè)基于圖像的粗略自動(dòng)人臉檢測誕生,人臉識(shí)別也從強(qiáng)調(diào)人臉特征識(shí)別逐漸走向了人機(jī)交互。期間不但誕生了若干代表性的人臉識(shí)別算法,美國國防高級(jí)研究計(jì)劃局(DARPA)和美國國家標(biāo)準(zhǔn)技術(shù)研究院(NIST)更是推出了著名的人臉識(shí)別技術(shù)(FERET)項(xiàng)目,研發(fā)最先進(jìn)的人臉識(shí)別算法和數(shù)據(jù)庫。主要目的便是用于安全監(jiān)控。這也為人臉識(shí)別引發(fā)全球轟動(dòng)的時(shí)間線埋下伏筆,例如 2011 年時(shí)的本拉登事件:基地組織負(fù)責(zé)人 Osama bin Laden 在美國突襲中被殺后,最終由軍方的人臉識(shí)別算法成功辨認(rèn)。

  21 世紀(jì)的第二個(gè) 10 年,基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的當(dāng)代人臉識(shí)別技術(shù)勢如破竹。

  與仍需要人工操作的人機(jī)交互階段相比,人臉識(shí)別的自動(dòng)化程度和精確度都更高。在這個(gè)新的歷史時(shí)期,企業(yè)開始大量投入其中,從而進(jìn)一步推動(dòng)人臉識(shí)別走向商用市場:云端——2010 年起,F(xiàn)acebook 招募了圖像身份自動(dòng)標(biāo)記人員,從那時(shí)開始,F(xiàn)B 平臺(tái)上每天有超過一百萬張照片被上傳和標(biāo)注;終端——諸如 Windows Hello 和 Android 的 Trusted Face,將人臉識(shí)別作為一種安全功能集成到了個(gè)人設(shè)備中,然后在 2017 年推出了 iPhone X 和 Face ID。到了 2017 年,iPhone X 成為全球最暢銷的帶有人臉識(shí)別功能的手機(jī)。

  當(dāng)人臉識(shí)別大規(guī)模鋪開使用摁下了加速鍵之后,越來越多人意識(shí)到,人臉識(shí)別的方向和速度產(chǎn)生了偏差。

  抵制人臉識(shí)別的關(guān)鍵詞之一:

  偏見

  根據(jù)任務(wù),現(xiàn)代人臉識(shí)別系統(tǒng)可以簡單劃分為兩類:將人臉與大型數(shù)據(jù)庫進(jìn)行匹配的一對(duì)多識(shí)別系統(tǒng)以及更簡單的一對(duì)一驗(yàn)證系統(tǒng)。相較前者,一對(duì)一驗(yàn)證只涉及確認(rèn)一個(gè)人與自己的照片相匹配,主要應(yīng)用于解鎖智能手機(jī)、護(hù)照檢查之類的場景。

  一個(gè)典型的人臉識(shí)別系統(tǒng),第一階段會(huì)在圖像中定位一個(gè)或多個(gè)人臉角度。例如,在各種照明條件下和從不同角度觀看監(jiān)視攝像機(jī)饋送中的人臉,下一個(gè)任務(wù)是 “標(biāo)準(zhǔn)化” 人臉,將被拍攝對(duì)象旋轉(zhuǎn)為正面,保證照明良好的視圖。這產(chǎn)生了一組人臉 “特征”,可以與從現(xiàn)有人臉數(shù)據(jù)庫中提取的人臉 “特征” 進(jìn)行比較。通常包括在受控條件下拍攝的照片,例如警方使用的照片。由于要素表示形式是結(jié)構(gòu)化的文件,計(jì)算機(jī)可以快速掃描數(shù)百萬個(gè)文件以找到最接近的匹配項(xiàng)。

  無論是哪一類任務(wù),自大約 10 年前將 “深度學(xué)習(xí)” 技術(shù)引入該領(lǐng)域以來,識(shí)別的準(zhǔn)確性得到了極大提高。但是,這是否意味著人臉識(shí)別足夠用于現(xiàn)實(shí)世界?

  在人臉識(shí)別領(lǐng)域,有一個(gè)已經(jīng)進(jìn)行了 20 余年重要的基準(zhǔn)測試。那就是由美國國家標(biāo)準(zhǔn)技術(shù)研究院(NIST)主導(dǎo)的國際權(quán)威人臉識(shí)別供應(yīng)商測試 FRVT (Face Recognition Vendor Test)。

  NIST 擁有規(guī)模達(dá)到百萬量級(jí)的人臉數(shù)據(jù),且均來自真實(shí)業(yè)務(wù)場景。NIST 會(huì)根據(jù)自己的圖像數(shù)據(jù)集來衡量學(xué)術(shù)機(jī)構(gòu)或者企業(yè)提交的人臉識(shí)別系統(tǒng)性能。由于測試數(shù)據(jù)不公開 (盲測),參賽的算法團(tuán)隊(duì)無法利用測試數(shù)據(jù)做模型訓(xùn)練,相對(duì)于 LFW、MegaFace 而言,F(xiàn)RVT 則更能體現(xiàn)測試的公正性。

  2019 年下半年,NIST 發(fā)布了一份報(bào)告,描述了人臉識(shí)別在 2018 年期間的巨大進(jìn)步,包括一對(duì)多搜索和一對(duì)一驗(yàn)證兩大任務(wù)。NIST 圖像小組負(fù)責(zé)人的電氣工程師 Craig Watson 表示:“我們發(fā)現(xiàn)人臉識(shí)別的準(zhǔn)確性有了顯著提高,這很大程度上是得益于卷積神經(jīng)網(wǎng)絡(luò)的出現(xiàn)?!?/p>

  NIST 發(fā)現(xiàn),算法現(xiàn)在可以從戶外拍攝的個(gè)人資料圖像中識(shí)別出人,并與數(shù)據(jù)庫中的正面視圖相匹配,其準(zhǔn)確度已經(jīng)和十年前最好的人臉識(shí)別軟件識(shí)別正面圖像相同。NIST 研究人員寫道,“這在人臉識(shí)別的長期研究中是一個(gè)里程碑”。

  但是 NIST 也證實(shí)了 2018 年一項(xiàng)捅破了 “紙窗戶” 的研究。

  2018 年,計(jì)算機(jī)科學(xué)家 Timnit Gebru(美國人工智能領(lǐng)域僅有的幾位黑人女性計(jì)算機(jī)科學(xué)家之一。)發(fā)表的研究結(jié)果,首次揭示了商業(yè)人臉識(shí)別系統(tǒng)的缺陷:人臉識(shí)別針對(duì)黑人、女性的錯(cuò)誤率高達(dá) 21%~35%,而針對(duì)白人、男性的錯(cuò)誤率則低于 1%。黑人女性有 20%~30% 的概率被識(shí)別錯(cuò)誤,產(chǎn)生誤會(huì)。也就是說,如果是在警用安保等場景下,后果可能會(huì)非常嚴(yán)重。

  NIST 的數(shù)據(jù)庫顯示,被歸類為非裔美國人或亞洲人的面孔,比被歸類為白人的面孔被算法誤認(rèn)的可能性高 10-100 倍。與男性相比,女性被誤判的概率會(huì)更高。

  NIST 科學(xué)家 Watson 說,這種不準(zhǔn)確性很可能反映了每家公司訓(xùn)練數(shù)據(jù)庫的組成不平衡。數(shù)據(jù)科學(xué)家通常將這種不平衡描述為 “垃圾進(jìn),垃圾出”。

  因此,大量要求暫?;蚪谷四樧R(shí)別軟件的呼吁,都會(huì)頻繁經(jīng)常提到對(duì)人口統(tǒng)計(jì)學(xué)偏見的擔(dān)憂。

  甚至在今年 6 月,全球最大的計(jì)算機(jī)科學(xué)學(xué)術(shù)共同體 ACM 也發(fā)表聲明,敦促私人和政府停止使用人臉識(shí)別技術(shù),因?yàn)?“基于種族,種族,性別和其他人類的明顯偏見特征”,將損害特定人口群體的個(gè)人權(quán)利。

  抵制人臉識(shí)別的關(guān)鍵詞之二:

  隱私

  除了放大人類現(xiàn)有社會(huì)系統(tǒng)的偏見,對(duì)侵犯個(gè)人隱私的擔(dān)憂,形成另一股強(qiáng)大的反對(duì)聲浪,矛頭直指大型科技公司。

  眾所周知,一個(gè)人臉識(shí)別系統(tǒng)要發(fā)揮作用,還需要通過大型圖像數(shù)據(jù)集進(jìn)行訓(xùn)練和測試。理想情況下,需要在不同的光照條件下和不同的角度多次捕獲人臉圖像。沒有大量數(shù)據(jù)的情況下訓(xùn)練人臉識(shí)別算法的普適方法,仍未出現(xiàn)。

  那么,這些數(shù)據(jù)從哪來?

  1990 年代和 2000 年代,科學(xué)家們收集研究所需的數(shù)據(jù)一般會(huì)通過招募志愿者的方式。但現(xiàn)在,這個(gè)光榮傳統(tǒng)幾乎退出歷史主舞臺(tái)了,大多數(shù)機(jī)構(gòu)未經(jīng)許可就進(jìn)行人臉數(shù)據(jù)采集。

  2015 年,斯坦福大學(xué)的科學(xué)家基于舊金山一家咖啡館的網(wǎng)絡(luò)攝像頭,發(fā)布了一組 12000 張圖像集。第二年,杜克大學(xué)的研究人員發(fā)布了超過 200 萬個(gè)視頻幀(85 分鐘),記錄了在大學(xué)校園中行走的學(xué)生的鏡頭。

  2016 年,雷德蒙德微軟研究院發(fā)布了世界上最大的公眾人物數(shù)據(jù)集 MS Celeb ,包含從互聯(lián)網(wǎng)上搜刮的近 100000 個(gè)人的 1000 萬張圖像,其中包括記者、音樂家和學(xué)者。

  微軟是通過知識(shí)共享許可協(xié)議(Creative Commons license)抓取和收錄這些照片的。按照知識(shí)共享許可協(xié)議,照片的版權(quán)所有者許可后,微軟可以將照片用于學(xué)術(shù)研究。微軟自己也聲稱,MS Celeb 的發(fā)布旨在促進(jìn)學(xué)術(shù)研究,鼓勵(lì)研究人員開發(fā)最好的人臉識(shí)別技術(shù)。

  版權(quán)所有者許可,并不等同于照片中的被拍攝者許可。人臉照片屬于生物識(shí)別數(shù)據(jù),按照歐盟 GDPR 的規(guī)定,處理此類數(shù)據(jù)須征得當(dāng)事人的明確同意。不僅如此,MS Celeb 發(fā)布之后,有研究人員發(fā)現(xiàn),其所收錄的已不僅僅是名人照片,還有一些普通人的照片?!督鹑跁r(shí)報(bào)》曝光稱,信息安全記者 Kim Zetter、技術(shù)作家 Adam Greenfield、負(fù)責(zé)消費(fèi)者隱私保護(hù)事務(wù)的原美國聯(lián)邦貿(mào)易委員會(huì)專員 Julie Brill 等人都在其中。

  這些人完全沒有意識(shí)到自己的人臉照片被收錄到了這些數(shù)據(jù)集中。這就像是,你永遠(yuǎn)都不知道,你在何時(shí)何地,在經(jīng)過哪一個(gè)攝像頭的時(shí)候,成為了某個(gè)訓(xùn)練數(shù)據(jù)集一部分。

  “我并不是公眾人物,沒有任何道理放棄自己的隱私權(quán)。”Adam Greenfield 聲討道。

  微軟回應(yīng),MS Celeb 僅被用于學(xué)術(shù)用途。但公開資料顯示,多家公司使用過 MS Celeb 進(jìn)行算法訓(xùn)練,如英偉達(dá)、IBM、松下、日立等。在那次風(fēng)波中,微軟表示已經(jīng)刪除 MS Celeb,但 Adam Harvey 指出,這些數(shù)據(jù)并不會(huì)完全消失。他說,一旦數(shù)據(jù)被發(fā)布、被下載,它就存在于全世界的硬盤上,微軟根本無法阻止人們根據(jù)自己的目的發(fā)布和使用數(shù)據(jù)。

  現(xiàn)在,美國的一些州已經(jīng)確定,商業(yè)公司未經(jīng)其同意使用人臉這樣的個(gè)人生物識(shí)別數(shù)據(jù)是非法的。伊利諾伊州還允許個(gè)人對(duì)此提起訴訟。

  例如 Fcebook 就已同意支付 6.5 億美元,以解決伊利諾伊州集體訴訟案,該訴訟案涉及一系列被用于人臉識(shí)別的非公開照片??偛课挥诩~約 Clearview AI(傳該公司的人臉系統(tǒng)已經(jīng)抓取到 30 億張?jiān)诰€照片,并為警方和富豪提供定制服務(wù)),也正在面臨人臉數(shù)據(jù)違規(guī)采集和使用的集體訴訟。

  “我不擔(dān)心政府,我擔(dān)心谷歌和臉書”。北卡羅萊納州威爾明頓大學(xué)的教授 Karl Ricanek 曾如此說道。

  “我認(rèn)為,他們比政府擁有更多的公民信息,而且我們無法動(dòng)搖這些公司的領(lǐng)導(dǎo)地位。我認(rèn)為我們的政府至少還有著良好的使命。從學(xué)術(shù)角度來看,我們正在努力解決一些問題以讓世界變得更好,而不是大多數(shù)人想著賺錢?!?/p>

  這些存在感愈發(fā)強(qiáng)烈的聲音,也促使著該領(lǐng)域的一部分研究者重新反思。

  開始分化的學(xué)界

  今年,針對(duì)人臉識(shí)別研究存在的棘手倫理問題,Nature 對(duì)全球 480 位從事人臉識(shí)別 / 計(jì)算機(jī)視覺 / 人工智能工作的研究人員進(jìn)行了一次問卷調(diào)查。

  這也是 Nature 首次進(jìn)行這類性質(zhì)的調(diào)查。結(jié)果顯示,該領(lǐng)域的學(xué)者已經(jīng)出現(xiàn)觀念分化:一些科學(xué)家十分關(guān)注該領(lǐng)域的工作道德規(guī)范,但另一些科學(xué)家仍然認(rèn)為學(xué)術(shù)研究沒有問題。在某些問題上,受訪者表現(xiàn)出明顯的偏好。

  當(dāng)被問及對(duì)將人臉識(shí)別用于預(yù)測個(gè)人特質(zhì)(例如性別、性別認(rèn)同、年齡或種族)研究時(shí),約三分之二的人表示,此類研究應(yīng)在數(shù)據(jù)被收集者同意的情況下進(jìn)行,或與可能受影響的群體的代表進(jìn)行充分溝通。

  但是在這以外的問題上,分歧明顯出現(xiàn)。大約 40%的受調(diào)查學(xué)者認(rèn)為,在收集人臉數(shù)據(jù)之前,研究人員應(yīng)征得個(gè)人的知情同意,而超過一半的人認(rèn)為這并不必需。

  瑞士馬蒂尼 Idiap 研究所生物識(shí)別小組負(fù)責(zé)人 Sébastien Marcel 認(rèn)為,研究人員應(yīng)獲得知情同意,但實(shí)際上卻很難保證。他所在的小組不會(huì)在網(wǎng)絡(luò)上抓取人臉圖像,但是會(huì)使用其他人已發(fā)布的在線圖像數(shù)據(jù)集?!霸S多研究人員會(huì)回避這件事:他們認(rèn)為這不是他們的問題”,他說。

  Springer Nature 期刊政策總監(jiān) Ed Gerstner 說,出版商正在考慮采取何種措施來阻止研究使用不經(jīng)被采集者明確授權(quán)的數(shù)據(jù)集。

  Nature 調(diào)查還詢問該領(lǐng)域的研究者,即使獲得知情同意,對(duì)敏感人群(如受到嚴(yán)密監(jiān)視的難民或少數(shù)群體)的人臉識(shí)別研究是否仍然存在倫理問題??傮w而言,71%的人表示同意。

  一些持相反觀點(diǎn)的研究者,則試圖在學(xué)術(shù)研究和人臉識(shí)別的使用方法之間做出區(qū)分。他們強(qiáng)調(diào),重點(diǎn)應(yīng)該放在譴責(zé)和限制人臉識(shí)別的不道德應(yīng)用上,而不是限制研究。

  倫理學(xué)家自然認(rèn)為這種區(qū)分是幼稚的。“這是一種 ‘ 我只是個(gè)工程師 ’ 的心態(tài),但現(xiàn)實(shí)已經(jīng)遠(yuǎn)遠(yuǎn)超越了這個(gè)界限?!?康奈爾大學(xué)的社會(huì)學(xué)家 Karen Levy 評(píng)價(jià)道。

  那么,AI 學(xué)界應(yīng)該對(duì)有道德問題的研究采取什么措施?

  最受歡迎的答案是,在同行評(píng)審的過程中,應(yīng)該明確詢問該研究是否合乎倫理,例如該研究是否事先獲得倫理學(xué)機(jī)構(gòu)的批準(zhǔn)(例如 IRB,Institutional Review Board,F(xiàn)DA 等監(jiān)管機(jī)構(gòu)對(duì)生命科學(xué)實(shí)驗(yàn)的管理采用了這種機(jī)制)。幾乎一半的受訪者認(rèn)為應(yīng)該這樣做,另有四分之一的人認(rèn)為這取決于具體的研究。

  顯然,本文開頭所提到的 NeurIPS 和 Nature Machine Intelligence 組織方,屬于前者。

  Karen Levy 希望人臉識(shí)別的學(xué)者能早日意識(shí)到他們所從事的工作的含義?!斑@像是科學(xué)界真正覺醒的時(shí)代。人們更加敏銳地意識(shí)到,他們所研究的技術(shù)可能會(huì)被不當(dāng)使用”,她說。

  Refrence:

  [1]https://www.nature.com/articles/d41586-020-03186-4?WT.ec_id=NATURE-20201119&utm_source=nature_etoc&utm_medium=email&utm_campaign=20201119&sap-outbound-id=019328369D84347F1430B510799D96391BEF27DF

  [2]https://www.nature.com/articles/d41586-020-03188-2

  [3]https://www.nature.com/articles/d41586-020-03187-3#ref-CR2

  [4]https://www.ft.com/content/cf19b956-60a2-11e9-b285-3acd5d43599e

開通會(huì)員,享受整站包年服務(wù)立即開通 >