亚洲天堂2020_丁香婷婷激情_久久久久久精品免费免费高清秒播_7777视频免费观看高清在线_亚洲一区二区日韩欧美gif

南通第二機(jī)床有限公司

中國(guó)平面磨床四大生產(chǎn)基地,專(zhuān)業(yè)生產(chǎn)立軸磨床、臥軸磨床、龍門(mén)數(shù)控磨床

0513-87119922
新聞動(dòng)態(tài)

有偏見(jiàn)和錯(cuò)誤?碼頭中的面部識(shí)別技術(shù)

發(fā)布時(shí)間:2019/7/6
  世界各地的警察和安全部隊(duì)正在測(cè)試自動(dòng)面部識(shí)別系統(tǒng),以此來(lái)識(shí)別犯罪分子和恐怖分子。但是技術(shù)的精確程度以及技術(shù)和人工智能(AI)的動(dòng)力是多么容易成為壓迫的工具?
  想象一下,一個(gè)可疑的恐怖分子在一個(gè)人口稠密的市中心開(kāi)始自殺任務(wù)。如果他引爆炸彈,數(shù)百人可能會(huì)死亡或受到嚴(yán)重傷害。
  人群中的CCTV掃描面孔撿起他并自動(dòng)將他的特征與已知恐怖分子數(shù)據(jù)庫(kù)或安全服務(wù)“感興趣的人”的數(shù)據(jù)庫(kù)上的照片進(jìn)行比較。
  該系統(tǒng)發(fā)出警報(bào),并迅速部署反恐部隊(duì)前往現(xiàn)場(chǎng),在他觸發(fā)爆炸物之前,他們“中和”嫌犯。拯救了數(shù)百人的生命。技術(shù)節(jié)省了一天。
  但是如果面部識(shí)別(FR)技術(shù)錯(cuò)了呢?這不是一個(gè)恐怖分子,只是一個(gè)不幸的人看起來(lái)很像。一個(gè)無(wú)辜的生活本來(lái)會(huì)被扼殺,因?yàn)槲覀儗?duì)一個(gè)錯(cuò)誤的系統(tǒng)過(guò)于信任。
  如果那個(gè)無(wú)辜的人是你呢?
  這只是FR提出的道德困境之一,也是支撐它的人工智能。
  訓(xùn)練機(jī)器“看” - 識(shí)別和區(qū)分物體和面部 - 是眾所周知的困難。計(jì)算機(jī)視覺(jué),有時(shí)被稱(chēng)為 - 不久之前,很難說(shuō)松餅和奇瓦瓦之間的區(qū)別 - 這項(xiàng)技術(shù)的試金石。
  谷歌倫理人工智能團(tuán)隊(duì)的計(jì)算機(jī)科學(xué)家兼技術(shù)聯(lián)合負(fù)責(zé)人蒂姆尼特·格布魯(Timnit Gebru)表示,面部識(shí)別更難以區(qū)分男女膚色。皮膚黝黑的女人更容易被誤認(rèn)為男人。
  “大約有1.3億美國(guó)成年人已經(jīng)進(jìn)入人臉識(shí)別數(shù)據(jù)庫(kù),”她在5月日內(nèi)瓦舉行的人工智能高峰會(huì)上表示?!暗窃紨?shù)據(jù)集主要是白人和男性,因此偏向于較深的皮膚類(lèi)型 - 皮膚類(lèi)型和性別存在巨大的錯(cuò)誤率?!?br />   加利福尼亞州的舊金山市最近禁止運(yùn)輸和執(zhí)法機(jī)構(gòu)使用FR來(lái)承認(rèn)其不完善和對(duì)公民自由的威脅。但美國(guó)和世界其他國(guó)家的其他城市正在試用這項(xiàng)技術(shù)。
  例如,在英國(guó)倫敦南威爾士的警察部隊(duì)。曼徹斯特和萊斯特一直在測(cè)試這項(xiàng)技術(shù)讓自己和大哥觀察等公民自由組織感到震驚,兩者都關(guān)注系統(tǒng)制造的錯(cuò)誤匹配數(shù)量。
  這意味著無(wú)辜的人被錯(cuò)誤地認(rèn)定為潛在的罪犯。
  “每個(gè)人都應(yīng)該擔(dān)心偏見(jiàn),”格布布女士說(shuō)?!邦A(yù)測(cè)性警務(wù)是一個(gè)高風(fēng)險(xiǎn)的場(chǎng)景。”
  美國(guó)黑人占美國(guó)監(jiān)獄人口的37.5%(來(lái)源:聯(lián)邦監(jiān)獄局),盡管他們只占美國(guó)人口的13% - 用這些數(shù)據(jù)集提供的寫(xiě)得不好的算法可能預(yù)測(cè)黑人更有可能作案。
  找出這可能對(duì)警務(wù)和社會(huì)政策產(chǎn)生什么影響并不需要天才。
  媒體標(biāo)題一名男子在反對(duì)拍攝后被罰款90英鎊
  就在本周,埃塞克斯大學(xué)的學(xué)者們得出結(jié)論認(rèn)為,倫敦大都會(huì)警察審判中的比賽在80%的時(shí)間內(nèi)是錯(cuò)誤的,可能導(dǎo)致嚴(yán)重的司法不公和侵犯公民隱私權(quán)。
  一名英國(guó)男子埃德·布里奇斯(Ed Bridges)在購(gòu)物時(shí)拍攝照片后,對(duì)南威爾士警方使用該技術(shù)提出了法律質(zhì)疑,英國(guó)信息專(zhuān)員伊麗莎白·德納姆(Elizabeth Denham)對(duì)缺乏法律框架管理表示擔(dān)憂(yōu)使用FR。
  但這種擔(dān)憂(yōu)并沒(méi)有阻止科技巨頭亞馬遜將其Rekognition FR工具出售給美國(guó)的警察部隊(duì),盡管股東的半心半意叛亂一無(wú)所獲。
  亞馬遜表示,它對(duì)客戶(hù)如何使用其技術(shù)不承擔(dān)任何責(zé)任。但是將這種態(tài)度與客戶(hù)關(guān)系管理技術(shù)公司  Salesforce的態(tài)度相比較,后者開(kāi)發(fā)了自己的圖像識(shí)別工具,稱(chēng)為愛(ài)因斯坦視覺(jué)。
  “面部識(shí)別技術(shù)可能適合在監(jiān)獄中跟蹤囚犯或防止幫派暴力,”Salesforce的道德AI實(shí)踐架構(gòu)師Kathy Baxter告訴BBC。“但是當(dāng)警察想要在逮捕人員時(shí)使用它們的身體照相機(jī)時(shí),我們認(rèn)為這是不恰當(dāng)?shù)摹?br />   “我們需要問(wèn)一下,在某些情況下我們是否應(yīng)該使用人工智能,面部識(shí)別就是一個(gè)例子?!?br />   現(xiàn)在FR也被軍方使用,技術(shù)供應(yīng)商聲稱(chēng)他們的軟件不僅可以識(shí)別潛在的敵人,還可以識(shí)別可疑行為。
  但紅十字國(guó)際委員會(huì)(紅十字委員會(huì))總干事伊夫·達(dá)科德對(duì)這些事態(tài)發(fā)展表示嚴(yán)重關(guān)切。
  “現(xiàn)在戰(zhàn)爭(zhēng)是高科技 - 我們擁有自主無(wú)人機(jī),自主武器,在戰(zhàn)斗人員和非戰(zhàn)斗人員之間作出決定。他們的決定是否正確?他們可能會(huì)產(chǎn)生大規(guī)模殺傷力,”他警告說(shuō)。
  因此,似乎越來(lái)越多的全球共識(shí)認(rèn)為人工智能遠(yuǎn)非完美,需要調(diào)節(jié)。
  “將AI留給私營(yíng)部門(mén)并不是一個(gè)好主意,因?yàn)槿斯ぶ悄芸梢援a(chǎn)生巨大影響,”國(guó)際電信聯(lián)盟電信標(biāo)準(zhǔn)化局局長(zhǎng)Chaesub Lee博士總結(jié)道。
  “使用好的數(shù)據(jù)至關(guān)重要,但是誰(shuí)確保數(shù)據(jù)是好的?誰(shuí)能確保算法沒(méi)有偏見(jiàn)?我們需要多利益相關(guān)方,多學(xué)科的方法?!?br />   在那之前,F(xiàn)R技術(shù)仍然受到懷疑和審查。捷豹路虎宣布推出電動(dòng)汽車(chē)投資