国产日韩欧美在线观看|6—12呦国产精品|伊人一区二区三区久久精品|在线日韩欧美av|欧美福利看片|制服丝袜一区二区三区|www.久久麻豆|泳衣比基尼图片|麻豆传媒夏晴子|被姐姐调教,中文字幕人妻三区,亚洲精品久久久蜜桃直播 ,日韩AV手机免费观看,久久人妻内射无码一区三区,久久色伊人,午夜影院免费体验区

首頁(yè)>要聞 要聞

解碼人臉識(shí)別技術(shù):“刷臉”會(huì)不會(huì)刷走安全

2018年08月16日 09:56 | 來(lái)源:人民日?qǐng)?bào)
分享到: 

隨著數(shù)據(jù)的積累,、計(jì)算機(jī)算力的躍升和算法的優(yōu)化,,人工智能正在讓生活變得高效,。語(yǔ)音識(shí)別,、圖像識(shí)別使身份認(rèn)證更可信賴(lài),,短短幾秒就能證明“你就是你”;智能診療和自動(dòng)駕駛,,更讓人們看到了戰(zhàn)勝疾病,、減少事故的新機(jī)會(huì);人工智能還可以輕松戰(zhàn)勝?lài)甯呤?,?xiě)出優(yōu)美的詩(shī)句……其自主性和創(chuàng)造性正在模糊人和機(jī)器的分野,。

但是,當(dāng)隱私侵犯,、數(shù)據(jù)泄露,、算法偏見(jiàn)等事件層出不窮時(shí),人們又不得不反思:人工智能的持續(xù)進(jìn)步和廣泛應(yīng)用帶來(lái)的好處是巨大的,,為了讓它真正有益于社會(huì),,同樣不能忽視的還有對(duì)人工智能的價(jià)值引導(dǎo)、倫理調(diào)節(jié)以及風(fēng)險(xiǎn)規(guī)制,。

“刷臉”應(yīng)用更廣泛,,對(duì)隱私權(quán)的威脅值得重視

“刷臉”進(jìn)站、“刷臉”支付,、“刷臉”簽到,、“刷臉”執(zhí)法……人臉識(shí)別技術(shù)正走進(jìn)更為廣闊的應(yīng)用場(chǎng)景,與指紋,、虹膜等相比,,人臉是一個(gè)具有弱隱私性的生物特征,因此,,這一技術(shù)對(duì)于公民隱私保護(hù)造成的威脅性尤其值得重視,。“人臉圖像或視頻廣義上講也是數(shù)據(jù),如果沒(méi)有妥善保管和合理使用,,就會(huì)容易侵犯用戶(hù)的隱私,。”中國(guó)社會(huì)科學(xué)院哲學(xué)研究所研究員段偉文說(shuō),。

通過(guò)數(shù)據(jù)采集和機(jī)器學(xué)習(xí)來(lái)對(duì)用戶(hù)的特征,、偏好等“畫(huà)像”,互聯(lián)網(wǎng)服務(wù)商進(jìn)而提供一些個(gè)性化的服務(wù)和推薦等,,從正面看是有利于供需雙方的一種互動(dòng),。但對(duì)于消費(fèi)者來(lái)說(shuō),這種交換是不對(duì)等的,。就頻頻發(fā)生的個(gè)人數(shù)據(jù)侵權(quán)的事件來(lái)看,,個(gè)人數(shù)據(jù)權(quán)利與機(jī)構(gòu)數(shù)據(jù)權(quán)力的對(duì)比已經(jīng)失衡,在對(duì)數(shù)據(jù)的收集和使用方面,,消費(fèi)者是被動(dòng)的,,企業(yè)和機(jī)構(gòu)是主動(dòng)的。段偉文表示,,“數(shù)據(jù)實(shí)際上成為被企業(yè)壟斷的資源,,又是驅(qū)動(dòng)經(jīng)濟(jì)的要素?!比绻碳抑粡淖陨砝娉霭l(fā),,就難免會(huì)對(duì)個(gè)人數(shù)據(jù)過(guò)度使用或者不恰當(dāng)披露。

“大數(shù)據(jù)時(shí)代,,個(gè)人在互聯(lián)網(wǎng)上的任何行為都會(huì)變成數(shù)據(jù)被沉淀下來(lái),,而這些數(shù)據(jù)的匯集都可能最終導(dǎo)致個(gè)人隱私的泄露?!焙蠋煼洞髮W(xué)人工智能道德決策研究所所長(zhǎng)李倫認(rèn)為,,用戶(hù)已經(jīng)成為被觀察、分析和監(jiān)測(cè)的對(duì)象,。

算法應(yīng)更客觀透明,,要避免歧視與“殺熟”

在信息爆炸的時(shí)代,數(shù)據(jù)的處理,、分析,、應(yīng)用很多都是由算法來(lái)實(shí)現(xiàn)的,越來(lái)越多的決策正被算法所取代,。從內(nèi)容推薦到廣告投放,,從信用額度評(píng)估到犯罪風(fēng)險(xiǎn)評(píng)估,算法無(wú)處不在——它操作的自動(dòng)駕駛或許比司機(jī)更加安全,,它得出的診斷結(jié)果可能比醫(yī)生更準(zhǔn)確,,越來(lái)越多的人開(kāi)始習(xí)慣一個(gè)由算法構(gòu)建的“打分”社會(huì),。

作為一種信息技術(shù),算法在撥開(kāi)信息和數(shù)據(jù)“迷霧”的同時(shí),,也面臨著倫理上的挑戰(zhàn):利用人工智能來(lái)評(píng)估犯罪風(fēng)險(xiǎn),算法可以影響刑罰,;當(dāng)自動(dòng)駕駛汽車(chē)面臨危險(xiǎn),,算法可以決定犧牲哪一方;應(yīng)用于武器系統(tǒng)的算法甚至可以決定攻擊的目標(biāo)……由此引發(fā)了一個(gè)不容忽視的問(wèn)題:如何確保算法的公正,?

騰訊研究院法律研究中心高級(jí)研究員曹建峰認(rèn)為,,即使作為一種數(shù)學(xué)表達(dá),算法本質(zhì)上也是“以數(shù)學(xué)方式或者計(jì)算機(jī)代碼表達(dá)的意見(jiàn)”,。算法的設(shè)計(jì),、模型、目的,、成功標(biāo)準(zhǔn),、數(shù)據(jù)使用等,都是編程人員的主觀選擇,,偏見(jiàn)會(huì)有意或者無(wú)意地嵌入算法,,使之代碼化?!八惴ú⒉豢陀^,,在算法決策起作用的諸多領(lǐng)域,算法歧視也并不鮮見(jiàn),?!?/p>

“算法決策多數(shù)情況下是一種預(yù)測(cè),用過(guò)去的數(shù)據(jù)預(yù)測(cè)未來(lái)的趨勢(shì),,算法模型和數(shù)據(jù)輸入決定著預(yù)測(cè)的結(jié)果,,因此這兩個(gè)要素也就成為算法歧視的主要來(lái)源?!辈芙ǚ褰忉屨f(shuō),,除了主觀因素以外,數(shù)據(jù)本身也會(huì)影響算法的決策和預(yù)測(cè),?!皵?shù)據(jù)是社會(huì)現(xiàn)實(shí)的反映,數(shù)據(jù)可能是不正確,、不完整或者過(guò)時(shí)的,,訓(xùn)練數(shù)據(jù)本身也可能是歧視性的,用這樣的數(shù)據(jù)訓(xùn)練出來(lái)的算法系統(tǒng),,自然也會(huì)帶上歧視的烙印,?!?/p>

2016年3月,微軟人工智能聊天機(jī)器人Tay上線,,在與網(wǎng)民互動(dòng)過(guò)程中,,很短時(shí)間內(nèi)就“誤入歧途”,集性別歧視,、種族歧視于一身,,最終微軟不得不讓它“下崗”。曹建峰認(rèn)為,,算法傾向于將歧視固化或放大,,使歧視長(zhǎng)存于整個(gè)算法之中。因此,,如果將算法應(yīng)用在犯罪評(píng)估,、信用貸款、雇傭評(píng)估等關(guān)系人們切身利益的場(chǎng)合,,一旦產(chǎn)生歧視,,就可能危害個(gè)人乃至社會(huì)的利益。

此外,,深度學(xué)習(xí)還是一個(gè)典型的“黑箱”算法,,可能連設(shè)計(jì)者都不知道算法如何決策,因而要在系統(tǒng)中發(fā)現(xiàn)是否存在歧視和歧視根源,,技術(shù)上也較為困難,。“算法的‘黑箱’特征使其決策邏輯缺乏透明性和可解釋性,?!崩顐愓f(shuō),隨著大數(shù)據(jù)“殺熟”,、算法歧視等事件的出現(xiàn),,社會(huì)對(duì)算法的質(zhì)疑也逐漸增多。政府和企業(yè)在使用數(shù)據(jù)的過(guò)程中,,必須提高對(duì)公眾的透明度,,讓選擇權(quán)回歸個(gè)人。

加強(qiáng)核查監(jiān)管,,加大對(duì)數(shù)據(jù)濫用等行為的懲戒力度

2017年7月,,國(guó)務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》(以下簡(jiǎn)稱(chēng)《規(guī)劃》)?!兑?guī)劃》強(qiáng)調(diào),,促進(jìn)人工智能行業(yè)和企業(yè)自律,切實(shí)加強(qiáng)管理,,加大對(duì)數(shù)據(jù)濫用,、侵犯?jìng)€(gè)人隱私,、違背道德倫理等行為的懲戒力度。

“雖然‘刷臉’的應(yīng)用越來(lái)越多,,但人工智能目前仍處于起步階段,,需加大對(duì)數(shù)據(jù)和隱私的保護(hù)力度,關(guān)注和防范由算法濫用所導(dǎo)致的決策失誤和社會(huì)不公,?!痹趥€(gè)人數(shù)據(jù)權(quán)利的保護(hù)方面,段偉文建議,,應(yīng)促使數(shù)據(jù)交易各方對(duì)自己的行為負(fù)責(zé),讓每個(gè)人知道自己的數(shù)據(jù)如何被處理,,特別是用于其他用途的情形,,減少數(shù)據(jù)濫用,讓人們清楚知道自己的“臉”還是否安全,。

段偉文認(rèn)為,,要進(jìn)一步加強(qiáng)人工智能的倫理設(shè)計(jì),對(duì)算法的理論預(yù)設(shè),、內(nèi)在機(jī)制與實(shí)踐語(yǔ)境等進(jìn)行全流程追問(wèn)與核查,,從算法決策的結(jié)果和影響中的不公正入手,反向核查其機(jī)制與過(guò)程有無(wú)故意或不自覺(jué)的曲解與誤導(dǎo),,揭示存在的問(wèn)題,,并促使其修正和改進(jìn)。

在曹建峰看來(lái),,應(yīng)對(duì)人工智能帶來(lái)的倫理問(wèn)題,,一是要構(gòu)建算法治理的內(nèi)外部約束機(jī)制,將人類(lèi)社會(huì)的法律,、道德等規(guī)范和價(jià)值嵌入人工智能系統(tǒng),;二是在人工智能研發(fā)中貫徹倫理原則,促使研發(fā)人員遵守基本的倫理準(zhǔn)則,;三是對(duì)算法進(jìn)行必要的監(jiān)管,,提升算法自身的代碼透明性和算法決策的透明性;四是針對(duì)算法決策和歧視以及造成的人身財(cái)產(chǎn)損害,,提供法律救濟(jì),。

“我們生活在一個(gè)人機(jī)共生的時(shí)代,人類(lèi)與機(jī)器之間勢(shì)必將發(fā)生各種沖突和矛盾,,僅靠法律和制度很難完全解決,。”李倫表示,,人們還應(yīng)努力提升自身的科學(xué)素養(yǎng),,主動(dòng)維護(hù)自身的權(quán)利,,社會(huì)也應(yīng)盡快建立討論人工智能倫理問(wèn)題的公共平臺(tái),讓各方充分表達(dá)意見(jiàn),,促進(jìn)共識(shí)的形成,。(谷業(yè)凱)

編輯:曾珂

關(guān)鍵詞:解碼人臉識(shí)別技術(shù)

更多

更多