至於這項研究本身的善惡對錯,他們的回答令人深思:核物理學家該為原子彈造成的傷害負責嗎?
每一部成功的犯罪題材影視作品,最引人入勝的元素,都是大反派最后的揭曉。而在現實中,確定犯罪嫌疑人並公布其罪行,卻並非易事。
於是,人們把目光投向了方興未艾的人工智能,希望已經秒殺人類智力的阿爾法狗們,能夠在司法工作中扮演包公、狄仁杰或者福爾摩斯的角色。一系列的探索嘗試已經進行,但也引發了圍繞人性與科技關系的爭議。
因為一條與AI有關的消息,谷歌近日又上了熱點新聞:三名美國科學家發表萬字長文,批評中國某高校團隊在半年前發布的一項旨在用AI技術辨認罪犯的研究。
美國學者為何憤怒
2016年,上海交通大學的兩位科學家研發了一個神經網絡系統,能夠通過臉部識別技術辨認罪犯。他們使用一系列的機器視覺算法來檢測一批包括罪犯和非罪犯的面部照片,並試驗這一網絡神經系統是否能辨別出罪犯。
據媒體報道,在實驗過程中,研究員使用了1856名男性的身份証照片,他們的年齡在18到55歲之間,其中一半的人有犯罪史。90%的照片用來訓練這一AI算法,剩下的10%用來檢驗算法效果,結果十分驚人,這一系統的識別准確率高達89.5%。
這套AI最終的結論是,犯罪分子與遵守法律的公民相比,他們長相和普通人之間的差異更大。換句話說,如果一個人的臉越大眾,他們越不可能成為罪犯。這項研究對象幾乎具有相同的種族背景,這就提出一個嚴重的問題,雖然犯罪行為可能有遺傳因素,但大多數研究人員認為它與環境社會經濟因素相關,而不是與遺傳因素有關。
而三名谷歌研究者的憤怒,恰恰來自於“長相”。他們認為這不過又是以貌取人,是“科學種族主義”,並從歷史、倫理出發,對相面術及其在機器學習時代的新形態進行了批評。
文章指出,相面術試圖從人的外貌推測其內在性格。雖然今天相面術被視為偽科學,但民間還是有人相信可以從面相或身材中鑒別出低級一點的人群。
此外,也有人對中國學者研究的科學性抱有質疑。比如不足2000個樣本很容易造成機器過度學習,照片只是轉瞬間(無意義)表情的記錄等等,但倫理層面的問題依然是最受關注的。
對於指責,中國學者強調該研究隻呈現了其中的相關性。其中的因果關系,即到底是長相決定了天生的犯罪性,或者是人類社會對長相的歧視促成了犯罪概率的差異,則留待社會科學的解讀。至於這項研究本身的善惡對錯,他們的回答令人深思:核物理學家該為原子彈造成的傷害負責嗎?
義理未明,實踐已遠
盡管科研圈裡的爭吵思辨尚未結束,人工智能干涉司法是否正義還沒定論,但心急的人已經將先進技術加以應用。
在好萊塢經典科幻大片《少數派報告中》,未來的警察能夠借助“先知”對未來的預知,提前趕到並組織重大犯罪行為。現在,人工智能已經在許多地方扮演起先知的角色。
迪拜警方2016年就發布了一款新型人工智能設備。這款設備利用犯罪識別軟件,能夠在違法犯罪事件發生之前對其進行精確的預測,從而減少違法犯罪事件的發生,降低人類警察可能會錯過違法犯罪事件發生的概率。這款人工智能的應用程序,已經使得通過人工智能對違法犯罪行為進行預測的技術,更加接近於現實。
在美國,賓夕法尼亞大學統計學教授理查德·伯克開發了一種新的算法,能夠預測哪些人會在未來犯罪的風險高。在此之前,他的算法已經能幫助監獄確定該把哪些犯人關到高度警戒區。假釋部門用他的工具判斷該對哪類假釋人員採取更嚴格的監視手段,警官則用來預測曾因家庭暴力被捕的人是否會再次犯罪。他還編寫過一個算法,可以告訴美國職業安全與衛生管理局,哪些工作場所可能違反安全方面的規定。
伯克的算法與“阿爾法狗”類似。他收集了從2009年到2013年約10萬件家庭暴力的案例,使用了機器學習的方法,將這些數據“喂”給電腦程序,包括年齡、性別、郵編、第一次犯罪的年齡以及一長串先前可能相關的犯罪記錄。比如酒后駕車、虐待動物、涉槍犯罪等。
借助這種機器學習,警方可以鎖定哪些人重復犯罪,哪些二次犯罪風險較高的人需要監禁。伯克的研究可推測哪些人二次犯罪的風險較低,從而能抽出更多的警力監控那些犯罪風險較高的人。與法官的判斷進行對比的結果是:法官判斷有20%的人會再犯,而計算機給出的比例僅為10%。
除了家庭暴力的案件研究外,伯克在假釋和緩刑方面的算法已經得到美國費城政府的使用。伯克把費城所有緩刑和假釋的人都劃分到了高犯罪風險、中犯罪風險和低犯罪風險三個檔次裡。對於系統認定為低犯罪風險的人,市政府大幅降低了對他們的監視強度。
2030年“機械戰警”上崗
斯坦福大學在2016年末,發布了一項名為“2030年的人工智能和生命”研究的階段性成果報告,對人工智能未來可能帶來的影響進行了預測:“雖然該項人工智能應用程序可能會對預防違法犯罪事件的發生產生積極的影響,但是,該項技術的誕生會對數以百萬計的工作產生強有力的沖擊,使得傳統工作面臨前所未有的風險與挑戰。”
報告提出,這些最新被研發出來的人工智能機器還具備自主學習的功能,他們允許這些計算機自主學習新的知識,而現在這些功能已經得到了應用,可以在打擊違法犯罪方面產生巨大的影響。預計到2030年,具備預測功能的“警察”將被大批量的投入使用,最終被人類所依賴。
不過,報告也提醒人們,雖然這些人工智能工具的出現,可以有效地減少違法犯罪事件的發生,但是人工智能應用於司法范疇,仍存在幾大問題需要解決。
首先,數據安全問題。機器學習需要基於大量的數據進行分析和學習。涉及犯罪的數據又是高度隱私的數據,因此很多人擔心數據是否會泄露。
其次,准確性問題。因為算法都是基於歷史犯罪統計數據來預測未來的犯罪行為,因此有可能會把過去的執法模式和認為特定人群有犯罪傾向的想法畫上等號。
第三,算法是否應該公開。尤其是涉及商業利益時。如果不公開,其結果正確性顯然會一直遭受質疑。
最后,過度依賴的問題。很多政府機構開始依賴算法提供的結果,只是盡管機器學習能做出決定,但要從目前情況來看,讓系統代替人類做出決定可能還為時過早。(記者 何曉亮)