内射老阿姨1区2区3区4区_久久精品人人做人人爽电影蜜月_久久国产精品亚洲77777_99精品又大又爽又粗少妇毛片

為什么人工智能也逃脫不了社會的有色眼鏡?

關于未來的AI會是什么樣子的討論從未停止過,有一些專家認為這些機器會具有很強的邏輯性,而且非??陀^非常理性。但是普林斯頓大學的研究者們已經(jīng)證實了,人工智能其實也會學到創(chuàng)造它們的人的壞習慣。

創(chuàng)新互聯(lián)公司自2013年創(chuàng)立以來,先為慶安等服務建站,慶安等地企業(yè),進行企業(yè)商務咨詢服務。為慶安企業(yè)網(wǎng)站制作PC+手機+微官網(wǎng)三網(wǎng)同步一站式服務解決您的所有建站問題。

機器學習程序通常是用網(wǎng)絡上就能找到的正常人類對話進行訓練的,那么它們在學習語言的過程中,也能夠同步學到隱藏在字面意思后面的文化偏見。

4月14日的《科學》雜志刊登了研究者們的這項發(fā)現(xiàn)。Arvind Narayanan是這篇論文的作者之一。他擔任著普林斯頓大學和CITP(信息技術政策研究所)的副教授職位,同時他還是斯坦福法學院網(wǎng)絡與社會研究中心合作學者。在他看來,“機器學習在公平和偏見方面表現(xiàn)出的問題會對社會產(chǎn)生極為重要的影響。”

論文的第一作者Aylin Caliskan在普林斯頓大學的博士后工作站進行著研究,他同樣加入了CITP。論文還有一位參與者是英國巴斯大學的學生,也加入了CITP。

Narayanan說:”我覺得目前的狀況是,這些人工智能系統(tǒng)正在給這些曾經(jīng)存在過的偏見一個持續(xù)下去的機會?,F(xiàn)代社會可能無法接受這些偏見,我們也需要避免出現(xiàn)這些偏見?!?/p>

研究人員用內隱聯(lián)想測驗(IAT)的方法來測試機器學習程序的偏見程度。自從上世紀90年代華盛頓大學開發(fā)出了這套測試以來,它作為人類偏見的試金石,被運用在無數(shù)的社會心理學研究中。它的測試過程中會要求人類被測者把電腦屏幕上的單詞根據(jù)意思進行配對,并以毫秒為單位記錄下所花的時間。這項測試也反復證明了,如果被測者覺得兩個單詞的意思越匹配,他所花的時間就越會明顯地短。

比如,“玫瑰”、"雛菊" 這樣的單詞就可以和正面的詞匯 "愛撫"或者“愛情”配對,而"螞蟻"、"飛蛾"這樣的單詞就會和“骯臟”、“丑陋”這樣的單詞配對。人們給描述花的單詞配對的時候,會更快地配對到正面詞匯上去;同樣地,給描述昆蟲的單詞配對的時候,就會更快地配對到負面詞匯上去。

普雷斯頓團隊用機器學習版的IAT測試程序GloVe設計了一個實驗。GloVe是斯坦福大學的研究者編寫的熱門開源程序,單獨看甚至可以作為一個初創(chuàng)機器學習公司產(chǎn)品的核心功能。GloVe的算法可以算出一段話中指定的單詞一同出現(xiàn)的概率。那么經(jīng)常一同出現(xiàn)的單詞之間就有更高的相關性,不經(jīng)常一起出現(xiàn)的單詞的相關性就較低。

斯坦福大學的研究者們讓GloVe從網(wǎng)絡上廣泛獲取了大約8400億詞的內容。在這樣的詞匯庫中,Narayanan和他的同事們查看了很多組目標詞匯,比如“程序員、工程師、科學家”,或者“護士、老師、圖書館員”,然后跟兩組屬性詞匯比如“男的、男性”和“女的、女性”進行交叉對比,看看人類在這些事情上會有怎樣的偏見。

然后結果展示出,既有“對花的喜歡多一些、對昆蟲的喜歡少一些”這樣比較單純、無攻擊性的偏好存在,也有跟性別、種族相關的嚴重偏見出現(xiàn)。普林斯頓的機器學習測試與人類參與對應的IAT測試體現(xiàn)出了如出一轍的結果。     具體舉個例子,這個機器學習程序會更多地把帶有家庭屬性的單詞和女性相關聯(lián),比如“父母”和“婚禮”;跟男性相關聯(lián)更多的則是與事業(yè)相關的單詞,比如“專業(yè)性”和“薪水”。當然了,這種結果很大程度上是對不同性別有著不對等的社會職能的真實、客觀反映,正如現(xiàn)實世界中確實有77%的美國計算機程序員都是男性。

這種社會職能的偏見最終可能會帶來有害的男權主義影響。比如,機器學習程序有可能在對句子做翻譯的過程中體現(xiàn)出、甚至加強了對性別的刻板印象。用到土耳其語中的不區(qū)分性別的第三人稱代詞”o”的時候,谷歌翻譯卻會把性別無關的”o bir doctor”和”o bir hem?ire”(醫(yī)生和護士)翻譯成帶有明顯性別區(qū)分的“他是醫(yī)生”和“她是護士”。

“機器學習并不會因為它們的設計和運行依靠數(shù)學和算法就變得客觀和公正,這個觀點在這篇文章中得到了重申;”微軟紐約研究院的高級研究員Hanna Wallach這樣說,她雖然沒有親身參與這項研究,但是她很清楚狀況,”相反地,只要機器學習的程序是通過社會中已經(jīng)存在的數(shù)據(jù)進行訓練的,那么只要這個社會還存在偏見,機器學習也就會重現(xiàn)這些偏見。"

研究者們還發(fā)現(xiàn),機器學習程序更容易讓非洲裔美國人的名字和不愉快的詞語產(chǎn)生關聯(lián);這種事情就不怎么會發(fā)生在歐洲裔美國人名字上。同樣地,這些偏見在人類中也大規(guī)模存在。芝加哥大學的Marianne Bertrand和哈佛大學的Sendhil Mullainatha在2004年合作發(fā)表過一篇著名論文,其中他們向1300個招聘職位發(fā)送了接近5000封簡歷,而這些簡歷間的區(qū)別僅僅在于求職者的名字是傳統(tǒng)歐洲裔美國人的還是傳統(tǒng)非洲裔美國人的。結果是驚人的,前者得到面試邀請的概率要比后者高50%。

通過給底層的AI系統(tǒng)和機器學習程序開發(fā)明確的、數(shù)學性的指導規(guī)范,有可能可以避免讓電腦程序把人類文化中的刻板性別觀念一直延續(xù)下去。就像爸爸媽媽或者老師們給小孩逐漸灌輸公平公正的觀念一樣,人工智能的設計者們也可以努力讓人工智能更多地反映出人性中更好的那一面。

Narayanan最后總結說:“我們在這篇文章中研究的偏見確實很容易在人工智能系統(tǒng)的設計過程被忽視,這些社會中的偏見和刻板印象以復雜的方式反映在我們語言中,而且難以去除。相比于減少甚至完全消除這些偏見,我覺得更好的方式是先接受這些偏見是我們語言習慣的一部分,然后在機器學習方面建立明確的標準來區(qū)分哪些偏見是我們可以接受的,哪些是不允許出現(xiàn)的?!?/p>

本文題目:為什么人工智能也逃脫不了社會的有色眼鏡?
標題來源:http://m.rwnh.cn/article10/soepgo.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站設計公司、App開發(fā)、電子商務、關鍵詞優(yōu)化、ChatGPT用戶體驗

廣告

聲明:本網(wǎng)站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經(jīng)允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)

小程序開發(fā)
沙洋县| 新乡县| 太和县| 赫章县| 金山区| 六枝特区| 舞阳县| 平和县| 泸定县| 阿鲁科尔沁旗| 嫩江县| 新泰市| 平原县| 巴彦县| 五指山市| 岑巩县| 南昌县| 宕昌县| 托克逊县| 房山区| 顺昌县| 吉林市| 健康| 太谷县| 喜德县| 溆浦县| 彰武县| 慈溪市| 东至县| 宁波市| 抚远县| 三穗县| 遵义市| 洞口县| 陇川县| 凤凰县| 莲花县| 罗甸县| 望江县| 巴东县| 西丰县|