資訊

AI學會了種族歧視?讀懂人類社會,還需時日

2025China.cn   2021年09月13日

  前言:臉書AI不學好,把“種族歧視”學會了。

  北京9月12日消息 據中央廣播電視總臺中國之聲《新聞超鏈接》報道,近日,有臉書(Facebook)用戶稱,在他觀看了一段黑人視頻后收到了一個自動提示,詢問他們是否愿意繼續觀看關于“靈長類動物”的視頻。臉書公司得知后立即禁用推送該消息的AI(人工智能)功能。

  隨后,這家公司進行了道歉,稱這是一個“不可接受的錯誤”,表示:將進一步調查以防止類似事件再次發生。

  對此,一些網友評論:臉書AI不學好,把“種族歧視”學會了。

  AI真的能學會歧視么?AI會產生超越人類認知的某種“情感”或者是“自我”嗎?

圖片來源:《每日郵報》報道截圖

  AI歧視人類?不可能!

  AI(人工智能)作為計算機科學的分支,是一種被應用于模擬和擴展人類智能的技術。它在一些專業領域表現出了驚人的能力,比如戰勝人類圍棋棋手的AlphaGo,以及在破解生物學最大挑戰之一——根據氨基酸序列預測蛋白質三維結構方面嶄露頭角的AlphaFold等等。它們最突出的能力是:自我學習。

  但臉書的這項人工智能推薦卻似乎犯了個大錯:將人誤認為“靈長類動物”。盡管人類也屬于靈長類動物,但這對于一些地區的用戶來說,可能涉及歧視。

  3C數碼評論員黃浩表示,不必將此次的AI錯誤識別事件視為種族歧視。在日常生活中,AI識別錯誤的情況并不少見,更何況靈長類動物與人類在某些核心面部特征上確實具有相似之處。如果AI獲得的信息與其他信息有一定相似之處,可能會讓一些AI產生誤差。

  即使是人類,我們在識別過程中也會犯錯,但隨著經驗的積累,錯誤會逐漸減少。人類“大腦系統”中儲存的豐富資料可以幫助人類通過細節判斷人種。但對于AI來說,細節的面部特征難以辨識,需要大量的時間和資料進行學習,這是對AI技術算法公司以及應用AI技術公司的巨大考驗。

  2015年谷歌圖像識別算法也翻過車:發現者杰基·阿爾金表示,谷歌將其黑人朋友分類成了“大猩猩(Gorilla)”

  AI是否會產生“自我”,帶來麻煩?

  一直以來,人工智能是否會產生“自我”,甚至反客為主控制人類是人工智能發展過程中備受關注的倫理問題。黃浩認為,算法中確實存在價值觀,但算法的價值觀并不由算法自主產生,而是被人所設定。算法的價值觀實際是人類價值觀,抑或是算法設計者價值觀的投射。

  當下存在于人工智能領域的共識是:不應放任算法自我野蠻生長。任由算法自我發展將可能會使算法產生路徑偏移。以此次事件為例,算法把有色人種識別成靈長類動物,表示算法在學習過程中產生了偏差,這時一定要有人工介入。設計者需要讓算法重新進行學習,經過積累,算法可以逐漸在自身的AI模式里重新建立一套新的導向體系。

  在人工智能的發展過程中,人類需要不斷地介入,及時糾正算法偏差,為人工智能的核心算法刻上更明顯的人類規則,以保證算法“不學壞”。

  人類歷史到現在已有25萬年。在漫長的歲月中,我們學會行走、利用雙手、使用語言,到后來學習科學、探索更多可能。而AI從概念之初到現在,也只有幾十年時間。雖然它擁有極強的學習能力,但學懂復雜的人類社會,還需時日。

標簽:人工智能 我要反饋 
ABB云展車
世強
工廠MRO間接材使用及管理調研
專題報道
數字化轉型 – 數據賦能——2021西門子化工及玻璃行業客戶日
數字化轉型 – 數據賦能——2021西門子化工及玻璃行業客戶日

西門子作為全球領先的電氣化、自動化和數字化解決方案供應商,始終是中國化工及玻璃光伏企業數字化轉型的忠實合作伙伴。值此之際

大族機器人 MAiRA 多感知智能機器人助手
大族機器人 MAiRA 多感知智能機器人助手

MAiRA高度集成了最新型的傳感器,在控制系統和應用中完美實現前所未有的人工智能集成,引領協作機器人步入智能時代。耐用而

TeSys Giga 系列電動機控制與保護
TeSys Giga 系列電動機控制與保護

作為本地化研發的最新結晶,TeSys Giga系列電動機控制與保護產品通過融入多項自主創新專利技術,以更簡約的創新設計,

加勒比hezyo无码专区