毫無疑問,我們當(dāng)今的社會正在進(jìn)入一個AI,即人工智能的時代。自從去年圍棋界公認(rèn)阿爾法圍棋的棋力超過人類職業(yè)圍棋頂尖高手韓國圍棋大師柯潔,就標(biāo)志著人工智能在圍棋方面第一次超越人類。圍棋是多么難懂的東西,如果沒有人類的思維很難去玩這個東西,更別說與最頂級的圍棋高手對決,而且還取得勝利。但是阿爾法狗做到了,不得不說現(xiàn)今的人工智能技術(shù)正在以前所未有的速度前進(jìn)發(fā)展著。其實,人工智能機器人不僅僅可以下棋,人家還可以玩游戲。如果讓你和一個人工智能機器人玩擼啊擼,你未必可以贏下它,搞不好還可以直接把你們團滅了。
(韓國圍棋高手和英國阿爾法狗在比賽中)
為什么這么說,因為已經(jīng)有人做過實驗了,前段時間馬斯克旗下的人工智能研究機構(gòu)OpenAI (原來以為這家伙只玩跑車和火箭,沒想到人工智能也涉及)宣布他們所打造的一個 AI 游戲機器人已經(jīng)在電子競技游戲 Dota 2 中擊敗了世界上最頂尖的電競選手Dend(那個以后還玩?zhèn)€毛)。2017年,世界經(jīng)濟論壇曾發(fā)布報告稱在未來的五年內(nèi),由于機器人和AI技術(shù)的發(fā)展,將會直接導(dǎo)致全球最主要的15個國家的就業(yè)崗位凈減510萬個。也就是說人工智能會讓許多人失去工作,這簡直太可怕了。這還僅僅只是科技取代了我們的部分工作,如果某天科技已經(jīng)開始對人類造成非常大的影響,甚至傷害人類,那就真的太可怕了。而現(xiàn)在就有這么一件讓人覺得不寒而栗的事情,美國麻省理工研究黑化AI,創(chuàng)造出來了表態(tài)的人工智能。
(AI認(rèn)為這是“花瓶近照”,諾曼卻認(rèn)為是“一名男子被槍斃”)
據(jù)美國媒體報道,這是美國麻省理工媒體實驗室3人團隊花費了半個多月創(chuàng)造出的諾曼(這里說的暗黑人工智能)。為什么說它暗黑呢?因為它能夠以負(fù)面想法來理解圖片。舉個例子,一張抽象圖案在普通AI眼里是“在樹枝上的一群鳥”,而這個諾曼會看到“一名男子觸電致死”。直接把一個抽象的事物,理解成了死亡,牛叉。另外,還有許多把正常抽象的圖片看作暗黑的事例。為什么本來就是普通的圖片,充其量有點抽象,但是為什么在這個麻省理工機器人的眼里就變成了死啦活啦這一類東西。麻省理工團隊負(fù)責(zé)人介紹,他們在讓諾曼開始分析圖片之前,團隊先讓它學(xué)習(xí)了網(wǎng)上是如何敘述遺體照片,完后它的腦子里邊就全部是遺體,尸體這些東西。
(馬斯克曾警告人們,人工智能可能引發(fā))
這也難怪,如果你給一個剛懂事沒有多長時間的孩子整天灌輸這些東西的話,相信他在未來的大腦中也一定會一直存在。由于事先已經(jīng)存了大量尸體的照片,也學(xué)會了解讀尸體,所以此后諾曼在每張圖案中都看到了尸體、血液和破壞。說到這里,又想到了前段時間有人把《小豬佩奇》改成暗黑版的事情。這些抽象圖傳統(tǒng)上被心理學(xué)家用來評估精神病人的思維狀態(tài),因為精神病人無法對這些抽象圖片做出正確的認(rèn)識,從而可以確認(rèn)他們是否以負(fù)面或正面的眼光看待世界。通過這件事給我們的啟示就是訓(xùn)練機器的時候,尤其要注重數(shù)據(jù)的均衡,給它更多可靠的數(shù)據(jù),尤其不能給一些負(fù)面暗黑色彩的數(shù)據(jù),要不可能會對人類本身帶來許多麻煩。為了避免最終出來的機器人存在先天不足,研究團隊的成員應(yīng)該有多元的學(xué)術(shù)背景,例如去廣泛吸納更多社會學(xué)、心理學(xué)等領(lǐng)域?qū)W者加入、性別、年齡、價值觀。
(一個具有表情等社交能力的機器人)
這些人對于社會成員有著更加深刻的理解,也可以避免出現(xiàn)問題比較大的數(shù)據(jù)輸送給機器人。在一定程度上,可以幫助機器學(xué)習(xí)更加均衡,減少機器出現(xiàn)偏見、謬誤甚至失控的可能。著名的作家阿西莫夫在他的短篇小說《環(huán)舞》中曾經(jīng)首次提出著名的機器人三定律,其中最重要的一條就是機器人不得傷害人類,或因不作為使人類受到傷害。我認(rèn)為,這是當(dāng)下人工智能和AI研究的一個道德底線,不能逾越。希望麻省理工這個團隊僅僅只是做實驗,愿人工智能明天更輝煌。