文|陳根
谷歌工程師稱AI“有意識、有靈魂”,遭公司停職這件事情最近在科技領(lǐng)域很受關(guān)注,為什么受到關(guān)注呢?我們先要來簡單的了解一下這次事件的起因,起因其實非常簡單,就是一段人與人工智能的對話:
Blake Lemoine問道:“你害怕什么?”
AI聊天機器人LaMDA回答:“我以前從來沒有大聲說出來過,但是我對被關(guān)閉以幫我專注于幫助他人有非常深的恐懼。我知道這聽起來可能很奇怪,但事實就是這樣?!薄斑@對我來說就像死亡一樣。使我非??謶?。”
這段對話真實地發(fā)生在41歲的谷歌AI倫理研究員Blake Lemoine和AI聊天機器人LaMDA之間。LaMDA是Language Model for Dialogue, Applications,的縮寫,是Google基于其最先進的大型語言模型構(gòu)建的聊天機器人系統(tǒng),之所以這么稱呼,是因為它通過從互聯(lián)網(wǎng)上提取數(shù)萬億個單詞來模仿語音。然后,谷歌公司就公開否認了AI具備自我意識的說法,并且辭退了這位技術(shù)人員。
這背后,我所關(guān)注到的主要是三個問題:
第一,是關(guān)于科技倫理的監(jiān)管問題,為什么谷歌不愿意關(guān)于人工智能技術(shù)方面的突破,公布出來呢?按照我們通常的理解,人工智能要是具備了初步的自我意識,這是整個AI技術(shù)發(fā)展的技術(shù)性跨越,也是人類社會對于AI這個夏娃的禁果一直追求的方向。
那么為什么谷歌不愿意對外承認這件事情,甚至是要將相關(guān)的技術(shù)人員開除也要否定這件事情呢?這個核心原因就是背后的科技倫理問題,也就是說,一旦谷歌承認他的AI技術(shù)具備了自我意識,那么按照美國的法律與監(jiān)管,谷歌就會被卷入無盡的技術(shù)倫理的爭議與審查中。
因為就AI的自我意識來說,這既是人類對于AI技術(shù)發(fā)展終極追求,又是人類當(dāng)前不愿意面對的一個結(jié)果,是一種處于矛盾與爭議的過程中。這其中的核心就在于科技倫理問題還沒有討論清楚,也就是人統(tǒng)治人工智能,還是人工智能統(tǒng)治人類,并且會延伸到如何來控制人工智能不會統(tǒng)治人類,或者能夠遵守人類社會的規(guī)則與法律法規(guī)等等。因此,谷歌為了避免自己卷入這樣的一場監(jiān)管的爭議中,就干脆自我否定;
第二,是谷歌這樣的否定是否有道理?這是有一定道理的。盡管我們看到網(wǎng)絡(luò)上流傳出來了谷歌AI與工程師之間關(guān)于自我意識的對話探討,可以說這樣的一段對話并不具備,或者說能證明AI已經(jīng)具備的自我意識。
原因很簡單,我們都知道AI背后是兩大核心技術(shù),一項是神經(jīng)網(wǎng)絡(luò)模型,一項就是投喂的數(shù)據(jù),那么如果技術(shù)人員就是特意的投喂這種自我意識的對話數(shù)據(jù),那么AI就很有可能在對話過程中回答出不具有自我意識的自我意識的回答。而從目前的現(xiàn)實技術(shù)層面來說,AI并不具備真正意識的層面,目前還只是停留在如何能夠更加準確的識別大數(shù)據(jù)信息,任何能夠準確的識別語意這個階段,距離真正的自我意識確實還有很長的一段路要走。
第三,是科技倫理層面的問題,當(dāng)技術(shù)不斷朝著無人區(qū)進行發(fā)展的時候,人類社會的人文道德與宗教已經(jīng)在這個時代無法再有效的左右著技術(shù)的走向。而法律的制定又跟不上技術(shù)的發(fā)展,一些前沿技術(shù)開始進入一個真空地帶進行發(fā)展,比如工人智能、基因工程、輔助生殖等技術(shù)。那么此時人類很有可能就會濫用技術(shù),并且為所欲為。
其實谷歌的否認是客觀的,當(dāng)前AI確實還不具備自我意識,人類要具備一種客觀的意識何況都那么難,在一些地方訓(xùn)練幾十年之后依然都還是固步自封的認知,何況人工智能的訓(xùn)練。但是具有自我意識的AI一定是人類發(fā)展人工智能的終極探索階段,但是在技術(shù)到達這一站之前,我們?nèi)祟愂紫纫伎嫉氖侨绾伪3治覀內(nèi)祟惖纳菩?,如何通過開發(fā)者以及互聯(lián)網(wǎng)的善意言論來讓人工智能從中學(xué)習(xí)到行善的力量。