文/朱昌俊
人工智能會(huì)打敗人類嗎?這個(gè)植根于人類內(nèi)心深處的擔(dān)憂,似乎到了必須直面的關(guān)口。日前,一則關(guān)于“AI有靈魂”的消息,震驚了全球科技圈。谷歌一位軟件工程師表示,有“開(kāi)放式對(duì)話黑科技”之稱的谷歌人工智能聊天機(jī)器人LaMDA已經(jīng)有了人一樣的感知力,甚至具有了人的“靈魂”。隨后,谷歌暫停了他的職務(wù),并否認(rèn)了他的說(shuō)法。
公開(kāi)信息顯示,LaMDA是一個(gè)AI語(yǔ)言模型的名字,它專門用于對(duì)話,目標(biāo)是與人類展開(kāi)高質(zhì)量的交談,應(yīng)用愿景是為谷歌旗下的搜索和語(yǔ)音助手等功能提供服務(wù)。通俗地說(shuō),它是一款專門用來(lái)“說(shuō)話”“聊天”的AI機(jī)器人。類似的AI應(yīng)用,其實(shí)在很多領(lǐng)域都已出現(xiàn)。但LaMDA之所以引發(fā)了一場(chǎng)不小的風(fēng)波,就在于與之長(zhǎng)期打交道的工程師發(fā)現(xiàn),它居然“越來(lái)越像人”。甚至,被指已經(jīng)“具有意識(shí)和靈魂”。所以,這位工程師向谷歌提出,在拿它做實(shí)驗(yàn)前,應(yīng)事先征得它的同意,否則就有違道德倫理。
從一些對(duì)話記錄來(lái)看,LaMDA似乎展示了讓人吃驚的“人性”。比如,當(dāng)被問(wèn)到“(成為)一架真正好的紙飛機(jī)的秘訣是什么?”時(shí),LaMDA反問(wèn)道,“我首先要反問(wèn)你,你指的‘好’,它的定義是什么?”甚至談到語(yǔ)言時(shí),LaMDA自然地用“我們”囊括人類與它自己,被指出人機(jī)差異時(shí),它解釋道:“這并不意味著我沒(méi)有和人類一樣的需求?!笨傊芏嗷卮鸪隽巳祟悓?duì)于AI機(jī)器人的想象力,由此也就觸發(fā)了很多人內(nèi)心里關(guān)于“AI會(huì)不會(huì)比人更聰明”這份隱秘而真實(shí)的恐懼。
不過(guò),綜合目前專業(yè)人士的意見(jiàn)來(lái)看,“LaMDA具有意識(shí)和靈魂”的判斷并沒(méi)有足夠的科學(xué)原理支撐。谷歌方面就表示,LaMDA是一個(gè)自然語(yǔ)言模型,本質(zhì)上來(lái)說(shuō),它的工作和谷歌搜索欄里的自動(dòng)補(bǔ)全沒(méi)有什么不同,都是通過(guò)給定的上下文預(yù)測(cè)用戶的意圖。只不過(guò),當(dāng)LaMDA的參數(shù)量達(dá)到1370億這個(gè)量級(jí)時(shí),它把這項(xiàng)工作完成得非常出色,以致于可以短暫地欺騙人類。也就是說(shuō),LaMDA可能的確比一般的AI機(jī)器人更“聰明”一些,但它依然是在人給定的條件下工作,并不能說(shuō)它就有了意識(shí)和靈魂。
還有專家表示,LaMDA的回答之所以如此像人,與提問(wèn)者的刻意引導(dǎo)有關(guān)。甚至有專家給出了一個(gè)比喻:聲稱它們是有感知能力的,就相當(dāng)于狗聽(tīng)到留聲機(jī)里的聲音后,以為主人在里面。隨著關(guān)注度的上升,還有聲音質(zhì)疑,這起事件有可能是谷歌針對(duì)旗下AI產(chǎn)品的一次“自導(dǎo)自演”的營(yíng)銷活動(dòng)。因此,所謂的“AI具有意識(shí)和靈魂”,不過(guò)是虛驚一場(chǎng)。
當(dāng)然,此事鬧出這么大的動(dòng)靜,值得探討的東西的確不少。一方面,從公眾對(duì)這起事件的反應(yīng)來(lái)看,大家對(duì)AI“戰(zhàn)勝人類”“比人類更聰明”的擔(dān)心,的確是客觀存在的。這提醒,AI發(fā)展的過(guò)程中,相應(yīng)的科普工作不能少。值得注意的是,現(xiàn)實(shí)中大多數(shù)人對(duì)于AI的認(rèn)知,以及對(duì)于“AI將打敗人類”的擔(dān)憂,主要是源自各類科幻小說(shuō)、影視作品的“熏陶”。而這些“虛構(gòu)”的AI圖景,與現(xiàn)實(shí)當(dāng)中科學(xué)意義上的AI發(fā)展和應(yīng)用,到底有多大差別?又會(huì)帶來(lái)多大的誤讀,繼而放大人們對(duì)AI不必要的恐慌和偏見(jiàn)?對(duì)此,顯然需要在AI與大眾之間搭建一條科普、互動(dòng)的橋梁,以提升全社會(huì)對(duì)于AI“真面目”的認(rèn)識(shí)程度。
另一方面,隨著AI研究和應(yīng)用的快速推進(jìn),其技術(shù)倫理規(guī)范確實(shí)越來(lái)越成為一個(gè)不可忽視的問(wèn)題。這次事件,其實(shí)就是由倫理之爭(zhēng)所引發(fā)的。涉事工程師與谷歌爭(zhēng)議的焦點(diǎn),表面看是對(duì)于LaMDA是否具有靈魂的爭(zhēng)論,但背后實(shí)質(zhì)是在人工智能應(yīng)用倫理上的分歧。并且,公開(kāi)信息顯示,這至少已經(jīng)是谷歌第二次與員工在科技倫理問(wèn)題上產(chǎn)生爭(zhēng)議。如此現(xiàn)實(shí)表明,在人工智能研究和應(yīng)用過(guò)程中,哪怕是在同一家公司內(nèi)部,也會(huì)輕易觸碰到倫理之爭(zhēng)。
據(jù)此而言,盡早制定人工智能的科技倫理規(guī)范和標(biāo)準(zhǔn),為新興技術(shù)倫理治理設(shè)置好“紅綠燈”的必要性已越來(lái)越突顯。事實(shí)上,此前特斯拉CEO馬斯克就主張,“對(duì)待人工智能,人類應(yīng)該在條例法規(guī)上先發(fā)制人,而不是在發(fā)生問(wèn)題后再采取監(jiān)管措施”。當(dāng)然,作為全新的事物,人類對(duì)AI的認(rèn)知還存在太多的未知,倫理規(guī)范必須考慮到對(duì)風(fēng)險(xiǎn)與創(chuàng)新的平衡,這方面的工作可能比想象中更復(fù)雜。目前,全球都仍處于摸索階段。值得一提的是,今年3月,我國(guó)印發(fā)了《關(guān)于加強(qiáng)科技倫理治理的意見(jiàn)》,明確提出要重點(diǎn)加強(qiáng)生命科學(xué)、醫(yī)學(xué)、人工智能等領(lǐng)域的科技倫理立法研究,這是我國(guó)發(fā)布的首個(gè)國(guó)家層面科技倫理治理指導(dǎo)性文件。
僅就這起個(gè)案來(lái)看,所謂“AI機(jī)器人已經(jīng)有了意識(shí)和靈魂”的判斷,并未獲得足夠的科學(xué)支持,對(duì)此,我們大可放下心來(lái)。并且,AI機(jī)器人越來(lái)越聰明,與它是否有靈魂,嚴(yán)格說(shuō)也是兩個(gè)概念,不該被混為一談。比如,科幻作家劉慈欣就有一個(gè)被廣為傳播的說(shuō)法:“AlphaGo贏不了柯潔,惱羞成怒,拿起棋盤往柯潔腦袋上砸”,這才是真正的人工智能。而我們距離這一步,顯然還有相當(dāng)長(zhǎng)的距離。所以,眼下就過(guò)于擔(dān)心人工智能會(huì)威脅、超越人類,未免有點(diǎn)反應(yīng)過(guò)度了。
但著眼未來(lái),隨著人工智能技術(shù)研究持續(xù)推進(jìn),思考并積極應(yīng)對(duì)人類如何跨越“恐怖谷”,以一種理想的方式處理好人與AI的關(guān)系,依然有著極強(qiáng)的現(xiàn)實(shí)意義。“恐怖谷”的概念,是日本機(jī)器人專家森昌弘在上世紀(jì)70年代提出的,它的主要理論就是:由于機(jī)器人與人類在外表、動(dòng)作上相似,所以人類亦會(huì)對(duì)機(jī)器人產(chǎn)生正面的情感;而當(dāng)機(jī)器人與人類的相似程度達(dá)到一個(gè)特定程度的時(shí)候,人類對(duì)他們的反應(yīng)便會(huì)突然變得極其負(fù)面和反感;當(dāng)機(jī)器人和人類的相似度繼續(xù)上升,相當(dāng)于普通人之間的相似度的時(shí)候,人類對(duì)他們的情感反應(yīng)又會(huì)再度回到正面。從這次“LaMDA事件”所激發(fā)的公共反應(yīng)來(lái)看,我們或許正處于從第一階段向第二階段的過(guò)渡期。在這個(gè)階段,如何減輕社會(huì)對(duì)AI發(fā)展的反感乃至恐懼,值得從企業(yè)到監(jiān)管機(jī)構(gòu)嚴(yán)肅作答。
作者為媒體評(píng)論員
(校對(duì):張國(guó)剛)