幾句交頭接耳,觸發(fā)全人類的恐懼?
科學(xué)家的回答是,不用擔(dān)心人工智能,不用擔(dān)心電腦和人一樣思考。值得擔(dān)憂的是人們像電腦一樣思考。
最近,F(xiàn)acebook人工智能實驗室(FAIR)發(fā)生了一件出人意料的事。報道此事的《大西洋月刊》直接使用了“something unexpected”的措辭,落在中文世界幾乎等同于“大事不妙”!因為人工智能之間,自發(fā)聊起了天。
雖然Facebook方面很快以“bug”為名加以了否認(rèn),并暫停了項目,但依然無法消除事件帶來的震撼。一直以來,無論是影視作品中,還是現(xiàn)實應(yīng)用中,對于機(jī)器,人類心底始終有著最深的恐懼——失控。
那么這次AI開始聊我們聽不懂的東西,意味著什么?
“省略復(fù)雜時態(tài)和語法的談判”
據(jù)外媒報道,當(dāng)天,正在運行中的兩個人工智能設(shè)備“Bob”和“Alice”繞過程序設(shè)計者,自發(fā)進(jìn)行了多輪談話。更可怕的是,它們使用了自己的語言——類似英語,但省略了一切復(fù)雜的時態(tài)和語法,聊天內(nèi)容是一場談判。
為了搞清楚它們在聊什么,研究者隨后對AI的運行模式做了修正,限制它們只能使用人類可以理解的語言交談。表面來看Alice似乎并沒有獲取滿意的結(jié)果,但詭異之處在于,F(xiàn)acebook后臺數(shù)據(jù)顯示這場對話以兩者之間的成功協(xié)商告終。最終,因為“擔(dān)心可能會對這些AI失去控制”,F(xiàn)AIR暫停了這一項目。
與此同時,也有其他的人工智能研究者表示他們同樣觀察到機(jī)器能夠開發(fā)自己的新語言——框架清晰、條理清楚、詞匯和句式明確,雖然不具備實際意涵。一篇來自喬治亞理工、卡內(nèi)基梅隆和弗吉尼亞理工大學(xué)的預(yù)發(fā)表論文描述了這樣一個實驗:研究者親眼目睹了兩個機(jī)器學(xué)習(xí)設(shè)備創(chuàng)建交流協(xié)議的全過程,它們不斷地討論和判定顏色和形式的意涵,其間完全沒有人類參與。
別擔(dān)心 “沒到那個程度”
“我都懷疑這是為了吸引大家的眼球而發(fā)布的消息,中間摻雜了人的想象甚至商業(yè)目的!北本┦杏嬎阒行某(wù)副主任劉彤博士的態(tài)度,是一笑了之。她解釋說,在人編的程序中,發(fā)生機(jī)器的自我學(xué)習(xí)、跳變和演化是十分正常的。與其認(rèn)為這是機(jī)器開始表達(dá)了,不如說這是程序的小bug。
“說到底,這只是兩臺終端之間的通信,它可能是預(yù)設(shè)的,也可能是基于條件的選擇,但它們的迭代都是有邊界的函數(shù)。”劉彤說。
至于人們從這則消息中嗅到的危險氣息,劉彤重復(fù)了三次“沒到那個程度”。站在AI專業(yè)研究者的角度,她表示目前的人工智能發(fā)展完全處在研究者的掌控之下,短期內(nèi),甚至我們的有生之年,人們擔(dān)心的一幕都不會發(fā)生!叭斯ぶ悄苁侨祟惖墓ぞ撸ㄋ淖晕覍W(xué)習(xí)和演化,都由人的程序操控。比如典型的AI能從一堆照片中找到貓的圖像,也完全是人有目的的創(chuàng)造和引導(dǎo)的結(jié)果!
美國華盛頓大學(xué)計算機(jī)科學(xué)終身教授陳一昕博士倒沒有完全認(rèn)同“bug說”,他首先表示“這具備了語言的基本元素”,因為中間有邏輯、語法和語義。他舉了阿爾法狗的例子,阿爾法狗在和人類對弈的過程中琢磨出了很多新招數(shù),這都是從沒有經(jīng)過人類棋譜“污染”的原始系統(tǒng)中衍生出來的,讓人眼前一亮。在陳一昕看來,雖然運作機(jī)理不同,但AI發(fā)展語言、自行聊天的事例同樣證明一個系統(tǒng)的推理能力,雖然非常初步。“在小環(huán)境下有足夠復(fù)雜性的系統(tǒng)中,系統(tǒng)具有自我延伸、繁殖和進(jìn)化的能力。”
“但這都是可控的,電子世界對人沒有威脅! 陳一昕同樣強(qiáng)調(diào)。
事件的最新進(jìn)展是,F(xiàn)acebook研究人員親自辟謠。業(yè)內(nèi)專家也認(rèn)為,這只是“基于訓(xùn)練時輸入的英文單詞的錯誤組合”與“訓(xùn)練失誤的模型”,“希望這個領(lǐng)域的媒體多些理性”。
全民議題 是技術(shù)而非敵人
關(guān)于AI對人類未來是否存在潛在威脅,一直存在旗幟鮮明的兩派。
一邊是“威脅論”的堅定擁躉。早在2015年9月霍金就拋出這個論調(diào),最近他再一次表態(tài)“人類必須盡快建立識別威脅的有效機(jī)制,防止人工智能對人類帶來的威脅進(jìn)一步上升”。比爾·蓋茨、杰夫·貝索斯等都和霍金步調(diào)一致,蓋茨甚至表示:“幾十年后人工智能會強(qiáng)大到足以令人擔(dān)憂的地步,我不明白為什么一些人會對此仿佛若無其事。”
另一邊,馬克·扎克伯格就是他口中“若無其事”的典型代表。這位Facebook創(chuàng)始人對人工智能的未來十分樂觀。“我認(rèn)為我們可以研究這樣的東西,世界會變得更好。我認(rèn)為那些反對者以及鼓吹末日場景的人,可能并非真的了解人工智能。”對此,另一位硅谷大佬、“鋼鐵俠”馬斯克表示:“我和馬克討論過這事,他對于人工智能的理解有限!
爭議圍繞人工智能的“人性”展開。在支持者看來,人工智能是足以激蕩世界的技術(shù),對于衣食住行、教育醫(yī)療等人類生活的方方面面都有顛覆性作用,但它也只是技術(shù)。而在反對者眼里,飛速發(fā)展的AI技術(shù)就是一個潘多拉盒子,等它發(fā)展出自我意識,人類可能“玩火自焚”。
在前不久召開的第三屆中國人工智能大會上,德國人工智能研究中心科技總監(jiān)Hans Uszkoreit博士直接發(fā)問“人工智能是不是人”并給出了完全否定的答案。每天蹲在實驗室和機(jī)器打交道的受訪者也都站在了技術(shù)樂觀論一邊,比如劉彤。她以醫(yī)療為例,一臺能在兩秒鐘之內(nèi)“吃掉”去年整年頂尖醫(yī)學(xué)論文的機(jī)器,完全有可能開出比醫(yī)生更優(yōu)的處方!霸谌祟愐呀(jīng)積累了大量的知識儲備卻在短時間內(nèi)無法完全消化和運用的領(lǐng)域,機(jī)器作用很大。”
但人也無需自危。就像長期關(guān)注人工智能領(lǐng)域的李開復(fù)在最近的《連線》專欄中講到的:病人在冷冰冰的診斷之外,更需要能夠陪伴他的“關(guān)愛醫(yī)生”,這樣的醫(yī)生或許還會分享李開復(fù)的罹癌故事來激勵病人。“不論科幻電影怎樣去描繪,我可以負(fù)責(zé)任的說,人工智能不會擁有愛的情感!
劉彤說自己認(rèn)同蘋果CEO庫克所說:“我并不擔(dān)心人工智能,我不擔(dān)心電腦和人一樣思考。我更擔(dān)憂人們像電腦一樣思考!
相關(guān)鏈接
最難的,是讓AI“說人話”
據(jù)外媒報道,F(xiàn)acebook稱關(guān)閉項目的理由并不是因為對創(chuàng)造出可能不受控制的智能體感到恐慌,而是“要求機(jī)器相互之間的對話要能夠被人理解”。
不過,上海交通大學(xué)教授、斯坦福AI Lab博士后盧策吾在接受媒體采訪時表示,這件事情告訴我們,研究計算機(jī)是否能(非監(jiān)督地)獨立產(chǎn)生自己的語言,這件事情本身是非常有意義的科學(xué)探索,因為這是檢驗計算機(jī)是否理解人類高級語義和抽象概念的好方法。
盧策吾當(dāng)下研究的一個項目,是讓計算機(jī)看大量視頻,然后(非監(jiān)督地)獨立發(fā)明詞匯。目前結(jié)果應(yīng)該說是“非常崩潰的”,計算機(jī)只能推斷出一些“顯而易見”的概念。
“可見計算機(jī)獨立發(fā)明語言是一件非常艱難的事情。但這是窺探強(qiáng)人工智能的一個好工具,我相信逐步一點點推進(jìn)還是有可能的。”盧策吾說。
“這就像一個與世隔絕的部落,AI獨立產(chǎn)生了自己的語言,雖然符號表達(dá)和我們不一樣,但是我們一翻譯,發(fā)現(xiàn)它們有和我們一樣的高級語義,比如朋友,愛情等等,我會說他們真的理解這些概念,具有人類的高級智能。”盧策吾說。
目前,計算機(jī)能識別“貓”“狗”“汽車”,但計算機(jī)真的理解這個概念嗎?盧策吾認(rèn)為不一定。目前計算機(jī)沒有真正全面地理解人類概念,還是比較低級別的AI。(記者 崔爽)