Geoff Hinton speaking by video at MIT Technology Review's EmTech Digital conference in Boston

鈦媒體注:近日,鈦媒體特約作者、"Eye on AI"播主Craig Smith參加了由《麻省理工技術(shù)評論》雜志主辦的EmTech Digital 2023會議。在會議上,作為人工智能發(fā)展的開創(chuàng)性人物,杰弗里·埃弗里斯特·辛頓(Geoffrey Everest Hinton)一改往日對待AI的態(tài)度,描述了他所參與創(chuàng)造的技術(shù)給人們帶來的可怕景象,這讓科學(xué)界感到震驚。

“我敲響的警鐘與強(qiáng)大AI帶來的生存威脅有關(guān),它們可能會掌控一切。我曾經(jīng)認(rèn)為這種情況還遙不可及,但現(xiàn)在我認(rèn)為這是一個嚴(yán)重且相當(dāng)迫切的問題。”辛頓通過視頻在大會上發(fā)言時表示。

自半個世紀(jì)前嘗試從事木匠工作失敗以來,辛頓一直走在機(jī)器學(xué)習(xí)研究的最前沿。在經(jīng)歷了這段短暫的彎路之后,他又回到了與杰出祖輩們,喬治·布爾(George Boole,布爾邏輯之父)和喬治·埃弗里斯特(George Everest,英國印度測量總督以及世界最高峰的命名者)相一致的道路上。

辛頓與同事 Yoshua Bengio、Yann LeCun 共同獲得了2018年圖靈獎,他們發(fā)展了一種基于多層神經(jīng)網(wǎng)絡(luò)的人工智能,這些連接的算法模仿了大腦中的信息處理。這項被辛頓稱為“深度學(xué)習(xí)”的技術(shù)正在改變?nèi)蚪?jīng)濟(jì)。然而,正是這樣的成功讓他對其超越人類智能的潛力感到恐懼。

在短短20多年的時間里,深度學(xué)習(xí)從能識別圖像的簡單模型發(fā)展為像 OpenAI 的GPT-4這樣高度復(fù)雜的大型語言模型,這些模型吸收了大量的人類文本知識。上個月,正是GPT-4的強(qiáng)大促使成千上萬名關(guān)注AI的科學(xué)家簽署了一封公開信,呼吁暫停開發(fā)更強(qiáng)大的AI。然而,辛頓并未在這封公開信上簽名。

辛頓表示,阻止人工智能的進(jìn)一步發(fā)展幾乎是不可能的。

“如果你像我現(xiàn)在一樣重視人類的生存風(fēng)險,那么停止繼續(xù)發(fā)展這些東西或許是明智的。但我認(rèn)為,這樣做太天真了。”

在辛頓看來,沒有有什么方法能阻止這些AI的發(fā)展。我們不應(yīng)該停止開發(fā)它們,因為它們實在太有用了。

他認(rèn)為公開信呼吁暫停AI開發(fā)是荒謬的。

深度學(xué)習(xí)基于誤差反向傳播算法,幾十年前,辛頓就意識到這種算法可以用來讓計算機(jī)學(xué)習(xí)。諷刺的是,他在該算法上取得的第一個成功是在一個語言模型中,盡管這個模型比他現(xiàn)在所擔(dān)憂的要小得多。

他回憶說:“我們證明了它可以形成良好的內(nèi)部表征,奇怪的是,我們是通過實現(xiàn)一個微型語言模型做到這一點(diǎn)的。它有著僅包含六個成分的嵌入向量,訓(xùn)練集有112個樣本,但它是一個語言模型,試圖預(yù)測一串符號中的下一個術(shù)語。”

辛頓指出,GPT-4擁有約一萬億個神經(jīng)連接,盡管人腦擁有大約100萬億個連接,但它所掌握的知識仍然超過任何一個人類。“它在僅僅一萬億個連接中獲取大量知識的能力遠(yuǎn)遠(yuǎn)超過我們所擁有的。反向傳播算法可能比我們現(xiàn)有的學(xué)習(xí)算法更為優(yōu)越。”

辛頓一生的主要追求就是揭示大腦的工作原理,盡管他在這個領(lǐng)域取得了突破,但仍未達(dá)到自己的目標(biāo)。他將在這個過程中開發(fā)的強(qiáng)大算法和架構(gòu)稱為“有益的副產(chǎn)品”。然而,隨著最近大型語言模型的飛速發(fā)展,他擔(dān)憂這些副產(chǎn)品可能會失控。

“過去我一直認(rèn)為,我們所研發(fā)的計算機(jī)模型不如大腦,目標(biāo)是通過觀察改進(jìn)計算機(jī)模型所需的條件來更深入地了解大腦。”辛頓在英國的家中表示,“但在過去的幾個月里,我的看法徹底改變了。”

就在本周早些時候,辛頓從谷歌辭職,他自2013年起在那里工作,此前一年他取得了深度學(xué)習(xí)的重大突破。他表示,自己辭職的部分原因是因為到了退休的年紀(jì)——辛頓已經(jīng)75歲了,但他還想自由地表達(dá)自己的擔(dān)憂。

辛頓分享了他最近與GPT-4的一段互動經(jīng)歷。

“我告訴它,我希望兩年后家里所有的房間都是白色。目前我有一些白色房間,一些藍(lán)色房間和一些黃色房間,而黃色油漆會在一年內(nèi)逐漸褪成白色。那么,我應(yīng)該怎么做?它回答說,你應(yīng)該把藍(lán)色房間涂成黃色。”

“這種常識推理非常令人印象深刻,在AI領(lǐng)域?qū)崿F(xiàn)這一點(diǎn)一直非常困難。”他繼續(xù)說道,該模型正確理解了在這種情境下“褪色”的含義,并且明白了時間維度的概念。

這些模型的推理能力相當(dāng)于智商80或90的人類,但如果它們的智商達(dá)到210,會發(fā)生什么呢?

辛頓認(rèn)為,像GPT-4這樣的大型語言模型“會通過閱讀所有人寫過的小說,以及馬基雅維利關(guān)于如何操縱人的全部著作,從我們身上學(xué)習(xí)。結(jié)果,它們會變得非常擅長操縱我們,而我們卻察覺不到這一點(diǎn)。”

“如果你能操縱別人,你甚至可以在不親自去華盛頓的情況下,入侵那里的建筑,”這是在提及2021年1月6日發(fā)生在美國國會大廈的騷亂事件,當(dāng)時有人錯誤地聲稱民主黨“竊取”了2020年的大選。“聰明的事物可能會愈發(fā)聰明,以至于我們無法應(yīng)對,”

辛頓表示,我們需要進(jìn)行更多研究,以了解如何控制AI,而非讓AI控制我們。

“我們希望找到一種方法,確保即使AI比我們更聰明,它們也能為我們帶來好處——這就是所謂的對齊問題,”他說,“我希望能找到一個簡單的解決方案來應(yīng)對這個問題,但實際上我沒有。”

辛頓表示,設(shè)置“防護(hù)欄”和其他安全措施聽起來可行,但一旦AI系統(tǒng)遠(yuǎn)比人類更聰明,這些措施是否還有效。“想象一下你兩歲的孩子說,我爸爸做了我不喜歡的事情,所以我要給他制定一些規(guī)矩。”他暗示了人類和AI之間可能存在的智力差距。“你可能會設(shè)法在遵守這些規(guī)則的同時,依然實現(xiàn)自己想要的目標(biāo)。”

“我們是經(jīng)過演化的生物,我們有一些內(nèi)在的目標(biāo),我們很難擺脫。比如,我們會盡量避免傷害自己的身體,這就是痛苦存在的意義。但這些數(shù)字智能并沒有經(jīng)歷演化,而是由我們創(chuàng)造,所以它們并沒有這些內(nèi)在目標(biāo)。如果我們能將這些目標(biāo)植入其中,也許一切都會好起來。但我最大的擔(dān)憂是,遲早有人會把制定子目標(biāo)的能力植入到這些AI中……如果你賦予某個AI為實現(xiàn)其他目標(biāo)而制定子目標(biāo)的能力,它們很快就會意識到,獲得更多的控制權(quán)是一個非常好的子目標(biāo),因為這有助于實現(xiàn)其他目標(biāo)。”

他說,如果真的發(fā)生這種情況,“我們將面臨巨大的麻煩。”

“我認(rèn)為人們團(tuán)結(jié)起來,深入思考這個問題并尋找解決方案是非常重要的,”但對此,他并不樂觀。事實上,我們還不能確定是否存在解決方案。

“我覺得,人類有可能僅僅是智能演化過程中的一個過渡階段。”他表示。

辛頓指出,谷歌率先研發(fā)了大型語言模型,并對這項技術(shù)非常謹(jǐn)慎,因為該公司知道它可能導(dǎo)致嚴(yán)重的后果。但是,當(dāng)OpenAI和微軟決定推出這項技術(shù)時,谷歌實際上別無選擇,“你無法阻止谷歌與微軟展開競爭。”

辛頓在講話最后呼吁在控制這項技術(shù)方面進(jìn)行國際合作。

“我的一個希望是,由于我們放任AI控制一切對所有人都不利,我們可以讓美國和中國在這個問題上達(dá)成一致,就像我們在核武器問題上達(dá)成共識一樣,因為核武器對所有人都是危險的。在這個生存威脅問題上,我們都同處于一個戰(zhàn)船上。”

(本文首發(fā)鈦媒體App,作者 | Craig S. Smith)

本文系作者 Craig Smith 授權(quán)鈦媒體發(fā)表,并經(jīng)鈦媒體編輯,轉(zhuǎn)載請注明出處、作者和本文鏈接。
本內(nèi)容來源于鈦媒體鈦度號,文章內(nèi)容僅供參考、交流、學(xué)習(xí),不構(gòu)成投資建議。
想和千萬鈦媒體用戶分享你的新奇觀點(diǎn)和發(fā)現(xiàn),點(diǎn)擊這里投稿 。創(chuàng)業(yè)或融資尋求報道,點(diǎn)擊這里。

敬原創(chuàng),有鈦度,得贊賞

贊賞支持
發(fā)表評論
0 / 300

根據(jù)《網(wǎng)絡(luò)安全法》實名制要求,請綁定手機(jī)號后發(fā)表評論

登錄后輸入評論內(nèi)容
  • 挺有深度的,不錯??

    回復(fù) 2023.06.08 · via iphone
  • 只要它不會騙人就沒事,就怕它自己開始騙沒發(fā)覺, 如果不會騙人,不給他造腳,電源一關(guān)。什么都沒發(fā)生。

    回復(fù) 2023.05.10 · via netease
  • 高學(xué)歷廢材太多

    回復(fù) 2023.05.09 · via netease
  • 1. 人類: 肉身的能力終歸是有限的 2. 機(jī)器:隨著科學(xué)技術(shù)的發(fā)展, 其能力是無限的 3. 未來的人類: 也許是肉身和非肉身的 緊密結(jié)合 ??

    回復(fù) 2023.05.09 · via iphone
  • 科學(xué)的發(fā)展在促成“人類命運(yùn)共同體”的形成,或者說,“人類命運(yùn)共同體”并不是一個政治主張,而是,現(xiàn)實發(fā)展的必然要求。

    回復(fù) 2023.05.09 · via pc
  • 這些模型的推理能力相當(dāng)于智商80或90的人類,但如果它們的智商達(dá)到210,會發(fā)生什么呢?

    回復(fù) 2023.05.09 · via android
  • 在國際方面要多多合作啊

    回復(fù) 2023.05.09 · via pc
  • 阻止人工智能的進(jìn)一步發(fā)展幾乎是不可能的

    回復(fù) 2023.05.09 · via android
  • 很精彩的內(nèi)容

    回復(fù) 2023.05.09 · via netease
  • 我不反對我是個過渡產(chǎn)品,但我希望未來的我還是我,卻擁有 ai 的能力附加。

    回復(fù) 2023.05.09 · via netease
更多評論

快報

更多

14:59

部分娃哈哈宏勝工廠停產(chǎn),有工廠已放假

14:53

俄外長稱美謀求掌控全球能源市場

14:46

多晶硅價格繼續(xù)下跌,下游價格適當(dāng)回穩(wěn)

14:43

趙樂際分別會見新加坡總理黃循財、斯里蘭卡議長維克拉馬拉特納

14:39

趙樂際同中外企業(yè)家代表座談

14:36

體育概念異動拉升,舒華體育漲停

14:36

綠電板塊局部異動,寧波能源4天3板

14:35

澳大利亞總理:美以伊戰(zhàn)事沖擊澳能源供應(yīng)安全

14:32

日韓股市收跌

14:31

3月27日全國農(nóng)產(chǎn)品批發(fā)市場豬肉平均價格為15.73元/公斤,比昨天上升0.5%

14:28

海爾新能源增資至4億,增幅約18%

14:25

日本超長期國債收益率繼續(xù)走高

14:14

馬斯克:人工智能將在3年后超過所有人類智能

14:01

滬深京三市成交額超1.5萬億元,較上日此時縮量725億元

13:56

麥格理警告:伊朗戰(zhàn)事若持續(xù)到6月,油價或升至200美元

13:52

中證協(xié)啟動《區(qū)域性股權(quán)市場自律管理與服務(wù)規(guī)范(試行)》評估工作,制度優(yōu)化信號明確

13:46

廣西:積極推進(jìn)中越跨境鐵路、深水航道和大能力碼頭項目、內(nèi)河工程和集疏運(yùn)體系等建設(shè)

13:39

工業(yè)氣體概念拉升,凱美特氣漲停

13:39

現(xiàn)貨黃金日內(nèi)漲幅擴(kuò)大至2%,報4470.58美元/盎司

13:34

都市麗人:2025年公司擁有人應(yīng)占利潤1.23億元,同比下降2.18%

20

掃描下載App