4月20日?qǐng)?bào)道 據(jù)英國(guó)《明星日?qǐng)?bào)》網(wǎng)站4月18日?qǐng)?bào)道,谷歌公司的老板說(shuō),因?yàn)閾?dān)心人工智能的危害,他現(xiàn)在“夜不能寐”。
谷歌首席執(zhí)行官孫達(dá)爾·皮柴承認(rèn),該公司自家的人工智能(AI)未經(jīng)訓(xùn)練就教會(huì)自己說(shuō)外語(yǔ)后,就連他也無(wú)法“完全了解”這個(gè)AI了。
此前,包括埃隆·馬斯克在內(nèi)的科技界大佬都呼吁為保護(hù)人類而停止廣泛使用AI。
現(xiàn)年50歲的皮柴說(shuō):“如果這項(xiàng)技術(shù)發(fā)展不當(dāng),可能造成非常大的危害。我們還沒(méi)有找到所有的答案,而這項(xiàng)技術(shù)正在快速發(fā)展!
他說(shuō):“我們有些想法,隨著時(shí)間的推移,我們理解它的能力會(huì)提高。但最先進(jìn)的技術(shù)就來(lái)自這一領(lǐng)域。”
他承認(rèn),谷歌聊天機(jī)器人“巴德”中的“漏洞”——比如它如何能夠教會(huì)自己就連程序員都沒(méi)有預(yù)料到的技能——仍在研究之中。
美國(guó)加利福尼亞大學(xué)伯克利分校的斯圖爾特·拉塞爾教授說(shuō):“從長(zhǎng)遠(yuǎn)看,采取明智的預(yù)防措施是降低這些風(fēng)險(xiǎn)所需付出的微小代價(jià)。”
與此同時(shí),舊金山的AI投資人阿拉姆·薩貝提說(shuō),他對(duì)這項(xiàng)技術(shù)感到“害怕”,因?yàn)樗皩?duì)人類而言比核武器更危險(xiǎn)”。
他在推特上寫(xiě)道:“我很害怕通用人工智能(AGI)。不明白為什么人們能這么無(wú)視這些風(fēng)險(xiǎn)。我是兩家AGI公司的投資人,還跟在‘深層思維’公司、開(kāi)放人工智能研究中心(OpenAI)、Anthropic公司和谷歌大腦項(xiàng)目工作的幾十名研究人員是朋友。他們幾乎所有人都感到擔(dān)憂!
他援引馬斯克2018年發(fā)出的警告稱:“我們正在用人工智能召喚魔鬼。記住我的話,人工智能比核武器危險(xiǎn)得多!