3月4日上午消息,今年全國兩會前夕,全國政協(xié)委員、360集團創(chuàng)始人周鴻祎圍繞DeepSeek與網(wǎng)絡(luò)安全問題進行闡述。
周鴻祎表示,要正確地認識AI的安全問題,不能夸大也不能忽視,F(xiàn)在有一種趨勢,主要是OpenAI這么干,美國的頭5家AI公司都是想搞壟斷和封閉的,所以他們往往會夸大AI不安全的問題作為他們不開源的借口。他們往往希望政府加強管制,加強管制之后,后來者就沒有機會趕上他們。在這種背景下談AI安全,這種人屬于耍流氓。我一直認為,不發(fā)展是最大的不安全,你必須要抓住AI這次工業(yè)革命的機會,提升生產(chǎn)力,包括讓科技普惠在每個人身上。
周鴻祎提到AI引發(fā)的“幻覺”問題,他表示,AI的安全和業(yè)務(wù)的發(fā)展,我認為同步可以走,應(yīng)該能找到解決方法。但對AI的安全,不要籠統(tǒng)地談AI安全,因為什么事兒一籠統(tǒng)地談就很難有解了,都是大而化之的東西。你剛才提的幾個問題,分解之后都是可解的。比如AI的“幻覺”問題,我認為,大家對“幻覺”問題有很多誤解,我認為,幻覺問題不完全是AI安全問題。因為“幻覺”是大模型固有的特點,沒有幻覺的大模型就不聰明了,幻覺是大模型,像人一樣有智力的體現(xiàn)。DeepSeek的幻覺是很嚴重的,所以你們用它寫文章才覺得確實像人。為什么原來的幻覺不嚴重,它沒有想象力,幻覺是想象力和創(chuàng)造力的基礎(chǔ)。