會(huì)上,張鈸院士以《語言大模型(ChatGPT)的本質(zhì)》為題,對聊天(對話)機(jī)器人的發(fā)展歷史進(jìn)行回顧,對語言大模型究竟要解決什么問題進(jìn)行了探討。張?jiān)菏客ㄟ^實(shí)例系統(tǒng)介紹了以微軟小冰、IBM沃森等為代表的第一、二代聊天機(jī)器人的能力,以及以ChatGPT為代表的最新一代語言模型的語言生成能力,分析了人工智能實(shí)現(xiàn)對話或聊天的原理和本質(zhì),闡釋了ChatGPT的性能、原理和局限性。
“ChatGPT語言跟人類自然語言生成原理最本質(zhì)的區(qū)別是,ChatGPT生成的語言是外部算法驅(qū)動(dòng)的,而人類的語言是由自身主觀意圖驅(qū)動(dòng)的。GPT是將人類投喂的數(shù)據(jù)作為其接收的‘知識(shí)’來處理的,受制于程式算法的GPT,在處理這些外來‘知識(shí)’時(shí),實(shí)際是不具備反思能力的。”談及以ChatGPT為代表的AI大模型局限性,張鈸表示,機(jī)器的“神經(jīng)學(xué)習(xí)”并無相應(yīng)的人類的心理過程,而只是機(jī)械的文字和數(shù)字符號(hào)的計(jì)算。
報(bào)告中他也補(bǔ)充稱,隨著數(shù)據(jù)、算法等核心要素的不斷升級(jí)迭代,生成式大模型未來可能會(huì)突破人為限制,提升到自主創(chuàng)作層次,從理論上實(shí)現(xiàn)高質(zhì)量內(nèi)容生態(tài)的無限供給。但當(dāng)前重要的是,需要對ChatGPT語言進(jìn)行深入的研究和理解,而不是一味追求機(jī)器算法語言與人類自然語言的“對齊”。在張鈸看來,某種程度上,生成式大模型正是機(jī)器認(rèn)知智能發(fā)展到當(dāng)下階段的典型代表,這類智能和人類智能各有優(yōu)劣,而在做大量“對齊”的治理后,大模型智能所生成的文本多維度和豐富性反而會(huì)下降,并不利于機(jī)器“智能涌現(xiàn)”的創(chuàng)新。他相信,只有人機(jī)認(rèn)知協(xié)作才有可能應(yīng)對未來社會(huì)或?qū)淼乃懔驼J(rèn)知挑戰(zhàn)。
他同時(shí)還強(qiáng)調(diào)了對語言大模型實(shí)施必要的道德倫理監(jiān)管及治理的重要性。