會上,張鈸院士以《語言大模型(ChatGPT)的本質》為題,對聊天(對話)機器人的發(fā)展歷史進行回顧,對語言大模型究竟要解決什么問題進行了探討。張院士通過實例系統(tǒng)介紹了以微軟小冰、IBM沃森等為代表的第一、二代聊天機器人的能力,以及以ChatGPT為代表的最新一代語言模型的語言生成能力,分析了人工智能實現對話或聊天的原理和本質,闡釋了ChatGPT的性能、原理和局限性。
“ChatGPT語言跟人類自然語言生成原理最本質的區(qū)別是,ChatGPT生成的語言是外部算法驅動的,而人類的語言是由自身主觀意圖驅動的。GPT是將人類投喂的數據作為其接收的‘知識’來處理的,受制于程式算法的GPT,在處理這些外來‘知識’時,實際是不具備反思能力的?!闭劶耙訡hatGPT為代表的AI大模型局限性,張鈸表示,機器的“神經學習”并無相應的人類的心理過程,而只是機械的文字和數字符號的計算。
報告中他也補充稱,隨著數據、算法等核心要素的不斷升級迭代,生成式大模型未來可能會突破人為限制,提升到自主創(chuàng)作層次,從理論上實現高質量內容生態(tài)的無限供給。但當前重要的是,需要對ChatGPT語言進行深入的研究和理解,而不是一味追求機器算法語言與人類自然語言的“對齊”。在張鈸看來,某種程度上,生成式大模型正是機器認知智能發(fā)展到當下階段的典型代表,這類智能和人類智能各有優(yōu)劣,而在做大量“對齊”的治理后,大模型智能所生成的文本多維度和豐富性反而會下降,并不利于機器“智能涌現”的創(chuàng)新。他相信,只有人機認知協(xié)作才有可能應對未來社會或將帶來的算力和認知挑戰(zhàn)。
他同時還強調了對語言大模型實施必要的道德倫理監(jiān)管及治理的重要性。