摘 要: | 人类的知识图谱是基于二值化的逻辑框架的,基于这种框架的人类知识归赋活动自然能够在“知”与“无知”之间划出清楚的界限。经由大量语元“预训练”而运作的ChatGPT至多只能做到对人类知识图谱的一种统计学模拟,这就在根底上使得其难以避免“机器幻想”问题。不过,只要对ChatGPT的基础原理与技术极限有清楚的意识,学术界依然可以利用ChatGPT大大提高科研效率。在学术专家给以积极语言提示的前提下,ChatGPT能够在展现具体科研路线图方面成为人类的学术参谋。ChatGPT的出现显然会倒逼我国的学术培养机制更多关注学者宏观知识图谱构建力的培养,并刺激中国的人工智能界开发能够弥补ChatGPT缺陷的通用人工智能产品。
|