首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
ChatGPT作为21世纪第二个十年出现的最新和最强大的人工智能,其原理并没有脱离20世纪中期以来推动人工智能发展的两个重要理论——“信息论(概率)”和“控制论(反馈)”,这两个理论也极大地推动了传播学的发展。ChatGPT的概率性语言分析和拼凑式内容创新自古以来就是人类的文化生产方式,它对今天的“原创作者”制度提出了挑战。未来,ChatGPT会不断学习,变得更具创造性,进而对人类施加更多的创新压力。人类将能以ChatGPT训练伙伴和合作伙伴,不断掀起基于和超越“人工智能生产内容”(AIGC)的新的“浪漫主义运动”,最终变得越来越具有创造性。  相似文献   

2.
刘建生  李纪元 《南方论刊》2023,(5):16-18+27
人工智能技术在更新换代的过程中诞生了ChatGPT,在增进人类福祉的同时也产生了追责困难与伦理失范风险、价值失衡不断增大、技术高度异化等诸多安全风险。因此,本论文试图以ChatGPT为视角,对ChatGPT所带来的优势和弊端进行全面分析,并结合人工智能安全风险进行描述,探索协同治理人工智能安全风险的途径。要推动人工智能安全风险的协同治理,必须建立一个以国家为主体,由技术专家、社会组织、科研机构和社会大众组成的“自我治理体系”。然后,进一步强化协同治理条件,增强协同治理参数,提高其治理效率,从而推动人工智能安全风险治理的整体化,以更好的姿态迎接人工智能技术所带来的机遇与挑战。  相似文献   

3.
面对人工智能技术的重大突破,尤其是ChatGPT等新一代人工智能在社会生活各个领域的广泛应用,审视、预判和防范ChatGPT类生成式人工智能的意识形态风险成为一个重要的理论课题。ChatGPT类生成式人工智能环境下的意识形态传播具有可塑性、可量化性、个性化和精准预测性等特点。ChatGPT类生成式人工智能介入意识形态传播的技术路径体现在技术与思想的耦合、预测性的算法推荐、个性化的话语创设和赋权性的网络传播等方面。ChatGPT类生成式人工智能介入意识形态传播会带来算法歧视、数据失真、算法监控和算法反噬等潜在的风险。应通过统筹科技伦理规制算法推荐、设计主流意识形态驾驭算法、协调传播主体与客体的价值需求、强化大数据技术检测与治理等,加强对ChatGPT类生成式人工智能意识形态风险的防控。  相似文献   

4.
人工智能正在重塑社会生活,其对知识创新的影响进而对学术职业的挑战值得认真探究。鉴于以ChatGPT为代表的人工智能在自然语言处理方面的显著进步,而语言既是人类的本质特征,也是知识创新的操作系统,本研究以ChatGPT为例从知识创新视角分析人工智能取代人类工作的可能性。研究通过概念分析,进而从创新意向、创新水平与特点、创新伦理三个维度,讨论人类学术工作被机器替代或影响的现实可能性,并对ChatGPT进行测试,验证人工智能承担知识任务的实际效果。研究认为,人工智能不具创新意向,因此知识创新任务仍需由人类发起、主导和审查;在创新水平上,人工智能在承担组合性创新任务中优势与缺陷并存,在承担探索性创新任务上表现最好但难掩瑕疵,它根本上不能胜任变革性创新任务;在创新伦理上,人工智能不具备独立的伦理判断能力而是受制于人类植入机器的代码。相较于其在知识创新方面的表现,当前人工智能在创新伦理方面的表现更弱,无法代替人类,反而为人类知识分子提出了新的思考课题和任务。尽管如此,人工智能正深刻影响着人类的学术生活,人要养成与人工智能有效合作的能力,包括人类智能与机器智能融合的科研思维、设计和操作能力,以及对其...  相似文献   

5.
人类的知识图谱是基于二值化的逻辑框架的,基于这种框架的人类知识归赋活动自然能够在“知”与“无知”之间划出清楚的界限。经由大量语元“预训练”而运作的ChatGPT至多只能做到对人类知识图谱的一种统计学模拟,这就在根底上使得其难以避免“机器幻想”问题。不过,只要对ChatGPT的基础原理与技术极限有清楚的意识,学术界依然可以利用ChatGPT大大提高科研效率。在学术专家给以积极语言提示的前提下,ChatGPT能够在展现具体科研路线图方面成为人类的学术参谋。ChatGPT的出现显然会倒逼我国的学术培养机制更多关注学者宏观知识图谱构建力的培养,并刺激中国的人工智能界开发能够弥补ChatGPT缺陷的通用人工智能产品。  相似文献   

6.
王子威 《东岳论丛》2024,(1):125-135
以ChatGPT为代表的大语言模型由于其在自然语言处理方面展现的强大能力而引起多方深切关注。人工智能能否“理解”自然语言以及这种“理解”与人类的理解有何不同?从这一问题出发,需要详解基于人工神经网络架构的大语言模型的语言处理技术过程,深入探寻人与语言的关系,揭示在人工智能将语言视为工具性数据和人类将语言视为存在性中介二者之间有着根本区别。语言作为工具所带来的客观性闭锁和语言作为存在所展开的生成性活力之间的区别决定着人工智能的“理解”和人类的理解完全不同。人工智能将语言视为工具性符号是基于科学的认识论而欠缺一定的时间和历史维度,对数理逻辑的依赖和与事物现实的割裂极易导向一种为适应标准化人工语言而损害创造性自然语言的技术异化。面对得益于巨大算力而飞速发展的人工智能,人类的出路是在安全利用工具的同时依然保有着对个体有限性的自觉,依靠语言和经验的连接,坚守理解和时间的统一,也正是在这种语言和理解的存在性中显现着一条可从容应对技术异化的路径。  相似文献   

7.
张爱军 《学术界》2023,(4):61-71
人与ChatGPT交互会给政治带来量和质的变化,形成“双身一头”新政治趋向、塑造新民主形态、产生新政治社会逻辑。“双身一头”新政治趋向、新民主形态与新政治社会逻辑三者之间相互渗透、相互影响,有构建政治生态新领域和新格局的可能性和现实性。人与ChatGPT交互既给政治带来了风险,也给政治带来了新机遇。从发展趋势看,人与ChatGPT交互风险大于机遇,需要建立联通传统、现实和未来的机制,及时化解ChatGPT带来的政治风险。  相似文献   

8.
ChatGPT的出现代表了新一代生成式人工智能的重要进展,从马克思主义哲学来看,更是超越马克思本人所处时代的“新事物”,但这并不意味着马克思主义哲学无法成为ChatGPT等新一代人工智能在“信息文明”之下的借鉴,反而是马克思主义哲学提出的“生产力—生产关系”“经济基础—上层建筑”的基本原理,在人工智能这一新事物中得到了进一步的发展,ChatGPT在促进生产力发展、改变生产关系、转变经济基础、重构上层建筑等方面都体现了马克思主义哲学的映照。同时,ChatGPT依托于“信息文明”这一背景,在消除剥削、消除异化劳动以及实现人的自由发展等方面也在新时代回应了马克思主义哲学。然而,我们也应当根据马克思主义哲学所赋予的人的基本地位,对ChatGPT可能的发展方向进行反思,要避免在“信息文明”的人工智能技术中可能出现的人的“动物性懒惰”、人的“创造性劳动”机会的丧失,以及在人工智能对闲暇空间的占据中可能导致的人的理性基础动摇。以马克思主义哲学观照“信息文明”,并以之作为ChatGPT的借鉴,促使ChatGPT向马克思主义的回归,是现代社会的必然要求。  相似文献   

9.
ChatGPT类生成式人工智能在海量的数据、优质的算法与强大的算力支撑下能够实现多项技术赋能。但ChatGPT类生成式人工智能是否能够适用到智慧司法领域,以及在何种程度上将其嵌入,尤其是该项技术在赋能智慧法院建设过程中的边界如何,这对于深层次建设智慧法院具有重要的前提性意义。ChatGPT类生成式人工智能技术通过审判活动的智能化运用,可促进可视正义的实现;通过诉讼服务的可及性,可实现司法为民理念;通过公平与效率的动态平衡,可实现能动司法目标。然而,ChatGPT类生成式人工智能在带来上述诸多技术红利的同时,也引发了一系列新的风险,具体可以划分为由数据“幻觉性”引发的一般风险、由技术垄断性导致的重要风险以及由数据不可控产生的核心风险。对这些风险,应根据不同的风险特征采取相应的规制路径:可以通过对训练数据库的标准化构建以实现数据的“幻觉性”规制,通过辅助性原则的引入而实现技术规制,通过对服务提供者科加义务以实现对数据不可控的数据规制。即运用数据“幻觉性”规制、技术规制与数据规制,实现对ChatGPT类生成式人工智能技术嵌入的一般风险、重要风险与核心风险的防范,以期完成ChatGPT类生成式人工智能技术嵌入智慧法庭建设的风险最小化与技术赋能最大化,最终实现该项技术高质量赋能智慧法院建设。  相似文献   

10.
肖峰 《学术界》2023,(4):52-60
生成式人工智能和数字劳动之间具有相互建构的双向关联性。以ChatGPT为代表的生成式人工智能作为数字劳动的新产物,是包括专业人员和非专业人员多方面的数字劳动协同创构的成果,它一经出现,就成为数字劳动的新工具或新平台,形成“生成式人工智能介导的数字劳动”,使数字劳动具有了自动高效、人机互动、更加个性和人性化、更富拓展性和创造性等新特征,以至于革命性地建构了数字劳动新形态。生成式人工智能同时也给数字劳动带来了内容过载、数字鸿沟、机器换人等新挑战,需要在积极应对这些挑战中合理而有效地使用这一新型的数字劳动工具,以维持人类数字劳动的健康和可持续的发展。  相似文献   

11.
ChatGPT热潮下的教育伦理是ChatGPT等人工智能技术在教育领域开发、应用与治理过程中,教育智能体——教育参与者与智能机器——应该遵循的道德关系、伦理准则及行为规范。教育“善”是人工智能时代教育伦理的内在属性和集中彰显。然而,随着ChatGPT等人工智能技术与教育的融合,引发了一系列显在和潜在的教育伦理风险,表现为技术向“善”趋于异化、个体崇“善”走向衰微、社会趋“善”面临溃散等。为促进教育向“善”发展,有效防控ChatGPT运用于教育的伦理风险,应改良智能技术,加快人机双师协同育人;回归人性本真,敦促德性良知重返人心;匡扶社会正义,促进教育优质均衡发展。  相似文献   

12.
多模态大模型GPT-4的发布预示着人工智能生成式技术迎来了从弱人工智能跨入强人工智能的临界点,但技术进步与技术风险是相伴而生的。随着GPT-4数据容量的快速积累,数据质量、算力不断提高,知识产权侵权、生产虚假信息、数据歧视等风险与日俱增,对ChatGPT类模型的数据风险治理迫在眉睫。文章基于对生成式人工智能在数据安全领域的风险分析,比较GPT类模型数据的输入、访问以及内容生成等数据运行的风险及其特征,提出从数据源头、内部运行到数据生成的全链条风险防范机制,具体包括:构建保障数据源头“清澈”的“净水器”式合规技术;维护模型内部数据运行“可信根”监管的自治原则;构建国际协同联动式数据治理的协作框架等风险治理路径。  相似文献   

13.
随着通用人工智能时代的到来,以聊天机器人ChatGPT为代表的生成式人工智能将广泛应用于各大领域,并可能引发大量的传播侵权问题。聊天机器人如何承担法律责任也成为社会讨论的焦点。讨论聊天机器人的法律责任必然无法回避其是否具备法律人格的争议,目前主要有否定说、限制说和肯定说三种思想流派争论。依据我国现行相关法律对传播侵权的规制路径,聊天机器人不具备法律主体资格,适用传统民事侵权责任。然而,具有自主学习和强大内容生成能力的大模型ChatGPT的出现,对这一传统规制路径提出了挑战。通过双轨制构建聊天机器人的法律责任主体资格,可以解决我国传统侵权责任的规制困境。针对弱人工智能的聊天机器人,依旧采用传统侵权责任的规制路径;而对于增强人工智能和自主人工智能这类不可预测性较强且具备一定自主决策能力的聊天机器人,应当赋予其法律人格地位,并建立财产保障、安全技术保障与市场保障机制,以应对传统侵权法律无法应对的挑战。  相似文献   

14.
人工智能发展给人的主体性带来诸多挑战,主要体现在思维领域,ChatGPT表现出超强的“类人智能”;在技术领域,智能机器开始替代人类从事技术性工作,造成主客体颠倒;在平台消费领域,智能机器助力人类借助资本对人进行宰制。即便如此,人工智能并不会造成人的主体性的丧失,因为人工智能不具有建构社会关系的能力、不具有感性思维,人工智能系统正常运转无法离开人的参与。从本质上来说,人工智能是人的机体的延伸,是人类实践手段的外化,其被人类运用并对物质世界进行探索和改造,是对人类的生产方式和生活方式起到解放作用的一种工具。而意识是人脑的机能,人可以自主构建自己的社会关系,人才是主体。  相似文献   

15.
人工智能在推动人类进步与社会发展的过程中扮演着越来越重要的角色。人工智能在改变人类生产生活方式的同时,也不可避免地带来许多潜在风险和社会问题。人工智能的发展可能造成责任主体不清晰、潜在风险因素增多、人的异化现象加剧、道德主体不明确等问题。保障人工智能的安全使用,实现人工智能的良性健康发展,需要确立人工智能发展的基本伦理原则,加强对人工智能发展的价值规范和道德引导,制定人工智能伦理的相关制度。  相似文献   

16.
人工智能诞生以来的海量技术创新突破,催生其从一个边缘性学科成为学术界、产业界关注的焦点,并成为各国的关键战略技术,各国政府也相继出台了规范人工智能发展的相关规制政策以应对风险。近期,火爆出圈的“新物种”ChatGPT颠覆了人与技术的关系,其“自主学习”特质更是引发了学者们的种种担忧,围绕人工智能是否会威胁人类这一时代命题进行了深入探讨。而人工智能发展的政策规制面临由于技术的不确定所引发的社会风险、政策制定者预测未来所需的各种信息及知识不足的风险、政策滞后性风险等问题,使政策效果预期与运行结果产生偏差。因此,如何规范人工智能发展政策的决策程序并提升人工智能政策的理性水平是解决现代社会技术风险规制的重要课题。  相似文献   

17.
生成式人工智能通过对海量互联网数据的深度学习来生产信息,不可避免地带有数据提供主体所在时空的文化观念,因此,其生成的内容具有时空上的局限性和动态演化的特征。以大型语言模型ChatGPT和文心一言为比较研究对象,通过对真实的种族争议案例进行内容生成测试实验,从文化主体性角度探讨基于不同时空语料的生成式人工智能平台的价值观差异。结果表明,基于中文训练的文心一言语言模型并未展示出与ChatGPT明显区分的当代中国公众所持有的文化主体意识。该现象与自21世纪初开始积累的中文互联网语料的文化主体性时间演化特征相关。据此提出,通过对语言模型语料库进行时间轴加权或复制训练以调整“时空折叠”,能够对生成式人工智能平台的价值观导向进行干预。  相似文献   

18.
人工智能属于通用目的技术,不仅能够引发产业变革,而且能够催生新科学研究范式。随着以生成式人工智能为代表的通用人工智能的发展,人工智能的应用成为社会科学研究范式创新的前沿。数据的高维度、编程语言的强结构性和长程关联性、以参数形式表征的隐式知识库和预训练的结构重整带来新知识和模式发现,为社会科学研究创造出新的发展空间。同时,数据隐私、价值观和研究结论的“黑箱”化带来了人工智能在社会科学应用中的新挑战。如何把大模型的知识发现和基于研究者实践经验的探索式研究相结合,形成人机共生演进的知识生产方式,是社会科学研究中人工智能应用的方向。  相似文献   

19.
学术期刊是开展学术研究交流的重要平台,是传播思想文化的重要阵地,是促进理论创新和科技进步的重要力量。以ChatGPT为代表的人工智能的迅速发展,给期刊出版行业带来巨大的变革,在客观上使期刊编辑必须迎接挑战并迅速做出调整。在此背景下,基于人工智能技术开展期刊编辑工作所面临的基本现状,推进期刊编辑工作面对的现实问题以及做好期刊编辑工作的路径成为我们的必然思考。  相似文献   

20.
文章基于功能、关系与本体的HMC研究框架,对ChatGPT的应用及影响进行反思与探讨。从功能维度看,ChatGPT以“拟人际传播”的形态发挥部分人际传播功能,却无法替代人际交流,其可以无限靠近“拟人化表象”,但仍具有不可克服的固化模式与不可控偏向的风险。从关系维度看,ChatGPT生成的人机关系类型能够提供人际传播无法达成的使用满足,也将扩大伦理风险;AI的社会行动者属性仅存在于现象层面,与人类行动者具有本质差别,人机传播并不能真正实现主体间关系;人机传播对平台的赋权将加剧数字隐私风险和对用户的控制力,形成“人—AI—平台”三者间的多向控制关系;人机传播以及更大范围的智能传播生态正在构建全新的网络传播逻辑,预示着未来社交媒体文化的终结与连接逻辑的嬗变。从本体维度看,逐渐走向通用人工智能的ChatGPT要求对人的价值在哲学层面进行重思,人不再是万物的尺度,人与机器将走上双向影响、边界消融、互为尺度的未来。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号