首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
ChatGPT和“文心一言”作为生成式人工智能的新产品,造就了人机合作进行知识生产(尤其是学术研究)的新形式。以探究数字劳动的含义为例,以人机问答的方式获得机器智能提供的答案,这展现了ChatGPT和“文心一言”可以辅助人进行学术研究的新功用,从而形成人机合作的知识生产新模式。在这种模式中,机器智能在提供资源的概括和简单的文本生成方面对人的知识生产提供高效的帮助,并通过人机问答的互动使这种帮助更具针对性和时效性。通过对机器生成内容的具体考察,深入体验这两款生成式人工智能新产品的实际使用,也可以发现其明显的不足和局限,尤其体现在:由于受限于训练数据集和能够进入的学术资源数据库,其归纳既有知识成果的全面性和准确性与人的要求还有较大的差距,更不能替代人去进行原创性的知识创新。鉴于此,需要理性地看待智能机器为人类的知识生产所能起到的功用,既要前瞻性预测这一新型的人机协同方式对人类未来知识生产走向的巨大影响和积极意义,也要根据现阶段生成式人工智能的工作机制,发挥好人在使用提示词等方面的作用,通过人的积极作为来调动智能辅助系统的潜能,在人机之间既有合理的分工又有融洽的互补式合作,来助力学术研究型知识生产活动的开展,并对人作为知识生产的主体始终保持足够的警醒。  相似文献   

2.
面对人工智能技术的重大突破,尤其是ChatGPT等新一代人工智能在社会生活各个领域的广泛应用,审视、预判和防范ChatGPT类生成式人工智能的意识形态风险成为一个重要的理论课题。ChatGPT类生成式人工智能环境下的意识形态传播具有可塑性、可量化性、个性化和精准预测性等特点。ChatGPT类生成式人工智能介入意识形态传播的技术路径体现在技术与思想的耦合、预测性的算法推荐、个性化的话语创设和赋权性的网络传播等方面。ChatGPT类生成式人工智能介入意识形态传播会带来算法歧视、数据失真、算法监控和算法反噬等潜在的风险。应通过统筹科技伦理规制算法推荐、设计主流意识形态驾驭算法、协调传播主体与客体的价值需求、强化大数据技术检测与治理等,加强对ChatGPT类生成式人工智能意识形态风险的防控。  相似文献   

3.
ChatGPT类生成式人工智能在海量的数据、优质的算法与强大的算力支撑下能够实现多项技术赋能。但ChatGPT类生成式人工智能是否能够适用到智慧司法领域,以及在何种程度上将其嵌入,尤其是该项技术在赋能智慧法院建设过程中的边界如何,这对于深层次建设智慧法院具有重要的前提性意义。ChatGPT类生成式人工智能技术通过审判活动的智能化运用,可促进可视正义的实现;通过诉讼服务的可及性,可实现司法为民理念;通过公平与效率的动态平衡,可实现能动司法目标。然而,ChatGPT类生成式人工智能在带来上述诸多技术红利的同时,也引发了一系列新的风险,具体可以划分为由数据“幻觉性”引发的一般风险、由技术垄断性导致的重要风险以及由数据不可控产生的核心风险。对这些风险,应根据不同的风险特征采取相应的规制路径:可以通过对训练数据库的标准化构建以实现数据的“幻觉性”规制,通过辅助性原则的引入而实现技术规制,通过对服务提供者科加义务以实现对数据不可控的数据规制。即运用数据“幻觉性”规制、技术规制与数据规制,实现对ChatGPT类生成式人工智能技术嵌入的一般风险、重要风险与核心风险的防范,以期完成ChatGPT类生成式人工智能技术嵌入智慧法庭建设的风险最小化与技术赋能最大化,最终实现该项技术高质量赋能智慧法院建设。  相似文献   

4.
多模态大模型GPT-4的发布预示着人工智能生成式技术迎来了从弱人工智能跨入强人工智能的临界点,但技术进步与技术风险是相伴而生的。随着GPT-4数据容量的快速积累,数据质量、算力不断提高,知识产权侵权、生产虚假信息、数据歧视等风险与日俱增,对ChatGPT类模型的数据风险治理迫在眉睫。文章基于对生成式人工智能在数据安全领域的风险分析,比较GPT类模型数据的输入、访问以及内容生成等数据运行的风险及其特征,提出从数据源头、内部运行到数据生成的全链条风险防范机制,具体包括:构建保障数据源头“清澈”的“净水器”式合规技术;维护模型内部数据运行“可信根”监管的自治原则;构建国际协同联动式数据治理的协作框架等风险治理路径。  相似文献   

5.
以ChatGPT为代表的大语言模型的崛起,标志着人类向着通用人工智能迈出了巨大的一步,给人类带来更多的便利,但也将引发一些潜在风险。2023年4月11日国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》。研究者应对ChatGPT等人工智能语言模型进行负责任的创新,即在创新的同时对模型可能带来的风险具有前瞻性和更加深入的了解。针对ChatGPT存在的缺陷,我们要仔细考量大语言模型应用可能给人类带来的安全性问题,从使用者、研究者、监督者三个角度分析降低ChatGPT造成危害的可能对策,并给出法律规制建议,从而促进更公平、更负责的大语言模型的发展。  相似文献   

6.
以大语言模型为底层技术、以社交界面为互动方式的生成式人工智能将“文本到文本”的转换工具以一种在社会框架支撑下进行的人机交互方式展现了出来。这是“一般智力”/“公共智力”在数字时代的最新发展形态:公共智能(Public Intelligence)。然而,在这个被构造出来的全新公共领域中,存在着一些风险:一方面,以ChatGPT为代表的生成式人工智能超越了空间区域的限制,在新的公共场域内塑造了“数字化的普遍理性”;另一方面,由于AIGC缺乏自我标注,会重新作为数据来源进入新的生成,从而使知识的对象在不断自我引证的技术条件下被凝固。AIGC中的知识型结构是将符号之序通过AI技术的加持达到极化的表现,它通过算法塑造了一种纯粹的认识形式的领域。并且,过度依赖AIGC的知识生产还会塑造出知识拟象。这就需要调试人工智能技术和人的主体创造性之间的关系,从公共性入手促进人机和谐发展和强互惠。  相似文献   

7.
ChatGPT作为21世纪第二个十年出现的最新和最强大的人工智能,其原理并没有脱离20世纪中期以来推动人工智能发展的两个重要理论——“信息论(概率)”和“控制论(反馈)”,这两个理论也极大地推动了传播学的发展。ChatGPT的概率性语言分析和拼凑式内容创新自古以来就是人类的文化生产方式,它对今天的“原创作者”制度提出了挑战。未来,ChatGPT会不断学习,变得更具创造性,进而对人类施加更多的创新压力。人类将能以ChatGPT训练伙伴和合作伙伴,不断掀起基于和超越“人工智能生产内容”(AIGC)的新的“浪漫主义运动”,最终变得越来越具有创造性。  相似文献   

8.
肖峰 《学术界》2023,(4):52-60
生成式人工智能和数字劳动之间具有相互建构的双向关联性。以ChatGPT为代表的生成式人工智能作为数字劳动的新产物,是包括专业人员和非专业人员多方面的数字劳动协同创构的成果,它一经出现,就成为数字劳动的新工具或新平台,形成“生成式人工智能介导的数字劳动”,使数字劳动具有了自动高效、人机互动、更加个性和人性化、更富拓展性和创造性等新特征,以至于革命性地建构了数字劳动新形态。生成式人工智能同时也给数字劳动带来了内容过载、数字鸿沟、机器换人等新挑战,需要在积极应对这些挑战中合理而有效地使用这一新型的数字劳动工具,以维持人类数字劳动的健康和可持续的发展。  相似文献   

9.
肖峰 《学术研究》2023,(10):50-57+2+177
知识生产是智能时代人类的“主业”,以ChatGPT为代表的生成式人工智能正在深度地介入和改变人类知识生产的方式和内涵,使得“三阶知识生产”在既有一阶和二阶知识生产的基础上走向前台。三阶知识生产开辟了文本自动生成和人机对话等智能交互的新方式,可以对人在知识生产中提升效率以及获取灵感等提供强大的帮助,还可以取代人的一些传统的二阶知识生产活动,并为提升一阶知识生产能力拓展了新的路径。通过三阶知识来定位生成式人工智能的认识论功能,有助于合理地评价以ChatGPT为代表的知识生产新工具的价值和意义。  相似文献   

10.
张涛甫 《学术月刊》2024,(2):149-157
以人工智能为代表的数字技术推动了网络舆论环境的生态化转型,使得网络舆论热点的酝酿、发展与爆发环节发生了结构性的变化,进而为智能媒体时代个体的信息接受与观点表达设置了新的“技术—文化逻辑”。具体而言,生成式人工智能技术借由自动化信息生产、精准化算法推荐与情感化交互对话呼应了网络舆论在场景、主体与内容等维度上的发展趋势,在任务型知识生产与辅助型角色层面为网络舆论研究理论带来了新的想象空间。利用人工智能技术进行舆论治理,须满足两个前置条件:确立技术向善的价值立场;科学把握人工智能时代的舆论生成、演化规律。  相似文献   

11.
生成式人工智能的快速发展正深刻改变着高等教育,也为新文科建设带来了巨大的机遇和挑战。在教育领域,生成式人工智能将引发教育格局、教育目标、教育理念、教学方法、教学内容等的巨大变革;在科研方面,生成式人工智能将对未来的学术范式、研究方法、研究问题以及具体研究工作的开展带来创新。但是,生成式人工智能在生成内容的准确性、生成方式的合法性以及技术应用造成的依赖性等方面存在风险。尽管还有很多弊端,但不可否认的是生成式人工智能与新文科建设深度融合的时代已经到来。哲学社会科学工作者应以友好而谨慎的态度充分合理地利用新技术,从文科学生的培养方案、教学主体的素养提升、学科建设的交叉融合和技术规范的合理完善等方面助推人工智能与新文科建设的深度融合。既要学习接受新技术和新问题,也要谨防新风险和新挑战。  相似文献   

12.
随着通用人工智能时代的到来,以聊天机器人ChatGPT为代表的生成式人工智能将广泛应用于各大领域,并可能引发大量的传播侵权问题。聊天机器人如何承担法律责任也成为社会讨论的焦点。讨论聊天机器人的法律责任必然无法回避其是否具备法律人格的争议,目前主要有否定说、限制说和肯定说三种思想流派争论。依据我国现行相关法律对传播侵权的规制路径,聊天机器人不具备法律主体资格,适用传统民事侵权责任。然而,具有自主学习和强大内容生成能力的大模型ChatGPT的出现,对这一传统规制路径提出了挑战。通过双轨制构建聊天机器人的法律责任主体资格,可以解决我国传统侵权责任的规制困境。针对弱人工智能的聊天机器人,依旧采用传统侵权责任的规制路径;而对于增强人工智能和自主人工智能这类不可预测性较强且具备一定自主决策能力的聊天机器人,应当赋予其法律人格地位,并建立财产保障、安全技术保障与市场保障机制,以应对传统侵权法律无法应对的挑战。  相似文献   

13.
生成式人工智能通过人机交互的方式为新闻业带来了前所未有的可能性,它为新闻主体赋能:数据驱动采集与自动内容生成、多重视角新闻与创新叙事形式以及量身定制新闻与多维交互模式。然而,这项技术的迅速发展也带来了一系列主体危机,如削弱专业价值、冲击业务模式,影响新闻职业、贬低工作价值,加剧权力不平等、植入特定价值观,污染信息生态、引发信任危机等。为了应对主体危机,新闻编辑部应制定使用指南和规范伦理原则;新闻工作者需调整角色定位,发挥跨界整合能力;新闻用户应强化数字媒体素养,从而推动人机关系从共存、协作向“共情和共同进化”发展。  相似文献   

14.
人工智能属于通用目的技术,不仅能够引发产业变革,而且能够催生新科学研究范式。随着以生成式人工智能为代表的通用人工智能的发展,人工智能的应用成为社会科学研究范式创新的前沿。数据的高维度、编程语言的强结构性和长程关联性、以参数形式表征的隐式知识库和预训练的结构重整带来新知识和模式发现,为社会科学研究创造出新的发展空间。同时,数据隐私、价值观和研究结论的“黑箱”化带来了人工智能在社会科学应用中的新挑战。如何把大模型的知识发现和基于研究者实践经验的探索式研究相结合,形成人机共生演进的知识生产方式,是社会科学研究中人工智能应用的方向。  相似文献   

15.
金庚星 《学术界》2023,(4):72-79
以大型语言模型(LLMs)为代表的生成式人工智能的出现在物质技术、内容模态、组织制度与媒介性四个面向上对当前的媒介理论构成了挑战。在海德格尔的“媒介即语言”、曼诺维奇的“媒介即软件”的基础上,大型语言模型之后的媒介理论变革可以进一步通过“媒介即模型”来阐明。在人工智能的语境中,“媒介即模型”意味着一切软件都会被接入大模型进行改造。这一观点为媒介理论注入了面向机器学习时代的新解释力。在“媒介即模型”的理论视野下,所有人类行动者都参与到了一个共同信息库的编码之中,并和其他过去的、同时的,或将来的交流行动者共同塑造一个共享的社会信息系统。作为现代社会中最具影响力的知识生产制度之一,媒介系统与社会系统之间的关系范式也将从内容模态对现实世界的知识表征,转向语言模型对现实世界的计算生成。从更一般的社会科学知识论层面来看,“人—模型”之间相互叠加增强的交互方式预示了“人—模型”共生自主系统的崛起,并进一步涌现出群体智能,这是理解生成式人工智能时代社会认识论转型的关键。  相似文献   

16.
人工智能发展给人的主体性带来诸多挑战,主要体现在思维领域,ChatGPT表现出超强的“类人智能”;在技术领域,智能机器开始替代人类从事技术性工作,造成主客体颠倒;在平台消费领域,智能机器助力人类借助资本对人进行宰制。即便如此,人工智能并不会造成人的主体性的丧失,因为人工智能不具有建构社会关系的能力、不具有感性思维,人工智能系统正常运转无法离开人的参与。从本质上来说,人工智能是人的机体的延伸,是人类实践手段的外化,其被人类运用并对物质世界进行探索和改造,是对人类的生产方式和生活方式起到解放作用的一种工具。而意识是人脑的机能,人可以自主构建自己的社会关系,人才是主体。  相似文献   

17.
如何利用生成式人工智能助力社会科学研究是近期社会科学研究者们共同关心的重要议题之一。在此背景下,从一般社会科学研究的实践需求出发,通过具体的实例考察生成式人工智能在社会科学研究的理论、方法和研究偏误三个方面的具体表现。生成式人工智能对于总结和复现现有资料具有很大的优势,以其强大算力来预处理海量在线资料,可以帮助研究者节省信息搜索的时间成本和精力成本。但是,生成式人工智能难以对既有理论进行“阅读”后的“理解”,同时亦不擅长进行方法层面的优劣对比和新分析工具的开发。此外,在生成内容上也表现出明显的偏见或者误差。背靠人类既有资料积累的生成式人工智能可谓站在巨人肩膀上,但由于其本身缺乏成熟的能动创新能力,生成式人工智能在学术研究的意义上仍然是一位“初学者”。如何引导和培养这位“初学者”,是社会科学研究者需要思考和完成的任务。  相似文献   

18.
以ChatGPT为代表的生成式人工智能赋能思想政治教育是当前网络思想政治教育研究的前沿和热点。生成式人工智能作为科技工具嵌入思想政治教育,能够让教育者更加高效、系统地认识教育客体,使教育内容更加契合个性化、隐性化的目标,让教育方法更加注重过程性、具备前瞻性。然而,思想政治教育的重点是做“人”的工作,过度倚重人工智能可能会削弱思想政治教育的方向原则、求实原则和示范原则,进而影响思想政治教育主流价值传播、学生实事求是精神培养以及师生间思想交流和情感沟通。基于此,为适应生成式人工智能对思想政治教育带来的变革,促进二者深度融合发展,需要提升人机协同能力,强化思想政治教育主流价值引导;强化“把关人”角色,构建文明、规范的数字世界;注重思想政治教育的人文关怀,不仅要教育人更要培养人。  相似文献   

19.
历经数千年的人类知识生产活动,在转入平台化发展模式后走向了系统性变革,其生产主体、生产模式、生产倾向均发生嬗变,新近ChatGPT的应用进一步为平台化知识生产提供了人工智能生成的可行方案。平台化运行和AIGC的叠加使知识生产的不确定性增强、创新性减弱,对知识社会产生影响,也为知识生产实践带来众多问题:数据化逻辑使知识生产内容发生偏移,知识的本体变得不确定;商品化逻辑使知识生产呈现出货币化导向,屈服于商业利益;选择性逻辑使知识生产定制化,容易导致偏见甚至产生知识谬误。本文从智能主体规制与平台治理两个向度探讨AIGC下平台化知识生产的多路径调适,包括提前制定智能主体的适应性法律框架,建立“知识守门人”制度,建构知识内容的“内容—算法”综合审核体系。  相似文献   

20.
人类的知识图谱是基于二值化的逻辑框架的,基于这种框架的人类知识归赋活动自然能够在“知”与“无知”之间划出清楚的界限。经由大量语元“预训练”而运作的ChatGPT至多只能做到对人类知识图谱的一种统计学模拟,这就在根底上使得其难以避免“机器幻想”问题。不过,只要对ChatGPT的基础原理与技术极限有清楚的意识,学术界依然可以利用ChatGPT大大提高科研效率。在学术专家给以积极语言提示的前提下,ChatGPT能够在展现具体科研路线图方面成为人类的学术参谋。ChatGPT的出现显然会倒逼我国的学术培养机制更多关注学者宏观知识图谱构建力的培养,并刺激中国的人工智能界开发能够弥补ChatGPT缺陷的通用人工智能产品。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号