首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
肖峰 《学术研究》2023,(10):50-57+2+177
知识生产是智能时代人类的“主业”,以ChatGPT为代表的生成式人工智能正在深度地介入和改变人类知识生产的方式和内涵,使得“三阶知识生产”在既有一阶和二阶知识生产的基础上走向前台。三阶知识生产开辟了文本自动生成和人机对话等智能交互的新方式,可以对人在知识生产中提升效率以及获取灵感等提供强大的帮助,还可以取代人的一些传统的二阶知识生产活动,并为提升一阶知识生产能力拓展了新的路径。通过三阶知识来定位生成式人工智能的认识论功能,有助于合理地评价以ChatGPT为代表的知识生产新工具的价值和意义。  相似文献   

2.
ChatGPT类生成式人工智能在海量的数据、优质的算法与强大的算力支撑下能够实现多项技术赋能。但ChatGPT类生成式人工智能是否能够适用到智慧司法领域,以及在何种程度上将其嵌入,尤其是该项技术在赋能智慧法院建设过程中的边界如何,这对于深层次建设智慧法院具有重要的前提性意义。ChatGPT类生成式人工智能技术通过审判活动的智能化运用,可促进可视正义的实现;通过诉讼服务的可及性,可实现司法为民理念;通过公平与效率的动态平衡,可实现能动司法目标。然而,ChatGPT类生成式人工智能在带来上述诸多技术红利的同时,也引发了一系列新的风险,具体可以划分为由数据“幻觉性”引发的一般风险、由技术垄断性导致的重要风险以及由数据不可控产生的核心风险。对这些风险,应根据不同的风险特征采取相应的规制路径:可以通过对训练数据库的标准化构建以实现数据的“幻觉性”规制,通过辅助性原则的引入而实现技术规制,通过对服务提供者科加义务以实现对数据不可控的数据规制。即运用数据“幻觉性”规制、技术规制与数据规制,实现对ChatGPT类生成式人工智能技术嵌入的一般风险、重要风险与核心风险的防范,以期完成ChatGPT类生成式人工智能技术嵌入智慧法庭建设的风险最小化与技术赋能最大化,最终实现该项技术高质量赋能智慧法院建设。  相似文献   

3.
ChatGPT和“文心一言”作为生成式人工智能的新产品,造就了人机合作进行知识生产(尤其是学术研究)的新形式。以探究数字劳动的含义为例,以人机问答的方式获得机器智能提供的答案,这展现了ChatGPT和“文心一言”可以辅助人进行学术研究的新功用,从而形成人机合作的知识生产新模式。在这种模式中,机器智能在提供资源的概括和简单的文本生成方面对人的知识生产提供高效的帮助,并通过人机问答的互动使这种帮助更具针对性和时效性。通过对机器生成内容的具体考察,深入体验这两款生成式人工智能新产品的实际使用,也可以发现其明显的不足和局限,尤其体现在:由于受限于训练数据集和能够进入的学术资源数据库,其归纳既有知识成果的全面性和准确性与人的要求还有较大的差距,更不能替代人去进行原创性的知识创新。鉴于此,需要理性地看待智能机器为人类的知识生产所能起到的功用,既要前瞻性预测这一新型的人机协同方式对人类未来知识生产走向的巨大影响和积极意义,也要根据现阶段生成式人工智能的工作机制,发挥好人在使用提示词等方面的作用,通过人的积极作为来调动智能辅助系统的潜能,在人机之间既有合理的分工又有融洽的互补式合作,来助力学术研究型知识生产活动的开展,并对人作为知识生产的主体始终保持足够的警醒。  相似文献   

4.
人工智能属于通用目的技术,不仅能够引发产业变革,而且能够催生新科学研究范式。随着以生成式人工智能为代表的通用人工智能的发展,人工智能的应用成为社会科学研究范式创新的前沿。数据的高维度、编程语言的强结构性和长程关联性、以参数形式表征的隐式知识库和预训练的结构重整带来新知识和模式发现,为社会科学研究创造出新的发展空间。同时,数据隐私、价值观和研究结论的“黑箱”化带来了人工智能在社会科学应用中的新挑战。如何把大模型的知识发现和基于研究者实践经验的探索式研究相结合,形成人机共生演进的知识生产方式,是社会科学研究中人工智能应用的方向。  相似文献   

5.
张涛甫 《学术月刊》2024,(2):149-157
以人工智能为代表的数字技术推动了网络舆论环境的生态化转型,使得网络舆论热点的酝酿、发展与爆发环节发生了结构性的变化,进而为智能媒体时代个体的信息接受与观点表达设置了新的“技术—文化逻辑”。具体而言,生成式人工智能技术借由自动化信息生产、精准化算法推荐与情感化交互对话呼应了网络舆论在场景、主体与内容等维度上的发展趋势,在任务型知识生产与辅助型角色层面为网络舆论研究理论带来了新的想象空间。利用人工智能技术进行舆论治理,须满足两个前置条件:确立技术向善的价值立场;科学把握人工智能时代的舆论生成、演化规律。  相似文献   

6.
金庚星 《学术界》2023,(4):72-79
以大型语言模型(LLMs)为代表的生成式人工智能的出现在物质技术、内容模态、组织制度与媒介性四个面向上对当前的媒介理论构成了挑战。在海德格尔的“媒介即语言”、曼诺维奇的“媒介即软件”的基础上,大型语言模型之后的媒介理论变革可以进一步通过“媒介即模型”来阐明。在人工智能的语境中,“媒介即模型”意味着一切软件都会被接入大模型进行改造。这一观点为媒介理论注入了面向机器学习时代的新解释力。在“媒介即模型”的理论视野下,所有人类行动者都参与到了一个共同信息库的编码之中,并和其他过去的、同时的,或将来的交流行动者共同塑造一个共享的社会信息系统。作为现代社会中最具影响力的知识生产制度之一,媒介系统与社会系统之间的关系范式也将从内容模态对现实世界的知识表征,转向语言模型对现实世界的计算生成。从更一般的社会科学知识论层面来看,“人—模型”之间相互叠加增强的交互方式预示了“人—模型”共生自主系统的崛起,并进一步涌现出群体智能,这是理解生成式人工智能时代社会认识论转型的关键。  相似文献   

7.
多模态大模型GPT-4的发布预示着人工智能生成式技术迎来了从弱人工智能跨入强人工智能的临界点,但技术进步与技术风险是相伴而生的。随着GPT-4数据容量的快速积累,数据质量、算力不断提高,知识产权侵权、生产虚假信息、数据歧视等风险与日俱增,对ChatGPT类模型的数据风险治理迫在眉睫。文章基于对生成式人工智能在数据安全领域的风险分析,比较GPT类模型数据的输入、访问以及内容生成等数据运行的风险及其特征,提出从数据源头、内部运行到数据生成的全链条风险防范机制,具体包括:构建保障数据源头“清澈”的“净水器”式合规技术;维护模型内部数据运行“可信根”监管的自治原则;构建国际协同联动式数据治理的协作框架等风险治理路径。  相似文献   

8.
AIGC领域技术的发展,将带来人机共存的新生存空间,在这个空间里人机交流将逐步普及。一方面,人机交流中的机器具有较大的可控性,人可以对交流进行各方面的控制,但这未必总能带来理想的交流效果。另一方面,人机交流中的机器也在对人进行着反射,或用自己的方式对人进行驯化。AIGC为平民进一步赋权,艺术创作渗透进日常空间与生活,普通人有了“艺术化生存”的可能,但艺术的独特气质也可能在日常生活中被不断消磨。AIGC也会带来高度虚构化的视觉空间以及幻像化的人,如人的数字化身或各种虚拟人,现实与虚幻的界限进一步被模糊。  相似文献   

9.
面对人工智能技术的重大突破,尤其是ChatGPT等新一代人工智能在社会生活各个领域的广泛应用,审视、预判和防范ChatGPT类生成式人工智能的意识形态风险成为一个重要的理论课题。ChatGPT类生成式人工智能环境下的意识形态传播具有可塑性、可量化性、个性化和精准预测性等特点。ChatGPT类生成式人工智能介入意识形态传播的技术路径体现在技术与思想的耦合、预测性的算法推荐、个性化的话语创设和赋权性的网络传播等方面。ChatGPT类生成式人工智能介入意识形态传播会带来算法歧视、数据失真、算法监控和算法反噬等潜在的风险。应通过统筹科技伦理规制算法推荐、设计主流意识形态驾驭算法、协调传播主体与客体的价值需求、强化大数据技术检测与治理等,加强对ChatGPT类生成式人工智能意识形态风险的防控。  相似文献   

10.
相较于西方的“非意识形态论”与“技术统治论”,马克思对于机器应用“异化”的观点更适于用来诠释由生成式人工智能应用所产生的意识形态风险命题。基于应用场景与因果关系的不同,可将生成式人工智能应用的意识形态风险划分为原发性风险、继发性风险和并发性风险。原发性风险是基础应用场景下的风险,发端于“算法钢印”风险因素,会在社会意识生产领域引发“逆向驯化”的风险事故,最终将导致“认知茧房”的风险损失,对此应以“技术规驯”为核心开展治理。继发性风险是恶意应用场景下的风险,以“智能仿真”风险因素为技术条件,会导致“把关失效”的风险事故,最终将发生“价值失衡”的风险损失,对此应以“全链监管”为核心加以治理。并发性风险是技术应用的附随风险,生成于危及人类地位的“主客异位”风险因素,其以“解构传统”的风险事故瓦解人类价值观,最终将导致“信仰迁移”的风险损失,对此应以“价值巩固”为核心进行治理。  相似文献   

11.
生成式人工智能将人类引向AI辅助生存的环境中。文科教育视野应从面向现在转为面向未来,直面GAI对知识生产领域、学生就业领域以及应试教育根基的深度挑战。文科教育基本模式应从传承式文科教育跃升为创新性文科教育,兼顾专业训练的功利目标和素质教育的超越目标,尤其强调以意义而非数据为中心。文科教育创新性变革至少可以强调从博学转向慎思、专学转向通学、提升科学素养、熟悉技术工具、专业精品教育、意义扎根交往等方面,以应对生成式人工智能对教育领域的巨大冲击。  相似文献   

12.
如何利用生成式人工智能助力社会科学研究是近期社会科学研究者们共同关心的重要议题之一。在此背景下,从一般社会科学研究的实践需求出发,通过具体的实例考察生成式人工智能在社会科学研究的理论、方法和研究偏误三个方面的具体表现。生成式人工智能对于总结和复现现有资料具有很大的优势,以其强大算力来预处理海量在线资料,可以帮助研究者节省信息搜索的时间成本和精力成本。但是,生成式人工智能难以对既有理论进行“阅读”后的“理解”,同时亦不擅长进行方法层面的优劣对比和新分析工具的开发。此外,在生成内容上也表现出明显的偏见或者误差。背靠人类既有资料积累的生成式人工智能可谓站在巨人肩膀上,但由于其本身缺乏成熟的能动创新能力,生成式人工智能在学术研究的意义上仍然是一位“初学者”。如何引导和培养这位“初学者”,是社会科学研究者需要思考和完成的任务。  相似文献   

13.
基于观众视角,将“意象”概念引入博物馆研究领域,以中国大运河博物馆为例,运用隐喻抽取技术研究博物馆意象。遵循隐喻抽取技术的研究步骤与要求,首先通过深度访谈和文本分析,提取出15个起始构念、22个连接构念和15个终结构念,然后识别出所有的共识逻辑链,最终绘制出观众心智共识地图。研究发现,在观众心目中,中国大运河博物馆呈现四种意象,最主要的意象是“公共文化空间”,其次分别是“休闲旅游地”“学习教育地”“社会服务场所”。文旅融合背景下,博物馆要塑造、强化正面、积极的意象,需要打造新型公共文化空间,推动宜游化改造,改进知识教育和文化传播的方式,不断优化服务水平。  相似文献   

14.
ChatGPT作为21世纪第二个十年出现的最新和最强大的人工智能,其原理并没有脱离20世纪中期以来推动人工智能发展的两个重要理论——“信息论(概率)”和“控制论(反馈)”,这两个理论也极大地推动了传播学的发展。ChatGPT的概率性语言分析和拼凑式内容创新自古以来就是人类的文化生产方式,它对今天的“原创作者”制度提出了挑战。未来,ChatGPT会不断学习,变得更具创造性,进而对人类施加更多的创新压力。人类将能以ChatGPT训练伙伴和合作伙伴,不断掀起基于和超越“人工智能生产内容”(AIGC)的新的“浪漫主义运动”,最终变得越来越具有创造性。  相似文献   

15.
历经数千年的人类知识生产活动,在转入平台化发展模式后走向了系统性变革,其生产主体、生产模式、生产倾向均发生嬗变,新近ChatGPT的应用进一步为平台化知识生产提供了人工智能生成的可行方案。平台化运行和AIGC的叠加使知识生产的不确定性增强、创新性减弱,对知识社会产生影响,也为知识生产实践带来众多问题:数据化逻辑使知识生产内容发生偏移,知识的本体变得不确定;商品化逻辑使知识生产呈现出货币化导向,屈服于商业利益;选择性逻辑使知识生产定制化,容易导致偏见甚至产生知识谬误。本文从智能主体规制与平台治理两个向度探讨AIGC下平台化知识生产的多路径调适,包括提前制定智能主体的适应性法律框架,建立“知识守门人”制度,建构知识内容的“内容—算法”综合审核体系。  相似文献   

16.
文章主要追溯80年代“纯文学”观念由怎样的知识表述构成,并分析这种表述方式的意识形态特性。论文把起点设定为对当前有关“文学性”问题的反省,认为首先需要区分“体系内批判”和建立在对艺术体制自觉基础上的“自我批判”这两个层次。当前的文学常识主要是80年代建构出来的,因此,厘清“纯文学”的知识谱系是进行文学性讨论的历史前提。“纯文学”体制形成于80年代后期,并主要在三个领域内运行,其一是以“诗化哲学”代表的哲学/美学领域,其一是转向对语言/符号关注的文学理论领域,另一则是“重写文学史”思潮所代表的重构经典的现代文学研究领域。论文详细剖析了三个领域中“纯文学”表述的特定知识谱系,及这些表述发挥政治性的方式。论文最后认为,90年代以来的历史变迁将那些支撑“非政治”表述的潜在的认知框架暴露出来,从而提供了对包括“纯文学”在内的整个80年代进行自我批判的历史条件。  相似文献   

17.
人工智能技术在新闻领域的应用,不仅给新闻传播格局带来巨大变化,也对新闻伦理道德提出新的挑战。传统的新闻伦理价值在新技术的渗透中不断被解构。应该构建何种内涵的新闻伦理观来适应这一变化?对这一问题应尽快展开学术研究和讨论。根据“工具理性”和“价值理性”的概念进行考察,“人机协同”概念强调了未来技术发展对新闻业的更高要求,其伦理学内涵也为突破人工智能时代新闻伦理的困境提供了一种哲学路径:构建人机之间平衡和谐的关系,以人类的智慧让人工智能在新闻实践中“物尽其用”,是未来努力的方向。  相似文献   

18.
肖峰 《学术界》2023,(4):52-60
生成式人工智能和数字劳动之间具有相互建构的双向关联性。以ChatGPT为代表的生成式人工智能作为数字劳动的新产物,是包括专业人员和非专业人员多方面的数字劳动协同创构的成果,它一经出现,就成为数字劳动的新工具或新平台,形成“生成式人工智能介导的数字劳动”,使数字劳动具有了自动高效、人机互动、更加个性和人性化、更富拓展性和创造性等新特征,以至于革命性地建构了数字劳动新形态。生成式人工智能同时也给数字劳动带来了内容过载、数字鸿沟、机器换人等新挑战,需要在积极应对这些挑战中合理而有效地使用这一新型的数字劳动工具,以维持人类数字劳动的健康和可持续的发展。  相似文献   

19.
生成式人工智能在引领技术变革的同时也引发了诸多法律风险。根据生成式人工智能的运行机理,可以发现其中存在四大类数据安全风险,其主要原因在于算法高度信任对法益保护的冲击、技术演变中科技伦理规范的缺失以及用户数据主体权利保障不足等。针对生成式人工智能在数据输入阶段的数据源合规风险,研发企业内部应制定具有可操作性的数据合规计划,并在合规计划中制定详细具体的风险规制措施,强化企业合规经营;与此同时,通过多种措施积极响应用户对于数据主体权利的请求,确保模型训练数据来源合法合规。针对生成式人工智能在模型处理阶段的算法黑箱与算法偏见风险,应加大监管力度,重点关注算法的安全性与公平性,积极推进并完善相关立法,细化算法备案和算法解释义务,提高算法技术透明度,落实算法主体责任。针对生成式人工智能在内容输出阶段的数据滥用风险,应优化监管机制,实现全链条合法性监管,完善科研伦理规范并予以实质审查,引领技术向善,实现科技向善治理。针对生成式人工智能在数据存储阶段的数据泄漏风险,应通过技术与管理制度相结合的方式进行全方位规制,严格控制数据共享范围并贯彻数据分级分类保护,及时有效地防范数据泄露风险。  相似文献   

20.
生成式人工智能的快速发展正深刻改变着高等教育,也为新文科建设带来了巨大的机遇和挑战。在教育领域,生成式人工智能将引发教育格局、教育目标、教育理念、教学方法、教学内容等的巨大变革;在科研方面,生成式人工智能将对未来的学术范式、研究方法、研究问题以及具体研究工作的开展带来创新。但是,生成式人工智能在生成内容的准确性、生成方式的合法性以及技术应用造成的依赖性等方面存在风险。尽管还有很多弊端,但不可否认的是生成式人工智能与新文科建设深度融合的时代已经到来。哲学社会科学工作者应以友好而谨慎的态度充分合理地利用新技术,从文科学生的培养方案、教学主体的素养提升、学科建设的交叉融合和技术规范的合理完善等方面助推人工智能与新文科建设的深度融合。既要学习接受新技术和新问题,也要谨防新风险和新挑战。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号