共查询到20条相似文献,搜索用时 0 毫秒
1.
面对人工智能技术的重大突破,尤其是ChatGPT等新一代人工智能在社会生活各个领域的广泛应用,审视、预判和防范ChatGPT类生成式人工智能的意识形态风险成为一个重要的理论课题。ChatGPT类生成式人工智能环境下的意识形态传播具有可塑性、可量化性、个性化和精准预测性等特点。ChatGPT类生成式人工智能介入意识形态传播的技术路径体现在技术与思想的耦合、预测性的算法推荐、个性化的话语创设和赋权性的网络传播等方面。ChatGPT类生成式人工智能介入意识形态传播会带来算法歧视、数据失真、算法监控和算法反噬等潜在的风险。应通过统筹科技伦理规制算法推荐、设计主流意识形态驾驭算法、协调传播主体与客体的价值需求、强化大数据技术检测与治理等,加强对ChatGPT类生成式人工智能意识形态风险的防控。 相似文献
2.
生成式人工智能通过人机交互的方式为新闻业带来了前所未有的可能性,它为新闻主体赋能:数据驱动采集与自动内容生成、多重视角新闻与创新叙事形式以及量身定制新闻与多维交互模式。然而,这项技术的迅速发展也带来了一系列主体危机,如削弱专业价值、冲击业务模式,影响新闻职业、贬低工作价值,加剧权力不平等、植入特定价值观,污染信息生态、引发信任危机等。为了应对主体危机,新闻编辑部应制定使用指南和规范伦理原则;新闻工作者需调整角色定位,发挥跨界整合能力;新闻用户应强化数字媒体素养,从而推动人机关系从共存、协作向“共情和共同进化”发展。 相似文献
3.
生成式人工智能和数字劳动之间具有相互建构的双向关联性。以ChatGPT为代表的生成式人工智能作为数字劳动的新产物,是包括专业人员和非专业人员多方面的数字劳动协同创构的成果,它一经出现,就成为数字劳动的新工具或新平台,形成“生成式人工智能介导的数字劳动”,使数字劳动具有了自动高效、人机互动、更加个性和人性化、更富拓展性和创造性等新特征,以至于革命性地建构了数字劳动新形态。生成式人工智能同时也给数字劳动带来了内容过载、数字鸿沟、机器换人等新挑战,需要在积极应对这些挑战中合理而有效地使用这一新型的数字劳动工具,以维持人类数字劳动的健康和可持续的发展。 相似文献
4.
以ChatGPT为代表的生成式人工智能赋能思想政治教育是当前网络思想政治教育研究的前沿和热点。生成式人工智能作为科技工具嵌入思想政治教育,能够让教育者更加高效、系统地认识教育客体,使教育内容更加契合个性化、隐性化的目标,让教育方法更加注重过程性、具备前瞻性。然而,思想政治教育的重点是做“人”的工作,过度倚重人工智能可能会削弱思想政治教育的方向原则、求实原则和示范原则,进而影响思想政治教育主流价值传播、学生实事求是精神培养以及师生间思想交流和情感沟通。基于此,为适应生成式人工智能对思想政治教育带来的变革,促进二者深度融合发展,需要提升人机协同能力,强化思想政治教育主流价值引导;强化“把关人”角色,构建文明、规范的数字世界;注重思想政治教育的人文关怀,不仅要教育人更要培养人。 相似文献
5.
肖峰 《重庆邮电大学学报(社会科学版)》2023,35(4):1-10
ChatGPT和“文心一言”作为生成式人工智能的新产品,造就了人机合作进行知识生产(尤其是学术研究)的新形式。以探究数字劳动的含义为例,以人机问答的方式获得机器智能提供的答案,这展现了ChatGPT和“文心一言”可以辅助人进行学术研究的新功用,从而形成人机合作的知识生产新模式。在这种模式中,机器智能在提供资源的概括和简单的文本生成方面对人的知识生产提供高效的帮助,并通过人机问答的互动使这种帮助更具针对性和时效性。通过对机器生成内容的具体考察,深入体验这两款生成式人工智能新产品的实际使用,也可以发现其明显的不足和局限,尤其体现在:由于受限于训练数据集和能够进入的学术资源数据库,其归纳既有知识成果的全面性和准确性与人的要求还有较大的差距,更不能替代人去进行原创性的知识创新。鉴于此,需要理性地看待智能机器为人类的知识生产所能起到的功用,既要前瞻性预测这一新型的人机协同方式对人类未来知识生产走向的巨大影响和积极意义,也要根据现阶段生成式人工智能的工作机制,发挥好人在使用提示词等方面的作用,通过人的积极作为来调动智能辅助系统的潜能,在人机之间既有合理的分工又有融洽的互补式合作,来助力学术研究型知识生产活动的开展,并对人作为知识生产的主体始终保持足够的警醒。 相似文献
6.
相较于西方的“非意识形态论”与“技术统治论”,马克思对于机器应用“异化”的观点更适于用来诠释由生成式人工智能应用所产生的意识形态风险命题。基于应用场景与因果关系的不同,可将生成式人工智能应用的意识形态风险划分为原发性风险、继发性风险和并发性风险。原发性风险是基础应用场景下的风险,发端于“算法钢印”风险因素,会在社会意识生产领域引发“逆向驯化”的风险事故,最终将导致“认知茧房”的风险损失,对此应以“技术规驯”为核心开展治理。继发性风险是恶意应用场景下的风险,以“智能仿真”风险因素为技术条件,会导致“把关失效”的风险事故,最终将发生“价值失衡”的风险损失,对此应以“全链监管”为核心加以治理。并发性风险是技术应用的附随风险,生成于危及人类地位的“主客异位”风险因素,其以“解构传统”的风险事故瓦解人类价值观,最终将导致“信仰迁移”的风险损失,对此应以“价值巩固”为核心进行治理。 相似文献
7.
生成式人工智能通过对海量互联网数据的深度学习来生产信息,不可避免地带有数据提供主体所在时空的文化观念,因此,其生成的内容具有时空上的局限性和动态演化的特征。以大型语言模型ChatGPT和文心一言为比较研究对象,通过对真实的种族争议案例进行内容生成测试实验,从文化主体性角度探讨基于不同时空语料的生成式人工智能平台的价值观差异。结果表明,基于中文训练的文心一言语言模型并未展示出与ChatGPT明显区分的当代中国公众所持有的文化主体意识。该现象与自21世纪初开始积累的中文互联网语料的文化主体性时间演化特征相关。据此提出,通过对语言模型语料库进行时间轴加权或复制训练以调整“时空折叠”,能够对生成式人工智能平台的价值观导向进行干预。 相似文献
8.
佟雪娜 《福建论坛(人文社会科学版)》2024,(2):44-53
伴随媒体信息技术的更迭进化和数字音乐产业的蓬勃发展,以音乐内容为生产核心、音乐营销与服务为传播要素的生成式人工智能音乐快速兴起,数字音乐内容生产与传播的交互结构、数字音乐内容内容协作与内容应用都发生了巨大变化。人工智能提升了人类参与全媒体内容生产的速率与效能,形成新型中心化全媒体传播体系。生成式人工智能使全媒体生产传播的供给侧结构性角色发生变革的同时,也需要建立一系列的风险预估与规避体制。 相似文献
9.
生成式人工智能在引领技术变革的同时也引发了诸多法律风险。根据生成式人工智能的运行机理,可以发现其中存在四大类数据安全风险,其主要原因在于算法高度信任对法益保护的冲击、技术演变中科技伦理规范的缺失以及用户数据主体权利保障不足等。针对生成式人工智能在数据输入阶段的数据源合规风险,研发企业内部应制定具有可操作性的数据合规计划,并在合规计划中制定详细具体的风险规制措施,强化企业合规经营;与此同时,通过多种措施积极响应用户对于数据主体权利的请求,确保模型训练数据来源合法合规。针对生成式人工智能在模型处理阶段的算法黑箱与算法偏见风险,应加大监管力度,重点关注算法的安全性与公平性,积极推进并完善相关立法,细化算法备案和算法解释义务,提高算法技术透明度,落实算法主体责任。针对生成式人工智能在内容输出阶段的数据滥用风险,应优化监管机制,实现全链条合法性监管,完善科研伦理规范并予以实质审查,引领技术向善,实现科技向善治理。针对生成式人工智能在数据存储阶段的数据泄漏风险,应通过技术与管理制度相结合的方式进行全方位规制,严格控制数据共享范围并贯彻数据分级分类保护,及时有效地防范数据泄露风险。 相似文献
10.
生成式人工智能赋能网络意识形态治理现代化,是维护意识形态安全的现实之需。但就其现状而言,生成式人工智能暗藏风险,阻碍我国网络意识形态治理现代化。只有以智能平权破解算法歧视、以群己共律驾驭资本力量、以价值理性匡正工具理性、以良法善治维护网络秩序,才能化智为治,进而为有效利用生成式人工智能驱动网络意识形态治理现代化提供有力保障。 相似文献
11.
生成式人工智能的快速发展正深刻改变着高等教育,也为新文科建设带来了巨大的机遇和挑战。在教育领域,生成式人工智能将引发教育格局、教育目标、教育理念、教学方法、教学内容等的巨大变革;在科研方面,生成式人工智能将对未来的学术范式、研究方法、研究问题以及具体研究工作的开展带来创新。但是,生成式人工智能在生成内容的准确性、生成方式的合法性以及技术应用造成的依赖性等方面存在风险。尽管还有很多弊端,但不可否认的是生成式人工智能与新文科建设深度融合的时代已经到来。哲学社会科学工作者应以友好而谨慎的态度充分合理地利用新技术,从文科学生的培养方案、教学主体的素养提升、学科建设的交叉融合和技术规范的合理完善等方面助推人工智能与新文科建设的深度融合。既要学习接受新技术和新问题,也要谨防新风险和新挑战。 相似文献
12.
李森 《西藏民族学院学报》2023,(6):139-145
多模态大模型GPT-4的发布预示着人工智能生成式技术迎来了从弱人工智能跨入强人工智能的临界点,但技术进步与技术风险是相伴而生的。随着GPT-4数据容量的快速积累,数据质量、算力不断提高,知识产权侵权、生产虚假信息、数据歧视等风险与日俱增,对ChatGPT类模型的数据风险治理迫在眉睫。文章基于对生成式人工智能在数据安全领域的风险分析,比较GPT类模型数据的输入、访问以及内容生成等数据运行的风险及其特征,提出从数据源头、内部运行到数据生成的全链条风险防范机制,具体包括:构建保障数据源头“清澈”的“净水器”式合规技术;维护模型内部数据运行“可信根”监管的自治原则;构建国际协同联动式数据治理的协作框架等风险治理路径。 相似文献
13.
生成式人工智能将人类引向AI辅助生存的环境中。文科教育视野应从面向现在转为面向未来,直面GAI对知识生产领域、学生就业领域以及应试教育根基的深度挑战。文科教育基本模式应从传承式文科教育跃升为创新性文科教育,兼顾专业训练的功利目标和素质教育的超越目标,尤其强调以意义而非数据为中心。文科教育创新性变革至少可以强调从博学转向慎思、专学转向通学、提升科学素养、熟悉技术工具、专业精品教育、意义扎根交往等方面,以应对生成式人工智能对教育领域的巨大冲击。 相似文献
14.
ChatGPT的出现代表了新一代生成式人工智能的重要进展,从马克思主义哲学来看,更是超越马克思本人所处时代的“新事物”,但这并不意味着马克思主义哲学无法成为ChatGPT等新一代人工智能在“信息文明”之下的借鉴,反而是马克思主义哲学提出的“生产力—生产关系”“经济基础—上层建筑”的基本原理,在人工智能这一新事物中得到了进一步的发展,ChatGPT在促进生产力发展、改变生产关系、转变经济基础、重构上层建筑等方面都体现了马克思主义哲学的映照。同时,ChatGPT依托于“信息文明”这一背景,在消除剥削、消除异化劳动以及实现人的自由发展等方面也在新时代回应了马克思主义哲学。然而,我们也应当根据马克思主义哲学所赋予的人的基本地位,对ChatGPT可能的发展方向进行反思,要避免在“信息文明”的人工智能技术中可能出现的人的“动物性懒惰”、人的“创造性劳动”机会的丧失,以及在人工智能对闲暇空间的占据中可能导致的人的理性基础动摇。以马克思主义哲学观照“信息文明”,并以之作为ChatGPT的借鉴,促使ChatGPT向马克思主义的回归,是现代社会的必然要求。 相似文献
15.
如何利用生成式人工智能助力社会科学研究是近期社会科学研究者们共同关心的重要议题之一。在此背景下,从一般社会科学研究的实践需求出发,通过具体的实例考察生成式人工智能在社会科学研究的理论、方法和研究偏误三个方面的具体表现。生成式人工智能对于总结和复现现有资料具有很大的优势,以其强大算力来预处理海量在线资料,可以帮助研究者节省信息搜索的时间成本和精力成本。但是,生成式人工智能难以对既有理论进行“阅读”后的“理解”,同时亦不擅长进行方法层面的优劣对比和新分析工具的开发。此外,在生成内容上也表现出明显的偏见或者误差。背靠人类既有资料积累的生成式人工智能可谓站在巨人肩膀上,但由于其本身缺乏成熟的能动创新能力,生成式人工智能在学术研究的意义上仍然是一位“初学者”。如何引导和培养这位“初学者”,是社会科学研究者需要思考和完成的任务。 相似文献
16.
以大语言模型为底层技术、以社交界面为互动方式的生成式人工智能将“文本到文本”的转换工具以一种在社会框架支撑下进行的人机交互方式展现了出来。这是“一般智力”/“公共智力”在数字时代的最新发展形态:公共智能(Public Intelligence)。然而,在这个被构造出来的全新公共领域中,存在着一些风险:一方面,以ChatGPT为代表的生成式人工智能超越了空间区域的限制,在新的公共场域内塑造了“数字化的普遍理性”;另一方面,由于AIGC缺乏自我标注,会重新作为数据来源进入新的生成,从而使知识的对象在不断自我引证的技术条件下被凝固。AIGC中的知识型结构是将符号之序通过AI技术的加持达到极化的表现,它通过算法塑造了一种纯粹的认识形式的领域。并且,过度依赖AIGC的知识生产还会塑造出知识拟象。这就需要调试人工智能技术和人的主体创造性之间的关系,从公共性入手促进人机和谐发展和强互惠。 相似文献
17.
人工智能技术在更新换代的过程中诞生了ChatGPT,在增进人类福祉的同时也产生了追责困难与伦理失范风险、价值失衡不断增大、技术高度异化等诸多安全风险。因此,本论文试图以ChatGPT为视角,对ChatGPT所带来的优势和弊端进行全面分析,并结合人工智能安全风险进行描述,探索协同治理人工智能安全风险的途径。要推动人工智能安全风险的协同治理,必须建立一个以国家为主体,由技术专家、社会组织、科研机构和社会大众组成的“自我治理体系”。然后,进一步强化协同治理条件,增强协同治理参数,提高其治理效率,从而推动人工智能安全风险治理的整体化,以更好的姿态迎接人工智能技术所带来的机遇与挑战。 相似文献
18.
人们在使用大模型的过程中,会存在某种程度的幻觉,即认为大模型无所不知和无所不能。正因为这种幻觉的存在,大模型可能会从启蒙的理性变成新的启蒙神话。启蒙的意义在于保持一种开放性,而启蒙的神话就表明了这种开放性的消失。大模型的发展无疑会加剧世界的数学化。在此背景之下,权证就构成了未来数字世界的基本通货。过度的数学化也酝酿了新的工具理性危险。作为新的技术,大模型全面展示了知识与权力的关系。大模型拥有巨大的整合力,正在实现新型的知识大一统。这种弥散化的超能力会进入知识生产的各个领域,没有个体可以逃脱这种超能力的捕捉。大模型会进一步加剧知识工业化,这将导致更为严重的意识形态问题。一方面,大模型本身有其意识形态。另一方面,大模型更加深刻的意识形态会隐含在其免费模式和消费模式之中,同时想象的知识共同体最终又会服务于知识霸权。面对知识工业化的风险,应该建立知识生产的“手工绿洲”,用荒谬、隐喻和修辞来对抗理性,让人类保有通过具身体验来创造知识的能力,并且要避免同一性和绝对正确的神话。 相似文献
19.
历经数千年的人类知识生产活动,在转入平台化发展模式后走向了系统性变革,其生产主体、生产模式、生产倾向均发生嬗变,新近ChatGPT的应用进一步为平台化知识生产提供了人工智能生成的可行方案。平台化运行和AIGC的叠加使知识生产的不确定性增强、创新性减弱,对知识社会产生影响,也为知识生产实践带来众多问题:数据化逻辑使知识生产内容发生偏移,知识的本体变得不确定;商品化逻辑使知识生产呈现出货币化导向,屈服于商业利益;选择性逻辑使知识生产定制化,容易导致偏见甚至产生知识谬误。本文从智能主体规制与平台治理两个向度探讨AIGC下平台化知识生产的多路径调适,包括提前制定智能主体的适应性法律框架,建立“知识守门人”制度,建构知识内容的“内容—算法”综合审核体系。 相似文献
20.
人工智能诞生以来的海量技术创新突破,催生其从一个边缘性学科成为学术界、产业界关注的焦点,并成为各国的关键战略技术,各国政府也相继出台了规范人工智能发展的相关规制政策以应对风险。近期,火爆出圈的“新物种”ChatGPT颠覆了人与技术的关系,其“自主学习”特质更是引发了学者们的种种担忧,围绕人工智能是否会威胁人类这一时代命题进行了深入探讨。而人工智能发展的政策规制面临由于技术的不确定所引发的社会风险、政策制定者预测未来所需的各种信息及知识不足的风险、政策滞后性风险等问题,使政策效果预期与运行结果产生偏差。因此,如何规范人工智能发展政策的决策程序并提升人工智能政策的理性水平是解决现代社会技术风险规制的重要课题。 相似文献