首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
相较于西方的“非意识形态论”与“技术统治论”,马克思对于机器应用“异化”的观点更适于用来诠释由生成式人工智能应用所产生的意识形态风险命题。基于应用场景与因果关系的不同,可将生成式人工智能应用的意识形态风险划分为原发性风险、继发性风险和并发性风险。原发性风险是基础应用场景下的风险,发端于“算法钢印”风险因素,会在社会意识生产领域引发“逆向驯化”的风险事故,最终将导致“认知茧房”的风险损失,对此应以“技术规驯”为核心开展治理。继发性风险是恶意应用场景下的风险,以“智能仿真”风险因素为技术条件,会导致“把关失效”的风险事故,最终将发生“价值失衡”的风险损失,对此应以“全链监管”为核心加以治理。并发性风险是技术应用的附随风险,生成于危及人类地位的“主客异位”风险因素,其以“解构传统”的风险事故瓦解人类价值观,最终将导致“信仰迁移”的风险损失,对此应以“价值巩固”为核心进行治理。  相似文献   

2.
肖峰 《学术界》2023,(4):52-60
生成式人工智能和数字劳动之间具有相互建构的双向关联性。以ChatGPT为代表的生成式人工智能作为数字劳动的新产物,是包括专业人员和非专业人员多方面的数字劳动协同创构的成果,它一经出现,就成为数字劳动的新工具或新平台,形成“生成式人工智能介导的数字劳动”,使数字劳动具有了自动高效、人机互动、更加个性和人性化、更富拓展性和创造性等新特征,以至于革命性地建构了数字劳动新形态。生成式人工智能同时也给数字劳动带来了内容过载、数字鸿沟、机器换人等新挑战,需要在积极应对这些挑战中合理而有效地使用这一新型的数字劳动工具,以维持人类数字劳动的健康和可持续的发展。  相似文献   

3.
生成式人工智能在引领技术变革的同时也引发了诸多法律风险。根据生成式人工智能的运行机理,可以发现其中存在四大类数据安全风险,其主要原因在于算法高度信任对法益保护的冲击、技术演变中科技伦理规范的缺失以及用户数据主体权利保障不足等。针对生成式人工智能在数据输入阶段的数据源合规风险,研发企业内部应制定具有可操作性的数据合规计划,并在合规计划中制定详细具体的风险规制措施,强化企业合规经营;与此同时,通过多种措施积极响应用户对于数据主体权利的请求,确保模型训练数据来源合法合规。针对生成式人工智能在模型处理阶段的算法黑箱与算法偏见风险,应加大监管力度,重点关注算法的安全性与公平性,积极推进并完善相关立法,细化算法备案和算法解释义务,提高算法技术透明度,落实算法主体责任。针对生成式人工智能在内容输出阶段的数据滥用风险,应优化监管机制,实现全链条合法性监管,完善科研伦理规范并予以实质审查,引领技术向善,实现科技向善治理。针对生成式人工智能在数据存储阶段的数据泄漏风险,应通过技术与管理制度相结合的方式进行全方位规制,严格控制数据共享范围并贯彻数据分级分类保护,及时有效地防范数据泄露风险。  相似文献   

4.
盛思琦 《南方论刊》2024,(2):107-109+112
生成式人工智能赋能网络意识形态治理现代化,是维护意识形态安全的现实之需。但就其现状而言,生成式人工智能暗藏风险,阻碍我国网络意识形态治理现代化。只有以智能平权破解算法歧视、以群己共律驾驭资本力量、以价值理性匡正工具理性、以良法善治维护网络秩序,才能化智为治,进而为有效利用生成式人工智能驱动网络意识形态治理现代化提供有力保障。  相似文献   

5.
人工智能对意识形态的操控能力,既源于法兰克福学派对科学技术与意识形态的关系的辨析,也缘于人工智能技术的特性。人工智能对意识形态的操控表现在:作为一种技术工具对意识形态的操控;资本、权力、技术的控制者利用人工智能操控意识形态;机器人本身所具有的意识形态。人工智能对意识形态的操控可能会带来透明人的法律和伦理风险、算法偏见和算法独裁风险、不同国家意识形态冲突失控风险。化解这些风险需要综合运用AI伦理、法律手段和技术力量。  相似文献   

6.
肖峰 《学术研究》2023,(10):50-57+2+177
知识生产是智能时代人类的“主业”,以ChatGPT为代表的生成式人工智能正在深度地介入和改变人类知识生产的方式和内涵,使得“三阶知识生产”在既有一阶和二阶知识生产的基础上走向前台。三阶知识生产开辟了文本自动生成和人机对话等智能交互的新方式,可以对人在知识生产中提升效率以及获取灵感等提供强大的帮助,还可以取代人的一些传统的二阶知识生产活动,并为提升一阶知识生产能力拓展了新的路径。通过三阶知识来定位生成式人工智能的认识论功能,有助于合理地评价以ChatGPT为代表的知识生产新工具的价值和意义。  相似文献   

7.
刘建生  李纪元 《南方论刊》2023,(5):16-18+27
人工智能技术在更新换代的过程中诞生了ChatGPT,在增进人类福祉的同时也产生了追责困难与伦理失范风险、价值失衡不断增大、技术高度异化等诸多安全风险。因此,本论文试图以ChatGPT为视角,对ChatGPT所带来的优势和弊端进行全面分析,并结合人工智能安全风险进行描述,探索协同治理人工智能安全风险的途径。要推动人工智能安全风险的协同治理,必须建立一个以国家为主体,由技术专家、社会组织、科研机构和社会大众组成的“自我治理体系”。然后,进一步强化协同治理条件,增强协同治理参数,提高其治理效率,从而推动人工智能安全风险治理的整体化,以更好的姿态迎接人工智能技术所带来的机遇与挑战。  相似文献   

8.
ChatGPT热潮下的教育伦理是ChatGPT等人工智能技术在教育领域开发、应用与治理过程中,教育智能体——教育参与者与智能机器——应该遵循的道德关系、伦理准则及行为规范。教育“善”是人工智能时代教育伦理的内在属性和集中彰显。然而,随着ChatGPT等人工智能技术与教育的融合,引发了一系列显在和潜在的教育伦理风险,表现为技术向“善”趋于异化、个体崇“善”走向衰微、社会趋“善”面临溃散等。为促进教育向“善”发展,有效防控ChatGPT运用于教育的伦理风险,应改良智能技术,加快人机双师协同育人;回归人性本真,敦促德性良知重返人心;匡扶社会正义,促进教育优质均衡发展。  相似文献   

9.
生成式人工智能通过人机交互的方式为新闻业带来了前所未有的可能性,它为新闻主体赋能:数据驱动采集与自动内容生成、多重视角新闻与创新叙事形式以及量身定制新闻与多维交互模式。然而,这项技术的迅速发展也带来了一系列主体危机,如削弱专业价值、冲击业务模式,影响新闻职业、贬低工作价值,加剧权力不平等、植入特定价值观,污染信息生态、引发信任危机等。为了应对主体危机,新闻编辑部应制定使用指南和规范伦理原则;新闻工作者需调整角色定位,发挥跨界整合能力;新闻用户应强化数字媒体素养,从而推动人机关系从共存、协作向“共情和共同进化”发展。  相似文献   

10.
以ChatGPT为代表的生成式人工智能赋能思想政治教育是当前网络思想政治教育研究的前沿和热点。生成式人工智能作为科技工具嵌入思想政治教育,能够让教育者更加高效、系统地认识教育客体,使教育内容更加契合个性化、隐性化的目标,让教育方法更加注重过程性、具备前瞻性。然而,思想政治教育的重点是做“人”的工作,过度倚重人工智能可能会削弱思想政治教育的方向原则、求实原则和示范原则,进而影响思想政治教育主流价值传播、学生实事求是精神培养以及师生间思想交流和情感沟通。基于此,为适应生成式人工智能对思想政治教育带来的变革,促进二者深度融合发展,需要提升人机协同能力,强化思想政治教育主流价值引导;强化“把关人”角色,构建文明、规范的数字世界;注重思想政治教育的人文关怀,不仅要教育人更要培养人。  相似文献   

11.
生成式人工智能通过对海量互联网数据的深度学习来生产信息,不可避免地带有数据提供主体所在时空的文化观念,因此,其生成的内容具有时空上的局限性和动态演化的特征。以大型语言模型ChatGPT和文心一言为比较研究对象,通过对真实的种族争议案例进行内容生成测试实验,从文化主体性角度探讨基于不同时空语料的生成式人工智能平台的价值观差异。结果表明,基于中文训练的文心一言语言模型并未展示出与ChatGPT明显区分的当代中国公众所持有的文化主体意识。该现象与自21世纪初开始积累的中文互联网语料的文化主体性时间演化特征相关。据此提出,通过对语言模型语料库进行时间轴加权或复制训练以调整“时空折叠”,能够对生成式人工智能平台的价值观导向进行干预。  相似文献   

12.
ChatGPT和“文心一言”作为生成式人工智能的新产品,造就了人机合作进行知识生产(尤其是学术研究)的新形式。以探究数字劳动的含义为例,以人机问答的方式获得机器智能提供的答案,这展现了ChatGPT和“文心一言”可以辅助人进行学术研究的新功用,从而形成人机合作的知识生产新模式。在这种模式中,机器智能在提供资源的概括和简单的文本生成方面对人的知识生产提供高效的帮助,并通过人机问答的互动使这种帮助更具针对性和时效性。通过对机器生成内容的具体考察,深入体验这两款生成式人工智能新产品的实际使用,也可以发现其明显的不足和局限,尤其体现在:由于受限于训练数据集和能够进入的学术资源数据库,其归纳既有知识成果的全面性和准确性与人的要求还有较大的差距,更不能替代人去进行原创性的知识创新。鉴于此,需要理性地看待智能机器为人类的知识生产所能起到的功用,既要前瞻性预测这一新型的人机协同方式对人类未来知识生产走向的巨大影响和积极意义,也要根据现阶段生成式人工智能的工作机制,发挥好人在使用提示词等方面的作用,通过人的积极作为来调动智能辅助系统的潜能,在人机之间既有合理的分工又有融洽的互补式合作,来助力学术研究型知识生产活动的开展,并对人作为知识生产的主体始终保持足够的警醒。  相似文献   

13.
ChatGPT的出现代表了新一代生成式人工智能的重要进展,从马克思主义哲学来看,更是超越马克思本人所处时代的“新事物”,但这并不意味着马克思主义哲学无法成为ChatGPT等新一代人工智能在“信息文明”之下的借鉴,反而是马克思主义哲学提出的“生产力—生产关系”“经济基础—上层建筑”的基本原理,在人工智能这一新事物中得到了进一步的发展,ChatGPT在促进生产力发展、改变生产关系、转变经济基础、重构上层建筑等方面都体现了马克思主义哲学的映照。同时,ChatGPT依托于“信息文明”这一背景,在消除剥削、消除异化劳动以及实现人的自由发展等方面也在新时代回应了马克思主义哲学。然而,我们也应当根据马克思主义哲学所赋予的人的基本地位,对ChatGPT可能的发展方向进行反思,要避免在“信息文明”的人工智能技术中可能出现的人的“动物性懒惰”、人的“创造性劳动”机会的丧失,以及在人工智能对闲暇空间的占据中可能导致的人的理性基础动摇。以马克思主义哲学观照“信息文明”,并以之作为ChatGPT的借鉴,促使ChatGPT向马克思主义的回归,是现代社会的必然要求。  相似文献   

14.
人工智能技术能够对青年意识形态工作发挥重要推动作用,使之更加时代化、精准化、高效化。但与此同时,它又带来不可忽视的潜在风险,可能致使青年意识形态工作主导权削弱、形成过度干预、产生信息茧房、发生交往异化。因此,必须采取措施化解风险,一是坚持党对青年意识形态工作的领导权,二是形成针对人工智能的价值引领机制,三是明晰人类主体与人工智能的角色定位,四是推动针对性人工智能系统的持续开发与迭代,五是构建人工智能素养培育体系。  相似文献   

15.
多模态大模型GPT-4的发布预示着人工智能生成式技术迎来了从弱人工智能跨入强人工智能的临界点,但技术进步与技术风险是相伴而生的。随着GPT-4数据容量的快速积累,数据质量、算力不断提高,知识产权侵权、生产虚假信息、数据歧视等风险与日俱增,对ChatGPT类模型的数据风险治理迫在眉睫。文章基于对生成式人工智能在数据安全领域的风险分析,比较GPT类模型数据的输入、访问以及内容生成等数据运行的风险及其特征,提出从数据源头、内部运行到数据生成的全链条风险防范机制,具体包括:构建保障数据源头“清澈”的“净水器”式合规技术;维护模型内部数据运行“可信根”监管的自治原则;构建国际协同联动式数据治理的协作框架等风险治理路径。  相似文献   

16.
ChatGPT类生成式人工智能在海量的数据、优质的算法与强大的算力支撑下能够实现多项技术赋能。但ChatGPT类生成式人工智能是否能够适用到智慧司法领域,以及在何种程度上将其嵌入,尤其是该项技术在赋能智慧法院建设过程中的边界如何,这对于深层次建设智慧法院具有重要的前提性意义。ChatGPT类生成式人工智能技术通过审判活动的智能化运用,可促进可视正义的实现;通过诉讼服务的可及性,可实现司法为民理念;通过公平与效率的动态平衡,可实现能动司法目标。然而,ChatGPT类生成式人工智能在带来上述诸多技术红利的同时,也引发了一系列新的风险,具体可以划分为由数据“幻觉性”引发的一般风险、由技术垄断性导致的重要风险以及由数据不可控产生的核心风险。对这些风险,应根据不同的风险特征采取相应的规制路径:可以通过对训练数据库的标准化构建以实现数据的“幻觉性”规制,通过辅助性原则的引入而实现技术规制,通过对服务提供者科加义务以实现对数据不可控的数据规制。即运用数据“幻觉性”规制、技术规制与数据规制,实现对ChatGPT类生成式人工智能技术嵌入的一般风险、重要风险与核心风险的防范,以期完成ChatGPT类生成式人工智能技术嵌入智慧法庭建设的风险最小化与技术赋能最大化,最终实现该项技术高质量赋能智慧法院建设。  相似文献   

17.
伴随媒体信息技术的更迭进化和数字音乐产业的蓬勃发展,以音乐内容为生产核心、音乐营销与服务为传播要素的生成式人工智能音乐快速兴起,数字音乐内容生产与传播的交互结构、数字音乐内容内容协作与内容应用都发生了巨大变化。人工智能提升了人类参与全媒体内容生产的速率与效能,形成新型中心化全媒体传播体系。生成式人工智能使全媒体生产传播的供给侧结构性角色发生变革的同时,也需要建立一系列的风险预估与规避体制。  相似文献   

18.
人工智能诞生以来的海量技术创新突破,催生其从一个边缘性学科成为学术界、产业界关注的焦点,并成为各国的关键战略技术,各国政府也相继出台了规范人工智能发展的相关规制政策以应对风险。近期,火爆出圈的“新物种”ChatGPT颠覆了人与技术的关系,其“自主学习”特质更是引发了学者们的种种担忧,围绕人工智能是否会威胁人类这一时代命题进行了深入探讨。而人工智能发展的政策规制面临由于技术的不确定所引发的社会风险、政策制定者预测未来所需的各种信息及知识不足的风险、政策滞后性风险等问题,使政策效果预期与运行结果产生偏差。因此,如何规范人工智能发展政策的决策程序并提升人工智能政策的理性水平是解决现代社会技术风险规制的重要课题。  相似文献   

19.
随着人工智能的广泛应用,其在为人类生产和生活带来便利的同时,也引发了数据隐私泄露与算法偏见、责任主体冲击与边界模糊、主客体异化与信任危机、软法缺陷与硬法缺失等伦理风险。规制人工智能的伦理风险,须优化人工智能技术设计,注重隐私保护与社会公正;赋予人工智能以社会角色,划定人与智能的责任边界;构筑人工智能伦理规约,强化人的主体地位与诚信品质;加快人工智能的法制化进程,健全智能伦理制度体系,从而促使“人—机”和谐共处。  相似文献   

20.
生成式人工智能将人类引向AI辅助生存的环境中。文科教育视野应从面向现在转为面向未来,直面GAI对知识生产领域、学生就业领域以及应试教育根基的深度挑战。文科教育基本模式应从传承式文科教育跃升为创新性文科教育,兼顾专业训练的功利目标和素质教育的超越目标,尤其强调以意义而非数据为中心。文科教育创新性变革至少可以强调从博学转向慎思、专学转向通学、提升科学素养、熟悉技术工具、专业精品教育、意义扎根交往等方面,以应对生成式人工智能对教育领域的巨大冲击。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号