首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 93 毫秒
1.
自2022年起,以ChatGPT和GPT-4为代表的生成式人工智能迅速发展,人工智能进入了“大模型”时代。作为一项具有重大意义的技术进步,对人类社会的发展具有重要意义;同时,ChatGPT类生成式人工智能作为人的创造物,也引发了人的主体性的丧失、数据隐私泄露与算法偏见、责任主体冲击与道德地位的模糊等伦理问题,会威胁到人类的幸福生活。以ChatGPT类生成式人工智能引发的伦理问题为起点、以挖掘其产生的原因为依据,提出完善生成式人工智能伦理治理的体制和机制、优化生成式人工智能技术设计和培育正确的主体意识等规制路径。  相似文献   

2.
人工智能发展中要处理好人机关系与人际关系、政府管理与社会治理的关系、人工智能设计与人工智能伦理的关系、人工智能伦理与人工智能法律的关系.在人工智能发展中很可能陷入伦理困境,具体表现为人工智能伦理引发的道德主体问题、政府管理问题、社会发展问题、教育瓶颈问题等.针对这些人工智能伦理引发的现实问题,必须采取有效措施进行治理:一要坚持以人为本原则,彰显人民利益至上的人工智能发展理念;二要坚持权责一致原则,构建权责高度一致的人工智能治理体系;三要坚持多主体参与原则,构建人工智能伦理安全风险防范体系;四要坚持创新发展原则,建立文理深度融合的人工智能伦理教育体系;五要坚持开放共享原则,构建面向世界的人工智能伦理的对外话语传播体系.  相似文献   

3.
人工智能发展中要处理好人机关系与人际关系、政府管理与社会治理的关系、人工智能设计与人工智能伦理的关系、人工智能伦理与人工智能法律的关系.在人工智能发展中很可能陷入伦理困境,具体表现为人工智能伦理引发的道德主体问题、政府管理问题、社会发展问题、教育瓶颈问题等.针对这些人工智能伦理引发的现实问题,必须采取有效措施进行治理:一要坚持以人为本原则,彰显人民利益至上的人工智能发展理念;二要坚持权责一致原则,构建权责高度一致的人工智能治理体系;三要坚持多主体参与原则,构建人工智能伦理安全风险防范体系;四要坚持创新发展原则,建立文理深度融合的人工智能伦理教育体系;五要坚持开放共享原则,构建面向世界的人工智能伦理的对外话语传播体系.  相似文献   

4.
ChatGPT类生成式人工智能的快速发展虽在不同领域带来积极影响,但也引发了法律政策、安全技术、社会伦理等层面的监管问题。比较美国、欧盟、日本等国外典型经济体人工智能监管的治理实践,为完善我国人工智能监管治理体系提供政策参考。我国人工智能监管应坚持发展与安全并重、促进创新与依法治理相结合的监管原则,建立健全法律与政策、技术与安全、社会与伦理等层面的监管路径,同时对人工智能进行进入性监管、技术性全程监管和分级分类监管,完善我国的人工智能监管体系。  相似文献   

5.
以ChatGPT4为代表的生成式人工智能具有高度类人性和广泛适用性,有利于生产方式和众多领域的转型升级。然而,这种所谓强人工智能时代的标志性产物,伴随着技术固有的风险性问题,引发伦理以及法律层面的失范性问题。生成式人工智能的失范性主要表现为:一是针对生成式人工智能引发的风险问题,伦理与法律尚无回应;二是现有的伦理体系和法律制度的“规范性”不足。为此,文章借鉴凯尔森的规范性理论,采用“旧论新用”的方法:一是利用伦理规范化,增强其约束性、可执行力,整理其内部层级关系,形成生成式人工智能的伦理治理体系;二是运用法律规范化,强化其对生成式人工智能数理化逻辑运行的模型规范。最后,基于伦理与法律协同构建生成式人工智能的规范性体系。  相似文献   

6.
意识形态风险防范是事关民族复兴、国家主权、文化建设的核心范畴。在当今人工智能技术蓬勃发展的数字时代,以ChatGPT为代表的生成式人工智能技术内嵌渗透到社会生活领域之中,伴随着交互深度与辐射范围的不断扩展,裹挟了众多具有新特点的意识形态风险。清晰明辨ChatGPT等生成式人工智能产生意识形态风险的内在机理是防范生成式人工智能意识形态风险的前提。ChatGPT等生成式人工智能凭借内容生成的首要功能对意识形态的价值观念层进行渗透;依靠交互对话的产品形态对意识形态的话语方式产生影响;利用多维应用的功能属性对社会生活实践领域展开强势介入,促使当下意识形态斗争态势风云诡谲,变化万千。理性审视和精准识别ChatGPT等生成式人工智能所诱发的意识形态风险是防范生成式人工智能意识形态风险的关键。从意识形态引领角度出发,ChatGPT等生成式人工智能的运行机制深蕴的资本逻辑解构社会成员已形成的认知和价值,借由"技术-资本"双重优势导致意识形态面临引领乏力风险;从意识形态话语维度审视,ChatGPT等生成式人工智能带来的"人机协同"话语生产新模式削弱主流意识形态话语深度,多元的生成式话语输送淡化话语权威,导致意识形态话语减蚀风险;从意识形态管理层面反思,ChatGPT等生成式人工智能引发的信息传播新范式消解意识形态管理的主导权,及其对人的强化宰制,导致意识形态管理弱化风险。ChatGPT等生成式人工智能在掌握先进技术基础上诱发了一系列辐射广泛、渗透全面、不易掌控的意识形态风险。如何防范与化解ChatGPT等生成式人工智能所带来的意识形态风险,成为当前我国意识形态建设无法回避的新课题。首先,贯彻落实人民至上的价值理念,以马克思主义理论指导意识形态防范工作,推进打造人机和谐、风清气正的网络空间;其次,打造富有中国特色的话语途径,在讲好中国故事的话语基础上破解西方话语的现代困境;最后,积极倡导全球治理并贡献中国方案,以共商共建共享的发展原则,依托人类命运共同体构建负责任的人工智能格局,促使ChatGPT等生成式人工智能在现代文明面前彰显光明的未来前景。  相似文献   

7.
作为一种生成式预训练变压器,ChatGPT技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解ChatGPT技术带来的伦理风险,使人工智能系统成功融入人类社会。  相似文献   

8.
作为一种生成式预训练变压器,ChatGPT技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解ChatGPT技术带来的伦理风险,使人工智能系统成功融入人类社会。  相似文献   

9.
以ChatGPT为代表的生成式人工智能在优化产业结构促进经济发展的同时也带来新的法律风险。语言模型训练中的风险主要包括侵害个人信息与作品著作权风险,内容生成过程中的风险则体现为人工智能“幻觉”导致的错误信息风险、算法偏见风险、“涌现”导致的算法失控风险以及人机互动中的算法滥用风险。《生成式人工智能服务管理暂行办法》提供基本的治理框架,但部分条款设置与具体治理方式上存在不足。生成式人工智能的性能取决于训练数据集的规模与质量,模型训练中的数据治理需要尊重其技术逻辑,实践中应拓展公共数据中著作权数据与个人数据的合理使用边界。内容治理可以借鉴“宪法人工智能”的基本理念,构建动态的内容反馈评估机制。  相似文献   

10.
以ChatGPT为代表的生成式人工智能已经成为意识形态风险生成的重要场域,其具有的基于大数据的人机对话模式、基于自我学习的算法机制和不断改进的算力等特点使其在实际运作中内嵌了强烈的意识形态属性,表征为以技术为手段的意识形态权力转移导致的场域失落风险、以人机协同操纵意识形态偏见导致的话语权旁落风险和以模糊边界运作加大意识形态治理难度引发的治理失效风险。其生成诱因在于资本与技术扩张导致资本逻辑内嵌于意识形态风险之中,去中心化与再中心化的话语权转移带来了人类语言逻辑表达与多元价值博弈,以及对话沉迷与主体危机的内容失真引发的治理范式转化与监管失灵。应立足于阵地治理、数据治理和制度治理使生成式人工智能场域转变为巩固意识形态认同的最大增量。  相似文献   

11.
现代生物技术的迅猛发展极大地变革了人类的生产生活方式,为增进人类福祉作出了巨大贡献。然而,一些现代生物技术却日渐异化,引发了对生态、伦理和人类健康等一系列严重的负面效应,正愈益成为影响人类社会进步的异己力量。只有积极构筑完善的公共政策治理、伦理治理与法律治理体系,才能有效推动现代生物技术负面效应的“善治”,负责任地促进现代生物技术的发展向更高阶段的跃进。  相似文献   

12.
人工智能促进了社会风险治理系列创新,正在成为国内外学术界热烈讨论的问题。通过典型案例与理论研究发现,就“技术[CD*2]治理”而言,在人工智能时代,风险治理首先需要解决的是技术问题,只有对技术做出最佳选择,才能促使治理效果最佳化。就“政府[CD*2]社会”而言,人工智能不仅提高了政府治理能力,而且通过复杂的自适应系统、社区参与与社区赋权促进了民间社会成为治理主体。就“挑战[CD*2]前景”而言,人工智能将在许多方面迅速使人类智能落后,最重要的风险治理技术问题将由人工智能负责,出现所谓的“技术奇异性”或“奇异性”现象而具有光明的应用前景。就“不足[CD*2]陷阱”而言,缺乏自我意识的人工智能比人类大脑要危险得多,它可能逃脱人类控制并制造更大的社会风险,在治理社会风险的同时,也可能制造了新的社会风险。尽管如此,人工智能是社会的一部分,不仅具有强烈的社会功能,而且具有快速性、准确性与广泛性其他功能,促进了风险治理的重大变革,治理者应将其上升到战略层面,主动适应其发展变化。  相似文献   

13.
中国式现代化需要统筹发展与安全。实现高质量发展和高水平安全之间的动态平衡,需要主动防范化解各类风险隐患。在化解传统风险的同时,我们需要高度关注第四次工业革命带来的新兴风险挑战。在第四次工业革命发展过程中,“机器问题”带来的社会失业风险、技术监管滞后带来的隐私风险、多智能体崛起带来的治理风险、技术异化带来的伦理风险、人类生存意义何在的终极风险等挑战,使社会发展面临很大的不确定性。面对第四次工业革命的新兴风险挑战,我们需要推动劳动力教育培训体系升级,进行负责任的研究与创新,实现数据使用与隐私保护的平衡,实行更加灵活高效的监管,从而对第四次工业革命的风险挑战进行有效治理,不断推进中国式现代化的实践与探索。  相似文献   

14.
数字时代人工智能逐步深入人类生活,在改造和重塑各行业、为社会发展赋能的同时,也引发了不容小觑的法律和伦理风险。尤其是在Chat GPT等生成式人工智能面世后,人工智能立法规制的必要性大大增加。欧盟和美国率先针对人工智能发布立法规制,这为我国人工智能综合立法中基础法律问题的解决提供了先行经验,如解决人工智能法律主体地位和知识产权争议等相关问题。除此之外,分析美欧人工智能相关立法也为中国应对AI风险等级分类管理、全过程体制监管以及建立人工智能相关治理机构等具体程序性问题提供了参考。目前,我国针对生成式人工智能出台了《生成式人工智能服务管理暂行办法》,深圳、上海等地也相继出台了地方性立法,但还未形成国家层面的人工智能综合立法。综合立法可以解决我国人工智能法律规范数量少、层级低、缺乏顶层设计等问题,更好地进行人工智能管理和促进其发展。此外,树立良性道德伦理规范有利于为后续立法进程打好基础,加快数据、算法等基础立法进程也有助于促进人工智能的综合立法进程。  相似文献   

15.
算法作为人工智能技术的重要组成部分,已经成为决定“人机共生”关系走向的关键要素,同时也带来了人类认知上的“黑匣子”,限制了人类理解和使用技术的能力,引发了技术使用过程中的各种问题,导致了人类对算法的不充分信任。算法伦理审查的价值规范体系,包括算法伦理审查的标准化、制度化和结构化。发展负责任的算法,强化算法伦理审查的理性认知并建构实用框架,推进算法透明度、可解释性以及公众满意度等伦理维度指标落地,可以有效消解算法歧视和隐私暴露等问题,更好地推动算法伦理审查机制的健全完善。  相似文献   

16.
全球治理中的猎鹿困境   总被引:6,自引:0,他引:6  
今天 ,全球治理的发展正面临着巨大的困难 :不仅包括已有着充分讨论的“白搭车”、相对收益等问题 ,还包括卢梭所论说的“猎鹿困境”。对全球治理而言 ,卢梭“猎鹿困境”暗示了在缺乏有约束力的中央权威下 ,集体协议遭到不受制裁的违背的极大可能 ,其伦理原因在于“自我保存伦理”与“自我超越伦理”的根本冲突。在走向全球治理的过程中 ,无论是高政治还是低政治领域都存在着严重的“猎鹿困境” ,个别国家对绝对安全的追求、恐怖主义、大规模杀伤性武器扩散、全球环境保护努力受挫等仅是冰山一角。因而 ,要超越“猎鹿困境”、实现真正的全球治理 ,伦理上需要确立自我超越伦理的首要地位 ,而在制度上则需实现由等级式治理向网络式治理的转变  相似文献   

17.
数字时代人工智能技术的飞速发展正在改造和重塑社会各个行业和领域,为人类的未来带来更大的不确定性。相较于其他现代技术,基于数字底座的人工智能表现出更强的迭代性、通用性、颠覆性和重塑性等特性,因此对经济社会产生更为广泛和深刻的影响。根据技术的实践性理论和风险社会理论,人工智能社会安全风险可以概括为源于技术本身的本体性风险、源于技术利用主体的主体性风险,以及在规模化应用中对社会群体产生影响的客体性风险。这种类型划分不仅印证了该技术社会影响的全面性,也揭示了风险生成的内在机理。为了构建负责任、有预见性的技术风险治理体系,应坚持以人为中心的发展思路、营造人文良善的技术生态、构建包容审慎的监管体系、形成多元共治的社会格局,以整体性的敏捷治理体系实现对技术风险的长效治理。  相似文献   

18.
以ChatGPT为代表的生成式人工智能具备在自动学习的基础上生成新内容的能力,在引发生产力革命的同时也形成了法律规制难题。ChatGPT会造成隐私侵权、数据安全风险以及知识产权确权与保护困境等难题,其主要原因在于数据中心主义、算法高度信任以及规范滞后于技术等。治理ChatGPT应当秉持捍卫人的尊严原则和倡导有限信任原则,坚持以公共利益为导向确定权属分配,并构建以开发设计者为主体的合规方案,发挥科技伦理引领与法律规范的双重作用。具体可采取对数据采集的合规控制、以技术治理技术、优化数据管理方法等措施。为了防范ChatGPT过度模糊人与机器之间的信任边界,还应根据用户的专业性程度配置不同的披露义务。  相似文献   

19.
以人工智能深度伪造技术为代表的生成式AI的创造力和技术想象力正在以“数字化身体”为焦点,重塑数字生活世界。一方面,数字化身体以一种数据信息流的方式在虚拟世界中进行传播和应用,塑造了高度流动性的场景。另一方面,在全景展示社会中,数字化身体不断建构符号化、流程化和同质化的主体暴露美学,为人工智能深度伪造的技术叙事和场景叙事提供了可供性。基于数字化身体景观的涌现,人工智能深度伪造技术强大的“数字世界再造”导致生物识别数据隐私泄露和自主性丧失、社会信任危机与群体分化、政治舆论变异和社会民主破坏、后真相与本体性安全丧失等伦理风险。进而,在超真实的数字化世界中,现实世界被虚拟世界遮蔽而引发人的认知、伦理和生存的虚无化,从而走向真相与假相的内爆、真相衰退与认知无能、图像制造的道德悖论以及主体性剩余的虚无困境。面对人工智能技术内在的虚无主义力量,关键不在于确定性世界和确定性观念的建立,更重要的是以一种生存论哲学视角去看待人工智能技术,即人工智能技术就是人的本质存在,其带来的种种问题并不是技术对人的单向度地反噬和异化,而是人类社会发展和人的自我建构不断扬弃的历史过程。  相似文献   

20.
戚凯 《国际论坛》2023,(4):3-23+155
数字全球化加速发展致使人工智能及其潜在变革动能受到国际社会广泛关注。美国高度重视相关技术研发以护持自身霸权,政府携手跨国数字巨头加速推进该国人工智能领军企业OpenAI发展步伐,美国金融资本亦对其予以重点扶持。作为该企业的核心产品与生成式人工智能科技的最新成果,ChatGPT一经发布即引发世界各国高度重视。然而,该产品发展前景并不完全明朗,不仅仍面临准确性与安全性困境,且难以突破知识产权与监管限制。同时,生成式人工智能技术贸然跃进或带来国家内外矛盾上升、数字鸿沟扩大等重大挑战,加快数字时代国际竞争节奏、提升大国竞争复杂性,并加剧全球数字扩张无序性。作为全球数字大国,中国亦正积极把握ChatGPT带来的人工智能发展机遇,但因受美国战略遏制打压严重而在技术跟进、人才培养、产业布局、国家安全保障等方面面临诸多挑战。鉴于此,中国需保持战略定力,从本国实际情况出发,在加大研发投入的同时坚持国际合作与和平发展,积极推动全球人工智能治理加速。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号