首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 746 毫秒
1.
数据与算法在人工智能时代成为新的权力生产要素,技术置换权力机制得以开启,权力流动更为灵活和频繁,国家治理权力结构将发生多面向变化。超级企业的出现使国家治理权力主体组成从国家单中心结构转变为多中心结构;枢纽部门的出现使国家治理权力部门格局从散点状结构转变为伞面状结构;领头国家的出现使人工智能弱国的国家治理权力空间配置从整块式结构转变为翘板式结构。人工智能时代的国家治理充满变数,权力流动背后的责任匹配与技术霸权问题有待思考,面向未来的国家治理预判值得期待。  相似文献   

2.
生成式人工智能(AIGC)的迅猛发展,全方位渗透社会生活各个领域,并对传统法律制度形成重大挑战,造成了现行法律制度与法治现代化需求之间的紧张关系。以法治现代化为导向推动AIGC的法律治理,制度转型、制度变革刻不容缓。法价值、法秩序、法动力层面的理论定向,为AIGC法律治理现代化提供法理涵养和功能定位依据,需要从人工智能治理与人类价值目标相一致、满足法治现代化的需要和国家现行法治制度对人工智能治理的需求等方面予以探讨。法治现代化价值需求、风险规制需求、新的规则秩序需求勾勒、型塑出AIGC法律治理基本框架,需要实现法治共识向制度的转化、构建有对应性的理论规则,有效拓展科技治理的内涵,以制度转化、制度增容、制度供给、制度耦合来构建生成式人工智能法律治理的现代化体系。  相似文献   

3.
斯塔尔人工智能生态系统伦理治理思想以繁荣伦理学为视角,旨在塑造促进人类繁荣的人工智能生态系统。它认为应确立人工智能生态系统的中心节点,由这些中心节点担任人工智能生态系统伦理治理的元责任主体,负责确保个人、组织和国家了解他们的责任和履行责则。在斯塔尔看来,人工智能生态系统伦理治理应遵循韧性原则、试探性治理原则、学习能力原则和元责任原则。他还提出了自己的人工智能生态系统伦理治理路径:重新反思人工智能研究和创新与伦理之间的关系、测量人工智能的开发和使用对人类繁荣的影响、建立人工智能知识库、构建利益相关者参与治理机制。斯塔尔人工智能生态系统伦理治理思想一方面引领人工智能伦理治理研究从技术个体层面向系统层面发展,另一方面为人工智能生态系统的伦理治理提供方法论指导。  相似文献   

4.
数字时代人工智能技术的飞速发展正在改造和重塑社会各个行业和领域,为人类的未来带来更大的不确定性。相较于其他现代技术,基于数字底座的人工智能表现出更强的迭代性、通用性、颠覆性和重塑性等特性,因此对经济社会产生更为广泛和深刻的影响。根据技术的实践性理论和风险社会理论,人工智能社会安全风险可以概括为源于技术本身的本体性风险、源于技术利用主体的主体性风险,以及在规模化应用中对社会群体产生影响的客体性风险。这种类型划分不仅印证了该技术社会影响的全面性,也揭示了风险生成的内在机理。为了构建负责任、有预见性的技术风险治理体系,应坚持以人为中心的发展思路、营造人文良善的技术生态、构建包容审慎的监管体系、形成多元共治的社会格局,以整体性的敏捷治理体系实现对技术风险的长效治理。  相似文献   

5.
以ChatGPT为代表的生成式人工智能在优化产业结构促进经济发展的同时也带来新的法律风险。语言模型训练中的风险主要包括侵害个人信息与作品著作权风险,内容生成过程中的风险则体现为人工智能“幻觉”导致的错误信息风险、算法偏见风险、“涌现”导致的算法失控风险以及人机互动中的算法滥用风险。《生成式人工智能服务管理暂行办法》提供基本的治理框架,但部分条款设置与具体治理方式上存在不足。生成式人工智能的性能取决于训练数据集的规模与质量,模型训练中的数据治理需要尊重其技术逻辑,实践中应拓展公共数据中著作权数据与个人数据的合理使用边界。内容治理可以借鉴“宪法人工智能”的基本理念,构建动态的内容反馈评估机制。  相似文献   

6.
责任困境正成为人工智能嵌入政府治理的难题,剖析其生成过程以及理性应对,有助于发挥人工智能技术价值,提升智能社会的政府治理效能,推动实现以人民为中心的服务型政府。责任困境是一种程序化与过程化的问题,需从动态过程来分析,基于“信息—解释—结果”的分析框架,从避责、问责、追责的全过程视角,剖析人工智能嵌入政府治理的责任困境。通过推进算法透明度技术创新,构建责任清晰的政府治理决策机制,建立健全智能时代责任追究制度,推动建立公共治理演练数据库,加强智能时代行政文化建设等举措,确保智能治理与公共伦理同步发展。  相似文献   

7.
人工智能治理精准化是人工智能产品和服务供给侧改革的一种体现,旨在增强人工智能产品与服务供需对接的有效性,实现人工智能资源的高质量供给和合理化配置。人工智能治理精准化将公众需求视作中心,以公众需求识别为起点,以公众需求满足为终点,构成一个开放式的循环过程。包容性增长、程序公正、过程透明、稳健安全、负责任构成了人工智能治理精准化的基本原则。作为一个系统工程,人工智能治理精准化的实现需要建立民主协商机制、协同合作机制和质量评价机制。  相似文献   

8.
敏捷治理驱动的乡村数字治理   总被引:1,自引:0,他引:1  
乡村数字治理是推进数字乡村建设和实施乡村振兴战略的重要内容。基层政府将敏捷治理思维和方法嵌入乡村数字治理体系之中,提供了弹性再造治理空间、灵活设置治理机制、协同参与治理流程的经验样本,建构了乡村数字治理的独特模式。这一模式运作呈现出三种实践取向:一是智治主义取向,指涉运用先进的信息技术工具搭建乡村治理的数字化平台,打造完善的信息基础架构和治理模块,变革治理信息的生产、传递和处理方式,在此基础上形塑“整体智治”的治理形态;二是简约主义取向,指涉增强乡村治权和主体性,赋予村级组织必要的治理权力和资源,发挥社会内生性力量的自治功能;三是人本主义取向,指涉依循“以民众为中心”的基本原则,使民众成为参与治理流程和评判治理绩效的主体,将民众需求作为乡村数字治理的决策依据和运行基点。  相似文献   

9.
以人工智能为关键技术的智能革命对人类社会治理产生了深刻影响。一方面,人工智能的应用有利于增强治理协同性,提升决策效率和治理效能,展示出美好的治理前景;另一方面,由于算法权力膨胀、个人价值迷失和人类责任缺位等现象凸显,导致治理中面临人类边缘化风险。因此,重塑人工智能治理中人的主体性是人类必须面对的重要议题。在未来人机共生的治理环境当中,人工智能很可能成为治理主体之一,人类对于人工智能的发展应持包容审慎的态度,设定好人工智能的应用边界,引导技术应用服务于增进人类福祉。同时,从人类自身出发探索将人的主体性带回治理的有效路径,包括加强全球合作,应对治理挑战;完善国家制度,保障人类自治;发展创新型社会单元,开展创造性生产活动;重塑个人责任意识,提升治理能力等。  相似文献   

10.
公共治理中的人工智能应用:一个文献综述   总被引:1,自引:0,他引:1  
人工智能应用为何能够嵌入公共治理,如何发挥人工智能应用于公共治理之价值是学界探讨不止的重要议题。采用内容分析法对近15年国内研究文献作系统梳理发现,人工智能应用正在重构公共治理的问题场域,并逐渐成为改进公共治理绩效和达到善治目标的工具。这三方面共同构成了人工智能应用嵌入公共治理的内在机制。现阶段,公共治理中人工智能的应用重点集中在基本公共服务供给、城市应急与环境治理等方面,但人工智能应用仍面临安全、侵权、解构秩序、冲击法治体系和道德伦理等风险。国际上制定国家战略政策、建立监测体系、加快融入公共服务的实践经验,为我国公共治理人工智能应用的纵深发展和风险应对提供了借鉴。立足于我国公共治理的现实,人工智能应用的未来可为方向是智能行政审批、责任分摊机制、公共政策制定、公共伦理设计和政府新型智库建设等。  相似文献   

11.
人工智能时代的到来既丰富了国家治理的技术工具选择,也促使国家治理产生深刻的算法依赖。算法偏见的存在及其隐蔽性会引发国家治理公平难题,算法黑箱的存在使得不同主体都可以找到卸责理由从而会引发国家治理责任难题。人工智能企业拥有独特的技术优势,因而人工智能时代国家治理的算法依赖在某种意义上是国家对人工智能企业的技术依赖。应对算法依赖引发的国家治理难题既需要人工智能企业自律,也需要国家加强监管。建立硬覆盖算法备案说明制度、不定时算法抽检审查制度、开放式算法结果观测制度,是推进国家监管的关键行动举措。  相似文献   

12.
人工智能促进了社会风险治理系列创新,正在成为国内外学术界热烈讨论的问题。通过典型案例与理论研究发现,就“技术[CD*2]治理”而言,在人工智能时代,风险治理首先需要解决的是技术问题,只有对技术做出最佳选择,才能促使治理效果最佳化。就“政府[CD*2]社会”而言,人工智能不仅提高了政府治理能力,而且通过复杂的自适应系统、社区参与与社区赋权促进了民间社会成为治理主体。就“挑战[CD*2]前景”而言,人工智能将在许多方面迅速使人类智能落后,最重要的风险治理技术问题将由人工智能负责,出现所谓的“技术奇异性”或“奇异性”现象而具有光明的应用前景。就“不足[CD*2]陷阱”而言,缺乏自我意识的人工智能比人类大脑要危险得多,它可能逃脱人类控制并制造更大的社会风险,在治理社会风险的同时,也可能制造了新的社会风险。尽管如此,人工智能是社会的一部分,不仅具有强烈的社会功能,而且具有快速性、准确性与广泛性其他功能,促进了风险治理的重大变革,治理者应将其上升到战略层面,主动适应其发展变化。  相似文献   

13.
进入数智时代,生成式人工智能应用在全球掀起的使用热潮引发了人们对相关伦理困境与风险问题的关注,虽然公平、准确、可靠、安全、人类监督等几项内容被设定为负责任人工智能的核心原则;但生成式人工智能的技术治理方面存在因本体论身份引发的价值张力、训练数据的代表性偏差与安全系统被动保护带来的三重困境并为生成式人工智能如何实践“负责任”的原则带来了现实挑战。在风险全球化与国际竞争加剧的历史变局下,人类社会面对生成式人工智能潜在的伦理与社会风险,应加快建立全球治理的合作机制,践行文化包容的治理智慧,以及回归社会问题本源的认识论是实现生成式人工智能“负责任”原则的关键。  相似文献   

14.
本文介绍了自然语言处理技术的人工智能应用程序ChatGPT在AIGC(人工智能生成内容)领域的突破性进展,以及这种进步的重要意义。通过回溯历次工业革命对社会的影响,提出以下观点:人工智能发展将带来新的工业革命,人工智能社会已经成为趋势;人类的历史就是不断突破自身局限的历史,人工智能正带来一次新的工业革命,前两次工业革命人类扩展了肢体的机能,从第三次工业革命开始扩展的是大脑和神经系统的机能,进入对自身局限挑战的最高阶段,人工智能将推动大脑和其他身体机能整合式扩展,形成智能社会。还分析了ChatGPT可能带来的就业问题和社会分化与不平等,分析了人工智能技术的风险,如隐私和数据安全、算法黑箱可能带来的偏见和歧视、人工智能依赖等问题。最后,介绍了国外研究者关于人工智能社会治理的思想,提出社会治理的基本思路。  相似文献   

15.
人工智能可能给社会带来法律所不能允许的危害风险.理性地审视人工智能带来的风险,从利益驱动到技术发展是一个在场域与频度逐步减少的风险.经过技术的检验和实验室的过滤,人工智能的危害风险并非不可控制.人工智能的危害风险可以体系化地应对,不会形成风险处置,不能导致风险无限扩张.从技术治理、道德约束、强制登记与保险制度以及立法监管等可以系统地化解和有效地处置人工智能的危害风险.  相似文献   

16.
伴随着人工智能在国家治理中的应用,产生了人才和技术缺失、算法影子官僚、算法偏见、人机协同困难等问题,迫切需要建构技术向善的制度来促进人工智能在国家治理中的有效应用。激励制度和约束规范并举是技术有效融入治理的客观需要,以激励制度发挥人工智能赋能的正向作用,以约束规范减低或消除人工智能赋能的负面效应。当前,需要建构的激励性制度包括建立和完善人才激励制度,以教育模式变革来培养创新人才;促进和强化产学研合作制度,使创新链、产业链与市场高度连接;重视和加强基础研究支持制度,激励科学家潜心基础研究;建立发展信息收集制度,加强对人工智能发展的预判、协调和协同;建构行业标准体系,减少标准不一带来的浪费行为。需要建构的约束性规范包括加强立法论证,建构法律约束,打击人工智能赋能的侵权行为;强化对违反伦理原则赋能的制约机制,建构伦理约束,树立可信、可责、可知、可用的人工智能伦理原则;建构人工智能赋能的风险防范机制,建立安全测试机制、政治安全审查机制、军事化防范机制、失业预警防范机制、突破国际封锁机制等措施。通过建构激励性制度和约束性规范,有效发挥两者的双向协同作用,以促进人工智能有效赋能国家治理现代化。  相似文献   

17.
人工智能发展中要处理好人机关系与人际关系、政府管理与社会治理的关系、人工智能设计与人工智能伦理的关系、人工智能伦理与人工智能法律的关系.在人工智能发展中很可能陷入伦理困境,具体表现为人工智能伦理引发的道德主体问题、政府管理问题、社会发展问题、教育瓶颈问题等.针对这些人工智能伦理引发的现实问题,必须采取有效措施进行治理:一要坚持以人为本原则,彰显人民利益至上的人工智能发展理念;二要坚持权责一致原则,构建权责高度一致的人工智能治理体系;三要坚持多主体参与原则,构建人工智能伦理安全风险防范体系;四要坚持创新发展原则,建立文理深度融合的人工智能伦理教育体系;五要坚持开放共享原则,构建面向世界的人工智能伦理的对外话语传播体系.  相似文献   

18.
人工智能发展中要处理好人机关系与人际关系、政府管理与社会治理的关系、人工智能设计与人工智能伦理的关系、人工智能伦理与人工智能法律的关系.在人工智能发展中很可能陷入伦理困境,具体表现为人工智能伦理引发的道德主体问题、政府管理问题、社会发展问题、教育瓶颈问题等.针对这些人工智能伦理引发的现实问题,必须采取有效措施进行治理:一要坚持以人为本原则,彰显人民利益至上的人工智能发展理念;二要坚持权责一致原则,构建权责高度一致的人工智能治理体系;三要坚持多主体参与原则,构建人工智能伦理安全风险防范体系;四要坚持创新发展原则,建立文理深度融合的人工智能伦理教育体系;五要坚持开放共享原则,构建面向世界的人工智能伦理的对外话语传播体系.  相似文献   

19.
疆域构成国家治理权力活动和流动的空间边界,任何国家都不会轻易允许其治理权力流出到疆域外。新一轮聚焦于人工智能的全球科技竞争浪潮的兴起会促使“超级国家”出现。“超级国家”可以通过数据与算法输入、技术援助、芯片控制等方式置换人工智能弱国的部分国家治理权力,使得人工智能弱国的国家治理权力空间配置形成一个翘板式结构,即一部分配置在本国疆域内,一部分配置在“超级国家”疆域内;翘板的倾斜方向取决于人工智能弱国对“超级国家”的技术依赖程度或者说人工智能弱国的技术自主自给程度。中国在应对“超级国家”的“智能霸权”方面可以扮演重要角色。  相似文献   

20.
人工智能技术的大规模应用一方面促进了相关领域的发展,另一方面也加速显现出了其所带来的风险.如何扬长避短,让人类在充分安全的条件下享用人工智能带来的重大利好,已经成为人工智能治理体系建设中的突出问题和重要任务.人工智能并非成熟技术,且在不同发展阶段呈现出了不同的技术特点和社会特征.人工智能治理体系建设相关研究应采用发展的思路,治理框架的设计要秉承弹性动态的理念,并与技术同步生长.本文着重对人工智能治理焦点的变化进行了分析,并对人工智能弹性治理框架的效用及可行性进行了详细阐述,以期为健全人工智能治理体系提供理论参考.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号