首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
人类每取得一项划时代技术创新都会带来工具飞跃,并将影响社会治理形态的演进。智能时代来临,人工智能作为一种工具性的治理手段在嵌入社会治理过程中,因其对权力主体和治理结构的影响呈现出双向—非均衡性,从而造成了技术治理中新的社会风险——技术利维坦。为此,政府要以更积极的姿态,注重政府与企业社会组织的人工智能人才队伍建设,建立人工智能技术发展的预判机制,推进社会治理主体的协同合作,以实现社会治理智能化发展。  相似文献   

2.
黑格尔的国家干预理论、法权理论和网络治理理论为高等教育治理提供了新的视角。高等教育领域具有多重法权关系,在大学的外部法权关系中,政府、市场、社会与大学四者之间存在明显的权力博弈;在大学的内部法权关系中,学校与院系、学术与行政、师生与大学管理者之间也有冲突与互动。高等教育治理的法权网络体现在两个相互渗透的层面:宏观层面和微观层面。宏观层面表现为大学的外部法权治理结构,微观层面表现为大学的内部法权治理结构。  相似文献   

3.
在数字时代,人工智能成为撬动客观世界、重塑个体生活的强大力量。因凭对“智能”技术的隐秘操纵,数字资本崛起并将人工智能塑造成符合资本利益的工具,人工智能的不当设计及资本应用导致了主体生产的遮蔽、真实交往的缺位、本真需求的异化。安德鲁·芬伯格以“技术代码”解构了技术的本质为工具与文化的聚合,揭露了技术设计领域的沉疴,并提出关照公众利益、以技术民主实现主体复归的变革进路。文章通过对芬伯格技术民主理路的审思,指出应及时规制资本权力对人工智能的不当应用,多措并举引导人工智能持续向善,才能破除“智能”统御,在更高层级实现主体复归。  相似文献   

4.
随着人工智能技术在广告领域的广泛应用,智能广告中技术应用引发伦理风险的问题逐渐成为焦点。从技术伦理学视角来看,目前智能广告中主要存在两类伦理风险:一是基于多端数据挖掘产生的消费者隐私侵犯、信息价值侵害和创意知识产权侵犯,二是基于深度学习算法产生的广告运作壁垒、消费者阶层分化和消费异化。智能广告中技术伦理风险的治理应先从观念化价值、经验化价值以及技术化价值三个方面建立治理原则,再从智能广告的设计、测试、应用、复盘四个环节制定治理策略,即伦理嵌入、伦理评估、伦理调适和伦理确认,以期规避和约束智能广告中的技术伦理风险。  相似文献   

5.
作为一种深入社会生活领域的技术性存在,人工智能逐渐控制人的生物特征和生命特征,导致社会关系特别是人际交流方式的重塑,人类生产和生活方式因此发生异化,并衍生出一系列的精神生态问题,主要包括主体交流的异化和主体的现代性迷失。主体交流的异化主要体现为人工智能应用中的情感交流缺席,并将人类面对面的双向交流变为冷血的单向交流,人工智能还降低了人们亲密交流的可能性。智能时代主体的现代性迷失主要包括自我认同的焦虑、主体地位与尊严的虚无感、智能技术压力下主体的精神困扰以及人工智能剥夺艺术活动中主体的审美情感体验等。应该防止人工智能工具理性的过度膨胀,重视其价值理性的一面;从人类的整体利益出发,凸显人的主体地位,通过生活实践实现人机之间和谐互动的交互状态。  相似文献   

6.
大学章程是内部治理的总纲领,也是调整大学关系的基本法律依据。加拿大皇家大学章程在法律框架、大学宗旨、法律地位、治理结构方面极具特点。通过分析加拿大皇家大学章程文本内容,对完善我国开放大学章程建设有以下启示:一是开放大学章程应包涵开放性、公平性、高质量、服务性的理念与学历、非学历教育以及终身教育的宗旨;二是开放大学章程明确规定大学主体法律地位;三是开放大学章程是调整开放大学内部治理结构的法律依据。  相似文献   

7.
人类社会漫长的政治发展进程中充满了权力生产与权力转移现象。随着人工智能时代的到来,作为人工智能技术关键成分的数据与算法,逐渐成为权力生产的新要素,谁掌握更充分的数据和更先进的算法,谁就可能拥有更多或更大的权力,技术的赋权效应得以彰显。技术赋权可能催生新权力主体,权力转移现象可能再度发生。人工智能企业既因为在数据与算法方面拥有独特的技术优势而内生出部分权力,也因为为国家治理提供技术辅助而另外获得部分权力,可能成为与国家相媲美的新权力中心。人工智能企业的权力增长,可能促使国家治理权力结构从传统的单中心结构变为多中心结构;与此同时,由于人工智能时代的国家治理越来越倚重人工智能企业提供算法支持,而算法可能出现失误,加之“算法黑箱”和卸责链条的存在,因此人工智能企业的权力增长还可能消解权责同体的基本政治规则,引发权责分离现象或者说国家治理问责难题。新权力中心在多大概率上会出现,既取决于国家与人工智能企业的技术实力对比,也取决于国家治理对人工智能企业的技术依赖程度。应对人工智能时代的权责分离现象或者说问责难题,除了促使人工智能企业高度自律,还需要国家匹配备案与试点制、随机抽查检验制、服务积分制等制...  相似文献   

8.
人工智能技术应用于养老领域,是养老服务朝着更加智能化、普适化、规范化方向发展的内在需要,也是有效破解传统养老服务模式并创新发展的客观要求。但智能养老技术的潜在风险严重制约智能养老技术的可持续发展,迫切需要解决个人信息安全保护受限、人工智能技术安全失控、人机交互伦理责任不明,以及服务对象的公平受益失衡等问题。防控与纾解智能养老技术风险需要汇聚相关责任主体合力,强化数据安全监管与隐私防护体系,推进人工智能的适老化改革,促进智能养老服务普惠式发展,完善公开透明的责任追究机制。  相似文献   

9.
人工智能与信息化技术在司法执行领域的应用,为缓解司法执行难问题带来了新的契机。但人工智能对数据与算法有着双重依赖;机器智能技术与人类理解技艺间存在实然鸿沟;人工智能技术嵌入案件执行过程亦潜藏个案形式正义与实质正义的弥合难题。与此同时,人工智能算法缺陷的隐匿可能引发执行客观性失却风险;技术依赖深重可能弱化法官主体地位;人为设置或认知阻隔的算法黑箱亦可能加大执行责任的切割与追究难度。应当以法治思维为依归,从认知层面、观念层面、技术层面及制度层面对司法执行人工智能化的实践问题做出全方位的应对。  相似文献   

10.
人工智能时代的到来既丰富了国家治理的技术工具选择,也促使国家治理产生深刻的算法依赖。算法偏见的存在及其隐蔽性会引发国家治理公平难题,算法黑箱的存在使得不同主体都可以找到卸责理由从而会引发国家治理责任难题。人工智能企业拥有独特的技术优势,因而人工智能时代国家治理的算法依赖在某种意义上是国家对人工智能企业的技术依赖。应对算法依赖引发的国家治理难题既需要人工智能企业自律,也需要国家加强监管。建立硬覆盖算法备案说明制度、不定时算法抽检审查制度、开放式算法结果观测制度,是推进国家监管的关键行动举措。  相似文献   

11.
算法性别歧视是人工智能算法在信息采集、生成、分发等传播环节产生的与现实社会相同的对女性的差别化待遇,它是现实生活中长期存在的性别歧视观念在网络领域的延伸,给女性的数字化生存带来诸多挑战。其成因既有社会结构性偏见的智能投射,也包括政治操控与资本干预的共谋塑造以及算法黑箱量化建模的计算偏差。智能传播时代,对算法性别歧视的治理应采取多元的视角和立场,在技术、法律、伦理等层面共同约束规制、协同治理。  相似文献   

12.
人工智能促进了社会风险治理系列创新,正在成为国内外学术界热烈讨论的问题。通过典型案例与理论研究发现,就“技术[CD*2]治理”而言,在人工智能时代,风险治理首先需要解决的是技术问题,只有对技术做出最佳选择,才能促使治理效果最佳化。就“政府[CD*2]社会”而言,人工智能不仅提高了政府治理能力,而且通过复杂的自适应系统、社区参与与社区赋权促进了民间社会成为治理主体。就“挑战[CD*2]前景”而言,人工智能将在许多方面迅速使人类智能落后,最重要的风险治理技术问题将由人工智能负责,出现所谓的“技术奇异性”或“奇异性”现象而具有光明的应用前景。就“不足[CD*2]陷阱”而言,缺乏自我意识的人工智能比人类大脑要危险得多,它可能逃脱人类控制并制造更大的社会风险,在治理社会风险的同时,也可能制造了新的社会风险。尽管如此,人工智能是社会的一部分,不仅具有强烈的社会功能,而且具有快速性、准确性与广泛性其他功能,促进了风险治理的重大变革,治理者应将其上升到战略层面,主动适应其发展变化。  相似文献   

13.
建立现代大学制度的核心是实施法人治理,协调处理好高等学校法人的内外部关系。高等学校是一个利益共同体,在现行法律法规框架下,其内部各利益主体间的关系中存在着党政领导制度"预设"的矛盾、学术权利与行政权力的冲突以及学校权力与教师权利、学生权力(利)的内部矛盾。高等学校法人内部的困惑与矛盾成因有制度性因素,也有科层制模式下内部权力结构与运行上的问题。正确认识和分析高等学校法人内部的困惑与矛盾,实施法人治理是现代大学建设必然的路径选择。  相似文献   

14.
以人工智能为关键技术的智能革命对人类社会治理产生了深刻影响。一方面,人工智能的应用有利于增强治理协同性,提升决策效率和治理效能,展示出美好的治理前景;另一方面,由于算法权力膨胀、个人价值迷失和人类责任缺位等现象凸显,导致治理中面临人类边缘化风险。因此,重塑人工智能治理中人的主体性是人类必须面对的重要议题。在未来人机共生的治理环境当中,人工智能很可能成为治理主体之一,人类对于人工智能的发展应持包容审慎的态度,设定好人工智能的应用边界,引导技术应用服务于增进人类福祉。同时,从人类自身出发探索将人的主体性带回治理的有效路径,包括加强全球合作,应对治理挑战;完善国家制度,保障人类自治;发展创新型社会单元,开展创造性生产活动;重塑个人责任意识,提升治理能力等。  相似文献   

15.
司法实践中,在司法机关、社会公众等主体需求的推动下,人民法院探索和实践了“要素式”审判方法。与其他审判方法相比,要素式审判本身具有一系列的优势特征,并被全国各地法院不同领域的专业法官所认可并推行。随着人工智能技术的快速发展和广泛应用,将人工智能引入司法审判成为当下信息技术与法学交叉结合的重要研究方向之一。研究人工智能技术与要素式审判的有效结合、研发要素式智能审判系统,可以反作用于要素式审判的整体运行,但也要意识到人工智能发展与审判辅助需求都存在“冷”与“热”的平衡问题。要素式审判的理论完善和增加电子卷宗深度应用的系统集成,都成为下一阶段司法实践重要的发展方向。  相似文献   

16.
公共治理中的人工智能应用:一个文献综述   总被引:1,自引:0,他引:1  
人工智能应用为何能够嵌入公共治理,如何发挥人工智能应用于公共治理之价值是学界探讨不止的重要议题。采用内容分析法对近15年国内研究文献作系统梳理发现,人工智能应用正在重构公共治理的问题场域,并逐渐成为改进公共治理绩效和达到善治目标的工具。这三方面共同构成了人工智能应用嵌入公共治理的内在机制。现阶段,公共治理中人工智能的应用重点集中在基本公共服务供给、城市应急与环境治理等方面,但人工智能应用仍面临安全、侵权、解构秩序、冲击法治体系和道德伦理等风险。国际上制定国家战略政策、建立监测体系、加快融入公共服务的实践经验,为我国公共治理人工智能应用的纵深发展和风险应对提供了借鉴。立足于我国公共治理的现实,人工智能应用的未来可为方向是智能行政审批、责任分摊机制、公共政策制定、公共伦理设计和政府新型智库建设等。  相似文献   

17.
制度环境的变革与大学内部治理结构创新   总被引:1,自引:1,他引:0  
制度环境与大学内部治理结构密切相关,大学制度环境的变革要求内部治理结构的改革与重建。大学内部治理结构的困境根源于实践中存在的委托代理问题,并导致大学发展难以走出政府收权放权的制度怪圈,以及大学“内部人控制”问题的产生。实践中的关键问题是,通过制度环境创新以及大学内部治理结构改革建立自主性的现代大学制度。  相似文献   

18.
人工智能技术的大规模应用一方面促进了相关领域的发展,另一方面也加速显现出了其所带来的风险.如何扬长避短,让人类在充分安全的条件下享用人工智能带来的重大利好,已经成为人工智能治理体系建设中的突出问题和重要任务.人工智能并非成熟技术,且在不同发展阶段呈现出了不同的技术特点和社会特征.人工智能治理体系建设相关研究应采用发展的思路,治理框架的设计要秉承弹性动态的理念,并与技术同步生长.本文着重对人工智能治理焦点的变化进行了分析,并对人工智能弹性治理框架的效用及可行性进行了详细阐述,以期为健全人工智能治理体系提供理论参考.  相似文献   

19.
现代大学治理结构解析   总被引:12,自引:0,他引:12  
现代大学的目标可以表述为知识创造、知识传承与服务社会,但这个目标不是自动实现的,而是需要与之 相匹配的大学治理结构,以给出各利益相关者的关系框架,约束其行为,使之与大学目标相容。大学治理包含内部 治理和外部治理两个方面,除正式制度安排外,文化理念在大学治理中占有至关重要的地位。  相似文献   

20.
制度环境与大学内部治理结构密切相关,大学制度环境的变革要求内部治理结构的改革与重建。大学内部治理结构的困境根源于实践中存在的委托代理问题,并导致大学发展难以走出政府收权放权的制度怪圈,以及大学“内部人控制”问题的产生。实践中的关键问题是,通过制度环境创新以及大学内部治理结构改革建立自主性的现代大学制度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号