首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 375 毫秒
1.
余鹏文 《天府新论》2023,(1):108-123
在数字化时代,大数据分析和机器学习算法等人工智能技术已经在刑事司法中得到深度应用,并且在预测警务、犯罪风险评估、量刑决策辅助等法律事项上发挥出技术层面的效率优势。同时,也必须清醒地认识到,人工智能介入刑事司法活动当中,对传统刑事程序正义理论的基本理念和价值产生技术性冲击,尤其是算法偏见和算法黑箱等难以避免的技术难题可能在一定程度上侵蚀了裁判中立原则、程序公开原则、程序对等原则和程序参与原则。但是,在弱人工智能司法的现实语境下,刑事程序正义理论因为司法活动中人的主体性依旧可以发挥规制作用,而在人工智能司法中贯彻程序正义的理论基础在于尊严理论、司法公信力理论以及分布式道德责任理论。最后,刑事程序正义理论应当借鉴技术性正当程序理念,通过引入机器决策风险提示、算法透明原则、算法审计以及算法问责机制等举措来实现技术赋权,强化对当事人的诉讼权利保障。  相似文献   

2.
哲学社会科学的诗性使其走出了与自然科学不同的方法论路线。人工智能以技术和方法的革命实现思维和诗性的革命。智能置顶开启了人类反思的二级范式。人类理性创造了算法黑箱,但无法解释黑箱,而黑箱方法又解放了理性。传统哲学的主客二元之争在智能新主体诞生中获得弥合。以大数据为基础的"第四范式"带来了哲学社会科学方法的"透明计算"。  相似文献   

3.
智慧司法是技术与司法的耦合,逐步形成类案识别、法律论证及争端解决等类型的裁判应用场景。归根结底,智慧司法是技术在司法场域的应用,其内嵌技术的本源性缺陷因技术认知、技术之恶与技术权力,异化为权利被侵害的风险,表现为主体弱化、算法歧视与数字鸿沟。鉴于上述风险点,以权利衡平权力、人机耦合为理论范式,对应智慧司法系统的投用全流程,建构伦理与道德的设计审查、裁量标准的统一性尺度、增强算法决策的可解释性与重构责任分配规则的权利保护新体系,应当作为规制智慧司法异化风险的可行进路。  相似文献   

4.
算法决策技术的兴起推动了社会发展,同时也带来了算法黑箱、算法合谋、算法操纵等技术和社会风险,必须对算法进行规制以控制风险。算法透明是进行算法规制的前提和基础,由于技术和制度上的障碍,完全彻底的算法透明不现实也不合理,在具体场景中追求有限、适当的算法透明才是有意义的。在算法透明的落实和保障上,行政规制具有独特的优势,通过构建刚柔并济的行政规制体系、促进企业算法合规监管、推进算法备案制度、追究算法披露不当行为责任四项具体行政规制措施,监督和保障算法透明制度的运行,实现科技创新与社会安全之间的平衡与协调。  相似文献   

5.
伴随算法决策在行政、司法和商业等领域的深度应用,隐私泄露、算法歧视与人类自主性受损已成为三大主要风险.为防范该类风险,首要的是须重申、确立并加强人的主体地位意识,以此反向定位算法决策的工具属性.在此前提条件下,亦应借力他山之石雕琢己玉,积极借镜以美国、欧盟和德国为代表的域外经验,研习其有关算法决策的制度构建与规则设计,尤其要关注法律制度、规则设计的针对性与专业性.当然,更需立足我国国情,切实把脉时代发展,在适时运用比例原则以加强算法决策风险评估机制的同时,科学合理界定责任 主体,明确制定该类风险责任承担的相关法律法规,以最大化降低因法律模糊性而遭致数据主体的二度伤害.  相似文献   

6.
人工智能时代,算法在社会领域诱发了一种全新的发展态势,不但深刻地影响着既有的生产关系,而且已经渗透到日常生活的各个角落。但是,在算法全方位赋能社会治理的背后,也蕴藏着一系列内生风险,并由此引发了技术和社会系统之间的剧烈冲突与碰撞。文章基于国内外算法治理领域对算法规则和算法权力的单向度研究,通过文献分析和比较调研的方法,结合公共管理学理论、法学理论等多学科思维,探讨算法规则向算法权力的动态转变。正是这种动态转变加速了算法权力的膨胀,这也催生了大量的算法风险,引发了社会治理的困境。因此,算法治理需要通过约束算法权力进行建构、引导和反思。算法治理的路径包括确立以人为本的治理理念,提高算法的可解释性以及构建多元主体协同的治理体系。  相似文献   

7.
算法是人工智能乃至智能化的核心技术,与算力、数据一起被称为智能时代或数字经济的“三驾马车”。算法在促进经济社会发展的同时,也产生了算法黑箱、算法歧视、“大数据杀熟”、算法合谋垄断、算法奴役、“信息茧房”等新型社会问题。我国关于算法的立法规定散见于《电子商务法》《个人信息保护法》《反垄断法》等法律法规和部门规章之中,缺乏系统性和协调性,且对诸多问题未作规定。我国宜对算法产业促进与安全监管等进行专门立法,立法的主要内容包括总则、算法产业促进、算法安全监管、算法企业的权利与义务、算法救济、法律责任、附则等。本建议稿以算法安全与发展的平衡协调为基本理念,着眼于算法产业生态建设和系统治理,建立算法安全事前、事中、事后相结合的一体化监管体系,按照算法的应用场景、安全风险、社会影响等因素建立算法分类分级管理制度;确立监管沙盒、算法安全检测评估与认证、算法审计、算法公平性验证、算法追溯、算法终结、算法问责、算法救济、算法合规等安全保障机制,实时分析算法技术与应用的安全风险并动态采取预警和处置措施;针对算法黑箱等具体问题采用可信解释等解决方案,确保算法决策的科学性、合理性、可靠性;在规范算法研发与应用活...  相似文献   

8.
近年来的数据集下架潮、算法偏见大辩论使得算法偏见成为一个不可忽视的社会问题,这归根结底是由算法的政治性决定的.本研究从技术与权力的互构共生关系视角,批判了算法的价值中立论,在算法赋权的社会—技术系统中,算法作为非人类行动者参与到人类行动者的决策过程中.算法偏见可以区分出若干类型,其实质是当代数字化社会的一种形式偏见,可...  相似文献   

9.
在第三次人工智能发展的浪潮中,以大数据为依托的人工智能因其深度学习和强化学习能力的提升不断冲击着人们的想象空间,也开始深刻地影响人类现实生活。我们需要在构建人工智能法律规则时考虑如何实现算法的透明性和可解释性、算法的正义问题,以及是否应给予人工智能系统以独立的法律地位及其对个人隐私、自由尊严等的影响。从人工智能法律规制整体建构的角度来看,应从立法、司法裁判和法律效果评价环节嵌入伦理性考量因素,将具体的道德考量因素转化为可以实施的法律原则乃至法律规制,同时发挥人在司法裁判过程中的主观能动性,防止过度依赖人工智能辅助系统,从而保障司法裁判结果的公平公正。  相似文献   

10.
算法作为数字时代技术基石深入应用于社会生活的各个方面,随之而来的算法滥用现象则有碍社会公众的数字参与程度和数字经济的健康发展.算法滥用表现为侵蚀数据主体平等的算法歧视、揭露数据主体隐私信息的算法自动关联和压缩数据主体意思自治空间的算法自动决策.现行调整算法行为的法律制度存在有关法律概念界定不清、法律规则零散以及法律治理...  相似文献   

11.
智能算法与数字传播的嵌构融合,已成为形塑社会价值图式的重要技术变量。运用智能算法铸牢中华民族共同体意识,将为其教育工作的数智化转型提供全新的发展契机:个性化推送系统将实现数字教育信息的靶向性供给;生活化传播范式将增强其价值逻辑的泛在性渗透;智能化场景设计将开启民族文化意象的具身性体验。智能算法技术的双重面向亦将使铸牢中华民族共同体意识面临诸多技术性风险:“算法黑箱”引发数字环境失真化,遮蔽了中华民族共同体意识的科学内涵;“信息茧房”导致算法信息片面化,消解了中华民族共同体意识的共识机制;“数字部落”致使虚拟交往圈群化,桎梏了中华民族共同体成员之间的情感流动。纾解智能算法的诸多数字症候,应以主流价值引领算法内容生产,以数字法规保障算法运行秩序,以主体培育驾驭算法技术风险,引导智能算法成为铸牢中华民族共同体意识的强大数字动能。  相似文献   

12.
人工智能的大范围应用正在重构经济社会行为规则和组织运行方式,其在促进经济高质量增长和实现有效社会治理的同时也带来诸多严重的经济社会风险。人工智能系统的黑箱模式及其不可解释性是风险产生的主要原因,并且人工智能应用风险是由系统运行不同环节的风险所共同构成的。人工智能监管治理需要树立以人为中心的基本价值取向,坚持透明度、安全性、公平性和问责性的基本原则,建立以风险为基础的全生命周期监管治理体制,强化系统使用者的风险治理主体责任,并突出技术性方案的基础性作用。  相似文献   

13.
为创新公共数字文化治理的集成、协同与高效提供决策支撑,也为整体推进国家治理体系和治理能力现代化提供文化治理的数字化运行方案,文章从全局性协同视角,通过引入算法理论及逻辑,从一类问题的描述方式、算法模式、算法框架设计到算法重构的设计逻辑,阐述了公共数字文化全局性治理的算法决策机理,阐述其实现路径,以模型数值模拟案例,刻画了公共数字文化全局性协同治理的算法决策模式的优势。研究发现,基于算法重构的治理决策为公共数字文化协同治理方法库提供一种有力的决策工具,同时该模式既能实时优化现有信息资源配置问题和体系机制,也能通过事后结果的相关性对体系机制进行优化,为助力公共数字文化供给侧改革提供了方案借鉴。  相似文献   

14.
黄贺 《理论界》2006,(12):205-207,119
国际干预是国际关系中的常见现象,是全球化发展的必然结果,对维护人类的共同利益,维护国际秩序、地区稳定和世界安全,具有重大意义。在国际干预对国际法的某些突破已成为现实的情况下,国际社会能够做的是在正确区分国际干预与强权政治前提下,健全国际干预的决策机制。  相似文献   

15.
仇塍迪 《天府新论》2023,(5):118-130
数字平台的参与促进了刑事司法公私合作模式的发展。数字平台因用户授权而具备平台秩序治理的平台权力,平台权力使得平台在刑事司法实践中分化出“网络守门人”“刑事司法参与者”两类角色,从客体化的基础设施演变为治理主体。然而,平台参与伴随着对人的主体性和隐私的正当程序保障问题,其背后是公私利益冲突,以及司法逻辑和技术逻辑的分裂。完善数字平台参与刑事司法治理的基本方向在于,依据比例原则,从参与目的、干预措施和公私利益权衡这三个方面,划分公私合作界限,确立平台的拒绝权;以司法逻辑为本位,落实正当程序原则,完善平台协助和算法决策的公开透明机制,以及用户的权利保障和程序参与机制。  相似文献   

16.
在刑事司法过程中,人工智能会面临不被信任的现实困境。目前,公众对司法人工智能的质疑主要集中于违背“同案同判”原则的“算法歧视”。然而,“歧视”并非人工智能所特有,它往往从过往决策者(法官)裁判中继承而来。在完成诸多特定任务时,人工智能往往比人类法官表现更优,在决策的准确性、检偏去偏以及不同目标权衡上具有巨大潜力。面对刑事司法中人工智能不被信任的困境时,我们更应关注感知层面的公正匮乏问题。究其根源,导致人们对司法人工智能不信任的因素主要有:司法大数据导致的“不公”易于识别、人工智能缺乏权威合法性和程序中缺乏感知正义。因此,为提升公众对司法人工智能的信任,应坚持具有权威合法性的法官的决策主体地位,同时采用人工智能增强法官能力,提高司法人工智能的透明度和可解释性。  相似文献   

17.
利益表达是一定主体与政权机构之间的政治互动行为,它既是主体实现利益保护、权利维护、政治地位提高的必要环节,也是政治系统稳定运行的重要保证。农民利益表达能为农村政治发展提供强大的功能驱力,其实现程度关系到农村民主发展的程度和政治系统的运行状态,应着力构建农民利益表达与农村政治发展的良性互动机制。  相似文献   

18.
冯永刚  臧琰琰 《江苏社会科学》2024,(1):75-85+242-243
人工智能时代的美好生活不能离开道德。道德既是人工智能理性的整合器、人工智能发展的导引器,也是人工智能犯罪的抑制器。人工智能在让人类享受技术发展带来的普惠性红利的同时,也引发了人类价值迷失、道德秩序紊乱、道德责任消弭、道德自由衰落、道德信任缺失等一系列道德迷思。为此,要通过强化人对自身存在意义的认知、培养人的人文关怀意识、提高道德推理能力来捍卫人的道德主体地位,使人类成为智能时代道德的运用者和审视者;要设定人工智能研发和使用的道德圭臬,促使价值理性回归,实现工具理性和价值理性的平衡;要通过优化算法设计、规范算法使用、强化算法监督等多种途径构建完善的算法法律法规体系,确保算法合法、公正、透明,从而有效维护智能时代的道德秩序;要将道德原则嵌入智能机器设计,赋予人工智能道德感,从“关系转向”的视角重塑和谐共融的新型人机关系,进而形成人工智能发展和人类福祉增进的双赢局面。  相似文献   

19.
智能时代的特点是数据与算法在社会经济运行中发挥越来越重要的作用。然而,算法赋能社会的同时,也伴生了“信息茧房”、算法歧视、算法“黑箱”等内生风险,因此需要深刻理解算法的伦理面向,以确立算法风险的治理原则,进而构建科学有效的算法治理体系。文章基于国内外算法治理实践,从算法治理的“权力—权利”价值与“技术—社群”路径两个维度,阐述了算法风险治理及其伦理关切的四个核心面向:可控、透明、安全、公平。算法伦理风险产生于算法权力和用户权利的失衡,因此算法治理的价值在于规制算法权力并保障用户权利。算法治理的路径包括技术改进与社群约束,通过优化算法系统设计与完善算法的规制体系等方式,促进算法向善,防范或化解算法支配、算法“黑箱”、算法歧视等风险,并保障算法使用的安全性。  相似文献   

20.
“算法杀熟”以平台用户为侵害对象,以通过数据画像进行歧视性定价为典型行为方式,具有比传统价格歧视更大的危害范围和侵害程度。较之传统的价格歧视,“算法杀熟”的专业技术性、隐蔽性更强,更难规制。遏制“算法杀熟”,需要构建政府监管机制,实现消费者福利与生产者福利的平衡;构建算法解释机制,实现保护消费者知情权与平台创新动力的平衡;构建侵权救济机制,实现消费者平等交易与平台自主定价的平衡。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号