首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 31 毫秒
1.
以ChatGPT为代表的生成式人工智能技术快速迭代发展,为数字司法改革的适应性调整创造了历史性契机。生成式人工智能在类案推送、辅助证据认定、偏离度预警等方面确实能够统一司法裁判的标准与尺度,实现法的普适性价值追求,然而法的普适性只是实现正义的必要条件,而非充分条件。生成式人工智能的算法黑箱、算法歧视、算法偏见等技术性缺陷亦引发了对司法公信力、司法公正、司法责任制的质疑与冲击。为此,应当在生成式人工智能的技术理性与司法裁判的价值理性之间寻求平衡。针对当前智能化裁判的技术风险,应从数据、算法、控制三个维度进行治理,最大程度控制生成式人工智能的工具主义缺陷,以实现智能化司法裁判迈向可信。  相似文献   

2.
人工智能时代算法渗透到司法领域,在司法裁判中承担证据审查、风险评估、裁量参考等任务,司法决策由此呈现出算法化的发展趋向。司法在与技术的结合中进一步提高了效能,表现为司法效率的提高和司法裁量的统一。然而,算法本身也存在着技术局限性,可能引发代码规则难以保障论辩参与、算法黑箱难以解释裁判合理性、群组正义难以回应权利优先性等深层问题。为助力智慧司法的平稳运行,需要立足技术赋权理念,推进司法领域的算法公开透明,加强智能辅助系统的可解释性。  相似文献   

3.
人工智能是否能与人类一样具有刑法"主体性"地位无法在刑法理论内部找到答案,而需要以相关的认知科学为基础,否则就会陷入循环论证的困境。根据认知科学的五个层级理论,人工智能在神经层级、心理层级的低阶认知层面,仅是对人类认知的简单模拟;在作为高阶认知与低阶认知中间环节的语言层级认知层面,人工智能的人工语言与人类自然语言之间具有本质的区别;在思维层级、文化层级的高阶认知层面,当前的人工智能并没有显现出其具有思维或产生文化的能力。结合塞尔"中文房间模型"研判,人工智能并不具备刑法意义的"辨认能力"与"控制能力"。在辨认能力方面,人工智能传感器对客观世界的识别虽然能在一定程度上对人类认知进行形式模拟,但其并不能将识别到的信息与自身"行为"结合进行加工处理从而得出该"行为"的社会意义;在控制能力方面,人工智能所展示出的"控制能力"实质上是一种执行算法的能力,其本质上仍然是一种人类控制,而非人工智能的"自我控制"。因此,在当下及可预见的未来,人工智能并不具有刑法"主体性",进而承担刑事责任,当前的刑法理论也不必对所谓的"强人工智能"过度反应。将"类人"的人工智能提升到人类同等高度,有损人之所以为人的尊严。将"删除数据、修改程序、永久销毁"等与刑罚异质的要素纳入刑法会让其有适用于人类的危险。故在当下及可预见的未来,人工智能对刑法理论的影响主要在于其导致传统社会风险加剧,刑法理论的应对模式仍应当在现有刑法理论体系内,结合风险刑法理论将其作为"犯罪对象"和"犯罪工具"对待。当人工智能作为犯罪对象时,其是以财物、作品等形式存在,在司法认定过程中要注意界分人工智能本身与人工智能的载体;当其作为犯罪工具时,会导致犯罪后果扩大,查证难度增大等结果。  相似文献   

4.
司法人工智能分为常规型人工智能与专业型人工智能,前者是将通用领域已经发展成熟的人工智能直接移植至司法领域而无需专门的算法更新,主要目的是将审判人员从繁重的"事务性"工作中解放出来,因而其也无法介入审判的核心内容;后者是诸如量刑辅助系统等专门为司法领域开发的介入审判实质内容的人工智能,其是司法人工智能的核心。当前司法人工智能的实践现状是常规型人工智能因其有坚实基础而卓有成效,但极为重要的专业型人工智能的开发与使用并不理想,主要原因是法学研究对专业型人工智能的研发理论供给不足,具体表现为"抽象有余而具象不足",其深层次原因在于法学专业知识与人工智能技术知识没有深度融合,即"懂技术的不懂法律,懂法律的不懂技术"。宏观层面,在智能爆炸不可预期的时空背景下,生命2.0阶段(文化阶段)或弱人工智能时代仍是当下及可预见未来所长期处于的阶段,故作为"工具"的量刑人工智能仍应定位于辅助量刑而非决定量刑,且基于量刑规范化改革的价值内涵,应更进一步地定位于规范性辅助而非参考性辅助,二者的区别是智能系统给出的阶段性量刑结论对法官的约束力大小。在微观层面,智能量刑系统的算法构建应以量刑逻辑主导算法逻辑为原则,以诸如量刑基准、不法刑等具有"共性"属性的阶段性量刑为作用领域而非其能力之外的终局性量刑结论(宣告刑);此外,为防止算法黑箱、算法歧视以及相关关系代替因果关系,须做到量刑人工智能的算法公开和阶段性量刑结论的可解释性。  相似文献   

5.
人工智能与刑事司法的"制度联姻"使司法格局呈现出合理但意外的变动趋向,为刑事司法权力配置描绘出崭新蓝图。基于"诉讼爆炸"的现实基础与"司法体制改革"的体制基础,刑事司法制度在不断完善的过程中将人工智能引入刑事审判具备现实必要性。但囿于大数据技术天然的固有缺陷,人工智能技术功能之合理性亟待进一步论证,人工智能介入亦可能对法律解释、证据审查乃至司法裁判之公信公正有所减损。为趋利避害,发挥人工智能在司法改革蓝图中应有之功效,须恪守程序法定之原则,对人工智能辅助刑事司法程序予以层次化构建。  相似文献   

6.
人工智能辅助量刑是当前我国司法改革的趋势之一。人工智能辅助量刑系统的建设和应用能够约束法官的行为,克服估堆量刑的弊端,防止法官滥用自由裁量权。需要警惕的是人工智能辅助量刑可能存在机械性风险、不透明性风险以及不可接受性风险。这些风险可能会对量刑公开以及量刑公正造成威胁,也容易导致过度限缩法官自由裁量权的后果。应当坚守法官的主体性和人工智能辅助量刑系统的工具性,防止出现法官过度依赖量刑辅助系统的现象;谨慎筛选数据,构建合理的算法模型,减少算法歧视;优化量刑程序,建立算法审查与算法问责机制,着力实现量刑公正。  相似文献   

7.
人工智能技术给人类生活带来诸多便利的同时,也蕴含巨大风险。从实践层面观察,人工智能技术的研发、应用以及发展给法律带来了巨大挑战,具体反映在个人信息保护、算法规制、人工智能作品的知识产权保护、人工智能监管及其引发的责任分配等方面;从理论推演分析,由人工智能引发的法律问题包括法律原则、主体制度、权利制度以及责任制度四方面。为应对人工智能产生的法律问题,各国纷纷加快了立法、修法进程,并在算法自动化决策、自动驾驶汽车、生物识别信息技术、深度伪造技术及数据安全与隐私保护等领域取得了积极成果。尽管如此,在迅猛发展的人工智能技术及其应用面前,相关立法仍然存在滞后性,需要从理念、原则与措施三个层面积极寻求应对方略。  相似文献   

8.
司法人工智能的广泛运用,提高了司法效率,有助于司法公正。但高度智能化、自动化的人工智能,干扰了法定司法原则与司法模式的适用,带来了一些法律风险。法院独立行使审判权原则受到人工智能冲击,算法的偏见和不透明影响司法公正与公开,人工智能对公权力机关办案能力的强化,使得传统稳定的诉讼三角结构面临失衡风险。对司法人工智能定位的偏颇是出现这些风险的主要原因。司法人工智能须坚持辅助性定位,治理其需秉持“法治归化技术”的思路。应通过贯彻司法责任制和限定人工智能的运用情境来强化法院独立行使审判权原则;要推动建设算法公开机制以加强司法公开;用人工智能充分保障当事人权利,提升其诉讼能力,可尽量使诉讼结构保持平衡。  相似文献   

9.
人类社会漫长的政治发展进程中充满了权力生产与权力转移现象。随着人工智能时代的到来,作为人工智能技术关键成分的数据与算法,逐渐成为权力生产的新要素,谁掌握更充分的数据和更先进的算法,谁就可能拥有更多或更大的权力,技术的赋权效应得以彰显。技术赋权可能催生新权力主体,权力转移现象可能再度发生。人工智能企业既因为在数据与算法方面拥有独特的技术优势而内生出部分权力,也因为为国家治理提供技术辅助而另外获得部分权力,可能成为与国家相媲美的新权力中心。人工智能企业的权力增长,可能促使国家治理权力结构从传统的单中心结构变为多中心结构;与此同时,由于人工智能时代的国家治理越来越倚重人工智能企业提供算法支持,而算法可能出现失误,加之“算法黑箱”和卸责链条的存在,因此人工智能企业的权力增长还可能消解权责同体的基本政治规则,引发权责分离现象或者说国家治理问责难题。新权力中心在多大概率上会出现,既取决于国家与人工智能企业的技术实力对比,也取决于国家治理对人工智能企业的技术依赖程度。应对人工智能时代的权责分离现象或者说问责难题,除了促使人工智能企业高度自律,还需要国家匹配备案与试点制、随机抽查检验制、服务积分制等制...  相似文献   

10.
为了解公立医院医务人员对人工智能医学应用中伦理问题的认知差异及其影响因素,提升医务人员的伦理认知和伦理决策能力,文章采用方便抽样方法,用自行设计的问卷对安徽省某三级公立医院813名医务人员进行问卷调查。结果显示,医务人员了解人工智能医学应用中伦理问题的渠道分散,主要通过新闻资讯和科普文章;医务人员认为安全风险和隐私保护是人工智能医学应用中最主要的伦理问题,分别占76.1%和64.9%;医务人员的专业年限、职称和对人工智能医学应用的了解程度与其对人工智能医疗应用中伦理问题的认知有关(P<0.05)。大多数医务人员对人工智能医学应用及其带来的伦理问题了解程度不高,认知缺乏系统性。应加强医务人员对人工智能医学应用中伦理知识的教育和培训,采取有效措施提升医务人员人工智能医学应用的伦理认知水平,规范开发医疗人工智能技术的算法,健全医疗人工智能的伦理监管体系,推动相关立法,保障医疗人工智能健康发展。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号