首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 265 毫秒
1.
ChatGPT类生成式人工智能在海量的数据、优质的算法与强大的算力支撑下能够实现多项技术赋能。但ChatGPT类生成式人工智能是否能够适用到智慧司法领域,以及在何种程度上将其嵌入,尤其是该项技术在赋能智慧法院建设过程中的边界如何,这对于深层次建设智慧法院具有重要的前提性意义。ChatGPT类生成式人工智能技术通过审判活动的智能化运用,可促进可视正义的实现;通过诉讼服务的可及性,可实现司法为民理念;通过公平与效率的动态平衡,可实现能动司法目标。然而,ChatGPT类生成式人工智能在带来上述诸多技术红利的同时,也引发了一系列新的风险,具体可以划分为由数据“幻觉性”引发的一般风险、由技术垄断性导致的重要风险以及由数据不可控产生的核心风险。对这些风险,应根据不同的风险特征采取相应的规制路径:可以通过对训练数据库的标准化构建以实现数据的“幻觉性”规制,通过辅助性原则的引入而实现技术规制,通过对服务提供者科加义务以实现对数据不可控的数据规制。即运用数据“幻觉性”规制、技术规制与数据规制,实现对ChatGPT类生成式人工智能技术嵌入的一般风险、重要风险与核心风险的防范,以期完成ChatGPT类生成式人工智能技术嵌入智慧法庭建设的风险最小化与技术赋能最大化,最终实现该项技术高质量赋能智慧法院建设。  相似文献   

2.
孙道萃 《学术界》2023,(3):112-128
人工智能技术法律应用的迅猛发展、司法改革政策红利的强劲输出,为人工智能辅助量刑提供了发展空间。人工智能辅助量刑有独特的实践要素与理论根基,会冲击传统刑事司法观念与运作模式等整套知识体系。现阶段技术水平决定了人工智能是“辅助”量刑的司法交往角色,奠定了理论上的可调和性。量刑规范化改革的本质是提高量刑活动的可预测性,人工智能辅助精准预测量刑功能是理论与应用的融合,通过有序的制度供给,可有效提升量刑规范化的正当性与有效性,为推进量刑规范化注入新的规范潜能与动力。算法及其规则是核心实施要素,应当克服算法认知、应用的正当化以及说理等应用难题,夯实算法运行的正当性根基与规则,遏制不可控的司法异化风险,为公正量刑供给新动能。  相似文献   

3.
生成式人工智能在引领技术变革的同时也引发了诸多法律风险。根据生成式人工智能的运行机理,可以发现其中存在四大类数据安全风险,其主要原因在于算法高度信任对法益保护的冲击、技术演变中科技伦理规范的缺失以及用户数据主体权利保障不足等。针对生成式人工智能在数据输入阶段的数据源合规风险,研发企业内部应制定具有可操作性的数据合规计划,并在合规计划中制定详细具体的风险规制措施,强化企业合规经营;与此同时,通过多种措施积极响应用户对于数据主体权利的请求,确保模型训练数据来源合法合规。针对生成式人工智能在模型处理阶段的算法黑箱与算法偏见风险,应加大监管力度,重点关注算法的安全性与公平性,积极推进并完善相关立法,细化算法备案和算法解释义务,提高算法技术透明度,落实算法主体责任。针对生成式人工智能在内容输出阶段的数据滥用风险,应优化监管机制,实现全链条合法性监管,完善科研伦理规范并予以实质审查,引领技术向善,实现科技向善治理。针对生成式人工智能在数据存储阶段的数据泄漏风险,应通过技术与管理制度相结合的方式进行全方位规制,严格控制数据共享范围并贯彻数据分级分类保护,及时有效地防范数据泄露风险。  相似文献   

4.
马皑  宋业臻 《江淮论坛》2022,(2):119-127+193
随着人工智能技术的不断发展,犯罪风险评估工具逐渐开始了智能化的演进。域外司法实践中使用的智能化犯罪风险评估工具并没有解决“算法歧视”的问题。“算法歧视”的成因是复杂的、多层次的。结合传统算法规制的分析框架,从问题建构维度和模型设计维度,能够对人工智能犯罪风险评估“算法歧视”的成因进行深入分析,并据此对算法规制的算法公开、个人数据赋权、研发过程规制与审核,进行特定场景下的路径探索,为走出人工智能犯罪风险评估所面临的“算法歧视”困境提供理论支撑。  相似文献   

5.
随着人工智能的广泛应用,其在为人类生产和生活带来便利的同时,也引发了数据隐私泄露与算法偏见、责任主体冲击与边界模糊、主客体异化与信任危机、软法缺陷与硬法缺失等伦理风险。规制人工智能的伦理风险,须优化人工智能技术设计,注重隐私保护与社会公正;赋予人工智能以社会角色,划定人与智能的责任边界;构筑人工智能伦理规约,强化人的主体地位与诚信品质;加快人工智能的法制化进程,健全智能伦理制度体系,从而促使“人—机”和谐共处。  相似文献   

6.
面对人工智能技术的重大突破,尤其是ChatGPT等新一代人工智能在社会生活各个领域的广泛应用,审视、预判和防范ChatGPT类生成式人工智能的意识形态风险成为一个重要的理论课题。ChatGPT类生成式人工智能环境下的意识形态传播具有可塑性、可量化性、个性化和精准预测性等特点。ChatGPT类生成式人工智能介入意识形态传播的技术路径体现在技术与思想的耦合、预测性的算法推荐、个性化的话语创设和赋权性的网络传播等方面。ChatGPT类生成式人工智能介入意识形态传播会带来算法歧视、数据失真、算法监控和算法反噬等潜在的风险。应通过统筹科技伦理规制算法推荐、设计主流意识形态驾驭算法、协调传播主体与客体的价值需求、强化大数据技术检测与治理等,加强对ChatGPT类生成式人工智能意识形态风险的防控。  相似文献   

7.
在第三次人工智能发展的浪潮中,以大数据为依托的人工智能因其深度学习和强化学习能力的提升不断冲击着人们的想象空间,也开始深刻地影响人类现实生活。我们需要在构建人工智能法律规则时考虑如何实现算法的透明性和可解释性、算法的正义问题,以及是否应给予人工智能系统以独立的法律地位及其对个人隐私、自由尊严等的影响。从人工智能法律规制整体建构的角度来看,应从立法、司法裁判和法律效果评价环节嵌入伦理性考量因素,将具体的道德考量因素转化为可以实施的法律原则乃至法律规制,同时发挥人在司法裁判过程中的主观能动性,防止过度依赖人工智能辅助系统,从而保障司法裁判结果的公平公正。  相似文献   

8.
在刑事司法过程中,人工智能会面临不被信任的现实困境。目前,公众对司法人工智能的质疑主要集中于违背“同案同判”原则的“算法歧视”。然而,“歧视”并非人工智能所特有,它往往从过往决策者(法官)裁判中继承而来。在完成诸多特定任务时,人工智能往往比人类法官表现更优,在决策的准确性、检偏去偏以及不同目标权衡上具有巨大潜力。面对刑事司法中人工智能不被信任的困境时,我们更应关注感知层面的公正匮乏问题。究其根源,导致人们对司法人工智能不信任的因素主要有:司法大数据导致的“不公”易于识别、人工智能缺乏权威合法性和程序中缺乏感知正义。因此,为提升公众对司法人工智能的信任,应坚持具有权威合法性的法官的决策主体地位,同时采用人工智能增强法官能力,提高司法人工智能的透明度和可解释性。  相似文献   

9.
多模态大模型GPT-4的发布预示着人工智能生成式技术迎来了从弱人工智能跨入强人工智能的临界点,但技术进步与技术风险是相伴而生的。随着GPT-4数据容量的快速积累,数据质量、算力不断提高,知识产权侵权、生产虚假信息、数据歧视等风险与日俱增,对ChatGPT类模型的数据风险治理迫在眉睫。文章基于对生成式人工智能在数据安全领域的风险分析,比较GPT类模型数据的输入、访问以及内容生成等数据运行的风险及其特征,提出从数据源头、内部运行到数据生成的全链条风险防范机制,具体包括:构建保障数据源头“清澈”的“净水器”式合规技术;维护模型内部数据运行“可信根”监管的自治原则;构建国际协同联动式数据治理的协作框架等风险治理路径。  相似文献   

10.
马方  唐娜 《兰州学刊》2023,(11):87-100
随着人工智能技术的兴起,如今全球范围内都在积极推进大数据侦查发展,其中以算法为支撑的预测性侦查模式发展最为迅速。人工智能技术正在对刑事司法领域产生重新塑造的效应,但与此同时,人工智能技术本身具有的内在客观特征——前瞻性、相关性、技术性等,也带来了数据风险、隐私风险以及算法风险等。社会安全风险视域下,应实现预测性侦查的多元治理:重视数据治理,发挥预测性侦查的预测价值;坚持法律治理,建立监督委员会以保护公民个人隐私;强化技术治理,公开算法决策以增强公众信任度。  相似文献   

11.
余鹏文 《天府新论》2023,(1):108-123
在数字化时代,大数据分析和机器学习算法等人工智能技术已经在刑事司法中得到深度应用,并且在预测警务、犯罪风险评估、量刑决策辅助等法律事项上发挥出技术层面的效率优势。同时,也必须清醒地认识到,人工智能介入刑事司法活动当中,对传统刑事程序正义理论的基本理念和价值产生技术性冲击,尤其是算法偏见和算法黑箱等难以避免的技术难题可能在一定程度上侵蚀了裁判中立原则、程序公开原则、程序对等原则和程序参与原则。但是,在弱人工智能司法的现实语境下,刑事程序正义理论因为司法活动中人的主体性依旧可以发挥规制作用,而在人工智能司法中贯彻程序正义的理论基础在于尊严理论、司法公信力理论以及分布式道德责任理论。最后,刑事程序正义理论应当借鉴技术性正当程序理念,通过引入机器决策风险提示、算法透明原则、算法审计以及算法问责机制等举措来实现技术赋权,强化对当事人的诉讼权利保障。  相似文献   

12.
算法是人工智能乃至智能化的核心技术,与算力、数据一起被称为智能时代或数字经济的“三驾马车”。算法在促进经济社会发展的同时,也产生了算法黑箱、算法歧视、“大数据杀熟”、算法合谋垄断、算法奴役、“信息茧房”等新型社会问题。我国关于算法的立法规定散见于《电子商务法》《个人信息保护法》《反垄断法》等法律法规和部门规章之中,缺乏系统性和协调性,且对诸多问题未作规定。我国宜对算法产业促进与安全监管等进行专门立法,立法的主要内容包括总则、算法产业促进、算法安全监管、算法企业的权利与义务、算法救济、法律责任、附则等。本建议稿以算法安全与发展的平衡协调为基本理念,着眼于算法产业生态建设和系统治理,建立算法安全事前、事中、事后相结合的一体化监管体系,按照算法的应用场景、安全风险、社会影响等因素建立算法分类分级管理制度;确立监管沙盒、算法安全检测评估与认证、算法审计、算法公平性验证、算法追溯、算法终结、算法问责、算法救济、算法合规等安全保障机制,实时分析算法技术与应用的安全风险并动态采取预警和处置措施;针对算法黑箱等具体问题采用可信解释等解决方案,确保算法决策的科学性、合理性、可靠性;在规范算法研发与应用活...  相似文献   

13.
司法公正已成为现今学术界研究的热门话题,同时也是社会公正的聚焦点。这是因为“一旦司法公正受到怀疑,社会公正便荡然无存了”。为了实现司法公正,理论上提出了许多司法改革的设想,实践部门也出台了一些改革的措施。但是目前的司法改革仅仅是从制度上进行设防,这种设防又属于只防“君子”而不防“小人”的范畴。因此,司法改革不仅仅是从制度上进行实质改革,而且还应从诉讼本身进行形式意义上的改革,即:使司法人员置身于司法公正的氛围中,使司法人员自愿作出公正的判决。这就不能不涉及诉讼仪式。  从汉语学的角度上讲,仪式是…  相似文献   

14.
司法公正中的价值冲突及其权衡   总被引:1,自引:0,他引:1  
司法公正是司法领域一个永恒的主题。本文通过对实体公正与程序公正、公共利益与私人利益、伦理精神与社会关系等三对概念的矛盾的分析 ,揭示出司法公正内在的价值冲突 ,同时提出在价值冲突中的唯一正确选择———平衡  相似文献   

15.
实体公正和程序公正是司法公正的基本要素,程序公正是司法公正的切入点;吏治腐败、地方保护主义、司法体制不完善、人的素质问题等是制约司法公正的主要因素;完善司法体制,改革司法程序,提高司法人员的素质,加强司法权威是司法公正的重要保障。  相似文献   

16.
“人工智能+思想政治教育”是技术与学科融合发展的必然趋势。经由“技术—教育”的嵌入逻辑,人工智能从范畴、要素和范式等方面助推了思想政治教育的智能化实践,生成了“人工智能+思想政治教育”融合的现实基础,但同时也带来了主体性消解、价值性偏离、情感性威胁和自我性失衡等潜在风险。亟需从把稳“恒”与“变”的逻辑主线,驾驭技术与价值逻辑的现实张力,提升人机交互的情感温度,匡正虚实相融下的自我失衡等方面构建“人工智能+思想政治教育”一体互嵌的深度融合路径。  相似文献   

17.
司法的最高价值就是公正.司法公正绝不是司法的唯一价值,从近年来西方主要法治国家的司法改革来看,司法公正目标的最终实现还有赖于对司法效率的追求;另一方面,司法公正包括实体公正与程序公正两大内容,如何协调两者之间的关系也是司法公正价值的重要内容;此外,司法能动主义与司法克制主义是当前理论界颇有争议的对待司法的两种态度,如何在司法独立与司法受制之间寻求必要的平衡以实现司法公正也值得思考.因此,司法公正价值需要整合.司法公正价值的整合是诉讼法制现代化的一个重要指标.  相似文献   

18.
作为新科技革命浪潮的重要力量,人工智能日益融入经济社会发展各领域全过程,为人类社会发展提供了强大动力。但是,人工智能技术在政治领域的深度介入也使得民主政治发展面临着诸多风险和挑战,如政治生态受损与社会公平正义遭到破坏、政治透明受朦与政府公信力下降、政治谣言肆虐与人的主体性价值消解等。上述风险和挑战是由技术系统的不确定性与不可解释性、资本的侵蚀与人工智能的意识形态化、算法权力的裹挟与无限扩张性等因由引起的。为确保人工智能技术在民主政治领域的向善向美,应通过加强核心技术攻坚,构建网络空间命运共同体;完善算法运行规制,打破算法赋权失衡状态;强化算法技术把关,提高技术监管水平;缩小数字鸿沟,提升公众数字素养等途径,形成技术与民主政治的良性互动,实现以“数智”促成“善治”的美好愿景。  相似文献   

19.
AI与IA,是西方专业性的技术术语,仅依凭“人工智能”或“智能增强”这一简洁的翻译转换,很难理解其内涵,这也是现今对两者混用或辨识不清的原因,因而须在西方语境下分析其所应有含义。利用内在观点,立足法律职业内部,可以更专业地分析司法裁判与技术耦合的现实情形及影响。司法对于便利、体系思维、规范化、自身属性、数据的追求是耦合的原因与动力,但智能化也引发出关于案例遗忘与清理、法官职业压力过大、腐败的另一种形式、隐私数据转移以及技术本身的非难等的隐忧,因而有必要审慎思考司法裁判与AI耦合的限度。虽技术或为全面耦合提供支撑,但有限耦合仍应是稳妥的设计。  相似文献   

20.
人工智能在司法活动中应用的重要领域之一就是证据审查。人工智能为证据审查提供科技赋能,减少司法裁判的恣意性,提高证据审查的实效性,但是,人工智能在证据审查中的应用存在证据审查建构模型数据样本不充分、证据规则结构化转换不完整、证据审查程序缺乏可视性等风险和问题。为了应对人工智能在证据审查中的上述风险,需要明确人工智能在司法审判和证据审查中的辅助地位,提高司法人工智能训练的案例样本数量和质量,在技术层面提升人工智能自然语言转换能力,在规则层面限定司法人工智能在证据审查中的适用范围,将专家辅助人制度引入司法人工智能审查证据领域,强化对司法人工智能审查证据结果的说理论证。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号