首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 93 毫秒
1.
张婷 《南方论刊》2020,(7):53-55
人工智能可分为一般人工智能和类人型人工智能,人工智能在给人类社会带来便利的同时,也可能对社会秩序产生威胁。现阶段的一般人工智能并未拥有自主意识,尚不能取得刑事主体资格,其危害结果的承担者应归咎于存在故意或过失犯罪心态的生产者、所有者、使用者。但随着科技发展,能独立思考且具备刑法意义上的辨认和控制能力的类人型人工智能将成为现实,赋予其刑事主体地位并由其承担相应刑事责任是符合罪责自负原则的,在立法上设计前沿的强人工智能产品刑罚体系也是必要的。  相似文献   

2.
近年来,学界对于人工智能法学研究的"真伪"属性具有不同观点.通过对争议焦点进行分析,不难看出人工智能刑事风险的刑法应对是具有研究价值的真论题.人工智能的刑事风险具有二维面向:其一,人工智能犯罪的归责风险,表现为传统刑法规范在应对涉人工智能过失犯罪时会出现归责间隙;其二,人工智能刑法的体系风险,表现为现有弥补归责间隙的应对措施会破坏刑法体系的安全性、弱化刑事责任的公平性、动摇刑罚制度的正义性.鉴于此,基于回归自然人主义刑法主体观、恪守刑法规制智能风险的理性姿态、满足弥补归责间隙的现实需求的立场,通过构建以判断行为人是否创设不被容许的风险、考察行为人是否实现不被容许的风险、明确相关行为人的责任范围为主要内容的客观归责模式来应对智能挑战,既能够有效弥补人工智能犯罪的归责间隙,又可以规避人工智能刑法的体系风险.  相似文献   

3.
风险社会刑法的核心问题是归责问题,解决刑事归责问题的关键是厘清刑事归责的概念与构造。刑事归责的概念最早可以追溯至伦理学对犯罪人自由意志的讨论,其后经由一般归责到行为归责、行为归责到责任归责、责任归责到不法归责的理论变迁,逐渐演变成犯罪评价的实质核心和基本框架。刑事归责意味着在客观上能否把某种结果归属于行为人之行为,在主观上能否把某种行为归属于行为人之能力,因此刑事归责的构造可以表达为由谁因何种基准对什么负有责任,其具体包括责任主体、归责对象、归属基准三种参数。  相似文献   

4.
5.
归责体系的构建必须要以归责要素为基础,而归责要素的整合必须要以刑事责任的刑法理论作支撑.由于丰富的归责要素,能够有更多的机会确定行为人刑事责任的有无和刑事责任的大小,从而为排除犯罪及公平、公正或正确地适用刑罚提供立法保障.所以,构建一个科学先进、优越合理的归责体系,必须首先建立一个丰富的刑事责任理论体系,然后在其指导下丰富刑事责任的归责要素.  相似文献   

6.
随着人工智能的广泛应用,其在为人类生产和生活带来便利的同时,也引发了数据隐私泄露与算法偏见、责任主体冲击与边界模糊、主客体异化与信任危机、软法缺陷与硬法缺失等伦理风险。规制人工智能的伦理风险,须优化人工智能技术设计,注重隐私保护与社会公正;赋予人工智能以社会角色,划定人与智能的责任边界;构筑人工智能伦理规约,强化人的主体地位与诚信品质;加快人工智能的法制化进程,健全智能伦理制度体系,从而促使“人—机”和谐共处。  相似文献   

7.
在刑事司法过程中,人工智能会面临不被信任的现实困境。目前,公众对司法人工智能的质疑主要集中于违背“同案同判”原则的“算法歧视”。然而,“歧视”并非人工智能所特有,它往往从过往决策者(法官)裁判中继承而来。在完成诸多特定任务时,人工智能往往比人类法官表现更优,在决策的准确性、检偏去偏以及不同目标权衡上具有巨大潜力。面对刑事司法中人工智能不被信任的困境时,我们更应关注感知层面的公正匮乏问题。究其根源,导致人们对司法人工智能不信任的因素主要有:司法大数据导致的“不公”易于识别、人工智能缺乏权威合法性和程序中缺乏感知正义。因此,为提升公众对司法人工智能的信任,应坚持具有权威合法性的法官的决策主体地位,同时采用人工智能增强法官能力,提高司法人工智能的透明度和可解释性。  相似文献   

8.
人工智能是引领新一轮科技革命和产业变革的战略性技术。加快发展人工智能有助于中国赢得全球科技竞争主动权,推动中国科技跨越式发展,赋能产业升级,促进生产力整体跃升,为中国经济高质量发展添薪续力。但是人工智能在推动中国经济社会快速发展的同时,也会带来包括经济风险在内的诸多风险,这些风险如果不能及时化解,将会对中国经济社会高质量发展构成严峻的挑战。经济风险主要包括失业风险、收入分配两极分化风险、加剧市场垄断风险、对消费者实施价格歧视风险和国际经济风险等。中国在加快发展人工智能的同时,必须针对这些经济风险采取有效的对策措施,提高中国运用人工智能的综合能力,促进经济社会高质量发展。  相似文献   

9.
司绍寒 《兰州学刊》2007,(10):111-113
对于犯罪,实际上就是要解决报应与预防这两个根本性问题.从犯罪的社会危害性和人身危险性出发,如何给罪犯以法律和道义上的报应,如何对犯罪进行一般预防和特殊预防,是国家刑事政策的出发点.刑事实体法、刑事诉讼法、刑事证据法分别解决了什么是犯罪、如何追究犯罪、如何认定犯罪的问题.然而如何惩罚、矫治与预防犯罪的问题却非上述法律所能解决.刑事执行法解决的就是如何惩罚、矫治与预防犯罪的问题.根据这一立法目的,不仅应着眼于对有罪之人的惩罚与矫治,更应着眼于对无罪之人的预防与矫治.所以刑事执行法不仅应包括刑罚的执行,还应包括保安处分的执行,刑事保全措施的执行.明确刑事执行法立法目的、调整范围后,辅之以刑事执行权的改革,相信我国会制定出一部体系严密、分工合理、经世致用、领先于世界的刑事执行法典.  相似文献   

10.
人工智能技术的发展和应用极大地便利了人们的生活,但随之而来的侵权案件也对我国尚未完善的产品责任制度提出了新要求。由于人工智能产品具有不同于普通产品的自主性,需要在法经济学视阈下重构人工智能技术背景下的产品责任制度。依据科斯定理分析产品责任制度的必要性及制度目标选择,运用生产者责任—创新理论和消费者剩余理论,分析产品责任制度对市场主体权益的影响机制。理论分析结果表明,应当明确以过错责任而非严格责任作为我国人工智能产品责任归责原则。这既符合司法中的保障主体权益要求,又能最大化人工智能发展阶段的资源配置效率。  相似文献   

11.
12.
13.
人工智能对意识形态的操控能力,既源于法兰克福学派对科学技术与意识形态的关系的辨析,也缘于人工智能技术的特性。人工智能对意识形态的操控表现在:作为一种技术工具对意识形态的操控;资本、权力、技术的控制者利用人工智能操控意识形态;机器人本身所具有的意识形态。人工智能对意识形态的操控可能会带来透明人的法律和伦理风险、算法偏见和算法独裁风险、不同国家意识形态冲突失控风险。化解这些风险需要综合运用AI伦理、法律手段和技术力量。  相似文献   

14.
15.
曹波 《江西社会科学》2019,39(11):143-153
刑事职业禁止法律性质具有语境敏感性和语境依赖性,其辨析应立足我国现行刑事制裁体系的特定语境,避免突破特定语境限制随意植入新概念,或者径直援用域外刑法的相关概念。我国现行刑事制裁体系属于"体系性刑罚方法-散在性非刑罚方法"的特殊双轨制,没有保安处分制度的栖身之地,缺乏将刑事职业禁止归入保安处分的制度空间。刑罚之外的"散在性非刑罚方法"与保安处分存有属种之别,不是所谓的非此即彼的二元平行对立关系,保安处分之外尚有兼具保安处分与刑罚特征但又无法归入保安处分的特殊非刑罚方法。刑事职业禁止同时以(对行为无价值)报应责任以及人身危险性作为积极适用依据,否定其刑罚性质后,仍无法肯定其保安处分性质,唯将其认定为补强职业犯罪刑罚执行效果的"散在性非刑罚方法",始能契合我国刑事制裁体系的具体语境。  相似文献   

16.
在风险社会中,社会制度发挥着重要的作用,应对社会风险需要建立并完善保安处分制度.无论是在理论上,还是根据实际情况,保安处分制度都应该建立在行政法领域中,保安处分制度不应该被刑法化,更不能分别规定在行政法和刑法之中.  相似文献   

17.
生成式人工智能在引领技术变革的同时也引发了诸多法律风险。根据生成式人工智能的运行机理,可以发现其中存在四大类数据安全风险,其主要原因在于算法高度信任对法益保护的冲击、技术演变中科技伦理规范的缺失以及用户数据主体权利保障不足等。针对生成式人工智能在数据输入阶段的数据源合规风险,研发企业内部应制定具有可操作性的数据合规计划,并在合规计划中制定详细具体的风险规制措施,强化企业合规经营;与此同时,通过多种措施积极响应用户对于数据主体权利的请求,确保模型训练数据来源合法合规。针对生成式人工智能在模型处理阶段的算法黑箱与算法偏见风险,应加大监管力度,重点关注算法的安全性与公平性,积极推进并完善相关立法,细化算法备案和算法解释义务,提高算法技术透明度,落实算法主体责任。针对生成式人工智能在内容输出阶段的数据滥用风险,应优化监管机制,实现全链条合法性监管,完善科研伦理规范并予以实质审查,引领技术向善,实现科技向善治理。针对生成式人工智能在数据存储阶段的数据泄漏风险,应通过技术与管理制度相结合的方式进行全方位规制,严格控制数据共享范围并贯彻数据分级分类保护,及时有效地防范数据泄露风险。  相似文献   

18.
19.
20.
面对人工智能技术的重大突破,尤其是ChatGPT等新一代人工智能在社会生活各个领域的广泛应用,审视、预判和防范ChatGPT类生成式人工智能的意识形态风险成为一个重要的理论课题。ChatGPT类生成式人工智能环境下的意识形态传播具有可塑性、可量化性、个性化和精准预测性等特点。ChatGPT类生成式人工智能介入意识形态传播的技术路径体现在技术与思想的耦合、预测性的算法推荐、个性化的话语创设和赋权性的网络传播等方面。ChatGPT类生成式人工智能介入意识形态传播会带来算法歧视、数据失真、算法监控和算法反噬等潜在的风险。应通过统筹科技伦理规制算法推荐、设计主流意识形态驾驭算法、协调传播主体与客体的价值需求、强化大数据技术检测与治理等,加强对ChatGPT类生成式人工智能意识形态风险的防控。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号