首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
人工智能是根据对环境的感知,做出合理的行动,并获得最大收益的计算机程序,它有着应用人工智能、通用人工智能与超人工智能三类层级。由于超人工智能远超人类的控制范围,对人工智能伦理的考察可以从其他两个层级展开。从应用人工智能伦理看,人工智能引发了信息安全困境、责任归属困境、技术依赖风险以及产业后备军与社会不公平等问题。从通用人工智能伦理看,人工智能带来了人机边界模糊、人的存在异化、人的自由异化甚至人类种族终结等问题。对此,要在坚持人本主义原则的基础上,通过技术层面的智能监管、程序设置与价值规范以及社会层面的伦理设计、法律规制与协同治理等,实现对人工智能的正向规约。  相似文献   

2.
在第三次人工智能发展的浪潮中,以大数据为依托的人工智能因其深度学习和强化学习能力的提升不断冲击着人们的想象空间,也开始深刻地影响人类现实生活。我们需要在构建人工智能法律规则时考虑如何实现算法的透明性和可解释性、算法的正义问题,以及是否应给予人工智能系统以独立的法律地位及其对个人隐私、自由尊严等的影响。从人工智能法律规制整体建构的角度来看,应从立法、司法裁判和法律效果评价环节嵌入伦理性考量因素,将具体的道德考量因素转化为可以实施的法律原则乃至法律规制,同时发挥人在司法裁判过程中的主观能动性,防止过度依赖人工智能辅助系统,从而保障司法裁判结果的公平公正。  相似文献   

3.
人工智能在推动人类社会智能化变革的同时,其不确定性(自动性)所衍生的侵害人类法益的刑事风险是亟待认真对待的"真问题",绝非凭空臆造、危言耸听的"伪问题".对人工智能体被滥用于实施犯罪的刑事风险,应根据现有刑事归责原理,按照具体行为方式以及主观罪过形式,分别追究人工智能体背后的算法设计者、产品制造者与使用者(管理者)故意或过失犯罪的刑事责任.对人工智能体脱离人类控制侵害法益的刑事风险,赋予人工智能体以刑事责任主体地位的肯定论归责方案,存在持论依据及论证路径方面的诸多误区.以刑罚规制人工智能体刑事风险缺乏适宜性,应当借鉴"科技社会防卫论",通过建构保安处分机制,由司法机关在参考专业技术意见的基础上,对严重侵害人类利益的人工智能体适用以技术性危险消除措施为内容的对物保安处分,回避以刑罚规制人工智能体刑事风险必须具备可非难性的局限,进而为人工智能的发展预留必要的法律空间.  相似文献   

4.
人工智能的流派大体上可分为符号主义、联结主义和行为主义,它们在历史上与知识产权法各自存在相应的联系.20世纪50年代开始的符号主义人工智能以符号化的知识表征和逻辑推理为主要特点,客观上为知识产权法统一本质的概括提供了新的理论,并可以进行知识产权法专家系统的建构.20世纪80年代兴起的联结主义人工智能以模拟人脑的神经网络和学习过程为主要特点,与知识产权法具有共同的"鼓励学习"宗旨,又在专利客体、创造性审查、创新本质界定和法律伦理等方面提出了挑战.与互联网联系更加密切的行为主义人工智能强调智能行为是适应周围环境的进化行为,其契合了网络时代知识产权立法一定程度的"行为规制"转向,也对相关主体的权利博弈、保护对象的进化升级、智能交互行为的法律规制等带来了挑战.不同流派的人工智能既是知识产权法的调整对象又是其完善工具,它们应当彼此进行深度融合.  相似文献   

5.
人工智能时代之来临,法律人基于各自的理论推演和预设,试图构建新型法理论。以人工智能产品的侵权责任为例,学者们提出了产品责任说、高度危险说、用人者责任说以及法律主体责任说等代表性新观点。通过从生产者、使用者以及社会进步之角度进行思考,发现上述观点依然是传统侵权行为理论的延续。基于历史维度、主体维度以及技术维度反思,也可以发现,人工智能产品的侵权行为并没有动摇现有侵权责任分配原理,现有法理论可以处理好人工智能产品的侵权归责问题。从法理论变革的视角来看,以人工智能为标志的现代科学技术的发展虽然会促进法理论在某些方面的变化,甚至可能是扩大了法律的规制领域,但是想要从根本上撼动现有的法律体系,仍然需要有其他变革的契机。理论与实践的双重演绎表明,科技的发展促进法理论变革,需要具备多种耦合性因素,包括科技因素、社会因素以及制度因素,从而形成理论变革的合力。  相似文献   

6.
以ChatGPT为代表的大语言模型的崛起,标志着人类向着通用人工智能迈出了巨大的一步,给人类带来更多的便利,但也将引发一些潜在风险。2023年4月11日国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》。研究者应对ChatGPT等人工智能语言模型进行负责任的创新,即在创新的同时对模型可能带来的风险具有前瞻性和更加深入的了解。针对ChatGPT存在的缺陷,我们要仔细考量大语言模型应用可能给人类带来的安全性问题,从使用者、研究者、监督者三个角度分析降低ChatGPT造成危害的可能对策,并给出法律规制建议,从而促进更公平、更负责的大语言模型的发展。  相似文献   

7.
余鹏文 《天府新论》2023,(1):108-123
在数字化时代,大数据分析和机器学习算法等人工智能技术已经在刑事司法中得到深度应用,并且在预测警务、犯罪风险评估、量刑决策辅助等法律事项上发挥出技术层面的效率优势。同时,也必须清醒地认识到,人工智能介入刑事司法活动当中,对传统刑事程序正义理论的基本理念和价值产生技术性冲击,尤其是算法偏见和算法黑箱等难以避免的技术难题可能在一定程度上侵蚀了裁判中立原则、程序公开原则、程序对等原则和程序参与原则。但是,在弱人工智能司法的现实语境下,刑事程序正义理论因为司法活动中人的主体性依旧可以发挥规制作用,而在人工智能司法中贯彻程序正义的理论基础在于尊严理论、司法公信力理论以及分布式道德责任理论。最后,刑事程序正义理论应当借鉴技术性正当程序理念,通过引入机器决策风险提示、算法透明原则、算法审计以及算法问责机制等举措来实现技术赋权,强化对当事人的诉讼权利保障。  相似文献   

8.
人工智能可分为一般人工智能和类人型人工智能,人工智能在给人类社会带来便利的同时,也可能对社会秩序产生威胁。现阶段的一般人工智能并未拥有自主意识,尚不能取得刑事主体资格,其危害结果的承担者应归咎于存在故意或过失犯罪心态的生产者、所有者、使用者。但随着科技发展,能独立思考且具备刑法意义上的辨认和控制能力的类人型人工智能将成为现实,赋予其刑事主体地位并由其承担相应刑事责任是符合罪责自负原则的,在立法上设计前沿的强人工智能产品刑罚体系也是必要的。  相似文献   

9.
人工智能在推动人类进步与社会发展的过程中扮演着越来越重要的角色。人工智能在改变人类生产生活方式的同时,也不可避免地带来许多潜在风险和社会问题。人工智能的发展可能造成责任主体不清晰、潜在风险因素增多、人的异化现象加剧、道德主体不明确等问题。保障人工智能的安全使用,实现人工智能的良性健康发展,需要确立人工智能发展的基本伦理原则,加强对人工智能发展的价值规范和道德引导,制定人工智能伦理的相关制度。  相似文献   

10.
在智能社会,刑法对个人信息的保护是以个人信息权入法为基础,将信息的私权保障与利用作为基本原则,导致了人工智能算法个人信息利用刑法规制的错位和提前。当人工智能利用个人信息进行算法分析,一方面,信息主体拥有个人信息权,另一方面,信息使用者也应当拥有信息用益权。个人信息的刑法保护必须从权利说出发并超越权利说,重新回到信息主体和信息使用者共同拥有个人信息安全法益的轨道。然而,刑法尚未明确规定个人信息安全法益,人工智能算法个人信息利用刑法规制与个人信息刑法保护应考虑信息主体和信息使用者对个人信息各自拥有的利益,从场景化行为主义规制的进路出发,对人工智能算法个人信息进行刑法保护和刑法规制。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号