首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
自动驾驶汽车系统特点使交通事故中传统归责模式陷入困境。在自动驾驶汽车交通事故中,自动驾驶汽车制造商应承担产品责任。“制造商过失+产品质量缺陷”是自动驾驶模式下事故发生的主要诱因。交通事故因果关系认定困难和人工智能算法的复杂性、自发性对制造商归责带来挑战。为保障智能时代交通行驶安全,提高交通运输效率,刑法应做出积极调整:在自动驾驶领域,针对制造商增设产品安全过失犯罪,明确制造商注意义务。  相似文献   

2.
包括自动驾驶技术在内的人工智能为社会带来巨大经济效益的同时又给刑法理论造成前所未有的冲击。中国现有刑法体系无法实现因自动驾驶引发的交通事故归责,尤其是如何厘清处于附条件自动驾驶情况下驾驶人过失和系统故障的过错分配与责任归属。至少在目前而言,刑法理论没有必要创设人工智能罪刑体系。纾解自动驾驶事故归责困境的路径为恪守信赖原则以限缩驾驶人注意义务,在被允许的危险理论视角下缓和过于严苛的研发者责任,以及过失竞合责任承担形成研发者为主、平均分配为例外的原则。  相似文献   

3.
若自动驾驶汽车发生交通事故,汽车本身由于尚未产生自主意识且没有刑罚感知能力,本质上仍属于产品,故不具有刑事责任主体地位,无须承担刑事责任.驾驶辅助人与汽车所有人若违背交通运输管理法规规定的注意义务,构成交通肇事罪;若违背生产者所提出的使用规范,则可能构成过失致人重伤罪、过失致人死亡罪、过失以危险方法危害公共安全罪等.在生产环节,生产者主要承担故意责任,即生产不符合安全标准的产品罪,但需增补针对自动驾驶汽车的安全标准并综合运用理论、科技、政策的方法破解"算法黑箱"困境;在流通环节,生产者主要承担不作为责任,但其注意义务的根据与内容发生变化,作为可能性也得到相应的提高.  相似文献   

4.
自动驾驶汽车是人工智能技术发展的风向标,其高度自主化的学习决策机制是人工智能发展的产物,在推动技术进步的同时也使得现有机动车交通事故责任认定体系发生了变化。传统的机动车交通事故奉行以“运行支配”和“运行利益”标准来判断责任承担的主体,实行以驾驶人注意义务为主的过错责任原则。而随着自动驾驶汽车智能化的趋势不断增强,自动驾驶系统具备驾驶人的属性,系统生产者的产品责任有替代驾驶人责任的趋势。结合自动驾驶汽车自主性对其侵权事故责任认定问题展开研究,通过黑匣子技术合理界定运行状态,在平衡技术创新与受害人救济的原则下,认定自动驾驶模式下的交通事故侵权由生产者承担产品责任。然而自动驾驶汽车自主性的存在决定着它不同于普通产品,因此通过强化生产者的说明义务,建立严格的事后监测机制,规定生产者的免责机制和设置强制保险制度等一系列配套的机制来合理分配损害责任。  相似文献   

5.
自动驾驶汽车道德归责困境主要体现为责任主体层面的“责任空缺”、责任承担层面的“惩罚空缺”以及责任分配层面的“多手问题”与“多物问题”。道德归责困境产生的原因主要在于自动驾驶系统具有明显的自主性和人—物协同性,难以运用传统道德责任观进行归责。道德归责困境消解的关键在于拓展传统的道德责任观。要实现对传统的道德责任观的拓展,一种可行的尝试方案是设立“AV法人”,以此实施人—物集体担责,关注责任受体,进行责任前瞻。  相似文献   

6.
人工智能侵权因其侵权主体的拟人性、侵权行为实施的人机交互性、侵权责任认定的复杂性,导致其适用传统侵权责任制度存在责任主体不明、产品缺陷及因果关系认定困难、归责原则不明确等问题。因此增加设计者为责任主体,明确责任主体范围包括设计者、生产者、销售者以及使用者;针对人工智能的设计缺陷、制造缺陷、警示缺陷分别采用“风险—效用”、“对预期设计的偏离”、“合理充分”判断标准,对人工智能因果关系的认定适用举证责任倒置规则;针对不同责任主体,完善人工智能侵权差别化归责原则。  相似文献   

7.
随着人工智能的迅猛发展,自动驾驶汽车已经成为了现实。一方面,自动驾驶汽车能够降低交通事故发生的概率、缓解日常交通拥堵的压力、扫除部分驾驶人员的驾驶障碍、提高生态环境的质量;另一方面,自动驾驶汽车在行使过程中并不是绝对安全,引发交通事故侵权责任承担难题。在现行的法律体系中自动驾驶汽车对交通事故责任存在主体缺位或难以确定、过错标准认定困难和保险赔偿机制不畅等。因此,在兼顾技术发展与维护受害人合法权益之前提下,可以根据不同驾驶模式,区分并明确自动驾驶系统与所有人、使用人的义务和责任。引入黑匣子技术判断事故发生时是处于自动驾驶模式还是人工驾驶模式,更有利于维护各方主体利益。同时为了有效的救济受害人,促进自动驾驶汽车的发展,需重塑自动驾驶汽车的保险机制。  相似文献   

8.
汽车发展到自动驾驶阶段,由于车联网和智能交通加入、责任主体多元化、专业技术规范缺失与侵权责任法律滞后,在交通事故中存在责任主体与因果关系难以确定、现有归责办法难以适用等问题。对此要将"人为因素参与"作为责任主体判断标准,建立自动驾驶技术及使用规范,并利用共同侵权行为处理办法解决责任分配问题,建立人与车辆责任明确,不同情况区分适用的"人机共驾"责任处理规则。  相似文献   

9.
随着人工智能技术的迅猛发展,自动驾驶汽车的商用化普及也指日可待。技术的发展往往是一把双刃剑,一方面,自动驾驶汽车给人类带来社会效益、经济效益和巨大的环境效益;另一方面,自动驾驶汽车不能完全杜绝交通事故的发生。为了解决自动驾驶汽车交通事故侵权责任承担带来的难题,为完善自动驾驶汽车的交通事故损害赔偿法律制度提供有益参考,在探究自动驾驶汽车的决策自主性特征和自主学习功能带来了对现行《侵权责任法》《产品质量法》等诸多法律制度的挑战的基础上,分析自动驾驶汽车发生交通事故时法律责任界定及分配问题。结果表明:自动驾驶汽车所导致的交通事故应根据不同事故原因,基于不同的法律关系对参与自动驾驶运行的各类主体采取严格责任予以归责,并合理分配各类主体之间的责任。参考德国的《道路交通法修正案》、美国的《自动驾驶法》、英国的《汽车技术和航空法案》有关自动驾驶的立法,提出了充分发挥各类保险制度的功能,提高交通强制责任保险的赔偿限额,辅以产品责任强制保险制度,以保护受害人的利益等可行性建议。  相似文献   

10.
监督过失肇始之初是为了解决公害犯罪中处于“领导地位”的监督管理者的责任问题,渐次拓展到追究公务人员的监管过失责任,其实质是越过了作为“中间项”的第三人犯罪而追究处于“上位”的监督者的刑事责任,但是存在诸多传统刑法理论难以解决的归责难题。监督过失行为的实质是过失不作为,导致公共安全风险大幅升高。监督缺位创设了法所不容许的风险并导致损害结果发生,如果行为人具有预见可能性,则具有了可归责性。在司法适用中,应当以保证人为中心对创设法不容许风险予以展开分析,并限制监督过失责任的成立范围。  相似文献   

11.
针对自动驾驶汽车造成的犯罪,需要根据刑法作出具体的认定。如果自动驾驶汽车由于行驶造成他人伤亡、数额较大的财物毁坏,应先确定行为主体。辅助驾驶型自动驾驶汽车的行为主体是辅助驾驶人,完全自动型驾驶汽车的行为主体是汽车生产商。在认定辅助驾驶型自动驾驶汽车造成的犯罪时,根据辅助驾驶人所具备故意或过失的具体形式,其驾驶行为构成不同的犯罪。在认定完全自动型自动驾驶汽车造成的犯罪时,汽车生产商的行为只能构成过失致人死亡罪或过失致人重伤罪且只能是作为犯,定罪的核心在于汽车生厂商的注意义务和注意能力。  相似文献   

12.
自动驾驶作为一个动态发展的技术连续体,在具体应用场景中呈现出从人类主导过渡到人机协同再到机器主导等不同人机关系样态,其自主性与人类控制权之争引发了各种伦理、法律和社会等问题。人机互动关系演变背后折射的是人类控制形式的不断进化,从本质上看,自动驾驶汽车的责任鸿沟问题与不同技术嵌入层级下的人类控制密切相关。源于应对人工智能伦理困境的“有意义的人类控制”,可作为解决自动驾驶汽车责任鸿沟问题的一种全新技术治理理念。借助“追踪-回溯”双向路径设计,实现对多元责任主体的锚定。在“有意义的人类控制”框架下,将自动驾驶置于技术层级与人类控制的关系界面之上,坚持以科学的数据系统为支撑,以责任锚定为导向,以人类控制为中心,通过伦理与法律的整合进路,并结合完善的保险制度,破解自动驾驶主体悬置的困境。未来,应加强自动驾驶的跨学科交叉研究,尤其需要借助科技与人文的常态化对话机制,强化各利益相关方的伦理自觉和法律认知,摈弃简单的技术设计视角,实现“有意义的人类控制”转向,从而进一步推动自动驾驶技术的发展。  相似文献   

13.
各国法律在认定人工智能侵权主体方面缺乏适当的请求权基础,大陆法系和英美法系国家对物之客体局限性的表达也使得人工智能处于法律主体认定的模糊地带。为了厘清人工智能产品侵权的各主体之间关系以及确认人工智能是否具有主体资格,以无人驾驶汽车为例,从生理因素、社会因素和心理因素论证人工智能产品的物权属性,得出无人驾驶汽车的产品属性,进而确定责任主体:生产者、销售者、设计者以及操作者。以《中华人民共和国侵权责任法》(以下简称《侵权责任法》)和《中华人民共和国产品质量法》(以下简称《产品质量法》)为规范依据,对比生产者、销售者、设计者、操作者之间的关系,同时设定3个侵权场景即无人驾驶汽车和行人、无人驾驶汽车和普通汽车以及无人驾驶汽车与无人驾驶汽车来确定四者在人工智能产品侵权时的法律地位。在人工智能侵权场合将举证责任分配给侵权者,由其来证明自己无过错,一方面减轻了被侵权人的举证责任,另一方面也能够在侵权行为和结果之间成功搭建因果关系。结果表明:人工智能本身不能作为责任主体承担侵权责任,而是作为客体并适用规范客体的法律来分担侵权主体之间的责任,在侵权事实出现时,针对不同的主体运用不同的归责原则,使责任得以合理分配。  相似文献   

14.
高度自动驾驶汽车具有三个特征:程序依赖、不完全的机器信任和系统深度学习功能下人机互动所导致的"行为耦合"。也因此自动驾驶技术的发展对传统责任体系构成了一定冲击。对高度自动驾驶汽车驾驶人的责任认定应采取过错推定原则;针对高度自动驾驶汽车的产品缺陷,可以采取合理机动车标准弥补传统的产品缺陷认定标准的弊端,另外也需要重视专家鉴定结论和事件记录仪的证据辅助功能。最后,针对某些情形下责任主体认定的困境,可以通过自动驾驶汽车产品责任保险对损害进行填补,以转嫁自动驾驶汽车本身的行业风险,以鼓励创新、支持自动驾驶行业的发展。  相似文献   

15.
现代人工智能的“可信任”研究通常关注的是人对智能算法的信任问题。但在风控领域逐渐转向AI“合理怀疑”能力的要求中,算法对人的“信任”也已成为人工智能伦理的重要问题。风险防控本身就是如何信任一个人的问题。在现代未来学思维下,人把对信任与怀疑的规划都交付给技术,以降低风险率。人工智能风控技术以数据和算法作为信任人的方式,这是智能时代“后人类”的一个必然的社会深度脱域特征。因而,人工智能风控相对于其他智能技术需得到独特的哲学关注。但是这种算法信任主导下的风险防控,必然面对正义性的考量。在人工智能物逐渐被作为一种能动主体的情境下,实现其在风控场景中对人的“合理怀疑”也成为智能风控的基本伦理要求。  相似文献   

16.
人工智能技术给人类生活带来诸多便利的同时,也蕴含巨大风险。从实践层面观察,人工智能技术的研发、应用以及发展给法律带来了巨大挑战,具体反映在个人信息保护、算法规制、人工智能作品的知识产权保护、人工智能监管及其引发的责任分配等方面;从理论推演分析,由人工智能引发的法律问题包括法律原则、主体制度、权利制度以及责任制度四方面。为应对人工智能产生的法律问题,各国纷纷加快了立法、修法进程,并在算法自动化决策、自动驾驶汽车、生物识别信息技术、深度伪造技术及数据安全与隐私保护等领域取得了积极成果。尽管如此,在迅猛发展的人工智能技术及其应用面前,相关立法仍然存在滞后性,需要从理念、原则与措施三个层面积极寻求应对方略。  相似文献   

17.
人工智能产品相较于普通产品最大区别在于其自主性,一方面体现在人工智能产品运作方式更具复杂性,它们能够自主决策与自主行为,处于"感知-分析-行动"模式,其运行过程为"黑箱"操作,难以为人类所探究;另一方面体现在产品侵权的致害主体更具多元性,除了作为传统产品侵权主体的生产者与销售者外,还包括研发者,甚至人工智能产品本身。基于此,当前产品缺陷的司法认定存在困境。一是现有判断标准在人工智能产品视域下缺乏适应性,由于《产品质量法》中"不合理标准"的抽象性、复杂性与《人工智能标准化白皮书(2018版)》中"技术标准"的应急性、不确定性,现有标准的使用难以解决人工智能产品缺陷的司法认定问题;二是我国现有立法未将产品缺陷进行类型化认定,而仅对产品进行笼统的缺陷判断,在人工智能这一多元责任主体与多样未知风险的领域,该种产品缺陷的司法认定模式在适用时更为捉襟见肘。为将人工智能产品缺陷的司法实践规范化,在产品责任框架下应将缺陷划分为设计缺陷、制造缺陷、警示缺陷及跟踪观察缺陷,这不仅有利于契合人工智能产品的归责原则,也与产品侵权责任各要素相对应。人工智能产品缺陷司法认定标准应与有关主体应履行的义务相结合。具体而言,人工智能产品设计缺陷的责任主体为设计研发者,其应当履行安全保障、性能平衡、全面测试等义务,该缺陷采用"风险-效用"的司法认定规则。制造缺陷的责任主体为制造者,其应当履行配合设计预期效果与按照设计方案进行制造的义务,该缺陷采用"对预期设计偏离"的司法认定标准。警示缺陷的责任主体为制造者、销售者,警示义务应当达到警示内容的充分性、警示时间的更迭性与警示语言的简明醒目性等要求,该缺陷采用"合理充分"的司法认定标准。跟踪观察缺陷的责任主体为设计研发者、制造者与销售者,跟踪观察不仅要求畅通产品的反馈渠道,也要积极定期对产品进行监察,更要及时对问题产品作出反应,该缺陷采用"个案认定,综合判断"的司法认定原则。  相似文献   

18.
人工智能体具有类似人类的智能和自主能力,其行为可能导致他人或社会受损,这就要求伦理学理论面向新兴的人工智能体开放,承认人工智能体在有限意义上具有道德能力。面对人工智能体引发的伦理问题,学界出现“机器人伦理学到底是人的伦理学还是机器的伦理学”的争论,争论的焦点在于人工智能体具有的自主能力能否使其具有道德能力。这种挑战具体展开为两个方面。一方面,人工智能体能否赢得道德关怀资格。面向人工智能体开放的伦理学试图以“相似性”标准扩充“理性”标准、“感觉”标准和“生命”标准,从而将人工智能体纳入到道德关怀名单之中。另一方面,人工智能体能否成为道德主体,承担道德责任。面向人工智能体开放的伦理学尝试以基于机器学习的道德自主能力为基础,承认人工智能体是一种类似于人类的准道德主体,需要承担相应的有限道德责任。面向人工智能体开放,意味着需要调整和补充现有的、属人的伦理学理论,以便将人工智能体真正纳入到伦理学理论中来。  相似文献   

19.
人工智能的普及给我们的日常生活带来了许多便利,但也带来了数据泄露、算法偏差、责任分配不清、主客关系变得不稳定的风险。有效控制人工智能的伦理风险,应当优先考虑其技术设计,并且在保护个人隐私的同时,确立其在社会中的责任范围,建立完善的人工智能伦理规范,确立其作为主体的地位,并且坚持其诚实守信的原则;此外,还应当加速其法律化的步伐,建立完善的智能伦理制度,以期实现“人—机”的和谐共存。  相似文献   

20.
人工智能刑事风险并非属于一种"超个人风险"类型。对人工智能刑事风险认知的主观幻化现象进行逐一诘问,能够得知:超个人风险分为事实层面的现象风险和规范层面的法律风险,智能产品在设计和编制程序范围外,其所实施的严重社会危害性行为仅是一种纯粹事实的现象风险。人工智能产品刑事责任评价的路径阻却在于智能技术本身缺乏生活情感的经验总结、智能产品适用刑罚规范不具备现实意义、深度学习是凭借人类思维模式的基础输出进行的。人工智能刑事风险的立法归责应确立限制从属性,亦即,限制可允许性与超越性的人工智能风险之存在,明确人工智能刑事风险从属于自然人主体。继而,可为人工智能时代刑法立法的科学化探索奠定理论基础。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号