首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
郑志峰 《浙江社会科学》2022,(12):48-58+156-157
相较于机动车交通事故责任,产品责任在解决自动驾驶汽车责任分担方面更具共识与优势,既高度契合自动驾驶汽车的事故特点,又可以直接督促生产者一方提高产品安全性能,并且能够更好地救济受害人和分散风险。自动驾驶汽车产品缺陷的认定面临技术与法律层面的诸多障碍,当前并无成熟的技术标准可供适用,而消费者期待标准与风险效用标准也各自存在适用困境。理性算法标准将注意义务对准自动驾驶系统本身,充分挖掘产品设计缺陷背后的过失属性,契合自动驾驶汽车的技术特征,增加了受害人救济的可能,同时也稀释了产品缺陷的负面评价,可以很好地缓解设计缺陷的认定难题。理性算法标准的适用需要区分不同阶段的自动驾驶汽车、不同类型的危险,同时应从功能安全、预期功能安全以及网络和数据安全三方面更新技术标准,完善生产者一方的警示义务与跟踪观察义务。  相似文献   

2.
郑戈 《浙江社会科学》2022,(12):37-47+67+156
自动驾驶汽车是人工智能技术得到全面、综合应用的产业领域,涉及到算法自动化决策与人的自主性和尊严之间的潜在冲突。由于法律本身的回应性和救济性特征,导致它无法提前介入到算法设计过程之中,因而无法为算法设计提供向善的指引。我国虽然越来越重视人工智能伦理问题,并为此设立了相关机构,制定了相关规则,但关于人工智能伦理的讨论却停留在科技向善、以人为本等抽象原则的层面,没有形成有针对性的自动驾驶汽车算法伦理。本文通过对德国交通与数字基础设施部伦理委员会报告、伦理学中的电车难题讨论和道德心理学领域的“道德机器试验”的介绍和分析,讨论了为自动驾驶汽车装上伦理方向盘的必要性和可能的推进方式。  相似文献   

3.
自动驾驶汽车是指在没有驾驶员操作的情形下,能够自主、安全地行驶车辆。对其交通肇事后刑事责任的分析应当区分为纯自动驾驶和有条件自动驾驶两种情形。纯自动驾驶汽车交通肇事后,基于“成本收益”的考量,不应当由车辆本身作为刑事责任主体,但由于此时的驾驶者相当于乘客的角色,自始不参与车辆操作,故而设计者成为责任主体,对于肇事行为与结果之间的因果关系宜采用“可能性”的概率论。有条件自动驾驶汽车交通肇事后由驾驶者作为主要的责任人,依据“合法则条件说”对肇事结果承担罪责,设计者、生产者或销售者依其预见可能性,在可能的范围内承担产品过失的罪责。  相似文献   

4.
随着自动驾驶车辆逐渐融入人们的日常生活,区分辅助驾驶车辆与自动驾驶车辆的法律责任,无疑具有重要的理论价值与现实意义。从我国颁布的相关法律法规以及地方性法规、规章制度等来看,对自动驾驶车辆发生事故的民事责任等有所规定,但如何规制其刑事责任的确定尚处于空白状态。确定自动驾驶车辆事故的法律责任,不可能无视刑事责任,关键在于如何认定事故中的注意义务。注意义务是影响车辆事故之法律责任的重要因素,在过失犯罪认定中具有决定性作用。辅助驾驶车辆与自动驾驶车辆在注意义务的根据、特征、内容以及主体等方面,均存在较大区别。与辅助驾驶等传统车辆驾驶相比,自动驾驶车辆的注意义务更具有复杂性、多样性,同时还会面临来自道德与伦理方面的拷问。  相似文献   

5.
姚瑶 《浙江社会科学》2022,(12):59-67+157
以自动驾驶汽车为代表的人工智能产品致害所涉犯罪主体复杂多样、前置性规范缺失,以及人工智能产品固有的自主与黑箱特性等问题给过失犯理论带来了变革的压力与挑战。传统过失犯理论、新过失犯理论以及客观归责理论都无法解决人工智能产品致害所涉过失犯罪认定问题。人工智能产品致害所涉过失犯罪刑事责任的认定问题应当接受“法益保护优先,兼顾科技发展”刑事政策的约束与指引。坚持“法益保护优先”的基本定位,意味着要借鉴风险控制理论,以及客观归责理论中创设法所不允许危险与实现法所不允许危险的判断规则,进行客观层面是否入罪的判断;遵循“兼顾科技发展”的制约原则,则需要运用结果预见可能性理论中信赖原则等内容,进行主观层面是否出罪的认定。  相似文献   

6.
于涵 《天府新论》2021,(4):101-108
自动驾驶汽车的道德算法架构,是涉及法律与道德、正义与情理等法哲学的基本命题。在现有模式中,功利主义与普遍的道德直觉相背离,义务论又缺乏现实可操作性。基于调和论立场所形成的风险分配模式,旨在用不确定性算法代替确定性算法,在理论上徘徊于两种极端之间,且具有超越两者的显著优势。具体而言,应当以价值等级序列为支点,以风险分配均等化为核心。诚然,算法设计的本质是在决定如何分配风险,当特定群体所承受的特定风险超越极限时,便需要根据社会主流价值判断调整各因素的权重。或许,这就是算法设计中风险分配的终点与宿命。只有通过不断修正,才能逼近特定时间段内可能存在的“正解”。  相似文献   

7.
智能驾驶数据是智能驾驶汽车运行过程中收集、使用的数据,包括车内数据、路边环境数据以及智能车联数据。这些数据无论是基于个人信息保护还是国家安全立场,都存在风险防范与治理的必要。但是,智能驾驶数据体量巨大、主体多元、涉及权益复杂,传统主体赋权路径难以明确数据权属及各方权利义务分配,数据隐私与数据公开的矛盾在智能驾驶领域表现得尤为突出。对此,智能驾驶数据的治理框架需基于参与主体地位不对等、“知情同意”模式失效等场景特征,以“卡—梅框架”理论为指导,强调基于“数据与信息主体联系的强弱”,设置类别化的数据治理规则。具体而言,对主体指向明确的车内数据沿用“知情同意”规则;对结果可能指向个人的其他数据采取默认授权模式,但需要以数据控制者对个人信息保护的强制性义务为前提;对车边环境数据,重点关注数据中的国家安全风险,严格执行数据境内储存、跨境流动审查和对外公开限制的要求。  相似文献   

8.
美国的自动驾驶汽车立法有借鉴作用。美国联邦的道路交通安全局(NHTSA)逐年更新的政策既界定了联邦和州政府各自对自动驾驶汽车的管理权限,也指导和帮助了州的立法实践,而州的法律又具体规范了自动驾驶汽车测试的执行。但美国的经验仅可作为一种参考,思考我国自动驾驶汽车法律规则的制定,必须立足我国国情。我国在自动驾驶汽车立法时,应确立安全的核心价值,有效平衡法律规范与技术创新之间的关系,构建较为全面的权责体系,以及确立交通事故责任分配和赔偿机制。  相似文献   

9.
自动驾驶汽车交通肇事的刑法应对   总被引:1,自引:0,他引:1       下载免费PDF全文
黄波 《天府新论》2018,(4):112-118
自动驾驶汽车已经走进了人们的生活,并将深刻改变人们的生活方式。与此同时,自动驾驶汽车在法律层面所引发的驾驶人角色的消解、心态的异化、谨慎义务的变化,给交通肇事罪的主体、主观方面、客观方面的认定带来了巨大的挑战。为此,刑法需要作出相应的调整,主要包括承认自动驾驶系统的驾驶人地位、给予驾驶人必要的容忍和信赖、赋予驾驶人恰当的谨慎义务。  相似文献   

10.
人工智能可分为一般人工智能和类人型人工智能,人工智能在给人类社会带来便利的同时,也可能对社会秩序产生威胁。现阶段的一般人工智能并未拥有自主意识,尚不能取得刑事主体资格,其危害结果的承担者应归咎于存在故意或过失犯罪心态的生产者、所有者、使用者。但随着科技发展,能独立思考且具备刑法意义上的辨认和控制能力的类人型人工智能将成为现实,赋予其刑事主体地位并由其承担相应刑事责任是符合罪责自负原则的,在立法上设计前沿的强人工智能产品刑罚体系也是必要的。  相似文献   

11.
人工智能正在重塑社会生活,其对知识创新的影响进而对学术职业的挑战值得认真探究。鉴于以ChatGPT为代表的人工智能在自然语言处理方面的显著进步,而语言既是人类的本质特征,也是知识创新的操作系统,本研究以ChatGPT为例从知识创新视角分析人工智能取代人类工作的可能性。研究通过概念分析,进而从创新意向、创新水平与特点、创新伦理三个维度,讨论人类学术工作被机器替代或影响的现实可能性,并对ChatGPT进行测试,验证人工智能承担知识任务的实际效果。研究认为,人工智能不具创新意向,因此知识创新任务仍需由人类发起、主导和审查;在创新水平上,人工智能在承担组合性创新任务中优势与缺陷并存,在承担探索性创新任务上表现最好但难掩瑕疵,它根本上不能胜任变革性创新任务;在创新伦理上,人工智能不具备独立的伦理判断能力而是受制于人类植入机器的代码。相较于其在知识创新方面的表现,当前人工智能在创新伦理方面的表现更弱,无法代替人类,反而为人类知识分子提出了新的思考课题和任务。尽管如此,人工智能正深刻影响着人类的学术生活,人要养成与人工智能有效合作的能力,包括人类智能与机器智能融合的科研思维、设计和操作能力,以及对其...  相似文献   

12.
盛思琦 《南方论刊》2024,(2):107-109+112
生成式人工智能赋能网络意识形态治理现代化,是维护意识形态安全的现实之需。但就其现状而言,生成式人工智能暗藏风险,阻碍我国网络意识形态治理现代化。只有以智能平权破解算法歧视、以群己共律驾驭资本力量、以价值理性匡正工具理性、以良法善治维护网络秩序,才能化智为治,进而为有效利用生成式人工智能驱动网络意识形态治理现代化提供有力保障。  相似文献   

13.
焦艳玲 《理论界》2012,(10):48-50
《侵权责任法》46条确立了制售者的售后警示义务。该义务之规定实现了对消费者的全面保护,但由于条文太过笼统难免会给法律适用带来困惑。司法实务中应明确售后警示义务的产生不以销售时产品存在缺陷为要件;除售后"发现"产品缺陷的情形以外,在售后"应当发现"产品缺陷的情形下制售者也应负担售后警示义务。售后警示义务的存在和违反应当遵循"理性人"标准加以判断,违反售后警示义务产生的侵权责任理应适用过错责任的归责原则,而发展风险不应是其免责事由。  相似文献   

14.
王兵兵 《江淮论坛》2023,(1):146-155
自动驾驶事故中出现的过失竞合问题,由于涉及多方主体,必须在厘清自动驾驶分级基本原理的基础上才能准确判断责任的归属。自动驾驶系统本身无法成为独立的刑事责任承担主体,当自动驾驶系统故障成为交通事故重要原因之时只能追究其背后生产商的责任。但从我国当前的单位犯罪立法模式来看,虽然能够在理论上认定生产商具有刑法上的过失,但却没有可以适用的相应罪名,只能追究其产品责任。生产商内部的具体责任人应承担相应的过失责任,这需要结合具体责任人的地位进行实质判断。在涉及人数过多的情形,为避免过失犯处罚的无限扩张,应积极运用信赖原则、因果关系、实行行为等理论限制处罚范围。  相似文献   

15.
人工智能训练数据制度的构建,应置于“智能涌现”的观察视角之中。“涌现现象”和“涌现论”在不同学科都是传统命题,而在人工智能时代“智能涌现”又成为新的关注焦点。对于训练的数据,应注重著作权保护和个人信息保护,但同时亦应在合法框架之下尽可能采集大体量数据和高质量数据,多元数据采集主体负有一系列义务。对于数据的训练,则旨在突出数据的利用规则,通过价值嵌入与技术支撑,防止“智能叛变”,实现数据训练目标,并直接影响人工智能的“输出端”。训练数据制度的构建内嵌于人工智能治理之中,在遵循人工智能伦理准则的基础上,“好的数据”原则应成为一个新视角与新范式,通过涵盖“伦理”之内与之外的实践,使人工智能中的数据制度超越抽象性而更具实践性。  相似文献   

16.
随着人工智能的广泛应用,其在为人类生产和生活带来便利的同时,也引发了数据隐私泄露与算法偏见、责任主体冲击与边界模糊、主客体异化与信任危机、软法缺陷与硬法缺失等伦理风险。规制人工智能的伦理风险,须优化人工智能技术设计,注重隐私保护与社会公正;赋予人工智能以社会角色,划定人与智能的责任边界;构筑人工智能伦理规约,强化人的主体地位与诚信品质;加快人工智能的法制化进程,健全智能伦理制度体系,从而促使“人—机”和谐共处。  相似文献   

17.
钟维 《社会科学》2020,(4):90-98
智能投顾是一种运用人工智能的买方投顾,采用的是直接服务于个人投资者并向其承担信义义务的运营模式。但是,智能投顾来到中国后偏离了它本来的运行轨道,异化为了卖方投顾的形态,具体表现为实践中运行的作为基金销售渠道的卖方投顾,以及资管新规中规定的资产管理公司用于产品资产配置的卖方投顾。因此,必须从经营业态、法律规则等方面引导中国式智能投顾向买方投顾市场发展。我国应当以信义义务对智能投顾进行规制,应当以信息披露为中心,构建以利益冲突披露规则、适当合理建议规则、自我交易与交叉交易规则、最佳交易规则为代表的一整套法律规范。  相似文献   

18.
研究人工智能发展背景下价值的创造及发展趋势,要准确理解马克思对于商品价值内涵的界定及分析逻辑。人工智能发展的前期,各种产品的社会正常生产条件为非自动化生产,活劳动是价值的唯一源泉。随着人工智能飞速发展和全面替代人的劳动,自动化生产将成为产品生产的基本方式,产品作为劳动产品的属性逐渐减弱,而此时社会还不具备实行计划经济的生产力发展基础和所有制基础,需要以市场作为资源配置的基础方式。用来交换的由自动化方式生产的产品可被称为“类商品”,与之相匹配的经济体制可被称为“类市场经济”,是商品经济社会向未来非商品经济社会过渡的产品形态和资源配置方式。  相似文献   

19.
将科特勒的产品五层次结构理论与原来的三层次结构说相比较,可以得出三个新论断1.产品是一个动态过程概念,其价值和利益以及对价值和利益的判断是不断变化的;2.产品价值和利益的形成过程具有双向性,即产品是生产者(售卖者)与购买者共同作用的结果,其中是购买者而不是生产者(售卖者)起主导作用;3.产品价值和利益是每个层次相互作用和变化的结果。产品五层次结构理论实际上是一个双向动态的产品概念。  相似文献   

20.
焦艳玲 《兰州学刊》2012,(8):171-174
产品责任法设立除斥期间的目的在于限制生产者责任、维护法律关系的稳定,这与保护消费者安全为宗旨的售后警示义务存在根本冲突。生产者是否应当对经过了除斥期间的产品负担警示义务和侵权责任,现有法律规定之间存在冲突。司法实践中对该冲突的不同处理反映了司法者对于产业发展和消费者保护这两项价值的不同选择。而否定除斥期间在售后警示诉讼中的适用,才是符合立法目的和社会发展要求的理性选择。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号