首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 92 毫秒
1.
医疗人工智能的高效性和先进性对公共卫生和医疗保健领域的技术创新产生了深刻影响。医疗人工智能有望使公民更好地享有健康权,并对整个公共卫生领域带来裨益,但同时也需注意医疗人工智能的发展速度远超对其监管框架的部署规划,会对个人权利和公共健康构成严重挑战,亟需法律作出相应回应。从相关当事人的尊严和自主性的保护、健康数据处理中的隐私和个人信息保护、医疗人工智能应用的公平性和透明度、问责制度和归责原则等方面分析了医疗人工智能应用的法律挑战,并从明确医疗人工智能的治理原则,建立包含硬法和软法在内的初步立法框架,构建科学、合理、高效的监管体制等角度构思了我国医疗人工智能的治理框架。  相似文献   

2.
人工智能技术给人类生活带来诸多便利的同时,也蕴含巨大风险。从实践层面观察,人工智能技术的研发、应用以及发展给法律带来了巨大挑战,具体反映在个人信息保护、算法规制、人工智能作品的知识产权保护、人工智能监管及其引发的责任分配等方面;从理论推演分析,由人工智能引发的法律问题包括法律原则、主体制度、权利制度以及责任制度四方面。为应对人工智能产生的法律问题,各国纷纷加快了立法、修法进程,并在算法自动化决策、自动驾驶汽车、生物识别信息技术、深度伪造技术及数据安全与隐私保护等领域取得了积极成果。尽管如此,在迅猛发展的人工智能技术及其应用面前,相关立法仍然存在滞后性,需要从理念、原则与措施三个层面积极寻求应对方略。  相似文献   

3.
以ChatGPT为代表的生成式人工智能在优化产业结构促进经济发展的同时也带来新的法律风险。语言模型训练中的风险主要包括侵害个人信息与作品著作权风险,内容生成过程中的风险则体现为人工智能“幻觉”导致的错误信息风险、算法偏见风险、“涌现”导致的算法失控风险以及人机互动中的算法滥用风险。《生成式人工智能服务管理暂行办法》提供基本的治理框架,但部分条款设置与具体治理方式上存在不足。生成式人工智能的性能取决于训练数据集的规模与质量,模型训练中的数据治理需要尊重其技术逻辑,实践中应拓展公共数据中著作权数据与个人数据的合理使用边界。内容治理可以借鉴“宪法人工智能”的基本理念,构建动态的内容反馈评估机制。  相似文献   

4.
数字时代人工智能逐步深入人类生活,在改造和重塑各行业、为社会发展赋能的同时,也引发了不容小觑的法律和伦理风险。尤其是在Chat GPT等生成式人工智能面世后,人工智能立法规制的必要性大大增加。欧盟和美国率先针对人工智能发布立法规制,这为我国人工智能综合立法中基础法律问题的解决提供了先行经验,如解决人工智能法律主体地位和知识产权争议等相关问题。除此之外,分析美欧人工智能相关立法也为中国应对AI风险等级分类管理、全过程体制监管以及建立人工智能相关治理机构等具体程序性问题提供了参考。目前,我国针对生成式人工智能出台了《生成式人工智能服务管理暂行办法》,深圳、上海等地也相继出台了地方性立法,但还未形成国家层面的人工智能综合立法。综合立法可以解决我国人工智能法律规范数量少、层级低、缺乏顶层设计等问题,更好地进行人工智能管理和促进其发展。此外,树立良性道德伦理规范有利于为后续立法进程打好基础,加快数据、算法等基础立法进程也有助于促进人工智能的综合立法进程。  相似文献   

5.
国家机关作为我国数据资源的最大掌控者,在履行法定职责过程中涉及大量个人信息的处理。国家机关处理个人信息存在处理失控、处理泛化、信息监控和信息泄露等特殊风险,但我国现有立法对国家机关处理个人信息所涉及的特殊风险缺乏足够多的有实际约束力的制度设计。面对国家机关处理个人信息的特殊风险,针对我国现有立法对国家机关处理个人信息法律规制的不足,国家机关处理个人信息的法律规制应从细化国家机关处理个人信息的告知义务、规范国家机关对个人信息处理的授权、明确国家机关处理个人信息的比例原则、强化国家机关处理个人信息的安全保障义务、建立国家机关个人信息处理的分级机制等五个方面展开。  相似文献   

6.
ChatGPT是美国人工智能研究实验室OpenAI推出的一种人工智能技术驱动的自然语言处理工具,其深度的学习能力和自我纠正能力,提高了人工智能与人类之间的交往。ChatGPT在实现科学技术革新的同时,也存在敏感数据泄露的风险。ChatGPT在保护个人主体数据、企业主体数据和国家主体数据方面需要法律予以规范。因此,如何应对ChatGPT带来的数据安全,成为生成式人工智能亟待解决的问题。为此,通过分析ChatGPT运作阶段和数据主体应用现状可能存在的数据风险,以我国数据规制法律框架为基础,借鉴域外人工智能立法模式,探究ChatGPT的数据风险法治化应对策略,以此合理构建我国生成式人工智能的数据风险法律规制体系。  相似文献   

7.
目的/意义随着大数据和人工智能技术的快速发展,智能驾驶汽车已经从理想变为现实。但是,智能驾驶离不开对地理定位与出行轨迹等个人信息的收集和处理,引发了人们对个人信息遭受泄露和滥用的担忧。设计/方法通过对域外相关立法、政策和实践进行文本梳理与比较分析可知,智能驾驶汽车个人信息保护的重点集中在权利配置、立法规划、司法救济、行政监管和行业自律等五个方面。结论/发现目前,在我国智能驾驶汽车个人信息保护领域,统一和细化的基础性法规付诸阙如,综合性的救济措施也尚未建立,从而严重阻碍了智能驾驶汽车的进一步发展。为了充分应对智能驾驶技术带来的个人信息和数据安全挑战,未来应当区分前置立法和事后救济,从国家立法、行政监管和行业自律等不同层面完善相应的法律制度和规则。  相似文献   

8.
信息技术正在推动医疗领域开启新一轮数字化革命,“数字化医疗”由此兴起。从宏观视角来看,数字化医疗引发了医疗信息载体、医疗卫生实施、医疗服务供给的全方位变革。但同时也带来了设备与网络安全问题、数据与隐私保护问题、法律适用与管辖问题等亟待解决的法律挑战。以欧盟数据保护立法、人工智能使用规范为代表的相关制度有助于应对数字化技术带来的法律风险与挑战,但也存在针对性与约束力欠缺、数据权利保护有效性不足、透明度不高、信任机制失灵等不足。数字化医疗治理机制应当从营造信任生态系统、优化权利保护设计和明确责任分配机制等方面来加以完善。  相似文献   

9.
民间借贷是中小企业融资的主要方式,对我国实体经济贡献巨大。对我国民间借贷进行立法规制和监管具有必要性和可行性。我国民间借贷规制中存在未能体现融资公平、适度竞争等原则,缺乏促进经济发展原则和民间借贷风险控制等原则的规定,立法数量少且法律位阶低,监管主体不明确,监管范围及如何规制不确定等法律问题。应当对民间借贷的概念加以界定;明确规制和监管原则;加强立法进行规制;明确监管主体;明确监管范围等以提高监管效率。  相似文献   

10.
生成式人工智能的应运而生使得个人信息保护面临着日益严峻的新风险,生成式人工智能从个人信息收集、使用和生成场景中引发了信任危机,传统的个人信息自决路径已然无法适应数字时代的变革。生成式人工智能应用场景中个人信息的算法识别本质成为个人信息保护的新契机,算法对个人信息识别从因果关系转向相关关系,而个人信息流通则基于场景一致性理论建构起信息规范,使得个人信息流通具备合理性,并将个人信息流通的风险控制在信息规范的限度之下。重塑以算法可识别为核心的风险规范路径,需要建构数字守门人的二元规制机制,形成个人信息流通的外部监管规范;同时在个人信息识别流通中,对知情同意原则以信息信托义务进行补充,从而实现个人信息的内部流通机理;对个人信息流通风险基于场景化分置,将个人信息和模型算法进行分级分类,促进个人信息保护的敏捷性治理,以此实现个人信息保护和流通的平衡。  相似文献   

11.
ChatGPT的爆火宣介人类打开了强人工智能时代的序幕,其凭借着强大的数字孪生能力、创作能力、编辑能力及类人性推动着人类社会向更敏捷的时代转型。ChatGPT的出现势必会对现有规则提出挑战,可能诱发生成违法或不良信息、算法偏见、数据泄露、借势贩卖租赁账号等诸多法律风险。但ChatGPT可能产生的法律风险与现存的社会风险并无实质差异,仍未脱离个人信息保护、数据安全、服务提供者应当承担的义务等核心议题。因此,对ChatGPT法律风险的规制,仍应根据ChatGPT技术发展的特征,依托阶段性规制理论,注重风险防范,及时对现行的基本法律条款进行解释适用。  相似文献   

12.
网络技术发展促成了网络代际更迭。在大数据为核心的Internet 3.0阶段,网络在犯罪中的作用和地位发生变化,网络的刑法属性由传统的犯罪对象、工具演变为网络犯罪的场域空间和存在方式。网络犯罪的表现形式也随之演化,在传统犯罪网络化趋势加强的同时,出现了人工智能犯罪等新的犯罪形态。在对比网络犯罪与传统犯罪的危害性评价差异的基础上,可以将网络犯罪区分为三种类型:危害性评价等价于传统犯罪的网络犯罪类型、线上线下危害性评价背离的网络犯罪类型、以网络大数据为核心的新型网络犯罪,后者尤以人工智能犯罪为代表。人工智能的法律问题冲击着以人为核心的法律制度体系,也给刑法提出了新的命题。大数据、云计算以及人工智能技术的发展,意味着新的风险时代的到来。刑法对以网络为工具和对象的犯罪进行了有效立法应对,但对大数据时代的网络犯罪规制不力,对以“网络为空间”的犯罪应对不力,对以“网络为存在本质”的犯罪尚未作出实质回应。刑法缺乏应对新型网络犯罪的风险机制,一是对大数据系统安全、算法安全和数据与信息安全为内容的新型网络安全风险应对不足,二是对滥用人工智能技术、人工智能技术瑕疵带来的刑事风险缺乏应对。同时,在立法规制网...  相似文献   

13.
人工智能时代的个人数据和信息支撑着人工智能系统的运行,个人信息在当下的重要性和具有的价值已不言而喻。个人信息的识别要素包括"可识别性"和"可固定性",人工智能领域的个人信息在此基础上呈现出不同形式,包括被"智能物"收集的个人信息和被智能系统分析得出的个人信息。而人工智能在不同情形中侵犯个人信息,其侵权主体在现行法律的规定下难以判定。"智造时代",人工智能严重威胁着个人信息的安全。因此,在人工智能时代到来的同时,更应当对人工智能领域中的个人信息安全问题提供有效的法律保障。  相似文献   

14.
智能社会隐私关注与数据挖掘之间的博弈值得关注,而目前尚未厘清隐私类型、隐私采集主体和个人隐私关注之间的关系。通过一项针对160名大学生的4(个人信息类型:数字足迹信息、数字生活信息、人口统计信息和自我披露信息)×2(主体类型:人类和人工智能)混合实验发现,受试者最为关注个人数字生活信息隐私,对人口统计信息隐私风险的关注最弱。此外,受试者更信任向人工智能主体而非人类主体披露个人隐私信息。根据研究结果,从加强用户隐私保护宣教、督促企业履行法律和伦理义务、应用联邦学习和区块链隐私保护技术,以及建立隐私侵犯事后救济等方面提出建议。  相似文献   

15.
人工智能时代的到来促进了政府治理方式的变革,助推监督方式向智能化方向发展。实现多种监督类型的贯通是党的十九大报告的基本要求之一。人工智能技术在推进多种监督类型贯通方面体现出符合现实需要的合法性逻辑,突显有效性的赋能逻辑和彰显人民主体地位的价值逻辑。然而,在利用人工智能技术推进多种监督类型贯通时也遇到了多重障碍:数据黑箱、伦理风险、人工智能人才缺失、制度保障阙如以及贯通合力不足等。对此,应致力于破解数据黑箱、加强伦理反思、制度建设提升、人工智能人才培养以及多种监督类型贯通的促进机制的健全,以提升监督体系的贯通力。  相似文献   

16.
The rise of legal artificial intelligence in China's legal practice will bring many challenges to legal professionals. Low-end legal profession will be replaced by artificial intelligence. Legal artificial intelligence will bring some difficulties to judicial work and legal research. Legal professionals must master various legal methods, learn to use common sense and reason in legal work, and master certain basic knowledge of artificial intelligence technology, in order to meet the requirements of legal profession in the era of legal artificial intelligence. Therefore, the law education in China should be reformed and adjusted in order to cultivate legal talents adapted to the era of legal artificial intelligence. Firstly, the education of legal methods should be strengthened from the aspects of curriculum, textbooks and teaching methods; secondly, the education of common sense and reason should be integrated into the legal education; finally, the education of basic knowledge of artificial intelligence technology should be added to the legal education to train compound legal talents.  相似文献   

17.
随着大数据、人工智能、遥感遥测等新兴信息技术应用于环境监管实践的程度不断加深,技术赋能已然成为当前及今后开展环境治理的重要途径,也成为环境法法典化的时代背景。然而,技术赋能在提高环境治理效率的同时也挑战了现有环境法范式:一是新兴信息技术介入环境实践引发了新的不公正现象,使实体性环境正义和程序性环境正义都受到了挑战;二是环境法律规则滞后于治理需求,由于在环境法律规制场景中,以技术代码等为主的"算法程序"能够成为实然层面的"环境法律规则",会导致权利义务失衡;三是环境监管过程中大量运用新兴信息技术,可能出现数据失真、算法偏见、规制俘获等风险,影响环境监管部门在决策、监督、管理及执行等过程中的职能履行效果。随着环境法典编纂提上议程,如何权衡技术赋能的风险与收益成为亟待解决之题。由于技术赋能环境治理突破了既有环境法范式,出现环境治理场景去人工化和环境法律规制在线化现象,这意味着技术成为环境治理和环境法律规制场域的介入因素,导致环境治理实践面临社会系统和规制系统双重"脱域"之境遇。可见在大数据时代,不仅要关注环境法典编纂的篇章结构、规范体系等具体问题,也要立足环境法范式转型之时代需求,为研究环境法典的未来样态提供理论支撑。因此,技术赋能背景下的环境法法典化要在祛魅技术风险的同时保障治理效能,并逐渐迈向智慧型环境法典。其一,要塑造新型环境法典理念,重构环境法与新兴信息技术之间的关系,以回应技术赋能对传统环境正义所带来的冲击,进而形成能被环境法共同体所接受的共有价值,实现数字环境正义;其二,要结合新兴信息技术改造环境法律规则,实现环境法律规则与技术代码的沟通,并以此为基础创新环境法律规则形式;其三,智慧型环境法典要关注风险预防,实现风险与收益相平衡,利用新兴信息技术建立智慧型环境风险防治机制,提高事前、事中及事后全流程环境风险防治效能。  相似文献   

18.
从历史上看,"黑客"迭代到"人工智能黑客",是伴随着计算机、互联网、大数据和人工智能等科学技术迅猛发展而产生的。现如今的"人工智能黑客"是人机交互体,既非人也非物,介于两者之间,它可以模仿人类、干扰人类认知,为达到设计者或决策者的目的对网络系统漏洞进行智能化侵入和破坏。"人工智能黑客"区别于传统"黑客"的主要特征在于其可以依靠智能算法自主学习、寻找网络系统代码漏洞和加强分布式攻击。部分学者将人工智能技术划分为弱人工智能、强人工智能、超人工智能三个阶段,甚至有学者建议从伦理上赋予强人工智能法律主体地位,赋权理由是强人工智能算法具有独立的"机器意思"表示能力,与人类有情感的联结。显然,这种赋权方式不仅违背"人本主义"原则的主体创新,而且现行法律主体包括自然人、法人、非法人组织,"人工智能黑客"不属于任何一类主体,突兀地将法律主体的理性意思表示与人工智能算法指令的"机器意思"相等同,容易形成"人工智能黑客"行为在算法正义法律评价和民事法律行为构造上的困境,干扰我们对"人工智能黑客"本质的判断。溯本清源,应当以法律上权利义务构造标准去判断"人工智能黑客"的法律属性。"人工智能黑客"本质上是自然人主体通过人工智能算法技术,利用网络媒介进行网络侵权或犯罪的行为。"人工智能黑客"的核心是通过计算机代码设置、大数据运算与机器自动化判断进行决策的一套机制。"人工智能黑客"在责任承担上不是适格的法律主体,只具有特殊的"人格性工具"法律属性。"人工智能黑客"的智能化攻击外在表现为算法程序的自动执行,但程序的设计和算法运行归属于现实经济生活中的人,也完全符合法律上间接侵权的调整范畴。对于"人工智能黑客"的侵权或犯罪行为,应当通过揭开"人工智能黑客"的"面纱",找到其背后隐藏的可规制法律主客体,利用"穿透"方式对"人工智能黑客"的非法行为进行伦理、技术和法律三个维度的有效规制。  相似文献   

19.
智能技术及其应用的迅猛发展,对以人类的主体性地位为根本存立前提的当代法律体系形成强烈冲击,智能主体的刑法地位成为关键问题。目前,消极论和积极论处于相持阶段,加速了现行刑法理论体系的知识变革进程。“人造物”等不同程度的消极论,以现行刑事法律制度难以直接接纳及其所裹挟的潜在的刑事风险等为由,虽有其可取之处,但其逻辑机理正是过度释放人类中心主义的预设效应。完全按照人类中心的立场进行审视会得出无法调和的结论,也显示了智能技术应用的工具属性被深度放大之倾向,但上述消极事由不尽然合乎规制人工智能犯罪的现实需要,也与法律主体制度的演进规律不符,甚至会压制刑法主体的自主进化。“电子人”等不同形式的积极论,率先走出绝对的人类中心主义及其观念束缚,以发展的眼光看待人工智能与刑法的互动及其动向,更加契合了人工智能犯罪的发展动态。而意志自由、刑事责任能力、道德伦理规则、智能程度与智能主体类型、刑事责任的客观存在、算法的特殊地位与意义等既有的知识框架与新的要素累积,意味着人工智能可以在发展的刑法体系中实现衔接与契合。经由不真正完全背离刑法原理的认识扭转,亦供给了学理层面的支撑。而且,遵循功利主义的理路,以及在一...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号