首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
ChatGPT类生成式人工智能的快速发展虽在不同领域带来积极影响,但也引发了法律政策、安全技术、社会伦理等层面的监管问题。比较美国、欧盟、日本等国外典型经济体人工智能监管的治理实践,为完善我国人工智能监管治理体系提供政策参考。我国人工智能监管应坚持发展与安全并重、促进创新与依法治理相结合的监管原则,建立健全法律与政策、技术与安全、社会与伦理等层面的监管路径,同时对人工智能进行进入性监管、技术性全程监管和分级分类监管,完善我国的人工智能监管体系。  相似文献   

2.
我国公务员的法治观念及其构建   总被引:1,自引:0,他引:1  
通过对法治观念的历史渊源及其基本内涵的分析,阐述了西方公务员法治观念的基本情况.论述了我国公务员整体法治观念存在的误区,即"人治"意识依然存在,法律工具主义意识浓厚,由制度和监管的缺欠导致法治观念的扭曲.进一步阐明了我国公务员法治观念构建的主要内容,即树立法律权威的观念,遵循程序正义的原则,并加强对其自身的法律知识的考核,吸纳法律人进入政府工作.  相似文献   

3.
人工智能基础数据作为一种新兴科技领域的数据类型,应以法治思维和法治方式考量其培育过程和后续权属状态的规制。与此同时,作为人类智力成果的新晋形式,人工智能基础数据也应当纳入知识产权法治范畴,并且对其知识产权的保护予以规范化设计。从目前我国知识产权法律相关内容来看,人工智能基础数据保护嵌入成文法体系存在客体和标准等一系列的现实困境,因此,在综合考察域外立法实践的基础上,确立保护的基本原则,明晰基础数据的相关权利义务,建立行政监管与行业自律相结合的保护机制,加强基础数据跨境流动的过程监管,以此作为专门立法的核心进路,制定《人工智能基础数据保护条例》。  相似文献   

4.
"法律人格扩展论""人工智能发展论""有限人格论"是人工智能法律主体理论的三大论据。针对这些论据,可对人工智能法律主体理论展开批判。首先,在法律人格理论层面上,"法律人格扩展论"的主张不合法理。法律人格发展至今始终是人类中心主义的。自然人的内涵外延无法涵盖人工智能,法人亦与其背后的自然人密切相关。其次,在人工智能技术层面上,"人工智能发展论"的幻想不切实际。现阶段人工智能虽具自主性,但不具意识、意志和理性。对未来人工智能的科幻想象亦绝不能成为法治的注脚。最后在人工智能法律主体制度构建层面上,"有限人格论"的设想无法操作。其无法解决具体制度设计中的矛盾,无法实现法律的作用,且不当转移了责任风险,最终将有害于人的权利保障。因此,人工智能无法成为法律主体。  相似文献   

5.
生成式人工智能(AIGC)的迅猛发展,全方位渗透社会生活各个领域,并对传统法律制度形成重大挑战,造成了现行法律制度与法治现代化需求之间的紧张关系。以法治现代化为导向推动AIGC的法律治理,制度转型、制度变革刻不容缓。法价值、法秩序、法动力层面的理论定向,为AIGC法律治理现代化提供法理涵养和功能定位依据,需要从人工智能治理与人类价值目标相一致、满足法治现代化的需要和国家现行法治制度对人工智能治理的需求等方面予以探讨。法治现代化价值需求、风险规制需求、新的规则秩序需求勾勒、型塑出AIGC法律治理基本框架,需要实现法治共识向制度的转化、构建有对应性的理论规则,有效拓展科技治理的内涵,以制度转化、制度增容、制度供给、制度耦合来构建生成式人工智能法律治理的现代化体系。  相似文献   

6.
从屏幕视角梳理影视人类学史,可以建构影视人类学1.0版、2.0版和3.0版的三分模型。最初的电子音像屏幕是电影院银幕,影视人类学作品是在那上面呈现的,这是学术史第一阶段,即影视人类学1.0版,始于20世纪50年代。学术史第二阶段,即影视人类学2.0版,始于70年代,从那时起,电视屏幕逐渐普及,并催生了专业影视人类学教学和研究机构。立足现在以展望未来,学术史第三阶段即影视人类学3.0版的特征,应该是手机屏幕作为成果呈现载体。影视人类学2.0版和3.0版之间,存在着一个基于电脑的DV阶段,从1995年持续至今。DV阶段可以视为阈限期,它既包含过去的因素,也包含未来的因素。  相似文献   

7.
生成式人工智能是一项变革性技术,具有高度颠覆性,将改变当前用户生活、工作和交流的方式,也引发出一些竞争法律问题。除了传统反垄断法律问题在生成式人工智能领域的体现外,生成式人工智能产业链的竞争法律问题表现为垄断结构的扼杀式收购等行业并购和网络平台效应,训练数据的数据垄断、剥削性滥用,算法研发的生态系统封锁、竞业条款构成排他性行为,算力提供的算力封锁、歧视性待遇、自我优待,应用服务的搭售、捆绑销售、独家售卖、拒绝交易等排他性行为。传统竞争法监管框架都适用于生成式人工智能新业态,同时密切关注并对生成式人工智能等新业态的反竞争行为保持警惕。我国现有竞争法律规则体系仍然适用于生成式人工智能新技术新业态领域,针对新的竞争法问题,建议出台促进生成式人工智能技术和产业的充分竞争、创新发展政策,制定出台专门的《人工智能的反垄断指南》,竞争执法部门分场景、分环节重点关注生成式人工智能的潜在反竞争行为,司法机关适时总结典型司法案例,出台司法解释进行指导。  相似文献   

8.
以ChatGPT为代表的生成式人工智能的诞生,标志着人工智能技术从“决策式AI”向“生成式AI”的重大技术跃迁,引发了从“时空革命”到“知识革命”的技术演进。生成式人工智能技术在带来众多科技红利的同时,也引发包括数据安全问题、个人隐私侵犯、知识产权侵害、误导性和虚假信息泛滥、市场垄断、偏见和歧视等诸多现实风险。为了鼓励生成式人工智能技术的创新发展以及规避其所带来的风险,中国采取“包容性法律治理”模式。在治理原则上,包容性法律治理始终坚持协同共治、提升透明度、提高数据质量、发挥法治效能等基本理念;在治理主体上,包容性法律治理提倡多方主体协同治理,充分发挥政府机构、科研机构、行业协会和公民团体等社会组织的力量;在治理过程中,包容性法律治理主张运用多种治理工具,通过技术方案、伦理标准和法律政策全面提升生成式人工智能的风险治理水平;在治理方法上,采取分类分级治理策略;在治理结果上,包容性法律治理强调要注重数字社会的分配公平,弥合数字鸿沟,保障数字空间的基本人权。  相似文献   

9.
赋予人工智能拟制法律人格是界清人工智能产物的财产权利归属和人工智能侵权责任的必要前提。我国民法总则和公司法等法律规范只确立了自然人、法人和非法人组织三种主体的法律人格,对人工智能并无规定。为了适应人工智能技术的发展,解决涉及人工智能产物的权利归属纠纷和人工智能侵权纠纷,需要从人类权利优先的立场出发,运用法律拟制的立法技术赋予人工智能独立的法律人格;借鉴法人制度建立人工智能登记备案制,完善人工智能的法律责任制度。这一方面有利于促进人工智能更好地服务于人类,另一方有利于确保其不异化为“超人类”的主体。  相似文献   

10.
网络技术发展促成了网络代际更迭。在大数据为核心的Internet 3.0阶段,网络在犯罪中的作用和地位发生变化,网络的刑法属性由传统的犯罪对象、工具演变为网络犯罪的场域空间和存在方式。网络犯罪的表现形式也随之演化,在传统犯罪网络化趋势加强的同时,出现了人工智能犯罪等新的犯罪形态。在对比网络犯罪与传统犯罪的危害性评价差异的基础上,可以将网络犯罪区分为三种类型:危害性评价等价于传统犯罪的网络犯罪类型、线上线下危害性评价背离的网络犯罪类型、以网络大数据为核心的新型网络犯罪,后者尤以人工智能犯罪为代表。人工智能的法律问题冲击着以人为核心的法律制度体系,也给刑法提出了新的命题。大数据、云计算以及人工智能技术的发展,意味着新的风险时代的到来。刑法对以网络为工具和对象的犯罪进行了有效立法应对,但对大数据时代的网络犯罪规制不力,对以“网络为空间”的犯罪应对不力,对以“网络为存在本质”的犯罪尚未作出实质回应。刑法缺乏应对新型网络犯罪的风险机制,一是对大数据系统安全、算法安全和数据与信息安全为内容的新型网络安全风险应对不足,二是对滥用人工智能技术、人工智能技术瑕疵带来的刑事风险缺乏应对。同时,在立法规制网...  相似文献   

11.
人工智能时代的到来既丰富了国家治理的技术工具选择,也促使国家治理产生深刻的算法依赖。算法偏见的存在及其隐蔽性会引发国家治理公平难题,算法黑箱的存在使得不同主体都可以找到卸责理由从而会引发国家治理责任难题。人工智能企业拥有独特的技术优势,因而人工智能时代国家治理的算法依赖在某种意义上是国家对人工智能企业的技术依赖。应对算法依赖引发的国家治理难题既需要人工智能企业自律,也需要国家加强监管。建立硬覆盖算法备案说明制度、不定时算法抽检审查制度、开放式算法结果观测制度,是推进国家监管的关键行动举措。  相似文献   

12.
近年来伴随着人工智能产业的蓬勃发展,其应用和推广引发了一系列的法律风险和挑战.在讨论人工智能对既有法律制度的挑战时,亟待厘清的重点体现在权利主体的责任承担、算法解释的权利内涵、政府监管模式的权利限度等方面.人工智能法律研究遭遇到新兴权利扩张性与法治守成性之间的龃龉,由此而引发的权利泛化困惑与挑战使其面临着修辞与实践的两难诘问,亟需澄明其中的冗余要素、核心范畴和权利向度.借助CiteSpace和VOSviewer两种软件综合分析Web of Science数据库和CNKI数据库中以人工智能法律研究为主题的中英文献并绘制科学知识图谱,旨在揭示人工智能法律研究领域的权利主体证成、权利表达逻辑、权利实现向度的分歧而引发的规制效能低下风险和权利泛化迷思.在此基础上,有必要进一步探究人工智能法律规制领域中权利向度的标准化、类型化、精细化和场景化.  相似文献   

13.
人工智能技术给人类生活带来诸多便利的同时,也蕴含巨大风险。从实践层面观察,人工智能技术的研发、应用以及发展给法律带来了巨大挑战,具体反映在个人信息保护、算法规制、人工智能作品的知识产权保护、人工智能监管及其引发的责任分配等方面;从理论推演分析,由人工智能引发的法律问题包括法律原则、主体制度、权利制度以及责任制度四方面。为应对人工智能产生的法律问题,各国纷纷加快了立法、修法进程,并在算法自动化决策、自动驾驶汽车、生物识别信息技术、深度伪造技术及数据安全与隐私保护等领域取得了积极成果。尽管如此,在迅猛发展的人工智能技术及其应用面前,相关立法仍然存在滞后性,需要从理念、原则与措施三个层面积极寻求应对方略。  相似文献   

14.
从历史上看,"黑客"迭代到"人工智能黑客",是伴随着计算机、互联网、大数据和人工智能等科学技术迅猛发展而产生的。现如今的"人工智能黑客"是人机交互体,既非人也非物,介于两者之间,它可以模仿人类、干扰人类认知,为达到设计者或决策者的目的对网络系统漏洞进行智能化侵入和破坏。"人工智能黑客"区别于传统"黑客"的主要特征在于其可以依靠智能算法自主学习、寻找网络系统代码漏洞和加强分布式攻击。部分学者将人工智能技术划分为弱人工智能、强人工智能、超人工智能三个阶段,甚至有学者建议从伦理上赋予强人工智能法律主体地位,赋权理由是强人工智能算法具有独立的"机器意思"表示能力,与人类有情感的联结。显然,这种赋权方式不仅违背"人本主义"原则的主体创新,而且现行法律主体包括自然人、法人、非法人组织,"人工智能黑客"不属于任何一类主体,突兀地将法律主体的理性意思表示与人工智能算法指令的"机器意思"相等同,容易形成"人工智能黑客"行为在算法正义法律评价和民事法律行为构造上的困境,干扰我们对"人工智能黑客"本质的判断。溯本清源,应当以法律上权利义务构造标准去判断"人工智能黑客"的法律属性。"人工智能黑客"本质上是自然人主体通过人工智能算法技术,利用网络媒介进行网络侵权或犯罪的行为。"人工智能黑客"的核心是通过计算机代码设置、大数据运算与机器自动化判断进行决策的一套机制。"人工智能黑客"在责任承担上不是适格的法律主体,只具有特殊的"人格性工具"法律属性。"人工智能黑客"的智能化攻击外在表现为算法程序的自动执行,但程序的设计和算法运行归属于现实经济生活中的人,也完全符合法律上间接侵权的调整范畴。对于"人工智能黑客"的侵权或犯罪行为,应当通过揭开"人工智能黑客"的"面纱",找到其背后隐藏的可规制法律主客体,利用"穿透"方式对"人工智能黑客"的非法行为进行伦理、技术和法律三个维度的有效规制。  相似文献   

15.
中共十九届四中全会对人工智能技术提出了新的要求.但人工智能技术在快速发展的同时,也给我们的法治社会带来一系列法律风险.其风险形态主要表现为个人信息与个人隐私泄露风险、侵权责任风险、刑事犯罪风险、劳动者就业风险、行政规制风险以及军事应用的国际法风险六大方面.文章对这些风险形态的成因进行了主、客观的分析,并针对这些具体的法律风险形态提出了相应的应对路径,旨在促进人工智能的健康发展.  相似文献   

16.
人工智能法律规制是近年来的热点话题,学界对人工智能法律规制研究从多个视角、多个维度、运用多种方法进行了较为系统的研究,并取得了一定成绩。通过梳理近年学术界研究成果,对人工智能法律规制的研究方法仍有进一步丰富完善拓展的空间,需要针对不同的视角、内容选用更为契合的研究方法,在研究方法的改进与结合上发力,促进理论研究成果进一步丰富,为人工智能有序规范发展提供有力法治保障。  相似文献   

17.
法律人工智能面向法律大数据和法律知识,运用机器学习算法与符号逻辑,在遵循法律运行规律的前提下满足法律实践的需求,辅助法律人做出法律决策,提升法律任务的质效。法律人工智能科学内涵之厘清明确了其概念体系,由此确立其交叉学科地位。法律人工智能的理论和技术演化历程展示了法律人工智能的发展逻辑,法律推理与法律论证理论是法律人工智能的理论来源,知识引导和大数据驱动形成了符号主义与联结主义法律人工智能的技术分野。在理论方面,法律人工智能需要探索法律与人工智能深度融合的法学理论,回应伦理和法律关切,制定法律智能系统的运行或使用规则,规制算法偏见和不可解释性问题。在运行模式方面,法律人工智能需要重塑“以人为中心”的智能辅助模式。在技术方面,法律人工智能表现出符号主义与联结主义相融合的趋势,在智慧立法和智慧司法领域中有待深度拓展。  相似文献   

18.
社区矫正作为人工智能在司法领域运用的可行性方向正逐步为人关注,而人工智能在社区矫正中是否可以具备主体资格,能否承担相应责任,是这一技术应用时所产生的法律问题。通过对社区矫正人工智能运行现状及主体特征进行考察,借助主体责任价值、民法代理规则、侵权归责、刑事责任范畴四个方面辨析人工智能主体责任,合理界定人工智能的责任属性,并且注意人工智能在社区矫正中的主体责任监管、伦理道德和责任豁免三个问题,可以为将人工智能引入社区矫正奠定法律主体基础。  相似文献   

19.
在医疗领域,人工智能被广泛地应用于临床诊断、医学治疗、医疗康复、疾病预测和医学研究等多个方面,但由于人工智能技术发生错误,致使患者合法权益受损的事例时有发生,因此医疗人工智能的应用面临多种风险。如医疗人工智能法律主体资格尚未明确;不良后果发生时法律责任认定存在争议;存在数据偏见和歧视,数据公平难以保障;数据隐私和个人信息保护力度不足;立法监管制度不够健全;缺乏医疗人工智能相关人才。面对这些风险,有必要明确界定医疗人工智能法律地位、明确划分人工智能医疗事故责任承担方式、选择适当数据样本及研发者以规避偏见、尽快出台个人信息保护法、完善人工智能相关立法加强全流程监管以及大力培养医疗人工智能相关人才,以促进医疗人工智能技术健康快速发展。  相似文献   

20.
数据资产证券化是数据资产与证券融资有效结合的一项金融创新工具,有助于激活数据要素潜能和挖掘数据资产价值。目前,我国初步具备了探索“数据+资本”双要素融合的基础。在人工智能、大数据、云计算等关键技术推动证券创新的同时,区块链凭借技术原生特性在信息安全、信用建设以及监管革新等方面凸显着优势,其实质是对数据资产证券化流程的数字化重构。然而,区块链在具有赋能效用的同时还存在3个方面的潜在风险:一是法律制度滞后于技术赋能实践导致的法律风险,二是区块链自身局限与不当应用引发的技术风险,三是现有监管模式难以适配金融科技创新造成的监管风险。为此,有必要兼顾创新运用与风险防范,从完善法律制度、明确行为规范、强化金融监管等维度构建法律治理框架,为盘活数据资产价值和推进数据资产证券化提供制度与实践参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号