首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 0 毫秒
1.
生成式人工智能(AIGC)的迅猛发展,全方位渗透社会生活各个领域,并对传统法律制度形成重大挑战,造成了现行法律制度与法治现代化需求之间的紧张关系。以法治现代化为导向推动AIGC的法律治理,制度转型、制度变革刻不容缓。法价值、法秩序、法动力层面的理论定向,为AIGC法律治理现代化提供法理涵养和功能定位依据,需要从人工智能治理与人类价值目标相一致、满足法治现代化的需要和国家现行法治制度对人工智能治理的需求等方面予以探讨。法治现代化价值需求、风险规制需求、新的规则秩序需求勾勒、型塑出AIGC法律治理基本框架,需要实现法治共识向制度的转化、构建有对应性的理论规则,有效拓展科技治理的内涵,以制度转化、制度增容、制度供给、制度耦合来构建生成式人工智能法律治理的现代化体系。  相似文献   

2.
以ChatGPT为代表的生成式人工智能(AIGC对学术生态产生了深远的影响。AIGC可以辅助学术生产,提高知识生产效率和质量,助力学术评价决策和提升传播速度和效果。但也产生了著作权归属、学术伦理、算法黑箱、数据安全、隐私保护等方面的风险。对于AIGC带来的困扰,应该积极面对、审慎使用。政府要加大监管力度,防范可能风险;研发企业要在技术上不断完善;学界要推进研究透明;在学术生产、评价和传播各环节都应该安排人工介入,实现人机协作、共同治理,赋能学术研究与推动社会进步。  相似文献   

3.
生成式人工智能的规模化应用对社会治理造成了现实风险,其作为生产工具已具备了类人化的推理能力与行为能力,在知识产权领域、刑事领域、数据应用领域等引发的新生问题已超出了现行法律的规制范围,私人技术资本正在成为数字空间的真实权力拥有者。但现行人工智能的治理范式过分聚焦于算法规制,而忽视了相关责任主体的整体义务建构,导致法学理论无法适应新生技术的发展,对解决实际问题的现实方法论意义不强。面对生产力水平跃升引致的问题,法律规制特别是相关规则研究应靠前一步,以结构化的体系思维与完整的框架建构完善新一代人工智能治理范式,确保以规则优势引领产业发展优势与制度优势。  相似文献   

4.
生成式人工智能是一项变革性技术,具有高度颠覆性,将改变当前用户生活、工作和交流的方式,也引发出一些竞争法律问题。除了传统反垄断法律问题在生成式人工智能领域的体现外,生成式人工智能产业链的竞争法律问题表现为垄断结构的扼杀式收购等行业并购和网络平台效应,训练数据的数据垄断、剥削性滥用,算法研发的生态系统封锁、竞业条款构成排他性行为,算力提供的算力封锁、歧视性待遇、自我优待,应用服务的搭售、捆绑销售、独家售卖、拒绝交易等排他性行为。传统竞争法监管框架都适用于生成式人工智能新业态,同时密切关注并对生成式人工智能等新业态的反竞争行为保持警惕。我国现有竞争法律规则体系仍然适用于生成式人工智能新技术新业态领域,针对新的竞争法问题,建议出台促进生成式人工智能技术和产业的充分竞争、创新发展政策,制定出台专门的《人工智能的反垄断指南》,竞争执法部门分场景、分环节重点关注生成式人工智能的潜在反竞争行为,司法机关适时总结典型司法案例,出台司法解释进行指导。  相似文献   

5.
生成式人工智能在发明人主体资格、其生成物的可专利性及审查条件、权利归属、责任承担等方面对传统专利法律制度提出了挑战。生成式人工智能算法与其生成物的区分是讨论生成式人工智能专利法律问题的前提,发明人主体资格并不影响生成物中的技术方案作为专利法的保护客体。在审查条件方面,可以适当地采用综合对比原则以确保新颖性审查的准确性,调整“本领域技术人员”的拟制以提高创造性的审查标准,同时要坚持实用性的审查标准。在权利归属方面,经人工干预的发明,其专利权应当归属于发明人;未经人工干预的发明,应当参照适用职务发明和委托发明制度来确定其权利归属。在侵权责任方面,由于人工智能本身无法承担责任,应当将侵权责任分配至其背后的相关主体。  相似文献   

6.
生成式人工智能的应运而生使得个人信息保护面临着日益严峻的新风险,生成式人工智能从个人信息收集、使用和生成场景中引发了信任危机,传统的个人信息自决路径已然无法适应数字时代的变革。生成式人工智能应用场景中个人信息的算法识别本质成为个人信息保护的新契机,算法对个人信息识别从因果关系转向相关关系,而个人信息流通则基于场景一致性理论建构起信息规范,使得个人信息流通具备合理性,并将个人信息流通的风险控制在信息规范的限度之下。重塑以算法可识别为核心的风险规范路径,需要建构数字守门人的二元规制机制,形成个人信息流通的外部监管规范;同时在个人信息识别流通中,对知情同意原则以信息信托义务进行补充,从而实现个人信息的内部流通机理;对个人信息流通风险基于场景化分置,将个人信息和模型算法进行分级分类,促进个人信息保护的敏捷性治理,以此实现个人信息保护和流通的平衡。  相似文献   

7.
以ChatGPT为代表的生成式人工智能在优化产业结构促进经济发展的同时也带来新的法律风险。语言模型训练中的风险主要包括侵害个人信息与作品著作权风险,内容生成过程中的风险则体现为人工智能“幻觉”导致的错误信息风险、算法偏见风险、“涌现”导致的算法失控风险以及人机互动中的算法滥用风险。《生成式人工智能服务管理暂行办法》提供基本的治理框架,但部分条款设置与具体治理方式上存在不足。生成式人工智能的性能取决于训练数据集的规模与质量,模型训练中的数据治理需要尊重其技术逻辑,实践中应拓展公共数据中著作权数据与个人数据的合理使用边界。内容治理可以借鉴“宪法人工智能”的基本理念,构建动态的内容反馈评估机制。  相似文献   

8.
以ChatGPT为代表的生成式人工智能的诞生,标志着人工智能技术从“决策式AI”向“生成式AI”的重大技术跃迁,引发了从“时空革命”到“知识革命”的技术演进。生成式人工智能技术在带来众多科技红利的同时,也引发包括数据安全问题、个人隐私侵犯、知识产权侵害、误导性和虚假信息泛滥、市场垄断、偏见和歧视等诸多现实风险。为了鼓励生成式人工智能技术的创新发展以及规避其所带来的风险,中国采取“包容性法律治理”模式。在治理原则上,包容性法律治理始终坚持协同共治、提升透明度、提高数据质量、发挥法治效能等基本理念;在治理主体上,包容性法律治理提倡多方主体协同治理,充分发挥政府机构、科研机构、行业协会和公民团体等社会组织的力量;在治理过程中,包容性法律治理主张运用多种治理工具,通过技术方案、伦理标准和法律政策全面提升生成式人工智能的风险治理水平;在治理方法上,采取分类分级治理策略;在治理结果上,包容性法律治理强调要注重数字社会的分配公平,弥合数字鸿沟,保障数字空间的基本人权。  相似文献   

9.
由OpenAI研发的生成式人工智能聊天机器人ChatGPT一经问世便引起剧烈轰动和广泛热议。ChatGPT是以深度学习和人类反馈强化学习等技术为基础,经过针对海量数据的预训练,能够根据用户指令,生成内容丰富、风格类人的自然语言文本的大型生成式人工智能语言模型。同其他人工智能聊天机器人相较,ChatGPT特征鲜明:一是能够保障人机的连续性对话;二是能够在无法理解指令时主动向用户发出追问;三是能够以“人化”而非机器化的话语体系进行自然语言表意;四是能够“记住”用户生产的内容。ChatGPT作为生成式人工智能的杰作,或将利用强大的自然语言处理能力成为撬动第四次工业革命的一根杠杆,可能引发人类社会的深层次变革。包括:有望通过开辟信息智能化处理的场域,推动产业转型升级、提高劳动者生产力、改进生产工具、优化生产决策以变革生产方式;有助于研究现状梳理、研究思路组织、研究数据处理、研究成果完善以变革科研范式;为教育主体赋能、为教育客体赋权、为教育过程赋魂以变革教育形式;重构劳动生活、消费生活、精神生活以变革生活方式等。科技发展具有两面性,ChatGPT也会给我们带来系列风险隐患,或将滋生知识产权侵犯、...  相似文献   

10.
生成式人工智能在将法律服务的运作场景推向一个崭新境界的同时,也必将在“器”和“道”的层面对法律服务产生结构性影响,使法律从业者面临职业角色的转型和工作归属的重塑。从功能主义的角度看,对生成式AI在法律服务中地位和角色的考察,不应再囿于现有制度体系和职业逻辑,而是要超越传统的职业视角和“工具论”立场,理解法律服务数智化发展的复杂动态和不确定性,全面考察生成式AI应用于法律服务的技术机理、行业可行性和赋能场景,分析“工具论”心理可能引发的法律职业“去技能化”现象,系统探讨生成式AI在重塑法律服务的基本内涵、运作范式、群体构成、市场供给关系等方面的深层次影响。不过,以宏观视角考察法律与技术的关系,生成式AI还不能完全取代法律职业群体,因为蕴含于其衍生逻辑中的一些根源性问题以及AI技术与法律固有属性之间的内在张力尚未得到解决。以生成式AI赋能法律服务,需要在国家、职业、市场、技术等层面调和法律职业与智能技术之间的属性张力,并关注可能存在的风险。  相似文献   

11.
以ChatGPT4为代表的生成式人工智能具有高度类人性和广泛适用性,有利于生产方式和众多领域的转型升级。然而,这种所谓强人工智能时代的标志性产物,伴随着技术固有的风险性问题,引发伦理以及法律层面的失范性问题。生成式人工智能的失范性主要表现为:一是针对生成式人工智能引发的风险问题,伦理与法律尚无回应;二是现有的伦理体系和法律制度的“规范性”不足。为此,文章借鉴凯尔森的规范性理论,采用“旧论新用”的方法:一是利用伦理规范化,增强其约束性、可执行力,整理其内部层级关系,形成生成式人工智能的伦理治理体系;二是运用法律规范化,强化其对生成式人工智能数理化逻辑运行的模型规范。最后,基于伦理与法律协同构建生成式人工智能的规范性体系。  相似文献   

12.
利用生成式人工智能技术参与数字政府建设,为新时代国家治理现代化提供技术驱动,具有重要的时代意义和实践价值。ChatGPT等生成式人工智能参与数字政府建设的功用,与其相对于既有人工智能技术的技术跃迁息息相关。生成式人工智能的自然语言理解与生成能力跃迁、文本生成能力跃迁和知识更新能力跃迁,是与数字政府建设联系最为紧密的技术跃迁,对数字技术参与政府内部工作、政务服务和公共服务均有重大功用。生成式人工智能参与数字政府建设的根本目标在于建设人文数字政府,直接目标在于实现效率数字政府,长期目标在于建成智慧数字政府。生成式人工智能参与数字政府建设的可行路径在于实现权利保障优位、效率与责任并行和安全与发展均衡。面对生成式人工智能参与数字政府建设的广阔前景和风险问题,要加快我国自主的生成式人工智能在数字政府建设领域的应用培育。  相似文献   

13.
意识形态风险防范是事关民族复兴、国家主权、文化建设的核心范畴。在当今人工智能技术蓬勃发展的数字时代,以ChatGPT为代表的生成式人工智能技术内嵌渗透到社会生活领域之中,伴随着交互深度与辐射范围的不断扩展,裹挟了众多具有新特点的意识形态风险。清晰明辨ChatGPT等生成式人工智能产生意识形态风险的内在机理是防范生成式人工智能意识形态风险的前提。ChatGPT等生成式人工智能凭借内容生成的首要功能对意识形态的价值观念层进行渗透;依靠交互对话的产品形态对意识形态的话语方式产生影响;利用多维应用的功能属性对社会生活实践领域展开强势介入,促使当下意识形态斗争态势风云诡谲,变化万千。理性审视和精准识别ChatGPT等生成式人工智能所诱发的意识形态风险是防范生成式人工智能意识形态风险的关键。从意识形态引领角度出发,ChatGPT等生成式人工智能的运行机制深蕴的资本逻辑解构社会成员已形成的认知和价值,借由"技术-资本"双重优势导致意识形态面临引领乏力风险;从意识形态话语维度审视,ChatGPT等生成式人工智能带来的"人机协同"话语生产新模式削弱主流意识形态话语深度,多元的生成式话语输送淡化话语权威,导致意识形态话语减蚀风险;从意识形态管理层面反思,ChatGPT等生成式人工智能引发的信息传播新范式消解意识形态管理的主导权,及其对人的强化宰制,导致意识形态管理弱化风险。ChatGPT等生成式人工智能在掌握先进技术基础上诱发了一系列辐射广泛、渗透全面、不易掌控的意识形态风险。如何防范与化解ChatGPT等生成式人工智能所带来的意识形态风险,成为当前我国意识形态建设无法回避的新课题。首先,贯彻落实人民至上的价值理念,以马克思主义理论指导意识形态防范工作,推进打造人机和谐、风清气正的网络空间;其次,打造富有中国特色的话语途径,在讲好中国故事的话语基础上破解西方话语的现代困境;最后,积极倡导全球治理并贡献中国方案,以共商共建共享的发展原则,依托人类命运共同体构建负责任的人工智能格局,促使ChatGPT等生成式人工智能在现代文明面前彰显光明的未来前景。  相似文献   

14.
自2022年起,以ChatGPT和GPT-4为代表的生成式人工智能迅速发展,人工智能进入了“大模型”时代。作为一项具有重大意义的技术进步,对人类社会的发展具有重要意义;同时,ChatGPT类生成式人工智能作为人的创造物,也引发了人的主体性的丧失、数据隐私泄露与算法偏见、责任主体冲击与道德地位的模糊等伦理问题,会威胁到人类的幸福生活。以ChatGPT类生成式人工智能引发的伦理问题为起点、以挖掘其产生的原因为依据,提出完善生成式人工智能伦理治理的体制和机制、优化生成式人工智能技术设计和培育正确的主体意识等规制路径。  相似文献   

15.
生成式人工智能以其算力、算据、算法的优势全面赋能文创产业,推动内容层智能生成、变现层抓需增益、延伸层沉浸交互和支撑层私人定制。与此同时,技术固有的缺陷和其过度赋能文创产业也将带来技术伦理失范、生产者自我罢黜、消费者认知机械、文创产品鱼龙混杂和意识形态入侵等现实困境。数智经济发展方兴未艾,面对生成式人工智能技术赋能文创产业的各种可能性,统筹发展与安全,坚持“乘智而上,向善而行”的数智文创发展路径,是有效规避数智文创“负能”困局和发挥技术赋能最大潜力的发展出路。  相似文献   

16.
以ChatGPT为代表的生成式人工智能已经成为意识形态风险生成的重要场域,其具有的基于大数据的人机对话模式、基于自我学习的算法机制和不断改进的算力等特点使其在实际运作中内嵌了强烈的意识形态属性,表征为以技术为手段的意识形态权力转移导致的场域失落风险、以人机协同操纵意识形态偏见导致的话语权旁落风险和以模糊边界运作加大意识形态治理难度引发的治理失效风险。其生成诱因在于资本与技术扩张导致资本逻辑内嵌于意识形态风险之中,去中心化与再中心化的话语权转移带来了人类语言逻辑表达与多元价值博弈,以及对话沉迷与主体危机的内容失真引发的治理范式转化与监管失灵。应立足于阵地治理、数据治理和制度治理使生成式人工智能场域转变为巩固意识形态认同的最大增量。  相似文献   

17.
大语言模型是发展人工智能生成内容(AIGC)最为关键的技术之一。它在推动AIGC发展的同时,也会带来生成违法和不良信息的风险。大语言模型生成违法和不良信息的原因较为复杂,造成的风险程度更为严重,因而给网络信息内容的法律治理带来挑战。为此,中国在立法上细化相关主体在网络信息内容生成过程中的义务,新增对人工智能生成内容进行标识的义务,但相关规则仍存在着继续完善的空间。未来,中国应进一步明确人工智能生成内容致害的侵权责任规则,确定侵权责任的主体和归责原则,基于现行法构造合理的解释论;合理界定网络信息内容服务平台对内容的注意义务,将AIGC技术发展和产业状况纳入考量因素;完善对人工智能生成内容进行标识的要求,区分场景规定不同的标识要求,增加服务使用者和内容传播者的标识义务。  相似文献   

18.
进入数智时代,生成式人工智能应用在全球掀起的使用热潮引发了人们对相关伦理困境与风险问题的关注,虽然公平、准确、可靠、安全、人类监督等几项内容被设定为负责任人工智能的核心原则;但生成式人工智能的技术治理方面存在因本体论身份引发的价值张力、训练数据的代表性偏差与安全系统被动保护带来的三重困境并为生成式人工智能如何实践“负责任”的原则带来了现实挑战。在风险全球化与国际竞争加剧的历史变局下,人类社会面对生成式人工智能潜在的伦理与社会风险,应加快建立全球治理的合作机制,践行文化包容的治理智慧,以及回归社会问题本源的认识论是实现生成式人工智能“负责任”原则的关键。  相似文献   

19.
ChatGPT类生成式人工智能的快速发展虽在不同领域带来积极影响,但也引发了法律政策、安全技术、社会伦理等层面的监管问题。比较美国、欧盟、日本等国外典型经济体人工智能监管的治理实践,为完善我国人工智能监管治理体系提供政策参考。我国人工智能监管应坚持发展与安全并重、促进创新与依法治理相结合的监管原则,建立健全法律与政策、技术与安全、社会与伦理等层面的监管路径,同时对人工智能进行进入性监管、技术性全程监管和分级分类监管,完善我国的人工智能监管体系。  相似文献   

20.
在当前的数字化社会中,数字人权面临着理论和现实的种种困境。理论上,数字人权深陷理论偏狭,学界对其地位的认可并不统一。实践中,数字资源分配不均,导致数据利用主体之间地位不平等,数字霸权和网络暴力现象屡见不鲜。为了满足现实社会对于数字人权承认和保护的新需求,可以完善数字人权的法律规范体系,加强对数据掌控者的监督。同时,政府发挥监管和救济作用,防止出现数字霸权事件,执法和司法机关加强对网络环境的审查和执法力度,数字弱势群体也加强自身数字素养的提高,培养数字意识。各方综合发力,才能真正解决数字人权面临之困境,数字生产力也能得到进一步提升。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号