首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
人工智能技术飞速发展,给知识产权制度带来了一系列挑战。在主体制度方面,赋予人工智能主体地位会冲击以自然人为中心的制度。在客体制度方面,人工智能创作物陷入知识产权保护对象和创新性标准认定的难题。在权利内容方面,给予人工智能创作物知识产权保护会面临人身权保护、权利期限、权利限制等方面的困境。对此,我国知识产权制度应进行变革,扩大主体范围,提高创新性认定标准,完善权利内容制度,以期平衡各方利益,推动人工智能的发展。  相似文献   

2.
关于人工智能可否成为刑事主体、是否具有刑事责任能力,在理论上存在肯定说与否定说的争论。肯定论视野下,人工智能被类比为自然人或者单位这样的刑事责任主体。但是,人工智能类自然人化缺乏基本的科学依据、存在伦理障碍,且不具有自然人的基本属性,存在刑罚承担方面的难题。单位犯罪的本质是自然人犯罪,其存在的合理性是功利主义,人工智能类单位化的思路没有意义和价值。人工智能具有工具性的本质,强人工智能是肯定论者基于论证创造的伪概念,在现有法律体系下,应将人工智能的治理模式重心置于事前的审查与监管上。  相似文献   

3.
斯塔尔人工智能生态系统伦理治理思想以繁荣伦理学为视角,旨在塑造促进人类繁荣的人工智能生态系统。它认为应确立人工智能生态系统的中心节点,由这些中心节点担任人工智能生态系统伦理治理的元责任主体,负责确保个人、组织和国家了解他们的责任和履行责则。在斯塔尔看来,人工智能生态系统伦理治理应遵循韧性原则、试探性治理原则、学习能力原则和元责任原则。他还提出了自己的人工智能生态系统伦理治理路径:重新反思人工智能研究和创新与伦理之间的关系、测量人工智能的开发和使用对人类繁荣的影响、建立人工智能知识库、构建利益相关者参与治理机制。斯塔尔人工智能生态系统伦理治理思想一方面引领人工智能伦理治理研究从技术个体层面向系统层面发展,另一方面为人工智能生态系统的伦理治理提供方法论指导。  相似文献   

4.
以基于转换器的生成式预训练模型(GPT)为代表的高阶人工智能凭借其强大的智能型内容生成机制,使得内容产品生产中的技术占比不断上升,人的直接投入占比相对下降,传统著作权法作品的独创性要求、权利人本原则等基本理论受到冲击。面对人工智能生成内容(AIGC)可作品性问题,基于自然人智力投入的创造性本质理论和闭合性作品概念显得力不从心。在过程视角下(主观标准),人工智能内容生成过程符合人类创作的思维特征;在结果视角下(客观标准),人工智能生成内容具有著作权作品的外观形式和信息消费功能,符合著作权作品的本质属性。如果人为割裂人工智能生成内容与著作权作品在产生过程和实质作用上的同质关系,强行区分人工智能生成内容和自然人创作作品的法律性质,则有悖著作权法因应技术发展调整信息消费品利益的制度旨趣,最终将导致著作权法律秩序的混乱。  相似文献   

5.
人工智能对人类智能的模拟在逻辑上包含对人类道德的模拟。人工智能的规范者指引应从"人为自己立法"的原理中产生。对于智能体的伦理框架而言,"让算法遵循‘善法’"是一条自明性原则,可称为"算法从善"原则。该原则的第一个方面的伦理尺度与智能主体模式的革命性构建有关,其实质是在拟主体性维度通过道德算法进行规范性指引,且亟需新的责任伦理框架提供支持。由于道德算法是嵌入在算法体系中有待完善的算法程式,算法从善原则就涉及与之相关的第二个方面的伦理尺度。它与人类主体模式下的道德建构有关,包括常见的人类主体模式以及"人类主体与人工智能主体相处的主体间模式"。对这两种道德形态而言,算法只有体现或遵循人类主体模式下的善法,才能以有责任感的方式推进道德算法的进化及其在机器中的嵌入。人类在算法的控制权上保持审慎,是避免伤害的明智选择,也是在技术发展面前维护人类尊严的底线。  相似文献   

6.
人工智能发展中要处理好人机关系与人际关系、政府管理与社会治理的关系、人工智能设计与人工智能伦理的关系、人工智能伦理与人工智能法律的关系.在人工智能发展中很可能陷入伦理困境,具体表现为人工智能伦理引发的道德主体问题、政府管理问题、社会发展问题、教育瓶颈问题等.针对这些人工智能伦理引发的现实问题,必须采取有效措施进行治理:一要坚持以人为本原则,彰显人民利益至上的人工智能发展理念;二要坚持权责一致原则,构建权责高度一致的人工智能治理体系;三要坚持多主体参与原则,构建人工智能伦理安全风险防范体系;四要坚持创新发展原则,建立文理深度融合的人工智能伦理教育体系;五要坚持开放共享原则,构建面向世界的人工智能伦理的对外话语传播体系.  相似文献   

7.
人工智能发展中要处理好人机关系与人际关系、政府管理与社会治理的关系、人工智能设计与人工智能伦理的关系、人工智能伦理与人工智能法律的关系.在人工智能发展中很可能陷入伦理困境,具体表现为人工智能伦理引发的道德主体问题、政府管理问题、社会发展问题、教育瓶颈问题等.针对这些人工智能伦理引发的现实问题,必须采取有效措施进行治理:一要坚持以人为本原则,彰显人民利益至上的人工智能发展理念;二要坚持权责一致原则,构建权责高度一致的人工智能治理体系;三要坚持多主体参与原则,构建人工智能伦理安全风险防范体系;四要坚持创新发展原则,建立文理深度融合的人工智能伦理教育体系;五要坚持开放共享原则,构建面向世界的人工智能伦理的对外话语传播体系.  相似文献   

8.
随着算力、数据和算法的不断改进,人工智能的智能性不断增强。当人类的参与和控制逐渐减弱,开始辅助机器创作或者完全由机器自主创作时,经由人的意志决定性的解释方法将难以在既有法律框架下完成权益归属。从维护著作权法在“激励自然人创作”方面的价值取向和基本概念体系,促进人工智能产业健康发展及保护自然人创作者的合法权益角度分析,人工智能生成内容宜采用非赋权模式,以作为知识公有领域的组成部分。  相似文献   

9.
人工智能技术的飞速发展带来了全新自主发明模式,也引发了一系列的伦理挑战,既涉及本身作为人类创造物的人工智能在自主发明过程中扮演发明主体角色的伦理争议,也涵盖了人工智能脱离人类干预与控制自主生成发明客体过程中由算法失灵、数据失准等情况所造成的技术伦理风险。因此,为有效应对人工智能自主发明模式的伦理挑战,有必要从人工智能的本质特征与运转机制入手厘清人工智能自主发明的伦理定位,并遵循以人为本基本伦理价值理念下算法向善与数据向善的伦理准则,通过人工智能工具性虚拟人格的创设和人工智能算法监测与数据评定指标体系的确立,建构人工智能自主发明模式的治理体系与框架。  相似文献   

10.
为探索人工智能内容生成技术对学术出版的影响,以ChatGPT功能和特点为基础,从工作内容、流程和模式三方面分析了ChatGPT对学术出版的冲击和影响,强调ChatGPT对学术出版最深刻的影响在于生产力解放和伦理冲击。在此基础上提出人工智能内容生成技术的发展对于学术出版参与主体提出了更高的伦理、人工智能使用水平以及更加专业的学术水平的要求,重点强调了学术出版参与主体应通过定位人类参与者的价值取向和功能,坚定主体地位,配合完善的人力及业务改革措施,合智协同促进ChatGPT在学术出版实践中共生共智共创。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号