首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
[提要]人工智能不纯粹是一种人工机器,但也不能等同于具有独立思维活动的主体,这种无法归类的溢出现象,正是技术革命导致文化调适过程中的挣扎心态之真实写照。基于当下的实践现实与技术期待,人工智能只能是一种“类人”智能,借助人工智能创作的作品因而只能是“类人艺术”。不过,人工智能艺术的兴起,挑战了我们对于既有艺术创作过程以及艺术观念的理解。从创作过程来看,人工智能艺术突显其“非媒介性”;从创作主体特征来看,人工智能艺术创作是“互动共生”的结果;从创作意图来看,人工智能艺术主要探索艺术的“创造性”问题,它是一种“观念艺术”。  相似文献   

2.
人工智能体具有类似人类的智能和自主能力,其行为可能导致他人或社会受损,这就要求伦理学理论面向新兴的人工智能体开放,承认人工智能体在有限意义上具有道德能力。面对人工智能体引发的伦理问题,学界出现“机器人伦理学到底是人的伦理学还是机器的伦理学”的争论,争论的焦点在于人工智能体具有的自主能力能否使其具有道德能力。这种挑战具体展开为两个方面。一方面,人工智能体能否赢得道德关怀资格。面向人工智能体开放的伦理学试图以“相似性”标准扩充“理性”标准、“感觉”标准和“生命”标准,从而将人工智能体纳入到道德关怀名单之中。另一方面,人工智能体能否成为道德主体,承担道德责任。面向人工智能体开放的伦理学尝试以基于机器学习的道德自主能力为基础,承认人工智能体是一种类似于人类的准道德主体,需要承担相应的有限道德责任。面向人工智能体开放,意味着需要调整和补充现有的、属人的伦理学理论,以便将人工智能体真正纳入到伦理学理论中来。  相似文献   

3.
文章旨在对人工智能的技术本质进行分析,以回应为什么人类不会被人工智能取代的问题。通过历史分析的方法,以“器官投影说”等技术哲学思想作为分析工具,回顾了人工智能技术的历程。发现在理论上,人工智能的研究加深了对人类智能的模仿的同时,更倾向于由机器与人类共建智能系统的解决方案;实践中,人机关系也从“分离”更多地走向“交融”。因此,人类除了能在本质层面上作为人工智能这种人工物所模仿的终极目的而存在,还能在个体层面上作为大的人工智能系统的行动者发挥智慧功能,人类不会被人工智能取代。   相似文献   

4.
赋予人工智能拟制法律人格是界清人工智能产物的财产权利归属和人工智能侵权责任的必要前提。我国民法总则和公司法等法律规范只确立了自然人、法人和非法人组织三种主体的法律人格,对人工智能并无规定。为了适应人工智能技术的发展,解决涉及人工智能产物的权利归属纠纷和人工智能侵权纠纷,需要从人类权利优先的立场出发,运用法律拟制的立法技术赋予人工智能独立的法律人格;借鉴法人制度建立人工智能登记备案制,完善人工智能的法律责任制度。这一方面有利于促进人工智能更好地服务于人类,另一方有利于确保其不异化为“超人类”的主体。  相似文献   

5.
美国开放人工智能研究中心(OpenAI)研发的人工智能聊天机器人ChatGPT,基于“生成预训练转换器”(GPT)语言模型能够理解和响应自然语言输入,于2022年11月30日正式发布,短时间内在全球互联网界、学术界及产业界引发热议和关注。以ChatGPT、Microsoft Bing为代表的人工智能聊天机器人基于超大海量数据,采用“从人类反馈中强化学习”(RLHF)进行训练,主要具有三大功能:智能交互对话、智能文本生成、智能文献爬取。人工智能聊天机器人的核心竞争力是采用人工智能生成内容技术(AIGC)而具有强大的内容生成或文本生成能力,除能够生成一般应用性文稿外,还能够从事科学写作,从而引领和推动知识生产方式和学术研究范式变革,知识生产和学术研究进程将显著提速,知识生产者将从非创造性劳动中获得解放,知识生产方式将由“手动式”“半自动式”迈向“自动化”“智能化”。这种变革对传统的科研成果评价机制将产生重大影响,更进一步将对通过科研成果进行人才评价产生重大影响。大体上说,以ChatGPT为代表的人工智能聊天机器人应用于学术研究中,将遮蔽成果演化学术史,影响科研成果创新性评价;挑战知识产权保...  相似文献   

6.
人们愈益走向并生活在一个人工智能的时代。当前人工智能的探索和发展产生了复杂的现实效应和社会后果,亦提出了诸多未知的理论难题。就伦理学来说,对人工智能进行伦理干预和介入成了迫在眉睫的任务。这种伦理干预并非泛泛的外在说教和批判,其基础在于对人工智能的本质进行科学把握。这种把握需要从历史变迁而非预设的本质出发,不仅将人工智能理解为人类社会不断发展而来的物质基础,而且从人类的生活和生产的整体性视角看待它发挥作用的方式。立足于这一视角,伦理学不是把人工智能理解为物本身,而是从科技、产业、伦理等诸多要素的动态作用中把握它的合理位置及其影响。在通往伦理的人工智能生产过程中,伦理学面临三大基本任务:倡导新的契约精神,重新界定人工智能生产中的伦理标准和规范;主张以人为本的最终目的,思考人工智能生产中价值冲突的解决方案;深入生产过程中的伦理介入,把握人工智能生产过程的具体环节。  相似文献   

7.
由OpenAI研发的生成式人工智能聊天机器人ChatGPT一经问世便引起剧烈轰动和广泛热议。ChatGPT是以深度学习和人类反馈强化学习等技术为基础,经过针对海量数据的预训练,能够根据用户指令,生成内容丰富、风格类人的自然语言文本的大型生成式人工智能语言模型。同其他人工智能聊天机器人相较,ChatGPT特征鲜明:一是能够保障人机的连续性对话;二是能够在无法理解指令时主动向用户发出追问;三是能够以“人化”而非机器化的话语体系进行自然语言表意;四是能够“记住”用户生产的内容。ChatGPT作为生成式人工智能的杰作,或将利用强大的自然语言处理能力成为撬动第四次工业革命的一根杠杆,可能引发人类社会的深层次变革。包括:有望通过开辟信息智能化处理的场域,推动产业转型升级、提高劳动者生产力、改进生产工具、优化生产决策以变革生产方式;有助于研究现状梳理、研究思路组织、研究数据处理、研究成果完善以变革科研范式;为教育主体赋能、为教育客体赋权、为教育过程赋魂以变革教育形式;重构劳动生活、消费生活、精神生活以变革生活方式等。科技发展具有两面性,ChatGPT也会给我们带来系列风险隐患,或将滋生知识产权侵犯、...  相似文献   

8.
随着近年来人工智能的发展,关于其是否会取代人类作家的讨论日益增多。与二十多年前希利斯·米勒提出的“文学终结论”相比,人工智能给文学创作带来的挑战堪称一次新的“文学终结论”,它直接关涉到文学创作主体的本质和地位问题。目前,学界对于人工智能写作持两种不同态度,体现了人类中心主义与反人类中心主义、主体性与反主体性的二元思维方式。事实上,讨论人工智能写作主体性问题应该摒弃这种二元思维方式,重新回归到对文学创作论的反思上来。传统文论将创作主体视为作者情感思想的表达和语言能力的呈现,但人工智能的出现为理解创作主体性提供了新视角。从创作原理角度看,思维与语言的同构性使人工智能写作具有了“准主体”性;从审美意蕴角度看,人工智能揭示出审美的公共性问题,为理解文学创作主体带来新的可能。  相似文献   

9.
人工智能发展能够为认识论研究提供若干重要启示。人工智能技术中数据的形成和转换方式,有助于深入理解感性认识和理性认识的互动机制,揭示“经验”范畴作为数据模型的本质特征。计算机的缺省配置、超文本链接和深度学习等算法功能,可以启发人们更深入理解人类的联想、想象、虚构能力的来源,而计算机软件的功能,可以对理解人类认知图式是否具有先验性和操作性以及如何最优化等问题发挥启示作用。由此可以进一步探索人工智能的技术可行性与人类认知机制之间的其他对应关系,从而开拓更为广阔的研究视域。  相似文献   

10.
以人工智能为关键技术的智能革命对人类社会治理产生了深刻影响。一方面,人工智能的应用有利于增强治理协同性,提升决策效率和治理效能,展示出美好的治理前景;另一方面,由于算法权力膨胀、个人价值迷失和人类责任缺位等现象凸显,导致治理中面临人类边缘化风险。因此,重塑人工智能治理中人的主体性是人类必须面对的重要议题。在未来人机共生的治理环境当中,人工智能很可能成为治理主体之一,人类对于人工智能的发展应持包容审慎的态度,设定好人工智能的应用边界,引导技术应用服务于增进人类福祉。同时,从人类自身出发探索将人的主体性带回治理的有效路径,包括加强全球合作,应对治理挑战;完善国家制度,保障人类自治;发展创新型社会单元,开展创造性生产活动;重塑个人责任意识,提升治理能力等。  相似文献   

11.
人工智能开启了人类继生物进化、文化进化之后崭新的技术进化之路,促进了人与技术的弥合与统一.人工智能可以发挥辅助和增强功能,但无法完全取代具身化和社会化的人类智能.“认知”层面的单维界定将智能简化为特定的理性认知,“心智”层面的多维界定引入“主观”的经验、意识、情感等因素对智能予以审视.以心智哲学为基础,从社会视角透视人类智能与人工智能的本质差异:人类智能具有创造性,人工智能虽在结果上表现出了一定的创造性,但从过程上看却不尽然;人类智能具有情感性,是心与身、感性与理性、主观与客观的融合统一;人类智能具有意向性,能够超出自身活动本身与外物或外事相关联.  相似文献   

12.
素质教育是一个亟待深入研究的理论问题,也是一项复杂而重大的社会系统工程。当前我国在实现从应试教育到素质教育转轨的过程中,在理论认识上出现了形式化,片面化,短期化等误区;实践操作中则走入盲从,搞“一窝蜂”;简单,搞形式主义;短视,搞急功近利等误区。在科学理解素质教育问题与分析这些误区产生原因的基础上,指明了走出误区的主要出路。  相似文献   

13.
随着《中华人民共和国民法典》的颁布实施,中国需要一部独立的“商法通则”统摄商法规范,以健全中国特色社会主义法治体系。商用人工智能是以营利为目的在商事营业中应用的人工智能,这类人工智能可能引发社会动荡,加剧平等主体之间的不平等地位,危害市场秩序,是“商法通则”在人工智能时代必须特别规制的对象。就法律地位而言,从商法理论与规则出发,商用人工智能可以借鉴企业所具有的双重属性,成为既是法律主体又是法律客体的商法存在。具体到规则层面,原则上商用人工智能是主体,特定情况下商用人工智能是客体。登记后的商用人工智能原则上是法律主体,独立承担责任,其设计者、开发者和生产者可以作为类似于股东的“所有者”承担有限责任。在特定情况下,由于商用人工智能具有类似于营业资产的财产属性,所以其可以被“所有者”转让或出租,此时的商用人工智能是法律客体。  相似文献   

14.
谢光前在《徐州师范大学学报》2007年第6期撰文指出,人类文明是随着理解的开始而呈现光亮的。对“理解”问题的理解经历了从认识论到本体论的过程。人们首先在经验意义上开始对“理解”进行解构的。真正着眼于从认识论角度厘定“理解”并把它作为一个核心概念加以把握的是狄尔泰,他把理解视为人文社会科学研究的根本方法;海德格尔则把“理解”提升到本体论的高度加以重视,认为“理解是人的存在方式”;在伽达默尔那里,“理解”实现了历史与现实的“视界融合”。而在当代,复杂性、不确定性挑战人类的理解,意义的失落、语言的无奈、箱格化知识的藩篱、习俗惯性的怠情等都构成理解的障碍,理解受到各种“噪音”的纷扰而导致不理解现象频发。  相似文献   

15.
人工智能是当前道德哲学界讨论的热门话题,一方面人工智能的发展需要面对相应的伦理问题,另一方面人工智能的发展也能为传统的伦理学研究提供洞见。对于“是否存在道德专家”这个问题,哲学家们曾有过许多讨论,通过对专家/专家化、道德专家/道德专家化等概念的辨析,可以得知日常理解的“道德专家”是一个十分严苛的概念,而从这个意义上看,人工智能恰恰是最有可能成为这样的“道德专家”的。  相似文献   

16.
语境是语言交际的重要因素 ,信息技术不断发展 ,计算机处理自然语言 ,必须对语境形式化。本文从计算语用学和人工智能的角度出发 ,对语境的形式化研究进行了综述。计算语用学的目的是建立自然语言理解系统 ,而人工智能研究语境形式化主要解决知识普遍性的问题。从第 2节到第 4节 ,文章从理论背景 ,研究方法和逻辑表征方式三个方面综述McCarthy(1987) ,Perrault和Allen(1980 ) ,Bunt(2 0 0 0 )对语境进行的形式化研究 ,比较它们的不同和相同之处 ,为语境的形式化提供可借鉴的方法和理论。  相似文献   

17.
人的自由发展是实现人类解放的重要前提,而自由时间的获取是实现人自由发展的根本条件。人工智能时代,人之所以能够获得更多的自由时间,主要是源于人工智能的广泛应用对人类劳动的解放:使劳动复归到“自由生命”;加快旧式分工的消灭,使人的劳动自主性与选择性增加;最大可能地增加了人类的自由支配时间,为人的自由发展提供了可能。基于人类劳动的解放,人工智能的发展应用也进一步地满足人类物质生活的基本需要,使人占有更多的自由时间实现更高层次的需要;促使对机器机械的否定,给人以人文关怀;促使主体对自身的否定,促成终身学习;促进人类向共产主义社会迈进,促成人的自由发展。  相似文献   

18.
ChatGPT作为生成式人工智能的典型代表,是由美国人工智能研究实验室OpenAI研发并推出的一款基于自然语言处理和机器学习的大型语言模型,该应用一经问世便风靡全球,掀起一场广泛且深刻的大讨论。以ChatGPT为代表的生成式人工智能作为人工智能发展的最新成果,进一步向有感情和通用人工智能的发展目标迈出了一大步。随着生成式人工智能发展及其广泛应用,被认为正在重塑着人和人类社会,人类在享受新技术带来的便利时,也将遭受前所未有的挑战,突出地表现为生成式人工智能对于人的异化,重塑人的交往、人的思维和人的劳动。信息时代人的异化问题的研究,需要从马克思关于人的本质的规定出发,用历史唯物主义的方法深入分析人的异化现象,并为应对人工智能引发的危机寻找突破口。人的本质具有三重内涵,即交往、思维和劳动,交往是人的本质的独特体现,思维是人的本质的现实表现,劳动是人的本质的内在规定。随着认知技术与神经科学的迅猛发展,生成式人工智能以其独特的模拟能力,表现出对马克思所描述人的本质的异化的确证,即人的创造物威胁着人的主体性发展。包括:人-机交往、数据化交往、数字化生存引发的人的交往异化;人机结合、依赖智能、机器生产带来"超越"的人、"弱化"的人、"虚无"的人;人与物、人自身的劳动异化等。面对生成式人工智能引发的人的异化危机,亟须价值理性在智能时代的回归与复兴,亟须正确认识生成式人工智能的价值与限度,亟须重视对人的生命的终极关怀,因此深化生成式人工智能引发人的异化的反思,一是要重构生成式人工智能的工具属性,即认识到人工智能不过是人类的"新工具"、认识到"新工具"的与众不同、用好人工智能这个"新工具";二是审视生成式人工智能的价值与限度,即必须回归人类自我价值审视、实现人工智能自我价值塑造、重视人工智能的发展限度;三是生成式人工智能发展的应然归旨,即构建可控的、安全的、可靠的人工智能。  相似文献   

19.
以ChatGPT4为代表的生成式人工智能具有高度类人性和广泛适用性,有利于生产方式和众多领域的转型升级。然而,这种所谓强人工智能时代的标志性产物,伴随着技术固有的风险性问题,引发伦理以及法律层面的失范性问题。生成式人工智能的失范性主要表现为:一是针对生成式人工智能引发的风险问题,伦理与法律尚无回应;二是现有的伦理体系和法律制度的“规范性”不足。为此,文章借鉴凯尔森的规范性理论,采用“旧论新用”的方法:一是利用伦理规范化,增强其约束性、可执行力,整理其内部层级关系,形成生成式人工智能的伦理治理体系;二是运用法律规范化,强化其对生成式人工智能数理化逻辑运行的模型规范。最后,基于伦理与法律协同构建生成式人工智能的规范性体系。  相似文献   

20.
强人工智能或超人工智能逐渐脱离人类意志并能生成技术方案,这对专利制度提出了挑战:人工智能生成的技术方案是否应得到专利法保护、是否属于专利客体、是否符合“三性”要求以及应如何配置权利等。人工智能生成的技术方案多属制造方法或操纵方式,不应排斥在专利保护范围之外;坚持既有的绝对新颖性、实用性和创造性的要求,并不妨碍将其作为专利保护。囿于人工智能不具有法律主体地位,可在申请文件中标明其为名义上的发明主体,比较人工智能的研发者、所有者与使用者的贡献差异,应将人工智能生成技术方案的权利赋予使用者,由其享有权利收益。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号