首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 406 毫秒
1.
人工智能对人类智能的模拟在逻辑上包含对人类道德的模拟。人工智能的规范者指引应从"人为自己立法"的原理中产生。对于智能体的伦理框架而言,"让算法遵循‘善法’"是一条自明性原则,可称为"算法从善"原则。该原则的第一个方面的伦理尺度与智能主体模式的革命性构建有关,其实质是在拟主体性维度通过道德算法进行规范性指引,且亟需新的责任伦理框架提供支持。由于道德算法是嵌入在算法体系中有待完善的算法程式,算法从善原则就涉及与之相关的第二个方面的伦理尺度。它与人类主体模式下的道德建构有关,包括常见的人类主体模式以及"人类主体与人工智能主体相处的主体间模式"。对这两种道德形态而言,算法只有体现或遵循人类主体模式下的善法,才能以有责任感的方式推进道德算法的进化及其在机器中的嵌入。人类在算法的控制权上保持审慎,是避免伤害的明智选择,也是在技术发展面前维护人类尊严的底线。  相似文献   

2.
设计伦理蕴含着"设计的伦理"与"伦理的设计"两层含义,"设计的伦理"指的是设计过程中蕴含的伦理价值,而"伦理的设计"则指以伦理为导向的设计过程。人工智能的设计伦理同时体现了这两个层面:一方面,人工智能技术在设计过程中蕴含着人类福祉、负责任创新和环境可持续性等伦理价值;另一方面,以使用者和设计者为驱动主体,以参与设计为理念,通过利益相关者分析法、价值析取和抓取法、启发卡片法、价值敏感行动反思模型等方法使以伦理为导向的设计成为可能。人工智能的设计伦理研究旨在于将伦理反思前置到设计阶段,由此可以尽早地处理人机矛盾,避免由人工智能技术引发的人机之间的伦理冲突,进而从设计层面实现人工智能的"向善"发展。  相似文献   

3.
人工智能生成发明纳入专利法保护已成趋势,因专利法以保护人类发明中心主义为根本宗旨,现行的专利法面临挑战.其表现在:法律未赋予人工智能的法律主体地位、人工智能生成发明物未纳入专利法保护的客体范围、生成发明的专利权归属不明.要解决此类问题,应坚持激励创新、激励投资的目的,结合专利法的立法趋势,建议未来专利法应扩大专利保护范围,引用科斯定理经济学原理分析人工智能生成发明的专利权归属于人工智能使用者的合理性,使人工智能生成发明得到专利法的有效规制.  相似文献   

4.
自2022年起,以ChatGPT和GPT-4为代表的生成式人工智能迅速发展,人工智能进入了“大模型”时代。作为一项具有重大意义的技术进步,对人类社会的发展具有重要意义;同时,ChatGPT类生成式人工智能作为人的创造物,也引发了人的主体性的丧失、数据隐私泄露与算法偏见、责任主体冲击与道德地位的模糊等伦理问题,会威胁到人类的幸福生活。以ChatGPT类生成式人工智能引发的伦理问题为起点、以挖掘其产生的原因为依据,提出完善生成式人工智能伦理治理的体制和机制、优化生成式人工智能技术设计和培育正确的主体意识等规制路径。  相似文献   

5.
算法作为人工智能技术的重要组成部分,已经成为决定“人机共生”关系走向的关键要素,同时也带来了人类认知上的“黑匣子”,限制了人类理解和使用技术的能力,引发了技术使用过程中的各种问题,导致了人类对算法的不充分信任。算法伦理审查的价值规范体系,包括算法伦理审查的标准化、制度化和结构化。发展负责任的算法,强化算法伦理审查的理性认知并建构实用框架,推进算法透明度、可解释性以及公众满意度等伦理维度指标落地,可以有效消解算法歧视和隐私暴露等问题,更好地推动算法伦理审查机制的健全完善。  相似文献   

6.
美国OpenAI公司开发的新一代人工智能语言模型ChatGPT标志着通用人工智能时代的到来,将对人类社会发展产生巨大影响。作为AIGC(人工智能生成内容)技术的典型代表,它具有拟人化、强交互性、全感官3个主要特征。ChatGPT的出现可能会掀起AI的技术革命,推动人类生活生产方式创新,促进新一轮科技革命和产业变革。与此同时,也会引发数据隐私泄露、社会失业、行业垄断、算法偏见等社会风险。对ChatGPT的社会风险治理,在伦理方面,应当坚持以人为本、培育公民的数字素养和建立伦理审查机构,促进应用的合理化;在法律规制上,应通过立法、权力监督、制度保障等手段,促进ChatGPT的应用合法化;在技术上,应将法律规制、相关伦理等价值观念转化为算法,以算法来规制算法。  相似文献   

7.
马克思认为,技术异化会带来人的异化和教育的异化,技术并不必然向善的方向发展,技术从发明走向成熟都需要经历一个批判的过程。人工智能引发包括教育在内社会各领域的连锁反应,技术进步的已然性和社会适应的滞后性构成了社会系统平衡失调的基本矛盾,需要通过对技术的伦理批判完成技术的社会化改造。把技术批判的场域由"工作场"转移到"学校场",对人工智能教育进行价值审视、公平性审视、人性审视、责任审视和终极目标的审视,目的在于防范人工智能异化的风险并促进人工智能教育更好地发展。  相似文献   

8.
法律人工智能面向法律大数据和法律知识,运用机器学习算法与符号逻辑,在遵循法律运行规律的前提下满足法律实践的需求,辅助法律人做出法律决策,提升法律任务的质效。法律人工智能科学内涵之厘清明确了其概念体系,由此确立其交叉学科地位。法律人工智能的理论和技术演化历程展示了法律人工智能的发展逻辑,法律推理与法律论证理论是法律人工智能的理论来源,知识引导和大数据驱动形成了符号主义与联结主义法律人工智能的技术分野。在理论方面,法律人工智能需要探索法律与人工智能深度融合的法学理论,回应伦理和法律关切,制定法律智能系统的运行或使用规则,规制算法偏见和不可解释性问题。在运行模式方面,法律人工智能需要重塑“以人为中心”的智能辅助模式。在技术方面,法律人工智能表现出符号主义与联结主义相融合的趋势,在智慧立法和智慧司法领域中有待深度拓展。  相似文献   

9.
现代人工智能的“可信任”研究通常关注的是人对智能算法的信任问题。但在风控领域逐渐转向AI“合理怀疑”能力的要求中,算法对人的“信任”也已成为人工智能伦理的重要问题。风险防控本身就是如何信任一个人的问题。在现代未来学思维下,人把对信任与怀疑的规划都交付给技术,以降低风险率。人工智能风控技术以数据和算法作为信任人的方式,这是智能时代“后人类”的一个必然的社会深度脱域特征。因而,人工智能风控相对于其他智能技术需得到独特的哲学关注。但是这种算法信任主导下的风险防控,必然面对正义性的考量。在人工智能物逐渐被作为一种能动主体的情境下,实现其在风控场景中对人的“合理怀疑”也成为智能风控的基本伦理要求。  相似文献   

10.
作为一种生成式预训练变压器,ChatGPT技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解ChatGPT技术带来的伦理风险,使人工智能系统成功融入人类社会。  相似文献   

11.
作为一种生成式预训练变压器,ChatGPT技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解ChatGPT技术带来的伦理风险,使人工智能系统成功融入人类社会。  相似文献   

12.
从历史上看,"黑客"迭代到"人工智能黑客",是伴随着计算机、互联网、大数据和人工智能等科学技术迅猛发展而产生的。现如今的"人工智能黑客"是人机交互体,既非人也非物,介于两者之间,它可以模仿人类、干扰人类认知,为达到设计者或决策者的目的对网络系统漏洞进行智能化侵入和破坏。"人工智能黑客"区别于传统"黑客"的主要特征在于其可以依靠智能算法自主学习、寻找网络系统代码漏洞和加强分布式攻击。部分学者将人工智能技术划分为弱人工智能、强人工智能、超人工智能三个阶段,甚至有学者建议从伦理上赋予强人工智能法律主体地位,赋权理由是强人工智能算法具有独立的"机器意思"表示能力,与人类有情感的联结。显然,这种赋权方式不仅违背"人本主义"原则的主体创新,而且现行法律主体包括自然人、法人、非法人组织,"人工智能黑客"不属于任何一类主体,突兀地将法律主体的理性意思表示与人工智能算法指令的"机器意思"相等同,容易形成"人工智能黑客"行为在算法正义法律评价和民事法律行为构造上的困境,干扰我们对"人工智能黑客"本质的判断。溯本清源,应当以法律上权利义务构造标准去判断"人工智能黑客"的法律属性。"人工智能黑客"本质上是自然人主体通过人工智能算法技术,利用网络媒介进行网络侵权或犯罪的行为。"人工智能黑客"的核心是通过计算机代码设置、大数据运算与机器自动化判断进行决策的一套机制。"人工智能黑客"在责任承担上不是适格的法律主体,只具有特殊的"人格性工具"法律属性。"人工智能黑客"的智能化攻击外在表现为算法程序的自动执行,但程序的设计和算法运行归属于现实经济生活中的人,也完全符合法律上间接侵权的调整范畴。对于"人工智能黑客"的侵权或犯罪行为,应当通过揭开"人工智能黑客"的"面纱",找到其背后隐藏的可规制法律主客体,利用"穿透"方式对"人工智能黑客"的非法行为进行伦理、技术和法律三个维度的有效规制。  相似文献   

13.
技术对人类的认知范式起着重要的影响。从数据可视化到生成式人工智能的互动在不同维度上挑战甚至重塑着人类的认知能力及框架。数据可视化本质上是一种视觉认知范式,它强化了人类认识论领域中的视觉中心主义传统,由此导致以视觉为中心的数字技术权力谱系的建立。随着以ChatGPT为代表的生成式人工智能的出现,人类的认知发生了由视觉向言说的转变。其一方面通过语言处理技术和算法模型,突破并重塑了人类的认知结构;另一方面则建立起一种以数据言说为核心的普遍性知识体系,消解了人类对经验知识背后的特殊目的乃至意义的追问。生成式人工智能带给人类认知的挑战,应从它凭借普遍理性原则造成的认知中心化趋势,以及借由对话训练方式所激发出的主体创造性两个层面加以考察。  相似文献   

14.
随着第四次工业革命浪潮的到来,云计算、深度学习、大数据等技术不断普及,人工智能已嵌入人们生活的方方面面,不仅影响科技领域的发展,同时也给政治、经济、社会、道德伦理等领域带来了风险与挑战。由此,应从社会、政府及人类自身三个层面积极探索应对策略,以期形成多方共同参与、相互联动的有效合力机制,实现对人工智能的合理控制,更好地应对人工智能可能带来的社会风险。探索人工智能未来的发展方向,推进“技术”与“社会”的良性互动。  相似文献   

15.
算法的公正问题被视作如今人工智能领域一个核心的伦理问题,通常被表述为"算法偏见"或"算法歧视",但偏见与歧视实际上是两个问题.区分这两个问题可以显示出算法偏见并不具有伦理维度,而算法歧视才是人工智能领域中真正的核心伦理问题.算法偏见是不可避免的,主要来自开发者的偏见、数据的偏见和算法自身的偏见.其中,显性偏见是容易被发现并剔除的,但隐性偏见则不可避免地存在于算法之中.算法歧视的责任主体则主要是人,人们对于算法偏见的盲从导致了算法歧视.自主决策算法所引发的歧视也可以追责到人.因此,算法的开发者和使用者要为算法歧视负责.  相似文献   

16.
人工智能技术在促进教育变革的过程中,也给教育带来不可预知的伦理风险.作为人工智能教育应用的重要产物,教育人工智能系统备受推崇,但必须遵循相关的伦理原则.首先,从宏观层面探讨教育人工智能系统的一般伦理原则,即通过对世界各地相关政策文件的分析解读,明确人工智能伦理原则和教育人工智能伦理原则.其次,从微观层面探讨教育人工智能系统的具体伦理原则,即通过相关国际标准和规范的学习借鉴,明确教育人工智能系统开发与应用的伦理原则.最后,针对未来人工智能教育的发展和可能遇到的伦理挑战进行预测,并结合国情,提出我国教育人工智能系统未来发展的策略建议,即培养具备合格人工智能素养的社会公民、制定更加科学的教育人工智能系统伦理原则、构建教育人工智能系统应用过程的监管机制、重视人文关怀的情感教育力量.  相似文献   

17.
基于数字孪生技术,拥有“去物质化”身体的数字孪生人逐渐受到关注,并构建出全新的后人类审思场域。一方面,数字孪生人弥补了人认知自我的主观、感知和时空的局限,从而极大地增强了人认知自我的能力;另一方面,数字孪生人也带来一些诸如实时与放大的隐私伤害、数据控制与透明化社会、量化与单一的人类、更加严峻的数字鸿沟之类的伦理隐忧。对于数字孪生人带来的伦理隐忧,我们需要有一定的超前意识,从隐私的保护与让渡、数据控制的批判与反抗、对生命本质的反思、弥合鸿沟等几方面进行必要的伦理规制,以使数字孪生技术和数字孪生人更好地向善发展。  相似文献   

18.
人们愈益走向并生活在一个人工智能的时代。当前人工智能的探索和发展产生了复杂的现实效应和社会后果,亦提出了诸多未知的理论难题。就伦理学来说,对人工智能进行伦理干预和介入成了迫在眉睫的任务。这种伦理干预并非泛泛的外在说教和批判,其基础在于对人工智能的本质进行科学把握。这种把握需要从历史变迁而非预设的本质出发,不仅将人工智能理解为人类社会不断发展而来的物质基础,而且从人类的生活和生产的整体性视角看待它发挥作用的方式。立足于这一视角,伦理学不是把人工智能理解为物本身,而是从科技、产业、伦理等诸多要素的动态作用中把握它的合理位置及其影响。在通往伦理的人工智能生产过程中,伦理学面临三大基本任务:倡导新的契约精神,重新界定人工智能生产中的伦理标准和规范;主张以人为本的最终目的,思考人工智能生产中价值冲突的解决方案;深入生产过程中的伦理介入,把握人工智能生产过程的具体环节。  相似文献   

19.
作为新一轮技术革命的前沿领域,人工智能为高等教育高质量发展塑造了新的发展动能。在“‘人工智能赋能教育’中国工程科技论坛”上,潘云鹤院士聚焦人类进化方式以及人工物的进化历程,论述了人类与人工器物和知识共同进化的过程,探讨了人工智能(AI)、大数据在人工器物创造中的作用。赵沁平院士通过梳理教育数字化的技术、思维和方法要素,分析了信息技术对教育发展的影响,提出虚拟现实(VR)+教育的发展趋势和问题。高文院士根据新一代人工智能对人才的需求,介绍了鹏城实验室开源智能平台的“云脑”生态及大模型计划。龙腾院士通过分析数字时代智慧教育的新机遇以及人工智能赋能教育的新趋势和新挑战,提出通过科技伦理、智能算法、教育隐私保护来实现人工智能技术的智用、致用、治用和制用。倪明选院士分析了人工智能环境下的教育生态系统,基于香港科技大学(广州)的改革实践,提出以科技赋能高等教育,以人工智能重构学生素养塑造模式。单忠德院士以数字化转型驱动高等教育转型升级为基础,提出把握数字技术赋能高水平人才培养的时代坐标、构建数字技术赋能高水平人才培养的创新体系、优化数字技术赋能高水平人才培养的一流生态。郑庆华校长针对人工智能时代的...  相似文献   

20.
进入数智时代,生成式人工智能应用在全球掀起的使用热潮引发了人们对相关伦理困境与风险问题的关注,虽然公平、准确、可靠、安全、人类监督等几项内容被设定为负责任人工智能的核心原则;但生成式人工智能的技术治理方面存在因本体论身份引发的价值张力、训练数据的代表性偏差与安全系统被动保护带来的三重困境并为生成式人工智能如何实践“负责任”的原则带来了现实挑战。在风险全球化与国际竞争加剧的历史变局下,人类社会面对生成式人工智能潜在的伦理与社会风险,应加快建立全球治理的合作机制,践行文化包容的治理智慧,以及回归社会问题本源的认识论是实现生成式人工智能“负责任”原则的关键。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号