首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
人工智能是根据对环境的感知,做出合理的行动,并获得最大收益的计算机程序,它有着应用人工智能、通用人工智能与超人工智能三类层级。由于超人工智能远超人类的控制范围,对人工智能伦理的考察可以从其他两个层级展开。从应用人工智能伦理看,人工智能引发了信息安全困境、责任归属困境、技术依赖风险以及产业后备军与社会不公平等问题。从通用人工智能伦理看,人工智能带来了人机边界模糊、人的存在异化、人的自由异化甚至人类种族终结等问题。对此,要在坚持人本主义原则的基础上,通过技术层面的智能监管、程序设置与价值规范以及社会层面的伦理设计、法律规制与协同治理等,实现对人工智能的正向规约。  相似文献   

2.
徐源 《社会科学》2021,(9):117-124
人工智能伦理的发展经历了几个阶段,从对人工智能伦理必要性的讨论,发展到对人工智能伦理基础理论、重要问题,以及伦理框架、原则和相关政策的研究。随着人工智能技术的快速发展,伦理研究已开始进入新的阶段,即通过一种"可计算的伦理"来打通伦理原则与技术实现之间的鸿沟。面对伦理原则技术落地中的困境,从"软"机制到"硬"机制的转变已初现端倪,已有的探索包括人工智能伦理实验、伦理即服务(EaaS)等,相关研究都提出了相应的理论框架与分析方法,但实践中的效果有待观察。人工智能伦理是一项集成多种技术指标、协调多种利益诉求的活动行为,包含人类行动者、人工行动者和人机协同行动者,处在一种复杂社会系统中,计算社会科学中研究人类信念体系的认知平衡机制可为人工智能伦理原则落地提供一种技术路径。  相似文献   

3.
人工智能在推动人类进步与社会发展的过程中扮演着越来越重要的角色。人工智能在改变人类生产生活方式的同时,也不可避免地带来许多潜在风险和社会问题。人工智能的发展可能造成责任主体不清晰、潜在风险因素增多、人的异化现象加剧、道德主体不明确等问题。保障人工智能的安全使用,实现人工智能的良性健康发展,需要确立人工智能发展的基本伦理原则,加强对人工智能发展的价值规范和道德引导,制定人工智能伦理的相关制度。  相似文献   

4.
人工智能传播技术应用中引发的伦理问题,一定程度挫伤了公众对于技术的信任,建立人工智能传播信任是深入实施创新驱动发展战略和加快建设创新型国家的迫切需要。通过回溯以往的信任研究发现,人工智能传播信任在信任发生的基础、信任结构、信任边界方面都发生了变化。人工智能传播信任包含了人际信任、系统信任以及技术信任三个不同维度的信任层次,技术信任是人工智能传播信任建构的基础,系统信任是人工智能传播信任建构的保障,人际信任则是人工智能传播信任可感知与实践落实的部分。人工智能传播信任机制建构中的难点在于明确信任交互对象的信义责任与义务、专业知识不对等性与沟通渠道的建设、道德规范与伦理价值观的认同三个方面。可从构建与分享共同规范与伦理价值观的角度切入,突出重点、循序渐进地推进人工智能传播全周期的信任生态系统的建设。  相似文献   

5.
负责任人工智能作为人类对人工智能未来发展图景的一种规划,将责任与技术进行内在性的深度关联。技术的可信度与人类对自身的信任是发展负责任的人工智能必须解决的两个问题,而这两个问题的核心在于信任。就负责任人工智能而言,信任作为一条主线,以理念的形式出现在它的目标、趋势、任务之中,并覆盖了与该技术发展的所有相关方;信任作为一种价值观,为负责任人工智能发展共识的形成提供基础;信任作为一种生态系统,为负责任人工智能的发展营造合适的环境。因此,关于负责任人工智能的信任构建应从人工智能的相关方及其技术特征出发,以全过程、全范围的模式来寻求人工智能和人类之间信任的构筑途径,进而确保人工智能向善。  相似文献   

6.
人工智能伦理研究最根本的目的是增进人类的繁荣福祉,但是,学界存在着不同的理论主张:“人工智能体中心论”主张应当使人工智能体符合人类伦理规范,有必要对它们进行伦理设计、监管;“关系情境主义”主张人是人工智能伦理的中心而非智能体,人工智能伦理应当是关于“人类善的伦理”;马克思主义道德学说的“语境主义”则从唯物史观的高度将生产力、道德、人的自由联系起来,从而从新的高度奠定了人工智能伦理范式基础。  相似文献   

7.
随着科学与技术的发展,人工智能技术不断演进,一方面表明人类对科学与技术的研究具有主导作用,另一方面也表明人工智能技术能在许多应用中替代甚至增强人类的某些功能。然而,梳理人工智能的发展可以看到,在人工智能技术应用日新月异之时,有关人工智能的意识研究正孕育着较大的突破,人工智能的情感研究也已逐步展开,而围绕人工智能意识与情感的发展,将导致人工智能发展中遭遇"五化"问题。对此,人类亟需思考如何有效掌控人工智能的发展,从而避免人工智能的负面效应,甚至是更大危害的出现。  相似文献   

8.
林峥 《南方论刊》2024,(2):12-14
人工智能的发展给人类伦理带来了挑战,此时研究并发挥人类智能的优势尤为必要。自由意志为人类智能提供了巨大的可能性,人类的抽象思维能力,人类意识的能动性、创造性、灵活性,人类智能的综合性、处理复杂问题的能力,以及人类情感的丰富性,是现阶段人工智能无法比拟的。人们应以开放、积极与理性的态度应对人工智能时代的挑战,进一步发挥人类智能的优势,实现人类与人工智能的协同进化。  相似文献   

9.
随着人工智能的广泛应用,其在为人类生产和生活带来便利的同时,也引发了数据隐私泄露与算法偏见、责任主体冲击与边界模糊、主客体异化与信任危机、软法缺陷与硬法缺失等伦理风险。规制人工智能的伦理风险,须优化人工智能技术设计,注重隐私保护与社会公正;赋予人工智能以社会角色,划定人与智能的责任边界;构筑人工智能伦理规约,强化人的主体地位与诚信品质;加快人工智能的法制化进程,健全智能伦理制度体系,从而促使“人—机”和谐共处。  相似文献   

10.
人工智能日益成为新一轮产业革命的引擎,其通过技术牵引与场景驱动,正重塑着审计工作的模式和流程。将人工智能应用于审计活动能够大幅提升审计效能,但同时也产生了严重的伦理危机。如何治理人工智能时代下的审计伦理危机,以使人工智能更好地服务于审计工作,已成为各类审计组织亟待解决的问题。文章在明晰人工智能时代审计伦理内涵的基础之上,从审计主体自身以及审计主体与审计客体、利益相关者、智能审计系统开发者之间关系等视角系统分析了人工智能时代审计伦理危机的表征,并基于伦理原则构建、政策与制度、数据与技术、个人与组织等层面探索了人工智能时代审计伦理危机的治理路径,旨在为人工智能时代审计伦理危机的预防、监测和控制提供理论参考和实践借鉴。  相似文献   

11.
人工智能技术在新闻领域的应用,不仅给新闻传播格局带来巨大变化,也对新闻伦理道德提出新的挑战。传统的新闻伦理价值在新技术的渗透中不断被解构。应该构建何种内涵的新闻伦理观来适应这一变化?对这一问题应尽快展开学术研究和讨论。根据“工具理性”和“价值理性”的概念进行考察,“人机协同”概念强调了未来技术发展对新闻业的更高要求,其伦理学内涵也为突破人工智能时代新闻伦理的困境提供了一种哲学路径:构建人机之间平衡和谐的关系,以人类的智慧让人工智能在新闻实践中“物尽其用”,是未来努力的方向。  相似文献   

12.
党的二十大报告指出,当前世界百年未有之大变局正在加速演进,新一轮科技革命和产业变革深入发展,我国发展进入战略机遇和风险挑战并存、不确定难以预料因素增多的时期,我们必须增强忧患意识,坚持底线思维。提出人工智能发展的底线伦理,具有普遍主义的价值观念,其核心直指人类的理想、信念和价值目标,它关系到人类的整个生活方式和人类命运的终极意义问题。人类社会文明的基本准则——人权法则应当成为人工智能的底线伦理,因为这一准则的核心内容是人的生存权和发展权,这是现代国家合法性的标准,是国家宪法和国际法律条约的基石。但是把人权法则作为人工智能的底线伦理需要一个人类文明新形态和人类命运共同体的伦理基础。因此,解决这一问题的诉求只能依赖于两条全球性的伦理进路:一条是人类文明新形态,一条是人类命运共同体。中国政府以联合国宪章宗旨和原则为基础积极参与联合国人权事务,把人类文明新形态和人类命运共同体的理念与人权伦理的普遍原则引入联合国人权理事会的决议中,率先在这条全球性的伦理进路上开始了自己的践行。  相似文献   

13.
人工智能伦理有很多种不同的研究进路。定位式的研究进路主张通过定位人工智能的社会地位解决人工智能的伦理问题;嵌入式的研究进路主张通过为人工智能嵌入道德算法以规避人工智能可能带来的伦理问题;规范式的研究进路主张通过制定相应的人工智能伦理规范以规范人工智能的发展方向。然而,这些研究进路都存在很多难以解决的问题。基于道德特殊主义,我们可以为人工智能伦理问题给出一个更好的解决方案。  相似文献   

14.
随着经济社会的发展,人工智能逐渐深入千家万户,其伦理问题日益为人们所关注。然而,人工智能伦理的伪命题倾向、符号漂移倾向与责任泛化倾向等凸显了当前人工智能伦理的价值表象之困境,主要原因是其人伦本质受到了一定程度的遮蔽。保护隐私,本质上是保护人工智能对象人的隐私;防止偏见歧视,本质上是防止人工智能当事人的偏见歧视;促进公平,本质上是促进人工智能所涉及的弱势人群的公平,等等。这都确证了人工智能伦理的人伦本质。因此,在实践中着眼于人,尤其是提升人工智能当事人的伦理认知、促进其伦理行为之改善、矫正其严重伦理错误等,方可实现人工智能伦理的人伦复归。加强人工智能伦理的人伦本质探析,在理论上对于揭示人工智能伦理的本质规律,推进人工智能伦理研究系统深化,在实践上对于强化人工智能当事人的责任担当、实现社会善治、满足人对美好生活的追求等等,均具有必要的、积极的理论价值与现实意义。  相似文献   

15.
鲁芳 《中州学刊》2023,(6):120-126
人工智能时代日常生活伦理治理面临新的难题:人工智能对日常生活的深度控制以及人对人工智能的过度依赖使人的自由受到遏制,人愈加成为片面发展的人;日常生活组织化程度降低挑战集体主义的日常生活根基,日常活动的人工智能化弱化了人与人之间的日常联系,使伦理治理价值导向难度增大;由于日常生活伦理关系走向消隐,日常生活伦理治理对象呈现出复杂隐蔽的特征;由于在人工智能会不会产生自由意志、人工智能执行的是谁的自由意志等问题上存在复杂性和不确定性,由人工智能活动所带来的道德责任归属难以确定。加强人工智能时代日常生活的伦理治理,需要规范人工智能的价值遵循,构建共同的组织化的日常生活,强化日常生活主体的道德自觉,构建有效的日常生活伦理治理体系。  相似文献   

16.
[目的/意义]人工智能技术悄然拉开了第四次工业革命的大幕,为各行各业的发展带来了革命性变化。但该项技术的法律规制和标准规范建设尚不完善,引发了全球对于人工智能伦理原则与规范体系的探索与思考,各国学(协)会相继发布了人工智能伦理规范或政策文件。本研究全面分析和梳理当前认可度较高的人工智能伦理原则的核心框架,旨在为各国制定和完善人工智能伦理规范提供参考。[方法/过程]运用网络调研法、内容分析法和比较研究法,在综合考虑影响力、国别和可获取性等因素的基础上,选取近年各国学(协)会已发布的有关人工智能伦理原则的权威政策文件,提炼出其中涉及的人工智能伦理原则的核心框架和主要内容。[结果/结论]人工智能领域主要包括:造福原则、责任原则、公平正义原则、安全原则、尊重人的自主性原则、隐私与个人信息保护原则、透明性原则和可靠性原则等8项人工智能伦理原则。  相似文献   

17.
人工智能技术增进社会福祉和进步的同时,伴随着人机边界模糊、责任追究困境、价值鸿沟扩大和技术过度依赖等伦理风险。人工智能伦理风险的生成有其内在逻辑。人工智能伦理风险的深层性、复杂性等特征契合了协同治理的要求。协同治理范式是人工智能伦理风险治理具有可行性的新探索。推进人工智能伦理风险的协同治理,应构建多元协同组织,形成以政府为核心,技术专家、社会组织、研究机构和公众等共同参与的风险治理自组织系统。在此基础上,通过夯实协同治理条件、增强协同治理参量提升人工智能伦理风险治理效能,促进人工智能伦理风险的整体性治理。  相似文献   

18.
人工智能的出现和发展根源于人类的本性:恐惧和贪婪。人工智能可能带来严重的不平等、失业、信任危机,对现有社会秩序带来严重挑战,最终可能失去控制。需要尽早对人工智能进行规制。规制的进路可以分为用技术规制以及用法律规制两种途径。尤其应当用法律来规制人工智能。用法律规制人工智能又可以分为法律规制人工智能本身以及法律规制人工智能背后的人。规制的原则包括目的正当原则、人类善良情感原则、公众知情原则或者透明原则、政府管控原则、分类管控原则、全程管控原则、预防原则以及国际合作原则。应当尽早制定人工智能促进法,确立人工智能发展的原则、划定人工智能发展的底线,并对现有法律进行整理,增加规制人工智能发展的有关内容。  相似文献   

19.
人工智能赋能教育是技术发展的时代必然,但在智能技术与教育的融合过程中,教育技术、师生关系以及教育环境等方面也会产生新的伦理风险。从理论上说,教育技术运用方面的伦理风险,主要根源于由认知受限而导致的算法黑箱、由文化偏见而引致的算法歧视、由智能技术法制缺位而引发的伦理治理受阻;师生关系方面的伦理风险,主要根源于教师、学生以及师生等伦理关系的错位;教育环境方面的伦理风险,主要根源于由价值歧视导致的社会公平正义缺失,从而引发更深层次的教育不公平。因而,在人工智能赋能教育过程中,一方面要理性看待已经出现或可能会出现的伦理困境,另一方面要在倡导智能技术和教育融合共生的基础上,从加强技术支撑和伦理规范建设、构建新型师生伦理空间、明晰智能教育伦理责任和提升师生智能素养等四个方面,构建人工智能教育伦理治理新范式,以防患于未然。  相似文献   

20.
与传统技术伦理相比,人工智能伦理在研究进路、研究领域、研究层次上都有了新的进展,原有的以批判为主的研究架构已经不能完全涵盖当今的研究格局.人工智能伦理逐渐形成"外在主义"和"内在主义"两种互补的研究进路,其中,"外在主义"进路主要是对人工智能所引发的社会伦理进行批判性的反思,并制定相应的伦理规则来规约人工智能的发展,而...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号