首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 500 毫秒
1.
人工智能技术增进社会福祉和进步的同时,伴随着人机边界模糊、责任追究困境、价值鸿沟扩大和技术过度依赖等伦理风险。人工智能伦理风险的生成有其内在逻辑。人工智能伦理风险的深层性、复杂性等特征契合了协同治理的要求。协同治理范式是人工智能伦理风险治理具有可行性的新探索。推进人工智能伦理风险的协同治理,应构建多元协同组织,形成以政府为核心,技术专家、社会组织、研究机构和公众等共同参与的风险治理自组织系统。在此基础上,通过夯实协同治理条件、增强协同治理参量提升人工智能伦理风险治理效能,促进人工智能伦理风险的整体性治理。  相似文献   

2.
ChatGPT热潮下的教育伦理是ChatGPT等人工智能技术在教育领域开发、应用与治理过程中,教育智能体——教育参与者与智能机器——应该遵循的道德关系、伦理准则及行为规范。教育“善”是人工智能时代教育伦理的内在属性和集中彰显。然而,随着ChatGPT等人工智能技术与教育的融合,引发了一系列显在和潜在的教育伦理风险,表现为技术向“善”趋于异化、个体崇“善”走向衰微、社会趋“善”面临溃散等。为促进教育向“善”发展,有效防控ChatGPT运用于教育的伦理风险,应改良智能技术,加快人机双师协同育人;回归人性本真,敦促德性良知重返人心;匡扶社会正义,促进教育优质均衡发展。  相似文献   

3.
生成式人工智能通过人机交互的方式为新闻业带来了前所未有的可能性,它为新闻主体赋能:数据驱动采集与自动内容生成、多重视角新闻与创新叙事形式以及量身定制新闻与多维交互模式。然而,这项技术的迅速发展也带来了一系列主体危机,如削弱专业价值、冲击业务模式,影响新闻职业、贬低工作价值,加剧权力不平等、植入特定价值观,污染信息生态、引发信任危机等。为了应对主体危机,新闻编辑部应制定使用指南和规范伦理原则;新闻工作者需调整角色定位,发挥跨界整合能力;新闻用户应强化数字媒体素养,从而推动人机关系从共存、协作向“共情和共同进化”发展。  相似文献   

4.
人工智能技术在新闻传播教育领域的应用,驱使新闻传播教育发生了实践转向,调整了教育目标,创新了教学方式,并对教学场景进行了升级。随着人工智能技术的继续深入,未来的新闻传播教育应改变教育理念,从实用性为主的传统教育理念向智能化思维引领下的现代教育理念转型,培养兼具功能性和可迁移性的新闻智慧人才,并契合新闻传播教育的特性实现新闻传播教育与人工智能技术的深度融合。人工智能赋能新闻传播教育的路径包括数据赋能、场景赋能和个体赋能三个方面:通过数据赋能增强数据思维应用能力,通过场景赋能构建“具身化”虚拟教学情景,通过个体赋能定制“千人千面”个性化学习模式。  相似文献   

5.
文章基于功能、关系与本体的HMC研究框架,对ChatGPT的应用及影响进行反思与探讨。从功能维度看,ChatGPT以“拟人际传播”的形态发挥部分人际传播功能,却无法替代人际交流,其可以无限靠近“拟人化表象”,但仍具有不可克服的固化模式与不可控偏向的风险。从关系维度看,ChatGPT生成的人机关系类型能够提供人际传播无法达成的使用满足,也将扩大伦理风险;AI的社会行动者属性仅存在于现象层面,与人类行动者具有本质差别,人机传播并不能真正实现主体间关系;人机传播对平台的赋权将加剧数字隐私风险和对用户的控制力,形成“人—AI—平台”三者间的多向控制关系;人机传播以及更大范围的智能传播生态正在构建全新的网络传播逻辑,预示着未来社交媒体文化的终结与连接逻辑的嬗变。从本体维度看,逐渐走向通用人工智能的ChatGPT要求对人的价值在哲学层面进行重思,人不再是万物的尺度,人与机器将走上双向影响、边界消融、互为尺度的未来。  相似文献   

6.
基于“人是目的”的价值设定而建立起的“伦理至善”第一原则让强人工智能设备的研发和应用首先遭遇道德合法性的论证难题。“有限的道德合法性”为其谋求到了一个伦理存在空间。以致命性自主武器系统(LAWS)为例,“有限性”的前置条件则让关于其“道德责任代理人”的准确识别与划分成为首要问题。以道德判断能力为标准,将作为“工具”的机器和作为“具有实践智慧”的人做明确划分是准确识别LAWS责任代理人的逻辑基础。基于道德责任代理人的逻辑梳理,即使被完美道德编码的LAWS作为“非道德”的机器在应用中也可能会遭遇“不道德的人”的伦理难题。这是我们可预见且对国际关系构建和整个人类社会发展可能产生颠覆性影响的伦理威胁。从这个角度看,谨防出现基于“技术野蛮”的“寡头恐怖主义”这一时代命题要求我们尽快对相关强人工智能设备给出一套有效的、缜密的预防性伦理应对机制。  相似文献   

7.
人工智能伦理制度化是将人工智能伦理价值和要求转化为国家规范化、常态化的正式性行动原则、集体规约与管理制度的过程,探索人工智能伦理制度化的影响因素及其生成逻辑是完善我国人工智能伦理治理体系的关键之义。运用扎根理论对我国人工智能伦理相关政策文本进行分析,构建出“条件—工具—行为”的影响因素模型。研究发现,风险情境、价值感知和政治势能是人工智能伦理制度化的重要发生条件,经验准备、保障基础和配套支持是人工智能伦理制度化的必要辅助工具,国际竞合和多元协作是人工智能伦理制度化的主要联结行为。三者发挥驱动力、托动力和助动力的合力作用,共同推进我国人工智能伦理制度化建设进程。  相似文献   

8.
赵瑜  周江伟 《浙江社会科学》2023,(1):109-118+159-160
近年来,在世界范围内涌现出大量的人工智能治理原则。这些文件通常采取“原则主义”的策略,通过提取“最大公约数”的方法对伦理共识进行清单化的列举。这种策略固然有益于回避争议、促进协同,但也难免在具体情境中陷入概念模糊和自相矛盾。为了明晰概念、澄清语境、促进对话,本文搜集了来自全球各地的88份原则文本,在伦理学理论脉络中定位人工智能治理核心议题和相关主张。研究发现治理原则围绕着价值立场、价值目标和正义原则三个核心问题展开,在不同的理论脉络和现实情境中,构成了一个丰富而系统的问题域。推动人工智能的治理实践,需要在静态的对话框架之上进一步构建动态的规制措施,而整合原则文本的伦理基础和治理框架,有助于推动抽象的伦理主张转变为具体的治理实践,以应对复杂现实情境中的道德选择和行动需求。  相似文献   

9.
ChatGPT和“文心一言”作为生成式人工智能的新产品,造就了人机合作进行知识生产(尤其是学术研究)的新形式。以探究数字劳动的含义为例,以人机问答的方式获得机器智能提供的答案,这展现了ChatGPT和“文心一言”可以辅助人进行学术研究的新功用,从而形成人机合作的知识生产新模式。在这种模式中,机器智能在提供资源的概括和简单的文本生成方面对人的知识生产提供高效的帮助,并通过人机问答的互动使这种帮助更具针对性和时效性。通过对机器生成内容的具体考察,深入体验这两款生成式人工智能新产品的实际使用,也可以发现其明显的不足和局限,尤其体现在:由于受限于训练数据集和能够进入的学术资源数据库,其归纳既有知识成果的全面性和准确性与人的要求还有较大的差距,更不能替代人去进行原创性的知识创新。鉴于此,需要理性地看待智能机器为人类的知识生产所能起到的功用,既要前瞻性预测这一新型的人机协同方式对人类未来知识生产走向的巨大影响和积极意义,也要根据现阶段生成式人工智能的工作机制,发挥好人在使用提示词等方面的作用,通过人的积极作为来调动智能辅助系统的潜能,在人机之间既有合理的分工又有融洽的互补式合作,来助力学术研究型知识生产活动的开展,并对人作为知识生产的主体始终保持足够的警醒。  相似文献   

10.
人工智能是否可为法律主体的问题,关涉民事主体制度的调整,也为解决人工智能所引发的具体法律问题提供不同思路,对此进行探讨有重要意义。通过对既有“人工智能”的各种解读以及“智能”“人工”的分析可知,人工智能的核心在于,使机器或其他人工系统完成需要人类智能的特定任务。在民法上,自然人成为民法上的“人”是基于人类作为一种理性存在的伦理考量;而作为实证法概念,法人是法律构造物,其成为权利主体则主要源于社会经济现实的需要。与自然人相比,现阶段的人工智能虽然一定程度上体现了理性的特征,但并未达到成为理性主体的程度,未来的强人工智能存在成为理性主体之可能。当然,是否具有理性并非决定人工智能可否为法律主体的唯一因素,权利义务的可归属性是主体的基本要求。随着人工智能技术的发展,人工智能的自主性逐渐增强,未来可基于现实需求从侵权责任主体开始,承认人工智能的法律主体地位。  相似文献   

11.
人工智能是根据对环境的感知,做出合理的行动,并获得最大收益的计算机程序,它有着应用人工智能、通用人工智能与超人工智能三类层级。由于超人工智能远超人类的控制范围,对人工智能伦理的考察可以从其他两个层级展开。从应用人工智能伦理看,人工智能引发了信息安全困境、责任归属困境、技术依赖风险以及产业后备军与社会不公平等问题。从通用人工智能伦理看,人工智能带来了人机边界模糊、人的存在异化、人的自由异化甚至人类种族终结等问题。对此,要在坚持人本主义原则的基础上,通过技术层面的智能监管、程序设置与价值规范以及社会层面的伦理设计、法律规制与协同治理等,实现对人工智能的正向规约。  相似文献   

12.
人工智能日益成为新一轮产业革命的引擎,其通过技术牵引与场景驱动,正重塑着审计工作的模式和流程。将人工智能应用于审计活动能够大幅提升审计效能,但同时也产生了严重的伦理危机。如何治理人工智能时代下的审计伦理危机,以使人工智能更好地服务于审计工作,已成为各类审计组织亟待解决的问题。文章在明晰人工智能时代审计伦理内涵的基础之上,从审计主体自身以及审计主体与审计客体、利益相关者、智能审计系统开发者之间关系等视角系统分析了人工智能时代审计伦理危机的表征,并基于伦理原则构建、政策与制度、数据与技术、个人与组织等层面探索了人工智能时代审计伦理危机的治理路径,旨在为人工智能时代审计伦理危机的预防、监测和控制提供理论参考和实践借鉴。  相似文献   

13.
人工智能训练数据制度的构建,应置于“智能涌现”的观察视角之中。“涌现现象”和“涌现论”在不同学科都是传统命题,而在人工智能时代“智能涌现”又成为新的关注焦点。对于训练的数据,应注重著作权保护和个人信息保护,但同时亦应在合法框架之下尽可能采集大体量数据和高质量数据,多元数据采集主体负有一系列义务。对于数据的训练,则旨在突出数据的利用规则,通过价值嵌入与技术支撑,防止“智能叛变”,实现数据训练目标,并直接影响人工智能的“输出端”。训练数据制度的构建内嵌于人工智能治理之中,在遵循人工智能伦理准则的基础上,“好的数据”原则应成为一个新视角与新范式,通过涵盖“伦理”之内与之外的实践,使人工智能中的数据制度超越抽象性而更具实践性。  相似文献   

14.
人工智能赋能教育是技术发展的时代必然,但在智能技术与教育的融合过程中,教育技术、师生关系以及教育环境等方面也会产生新的伦理风险。从理论上说,教育技术运用方面的伦理风险,主要根源于由认知受限而导致的算法黑箱、由文化偏见而引致的算法歧视、由智能技术法制缺位而引发的伦理治理受阻;师生关系方面的伦理风险,主要根源于教师、学生以及师生等伦理关系的错位;教育环境方面的伦理风险,主要根源于由价值歧视导致的社会公平正义缺失,从而引发更深层次的教育不公平。因而,在人工智能赋能教育过程中,一方面要理性看待已经出现或可能会出现的伦理困境,另一方面要在倡导智能技术和教育融合共生的基础上,从加强技术支撑和伦理规范建设、构建新型师生伦理空间、明晰智能教育伦理责任和提升师生智能素养等四个方面,构建人工智能教育伦理治理新范式,以防患于未然。  相似文献   

15.
近年来人工智能创作所取得的成果,正逐步凿破“人机界限”,这不仅为文坛带来了空前的危机感,也引发了诸多以人工智能创作合法性为中心的论战。但细究之下,这些争论多数却成为一种立场的偏执与抉择,反而遮蔽了不同技术朝向下人工智能与人类文学关系这一真正根源性的问题。当人类迈入与信息技术关联更为密切的“后疫情时代”,人工智能创作的存在与应用既成广泛现实,则人文知识界理应超越人类中心主义和人工智能“类人化”发展的单一标准,也应摆脱“弗兰肯斯坦式”的盲目惊惶,转而充分利用其技术力量,对当下文学状态进行清理与革新,促成人类创作的优势巩固和有效转轨。  相似文献   

16.
人工智能在教育领域掀起了风潮,对大学生思想政治教育产生了深刻影响。在人工智能时代,大学生思想政治教育应变革并树立智慧教育观、智慧教学观和智慧学习观。人工智能使大学生思想政治教育学习空间一体化、大规模个性化成为可能,在增强实效性、提升获得感、实现“三全”育人机遇的同时,也面临着人工智能冲击思想政治教育者地位、大学生主体性缺失、人工智能技术融入困难和引发法律与伦理危机等挑战。为实现人工智能时代大学生思想政治教育的智慧发展,应加强制度建设、加快构建智慧校园、树立数据思维、加强教师队伍建设和精准构建学生数字画像。  相似文献   

17.
在人工智能新闻时代,智能算法深度嵌入新闻生产、分发和反馈环节,成为“人—机”互动中与人类主体相映照的非人类行动者,在人的知觉经验和行为实践上具有居间调解的道德意蕴。在对三种媒介技术观进行辨析的基础上,可以从道德行动体的界定标准、道德主体的可能性两个层面分析算法的道德行动体功能。在技术调解理论下,算法技术具有成为道德行动者的可行性,判断的标准是在“人—技术”关联的情境中考察其意向性和自主性。算法技术混合意向性和自主性构成其道德主体的必要条件,智能算法在目前算得上是一种功能型的道德行动体。智能算法的道德行动体功能及其可能性分析,对于未来人工智能新闻伦理治理理念和路径转型具有积极意义。  相似文献   

18.
解决人工智能机器人权利的理论问题,对未来法律发展和制度措置尤为关键。从后人类主义的平权、扩权实践,人机相容的立场,人工智能机器人的法律权利造反能力来看,赋予人工智能机器人权利是理论可证的。对于人工智能机器人的权利类型,可赋予人工智能机器人“电子人”法律人格,但基于人工智能机器人的实力差异、发展阶段差别,应多层次、差序化地进行赋权。另外,对人工智能权利限制在一定界限范围内赋予,预防人工智能机器人对人的伤害,也是解决人工智能机器人赋权难以解决问题的路径。  相似文献   

19.
人们对于人工智能的未来有很多设想,其中有两种设想很具有代表性。所谓“慈爱的机器”是一种技术乌托邦式的未来幻想,一种仁慈的技术统治维护着全面的和谐。人工智能作为一种“交际的工具”,对未来的想象也勾勒出了一个平衡的社会,但它颠倒了(前一种设想)影响的顺序:一个交际性的社会为交际行为塑造了相关的技术。但事实是,没有任何一个程序能够满足为所有人都能够接受的普遍规则。人类不需要担心人工智能会变成一个邪恶的还是仁慈的东西,因为人工智能技术原则上不具备邪恶和仁慈的能力。但人工智能可以侵入人类的自主性,以致达到一种无法容忍的程度。  相似文献   

20.
本文以儒家思想传统下的公私概念为中心,着重讨论儒家公私概念在人伦维度上的含义。研究比较了儒家与法家思想脉络下公私概念的不同语义,进而区分出儒家公私概念在人伦层次上的双重内涵:第一,公私概念经历了从经验的“君-臣”关系到抽象的“尊-卑”秩序的演变,后者成为建构儒家关系伦理的基本原则;第二,人伦性的“私”,以及与之相应的社会伦理,也构成了儒家相当重要的“公”的内容。传统儒家所强调的“公”的价值,在人伦层次的理解维度上,恰恰体现为对孝悌忠信等所谓“私人的道德”的践行。由此,本文也对社会学经典概念“差序格局”背后的社会伦理含义进行了思想史溯源式理解。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号