首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
负责任人工智能作为人类对人工智能未来发展图景的一种规划,将责任与技术进行内在性的深度关联。技术的可信度与人类对自身的信任是发展负责任的人工智能必须解决的两个问题,而这两个问题的核心在于信任。就负责任人工智能而言,信任作为一条主线,以理念的形式出现在它的目标、趋势、任务之中,并覆盖了与该技术发展的所有相关方;信任作为一种价值观,为负责任人工智能发展共识的形成提供基础;信任作为一种生态系统,为负责任人工智能的发展营造合适的环境。因此,关于负责任人工智能的信任构建应从人工智能的相关方及其技术特征出发,以全过程、全范围的模式来寻求人工智能和人类之间信任的构筑途径,进而确保人工智能向善。  相似文献   

2.
面对人工智能技术的重大突破,尤其是ChatGPT等新一代人工智能在社会生活各个领域的广泛应用,审视、预判和防范ChatGPT类生成式人工智能的意识形态风险成为一个重要的理论课题。ChatGPT类生成式人工智能环境下的意识形态传播具有可塑性、可量化性、个性化和精准预测性等特点。ChatGPT类生成式人工智能介入意识形态传播的技术路径体现在技术与思想的耦合、预测性的算法推荐、个性化的话语创设和赋权性的网络传播等方面。ChatGPT类生成式人工智能介入意识形态传播会带来算法歧视、数据失真、算法监控和算法反噬等潜在的风险。应通过统筹科技伦理规制算法推荐、设计主流意识形态驾驭算法、协调传播主体与客体的价值需求、强化大数据技术检测与治理等,加强对ChatGPT类生成式人工智能意识形态风险的防控。  相似文献   

3.
组织符号是形成组织传播活动的基础。组织符号建构组织成员共有的价值观和信念,并在很大程度上决定组织成员的行为方式。组织传播中的伦理精神与组织符号中的伦理意蕴主要体现组织关系建构、组织说服力和组织控制诸方面。本文揭示了组织传播符号建构伦理意义的各种复杂方式,以及这种伦理意蕴在组织中运用的重要性。  相似文献   

4.
人工智能技术在新闻传播教育领域的应用,驱使新闻传播教育发生了实践转向,调整了教育目标,创新了教学方式,并对教学场景进行了升级。随着人工智能技术的继续深入,未来的新闻传播教育应改变教育理念,从实用性为主的传统教育理念向智能化思维引领下的现代教育理念转型,培养兼具功能性和可迁移性的新闻智慧人才,并契合新闻传播教育的特性实现新闻传播教育与人工智能技术的深度融合。人工智能赋能新闻传播教育的路径包括数据赋能、场景赋能和个体赋能三个方面:通过数据赋能增强数据思维应用能力,通过场景赋能构建“具身化”虚拟教学情景,通过个体赋能定制“千人千面”个性化学习模式。  相似文献   

5.
人工智能日益成为新一轮产业革命的引擎,其通过技术牵引与场景驱动,正重塑着审计工作的模式和流程。将人工智能应用于审计活动能够大幅提升审计效能,但同时也产生了严重的伦理危机。如何治理人工智能时代下的审计伦理危机,以使人工智能更好地服务于审计工作,已成为各类审计组织亟待解决的问题。文章在明晰人工智能时代审计伦理内涵的基础之上,从审计主体自身以及审计主体与审计客体、利益相关者、智能审计系统开发者之间关系等视角系统分析了人工智能时代审计伦理危机的表征,并基于伦理原则构建、政策与制度、数据与技术、个人与组织等层面探索了人工智能时代审计伦理危机的治理路径,旨在为人工智能时代审计伦理危机的预防、监测和控制提供理论参考和实践借鉴。  相似文献   

6.
人工智能伦理制度化是将人工智能伦理价值和要求转化为国家规范化、常态化的正式性行动原则、集体规约与管理制度的过程,探索人工智能伦理制度化的影响因素及其生成逻辑是完善我国人工智能伦理治理体系的关键之义。运用扎根理论对我国人工智能伦理相关政策文本进行分析,构建出“条件—工具—行为”的影响因素模型。研究发现,风险情境、价值感知和政治势能是人工智能伦理制度化的重要发生条件,经验准备、保障基础和配套支持是人工智能伦理制度化的必要辅助工具,国际竞合和多元协作是人工智能伦理制度化的主要联结行为。三者发挥驱动力、托动力和助动力的合力作用,共同推进我国人工智能伦理制度化建设进程。  相似文献   

7.
[目的/意义]人工智能技术悄然拉开了第四次工业革命的大幕,为各行各业的发展带来了革命性变化。但该项技术的法律规制和标准规范建设尚不完善,引发了全球对于人工智能伦理原则与规范体系的探索与思考,各国学(协)会相继发布了人工智能伦理规范或政策文件。本研究全面分析和梳理当前认可度较高的人工智能伦理原则的核心框架,旨在为各国制定和完善人工智能伦理规范提供参考。[方法/过程]运用网络调研法、内容分析法和比较研究法,在综合考虑影响力、国别和可获取性等因素的基础上,选取近年各国学(协)会已发布的有关人工智能伦理原则的权威政策文件,提炼出其中涉及的人工智能伦理原则的核心框架和主要内容。[结果/结论]人工智能领域主要包括:造福原则、责任原则、公平正义原则、安全原则、尊重人的自主性原则、隐私与个人信息保护原则、透明性原则和可靠性原则等8项人工智能伦理原则。  相似文献   

8.
人工智能赋能教育是技术发展的时代必然,但在智能技术与教育的融合过程中,教育技术、师生关系以及教育环境等方面也会产生新的伦理风险。从理论上说,教育技术运用方面的伦理风险,主要根源于由认知受限而导致的算法黑箱、由文化偏见而引致的算法歧视、由智能技术法制缺位而引发的伦理治理受阻;师生关系方面的伦理风险,主要根源于教师、学生以及师生等伦理关系的错位;教育环境方面的伦理风险,主要根源于由价值歧视导致的社会公平正义缺失,从而引发更深层次的教育不公平。因而,在人工智能赋能教育过程中,一方面要理性看待已经出现或可能会出现的伦理困境,另一方面要在倡导智能技术和教育融合共生的基础上,从加强技术支撑和伦理规范建设、构建新型师生伦理空间、明晰智能教育伦理责任和提升师生智能素养等四个方面,构建人工智能教育伦理治理新范式,以防患于未然。  相似文献   

9.
人工智能赋能教育教学已经成为教育发展的重要驱动力.借助于融媒体智能技术的迭代整合和创新,人工智能技术被广泛应用于大学教学场域,形成了新的教学模式和形态,具有自主决策和行为的人工智能开始被视为道德主体.传统大学教学在被深刻重构的同时、发生着巨大变革,也引发了人们关于教学伦理问题的思考.随着人工智能深度嵌入大学教学场域,人工智能技术导致教学有限理性行为、传统教学优势消解、教学公平遭遇新挑战、隐私侵犯等一系列典型伦理问题开始凸显.为此,加强大学教学伦理治理应立足长远,致力于构建大学教学良性伦理秩序.在实践中坚持系统性治理理念,从价值秩序、制度秩序和心灵秩序三个维度进行构建,其中价值秩序是基础、制度秩序是支撑、心灵秩序是追求,有机形成大学教学治理体系的结构性力量.  相似文献   

10.
程鹏  谭浩 《理论界》2023,(1):42-48
当下人工智能领域发展迅速,尤其在专用人工智能方面取得了重大的技术成果之后,伴随着这一技术的不断创新和积累,人们开始对其有了更多的期待。当今通用人工智能技术仍然处于发展的初级阶段,虽然整体上取得了一些技术进步,如神经网络、小样本学习等,但仍然只是探索通往通用人工智能的可能性进路。由于人工智能的快速发展和自身的特征,我们更需要负责任地前瞻性地探讨通用人工智能发展所带来的伦理问题。其中之一就是,通用人工智能的出现势必会对人类社会的价值伦理体系造成巨大的影响,而人工智能的出现挑战了一直以来的人类中心主义的伦理价值体系。于是,以什么视角去看待通用人工智能将是一个重要问题。  相似文献   

11.
随着经济社会的发展,人工智能逐渐深入千家万户,其伦理问题日益为人们所关注。然而,人工智能伦理的伪命题倾向、符号漂移倾向与责任泛化倾向等凸显了当前人工智能伦理的价值表象之困境,主要原因是其人伦本质受到了一定程度的遮蔽。保护隐私,本质上是保护人工智能对象人的隐私;防止偏见歧视,本质上是防止人工智能当事人的偏见歧视;促进公平,本质上是促进人工智能所涉及的弱势人群的公平,等等。这都确证了人工智能伦理的人伦本质。因此,在实践中着眼于人,尤其是提升人工智能当事人的伦理认知、促进其伦理行为之改善、矫正其严重伦理错误等,方可实现人工智能伦理的人伦复归。加强人工智能伦理的人伦本质探析,在理论上对于揭示人工智能伦理的本质规律,推进人工智能伦理研究系统深化,在实践上对于强化人工智能当事人的责任担当、实现社会善治、满足人对美好生活的追求等等,均具有必要的、积极的理论价值与现实意义。  相似文献   

12.
随着各行业智能化水平不断提升,我国司法系统在面对时代的剧烈变化时,展现了对智能化建设和司法改革的魄力与决心。人工智能可以在“类案类判”和“及时公正”等维度促进可视化的司法公正,但同时也在与司法活动交叉结合的过程中产生了诸如数据算法缺陷弱化公正基础、技术的价值中立性无法真正满足公民个案公正的诉求、技术的工具性消解司法公正本意的风险。为应对以上风险,可以采取大数据与算法规范、制定人工智能融入司法的伦理规范以及将法律论证嵌入司法人工智能系统等措施,在展现司法人工智能优势的同时,实现司法公正的最大化。  相似文献   

13.
人工智能技术增进社会福祉和进步的同时,伴随着人机边界模糊、责任追究困境、价值鸿沟扩大和技术过度依赖等伦理风险。人工智能伦理风险的生成有其内在逻辑。人工智能伦理风险的深层性、复杂性等特征契合了协同治理的要求。协同治理范式是人工智能伦理风险治理具有可行性的新探索。推进人工智能伦理风险的协同治理,应构建多元协同组织,形成以政府为核心,技术专家、社会组织、研究机构和公众等共同参与的风险治理自组织系统。在此基础上,通过夯实协同治理条件、增强协同治理参量提升人工智能伦理风险治理效能,促进人工智能伦理风险的整体性治理。  相似文献   

14.
人工智能的流派大体上可分为符号主义、联结主义和行为主义,它们在历史上与知识产权法各自存在相应的联系.20世纪50年代开始的符号主义人工智能以符号化的知识表征和逻辑推理为主要特点,客观上为知识产权法统一本质的概括提供了新的理论,并可以进行知识产权法专家系统的建构.20世纪80年代兴起的联结主义人工智能以模拟人脑的神经网络和学习过程为主要特点,与知识产权法具有共同的"鼓励学习"宗旨,又在专利客体、创造性审查、创新本质界定和法律伦理等方面提出了挑战.与互联网联系更加密切的行为主义人工智能强调智能行为是适应周围环境的进化行为,其契合了网络时代知识产权立法一定程度的"行为规制"转向,也对相关主体的权利博弈、保护对象的进化升级、智能交互行为的法律规制等带来了挑战.不同流派的人工智能既是知识产权法的调整对象又是其完善工具,它们应当彼此进行深度融合.  相似文献   

15.
人工智能伦理研究最根本的目的是增进人类的繁荣福祉,但是,学界存在着不同的理论主张:“人工智能体中心论”主张应当使人工智能体符合人类伦理规范,有必要对它们进行伦理设计、监管;“关系情境主义”主张人是人工智能伦理的中心而非智能体,人工智能伦理应当是关于“人类善的伦理”;马克思主义道德学说的“语境主义”则从唯物史观的高度将生产力、道德、人的自由联系起来,从而从新的高度奠定了人工智能伦理范式基础。  相似文献   

16.
在人工智能伦理风险防范研究受到广泛关注的时代背景下,需要深入思考并澄清相关研究中的某些基础性问题。虽然人工智能伦理风险防范研究目前尚处于初创阶段,但具有极其重要的社会意义,同时也是一项长期任务。人工智能伦理风险防范研究的战略目标是澄清伦理风险,采取灵活多样的措施防范伦理风险,并积极参与人工智能国际治理,为人工智能科技发展提供伦理支持。当前,需要从拓宽理论基础、合理评估伦理风险、实现伦理设计与解决核心伦理风险等重要任务入手,切实推动人工智能伦理风险防范研究走向深入。  相似文献   

17.
在第三次人工智能发展的浪潮中,以大数据为依托的人工智能因其深度学习和强化学习能力的提升不断冲击着人们的想象空间,也开始深刻地影响人类现实生活。我们需要在构建人工智能法律规则时考虑如何实现算法的透明性和可解释性、算法的正义问题,以及是否应给予人工智能系统以独立的法律地位及其对个人隐私、自由尊严等的影响。从人工智能法律规制整体建构的角度来看,应从立法、司法裁判和法律效果评价环节嵌入伦理性考量因素,将具体的道德考量因素转化为可以实施的法律原则乃至法律规制,同时发挥人在司法裁判过程中的主观能动性,防止过度依赖人工智能辅助系统,从而保障司法裁判结果的公平公正。  相似文献   

18.
随着人工智能的广泛应用,其在为人类生产和生活带来便利的同时,也引发了数据隐私泄露与算法偏见、责任主体冲击与边界模糊、主客体异化与信任危机、软法缺陷与硬法缺失等伦理风险。规制人工智能的伦理风险,须优化人工智能技术设计,注重隐私保护与社会公正;赋予人工智能以社会角色,划定人与智能的责任边界;构筑人工智能伦理规约,强化人的主体地位与诚信品质;加快人工智能的法制化进程,健全智能伦理制度体系,从而促使“人—机”和谐共处。  相似文献   

19.
本文从中西伦理价值观的人性基础、目标、基本取向和实现机制等几个基本方面对中西伦理价值观体系的不同进行了比较系统的梳理,认为道德之性与自然之性、德性主义与幸福主义、整体主义与个人主义、情感主义与理智主义等几个方面的区别构成了中西伦理价值观体系的主要差异,并由此形成了中西伦理价值观体系的不同理论特质。  相似文献   

20.
中国社会根深蒂固的"亲而信"的人际信任模式正在发生蜕变,然而人际纽带依然是非常重要的本土信任发生基础.在高度分工与异质性的社会中,人们需要进行大量频繁的工具性交往,进而产生了相识而不相熟的人际关系.通过深度访谈和1647份全国范围内的问卷调查,可以发现,介于熟人与生人之间的相识关系正在成为中国人最主要的一种人际关系.而以情感和理性为中介变量,则可将相识关系与家人、熟人、生人三种传统的人际关系纳入人际信任发生机制的理论模型.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号