首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
人工智能在推动人类进步与社会发展的过程中扮演着越来越重要的角色。人工智能在改变人类生产生活方式的同时,也不可避免地带来许多潜在风险和社会问题。人工智能的发展可能造成责任主体不清晰、潜在风险因素增多、人的异化现象加剧、道德主体不明确等问题。保障人工智能的安全使用,实现人工智能的良性健康发展,需要确立人工智能发展的基本伦理原则,加强对人工智能发展的价值规范和道德引导,制定人工智能伦理的相关制度。  相似文献   

2.
随着经济社会的发展,人工智能逐渐深入千家万户,其伦理问题日益为人们所关注。然而,人工智能伦理的伪命题倾向、符号漂移倾向与责任泛化倾向等凸显了当前人工智能伦理的价值表象之困境,主要原因是其人伦本质受到了一定程度的遮蔽。保护隐私,本质上是保护人工智能对象人的隐私;防止偏见歧视,本质上是防止人工智能当事人的偏见歧视;促进公平,本质上是促进人工智能所涉及的弱势人群的公平,等等。这都确证了人工智能伦理的人伦本质。因此,在实践中着眼于人,尤其是提升人工智能当事人的伦理认知、促进其伦理行为之改善、矫正其严重伦理错误等,方可实现人工智能伦理的人伦复归。加强人工智能伦理的人伦本质探析,在理论上对于揭示人工智能伦理的本质规律,推进人工智能伦理研究系统深化,在实践上对于强化人工智能当事人的责任担当、实现社会善治、满足人对美好生活的追求等等,均具有必要的、积极的理论价值与现实意义。  相似文献   

3.
人工智能技术增进社会福祉和进步的同时,伴随着人机边界模糊、责任追究困境、价值鸿沟扩大和技术过度依赖等伦理风险。人工智能伦理风险的生成有其内在逻辑。人工智能伦理风险的深层性、复杂性等特征契合了协同治理的要求。协同治理范式是人工智能伦理风险治理具有可行性的新探索。推进人工智能伦理风险的协同治理,应构建多元协同组织,形成以政府为核心,技术专家、社会组织、研究机构和公众等共同参与的风险治理自组织系统。在此基础上,通过夯实协同治理条件、增强协同治理参量提升人工智能伦理风险治理效能,促进人工智能伦理风险的整体性治理。  相似文献   

4.
ChatGPT热潮下的教育伦理是ChatGPT等人工智能技术在教育领域开发、应用与治理过程中,教育智能体——教育参与者与智能机器——应该遵循的道德关系、伦理准则及行为规范。教育“善”是人工智能时代教育伦理的内在属性和集中彰显。然而,随着ChatGPT等人工智能技术与教育的融合,引发了一系列显在和潜在的教育伦理风险,表现为技术向“善”趋于异化、个体崇“善”走向衰微、社会趋“善”面临溃散等。为促进教育向“善”发展,有效防控ChatGPT运用于教育的伦理风险,应改良智能技术,加快人机双师协同育人;回归人性本真,敦促德性良知重返人心;匡扶社会正义,促进教育优质均衡发展。  相似文献   

5.
人工智能赋能教育是技术发展的时代必然,但在智能技术与教育的融合过程中,教育技术、师生关系以及教育环境等方面也会产生新的伦理风险。从理论上说,教育技术运用方面的伦理风险,主要根源于由认知受限而导致的算法黑箱、由文化偏见而引致的算法歧视、由智能技术法制缺位而引发的伦理治理受阻;师生关系方面的伦理风险,主要根源于教师、学生以及师生等伦理关系的错位;教育环境方面的伦理风险,主要根源于由价值歧视导致的社会公平正义缺失,从而引发更深层次的教育不公平。因而,在人工智能赋能教育过程中,一方面要理性看待已经出现或可能会出现的伦理困境,另一方面要在倡导智能技术和教育融合共生的基础上,从加强技术支撑和伦理规范建设、构建新型师生伦理空间、明晰智能教育伦理责任和提升师生智能素养等四个方面,构建人工智能教育伦理治理新范式,以防患于未然。  相似文献   

6.
在人工智能伦理风险防范研究受到广泛关注的时代背景下,需要深入思考并澄清相关研究中的某些基础性问题。虽然人工智能伦理风险防范研究目前尚处于初创阶段,但具有极其重要的社会意义,同时也是一项长期任务。人工智能伦理风险防范研究的战略目标是澄清伦理风险,采取灵活多样的措施防范伦理风险,并积极参与人工智能国际治理,为人工智能科技发展提供伦理支持。当前,需要从拓宽理论基础、合理评估伦理风险、实现伦理设计与解决核心伦理风险等重要任务入手,切实推动人工智能伦理风险防范研究走向深入。  相似文献   

7.
鲁芳 《中州学刊》2023,(6):120-126
人工智能时代日常生活伦理治理面临新的难题:人工智能对日常生活的深度控制以及人对人工智能的过度依赖使人的自由受到遏制,人愈加成为片面发展的人;日常生活组织化程度降低挑战集体主义的日常生活根基,日常活动的人工智能化弱化了人与人之间的日常联系,使伦理治理价值导向难度增大;由于日常生活伦理关系走向消隐,日常生活伦理治理对象呈现出复杂隐蔽的特征;由于在人工智能会不会产生自由意志、人工智能执行的是谁的自由意志等问题上存在复杂性和不确定性,由人工智能活动所带来的道德责任归属难以确定。加强人工智能时代日常生活的伦理治理,需要规范人工智能的价值遵循,构建共同的组织化的日常生活,强化日常生活主体的道德自觉,构建有效的日常生活伦理治理体系。  相似文献   

8.
在技术风险社会,技术主体在履行责任时往往会遇到伦理困境,所以技术主体伦理成为技术伦理的重要话题,它是对技术研发、运用以及运用后果等一系列技术过程中技术主体作用的伦理反思。文章分析了技术主体伦理构建的必要性:人与技术协调发展的客观要求、增强技术主体道德责任的重要途径、构建和谐社会的应有之义。在此基础上,认为明确、可行、合理的技术主体伦理原则对于指导技术主体走出伦理困境极为重要。为此,提出几条原则:“人与自然和谐统一”、“自律与他律相结合”、“主体愿用(受用)”、“技术风险即命令”等,以期实现技术价值认同、技术灾难教育素质化及技术德性“经营”的目标,而构建技术主体伦理是真正有效解决技术伦理问题的核心所在。  相似文献   

9.
文章基于功能、关系与本体的HMC研究框架,对ChatGPT的应用及影响进行反思与探讨。从功能维度看,ChatGPT以“拟人际传播”的形态发挥部分人际传播功能,却无法替代人际交流,其可以无限靠近“拟人化表象”,但仍具有不可克服的固化模式与不可控偏向的风险。从关系维度看,ChatGPT生成的人机关系类型能够提供人际传播无法达成的使用满足,也将扩大伦理风险;AI的社会行动者属性仅存在于现象层面,与人类行动者具有本质差别,人机传播并不能真正实现主体间关系;人机传播对平台的赋权将加剧数字隐私风险和对用户的控制力,形成“人—AI—平台”三者间的多向控制关系;人机传播以及更大范围的智能传播生态正在构建全新的网络传播逻辑,预示着未来社交媒体文化的终结与连接逻辑的嬗变。从本体维度看,逐渐走向通用人工智能的ChatGPT要求对人的价值在哲学层面进行重思,人不再是万物的尺度,人与机器将走上双向影响、边界消融、互为尺度的未来。  相似文献   

10.
人工智能是否可为法律主体的问题,关涉民事主体制度的调整,也为解决人工智能所引发的具体法律问题提供不同思路,对此进行探讨有重要意义。通过对既有“人工智能”的各种解读以及“智能”“人工”的分析可知,人工智能的核心在于,使机器或其他人工系统完成需要人类智能的特定任务。在民法上,自然人成为民法上的“人”是基于人类作为一种理性存在的伦理考量;而作为实证法概念,法人是法律构造物,其成为权利主体则主要源于社会经济现实的需要。与自然人相比,现阶段的人工智能虽然一定程度上体现了理性的特征,但并未达到成为理性主体的程度,未来的强人工智能存在成为理性主体之可能。当然,是否具有理性并非决定人工智能可否为法律主体的唯一因素,权利义务的可归属性是主体的基本要求。随着人工智能技术的发展,人工智能的自主性逐渐增强,未来可基于现实需求从侵权责任主体开始,承认人工智能的法律主体地位。  相似文献   

11.
在风险已成为影响人类生存、生活重要因素的技术时代,以后果确认责任承担方式的责任伦理学遭遇到了前所未有的理论困境和实践难题,表现出了"有组织地不负责任"状况。这种状况的产生,不仅表明了技术时代风险的人为性、结构性、不易控制性、潜在性等特征,而且也表明了责任伦理本身的抽象性、建构性及远离人生活的现实性等特征。个体主体作为伦理责任的真实承担者是从事实际活动的现实个人,只有个体伦理责任能力的生成及个体伦理责任行为的落实,才能从根本上使责任伦理规避风险成为可能。在技术风险时代,个体伦理责任是全面的、丰富的,它不仅表现为个体主体对自身、他人及社会的责任,而且也表现为对自然及未来人的责任。新个体伦理责任是以个体主体对自身责任为核心的"五位一体"的新结构,具有自然、社会、价值三重向度的生态合理性。  相似文献   

12.
刘建生  李纪元 《南方论刊》2023,(5):16-18+27
人工智能技术在更新换代的过程中诞生了ChatGPT,在增进人类福祉的同时也产生了追责困难与伦理失范风险、价值失衡不断增大、技术高度异化等诸多安全风险。因此,本论文试图以ChatGPT为视角,对ChatGPT所带来的优势和弊端进行全面分析,并结合人工智能安全风险进行描述,探索协同治理人工智能安全风险的途径。要推动人工智能安全风险的协同治理,必须建立一个以国家为主体,由技术专家、社会组织、科研机构和社会大众组成的“自我治理体系”。然后,进一步强化协同治理条件,增强协同治理参数,提高其治理效率,从而推动人工智能安全风险治理的整体化,以更好的姿态迎接人工智能技术所带来的机遇与挑战。  相似文献   

13.
马方  唐娜 《兰州学刊》2023,(11):87-100
随着人工智能技术的兴起,如今全球范围内都在积极推进大数据侦查发展,其中以算法为支撑的预测性侦查模式发展最为迅速。人工智能技术正在对刑事司法领域产生重新塑造的效应,但与此同时,人工智能技术本身具有的内在客观特征——前瞻性、相关性、技术性等,也带来了数据风险、隐私风险以及算法风险等。社会安全风险视域下,应实现预测性侦查的多元治理:重视数据治理,发挥预测性侦查的预测价值;坚持法律治理,建立监督委员会以保护公民个人隐私;强化技术治理,公开算法决策以增强公众信任度。  相似文献   

14.
环境智能是可以感应和反馈人的需要和意图,能够主动收集个人资料并进行处理和做出决策的电子系统。在许多领域已显示出十分广阔的应用前景,如家庭智能系统、各种网站上加载的智能应用程序、以智能手机为代表的智能通讯产品。但是环境智能的发展应用会引发伦理问题。所以伦理学者要负担起社会责任来预测和预防环境智能伦理问题。因为这将会大大减少这些问题大量出现后的治理成本,且更加有益于环境智能技术的健康发展。而用未来学和延展认知理论对环境智能伦理问题进行预测分析使我们认识到,其伦理问题主要来自环境智能对个人信息隐私的侵犯。所以,提高隐私保护意识、把信息隐私权拓展为信息自决权和从人格权利出发合理选择隐私增强技术是环境智能伦理问题的治理路径。  相似文献   

15.
[目的/意义]人工智能技术悄然拉开了第四次工业革命的大幕,为各行各业的发展带来了革命性变化。但该项技术的法律规制和标准规范建设尚不完善,引发了全球对于人工智能伦理原则与规范体系的探索与思考,各国学(协)会相继发布了人工智能伦理规范或政策文件。本研究全面分析和梳理当前认可度较高的人工智能伦理原则的核心框架,旨在为各国制定和完善人工智能伦理规范提供参考。[方法/过程]运用网络调研法、内容分析法和比较研究法,在综合考虑影响力、国别和可获取性等因素的基础上,选取近年各国学(协)会已发布的有关人工智能伦理原则的权威政策文件,提炼出其中涉及的人工智能伦理原则的核心框架和主要内容。[结果/结论]人工智能领域主要包括:造福原则、责任原则、公平正义原则、安全原则、尊重人的自主性原则、隐私与个人信息保护原则、透明性原则和可靠性原则等8项人工智能伦理原则。  相似文献   

16.
随着物联网、人工智能和大数据等新兴技术的发展,家庭传统设备逐渐被赋予新的技术架构,使其能够感知周围环境和自动决策,智能家居产品快速发展并逐步进入寻常百姓家。智能设备逐步将家庭成员从繁重的家务劳动中解脱出来,同时也衍生出伦理风险,表现为技术剧本的性别歧视、机器神话的虚无主义、家庭时间的去休闲化、家庭空间的去秘密化、万物互联的数据殖民主义等风险样态。研究基于STS视角透析智能家居伦理风险的成因,既有智能技术自在的不确定性,也有技术营销、社会环境、技术受众的因素。智能家居技术的良性发展需要构建涵盖政府、市场和社会等多元主体的治理体系,实现智能家居从开发到使用的全过程治理,引导智能家居更好地为人类福祉服务。  相似文献   

17.
人类社会已悄然迈入大数据时代,大数据技术在给社会带来多方面积极变化的同时,其野蛮生长与广泛运用也给人们的隐私保护带来了一系列伦理困境.大数据时代隐私保护的伦理困境表现为:数据挖掘与隐私信息的整合、数据预测与隐私信息的呈现、数据监控与隐私信息的透明、数据分享与隐私信息的扩散等.大数据时代隐私保护伦理困境的生成机理,主要源于科学技术的负效应、财富创造的关联性、规约机制的滞后性、隐私观念的流变性等因素.治理大数据时代隐私保护伦理困境的基本理路包括:重构科技伦理,促进工具理性与价值理性的统一;完善制度伦理,促进法治他律与行业自律的统一;降低监控风险,促进知情同意与结果控制的统一;建构责任伦理,促进权利与义务的统一.  相似文献   

18.
人工智能的大范围应用正在重构经济社会行为规则和组织运行方式,其在促进经济高质量增长和实现有效社会治理的同时也带来诸多严重的经济社会风险。人工智能系统的黑箱模式及其不可解释性是风险产生的主要原因,并且人工智能应用风险是由系统运行不同环节的风险所共同构成的。人工智能监管治理需要树立以人为中心的基本价值取向,坚持透明度、安全性、公平性和问责性的基本原则,建立以风险为基础的全生命周期监管治理体制,强化系统使用者的风险治理主体责任,并突出技术性方案的基础性作用。  相似文献   

19.
厘清政府数据开放中隐私风险的形成过程,是防范化解政府数据开放中隐私风险问题的前提与基础。借鉴系统视域下一般风险的形成框架,可以构建政府数据开放中隐私风险形成的“酝酿—演化—放大”理论分析框架。政府数据开放中隐私风险的形成缘起于政府数据开放这一复杂系统中积累的若干隐私风险因素,进而沿着隐私风险的自生、隐私风险的传导、隐私风险的衍生等路径演化并产生一系列不良后果,经过隐私风险信号的放大、隐私风险感知的放大、隐私风险社会反应的放大、隐私风险结果的放大等“多阶”隐私风险的放大,最终产生隐私风险。政府部门要加强对隐私风险因素源头的处置工作,积极干预和阻截隐私风险演化链条,在隐私风险放大的各个阶段采取积极型应对举措,从整体上提高政府数据开放中隐私风险的防治能力。  相似文献   

20.
智能环境是人工智能的重要分支。智能环境伦理的基本内容有保护隐私、安全、尊重自主(自由)、公平、负责任、增进人类福祉等。将智能环境伦理融入信息科学类专业思想道德与法治课程中,不仅可以增强课程的亲和力,还可以增加课程的深度,同时也能够促进学生形成智能环境伦理意识。智能环境伦理可以融入到社会主义核心价值观、坚持以为人民服务为核心、我国宪法法律规定的权利,职业生活中的道德规范等课程内容讲解中。为了将智能环境伦理更好地融入到信息科学类专业思想道德与法治课程之中,思想道德与法治课教师应积极学习智能环境伦理知识,做好融入教学设计,注重教学艺术,构建好融入反馈机制。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号