首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
人工智能技术增进社会福祉和进步的同时,伴随着人机边界模糊、责任追究困境、价值鸿沟扩大和技术过度依赖等伦理风险。人工智能伦理风险的生成有其内在逻辑。人工智能伦理风险的深层性、复杂性等特征契合了协同治理的要求。协同治理范式是人工智能伦理风险治理具有可行性的新探索。推进人工智能伦理风险的协同治理,应构建多元协同组织,形成以政府为核心,技术专家、社会组织、研究机构和公众等共同参与的风险治理自组织系统。在此基础上,通过夯实协同治理条件、增强协同治理参量提升人工智能伦理风险治理效能,促进人工智能伦理风险的整体性治理。  相似文献   

2.
人工智能伦理制度化是将人工智能伦理价值和要求转化为国家规范化、常态化的正式性行动原则、集体规约与管理制度的过程,探索人工智能伦理制度化的影响因素及其生成逻辑是完善我国人工智能伦理治理体系的关键之义。运用扎根理论对我国人工智能伦理相关政策文本进行分析,构建出“条件—工具—行为”的影响因素模型。研究发现,风险情境、价值感知和政治势能是人工智能伦理制度化的重要发生条件,经验准备、保障基础和配套支持是人工智能伦理制度化的必要辅助工具,国际竞合和多元协作是人工智能伦理制度化的主要联结行为。三者发挥驱动力、托动力和助动力的合力作用,共同推进我国人工智能伦理制度化建设进程。  相似文献   

3.
鲁芳 《中州学刊》2023,(6):120-126
人工智能时代日常生活伦理治理面临新的难题:人工智能对日常生活的深度控制以及人对人工智能的过度依赖使人的自由受到遏制,人愈加成为片面发展的人;日常生活组织化程度降低挑战集体主义的日常生活根基,日常活动的人工智能化弱化了人与人之间的日常联系,使伦理治理价值导向难度增大;由于日常生活伦理关系走向消隐,日常生活伦理治理对象呈现出复杂隐蔽的特征;由于在人工智能会不会产生自由意志、人工智能执行的是谁的自由意志等问题上存在复杂性和不确定性,由人工智能活动所带来的道德责任归属难以确定。加强人工智能时代日常生活的伦理治理,需要规范人工智能的价值遵循,构建共同的组织化的日常生活,强化日常生活主体的道德自觉,构建有效的日常生活伦理治理体系。  相似文献   

4.
刘建生  李纪元 《南方论刊》2023,(5):16-18+27
人工智能技术在更新换代的过程中诞生了ChatGPT,在增进人类福祉的同时也产生了追责困难与伦理失范风险、价值失衡不断增大、技术高度异化等诸多安全风险。因此,本论文试图以ChatGPT为视角,对ChatGPT所带来的优势和弊端进行全面分析,并结合人工智能安全风险进行描述,探索协同治理人工智能安全风险的途径。要推动人工智能安全风险的协同治理,必须建立一个以国家为主体,由技术专家、社会组织、科研机构和社会大众组成的“自我治理体系”。然后,进一步强化协同治理条件,增强协同治理参数,提高其治理效率,从而推动人工智能安全风险治理的整体化,以更好的姿态迎接人工智能技术所带来的机遇与挑战。  相似文献   

5.
人工智能日益成为新一轮产业革命的引擎,其通过技术牵引与场景驱动,正重塑着审计工作的模式和流程。将人工智能应用于审计活动能够大幅提升审计效能,但同时也产生了严重的伦理危机。如何治理人工智能时代下的审计伦理危机,以使人工智能更好地服务于审计工作,已成为各类审计组织亟待解决的问题。文章在明晰人工智能时代审计伦理内涵的基础之上,从审计主体自身以及审计主体与审计客体、利益相关者、智能审计系统开发者之间关系等视角系统分析了人工智能时代审计伦理危机的表征,并基于伦理原则构建、政策与制度、数据与技术、个人与组织等层面探索了人工智能时代审计伦理危机的治理路径,旨在为人工智能时代审计伦理危机的预防、监测和控制提供理论参考和实践借鉴。  相似文献   

6.
在人工智能伦理风险防范研究受到广泛关注的时代背景下,需要深入思考并澄清相关研究中的某些基础性问题。虽然人工智能伦理风险防范研究目前尚处于初创阶段,但具有极其重要的社会意义,同时也是一项长期任务。人工智能伦理风险防范研究的战略目标是澄清伦理风险,采取灵活多样的措施防范伦理风险,并积极参与人工智能国际治理,为人工智能科技发展提供伦理支持。当前,需要从拓宽理论基础、合理评估伦理风险、实现伦理设计与解决核心伦理风险等重要任务入手,切实推动人工智能伦理风险防范研究走向深入。  相似文献   

7.
人工智能在推动人类进步与社会发展的过程中扮演着越来越重要的角色。人工智能在改变人类生产生活方式的同时,也不可避免地带来许多潜在风险和社会问题。人工智能的发展可能造成责任主体不清晰、潜在风险因素增多、人的异化现象加剧、道德主体不明确等问题。保障人工智能的安全使用,实现人工智能的良性健康发展,需要确立人工智能发展的基本伦理原则,加强对人工智能发展的价值规范和道德引导,制定人工智能伦理的相关制度。  相似文献   

8.
ChatGPT热潮下的教育伦理是ChatGPT等人工智能技术在教育领域开发、应用与治理过程中,教育智能体——教育参与者与智能机器——应该遵循的道德关系、伦理准则及行为规范。教育“善”是人工智能时代教育伦理的内在属性和集中彰显。然而,随着ChatGPT等人工智能技术与教育的融合,引发了一系列显在和潜在的教育伦理风险,表现为技术向“善”趋于异化、个体崇“善”走向衰微、社会趋“善”面临溃散等。为促进教育向“善”发展,有效防控ChatGPT运用于教育的伦理风险,应改良智能技术,加快人机双师协同育人;回归人性本真,敦促德性良知重返人心;匡扶社会正义,促进教育优质均衡发展。  相似文献   

9.
随着人工智能的广泛应用,其在为人类生产和生活带来便利的同时,也引发了数据隐私泄露与算法偏见、责任主体冲击与边界模糊、主客体异化与信任危机、软法缺陷与硬法缺失等伦理风险。规制人工智能的伦理风险,须优化人工智能技术设计,注重隐私保护与社会公正;赋予人工智能以社会角色,划定人与智能的责任边界;构筑人工智能伦理规约,强化人的主体地位与诚信品质;加快人工智能的法制化进程,健全智能伦理制度体系,从而促使“人—机”和谐共处。  相似文献   

10.
随着经济社会的发展,人工智能逐渐深入千家万户,其伦理问题日益为人们所关注。然而,人工智能伦理的伪命题倾向、符号漂移倾向与责任泛化倾向等凸显了当前人工智能伦理的价值表象之困境,主要原因是其人伦本质受到了一定程度的遮蔽。保护隐私,本质上是保护人工智能对象人的隐私;防止偏见歧视,本质上是防止人工智能当事人的偏见歧视;促进公平,本质上是促进人工智能所涉及的弱势人群的公平,等等。这都确证了人工智能伦理的人伦本质。因此,在实践中着眼于人,尤其是提升人工智能当事人的伦理认知、促进其伦理行为之改善、矫正其严重伦理错误等,方可实现人工智能伦理的人伦复归。加强人工智能伦理的人伦本质探析,在理论上对于揭示人工智能伦理的本质规律,推进人工智能伦理研究系统深化,在实践上对于强化人工智能当事人的责任担当、实现社会善治、满足人对美好生活的追求等等,均具有必要的、积极的理论价值与现实意义。  相似文献   

11.
服务型社会治理模式是后工业社会的治理形态,它以信任与合作机制的生成为基本特征,以为社会提供公共服务为根本目的,强调对社会的整合治理。该模式对行政伦理提出了公益至上的公平正义、勇于承担道德责任、实现最广泛的合作与信任等要求。为了有效建设服务型社会治理模式下的行政伦理,可从内部与外部控制入手,加强行政伦理立法;强化行政伦理监督;进行行政伦理宣传,开展行政伦理教育与职业道德培训,培育伦理性的公共行政文化,实施道德激励。  相似文献   

12.
发展当代中国特色社会主义政治经济学,需创新中国特色社会主义政治经济学研究内容.人工智能作为实现经济高质量发展新引擎已在中国特色社会主义经济体系中得到充分发展,必将对中国特色社会主义政治经济学研究内容产生深刻影响.因此,关注人工智能对中国特色社会主义政治经济学研究内容的创新理应成为发展当代中国特色社会主义政治经济学的时代课题.从马克思在《资本论》中揭示的机器观来看,机器与人工智能在生产力维度、生产关系维度、历史维度上的关联性共同构成人工智能创新中国特色社会主义政治经济学研究内容的理论依据,并在现实层面对新时代收入分配结构、劳动者就业、市场经济运行、社会主要矛盾、对外经济关系等方面产生现实影响.为构建中国特色社会主义政治经济学完整体系,促进当代中国经济社会持续发展,应大力推进中国特色社会主义政治经济学各研究内容的智能化创新,逐步实现新时代分配方式智能化改良、生产力智能化提升、生产关系智能化变革、社会主要矛盾智能化调和以及对外经济关系智能化升级.  相似文献   

13.
人工智能赋能教育是技术发展的时代必然,但在智能技术与教育的融合过程中,教育技术、师生关系以及教育环境等方面也会产生新的伦理风险。从理论上说,教育技术运用方面的伦理风险,主要根源于由认知受限而导致的算法黑箱、由文化偏见而引致的算法歧视、由智能技术法制缺位而引发的伦理治理受阻;师生关系方面的伦理风险,主要根源于教师、学生以及师生等伦理关系的错位;教育环境方面的伦理风险,主要根源于由价值歧视导致的社会公平正义缺失,从而引发更深层次的教育不公平。因而,在人工智能赋能教育过程中,一方面要理性看待已经出现或可能会出现的伦理困境,另一方面要在倡导智能技术和教育融合共生的基础上,从加强技术支撑和伦理规范建设、构建新型师生伦理空间、明晰智能教育伦理责任和提升师生智能素养等四个方面,构建人工智能教育伦理治理新范式,以防患于未然。  相似文献   

14.
人工智能正在重塑社会生活,其对知识创新的影响进而对学术职业的挑战值得认真探究。鉴于以ChatGPT为代表的人工智能在自然语言处理方面的显著进步,而语言既是人类的本质特征,也是知识创新的操作系统,本研究以ChatGPT为例从知识创新视角分析人工智能取代人类工作的可能性。研究通过概念分析,进而从创新意向、创新水平与特点、创新伦理三个维度,讨论人类学术工作被机器替代或影响的现实可能性,并对ChatGPT进行测试,验证人工智能承担知识任务的实际效果。研究认为,人工智能不具创新意向,因此知识创新任务仍需由人类发起、主导和审查;在创新水平上,人工智能在承担组合性创新任务中优势与缺陷并存,在承担探索性创新任务上表现最好但难掩瑕疵,它根本上不能胜任变革性创新任务;在创新伦理上,人工智能不具备独立的伦理判断能力而是受制于人类植入机器的代码。相较于其在知识创新方面的表现,当前人工智能在创新伦理方面的表现更弱,无法代替人类,反而为人类知识分子提出了新的思考课题和任务。尽管如此,人工智能正深刻影响着人类的学术生活,人要养成与人工智能有效合作的能力,包括人类智能与机器智能融合的科研思维、设计和操作能力,以及对其...  相似文献   

15.
赵瑜  周江伟 《浙江社会科学》2023,(1):109-118+159-160
近年来,在世界范围内涌现出大量的人工智能治理原则。这些文件通常采取“原则主义”的策略,通过提取“最大公约数”的方法对伦理共识进行清单化的列举。这种策略固然有益于回避争议、促进协同,但也难免在具体情境中陷入概念模糊和自相矛盾。为了明晰概念、澄清语境、促进对话,本文搜集了来自全球各地的88份原则文本,在伦理学理论脉络中定位人工智能治理核心议题和相关主张。研究发现治理原则围绕着价值立场、价值目标和正义原则三个核心问题展开,在不同的理论脉络和现实情境中,构成了一个丰富而系统的问题域。推动人工智能的治理实践,需要在静态的对话框架之上进一步构建动态的规制措施,而整合原则文本的伦理基础和治理框架,有助于推动抽象的伦理主张转变为具体的治理实践,以应对复杂现实情境中的道德选择和行动需求。  相似文献   

16.
人工智能时代,算法在社会领域诱发了一种全新的发展态势,不但深刻地影响着既有的生产关系,而且已经渗透到日常生活的各个角落。但是,在算法全方位赋能社会治理的背后,也蕴藏着一系列内生风险,并由此引发了技术和社会系统之间的剧烈冲突与碰撞。文章基于国内外算法治理领域对算法规则和算法权力的单向度研究,通过文献分析和比较调研的方法,结合公共管理学理论、法学理论等多学科思维,探讨算法规则向算法权力的动态转变。正是这种动态转变加速了算法权力的膨胀,这也催生了大量的算法风险,引发了社会治理的困境。因此,算法治理需要通过约束算法权力进行建构、引导和反思。算法治理的路径包括确立以人为本的治理理念,提高算法的可解释性以及构建多元主体协同的治理体系。  相似文献   

17.
人工智能伦理有很多种不同的研究进路。定位式的研究进路主张通过定位人工智能的社会地位解决人工智能的伦理问题;嵌入式的研究进路主张通过为人工智能嵌入道德算法以规避人工智能可能带来的伦理问题;规范式的研究进路主张通过制定相应的人工智能伦理规范以规范人工智能的发展方向。然而,这些研究进路都存在很多难以解决的问题。基于道德特殊主义,我们可以为人工智能伦理问题给出一个更好的解决方案。  相似文献   

18.
程鹏  谭浩 《理论界》2023,(1):42-48
当下人工智能领域发展迅速,尤其在专用人工智能方面取得了重大的技术成果之后,伴随着这一技术的不断创新和积累,人们开始对其有了更多的期待。当今通用人工智能技术仍然处于发展的初级阶段,虽然整体上取得了一些技术进步,如神经网络、小样本学习等,但仍然只是探索通往通用人工智能的可能性进路。由于人工智能的快速发展和自身的特征,我们更需要负责任地前瞻性地探讨通用人工智能发展所带来的伦理问题。其中之一就是,通用人工智能的出现势必会对人类社会的价值伦理体系造成巨大的影响,而人工智能的出现挑战了一直以来的人类中心主义的伦理价值体系。于是,以什么视角去看待通用人工智能将是一个重要问题。  相似文献   

19.
人工智能赋能教育教学已经成为教育发展的重要驱动力.借助于融媒体智能技术的迭代整合和创新,人工智能技术被广泛应用于大学教学场域,形成了新的教学模式和形态,具有自主决策和行为的人工智能开始被视为道德主体.传统大学教学在被深刻重构的同时、发生着巨大变革,也引发了人们关于教学伦理问题的思考.随着人工智能深度嵌入大学教学场域,人工智能技术导致教学有限理性行为、传统教学优势消解、教学公平遭遇新挑战、隐私侵犯等一系列典型伦理问题开始凸显.为此,加强大学教学伦理治理应立足长远,致力于构建大学教学良性伦理秩序.在实践中坚持系统性治理理念,从价值秩序、制度秩序和心灵秩序三个维度进行构建,其中价值秩序是基础、制度秩序是支撑、心灵秩序是追求,有机形成大学教学治理体系的结构性力量.  相似文献   

20.
面对人工智能技术的重大突破,尤其是ChatGPT等新一代人工智能在社会生活各个领域的广泛应用,审视、预判和防范ChatGPT类生成式人工智能的意识形态风险成为一个重要的理论课题。ChatGPT类生成式人工智能环境下的意识形态传播具有可塑性、可量化性、个性化和精准预测性等特点。ChatGPT类生成式人工智能介入意识形态传播的技术路径体现在技术与思想的耦合、预测性的算法推荐、个性化的话语创设和赋权性的网络传播等方面。ChatGPT类生成式人工智能介入意识形态传播会带来算法歧视、数据失真、算法监控和算法反噬等潜在的风险。应通过统筹科技伦理规制算法推荐、设计主流意识形态驾驭算法、协调传播主体与客体的价值需求、强化大数据技术检测与治理等,加强对ChatGPT类生成式人工智能意识形态风险的防控。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号