首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 218 毫秒
1.
赵瑜  周江伟 《浙江社会科学》2023,(1):109-118+159-160
近年来,在世界范围内涌现出大量的人工智能治理原则。这些文件通常采取“原则主义”的策略,通过提取“最大公约数”的方法对伦理共识进行清单化的列举。这种策略固然有益于回避争议、促进协同,但也难免在具体情境中陷入概念模糊和自相矛盾。为了明晰概念、澄清语境、促进对话,本文搜集了来自全球各地的88份原则文本,在伦理学理论脉络中定位人工智能治理核心议题和相关主张。研究发现治理原则围绕着价值立场、价值目标和正义原则三个核心问题展开,在不同的理论脉络和现实情境中,构成了一个丰富而系统的问题域。推动人工智能的治理实践,需要在静态的对话框架之上进一步构建动态的规制措施,而整合原则文本的伦理基础和治理框架,有助于推动抽象的伦理主张转变为具体的治理实践,以应对复杂现实情境中的道德选择和行动需求。  相似文献   

2.
人工智能日益成为新一轮产业革命的引擎,其通过技术牵引与场景驱动,正重塑着审计工作的模式和流程。将人工智能应用于审计活动能够大幅提升审计效能,但同时也产生了严重的伦理危机。如何治理人工智能时代下的审计伦理危机,以使人工智能更好地服务于审计工作,已成为各类审计组织亟待解决的问题。文章在明晰人工智能时代审计伦理内涵的基础之上,从审计主体自身以及审计主体与审计客体、利益相关者、智能审计系统开发者之间关系等视角系统分析了人工智能时代审计伦理危机的表征,并基于伦理原则构建、政策与制度、数据与技术、个人与组织等层面探索了人工智能时代审计伦理危机的治理路径,旨在为人工智能时代审计伦理危机的预防、监测和控制提供理论参考和实践借鉴。  相似文献   

3.
人工智能伦理制度化是将人工智能伦理价值和要求转化为国家规范化、常态化的正式性行动原则、集体规约与管理制度的过程,探索人工智能伦理制度化的影响因素及其生成逻辑是完善我国人工智能伦理治理体系的关键之义。运用扎根理论对我国人工智能伦理相关政策文本进行分析,构建出“条件—工具—行为”的影响因素模型。研究发现,风险情境、价值感知和政治势能是人工智能伦理制度化的重要发生条件,经验准备、保障基础和配套支持是人工智能伦理制度化的必要辅助工具,国际竞合和多元协作是人工智能伦理制度化的主要联结行为。三者发挥驱动力、托动力和助动力的合力作用,共同推进我国人工智能伦理制度化建设进程。  相似文献   

4.
人工智能是根据对环境的感知,做出合理的行动,并获得最大收益的计算机程序,它有着应用人工智能、通用人工智能与超人工智能三类层级。由于超人工智能远超人类的控制范围,对人工智能伦理的考察可以从其他两个层级展开。从应用人工智能伦理看,人工智能引发了信息安全困境、责任归属困境、技术依赖风险以及产业后备军与社会不公平等问题。从通用人工智能伦理看,人工智能带来了人机边界模糊、人的存在异化、人的自由异化甚至人类种族终结等问题。对此,要在坚持人本主义原则的基础上,通过技术层面的智能监管、程序设置与价值规范以及社会层面的伦理设计、法律规制与协同治理等,实现对人工智能的正向规约。  相似文献   

5.
人工智能技术增进社会福祉和进步的同时,伴随着人机边界模糊、责任追究困境、价值鸿沟扩大和技术过度依赖等伦理风险。人工智能伦理风险的生成有其内在逻辑。人工智能伦理风险的深层性、复杂性等特征契合了协同治理的要求。协同治理范式是人工智能伦理风险治理具有可行性的新探索。推进人工智能伦理风险的协同治理,应构建多元协同组织,形成以政府为核心,技术专家、社会组织、研究机构和公众等共同参与的风险治理自组织系统。在此基础上,通过夯实协同治理条件、增强协同治理参量提升人工智能伦理风险治理效能,促进人工智能伦理风险的整体性治理。  相似文献   

6.
人工智能在推动人类进步与社会发展的过程中扮演着越来越重要的角色。人工智能在改变人类生产生活方式的同时,也不可避免地带来许多潜在风险和社会问题。人工智能的发展可能造成责任主体不清晰、潜在风险因素增多、人的异化现象加剧、道德主体不明确等问题。保障人工智能的安全使用,实现人工智能的良性健康发展,需要确立人工智能发展的基本伦理原则,加强对人工智能发展的价值规范和道德引导,制定人工智能伦理的相关制度。  相似文献   

7.
鲁芳 《中州学刊》2023,(6):120-126
人工智能时代日常生活伦理治理面临新的难题:人工智能对日常生活的深度控制以及人对人工智能的过度依赖使人的自由受到遏制,人愈加成为片面发展的人;日常生活组织化程度降低挑战集体主义的日常生活根基,日常活动的人工智能化弱化了人与人之间的日常联系,使伦理治理价值导向难度增大;由于日常生活伦理关系走向消隐,日常生活伦理治理对象呈现出复杂隐蔽的特征;由于在人工智能会不会产生自由意志、人工智能执行的是谁的自由意志等问题上存在复杂性和不确定性,由人工智能活动所带来的道德责任归属难以确定。加强人工智能时代日常生活的伦理治理,需要规范人工智能的价值遵循,构建共同的组织化的日常生活,强化日常生活主体的道德自觉,构建有效的日常生活伦理治理体系。  相似文献   

8.
人工智能传播技术应用中引发的伦理问题,一定程度挫伤了公众对于技术的信任,建立人工智能传播信任是深入实施创新驱动发展战略和加快建设创新型国家的迫切需要。通过回溯以往的信任研究发现,人工智能传播信任在信任发生的基础、信任结构、信任边界方面都发生了变化。人工智能传播信任包含了人际信任、系统信任以及技术信任三个不同维度的信任层次,技术信任是人工智能传播信任建构的基础,系统信任是人工智能传播信任建构的保障,人际信任则是人工智能传播信任可感知与实践落实的部分。人工智能传播信任机制建构中的难点在于明确信任交互对象的信义责任与义务、专业知识不对等性与沟通渠道的建设、道德规范与伦理价值观的认同三个方面。可从构建与分享共同规范与伦理价值观的角度切入,突出重点、循序渐进地推进人工智能传播全周期的信任生态系统的建设。  相似文献   

9.
随着各行业智能化水平不断提升,我国司法系统在面对时代的剧烈变化时,展现了对智能化建设和司法改革的魄力与决心。人工智能可以在“类案类判”和“及时公正”等维度促进可视化的司法公正,但同时也在与司法活动交叉结合的过程中产生了诸如数据算法缺陷弱化公正基础、技术的价值中立性无法真正满足公民个案公正的诉求、技术的工具性消解司法公正本意的风险。为应对以上风险,可以采取大数据与算法规范、制定人工智能融入司法的伦理规范以及将法律论证嵌入司法人工智能系统等措施,在展现司法人工智能优势的同时,实现司法公正的最大化。  相似文献   

10.
论公共健康伦理的理论实质   总被引:1,自引:0,他引:1  
责任是应用伦理学的核心范畴。责任伦理是一种以恪守职责作为基本道德原则的伦理。公共健康伦理是一种责任伦理。公共健康涉及到政府、公众、专业技术人员等各方面的责任。公共健康伦理为政府责任、公众责任、职业责任提供了相应的伦理规范。  相似文献   

11.
在技术风险社会,技术主体在履行责任时往往会遇到伦理困境,所以技术主体伦理成为技术伦理的重要话题,它是对技术研发、运用以及运用后果等一系列技术过程中技术主体作用的伦理反思。文章分析了技术主体伦理构建的必要性:人与技术协调发展的客观要求、增强技术主体道德责任的重要途径、构建和谐社会的应有之义。在此基础上,认为明确、可行、合理的技术主体伦理原则对于指导技术主体走出伦理困境极为重要。为此,提出几条原则:“人与自然和谐统一”、“自律与他律相结合”、“主体愿用(受用)”、“技术风险即命令”等,以期实现技术价值认同、技术灾难教育素质化及技术德性“经营”的目标,而构建技术主体伦理是真正有效解决技术伦理问题的核心所在。  相似文献   

12.
人工智能赋能教育教学已经成为教育发展的重要驱动力.借助于融媒体智能技术的迭代整合和创新,人工智能技术被广泛应用于大学教学场域,形成了新的教学模式和形态,具有自主决策和行为的人工智能开始被视为道德主体.传统大学教学在被深刻重构的同时、发生着巨大变革,也引发了人们关于教学伦理问题的思考.随着人工智能深度嵌入大学教学场域,人工智能技术导致教学有限理性行为、传统教学优势消解、教学公平遭遇新挑战、隐私侵犯等一系列典型伦理问题开始凸显.为此,加强大学教学伦理治理应立足长远,致力于构建大学教学良性伦理秩序.在实践中坚持系统性治理理念,从价值秩序、制度秩序和心灵秩序三个维度进行构建,其中价值秩序是基础、制度秩序是支撑、心灵秩序是追求,有机形成大学教学治理体系的结构性力量.  相似文献   

13.
伦理经济原理与市场经济伦理   总被引:3,自引:0,他引:3  
伦理学和经济学仿佛是互有敌意的兄弟。说它们是兄弟,因为它们都是关于人的行动和决策的理论,都关心行动和决策的合理性和正确性。说它们互有敌意,因为它们的规范性内容似乎是互相矛盾的,伦理学追求至善,而经济学追求效率,至善的东西未必有效率,有效率的东西未必至善;追求至善的好心人未必总是得到好报,追求效率的坏人未必总是得到恶报。怎样解决两者之间的这种矛盾,伦理经济提出了若干基本原理,其中最重要的有:善的三重性(道德、效果和效率)原理;伦理经济的双重性(经济和伦理性质)原理;作为伦理学经济的伦理经济原理(如道德利益相容性原理、普遍利益权重原理等);作为市场经济的伦理预设的伦理经济原理(如契约第三方原理、双重效应原理、超动机原理等)。  相似文献   

14.
这里所说的“自然”,是在道德哲学的意义上规定和诠释的。“自然家庭”和自然家庭中诞生的“自然人”是伦理、道德和道德哲学的始点。“自然”是人及其存在的原初状态或曰罗尔斯式的“无知之幕”,其最具哲学意义的本质是不可选择性。基因技术不仅极大地扩张了人的行为选择能力,而且将这种选择性推到了文明的底线。这是基因技术提出的最严峻和最深刻的伦理挑战。技术必然性与伦理合理性之间存在着“乐观的紧张”的辩证互动关系。为此,在研究视野和研究方法上必须进行两次转换,由对基因技术的伦理关切,到基因伦理学的建构;由基因伦理学的研究,到道德哲学的洞察和把握。它们在方法论上的殊异,也正是对话双方的学术分歧之所在。  相似文献   

15.
我国建设节约型社会需要包括伦理思想在内的思想理论的支持和引领。与节约型社会相适应的伦理观除了来源于现代社会发展规律和人的发展规律的孕育,中国传统节俭伦理思想也是一个丰富的源泉和宝藏,其在伦理导向、伦理策略、伦理标准、伦理智慧、伦理实践等方面都具有重要的借鉴与启示价值。  相似文献   

16.
试论网络伦理的建构原则   总被引:2,自引:2,他引:0  
网络社会作为一种新生的社会组织形式,在带给人们极大自由与便利的同时,也产生了一些新的伦理问题,使得建构网络伦理显得日趋迫切与必要.建构网络伦理需要遵循一定的基本原则,这些原则包括社会责任原则、整体利益原则、人性关怀原则、公平正义原则、诚实守信原则、因势利导原则、兼容允许原则、和谐发展原则等.  相似文献   

17.
楔入道德视角是深化企业核心竞争力研究需要着力开掘的一个重要学术路径和理论层面。从经济伦理学视域看,道德作为企业核心竞争力的终极宰制性因素,内化和渗透于企业的科技力、营销力、制度力和文化力等诸要素中,从而成为企业核心竞争力的内生变量。  相似文献   

18.
智能环境是人工智能的重要分支。智能环境伦理的基本内容有保护隐私、安全、尊重自主(自由)、公平、负责任、增进人类福祉等。将智能环境伦理融入信息科学类专业思想道德与法治课程中,不仅可以增强课程的亲和力,还可以增加课程的深度,同时也能够促进学生形成智能环境伦理意识。智能环境伦理可以融入到社会主义核心价值观、坚持以为人民服务为核心、我国宪法法律规定的权利,职业生活中的道德规范等课程内容讲解中。为了将智能环境伦理更好地融入到信息科学类专业思想道德与法治课程之中,思想道德与法治课教师应积极学习智能环境伦理知识,做好融入教学设计,注重教学艺术,构建好融入反馈机制。  相似文献   

19.
汉语史研究基本理论范畴问题   总被引:1,自引:0,他引:1  
汉语史研究的事实发掘成果卓著,令人目不暇接,但理论滞后于实际的状况却愈显突出,主要症结在于汉语史研究的基本理论范畴还没有确立起来,所以导致我们连汉语史研究的基本理论框架的认识都十分模糊。范畴的概括化与系统化是一门学科成熟程度的标志。确立科学的汉语史研究理论范畴当遵循下面的一些原则:以汉语史研究科学体系为构建框架,突出汉语史科学范畴体系的特点,按相对稳定的定型化思维样式来表述。无论是从汉语史研究范畴属性、汉语史研究范畴认识类型,还是从汉语史研究范畴视野来看,汉语史研究的基本理论范畴包括基本概念、分期理论、史料科学、理论模型、方法论、学术视野、学术评价、学术演化、学术关系、学术价值等。  相似文献   

20.
医疗人工智能利用深度学习和计算机算法等现代化技术,实现辅助诊疗、医学影像、药物发掘、健康诊疗等功能,是人工智能应用最具前景的领域之一。随着人工智能技术发展,具备自主思维和决策能力的智能机器人医生等人工智能将对现有的医疗法律责任制度带来颠覆性影响。在人工智能背景下,医疗人工智能是否具有独立法律主体地位、传统的医疗过错责任归责能否适用、因果关系如何认定等成为现代民事法律责任制度的严峻挑战,也成为实践中的必答之问。因此,在借鉴欧美人工智能领域的探索经验的基础上,在当前阶段通过修正和完善我国民事法律责任制度,提出针对不同的人工智能侵权情形适用差别化归责原则,并尝试建立人工智能强制保险或储备金制度,设置人工智能监管机构及行业标准,以实现既保障患者合法公平权益,又鼓励人工智能技术有效发展之间的平衡。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号