共查询到20条相似文献,搜索用时 15 毫秒
1.
算法技术在数字孪生时代背景下正面临着算法偏见、算法归责难、人类主体的自主性削弱、隐私泄露和数据滥用、数字鸿沟、人与算法的矛盾等一系列算法风险挑战。算法的复杂性、人的认知限制、算法设计者的价值偏差和公众的算法素养是产生算法风险的主要原因。为保障算法技术的良性运行和创新发展,需要进行伦理治理:在秉持尊重人类主体、安全可靠、以人为本、公开透明、公正五项基本原则的基础上进行算法技术的伦理设计,创新制定伦理准则,努力引入责任伦理,集聚合力协同共治,提升公众算法素养。 相似文献
2.
聚焦社会治理领域的算法应用伦理问题,以欧美社会治理中的智能算法应用为例,通过案例分析和归纳演绎相结合的方法,阐释智能算法嵌入社会治理面临的应用伦理风险,即算法“黑箱”与社会信任危机、算法歧视与社会不平等、隐私泄露与社会监视。基于此,从技术、伦理准则与法律、媒体三个层面提出欧美社会治理算法应用伦理的规制路径:一是优化算法技术,提升算法准确性和安全性;二是完善算法伦理准则和法律,构建智能算法善治体系;三是加强算法伦理的媒体监督,构建多元主体协商共治路径。本研究能够为我国人工智能伦理治理提供重要的启示与借鉴作用。 相似文献
3.
算法新闻重构了新的新闻传播生态,但也暴露出一些伦理问题,最核心的是算法黑箱与新闻透明原则的矛盾、算法霸权与媒介公正的对立和算法操纵与委托信任的冲突.解决算法新闻产生的伦理问题,必须明确算法是非人类的"网络行动者",但并不是独立的伦理行动者,"人"才是算法新闻的责任主体.算法新闻治理的逻辑起点应回到技术、人与社会的良性互动关系.算法新闻治理应将不作恶、不滥用的"向善"作为底线伦理,将对人的自由全面发展负责和对社会健康有序运行负责的"向上"作为责任担当.算法新闻治理需要建立多主体协同共进的治理体系:政府要充当好规则制定者、过程把控者和底线管控者的角色;平台机构要承担算法新闻治理的主体责任;公众应自觉避免新闻消费中的盲从或被动现象,传统媒体应严格职业把关和审核机制,拒绝迎合人性弱点及惰性的新闻生产.公众与传统媒体的共同责任在于实现对算法新闻的纠偏、改进与监督. 相似文献
4.
算法新闻重构了新的新闻传播生态,但也暴露出一些伦理问题,最核心的是算法黑箱与新闻透明原则的矛盾、算法霸权与媒介公正的对立和算法操纵与委托信任的冲突.解决算法新闻产生的伦理问题,必须明确算法是非人类的"网络行动者",但并不是独立的伦理行动者,"人"才是算法新闻的责任主体.算法新闻治理的逻辑起点应回到技术、人与社会的良性互动关系.算法新闻治理应将不作恶、不滥用的"向善"作为底线伦理,将对人的自由全面发展负责和对社会健康有序运行负责的"向上"作为责任担当.算法新闻治理需要建立多主体协同共进的治理体系:政府要充当好规则制定者、过程把控者和底线管控者的角色;平台机构要承担算法新闻治理的主体责任;公众应自觉避免新闻消费中的盲从或被动现象,传统媒体应严格职业把关和审核机制,拒绝迎合人性弱点及惰性的新闻生产.公众与传统媒体的共同责任在于实现对算法新闻的纠偏、改进与监督. 相似文献
5.
6.
随着人工智能技术在广告领域的广泛应用,智能广告中技术应用引发伦理风险的问题逐渐成为焦点。从技术伦理学视角来看,目前智能广告中主要存在两类伦理风险:一是基于多端数据挖掘产生的消费者隐私侵犯、信息价值侵害和创意知识产权侵犯,二是基于深度学习算法产生的广告运作壁垒、消费者阶层分化和消费异化。智能广告中技术伦理风险的治理应先从观念化价值、经验化价值以及技术化价值三个方面建立治理原则,再从智能广告的设计、测试、应用、复盘四个环节制定治理策略,即伦理嵌入、伦理评估、伦理调适和伦理确认,以期规避和约束智能广告中的技术伦理风险。 相似文献
7.
随着数字乡村和国家文化数字化建设的不断推进,加快乡村文化治理数智化转型日益成为时代之需。在乡村文化治理场域中,数智化转型包含3个层面的价值指向:技术层面彰显为乡村文化新质生产力发展韧性的提升,文化层面意指乡村文化振兴的内生性激活,治理层面体现为乡村文化治理全过程人民民主程度的提升和城乡文化发展耦合协调度的增强。然而,数智化与生俱来的技术伦理和社会伦理等问题也被带入乡村文化治理数智化情境,为明晰和消除伦理冲突衍生的乡村文化治理数智化转型桎梏,从国家-市场-社会结构出发,厘清数智化转型过程中主要面临3个层面的伦理冲突威胁:国家-制度层面凸显为文化权力与文化服务之间的目标伦理冲突,市场-资本层面凸显为实践伦理冲突和价值伦理冲突,社会-生活层面凸显为互动伦理冲突和礼俗伦理冲突。在文化治理理论和伦理冲突外显的考量下,应注重政策创新与组织创新的创新引领,优化国家-制度层面的顶层设计;强化价值共创的公共性构建,以公共性调适市场-资本层面的逐利性;夯实系统性数智素养培育,提升社会-生活层面的数智素养。进而规避数智化衍生的破坏性伦理冲突,充分利用数智化的现代性治理技术优势,助力乡村文化治理数智化转型。 相似文献
8.
算法作为一种前沿技术,极大地提高了社会运行效率,不断推进了社会发展模式革新。然而,由于算法技术的复杂性、相关法律政策的匮乏、算法素养的限制、公开算法动力不足以及算法安全维护等原因,形成了算法“黑箱”。“黑箱”的存在使得算法在公共领域的应用中,极易衍生出私人资本支配公权力、算法监管的政府失灵、政府信任危机等问题。对此,必须对算法“黑箱”加以治理,治理的关键在于实现“有意义的算法透明度”,具体可遵循构建政府责任义务体系、推动技术公司算法公开、发挥社会组织监督作用等路径。 相似文献
9.
张旺 《海南大学学报(人文社会科学版)》2023,(1):118-124
算法作为人工智能技术的重要组成部分,已经成为决定“人机共生”关系走向的关键要素,同时也带来了人类认知上的“黑匣子”,限制了人类理解和使用技术的能力,引发了技术使用过程中的各种问题,导致了人类对算法的不充分信任。算法伦理审查的价值规范体系,包括算法伦理审查的标准化、制度化和结构化。发展负责任的算法,强化算法伦理审查的理性认知并建构实用框架,推进算法透明度、可解释性以及公众满意度等伦理维度指标落地,可以有效消解算法歧视和隐私暴露等问题,更好地推动算法伦理审查机制的健全完善。 相似文献
10.
在风险社会背景下,如何完善我国治理体系,提升我国治理水平,实现治理现代化是亟待解决的问题。政府公共性不足,协调不畅、社会组织发育不健全、公民参与积极性与能力不足等原因导致了治理失效。提升治理水平和治理能力,要从加强和巩固元治理、转变政府职能、推进治理法治化、培育社会组织、构建公民权利保障体系、健全社会风险预警和应对体系出发。 相似文献
11.
12.
数字身份是以数字化形式存在的身份形态,与网络空间相伴而生。网络无处不在、无时不在的泛在特征使数字身份呈现出云形态、微形态、超文本形态、可视化形态和碎片化形态,为人们生产生活带来便利的同时,也在一定程度上存在伦理风险。数字身份的不合理应用总体指向了认同、隐私、自由和正义等4个伦理议题:数字身份弱化了人的自我认同和社会认同,造成了“整合型隐私”保护困境及“隐私悖论”,遮蔽了主体的自由意志和社会遗忘能力,隐含了“数据偏差”和“算法逻辑”不正义等问题。随着互联网日益普及,传统身份逐步向数字身份转型,加强数字身份伦理风险治理成为重要的时代议题。在新发展阶段,应充分利用技术、法律、伦理的协作互动,实现数字身份伦理风险的协同治理,提升数字社会认同感,维护数字身份隐私权,克服数字身份的异化,消解算法逻辑的歧视性影响,使其更好服务于社会政治经济发展和满足人民的美好生活需要。从技术治理层面来看,要加强技术的创新和发展,克服技术自身存在的负效应;从法律治理层面来看,应坚持权利与义务辩证统一的立法原则,为数字身份应用提供法律保障;从伦理治理层面来看,各个主体要加强自我约束,自觉成为数字身份治理的重要补充力量。 相似文献
13.
人工智能技术应用于养老领域,是养老服务朝着更加智能化、普适化、规范化方向发展的内在需要,也是有效破解传统养老服务模式并创新发展的客观要求。但智能养老技术的潜在风险严重制约智能养老技术的可持续发展,迫切需要解决个人信息安全保护受限、人工智能技术安全失控、人机交互伦理责任不明,以及服务对象的公平受益失衡等问题。防控与纾解智能养老技术风险需要汇聚相关责任主体合力,强化数据安全监管与隐私防护体系,推进人工智能的适老化改革,促进智能养老服务普惠式发展,完善公开透明的责任追究机制。 相似文献
14.
潘坤 《云南民族大学学报(哲学社会科学版)》2021,(1):96-101
乡村治理现代化的价值目标饱含着丰富的政治伦理意蕴和全新的乡村政治生态预期,彰显出鲜明的政治道义追求和强烈的政治责任担当。围绕乡村治理的现代化,从政治学、伦理学等角度梳理建构相关政治伦理资源谱系,提炼建构其政治伦理体系,并在分析相关风险挑战的基础上设计建构其政治伦理优化方案,以期通过以上三重建构把乡村治理的权力运行制约在“善”的笼子里,进而促进中国特色乡村善治的完善与发展。 相似文献
15.
风险社会中的伦理秩序 总被引:6,自引:0,他引:6
李建华 《中国人民大学学报》2004,(6)
我们已步入了一个充满风险的社会,其特点就是社会生活的各个领域充斥着不确定性,人们似乎陷入了不确定性的社会与以确定性为基础的社会秩序的矛盾之中。可以断定,在风险社会中建立伦理秩序不但是可能的,而且是必需的。在风险社会中建立伦理秩序,关键是要理顺社会的交换关系。 相似文献
16.
17.
田小龙 《武汉科技大学学报(社会科学版)》2023,(4):362-368
人类社会可以说呈现为伦理和治理的一体两面性。中国农业社会呈现出的等级统治特征是人们普遍认同的,而作为社会治理伦理基础的纲常伦理,其型构要素则有待于进一步澄清。伦理精神的历史形态由人的存在境况决定。在农业社会,人的存在境况是神祇本原的神人同在,纲常伦理的宗旨是“为了神祇”。家族是培育纲常伦理的现实社会基础,通过“移孝作忠”与社会治理相结合。儒家学说是纲常伦理得以建构的政治哲学基础,核心要义是“三纲五常”。在当前社会转型阶段,人们需要审视纲常伦理的神祇本原、家族本位和纲常教义,以便重建社会治理的伦理基础。 相似文献
18.
在平台劳动管理中,算法技术扮演了多种角色,主要表现为“劳动过程的控制者”“工作表现的评估者”“奖惩制度的实施者”等。然而,从实践情况来看,在算法技术为企业带来巨大管理效益的同时,基于算法的平台劳动管理也面临着算法伦理、发展伦理、责任伦理等多个维度的诉求。这些诉求须通过制度的合理安排才能获得其应有的价值。具体而言,国家应当基于算法设计者、平台从业者以及平台企业三个方面的立场,对应展开伦理的法制建设:其一,将算法设计者纳入算法伦理的建设环节,以回应算法伦理诉求;其二,构建平台企业与从业者的对话机制,制定专门的从业者报酬劳动基准,以回应发展伦理诉求;其三,强化企业关于算法管理的社会责任,强制平台企业承担用工责任保险义务,以回应责任伦理诉求。 相似文献
19.
刘祖兵 《河海大学学报(哲学社会科学版)》2024,26(5):99-112
以Sora为代表的文生视频模型触发多重伦理风险,亟须探索复归理路。Sora替代应用诱发弱化人类主体性风险,“绝对”失业潮恶化贫富差距,可能引发“新卢德运动”,影响人类社会稳定;Sora接受偏见视频数据“浸润”,刻画对特定群体或观点的刻板印象,其生成内容欠缺价值多样性与包容性,诱发高度隐蔽性的社会歧视风险,影响人类社会公平;Sora生成的虚假视频具有高度违法性风险,致使诈骗视频信息大行其道,诈骗犯罪高发,影响社会和谐。我国生成式人工智能伦理监管规范体系阙如,存在具体应用场景中的算法监管细则语焉不详、使用行为监管规则欠缺和算法伦理安全规则缺位等问题;视频数据使用者行为监管失衡,既有过度重视数据保护而阻碍数据要素丰富的宏观治理问题,也存在数据生产者行为规范缺位、部分法条可适用性不强的微观治理问题。应建立基于场景化的分类分级审查制度,纵向细化平台数据使用行为规则,进行算法听证,确保多元主体参与算法设计;从制度和技术维度强化视频数据使用者的行为监管,推动训练Sora的数据实现透明化和价值多样性。此外,我国应把握全球视野,参与生成式人工智能算法底层模型技术标准的制定与全球共享,致力于推动科技创新人才培养和域外专业人才引进;积极推动我国参与人工智能算法伦理治理的南北对话和南南合作,为人工智能全球伦理治理贡献中国智慧。 相似文献
20.
郑驰 《大连海事大学学报(社会科学版)》2022,(4):51-60
代码所形成的架构在网络空间中起到了重要的规制作用,在算法推荐场景中,架构包括三个主要部分,即可以自我执行规制的环境架构、以用户画像表达的个人数字身份架构,以及形成推荐内容的推荐算法架构。在架构规制的模式下,出现了一系列风险,包括由于个人参与不足、个人自决受限导致的自主性削弱的风险,由于传统隐私保护方式滞后导致的隐私权风险,以及表现为信息不平等与结构性不平等的平等权风险。对此可以采取设计架构、完善法律、调整社群规范的路径进行综合性治理,通过利用隐私增强的架构设计保护隐私权、配置用户画像权利义务保障自主性,以及强化网络平台的伦理约束促进算法向善,从而治理算法推荐所产生的风险。 相似文献