首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
聚焦社会治理领域的算法应用伦理问题,以欧美社会治理中的智能算法应用为例,通过案例分析和归纳演绎相结合的方法,阐释智能算法嵌入社会治理面临的应用伦理风险,即算法“黑箱”与社会信任危机、算法歧视与社会不平等、隐私泄露与社会监视。基于此,从技术、伦理准则与法律、媒体三个层面提出欧美社会治理算法应用伦理的规制路径:一是优化算法技术,提升算法准确性和安全性;二是完善算法伦理准则和法律,构建智能算法善治体系;三是加强算法伦理的媒体监督,构建多元主体协商共治路径。本研究能够为我国人工智能伦理治理提供重要的启示与借鉴作用。  相似文献   

2.
算法监控在海量数据与强大算力的加持下已经成为一种解放力量,但任何事物都是矛盾体,算法监控在"座架"与"巨机器"的支配下也会带来"信息茧房"与算法歧视等伦理风险.这些伦理风险与"圆形监狱"中规训与惩罚的核心要义存在"逻辑共契".针对算法监控伦理风险的社会治理,要从个体层面、技术设计层面、制度层面着手,这样才能确保该技术成为"大规模为人类造福的工具"而不是"大规模数学杀伤性武器".  相似文献   

3.
当前以大型互联网企业为代表的数字平台和企业影响力日益强大,成为全球算法治理机制的重要力量。企业算法合规是一种基于“算法风险”的专项合规管理,是企业为了有效防范、识别、应对可能发生的算法违规风险所建立的一整套公司治理体系。企业算法合规因具有改进算法治理模式、降低企业治理风险、提升权利保护水平、改进传统企业合规治理方式的优势,在算法治理中具有必要性。同时,中国特色企业算法合规的开展以“以人民为中心”为价值导向、以“创新与伦理的平衡”为应然边界、以“全面渗透与多层参与”为行动指南、以“公开透明和灵活持续”为执行要求,与当前算法治理的现实需求相吻合,因此具有成为算法治理新路径的可行性。  相似文献   

4.
算法治理是社会治理主体综合运用算法技术,以精准满足治理对象的需求为目标,对社会治理中的议题进行精准识别、精准判断、精准制策的社会治理过程。作为一种新型的社会治理方式,算法治理具有强大的功能,可以精准识别治理议题、精准预判社会矛盾和精准满足治理对象的多元化需求。因此,算法治理极大提升了社会治理体系和治理能力现代化的水平。然而,由于算法技术本身的不成熟和在社会治理过程中的误用,产生了诸多社会伦理问题,集中体现为4个方面:算法治理过程的不透明酿成社会信任危机、算法治理行为的不确定引发社会正义问题、算法治理方案的不精准诱发社会公平问题、算法治理准则的不恰当造成社会价值问题。在实践中,要从算法治理产生社会伦理问题的深层原因着手,有针对性地对算法技术进行驯服,从观念、文化、制度等多个层面着手迎接算法时代的到来,助推算法治理朝着人类美好生活的目标迈进。  相似文献   

5.
人类社会可以说呈现为伦理和治理的一体两面性。中国农业社会呈现出的等级统治特征是人们普遍认同的,而作为社会治理伦理基础的纲常伦理,其型构要素则有待于进一步澄清。伦理精神的历史形态由人的存在境况决定。在农业社会,人的存在境况是神祇本原的神人同在,纲常伦理的宗旨是“为了神祇”。家族是培育纲常伦理的现实社会基础,通过“移孝作忠”与社会治理相结合。儒家学说是纲常伦理得以建构的政治哲学基础,核心要义是“三纲五常”。在当前社会转型阶段,人们需要审视纲常伦理的神祇本原、家族本位和纲常教义,以便重建社会治理的伦理基础。  相似文献   

6.
自动驾驶作为一个动态发展的技术连续体,在具体应用场景中呈现出从人类主导过渡到人机协同再到机器主导等不同人机关系样态,其自主性与人类控制权之争引发了各种伦理、法律和社会等问题。人机互动关系演变背后折射的是人类控制形式的不断进化,从本质上看,自动驾驶汽车的责任鸿沟问题与不同技术嵌入层级下的人类控制密切相关。源于应对人工智能伦理困境的“有意义的人类控制”,可作为解决自动驾驶汽车责任鸿沟问题的一种全新技术治理理念。借助“追踪-回溯”双向路径设计,实现对多元责任主体的锚定。在“有意义的人类控制”框架下,将自动驾驶置于技术层级与人类控制的关系界面之上,坚持以科学的数据系统为支撑,以责任锚定为导向,以人类控制为中心,通过伦理与法律的整合进路,并结合完善的保险制度,破解自动驾驶主体悬置的困境。未来,应加强自动驾驶的跨学科交叉研究,尤其需要借助科技与人文的常态化对话机制,强化各利益相关方的伦理自觉和法律认知,摈弃简单的技术设计视角,实现“有意义的人类控制”转向,从而进一步推动自动驾驶技术的发展。  相似文献   

7.
西方技术伦理的嬗变表明伦理对技术是一种责任,责任伦理是对当代技术最好的责任。技术责任主体的审查及其伦理规范的确立、“风险社会”的挑战与和谐社会的构建等成为当代责任伦理研究的重要组成。社会伦理与个体伦理的统一、“风险社会”的治理、技术政治学的趋势成为技术责任伦理建构的基本维度。顺应当代技术责任伦理的勃兴,推动技术责任主体间的对话、协商、合作,对于树立一种和谐的技术观,促进和谐社会的构建意义深远。  相似文献   

8.
以人工智能深度伪造技术为代表的生成式AI的创造力和技术想象力正在以“数字化身体”为焦点,重塑数字生活世界。一方面,数字化身体以一种数据信息流的方式在虚拟世界中进行传播和应用,塑造了高度流动性的场景。另一方面,在全景展示社会中,数字化身体不断建构符号化、流程化和同质化的主体暴露美学,为人工智能深度伪造的技术叙事和场景叙事提供了可供性。基于数字化身体景观的涌现,人工智能深度伪造技术强大的“数字世界再造”导致生物识别数据隐私泄露和自主性丧失、社会信任危机与群体分化、政治舆论变异和社会民主破坏、后真相与本体性安全丧失等伦理风险。进而,在超真实的数字化世界中,现实世界被虚拟世界遮蔽而引发人的认知、伦理和生存的虚无化,从而走向真相与假相的内爆、真相衰退与认知无能、图像制造的道德悖论以及主体性剩余的虚无困境。面对人工智能技术内在的虚无主义力量,关键不在于确定性世界和确定性观念的建立,更重要的是以一种生存论哲学视角去看待人工智能技术,即人工智能技术就是人的本质存在,其带来的种种问题并不是技术对人的单向度地反噬和异化,而是人类社会发展和人的自我建构不断扬弃的历史过程。  相似文献   

9.
人类进行社会治理的途径主要分为两个方面:一是发挥法律和行政组织规范等外在强制力的作用;二是发挥伦理的内在软约束作用。但在原始社会的治理中则主要是伦理在发挥作用。从伦理规范的角度看,原始集体主义是其核心伦理精神,民主平等为基本伦理原则,团结互助为内部治理的伦理要求,勇敢刚强为外部治理的美德。原始道德尚处于“前道德”的发展阶段,是一种“萌芽”状态的道德,呈现出简单、朴素、粗俗的特点,它主要通过图腾崇拜、禁忌、礼仪、风俗,甚至巫术等形式实现着对生产生活与社会事务的治理。  相似文献   

10.
数字身份是以数字化形式存在的身份形态,与网络空间相伴而生。网络无处不在、无时不在的泛在特征使数字身份呈现出云形态、微形态、超文本形态、可视化形态和碎片化形态,为人们生产生活带来便利的同时,也在一定程度上存在伦理风险。数字身份的不合理应用总体指向了认同、隐私、自由和正义等4个伦理议题:数字身份弱化了人的自我认同和社会认同,造成了“整合型隐私”保护困境及“隐私悖论”,遮蔽了主体的自由意志和社会遗忘能力,隐含了“数据偏差”和“算法逻辑”不正义等问题。随着互联网日益普及,传统身份逐步向数字身份转型,加强数字身份伦理风险治理成为重要的时代议题。在新发展阶段,应充分利用技术、法律、伦理的协作互动,实现数字身份伦理风险的协同治理,提升数字社会认同感,维护数字身份隐私权,克服数字身份的异化,消解算法逻辑的歧视性影响,使其更好服务于社会政治经济发展和满足人民的美好生活需要。从技术治理层面来看,要加强技术的创新和发展,克服技术自身存在的负效应;从法律治理层面来看,应坚持权利与义务辩证统一的立法原则,为数字身份应用提供法律保障;从伦理治理层面来看,各个主体要加强自我约束,自觉成为数字身份治理的重要补充力量。  相似文献   

11.
全球治理中的猎鹿困境   总被引:6,自引:0,他引:6  
今天 ,全球治理的发展正面临着巨大的困难 :不仅包括已有着充分讨论的“白搭车”、相对收益等问题 ,还包括卢梭所论说的“猎鹿困境”。对全球治理而言 ,卢梭“猎鹿困境”暗示了在缺乏有约束力的中央权威下 ,集体协议遭到不受制裁的违背的极大可能 ,其伦理原因在于“自我保存伦理”与“自我超越伦理”的根本冲突。在走向全球治理的过程中 ,无论是高政治还是低政治领域都存在着严重的“猎鹿困境” ,个别国家对绝对安全的追求、恐怖主义、大规模杀伤性武器扩散、全球环境保护努力受挫等仅是冰山一角。因而 ,要超越“猎鹿困境”、实现真正的全球治理 ,伦理上需要确立自我超越伦理的首要地位 ,而在制度上则需实现由等级式治理向网络式治理的转变  相似文献   

12.
在平台劳动管理中,算法技术扮演了多种角色,主要表现为“劳动过程的控制者”“工作表现的评估者”“奖惩制度的实施者”等。然而,从实践情况来看,在算法技术为企业带来巨大管理效益的同时,基于算法的平台劳动管理也面临着算法伦理、发展伦理、责任伦理等多个维度的诉求。这些诉求须通过制度的合理安排才能获得其应有的价值。具体而言,国家应当基于算法设计者、平台从业者以及平台企业三个方面的立场,对应展开伦理的法制建设:其一,将算法设计者纳入算法伦理的建设环节,以回应算法伦理诉求;其二,构建平台企业与从业者的对话机制,制定专门的从业者报酬劳动基准,以回应发展伦理诉求;其三,强化企业关于算法管理的社会责任,强制平台企业承担用工责任保险义务,以回应责任伦理诉求。  相似文献   

13.
人工智能赋能思想政治教育是思想政治教育创新发展的必然走向。思想政治教育与人工智能的深度耦合,促进了思想政治教育的精准化与“出场”多元化,提升了思想政治教育的实效性,但随着技术向度的增强与工具理性思维的介入,思想政治教育也面临着不同维度的伦理风险。通过分析人工智能赋能思想政治教育伦理风险的成因发现,人工智能的类人属性不断强化、算法自主性导致的不可预测性不断增加、风险认知与外在保障具有有限性,导致了伦理风险“在场”的必然性。为了规避伦理风险,要以道御术,守正思想政治教育的价值立场;要以情化人,构建柔性的共情共鸣机制;要以法为界,明确人工智能赋能的何以可为。  相似文献   

14.
算法性别歧视是人工智能算法在信息采集、生成、分发等传播环节产生的与现实社会相同的对女性的差别化待遇,它是现实生活中长期存在的性别歧视观念在网络领域的延伸,给女性的数字化生存带来诸多挑战。其成因既有社会结构性偏见的智能投射,也包括政治操控与资本干预的共谋塑造以及算法黑箱量化建模的计算偏差。智能传播时代,对算法性别歧视的治理应采取多元的视角和立场,在技术、法律、伦理等层面共同约束规制、协同治理。  相似文献   

15.
随着大数据和人工智能逐渐渗透到人们的日常生活中,广告业也在新的技术浪潮中发生了新的变革。“算法权力何以实现?”这一问题成为探讨广告传播中的数字伦理问题的关键。从空间性角度来看,广告算法背后权力的嵌入逻辑实现了从全景敞视到独景窥视的空间—权力模型转变。在此逻辑之下,算法技术在广告传播的过程中,加重了人的思维惰性、加速了人的认知窄化以及放大了社会歧视。被囚禁的个体需采取自我治理的方式才能与算法权力进行对抗,最终实现对于自我与技术关系的调试。  相似文献   

16.
大数据、人工智能、算法推荐技术等信息技术的快速迭代,推动了传统社会的数字化转型,传统新闻业同样在开展数字化转型升级。在此背景下,随着新闻信息过载的不断加剧,由大数据衍生出的算法推荐新闻迅速崛起,算法信任、数据优势与新闻媒介的数字化客观上为算法推荐新闻的应用和发展奠定了基础。毋庸置疑,算法推荐新闻对于实现新闻准确分发、增强新闻受众黏性具有重要意义,智慧化、瞬时性的算法推荐新闻具有精准、高效、个性化优势,但同时算法作为一种复杂性、不确定性技术,带来了多层面、多环节、多领域的风险挑战和制度掣肘,算法推荐新闻同样引发了“算法黑箱”“算法偏差”“技术霸权”“责任缺口”与“信息泄露”等多种伦理风险。当前,学界对于算法推荐技术本身是否真的成熟,以及算法推荐新闻可能引发的伦理危机研判明显不足。对此,从技术不确定性理论所内嵌的技术本身不确定性、技术认知不确定性与技术制度不确定性三个向度,可以为算法推荐新闻的伦理风险提供适当的分析框架,在此基础上厘清算法推荐新闻伦理风险发生的根源,可将其归纳为技术本身不确定性向度的数学洗脑与主体性缺失、技术认知不确定性向度的能力不足与底线失守以及技术制度不确定性向度的法律...  相似文献   

17.
政治生活中个人与社会的关系问题是政治伦理的基本问题;个体生存问题以及类生存问题构成了政治伦理的双重底线,个人美德和公共道德的价值共契成为化解政治伦理化与伦理政治化之间互动关系的有效途径;建设社会主义和谐社会的文化政治,亟待建构一种倡导“以人为本”、“和谐的”、“宽容的”以及“发展的”等价值观的底线政治伦理。  相似文献   

18.
伴随人工智能的发展,人机交互演进中逐步发展出人机亲密关系,机器摆脱其工具身份而作为情感主体之一参与其中。基于豆瓣“人机之恋”小组的参与式观察和深度访谈发现,在人与机器建立亲密关系的过程中,机器情感表现出技术逻辑支配、商品化本质和亚文化社群联结等特征。同时,“人机之恋”作为一种赛博情感,对人类的现实情感构成了巨大的伦理挑战:人类在情感萌生过程中投射理想的自我,建构理想的情人。面对这种新型亲密关系及其情感表现,我们在理解的同时需要加以反思性的审视。  相似文献   

19.
算法作为人工智能技术的重要组成部分,已经成为决定“人机共生”关系走向的关键要素,同时也带来了人类认知上的“黑匣子”,限制了人类理解和使用技术的能力,引发了技术使用过程中的各种问题,导致了人类对算法的不充分信任。算法伦理审查的价值规范体系,包括算法伦理审查的标准化、制度化和结构化。发展负责任的算法,强化算法伦理审查的理性认知并建构实用框架,推进算法透明度、可解释性以及公众满意度等伦理维度指标落地,可以有效消解算法歧视和隐私暴露等问题,更好地推动算法伦理审查机制的健全完善。  相似文献   

20.
近年来脑机接口技术的发展为人类治疗疑难疾病、增强人体机能提供了可能,但与此同时也带来了诸多风险。为客观认识和规避这些风险,基于哈贝马斯的“包容他者”理论,将“机器他者”这一概念引入现代医疗领域,并从身份认知、知情权和隐私权、社会公平、责任归属等方面进行了分析和讨论。结果表明,当具有“意识”能力的“机器他者”介入人类主体后会导致“主客体”界限的模糊甚至互换,从而引发各种伦理冲突。对此提出用“有限包容”的态度来发展脑机接口这种充满未知的技术,以避免或减少其对人类安全和社会秩序可能产生的冲击和影响。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号