首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
算法作为一种前沿技术,极大地提高了社会运行效率,不断推进了社会发展模式革新。然而,由于算法技术的复杂性、相关法律政策的匮乏、算法素养的限制、公开算法动力不足以及算法安全维护等原因,形成了算法“黑箱”。“黑箱”的存在使得算法在公共领域的应用中,极易衍生出私人资本支配公权力、算法监管的政府失灵、政府信任危机等问题。对此,必须对算法“黑箱”加以治理,治理的关键在于实现“有意义的算法透明度”,具体可遵循构建政府责任义务体系、推动技术公司算法公开、发挥社会组织监督作用等路径。  相似文献   

2.
当前以大型互联网企业为代表的数字平台和企业影响力日益强大,成为全球算法治理机制的重要力量。企业算法合规是一种基于“算法风险”的专项合规管理,是企业为了有效防范、识别、应对可能发生的算法违规风险所建立的一整套公司治理体系。企业算法合规因具有改进算法治理模式、降低企业治理风险、提升权利保护水平、改进传统企业合规治理方式的优势,在算法治理中具有必要性。同时,中国特色企业算法合规的开展以“以人民为中心”为价值导向、以“创新与伦理的平衡”为应然边界、以“全面渗透与多层参与”为行动指南、以“公开透明和灵活持续”为执行要求,与当前算法治理的现实需求相吻合,因此具有成为算法治理新路径的可行性。  相似文献   

3.
基于算法决策的数字歧视是算法社会化应用中一项亟待解决的问题。算法对于个体的重塑效应是歧视产生的直接原因,而算法之社会化应用过程中的价值冲突则是产生算法歧视的根本原因。由此也导致了算法分析过程呈现出忽略意义的关系分析,以概率性陈述为基础的算法评价所导致的受保护特征的不确定。算法社会化应用中的歧视认定,应当冲破传统反歧视理论,从受保护场景、是否存在算法支配关系、基于受保护特征的差别待遇、对个体或者群体的不利影响以及是否符合比例原则几个角度综合评估。有鉴于此,《个人信息保护法》第24条的相关表述需要进行重新解释和厘定,其中包括决策“公平、公正”、算法解释的内容等;另外,基于算法的数字歧视行为,需同现行侵权制度接榫,并适时进行制度赓续,完善算法歧视的规范治理体系。  相似文献   

4.
因凭数据资源赋予的强大权力,大数据算法崛起成为去中心式交互网络中的高效行动元,算法对个体生活交往架构的重塑为“算法本体论”时代的来临赋予了合法性基础,算法在幕后“提线”操控着网络主体价值观念的变迁和网络意识形态话语的构建,成为网络信息传播与意识形态治理的关键变量。传统福柯式的意识形态规训体制逐渐被算法时代开放式的多元主体控制矩阵所取代,主流意识形态的生存处境遭受严重挑战。为实现从算法操纵主体到主体控制算法的反转,从算法失位到算法赋能主流意识形态的复归,应协同加强数据治理,打通数据孤岛、深耕人机合作,推进技术升级、创新叙事形式,生产优质话语、完善制度设计,坚持主体自律以形成治理合力祛除算法之蔽,为走出“算法本体论”时代价值引领的迷宫提供阿里阿德涅之线((1))。  相似文献   

5.
凭借对强大的数据资源的占有,算法技术逐渐披上了“权力的外衣”,随之而来也打破了原有的“权利”制约“权力”的平衡,出现算法权力异化问题。算法权力异化背景下,看似中立的算法技术,通过自动化决策与自动化评分等方式,将传统社会固有的性别歧视隐蔽式放大,使得劳动就业领域的法律保护机制失灵,算法权力与劳动权利的互动失衡。为此,应搭建用于劳动的自动化决策的第三方对话机制,从多领域实现对算法性别歧视规范体系的结构性扩容,确立算法治理中人的主体地位,以避免算法权力异化带来的劳动就业领域的性别歧视。  相似文献   

6.
超大型互联网平台算法以商业化利益为最终追求目标,对其法律规制就显得尤为重要。构建用户画像、差异化定价、精准推送和提供个性化服务是超大型互联网平台对算法的主要运用场景和目的。目前法律对算法的规制存在以下不足:规则分散且相互冲突;对算法本身规制不足;未能有效规制算法的设计者和所有者。通过数据保护、算法本身及算法相关责任人层面对欧盟和美国的算法法律规制的剖析,提出我国超大型互联网平台算法的法律规制路径:坚持数据治理为基础、三元主体协同理念以及算法公平、公正和透明原则;构建算法治理内在法律协调机制和完善相应法律规则。  相似文献   

7.
聚焦社会治理领域的算法应用伦理问题,以欧美社会治理中的智能算法应用为例,通过案例分析和归纳演绎相结合的方法,阐释智能算法嵌入社会治理面临的应用伦理风险,即算法“黑箱”与社会信任危机、算法歧视与社会不平等、隐私泄露与社会监视。基于此,从技术、伦理准则与法律、媒体三个层面提出欧美社会治理算法应用伦理的规制路径:一是优化算法技术,提升算法准确性和安全性;二是完善算法伦理准则和法律,构建智能算法善治体系;三是加强算法伦理的媒体监督,构建多元主体协商共治路径。本研究能够为我国人工智能伦理治理提供重要的启示与借鉴作用。  相似文献   

8.
当前数据驱动的算法认知的观念源于科学革命以来现代性建构进程中对“计算理性”和“量化社会”的追寻,它正在从根本上决定着深度智能化时代的伦理与政治结构。在基于世界的数据化的认知生态系统中,算法认知是一种生成性的力量,发挥着预测机器和现实制造的功能,同时基于算法认知的人机认知组合也导致了智能折叠。算法治理之道不能仅仅关注透明度和问责等一般性的科技伦理和法律治理框架,而应该从算法认知对伦理与政治的重新安排入手,探寻如何恰当运用技术赋予的权力构造一种可以让人们能够共处的生活方式,进而走出机器役使和社会驯化的困境,获得超越技术解决主义的足够智慧。  相似文献   

9.
人工智能时代的到来既丰富了国家治理的技术工具选择,也促使国家治理产生深刻的算法依赖。算法偏见的存在及其隐蔽性会引发国家治理公平难题,算法黑箱的存在使得不同主体都可以找到卸责理由从而会引发国家治理责任难题。人工智能企业拥有独特的技术优势,因而人工智能时代国家治理的算法依赖在某种意义上是国家对人工智能企业的技术依赖。应对算法依赖引发的国家治理难题既需要人工智能企业自律,也需要国家加强监管。建立硬覆盖算法备案说明制度、不定时算法抽检审查制度、开放式算法结果观测制度,是推进国家监管的关键行动举措。  相似文献   

10.
算法治理是社会治理主体综合运用算法技术,以精准满足治理对象的需求为目标,对社会治理中的议题进行精准识别、精准判断、精准制策的社会治理过程。作为一种新型的社会治理方式,算法治理具有强大的功能,可以精准识别治理议题、精准预判社会矛盾和精准满足治理对象的多元化需求。因此,算法治理极大提升了社会治理体系和治理能力现代化的水平。然而,由于算法技术本身的不成熟和在社会治理过程中的误用,产生了诸多社会伦理问题,集中体现为4个方面:算法治理过程的不透明酿成社会信任危机、算法治理行为的不确定引发社会正义问题、算法治理方案的不精准诱发社会公平问题、算法治理准则的不恰当造成社会价值问题。在实践中,要从算法治理产生社会伦理问题的深层原因着手,有针对性地对算法技术进行驯服,从观念、文化、制度等多个层面着手迎接算法时代的到来,助推算法治理朝着人类美好生活的目标迈进。  相似文献   

11.
“隐私担忧”指涉了与隐私泄露和隐私侵害相关联的一系列特殊的信息意识和感知状态,个体遭遇隐私侵害时会唤醒或提升自身的隐私忧虑,并会影响个体信息披露和隐私保护行为,这也符合信息自决的权利意涵。5G、人工智能、VR等技术的广泛应用,使短视频的内容生产与使用体验更为垂直化与沉浸化,也进一步模糊了传播活动的边界,短视频平台去中心化的内容分发机制也加剧了隐私泄露的风险。算法对大量数据的高速处理能力,能有效提升隐私治理的精确性与效能,严格的算法规则更显示出人机共审、自审与他审协同治理的优势。本研究聚焦如何通过算法治理来有效解决短视频使用中潜在的隐私担忧问题,通过对抖音短视频平台用户进行深度访谈,分析用户隐私担忧的影响因素,以此探索打破算法黑箱、优化算法规制,提升短视频平台用户隐私保护水平的治理路径。本研究认为,治理隐私泄露问题的关键必须回归算法本身,实施元规制治理,从而优化人机公审机制,以此构建算法治理与法治相协调的“三步走”模式——通过事前预防机制、事中多方监督与事后救济规制来推进算法治理法治化。  相似文献   

12.
随着大数据和人工智能时代的到来,算法技术日益广泛嵌入政府治理过程,依算法而治理正在成为政府治理的新途径。然而,在技治主义和工具理性双重逻辑驱动下的政府算法治理日益体现出封闭和排斥公众参与的特征,损失了政府算法治理的有效性与合法性。对公众是否应当参与政府算法治理当中,公众又应当以何种方式有效参与等议题展开的理论分析表明:算法技术引入公共领域应进行技术的公共性重构,而公众参与是平衡其价值理性缺失的有效途径,其重塑的路径是通过创设算法公开、公众调查、听证、治理专家参与、共同生产等公众算法参与工具,并有机嵌入算法制度设计、议程决策、算料供给、算法训练、算法应用的全过程,构建公众算法影响机制。  相似文献   

13.
把“物理实体、连接、数据、虚拟模型、服务”作为数字孪生模型的五个维度,与“输入、处理、输出”算法运作的三层过程结构相结合,提出一个数字孪生算法运作的“五维三构”模型。这一模型有助于理清数字孪生算法黑箱的生成机制并探寻其有效治理的路径。数字孪生机器学习算法的复杂性、数字孪生数据交互融合的动态性、数字孪生技术内嵌价值非中立性等因素,是造成其算法黑箱的内外部原因。数字孪生算法黑箱本质上是由于技术进步所带来的不确定性风险,人们对数字孪生算法决策的担忧也正是源于这种不确定风险的存在。因此,采取以算法解释权的运用应对数字孪生机器学习算法的复杂性、以交流与协作的方式应对数字孪生数据交互融合的动态性、以伦理与法律的规制应对数字孪生技术内嵌价值非中立性的治理路径,以有效减少数字孪生算法黑箱带来的不确定性风险,增强人们对数字孪生算法决策的可信任度。  相似文献   

14.
以数据驱动的算法决策在公共部门和商业领域得到广泛应用,算法治理的呼声此起彼伏,算法解释权据此成为理论界与实务界关注的焦点。针对算法解释权能否作为一项法律权利,支持者与反对者都提出有力的论证。根据新兴权利的证成标准,算法解释权同时满足合理性、合法性与现实性标准,应当认定《个人信息保护法》第24条、第48条已赋予数据主体算法解释权。但算法解释权利在制度构造上需进一步限定,具体包括解释权的解释内容限于事后解释,通过权利主体、决策类型、行使边界限制适用范围及参照动态体系论中的具体要素,结合应用场景,确立算法解释标准。  相似文献   

15.
对老年人歧视的社会与制度偏见嵌套入"算法黑箱"中,不仅技术性固化了传统老年人歧视社会建构的场景观念,而且加剧了对老年人群体社会排斥的隐性歧视,与"积极应对人口老龄化"国家战略要求相背离。建立在互联网、大数据、人工智能、量子信息与区块链等数字化信息技术快速迭代发展基础上的算法,不仅将老年人技术性歧视为原子型与比特型两类群体,进而对比特型群体的老年人以微粒化与标签化的方式进行直接或间接隐性歧视,而且利用其时间复杂度与空间复杂度的特点,将现行法律法规中存在的"年龄歧视"等立法不足或缺陷问题给与"合法化"承认并无限放大,实质损害老年人群体的应然权益。通过对老年人叠加算法后遭遇的三种主要歧视类型进行原因解读,明晰社会变迁与科技发展叠加背景下老年人同时遭遇"前喻文化"代际鸿沟与技术迭代数字鸿沟的双重冲击,而进入比特世界场景的老年人仍然面临嵌套偏见与复杂规则的算法塑造的老年人画像的直接排斥或不公平对待间接歧视的自动化决策歧视情形。我国现行立法关于老年人的单一年龄维度界定标准与有关老年人退休、退职的规定,既无视老年人的个体差异性,也脱离了社会发展的实际情况,不符合社会保障法的功能设计与本质要求。因此,应从法治的角度进行顶层设计,对破解老年人算法歧视与积极应对人口老龄化国家战略之间存在的现实矛盾与发展悖论问题予以合理化规制,即用分层理论完善老年人法律制度以纠正法律本质主义年龄歧视下的制度性缺陷,解构数字孪生法律制度嵌套规制老年人歧视的"算法黑箱",赋予老年人算法自决权以积极推动"积极应对人口老龄化"国家战略,从而平衡科技发展与老年人群体权益保护之间的利益关系,确保科技向善和算法造福老年人。  相似文献   

16.
算法并非意识形态无涉的价值真空地带,技术与价值的相互耦合促使算法产生出强烈的意识形态属性。在算法所座驾而形成的数字社会中,算法歧视、算法牢笼、算法黑箱导致主流意识形态的认同度、引领力和凝聚力都陷入了新的风险情境,而这些意识形态风险得以生成的内在机理表现为:大数据通过对社会建构的中介性作用诱使人们形成了数据崇拜的意识形态方式,算法权力通过对人们的数字权利的支配而形成了算法统治的监控体系,算法与大数据的深度联合实现了意识形态的智能操控,由此,算法成为意识形态风险滋生的数字温床。然而,算法的意识形态风险不应导致对算法的“卢德主义”拒斥,算法仍是赋能意识形态建设的重要利器。基于此,必须强化主流意识形态对算法的价值引领、矫正算法的技术漏洞,从而推动算法成为社会主义意识形态建设的强大助力。  相似文献   

17.
数字化社会场景中,特殊群体基于年龄、智力、身体等自身原因,数字化、智能化等技术原因以及法律等制度规范不完备等制度原因,不能充分获取、理解、适用相关数据和享有数据红利,形成数字权利弱势群体。从深层次上看,特殊群体数字权利弱化主要体现在法定权利转为实际权利存在困难、数字权力面前数字福利实现困难、新技术更迭加剧特殊群体原有权利弱化等方面。特殊群体数字权利实现需破解“制度笼子、数据铁笼、算法牢笼”,可从理念上坚守“以人为中心”的法治伦理、遵循“善法”抵制“恶法”;法律等制度规范上优化基础性治理理念、适当拓展我国既定法律等制度规范治理边界、增加或丰富我国既定法律等制度规范治理手段;高新科技领域崇尚“科技向善”理念,通过德算法的嵌入、工具理性向价值理性转化等方面,保障特殊群体数字权利真正落地,促进我国数字社会健康、稳步发展。  相似文献   

18.
算法消费者是数字经济中新业态新模式下的消费者,具有可分类、可预测和可被操纵的特点。算法消费者的生成机理体现在认知、动因和结构三方面:从认知层面上,人工智能体思维在心理认知学、意思表示等方面与人类思维的差异,决定了算法只是智能互联网平台的一种工具;从动因层面上,算法消费者的形成顺应了消费者行为理论数字化演变的趋势;从结构层面上,以算法为纽带的平台和算法消费者之间关系的失衡,意味着应给予算法消费者特别保护。国外算法消费者的保护方案虽然在法律形式上有所差异,但均以寻求平台监管和算法消费者保护之间的平衡作为内核,具体体现为赋予算法消费者算法权利和强调以透明度为核心的算法治理两方面。我国应在把握数字经济发展规律的基础上,完善平台监管、算法规制的分级制度,健全平台数据合规和算法的治理制度,确立平台数字社会责任和算法伦理制度,最终通过平台治理模式和算法权利成长的权责制度以推进算法消费者保护的制度构建。  相似文献   

19.
算法时代已然来临,算法技术的发展为经济全球化带来了前所未有的机遇,同时也带来了许多隐形的风险。目前,算法治理面临困境,增强数字企业算法合规意识,强化算法合规治理已刻不容缓。企业算法合规有利于改善算法治理困境、最大化规避数字企业风险、遵循保护人权的国际标准、优化传统合规治理方式,是符合时代要求的专项合规计划。企业算法合规应有明确的指导原则并建构系统规程。未来,我们可以从构建企业合规风险评估及信息传达机制、优化企业算法合规方案的监督完善机制、强化企业算法合规的外部激励机制、构造尊重人权的“道德基础设施”等方面优化企业算法合规路径,完善企业算法合规的中国方案。  相似文献   

20.
张卓 《国际公关》2023,(22):91-93
随着互联网技术的普及,越来越多的人进入被算法影响的环境。算法除了辅助人们高效处理各种复杂情况,也带来了一些负面影响,可能会对人的权利、心理健康等方面产生恶劣影响。本文将已产生的算法问题按照算法至上、算法歧视、算法黑箱进行分类,并剖析各类算法问题产生的根本原因,以期为我国算法治理领域提供新思路。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号