首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
算法决策在社会信用体系建设场景中的应用日益广泛,信用信息客观公正性与信用主体权益面临更大挑战。作为一种新型权利,算法解释权能满足规制算法决策、保障信用主体权益的双重需求。然而,适用标准不明确、阶段与界限模糊成为阻碍算法解释权行使的主要因素。因此,应为算法解释权提供法治保障,明确其法律定位及适用标准,完善算法决策事前与事后解释的具体设计,同时建立对算法解释权主体的监督机制。  相似文献   

2.
《个人信息保护法》第24条规定,个人认为自动化决策对其权益造成重大影响的,有权要求个人信息处理者予以说明,此条被认为是对算法解释权的明文确定。但是,对于权益主体的确定、权益影响的程度以及解释内容的要求,第24条并未进一步做出具体规定,考虑到公私领域对算法解释规范对象和规范目标的不同,在私人领域中,算法解释的权益主体应为确定型主体,其形式权益遭受影响才能提出算法解释的主张,而信息处理者只需对算法进行事物性解释,在公共领域中,算法解释的主体应为确定或相关型主体,无论是形式还是实质权益遭受影响都可以提出算法解释的主张,而信息处理者需对算法进行事物或事理性解释,此举有利于促进技术发展与权利保障、公共利益与个人利益之间的价值平衡。  相似文献   

3.
自动化行政中算法决策应用仅限"三大类别",但仍无可避及与正当程序、行政公正等原则相背离之风险,甚至因不当或滥用而削弱行政裁量的能动性,最终影响行政决策的准确性而导致行政相对人权益损害等风险。算法决策"黑箱"性特征、数据质量瑕疵与相关制度规范缺失等是风险产生的客观成因,而行政主体对算法决策的不当操作与过度依赖是重要的主观成因。为防范该等风险、促进算法决策在自动化行政中的良性发展,在建构因应性的专门法律框架下,至少可从地位厘定、立法明定和程序控制等切入,以重申并坚定行政机关的主体地位、明确算法决策的工具属性,并明晰界定自动化行政中算法决策的具体应用场景,且须以比例原则先行完成系统预审,同时还须切实贯彻正当程序控制,在督进行政主体算法解释责任的同时,尽速完善行政相对人的权利救济。  相似文献   

4.
算法的黑箱状态掩藏并固化了原有不平等的社会权力结构,产生了诸如算法歧视等失控问题。算法规制的私法进路在于明确算法控制者与数据主体的权利义务关系,以保障个人免受算法的规训。私法规制的前提是,算法应当被认定为工具,背后的控制者(开发者)应对算法失控的后果承担责任。算法决策离不开数据,算法失控问题的根源在于算法控制者收集的数据存在问题。个人作为数据主体对个人信息(数据)享有人格权,算法控制者提供服务以获得使用权,两者之间的法律关系应解释为信托关系,在信义义务的框架下算法控制者负有勤勉、忠实和信息披露义务。明确算法控制者的义务后,更应在私法权利谱系中寻找规制算法的工具,包括数据主体的个人信息权确立与隐私权夯实两条进路。  相似文献   

5.
凭借对强大的数据资源的占有,算法技术逐渐披上了“权力的外衣”,随之而来也打破了原有的“权利”制约“权力”的平衡,出现算法权力异化问题。算法权力异化背景下,看似中立的算法技术,通过自动化决策与自动化评分等方式,将传统社会固有的性别歧视隐蔽式放大,使得劳动就业领域的法律保护机制失灵,算法权力与劳动权利的互动失衡。为此,应搭建用于劳动的自动化决策的第三方对话机制,从多领域实现对算法性别歧视规范体系的结构性扩容,确立算法治理中人的主体地位,以避免算法权力异化带来的劳动就业领域的性别歧视。  相似文献   

6.
算法歧视与自动决策系统相伴而生,并散布于很多领域。现有法律不能有效规制算法歧视,相关法律部门为此分别进行立法修法的成本又过高。本文认为我国应利用第十三届全国人大拟制定个人信息保护法的契机,采用个人信息保护法与合理算法标准相结合的综合治理路径,禁止算法歧视,保护数据主体获得平等对待的权利。  相似文献   

7.
自动化行政是人工智能技术在行政管理领域的具体运用。随着科技的发展,部分行政任务开始由传统的人工处理转变为机器处理,行政正当程序的应有功用在自动化行政中难以有效发挥。其主要表现为:算法的不透明遮蔽行政公开原则;数据和算法偏见动摇行政公正原则;自动化行政系统的封闭性架空行政参与原则。为了最大限度地保护相对人的程序性权利,自动化行政需坚持最低限度公正行政程序标准,秉持自动化行政过程中对相对人程序性权利的保护水准不能低于人工执法的理念。自动化行政下行政正当程序可从三方面实现:加强卷宗阅览权的保障实现行政公开;排除数据和算法偏见实现行政公正;基于决策流程的开放性实现行政参与。  相似文献   

8.
目前不少学者关注我国法律解释权的配置问题,提出了各种观点。然而,探讨我国法律解释权的配置必须立足于我国当前的实际情况。从现实角度出发,有三个方面的问题成为改进我国法律解释权配置应当关注的重点:一是立法机关与司法机关法律解释权的协调性,这是立法解释和司法解释在我国的特殊地位决定的。二是不同主体行使法律解释权的统一性,这是我国当前法律解释权主体泛滥带来的。三是所有主体法律解释权行使的规范性,这是各种主体法律解释权行使极不规范引发的。关注这三个重点问题,才能真正在改进我国法律解释权配置的研究中有较大收获。  相似文献   

9.
法律解释由解释的任务、标的和主体三项要素构成,它与审判活动之间具有不可分割的逻辑联系。“司法解释”的概念,应是对这种紧密联系的回应和强调。法律解释的平意方法以及解释中避免混入价值判断,并非保证法律适用客观性的关键所在。确立法官的解释权主体地位,使司法解释显性化,既具有必然性又具有必要性,这才是推进司法独立的当务之急。以最大限度保全或最小程度丧失法律的确定性为标准,在配置法律解释权的多种方案中选择最优的来保障解释客观性,最终获选的是由法官进行法律解释。  相似文献   

10.
近年来,自动化行政决定方兴未艾。算法与行政权力的耦合实现了对传统人工决策的赋能,但也带来显著的黑箱效应,产生了对程序理性的冲击与侵蚀。对此,应当清楚认识自动化行政决定在算法治理与行政法治下的双重定位,串联起行政法与数据法中的既有制度规范,在行政过程论的视角下明确行政机关对自动化行政决定的说明义务。同时,须考虑说明义务在不同阶段的需求、成本,以及涉及的利益冲突,在具体构建中设计由面向公众的事前系统性说明和针对相对人与利益相关方在事中的具体个案说明组成的双层说明义务架构,实现自动化决定的理由之治,全面保障公民算法权利。  相似文献   

11.
把“物理实体、连接、数据、虚拟模型、服务”作为数字孪生模型的五个维度,与“输入、处理、输出”算法运作的三层过程结构相结合,提出一个数字孪生算法运作的“五维三构”模型。这一模型有助于理清数字孪生算法黑箱的生成机制并探寻其有效治理的路径。数字孪生机器学习算法的复杂性、数字孪生数据交互融合的动态性、数字孪生技术内嵌价值非中立性等因素,是造成其算法黑箱的内外部原因。数字孪生算法黑箱本质上是由于技术进步所带来的不确定性风险,人们对数字孪生算法决策的担忧也正是源于这种不确定风险的存在。因此,采取以算法解释权的运用应对数字孪生机器学习算法的复杂性、以交流与协作的方式应对数字孪生数据交互融合的动态性、以伦理与法律的规制应对数字孪生技术内嵌价值非中立性的治理路径,以有效减少数字孪生算法黑箱带来的不确定性风险,增强人们对数字孪生算法决策的可信任度。  相似文献   

12.
基于算法决策的数字歧视是算法社会化应用中一项亟待解决的问题。算法对于个体的重塑效应是歧视产生的直接原因,而算法之社会化应用过程中的价值冲突则是产生算法歧视的根本原因。由此也导致了算法分析过程呈现出忽略意义的关系分析,以概率性陈述为基础的算法评价所导致的受保护特征的不确定。算法社会化应用中的歧视认定,应当冲破传统反歧视理论,从受保护场景、是否存在算法支配关系、基于受保护特征的差别待遇、对个体或者群体的不利影响以及是否符合比例原则几个角度综合评估。有鉴于此,《个人信息保护法》第24条的相关表述需要进行重新解释和厘定,其中包括决策“公平、公正”、算法解释的内容等;另外,基于算法的数字歧视行为,需同现行侵权制度接榫,并适时进行制度赓续,完善算法歧视的规范治理体系。  相似文献   

13.
算法消费者是数字经济中新业态新模式下的消费者,具有可分类、可预测和可被操纵的特点。算法消费者的生成机理体现在认知、动因和结构三方面:从认知层面上,人工智能体思维在心理认知学、意思表示等方面与人类思维的差异,决定了算法只是智能互联网平台的一种工具;从动因层面上,算法消费者的形成顺应了消费者行为理论数字化演变的趋势;从结构层面上,以算法为纽带的平台和算法消费者之间关系的失衡,意味着应给予算法消费者特别保护。国外算法消费者的保护方案虽然在法律形式上有所差异,但均以寻求平台监管和算法消费者保护之间的平衡作为内核,具体体现为赋予算法消费者算法权利和强调以透明度为核心的算法治理两方面。我国应在把握数字经济发展规律的基础上,完善平台监管、算法规制的分级制度,健全平台数据合规和算法的治理制度,确立平台数字社会责任和算法伦理制度,最终通过平台治理模式和算法权利成长的权责制度以推进算法消费者保护的制度构建。  相似文献   

14.
加快数字化发展是我国的战略规划,然而私权制度的底层逻辑还远不能支撑这一规划。算法归责应有理性标准,理性标准是民事归责制度中的必要评判工具,同时算法适用理性标准可以促进正义,还具有技术价值。然而,算法与传统主体有很大差异,算法归责直接适用传统主体理性标准将面临困境。所以,在现阶段应当明确算法的意思参与机制是归责的前提;传统主体在算法的开发使用中应承担应有的积极注意义务;通过承认部分算法的行为主体性和为算法设计独立责任来协调算法与传统归责体系的结构冲突。  相似文献   

15.
平台基于算法技术优势、数据与用户交互基础和资本优势对算法相对人生成具有控制性的新型社会权力,造就平台算法权力。随着算法权力的不断扩张,平台利用算法实施数据滥用、恶意封禁、算法歧视、侵蚀公共权力等现象频发,侵害包括消费者在内的相对人、平台内经营者合法权益与社会公共利益。针对此,在进行法律规制时应将算法承载着的平台的“代理者”角色作为认知基础,重点围绕作为算法权力滥用主体的平台以及平台的滥用行为来进行。具体而言,应赋予个人以新型权利的方式来对抗和制约算法权力,构建平台“守门人”约束制度以强化对“守门人”的权力监督,加强对平台的反垄断监管与执法。  相似文献   

16.
因凭数据资源赋予的强大权力,大数据算法崛起成为去中心式交互网络中的高效行动元,算法对个体生活交往架构的重塑为“算法本体论”时代的来临赋予了合法性基础,算法在幕后“提线”操控着网络主体价值观念的变迁和网络意识形态话语的构建,成为网络信息传播与意识形态治理的关键变量。传统福柯式的意识形态规训体制逐渐被算法时代开放式的多元主体控制矩阵所取代,主流意识形态的生存处境遭受严重挑战。为实现从算法操纵主体到主体控制算法的反转,从算法失位到算法赋能主流意识形态的复归,应协同加强数据治理,打通数据孤岛、深耕人机合作,推进技术升级、创新叙事形式,生产优质话语、完善制度设计,坚持主体自律以形成治理合力祛除算法之蔽,为走出“算法本体论”时代价值引领的迷宫提供阿里阿德涅之线((1))。  相似文献   

17.
算法运用导致的算法歧视正危害着民事主体的合法权益。不同国家(地区)分别从事前预防或事后问责两个维度展开对算法歧视的治理;目前我国在事前主要通过公法进行数据规制与个人赋权,同时在事后采用行政问责来应对算法歧视。在事前预防模式下存在新型权利行使障碍、责任主体不明确等问题,事后问责机制则忽略了民事主体的私法救济路径,存在效率低下等弊端。鉴此,需要明确算法歧视作出方的民事义务,在行政问责机制基础上完善以私法救济为核心的侵权责任法律体系,丰富事后问责体系,与事前规制共同治理算法歧视。在路径上可通过厘清算法歧视归因、公法规制困境以及侵权责任救济的适配性,将公法中对算法歧视治理的理念纳入侵权救济体系,对算法歧视侵权的归责原则、过错认定、免责事由等内容进行丰富与扩展,达到国家干预与调控算法歧视相济的正当性目的与法律效果。  相似文献   

18.
论WTO协定的法律解释   总被引:1,自引:0,他引:1  
在分析WTO协定法律解释必要性的基础上,探讨了行使WTO协定法律解释权的主体、法律解释的立足点和标准等问题。指出部长级会议和总理事会的专有解释属立法解释,专家组和上诉机构的解释属法律适用的解释;在解释时应以文意解释为立足点,遵循合理预期、有效性、不溯及既往原则,开展WTO协定法律解释。  相似文献   

19.
检察官说理在检察执法办案中具有重要性,为了使说理更具有权威性,就要使说理充分体现宪法精神,目前检察官说理基本上未充分体现宪法精神。体现宪法精神的路径是解释法律,检察官说理离不开解释法律,而宪法是最重要的一部法律,因此解释法律离不开解释宪法。每位检察官都是合宪性解释的主体,都享有法律解释权和宪法解释权,解释权如要具有法律...  相似文献   

20.
在现行法律解释体制下,行政解释、检察解释都具有溢出效力,因而行政机关、检察机关行使法律解释权易导致其权力的闭合运行,破坏法制统一,违背法治原则,不利于人权保障,且其存在已于法无据,所以应取消。全国人大常委会享有法律解释权符合人大制度逻辑要求,且其法律解释就解释场景来说也是应用解释而非立法,所以应当以全国人大常委会和最高人民法院为主体重构法律解释体制,其中,全国人大常委会是法律解释的监督者,法律解释权主要由最高人民法院行使。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号