首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 515 毫秒
1.
以立法形式规定数据处理者的合理分析义务,是预防算法风险、推进算法规制的一条基本路径。基于元规制理念的合理分析义务设置,既是一种过程性规制,也是一种目的性规制。该义务要求数据处理者既应保证分析过程正当,还要确保分析结果合理。合理分析义务目前分散规定在我国个人信息保护法律体系中,按照自动化决策流程可将其类型化为三项内容:分析前的注意义务、分析过程中的控制义务、分析后的审查义务。合理分析义务的规范取向是防止算法歧视,公平对待公民个人或数据主体。数据处理者违反此种义务将面临行政责任和民事责任。当下主要的问责途径是惩治“大数据杀熟”“信息茧房”和“社会分选”现象。  相似文献   

2.
算法行政具有客观、高效优势,但同时伴随着技术内生的不确定性风险、法律层面权力行使与权利保障的挑战,以及价值层面技术理性吞噬价值理性等桎梏,亟需法律破解。规制对象是法律制度构建之前提,将“算法法权”作为算法行政风险的法律规制对象具有合理性和可行性,通过“权力—权利”的法权结构,可实现算法行政中“私权利、公权力、私权力”的整体性规制。质言之,算法行政风险的法律规制需要以“算法法权”的科学配置为核心,建构法律、伦理、技术与自我规制一体化的规制体系。  相似文献   

3.
平台“大数据杀熟”是通过算法侵害消费者权益的行为,存在社会伦理和技术伦理的双重可责性,应当予以规制。《反垄断法》《消费者权益保护法》《价格法》等传统法律制度对“大数据杀熟”的规制存在理念与制度层面的困境。鉴于大数据平台所具有的公共性特征及“大数据杀熟”侵害对象的不特定性,“大数据杀熟”规制可以借鉴公用事业理论,采取事前监管方式,对适格的平台主体施加透明、合理、非歧视的价格制定和标示义务,并通过设立专业的平台监管机构,确保上述义务得到履行。  相似文献   

4.
凭借对强大的数据资源的占有,算法技术逐渐披上了“权力的外衣”,随之而来也打破了原有的“权利”制约“权力”的平衡,出现算法权力异化问题。算法权力异化背景下,看似中立的算法技术,通过自动化决策与自动化评分等方式,将传统社会固有的性别歧视隐蔽式放大,使得劳动就业领域的法律保护机制失灵,算法权力与劳动权利的互动失衡。为此,应搭建用于劳动的自动化决策的第三方对话机制,从多领域实现对算法性别歧视规范体系的结构性扩容,确立算法治理中人的主体地位,以避免算法权力异化带来的劳动就业领域的性别歧视。  相似文献   

5.
用户画像技术在学术期刊智能化应用中为用户提供精准知识服务,但用户画像中个人信息的大规模应用加剧了用户信息收集、用户标签侵权以及算法歧视、算法偏见等风险,本文基于法律视角剖析学术期刊用户画像个人信息和敏感个人信息界定、个人信息主体权利认定、算法自动化决策透明度与可解释性的实现、个人信息处理者特殊保护义务的规定、个人信息跨境交流管理等,提出了学术期刊用户画像个人信息保护法律规制策略。  相似文献   

6.
人工智能时代已然到来,具备自主学习能力和预测能力的智能算法开始由虚拟空间向现实空间延伸。算法已不仅仅是特定的技术,更是社会权力运行体系中的重要变量。掌握算法的企业和组织利用技术优势,把控社会的信息及资源,引导政府的决策,形成了一种非国家力量的“准公权力”。算法权力是泛在的权力关系,遵循商业逻辑、偏好原则、技术理性和隐性运行四大规则,可以影响甚至代替公权力进行决策。算法权力缺乏监管,过度的资本化和黑箱化消解了政治正义,催生了制度羞辱,并且导致了权利保护的危机。防止算法权力的异化,建立良序的网络空间,需要以政府干预弱化资本依赖,以法律规制限制算法偏好,以算法伦理保障人的价值,以外督内审显化权力运行,从而构建完善的算法治理体系,保障社会的公平正义。  相似文献   

7.
对算法决策进行伦理反思是当前学界热点,但已有研究大都忽视了算法决策对人类认知活动造成的伤害,即威胁到人类作为认知者、解释者和证据来源的尊严。弗里克提出的“认识论不公正”概念则为我们捕捉这一伤害实质提供了有力工具。算法决策带来的认识论不公正,具体表现为以下两种形式:一是当人类证词可信度因客观性算法文化和自动化算法偏见等因素而遭遇系统性贬低时,就会出现证词不公正;二是当决策相关者因算法的认知非透明性特征而缺乏对其自身经验的理解,也难以对不利结果提出反驳时,就会出现解释学不公正。对此,可以尝试从构建可抗辩性的算法决策系统、培育决策者认知正义美德,以及回归算法辅助决策的工具性地位等方面着手,矫正算法决策带来的认识论不公正。  相似文献   

8.
基于算法决策的数字歧视是算法社会化应用中一项亟待解决的问题。算法对于个体的重塑效应是歧视产生的直接原因,而算法之社会化应用过程中的价值冲突则是产生算法歧视的根本原因。由此也导致了算法分析过程呈现出忽略意义的关系分析,以概率性陈述为基础的算法评价所导致的受保护特征的不确定。算法社会化应用中的歧视认定,应当冲破传统反歧视理论,从受保护场景、是否存在算法支配关系、基于受保护特征的差别待遇、对个体或者群体的不利影响以及是否符合比例原则几个角度综合评估。有鉴于此,《个人信息保护法》第24条的相关表述需要进行重新解释和厘定,其中包括决策“公平、公正”、算法解释的内容等;另外,基于算法的数字歧视行为,需同现行侵权制度接榫,并适时进行制度赓续,完善算法歧视的规范治理体系。  相似文献   

9.
从游戏对生存、娱乐与资本的发展影响来看,赛博人及其赛博行为已完全数据化,赛博人的身心在数字游戏中完全离场,仅成为资本增值的符号。尽管《互联网信息服务算法推荐管理规定》在一定程度上定义了“诱导用户沉迷、过度消费”,但仅靠现有规制措施难以取得实效。相关治理还面临着赛博人选择沉迷的自由意志争论,存在着网络游戏巨大的社会价值与个人价值的平衡难题。在整体规制已成趋势的肯认下,宜依法稳妥有序推进网瘾障碍相关标准的建立,为网瘾侵权损害责任的伸张奠定基础,同时积极完善相关公益诉讼体制机制,提升算法行政能力并细化算法监管模型。  相似文献   

10.
公共信用评价是信用监管的核心制度。随着算法技术的迭代,其在公共信用评价中的优势也日渐显现。“数据+算法”的智能融合是算法嵌入公共信用评价的技术逻辑,推动政府治理现代化和提升社会信用水平则分别构成算法嵌入公共信用评价的实践逻辑和价值逻辑。然而,算法在发挥技术优势的同时,也可能在公共信用评价中引发三重风险:技术风险,主要包括算法黑箱破坏评价公正性和数据质量影响评价准确性;法律风险,主要包括算法权力助推评价权力滥用和数据滥用危及隐私与信息安全;伦理风险,主要包括算法至上引发评价自主性困境和算法偏见破坏基于信用的分配正义。针对上述风险,在选择规制路径时宜采取“整体性视角”和“基于过程的方法”。在事前阶段,需要制定算法信用评价技术标准、建立算法信息公开制度、完善算法影响评估制度;在事中阶段,需要运用行政法治原则钳制行政权力、以信用及个人信息权利制衡算法权力;在事后阶段,需要完善公共信用评价异议申诉制度,同时强化对公共信用评价的算法审计和司法审查。  相似文献   

11.
自动化行政中算法决策应用仅限"三大类别",但仍无可避及与正当程序、行政公正等原则相背离之风险,甚至因不当或滥用而削弱行政裁量的能动性,最终影响行政决策的准确性而导致行政相对人权益损害等风险。算法决策"黑箱"性特征、数据质量瑕疵与相关制度规范缺失等是风险产生的客观成因,而行政主体对算法决策的不当操作与过度依赖是重要的主观成因。为防范该等风险、促进算法决策在自动化行政中的良性发展,在建构因应性的专门法律框架下,至少可从地位厘定、立法明定和程序控制等切入,以重申并坚定行政机关的主体地位、明确算法决策的工具属性,并明晰界定自动化行政中算法决策的具体应用场景,且须以比例原则先行完成系统预审,同时还须切实贯彻正当程序控制,在督进行政主体算法解释责任的同时,尽速完善行政相对人的权利救济。  相似文献   

12.
平台基于算法技术优势、数据与用户交互基础和资本优势对算法相对人生成具有控制性的新型社会权力,造就平台算法权力。随着算法权力的不断扩张,平台利用算法实施数据滥用、恶意封禁、算法歧视、侵蚀公共权力等现象频发,侵害包括消费者在内的相对人、平台内经营者合法权益与社会公共利益。针对此,在进行法律规制时应将算法承载着的平台的“代理者”角色作为认知基础,重点围绕作为算法权力滥用主体的平台以及平台的滥用行为来进行。具体而言,应赋予个人以新型权利的方式来对抗和制约算法权力,构建平台“守门人”约束制度以强化对“守门人”的权力监督,加强对平台的反垄断监管与执法。  相似文献   

13.
算法决策在社会信用体系建设场景中的应用日益广泛,信用信息客观公正性与信用主体权益面临更大挑战。作为一种新型权利,算法解释权能满足规制算法决策、保障信用主体权益的双重需求。然而,适用标准不明确、阶段与界限模糊成为阻碍算法解释权行使的主要因素。因此,应为算法解释权提供法治保障,明确其法律定位及适用标准,完善算法决策事前与事后解释的具体设计,同时建立对算法解释权主体的监督机制。  相似文献   

14.
算法技术作为一种技术范式,逐渐僭越其作为科学技术的中立属性,与各类资本主义意识形态或非主流意识形态密切联系在一起。审视算法技术的意识形态属性,需要从词源学与运行法则两个角度来厘清算法技术概念,并从先天因由与现实存因两方面来深入剖析算法技术与意识形态的关联耦合。在算法技术被广泛应用的当今社会,算法推送信息背后的资本逻辑、算法“定制化”服务的舒适陷阱、算法法治的不完善等对中国主流意识形态安全带来一系列风险挑战。基于此,要从优化算法技术逻辑、规制资本运行、提升网络用户精神境界、完善算法法治等方面提出有效应对措施。  相似文献   

15.
在数字时代,借助算法进行自动化决策的现象日益普遍。在个人信息处理者借助算法、利用个人信息进行自动化决策的情形下,算法不过是个人信息处理者进行决策的一种工具。借助算法进行自动化决策是个人信息处理者主动选择的结果,个人信息处理者对算法自动化决策的结果也具有控制力,其也因此需要对算法不当自动化决策所导致的损害承担民事责任。个人信息处理者就算法不当自动化决策所承担的民事责任具有多样性,个人既可以依法请求个人信息处理者承担违约责任,也可以依法请求个人信息处理者承担侵权责任。  相似文献   

16.
随着人工智能的普及与算法技术的发展,自动化决策广泛应用于银行领域。自动化决策有力地推动银行业提质增效并助力数字化转型,但它也带来算法错误、算法歧视、隐私泄露、认知偏差等多重风险。当前我国自动化决策面临国家规制难以适应现实需求和社会主体参与治理动力不足的双重困境。在多元共治视域下,这些困境的解决需要合理确定个人信息保护的边界,强化多元主体间的合作,采取多元路径推动算法治理不断完善,实现银行自动化决策算法的规范发展。  相似文献   

17.
以数据驱动的算法决策在公共部门和商业领域得到广泛应用,算法治理的呼声此起彼伏,算法解释权据此成为理论界与实务界关注的焦点。针对算法解释权能否作为一项法律权利,支持者与反对者都提出有力的论证。根据新兴权利的证成标准,算法解释权同时满足合理性、合法性与现实性标准,应当认定《个人信息保护法》第24条、第48条已赋予数据主体算法解释权。但算法解释权利在制度构造上需进一步限定,具体包括解释权的解释内容限于事后解释,通过权利主体、决策类型、行使边界限制适用范围及参照动态体系论中的具体要素,结合应用场景,确立算法解释标准。  相似文献   

18.
算法的广泛商用在提升经济效率的同时也降低了经营者实施合谋的门槛,增加了合谋成功的风险和概率,因而逐渐成为反垄断法的关注重点。算法共谋可以使得合谋者通过信息技术的传递更为便捷地进行意思交流,甚至超越了垄断协议对于寡头垄断市场结构的限制,从而成为反垄断法规制、适用的一大挑战。无论是垄断协议还是共同市场支配地位都难以直接应用到算法共谋的场景。但算法默示共谋本质上不是“新型合谋”,并未超出现行反垄断法的约束框架。通过梳理司法实践可以发现,协同行为是应对形态复杂、行为隐蔽的算法默示共谋最有效率的制度选择。因此,秉持着“有效竞争与有为政府”的建设目标,优化协同行为制度成为规制算法默示共谋的首选,在现有分析框架中增加对技术要素的考量可以最大化发挥制度的效率优势以化解技术发展带来的社会“负效率”。  相似文献   

19.
近年来,自动化行政决定方兴未艾。算法与行政权力的耦合实现了对传统人工决策的赋能,但也带来显著的黑箱效应,产生了对程序理性的冲击与侵蚀。对此,应当清楚认识自动化行政决定在算法治理与行政法治下的双重定位,串联起行政法与数据法中的既有制度规范,在行政过程论的视角下明确行政机关对自动化行政决定的说明义务。同时,须考虑说明义务在不同阶段的需求、成本,以及涉及的利益冲突,在具体构建中设计由面向公众的事前系统性说明和针对相对人与利益相关方在事中的具体个案说明组成的双层说明义务架构,实现自动化决定的理由之治,全面保障公民算法权利。  相似文献   

20.
把“物理实体、连接、数据、虚拟模型、服务”作为数字孪生模型的五个维度,与“输入、处理、输出”算法运作的三层过程结构相结合,提出一个数字孪生算法运作的“五维三构”模型。这一模型有助于理清数字孪生算法黑箱的生成机制并探寻其有效治理的路径。数字孪生机器学习算法的复杂性、数字孪生数据交互融合的动态性、数字孪生技术内嵌价值非中立性等因素,是造成其算法黑箱的内外部原因。数字孪生算法黑箱本质上是由于技术进步所带来的不确定性风险,人们对数字孪生算法决策的担忧也正是源于这种不确定风险的存在。因此,采取以算法解释权的运用应对数字孪生机器学习算法的复杂性、以交流与协作的方式应对数字孪生数据交互融合的动态性、以伦理与法律的规制应对数字孪生技术内嵌价值非中立性的治理路径,以有效减少数字孪生算法黑箱带来的不确定性风险,增强人们对数字孪生算法决策的可信任度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号