首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
公共信用评价是信用监管的核心制度。随着算法技术的迭代,其在公共信用评价中的优势也日渐显现。“数据+算法”的智能融合是算法嵌入公共信用评价的技术逻辑,推动政府治理现代化和提升社会信用水平则分别构成算法嵌入公共信用评价的实践逻辑和价值逻辑。然而,算法在发挥技术优势的同时,也可能在公共信用评价中引发三重风险:技术风险,主要包括算法黑箱破坏评价公正性和数据质量影响评价准确性;法律风险,主要包括算法权力助推评价权力滥用和数据滥用危及隐私与信息安全;伦理风险,主要包括算法至上引发评价自主性困境和算法偏见破坏基于信用的分配正义。针对上述风险,在选择规制路径时宜采取“整体性视角”和“基于过程的方法”。在事前阶段,需要制定算法信用评价技术标准、建立算法信息公开制度、完善算法影响评估制度;在事中阶段,需要运用行政法治原则钳制行政权力、以信用及个人信息权利制衡算法权力;在事后阶段,需要完善公共信用评价异议申诉制度,同时强化对公共信用评价的算法审计和司法审查。  相似文献   

2.
平台基于算法技术优势、数据与用户交互基础和资本优势对算法相对人生成具有控制性的新型社会权力,造就平台算法权力。随着算法权力的不断扩张,平台利用算法实施数据滥用、恶意封禁、算法歧视、侵蚀公共权力等现象频发,侵害包括消费者在内的相对人、平台内经营者合法权益与社会公共利益。针对此,在进行法律规制时应将算法承载着的平台的“代理者”角色作为认知基础,重点围绕作为算法权力滥用主体的平台以及平台的滥用行为来进行。具体而言,应赋予个人以新型权利的方式来对抗和制约算法权力,构建平台“守门人”约束制度以强化对“守门人”的权力监督,加强对平台的反垄断监管与执法。  相似文献   

3.
算法作为人工智能的核心,以大量数据流为基础,按照被赋予的逻辑运算规则,进行数据处理分析,为日常生活、商业金融和行政自动化辅助乃至于独立决策提供服务。算法自动化决策虽带来了诸多便利,但也催生了“算法黑箱”“算法歧视”“信息茧房”“算法趋同”等新的安全风险。为规制算法、防治算法权力异化,《个人信息保护法》《互联网信息服务算法推荐管理规定》等法律法规相继出台,由此中国建立了多元的算法规制路径:针对算法的控制者和编写者,采用算法评估制度、算法备案制度、算法解释、算法检查制度以及严格的侵权问责进行规制;针对算法的相对人,采用个人数据赋权的方式保护用户权益。  相似文献   

4.
大数据、人工智能、算法推荐技术等信息技术的快速迭代,推动了传统社会的数字化转型,传统新闻业同样在开展数字化转型升级。在此背景下,随着新闻信息过载的不断加剧,由大数据衍生出的算法推荐新闻迅速崛起,算法信任、数据优势与新闻媒介的数字化客观上为算法推荐新闻的应用和发展奠定了基础。毋庸置疑,算法推荐新闻对于实现新闻准确分发、增强新闻受众黏性具有重要意义,智慧化、瞬时性的算法推荐新闻具有精准、高效、个性化优势,但同时算法作为一种复杂性、不确定性技术,带来了多层面、多环节、多领域的风险挑战和制度掣肘,算法推荐新闻同样引发了"算法黑箱" "算法偏差" "技术霸权""责任缺口"与"信息泄露"等多种伦理风险。当前,学界对于算法推荐技术本身是否真的成熟,以及算法推荐新闻可能引发的伦理危机研判明显不足。对此,从技术不确定性理论所内嵌的技术本身不确定性、技术认知不确定性与技术制度不确定性三个向度,可以为算法推荐新闻的伦理风险提供适当的分析框架,在此基础上厘清算法推荐新闻伦理风险发生的根源,可将其归纳为技术本身不确定性向度的数学洗脑与主体性缺失、技术认知不确定性向度的能力不足与底线失守以及技术制度不确定性向度的法律规范与伦理体系的不完善。具言之,算法推荐新闻作为一种新兴技术,已有伦理形态与法律规范逐渐无法有效规制其伦理风险,亟需建构专业化、制度化的算法推荐新闻伦理风险规制体系。算法推荐新闻伦理风险的法律规制应当奉行何种原则是规制路径建构的前提性、方向性议题,分析认为技术不确定性下算法推荐新闻伦理风险的法律规制需坚持新闻透明原则、价值中立原则和德法共治原则。当然,随着算法推荐技术、云计算等新兴技术的不断进化,新闻透明原则亦需与时俱进,对算法推荐新闻的新兴伦理风险予以有效规制,新闻从业者、算法推荐新闻分发平台等要坚持以价值中立原则为指导,强化算法推荐新闻中"人"的主体性地位,并在德法共治原则指导下明确算法推荐新闻伦理风险的法律规制范式。从以上原则出发,算法推荐新闻伦理风险的法律规制,应当针对不同类型的伦理风险进行有针对性的制度建构,即在技术本身不确定性向度加强算法公开与算法解释权、数据权利等保障,在技术认知不确定性向度推动新闻从业者计算思维的培养及伦理约束,在技术制度不确定性向度采取伦理结构化与法律问责等规制对策。  相似文献   

5.
人工智能时代已然到来,具备自主学习能力和预测能力的智能算法开始由虚拟空间向现实空间延伸。算法已不仅仅是特定的技术,更是社会权力运行体系中的重要变量。掌握算法的企业和组织利用技术优势,把控社会的信息及资源,引导政府的决策,形成了一种非国家力量的“准公权力”。算法权力是泛在的权力关系,遵循商业逻辑、偏好原则、技术理性和隐性运行四大规则,可以影响甚至代替公权力进行决策。算法权力缺乏监管,过度的资本化和黑箱化消解了政治正义,催生了制度羞辱,并且导致了权利保护的危机。防止算法权力的异化,建立良序的网络空间,需要以政府干预弱化资本依赖,以法律规制限制算法偏好,以算法伦理保障人的价值,以外督内审显化权力运行,从而构建完善的算法治理体系,保障社会的公平正义。  相似文献   

6.
通过对脑机接口技术多领域扩散的应用观察,返观内视其大脑离身于躯体、意念“遥控”动作、物性超越于灵性的生长逻辑。在技术扩散中,脑隐私数据泄露化、脑意识恶意操纵化、脑算法资本垄断化、个人信息圈壁垒化的风险随之外溢。对此,须在寻求技术规制理论支持的基础上,结合锚定脑机接口技术的核心价值取向,搭建“神经权利”的法律保护框架,限定脑机接口技术的实践应用场景,预防脑机接口技术的资本垄断风险,对这些法律规制问题给予充分的时代回应。  相似文献   

7.
聚焦社会治理领域的算法应用伦理问题,以欧美社会治理中的智能算法应用为例,通过案例分析和归纳演绎相结合的方法,阐释智能算法嵌入社会治理面临的应用伦理风险,即算法“黑箱”与社会信任危机、算法歧视与社会不平等、隐私泄露与社会监视。基于此,从技术、伦理准则与法律、媒体三个层面提出欧美社会治理算法应用伦理的规制路径:一是优化算法技术,提升算法准确性和安全性;二是完善算法伦理准则和法律,构建智能算法善治体系;三是加强算法伦理的媒体监督,构建多元主体协商共治路径。本研究能够为我国人工智能伦理治理提供重要的启示与借鉴作用。  相似文献   

8.
算法运用导致的算法歧视正危害着民事主体的合法权益。不同国家(地区)分别从事前预防或事后问责两个维度展开对算法歧视的治理;目前我国在事前主要通过公法进行数据规制与个人赋权,同时在事后采用行政问责来应对算法歧视。在事前预防模式下存在新型权利行使障碍、责任主体不明确等问题,事后问责机制则忽略了民事主体的私法救济路径,存在效率低下等弊端。鉴此,需要明确算法歧视作出方的民事义务,在行政问责机制基础上完善以私法救济为核心的侵权责任法律体系,丰富事后问责体系,与事前规制共同治理算法歧视。在路径上可通过厘清算法歧视归因、公法规制困境以及侵权责任救济的适配性,将公法中对算法歧视治理的理念纳入侵权救济体系,对算法歧视侵权的归责原则、过错认定、免责事由等内容进行丰富与扩展,达到国家干预与调控算法歧视相济的正当性目的与法律效果。  相似文献   

9.
当前以大型互联网企业为代表的数字平台和企业影响力日益强大,成为全球算法治理机制的重要力量。企业算法合规是一种基于“算法风险”的专项合规管理,是企业为了有效防范、识别、应对可能发生的算法违规风险所建立的一整套公司治理体系。企业算法合规因具有改进算法治理模式、降低企业治理风险、提升权利保护水平、改进传统企业合规治理方式的优势,在算法治理中具有必要性。同时,中国特色企业算法合规的开展以“以人民为中心”为价值导向、以“创新与伦理的平衡”为应然边界、以“全面渗透与多层参与”为行动指南、以“公开透明和灵活持续”为执行要求,与当前算法治理的现实需求相吻合,因此具有成为算法治理新路径的可行性。  相似文献   

10.
由于行政权力自身的矛盾性 ,即行政权力“所属主体”与“行使主体”的分离、行政关系与行政价值关系的不同一、“公共意志”与“权力意志”的冲突 ,行政权力就具有了双重的规定性。一方面 ,行政权力具有执行性、管理性和领导性的权利规定 ;另一方面 ,它又具有合法性、责任性和服务性的义务规定。权利特性与义务特性是辩证统一的 ,它们是行政权力两种内在的规定性。  相似文献   

11.
算法消费者是数字经济中新业态新模式下的消费者,具有可分类、可预测和可被操纵的特点。算法消费者的生成机理体现在认知、动因和结构三方面:从认知层面上,人工智能体思维在心理认知学、意思表示等方面与人类思维的差异,决定了算法只是智能互联网平台的一种工具;从动因层面上,算法消费者的形成顺应了消费者行为理论数字化演变的趋势;从结构层面上,以算法为纽带的平台和算法消费者之间关系的失衡,意味着应给予算法消费者特别保护。国外算法消费者的保护方案虽然在法律形式上有所差异,但均以寻求平台监管和算法消费者保护之间的平衡作为内核,具体体现为赋予算法消费者算法权利和强调以透明度为核心的算法治理两方面。我国应在把握数字经济发展规律的基础上,完善平台监管、算法规制的分级制度,健全平台数据合规和算法的治理制度,确立平台数字社会责任和算法伦理制度,最终通过平台治理模式和算法权利成长的权责制度以推进算法消费者保护的制度构建。  相似文献   

12.
平台“大数据杀熟”是通过算法侵害消费者权益的行为,存在社会伦理和技术伦理的双重可责性,应当予以规制。《反垄断法》《消费者权益保护法》《价格法》等传统法律制度对“大数据杀熟”的规制存在理念与制度层面的困境。鉴于大数据平台所具有的公共性特征及“大数据杀熟”侵害对象的不特定性,“大数据杀熟”规制可以借鉴公用事业理论,采取事前监管方式,对适格的平台主体施加透明、合理、非歧视的价格制定和标示义务,并通过设立专业的平台监管机构,确保上述义务得到履行。  相似文献   

13.
黑格尔的国家干预理论、法权理论和网络治理理论为高等教育治理提供了新的视角。高等教育领域具有多重法权关系,在大学的外部法权关系中,政府、市场、社会与大学四者之间存在明显的权力博弈;在大学的内部法权关系中,学校与院系、学术与行政、师生与大学管理者之间也有冲突与互动。高等教育治理的法权网络体现在两个相互渗透的层面:宏观层面和微观层面。宏观层面表现为大学的外部法权治理结构,微观层面表现为大学的内部法权治理结构。  相似文献   

14.
环境健康风险视域下环境标准的理性反思与规范   总被引:1,自引:0,他引:1  
环境健康事件呈量级增长给环境法律制度的价值选择与变革带来巨大影响。构建环境健康法律制度体系推进环境保护工作从环境管理转向健康管理,防治环境污染引发的公众健康损害,已成为环境法治的重要任务。环境法具体制度的实施须以环境标准的有效适用作为检验标准,如征收超标排污费、环境监测等,没有标准作为准则的制度定然会走向制度的异化。现行环境标准暴露的问题包括环境标准的技术依据与科学理性脱节、环境标准的规制范围与实际需求错位、环境标准的安全限值无法匹配健康阈值、环境标准程序设计无法与公众参与有效衔接等四个方面。基于风险社会理论探析聚集性、弥散性两种环境健康风险规制样态,应当寻求“环境健康风险”下环境法治的逻辑,遵循“健康风险”导向下“基于科学”和“基于民主”的两种维度,探究健康本位、科学合理、权力权利衡平三重弥合的环境标准制度:以“健康+生态基准”的体系模式推动环境标准之技术支撑、以“成本收益分析+健康界限”的双重嵌入保障环境标准可行性、以“权力与权利的衡平”实现环境标准的科学规范、以“回应机制”力求环境标准的可接受性。  相似文献   

15.
权力与权利需要法律规范来授予。法律规范虽然也要规定义务与责任,但法律规范的基本功能并不在此,法律规范的基本功能在于授予权力与权利。无论是授予权力还是授予权利,都存在着多种方式。法律规范之外的权利具有正当性,但难以得到法律规范的保障;法律规范之外的权力一般不具有正当性,有待于法律规范加以规制。  相似文献   

16.
在传统权力制约理论无法满足制度和实践需要的情况下,法权制约理论作为一种更为全面和完善的权力(利)制约理论应运而生.在法权制约理论的分析框架下,行政复议的内部结构存在三种法权制约关系,分别是复议申请人权利对复议机关上级行政权力的外部直接制约关系、复议申请人对被申请复议机关下级行政权力的外部问接制约关系以及复议机关上级行政权力对被申请复议机关下级行政权力的内部直接制约关系,其中对行政复议的性质起决定和主导作用的是上级行政权力对下级行政权力的内部层级制约关系,这种制约关系的实质表现就是一种行政性质的监督.因此,在法权制约理论视野下行政复议在本质上具有行政监督的属性,是一种带有一定监督性的行政行为,体现的是行政权力的实施和运用.  相似文献   

17.
自动化行政中算法决策应用仅限"三大类别",但仍无可避及与正当程序、行政公正等原则相背离之风险,甚至因不当或滥用而削弱行政裁量的能动性,最终影响行政决策的准确性而导致行政相对人权益损害等风险。算法决策"黑箱"性特征、数据质量瑕疵与相关制度规范缺失等是风险产生的客观成因,而行政主体对算法决策的不当操作与过度依赖是重要的主观成因。为防范该等风险、促进算法决策在自动化行政中的良性发展,在建构因应性的专门法律框架下,至少可从地位厘定、立法明定和程序控制等切入,以重申并坚定行政机关的主体地位、明确算法决策的工具属性,并明晰界定自动化行政中算法决策的具体应用场景,且须以比例原则先行完成系统预审,同时还须切实贯彻正当程序控制,在督进行政主体算法解释责任的同时,尽速完善行政相对人的权利救济。  相似文献   

18.
人类社会正从软规则时代走向硬规则时代,其推动力量源于数据和算法。数据主义是21世纪的新宗教,数据自由是硬规则运行的前提。数据主义以产业发展与人类便利等“善”为由,呼吁数据自由与分享经济,但越来越多的事件表明不加控制的数据自由流动带来了严重的隐私安全隐患。隐私是人格尊严的先决条件,也是社会组织、道德伦理、法律问责机制的基石,规制数据权力与算法权力,保护隐私已变得刻不容缓。通过公法路径,以数据主权与数据监管对算法权力进行规制,通过私法路径,设置新型权利实现以权利稀释权力。构建适应硬规则时代的软规则体系,强化数据权力主体的自律与数据权利主体的自治,构建与硬规则相适应的软规则体系,守护好隐私边界。  相似文献   

19.
智媒时代算法技术成为信息传播的新兴主导手段,对思想政治教育传播成效产生了重大影响。算法从技术、权力和效度3个方面重构了思想政治教育的现实场域,为分析智媒时代网络思想政治教育提供了全新框架。算法对智媒时代网络思想政治教育具有重要的价值意蕴,在技术层面实现了网络思想政治教育的技术升级和“生产”,在权力层面实现了网络思想政治教育的信息分配和“出场”,在效度层面实现了网络思想政治教育的数据驱动和“赋能”。但从实际运行来看,算法在智媒时代网络思想政治教育中依然面临技术扩张、权力失序和效度失守的困境。为此要以立德树人为导向、主流意识形态为遵循、成人成才为目标,不断推进算法在智媒时代网络思想政治教育中的转型升级发展。  相似文献   

20.
美国OpenAI公司开发的新一代人工智能语言模型ChatGPT标志着通用人工智能时代的到来,将对人类社会发展产生巨大影响。作为AIGC(人工智能生成内容)技术的典型代表,它具有拟人化、强交互性、全感官3个主要特征。ChatGPT的出现可能会掀起AI的技术革命,推动人类生活生产方式创新,促进新一轮科技革命和产业变革。与此同时,也会引发数据隐私泄露、社会失业、行业垄断、算法偏见等社会风险。对ChatGPT的社会风险治理,在伦理方面,应当坚持以人为本、培育公民的数字素养和建立伦理审查机构,促进应用的合理化;在法律规制上,应通过立法、权力监督、制度保障等手段,促进ChatGPT的应用合法化;在技术上,应将法律规制、相关伦理等价值观念转化为算法,以算法来规制算法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号