首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
算法是人工智能乃至智能化的核心技术,与算力、数据一起被称为智能时代或数字经济的“三驾马车”。算法在促进经济社会发展的同时,也产生了算法黑箱、算法歧视、“大数据杀熟”、算法合谋垄断、算法奴役、“信息茧房”等新型社会问题。我国关于算法的立法规定散见于《电子商务法》《个人信息保护法》《反垄断法》等法律法规和部门规章之中,缺乏系统性和协调性,且对诸多问题未作规定。我国宜对算法产业促进与安全监管等进行专门立法,立法的主要内容包括总则、算法产业促进、算法安全监管、算法企业的权利与义务、算法救济、法律责任、附则等。本建议稿以算法安全与发展的平衡协调为基本理念,着眼于算法产业生态建设和系统治理,建立算法安全事前、事中、事后相结合的一体化监管体系,按照算法的应用场景、安全风险、社会影响等因素建立算法分类分级管理制度;确立监管沙盒、算法安全检测评估与认证、算法审计、算法公平性验证、算法追溯、算法终结、算法问责、算法救济、算法合规等安全保障机制,实时分析算法技术与应用的安全风险并动态采取预警和处置措施;针对算法黑箱等具体问题采用可信解释等解决方案,确保算法决策的科学性、合理性、可靠性;在规范算法研发与应用活...  相似文献   

2.
黄新华  温永林 《东南学术》2023,(2):114-124+247
以大数据为基础、以复杂算法为核心的智能技术,已成为促进数字经济发展和社会福利增长的重要力量。但算法自主能力提升和算法应用场景拓展,使算法治理可能成为异己的力量,引发平台垄断、隐私侵犯、参与弱化、算法歧视等风险,算法规制的善治要求应运而生。然而,寻求面对技术、经济、社会、政治问题交织叠加的算法规制的善治之道,面临着多重目标、信息壁垒以及规制制度缺位与能力不足等一系列挑战。实现算法规制的善治需要完善算法规制体系,构建算法影响评估制度和规制影响评估制度;推动有意义的算法透明,促进企业合规管理,引导社会力量参与,消除算法规制中的信息壁垒;推进规制制度变革和规制理念创新,把国家算法权力纳入规制范围,提升规制队伍能力水平和发展敏捷性规制工具。只有实现技术向善的算法规制,才能在技术应用驱动的经济发展与福利增长中创造高品质生活。  相似文献   

3.
4.
人工智能时代,算法在社会领域诱发了一种全新的发展态势,不但深刻地影响着既有的生产关系,而且已经渗透到日常生活的各个角落。但是,在算法全方位赋能社会治理的背后,也蕴藏着一系列内生风险,并由此引发了技术和社会系统之间的剧烈冲突与碰撞。文章基于国内外算法治理领域对算法规则和算法权力的单向度研究,通过文献分析和比较调研的方法,结合公共管理学理论、法学理论等多学科思维,探讨算法规则向算法权力的动态转变。正是这种动态转变加速了算法权力的膨胀,这也催生了大量的算法风险,引发了社会治理的困境。因此,算法治理需要通过约束算法权力进行建构、引导和反思。算法治理的路径包括确立以人为本的治理理念,提高算法的可解释性以及构建多元主体协同的治理体系。  相似文献   

5.
伴随算法应用的全面普及,算法在社会运行体系中处于重要位置,一个算法社会正在到来。算法应用给社会发展和个体生活带来了诸多便利,同时也埋下了各种隐忧。算法监控肆意将引发一系列伦理风险,包括算法歧视隐忧、过滤气泡陷阱、隐私侵犯困境、劳动伦理侵蚀等。解决算法监控问题,要着眼于制度的规范与防范、技术的纠偏与破解、企业的自律与他律和个体的维权与抵抗,以推动算法向善。  相似文献   

6.
智能时代的特点是数据与算法在社会经济运行中发挥越来越重要的作用。然而,算法赋能社会的同时,也伴生了“信息茧房”、算法歧视、算法“黑箱”等内生风险,因此需要深刻理解算法的伦理面向,以确立算法风险的治理原则,进而构建科学有效的算法治理体系。文章基于国内外算法治理实践,从算法治理的“权力—权利”价值与“技术—社群”路径两个维度,阐述了算法风险治理及其伦理关切的四个核心面向:可控、透明、安全、公平。算法伦理风险产生于算法权力和用户权利的失衡,因此算法治理的价值在于规制算法权力并保障用户权利。算法治理的路径包括技术改进与社群约束,通过优化算法系统设计与完善算法的规制体系等方式,促进算法向善,防范或化解算法支配、算法“黑箱”、算法歧视等风险,并保障算法使用的安全性。  相似文献   

7.
数字经济在经历新冠疫情后迎来了新的发展契机,大数据、算法、平台成为经济发展的关键要素、动能及场域。开动数字经济发展引擎的算法因其技术性特点给生活带来巨大便利,但算法超出技术工具范畴影响或替代公权力决策,形成新的权力形态而引发的诸多风险也引起学界关注。通过算法权力风险的归因即内部逻辑冲突及外部价值失衡来探讨算法权力对公权力领域、商业领域、个人权利及法律自身带来现实风险,从公权力—私权力—私权利关系的重构角度提出公权力赋权、算法权力限权与追加义务、个体"数字人权"充权的多元治理路径。  相似文献   

8.
9.
马皑  宋业臻 《江淮论坛》2022,(2):119-127+193
随着人工智能技术的不断发展,犯罪风险评估工具逐渐开始了智能化的演进。域外司法实践中使用的智能化犯罪风险评估工具并没有解决“算法歧视”的问题。“算法歧视”的成因是复杂的、多层次的。结合传统算法规制的分析框架,从问题建构维度和模型设计维度,能够对人工智能犯罪风险评估“算法歧视”的成因进行深入分析,并据此对算法规制的算法公开、个人数据赋权、研发过程规制与审核,进行特定场景下的路径探索,为走出人工智能犯罪风险评估所面临的“算法歧视”困境提供理论支撑。  相似文献   

10.
“算法杀熟”以平台用户为侵害对象,以通过数据画像进行歧视性定价为典型行为方式,具有比传统价格歧视更大的危害范围和侵害程度。较之传统的价格歧视,“算法杀熟”的专业技术性、隐蔽性更强,更难规制。遏制“算法杀熟”,需要构建政府监管机制,实现消费者福利与生产者福利的平衡;构建算法解释机制,实现保护消费者知情权与平台创新动力的平衡;构建侵权救济机制,实现消费者平等交易与平台自主定价的平衡。  相似文献   

11.
近年来的数据集下架潮、算法偏见大辩论使得算法偏见成为一个不可忽视的社会问题,这归根结底是由算法的政治性决定的.本研究从技术与权力的互构共生关系视角,批判了算法的价值中立论,在算法赋权的社会—技术系统中,算法作为非人类行动者参与到人类行动者的决策过程中.算法偏见可以区分出若干类型,其实质是当代数字化社会的一种形式偏见,可...  相似文献   

12.
算法决策技术的兴起推动了社会发展,同时也带来了算法黑箱、算法合谋、算法操纵等技术和社会风险,必须对算法进行规制以控制风险。算法透明是进行算法规制的前提和基础,由于技术和制度上的障碍,完全彻底的算法透明不现实也不合理,在具体场景中追求有限、适当的算法透明才是有意义的。在算法透明的落实和保障上,行政规制具有独特的优势,通过构建刚柔并济的行政规制体系、促进企业算法合规监管、推进算法备案制度、追究算法披露不当行为责任四项具体行政规制措施,监督和保障算法透明制度的运行,实现科技创新与社会安全之间的平衡与协调。  相似文献   

13.
作为个性化新闻分发的底层支撑技术,算法推荐的科学技术特质决定了其并非中立,而是具有一定的意识形态属性.算法推荐的利用若不受监管,将会对主流意识形态传播、网络信息环境和用户的价值观念带来冲击,引发意识形态安全风险:平台流量至上的推送逻辑降低主流意识形态的引领力和凝聚力,以用户偏好为中心的内容推荐加剧了价值分化和观念隔离,过滤推荐引发价值迷失和信息操纵.有必要发挥法律的安全功能,通过强化网络平台的审核、监督义务和信息披露义务促进主流意识形态传播升级;通过赋予用户算法知情权、算法解释权打破信息茧房,建立多元信息环境;通过限制算法推荐的适用范围和算法审计监管构建"可信任"的算法,切实防范化解意识形态风险.  相似文献   

14.
伴随算法决策在行政、司法和商业等领域的深度应用,隐私泄露、算法歧视与人类自主性受损已成为三大主要风险.为防范该类风险,首要的是须重申、确立并加强人的主体地位意识,以此反向定位算法决策的工具属性.在此前提条件下,亦应借力他山之石雕琢己玉,积极借镜以美国、欧盟和德国为代表的域外经验,研习其有关算法决策的制度构建与规则设计,尤其要关注法律制度、规则设计的针对性与专业性.当然,更需立足我国国情,切实把脉时代发展,在适时运用比例原则以加强算法决策风险评估机制的同时,科学合理界定责任 主体,明确制定该类风险责任承担的相关法律法规,以最大化降低因法律模糊性而遭致数据主体的二度伤害.  相似文献   

15.
赵龙 《江淮论坛》2023,(5):127-135
明确算法法益基本形态和科学内涵是AI时代推进刑法现代化的应有之义。规范上,算法法律治理的基本逻辑指向的是从民到刑的法规范性,即侵权行为对权利主体带来实质的、严重的法益侵害时,便具有刑法意义上可责难性。基于理性主义立场,在技术上无论AI的“可信赖”性探索,抑或“可信赖”的AI系统的创建,皆围绕算法安全展开,算法犯罪的本质是对权利主体算法安全利益的侵犯。作为一项新型法益形态,算法法益的核心内容是算法安全。对算法的刑法规制可从算法安全法益的立法保护、实质解释以及算法犯罪的认定三个维度予以展开。  相似文献   

16.
17.
平台经济从业者深陷算法困境,而现有保护路径未对其陷入算法困境的深层原因进行剖析,因而难以从根本上纾解平台经济从业者的困局。由于平台企业与平台经济从业者的利益分歧、信息不对称、议价能力欠缺等因素,平台企业极易滥用“算法权力”从而使得平台经济从业者陷入算法困境。基于此,应突破传统“公私二元”划分,遵循“数字人权”的实体和程序要求,以破解平台经济从业者面临的算法困境。前者涵盖“限权”与“赋权”两个维度,具体包括限制平台企业之“算法权力”的行使限度、规制平台企业对平台经济从业者的垄断行为、配置平台经济从业者的数据权利、增强平台经济从业者围绕“平台算法”的议价能力等;后者涉及“程序公开性”、“程序参与性”与“程序中立性”三个维度,具体包括构建平台企业的算法解释说明义务、赋予平台经济从业者对算法决策的异议权、引入第三方力量等。  相似文献   

18.
19.
20.
余鹏文 《天府新论》2023,(1):108-123
在数字化时代,大数据分析和机器学习算法等人工智能技术已经在刑事司法中得到深度应用,并且在预测警务、犯罪风险评估、量刑决策辅助等法律事项上发挥出技术层面的效率优势。同时,也必须清醒地认识到,人工智能介入刑事司法活动当中,对传统刑事程序正义理论的基本理念和价值产生技术性冲击,尤其是算法偏见和算法黑箱等难以避免的技术难题可能在一定程度上侵蚀了裁判中立原则、程序公开原则、程序对等原则和程序参与原则。但是,在弱人工智能司法的现实语境下,刑事程序正义理论因为司法活动中人的主体性依旧可以发挥规制作用,而在人工智能司法中贯彻程序正义的理论基础在于尊严理论、司法公信力理论以及分布式道德责任理论。最后,刑事程序正义理论应当借鉴技术性正当程序理念,通过引入机器决策风险提示、算法透明原则、算法审计以及算法问责机制等举措来实现技术赋权,强化对当事人的诉讼权利保障。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号