首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 125 毫秒
1.
智能时代的特点是数据与算法在社会经济运行中发挥越来越重要的作用。然而,算法赋能社会的同时,也伴生了“信息茧房”、算法歧视、算法“黑箱”等内生风险,因此需要深刻理解算法的伦理面向,以确立算法风险的治理原则,进而构建科学有效的算法治理体系。文章基于国内外算法治理实践,从算法治理的“权力—权利”价值与“技术—社群”路径两个维度,阐述了算法风险治理及其伦理关切的四个核心面向:可控、透明、安全、公平。算法伦理风险产生于算法权力和用户权利的失衡,因此算法治理的价值在于规制算法权力并保障用户权利。算法治理的路径包括技术改进与社群约束,通过优化算法系统设计与完善算法的规制体系等方式,促进算法向善,防范或化解算法支配、算法“黑箱”、算法歧视等风险,并保障算法使用的安全性。  相似文献   

2.
价格歧视一向被认为是一种垄断价格且能对消费者造成效用损失的现象。在互联网、大数据、人工智能快速发展的今天,价格歧视又有了新的机制,形成了新的特点,需要深刻认识、有效规制。在大数据定价算法下,价格歧视的特殊形成机制体现为价格歧视是在供需双方互动基础上形成的,可以打破商品属性上的界限而得以普遍化,但其形成需要借助一定的隐蔽性。针对大数据定价算法下价格歧视的特殊形成机制以及该价格歧视产生的特殊影响,需要采取增加技术规制手段以平衡掌握大数据的供给方与作为单纯数据提供者的需求方之间的关系。同时,应创新经济性规制,以规范利用大数据定价算法进行价格歧视的生产者或供给方的过度行为;拓展社会性规制,以限制掌握大数据及算法的生产者或供给方侵犯消费者或需求方的隐私和安全。  相似文献   

3.
随着各行业智能化水平不断提升,我国司法系统在面对时代的剧烈变化时,展现了对智能化建设和司法改革的魄力与决心。人工智能可以在“类案类判”和“及时公正”等维度促进可视化的司法公正,但同时也在与司法活动交叉结合的过程中产生了诸如数据算法缺陷弱化公正基础、技术的价值中立性无法真正满足公民个案公正的诉求、技术的工具性消解司法公正本意的风险。为应对以上风险,可以采取大数据与算法规范、制定人工智能融入司法的伦理规范以及将法律论证嵌入司法人工智能系统等措施,在展现司法人工智能优势的同时,实现司法公正的最大化。  相似文献   

4.
黄新华  温永林 《东南学术》2023,(2):114-124+247
以大数据为基础、以复杂算法为核心的智能技术,已成为促进数字经济发展和社会福利增长的重要力量。但算法自主能力提升和算法应用场景拓展,使算法治理可能成为异己的力量,引发平台垄断、隐私侵犯、参与弱化、算法歧视等风险,算法规制的善治要求应运而生。然而,寻求面对技术、经济、社会、政治问题交织叠加的算法规制的善治之道,面临着多重目标、信息壁垒以及规制制度缺位与能力不足等一系列挑战。实现算法规制的善治需要完善算法规制体系,构建算法影响评估制度和规制影响评估制度;推动有意义的算法透明,促进企业合规管理,引导社会力量参与,消除算法规制中的信息壁垒;推进规制制度变革和规制理念创新,把国家算法权力纳入规制范围,提升规制队伍能力水平和发展敏捷性规制工具。只有实现技术向善的算法规制,才能在技术应用驱动的经济发展与福利增长中创造高品质生活。  相似文献   

5.
余鹏文 《天府新论》2023,(1):108-123
在数字化时代,大数据分析和机器学习算法等人工智能技术已经在刑事司法中得到深度应用,并且在预测警务、犯罪风险评估、量刑决策辅助等法律事项上发挥出技术层面的效率优势。同时,也必须清醒地认识到,人工智能介入刑事司法活动当中,对传统刑事程序正义理论的基本理念和价值产生技术性冲击,尤其是算法偏见和算法黑箱等难以避免的技术难题可能在一定程度上侵蚀了裁判中立原则、程序公开原则、程序对等原则和程序参与原则。但是,在弱人工智能司法的现实语境下,刑事程序正义理论因为司法活动中人的主体性依旧可以发挥规制作用,而在人工智能司法中贯彻程序正义的理论基础在于尊严理论、司法公信力理论以及分布式道德责任理论。最后,刑事程序正义理论应当借鉴技术性正当程序理念,通过引入机器决策风险提示、算法透明原则、算法审计以及算法问责机制等举措来实现技术赋权,强化对当事人的诉讼权利保障。  相似文献   

6.
赵龙 《江淮论坛》2023,(5):127-135
明确算法法益基本形态和科学内涵是AI时代推进刑法现代化的应有之义。规范上,算法法律治理的基本逻辑指向的是从民到刑的法规范性,即侵权行为对权利主体带来实质的、严重的法益侵害时,便具有刑法意义上可责难性。基于理性主义立场,在技术上无论AI的“可信赖”性探索,抑或“可信赖”的AI系统的创建,皆围绕算法安全展开,算法犯罪的本质是对权利主体算法安全利益的侵犯。作为一项新型法益形态,算法法益的核心内容是算法安全。对算法的刑法规制可从算法安全法益的立法保护、实质解释以及算法犯罪的认定三个维度予以展开。  相似文献   

7.
“算法杀熟”以平台用户为侵害对象,以通过数据画像进行歧视性定价为典型行为方式,具有比传统价格歧视更大的危害范围和侵害程度。较之传统的价格歧视,“算法杀熟”的专业技术性、隐蔽性更强,更难规制。遏制“算法杀熟”,需要构建政府监管机制,实现消费者福利与生产者福利的平衡;构建算法解释机制,实现保护消费者知情权与平台创新动力的平衡;构建侵权救济机制,实现消费者平等交易与平台自主定价的平衡。  相似文献   

8.
算法是人工智能乃至智能化的核心技术,与算力、数据一起被称为智能时代或数字经济的“三驾马车”。算法在促进经济社会发展的同时,也产生了算法黑箱、算法歧视、“大数据杀熟”、算法合谋垄断、算法奴役、“信息茧房”等新型社会问题。我国关于算法的立法规定散见于《电子商务法》《个人信息保护法》《反垄断法》等法律法规和部门规章之中,缺乏系统性和协调性,且对诸多问题未作规定。我国宜对算法产业促进与安全监管等进行专门立法,立法的主要内容包括总则、算法产业促进、算法安全监管、算法企业的权利与义务、算法救济、法律责任、附则等。本建议稿以算法安全与发展的平衡协调为基本理念,着眼于算法产业生态建设和系统治理,建立算法安全事前、事中、事后相结合的一体化监管体系,按照算法的应用场景、安全风险、社会影响等因素建立算法分类分级管理制度;确立监管沙盒、算法安全检测评估与认证、算法审计、算法公平性验证、算法追溯、算法终结、算法问责、算法救济、算法合规等安全保障机制,实时分析算法技术与应用的安全风险并动态采取预警和处置措施;针对算法黑箱等具体问题采用可信解释等解决方案,确保算法决策的科学性、合理性、可靠性;在规范算法研发与应用活...  相似文献   

9.
在刑事司法过程中,人工智能会面临不被信任的现实困境。目前,公众对司法人工智能的质疑主要集中于违背“同案同判”原则的“算法歧视”。然而,“歧视”并非人工智能所特有,它往往从过往决策者(法官)裁判中继承而来。在完成诸多特定任务时,人工智能往往比人类法官表现更优,在决策的准确性、检偏去偏以及不同目标权衡上具有巨大潜力。面对刑事司法中人工智能不被信任的困境时,我们更应关注感知层面的公正匮乏问题。究其根源,导致人们对司法人工智能不信任的因素主要有:司法大数据导致的“不公”易于识别、人工智能缺乏权威合法性和程序中缺乏感知正义。因此,为提升公众对司法人工智能的信任,应坚持具有权威合法性的法官的决策主体地位,同时采用人工智能增强法官能力,提高司法人工智能的透明度和可解释性。  相似文献   

10.
平台经济从业者深陷算法困境,而现有保护路径未对其陷入算法困境的深层原因进行剖析,因而难以从根本上纾解平台经济从业者的困局。由于平台企业与平台经济从业者的利益分歧、信息不对称、议价能力欠缺等因素,平台企业极易滥用“算法权力”从而使得平台经济从业者陷入算法困境。基于此,应突破传统“公私二元”划分,遵循“数字人权”的实体和程序要求,以破解平台经济从业者面临的算法困境。前者涵盖“限权”与“赋权”两个维度,具体包括限制平台企业之“算法权力”的行使限度、规制平台企业对平台经济从业者的垄断行为、配置平台经济从业者的数据权利、增强平台经济从业者围绕“平台算法”的议价能力等;后者涉及“程序公开性”、“程序参与性”与“程序中立性”三个维度,具体包括构建平台企业的算法解释说明义务、赋予平台经济从业者对算法决策的异议权、引入第三方力量等。  相似文献   

11.
人工智能时代,经由算法产生的互联网诱导行为已成普遍现象,其负外部性效应愈发显现,具有法律规制的迫切性。这种负外部性效应的本质是纯粹算法中立,即不加限制的算法技术应用带来的风险。由于算法的应用,促使人工智能与互联网诱导行为产生关联,并因其公共属性,使得该风险具有公法风险的特点。因此,算法规制的法正当性,主要是对纯粹算法中立的修正,包含公益优先和文化引导两方面。在传统命令控制型规制存在权利保障疑虑的情况下,基于国家担保责任的兜底,元规制理论下的自我规制有助于改善和提高规制的绩效;并通过算法技术计算公共利益的限度,保障规制活动始终受到法律的拘束。  相似文献   

12.
人工智能在推动人类社会智能化变革的同时,其不确定性(自动性)所衍生的侵害人类法益的刑事风险是亟待认真对待的"真问题",绝非凭空臆造、危言耸听的"伪问题".对人工智能体被滥用于实施犯罪的刑事风险,应根据现有刑事归责原理,按照具体行为方式以及主观罪过形式,分别追究人工智能体背后的算法设计者、产品制造者与使用者(管理者)故意或过失犯罪的刑事责任.对人工智能体脱离人类控制侵害法益的刑事风险,赋予人工智能体以刑事责任主体地位的肯定论归责方案,存在持论依据及论证路径方面的诸多误区.以刑罚规制人工智能体刑事风险缺乏适宜性,应当借鉴"科技社会防卫论",通过建构保安处分机制,由司法机关在参考专业技术意见的基础上,对严重侵害人类利益的人工智能体适用以技术性危险消除措施为内容的对物保安处分,回避以刑罚规制人工智能体刑事风险必须具备可非难性的局限,进而为人工智能的发展预留必要的法律空间.  相似文献   

13.
在第三次人工智能发展的浪潮中,以大数据为依托的人工智能因其深度学习和强化学习能力的提升不断冲击着人们的想象空间,也开始深刻地影响人类现实生活。我们需要在构建人工智能法律规则时考虑如何实现算法的透明性和可解释性、算法的正义问题,以及是否应给予人工智能系统以独立的法律地位及其对个人隐私、自由尊严等的影响。从人工智能法律规制整体建构的角度来看,应从立法、司法裁判和法律效果评价环节嵌入伦理性考量因素,将具体的道德考量因素转化为可以实施的法律原则乃至法律规制,同时发挥人在司法裁判过程中的主观能动性,防止过度依赖人工智能辅助系统,从而保障司法裁判结果的公平公正。  相似文献   

14.
近年来,金融机构利用数字技术提高了弱势群体融资的可得性,数字信贷改善了贷款服务的效率。但是,滥用算法技术会导致算法偏见和价格歧视,侵害金融消费者合法权益,有必要厘清传统信贷机构数字化转型、算法歧视和算法规制间的机理与关系。算法显著减少了传统信贷机构对弱势群体的金融排斥,但加深了金融科技平台对特定弱势群体的金融排斥和全部借款群体的价格歧视。缺乏科技向善价值观和政府有效规制,算法歧视还会降低信贷效率。政府应坚持包容审慎的监管原则,通过实施"竞合型"政策,短期内建立缓解金融排斥与算法价格歧视的机制,长期探索建立兼顾创新、竞争与消费者福利平衡的机制,实现算法促进传统金融机构数字化转型与金融科技平台竞合发展的政策目标。  相似文献   

15.
随着人工智能在绘画、编曲、作诗等领域不断取得突破性进展,艺术创作活动的“属人性”受到极大挑战,“人工智能艺术”的可能性问题也逐渐成为艺术理论界关注的焦点。目前的人工智能艺术基于特定的计算机算法机制,具备了极强的“智能性”,但“智能性”并不等于“属人性”,称其为“类人性”可能更为恰切。一方面,作为人工智能艺术“大脑”的“算法”最终是由人来操控的,算法不可能真正独立于人的世界之外;另一方面,“属人性”艺术活动的“求真”“致善”“臻美”的自由本质是人工智能艺术所不可能真正企及的。从生产主体维度来看,人工智能艺术创作主体是以人类为主导因素的新型合作主体;从生产机理维度来看,人工智能艺术创作依赖于模仿、融合和创造的算法机制;从生产客体维度来看,人工智能生成的作品只具有有限的创造性,本质上是基于经验回溯机制的“类人创作”。当前人工智能艺术生产活动无法超越“属人性”意义上的自由创作,只能成为“类人性”意义上的“平庸创作”。  相似文献   

16.
晚近十年,人工智能算法获得了长足发展,智能算法被视为解决人类问题的一个全新进路。与此同时,在人类主义的框架中,爱情通常被视为人类生活中最亲密的情感,但它现在越来越多地被少数程序员用人工智能来进行控制或操纵。在当代世界中,许多约会平台正在设计所谓的智能算法来为用户识别更多的潜在匹配对象。这些由人工智能驱动的配对系统通过丰富的数据驱动,不仅能够预测用户可能喜欢什么类型的对象,而且还可以深刻影响人们选择伴侣的方式。对此,基于哈贝马斯的“生活世界的殖民化理论”,批判性地探讨了将浪漫决策委托给算法的潜在影响以及可能由此引发的伦理挑战。通过对Tinder等约会应用程序使用算法的现实分析,指出爱情生活世界正在被殖民化,因为在线约会算法侵入了人们的浪漫关系,以至于浪漫关系中的交往行为被算法的技术规则所取代。为了应对算法殖民化引发的伦理难题,要着眼于从个体维度上弥补算法思维的固有逻辑缺陷,从技术维度上优化算法模型与标准设计,从企业以及约会应用程序设计者的维度上赋予爱情关系中个体更多的自主选择权,据此来探寻未来理想爱情关系“去算法殖民化”的可能性通路。  相似文献   

17.
人工智能时代,政党形象的构成要素与生成机制正在发生深刻的变化。人工智能有利于中国共产党提升朝气蓬勃的形象、权威高效的形象、民主亲民的形象。但人工智能也会推动“透明政治”的到来,加剧“群体极化”现象,产生“算法偏见”问题,给政党形象构建带来风险。应将人工智能纳入政党形象建构的逻辑之中。在主体维度:运用人工智能推进政党自身建设;在客体维度,借助人工智能增强政党对接公众能力;在媒介维度,优化人工智能提升政党媒介治理水平。  相似文献   

18.
ChatGPT类生成式人工智能在海量的数据、优质的算法与强大的算力支撑下能够实现多项技术赋能。但ChatGPT类生成式人工智能是否能够适用到智慧司法领域,以及在何种程度上将其嵌入,尤其是该项技术在赋能智慧法院建设过程中的边界如何,这对于深层次建设智慧法院具有重要的前提性意义。ChatGPT类生成式人工智能技术通过审判活动的智能化运用,可促进可视正义的实现;通过诉讼服务的可及性,可实现司法为民理念;通过公平与效率的动态平衡,可实现能动司法目标。然而,ChatGPT类生成式人工智能在带来上述诸多技术红利的同时,也引发了一系列新的风险,具体可以划分为由数据“幻觉性”引发的一般风险、由技术垄断性导致的重要风险以及由数据不可控产生的核心风险。对这些风险,应根据不同的风险特征采取相应的规制路径:可以通过对训练数据库的标准化构建以实现数据的“幻觉性”规制,通过辅助性原则的引入而实现技术规制,通过对服务提供者科加义务以实现对数据不可控的数据规制。即运用数据“幻觉性”规制、技术规制与数据规制,实现对ChatGPT类生成式人工智能技术嵌入的一般风险、重要风险与核心风险的防范,以期完成ChatGPT类生成式人工智能技术嵌入智慧法庭建设的风险最小化与技术赋能最大化,最终实现该项技术高质量赋能智慧法院建设。  相似文献   

19.
面对人工智能技术的重大突破,尤其是ChatGPT等新一代人工智能在社会生活各个领域的广泛应用,审视、预判和防范ChatGPT类生成式人工智能的意识形态风险成为一个重要的理论课题。ChatGPT类生成式人工智能环境下的意识形态传播具有可塑性、可量化性、个性化和精准预测性等特点。ChatGPT类生成式人工智能介入意识形态传播的技术路径体现在技术与思想的耦合、预测性的算法推荐、个性化的话语创设和赋权性的网络传播等方面。ChatGPT类生成式人工智能介入意识形态传播会带来算法歧视、数据失真、算法监控和算法反噬等潜在的风险。应通过统筹科技伦理规制算法推荐、设计主流意识形态驾驭算法、协调传播主体与客体的价值需求、强化大数据技术检测与治理等,加强对ChatGPT类生成式人工智能意识形态风险的防控。  相似文献   

20.
数字正义是指导和约束人类开发、设计、应用数字技术的价值准则,其本质是社会正义而非“机器正义”。在数字社会,数字正义的基本内涵是数据资源的合理分配、数字权利的充分配置、算法决策的公开透明和代码规制的规范有效,主要表现为分配正义、程序正义、互动正义和信息正义四种形式。数字化塑造正义空间,使正义的存在形态发生了从“比例正义”到“计算正义”、从“个体正义”到“群组正义”、从“契约正义”到“场景正义”、从“接近正义”到“可视正义”的深刻转型。当前在我国数字化战略实施过程中,复合型规范制度体系已初步建立,数据源头规制、算法赋权制衡和平台算法问责等制度,已成为我国法律规制保障数字正义的实践基点。下一步数字正义的治理结构优化,还需要在基础机制上充分配置数字权利及其救济方案,在实施机制上强化算法规制实施主体与工具的系统性,在保障机制上科学设计算法影响评估制度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号