首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 0 毫秒
1.
人工智能时代,经由算法产生的互联网诱导行为已成普遍现象,其负外部性效应愈发显现,具有法律规制的迫切性。这种负外部性效应的本质是纯粹算法中立,即不加限制的算法技术应用带来的风险。由于算法的应用,促使人工智能与互联网诱导行为产生关联,并因其公共属性,使得该风险具有公法风险的特点。因此,算法规制的法正当性,主要是对纯粹算法中立的修正,包含公益优先和文化引导两方面。在传统命令控制型规制存在权利保障疑虑的情况下,基于国家担保责任的兜底,元规制理论下的自我规制有助于改善和提高规制的绩效;并通过算法技术计算公共利益的限度,保障规制活动始终受到法律的拘束。  相似文献   

2.
3.
4.
5.
人工智能时代,算法在社会领域诱发了一种全新的发展态势,不但深刻地影响着既有的生产关系,而且已经渗透到日常生活的各个角落。但是,在算法全方位赋能社会治理的背后,也蕴藏着一系列内生风险,并由此引发了技术和社会系统之间的剧烈冲突与碰撞。文章基于国内外算法治理领域对算法规则和算法权力的单向度研究,通过文献分析和比较调研的方法,结合公共管理学理论、法学理论等多学科思维,探讨算法规则向算法权力的动态转变。正是这种动态转变加速了算法权力的膨胀,这也催生了大量的算法风险,引发了社会治理的困境。因此,算法治理需要通过约束算法权力进行建构、引导和反思。算法治理的路径包括确立以人为本的治理理念,提高算法的可解释性以及构建多元主体协同的治理体系。  相似文献   

6.
7.
在刑事司法过程中,人工智能会面临不被信任的现实困境。目前,公众对司法人工智能的质疑主要集中于违背“同案同判”原则的“算法歧视”。然而,“歧视”并非人工智能所特有,它往往从过往决策者(法官)裁判中继承而来。在完成诸多特定任务时,人工智能往往比人类法官表现更优,在决策的准确性、检偏去偏以及不同目标权衡上具有巨大潜力。面对刑事司法中人工智能不被信任的困境时,我们更应关注感知层面的公正匮乏问题。究其根源,导致人们对司法人工智能不信任的因素主要有:司法大数据导致的“不公”易于识别、人工智能缺乏权威合法性和程序中缺乏感知正义。因此,为提升公众对司法人工智能的信任,应坚持具有权威合法性的法官的决策主体地位,同时采用人工智能增强法官能力,提高司法人工智能的透明度和可解释性。  相似文献   

8.
我国刑事诉讼启动程序是仿照原来苏联模式设立的,现已不能满足我国刑事诉讼法打击制约犯罪、保障人权的目的。刑事诉讼启动程序的设置决定了刑事审判工作能否顺利进行。在我国立案是每个刑事案件都必须经过的启动程序。在很多情况下,未能对所接受的立案材料进行调查,无法确认其是否符合启动刑事诉讼程序的条件。有必要在现阶段重新完善我国刑事诉讼启动程序。  相似文献   

9.
王敏 《中文信息》2021,(2):31-32
随着我国的现代科学信息技术和工业社会经济的迅猛发展,大数据的发展时代已经正式到来,大数据完全区别于我们传统的大量人力等信息资源,而是完全依赖于现代计算机以及网络发展形成的一种信息系统.数字图书馆的建设发展自然也就会面临一些新的发展机遇和挑战,我们自然应该不断地努力促进我国数字图书馆的建设和整体发展.  相似文献   

10.
随着各行业智能化水平不断提升,我国司法系统在面对时代的剧烈变化时,展现了对智能化建设和司法改革的魄力与决心。人工智能可以在“类案类判”和“及时公正”等维度促进可视化的司法公正,但同时也在与司法活动交叉结合的过程中产生了诸如数据算法缺陷弱化公正基础、技术的价值中立性无法真正满足公民个案公正的诉求、技术的工具性消解司法公正本意的风险。为应对以上风险,可以采取大数据与算法规范、制定人工智能融入司法的伦理规范以及将法律论证嵌入司法人工智能系统等措施,在展现司法人工智能优势的同时,实现司法公正的最大化。  相似文献   

11.
人工智能时代,政党形象的构成要素与生成机制正在发生深刻的变化。人工智能有利于中国共产党提升朝气蓬勃的形象、权威高效的形象、民主亲民的形象。但人工智能也会推动“透明政治”的到来,加剧“群体极化”现象,产生“算法偏见”问题,给政党形象构建带来风险。应将人工智能纳入政党形象建构的逻辑之中。在主体维度:运用人工智能推进政党自身建设;在客体维度,借助人工智能增强政党对接公众能力;在媒介维度,优化人工智能提升政党媒介治理水平。  相似文献   

12.
13.
14.
引入人工智能是构建以信用为基础的新型监管机制的有利选择,目前人工智能融合大数据、物联网技术已然在信用信息的共享与挖掘、信用脸谱的描摹、信用风险的预测、信用监管执行的监控及联合奖惩的实施等多个环节彰显功用。但人工智能技术壁垒易阻隔公众知情权的行使;人工智能对信用数据的深度挖掘将威胁信用主体隐私权;人工智能嵌入信用评价的隐匿性会稀释信用主体异议权;机器智能故障易引发联合惩戒过程中的过度损权风险;人工智能算法缺陷亦可能衍生信用监管偏差及权力运行失范风险。对此,应多维治理信用评测中的数据与算法偏见,强化以效果为导向的算法披露理念,赋予信用主体算法解释权并设立信用数据活动顾问;审慎控制人工智能介入信用监管的场景与限度,明确人工智能在信用监管领域的辅助地位;明确信用监管人工智能化的主体间责任,并结合配套立法制度的完善逐一应对。  相似文献   

15.
ChatGPT类生成式人工智能在海量的数据、优质的算法与强大的算力支撑下能够实现多项技术赋能。但ChatGPT类生成式人工智能是否能够适用到智慧司法领域,以及在何种程度上将其嵌入,尤其是该项技术在赋能智慧法院建设过程中的边界如何,这对于深层次建设智慧法院具有重要的前提性意义。ChatGPT类生成式人工智能技术通过审判活动的智能化运用,可促进可视正义的实现;通过诉讼服务的可及性,可实现司法为民理念;通过公平与效率的动态平衡,可实现能动司法目标。然而,ChatGPT类生成式人工智能在带来上述诸多技术红利的同时,也引发了一系列新的风险,具体可以划分为由数据“幻觉性”引发的一般风险、由技术垄断性导致的重要风险以及由数据不可控产生的核心风险。对这些风险,应根据不同的风险特征采取相应的规制路径:可以通过对训练数据库的标准化构建以实现数据的“幻觉性”规制,通过辅助性原则的引入而实现技术规制,通过对服务提供者科加义务以实现对数据不可控的数据规制。即运用数据“幻觉性”规制、技术规制与数据规制,实现对ChatGPT类生成式人工智能技术嵌入的一般风险、重要风险与核心风险的防范,以期完成ChatGPT类生成式人工智能技术嵌入智慧法庭建设的风险最小化与技术赋能最大化,最终实现该项技术高质量赋能智慧法院建设。  相似文献   

16.
刘云 《江汉论坛》2020,(12):113-119
依赖于大数据的人工智能技术存在算法黑箱的固有缺陷,构建具有可解释性的人工智能是保障用户实现相关权益的前提,是促进社会形成人工智能准确认知和良好信心的必然选择,是实现透明、可控、负责任人工智能发展的基础,也是人工智能成为一门科学的内在要求。任何人工智能都不是完全不具有可解释性的,它们都在一定范围内具有相当程度的可解释性的。私法上的算法解释权属于事后救济权,是用户请求网络运营者对个人权益有重大影响的自动化决策予以解释的权利,限于调整基于连接主义的黑盒算法,解释的水平应当符合现有科学技术水平。在潜在风险发生之前和存在损害普遍多数用户利益的情况下,应当引入算法影响评估、告知义务、外部算法问责,从而以积极的方式促进人工智能的可解释性,提高算法透明度以构建公共信任的基础。我国《个人信息保护法(草案)》已经为个人信息处理领域的人工智能可解释性提供了充分的法律依据,未来还需要通过专门的人工智能立法围绕"可解释性"作出合理制度安排。  相似文献   

17.
生成式人工智能的快速发展正深刻改变着高等教育,也为新文科建设带来了巨大的机遇和挑战。在教育领域,生成式人工智能将引发教育格局、教育目标、教育理念、教学方法、教学内容等的巨大变革;在科研方面,生成式人工智能将对未来的学术范式、研究方法、研究问题以及具体研究工作的开展带来创新。但是,生成式人工智能在生成内容的准确性、生成方式的合法性以及技术应用造成的依赖性等方面存在风险。尽管还有很多弊端,但不可否认的是生成式人工智能与新文科建设深度融合的时代已经到来。哲学社会科学工作者应以友好而谨慎的态度充分合理地利用新技术,从文科学生的培养方案、教学主体的素养提升、学科建设的交叉融合和技术规范的合理完善等方面助推人工智能与新文科建设的深度融合。既要学习接受新技术和新问题,也要谨防新风险和新挑战。  相似文献   

18.
AI与IA,是西方专业性的技术术语,仅依凭“人工智能”或“智能增强”这一简洁的翻译转换,很难理解其内涵,这也是现今对两者混用或辨识不清的原因,因而须在西方语境下分析其所应有含义。利用内在观点,立足法律职业内部,可以更专业地分析司法裁判与技术耦合的现实情形及影响。司法对于便利、体系思维、规范化、自身属性、数据的追求是耦合的原因与动力,但智能化也引发出关于案例遗忘与清理、法官职业压力过大、腐败的另一种形式、隐私数据转移以及技术本身的非难等的隐忧,因而有必要审慎思考司法裁判与AI耦合的限度。虽技术或为全面耦合提供支撑,但有限耦合仍应是稳妥的设计。  相似文献   

19.
老年人联系着过去、现在和未来.世界卫生组织也曾发表过这一观点:基本上,对待老龄化和老年人的观点,将决定我们以及我们子孙后代的生活经历.全球人口处于一种史无前例的结构调整和变动,人类面临一种文化传统的变革和构建一个适应长寿时代的新文化的挑战.在新时期的背景下,在国家提供各种养老措施和优惠政策的同时,作为养老主体的老龄人,应该怀着“互助自助”的良好心态,积极地应对养老问题.这也是我们提倡的“积极老龄化”的养老文化.  相似文献   

20.
晚近十年,人工智能算法获得了长足发展,智能算法被视为解决人类问题的一个全新进路。与此同时,在人类主义的框架中,爱情通常被视为人类生活中最亲密的情感,但它现在越来越多地被少数程序员用人工智能来进行控制或操纵。在当代世界中,许多约会平台正在设计所谓的智能算法来为用户识别更多的潜在匹配对象。这些由人工智能驱动的配对系统通过丰富的数据驱动,不仅能够预测用户可能喜欢什么类型的对象,而且还可以深刻影响人们选择伴侣的方式。对此,基于哈贝马斯的“生活世界的殖民化理论”,批判性地探讨了将浪漫决策委托给算法的潜在影响以及可能由此引发的伦理挑战。通过对Tinder等约会应用程序使用算法的现实分析,指出爱情生活世界正在被殖民化,因为在线约会算法侵入了人们的浪漫关系,以至于浪漫关系中的交往行为被算法的技术规则所取代。为了应对算法殖民化引发的伦理难题,要着眼于从个体维度上弥补算法思维的固有逻辑缺陷,从技术维度上优化算法模型与标准设计,从企业以及约会应用程序设计者的维度上赋予爱情关系中个体更多的自主选择权,据此来探寻未来理想爱情关系“去算法殖民化”的可能性通路。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号