首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 531 毫秒
1.
地下经济行为的内部性与外部性分析   总被引:1,自引:0,他引:1  
地下经济行为是从事地下经济活动的经济主体的一种经济行为,这种经济行为在逃避政府规制,追求自身利益最大化的同时,具有较强的内部性和外部性。地下经济行为具有正内部性和正外部性,也具有负内部性和负外部性,而且地下经济行为的负内部性和负外部性远远大于其正内部性和正外部性,因此,政府必须对地下经济行为进行规制。鉴于地下经济行为内部性和外部性的特点,对地下经济行为的规制必须区别对待。  相似文献   

2.
余鹏文 《天府新论》2023,(1):108-123
在数字化时代,大数据分析和机器学习算法等人工智能技术已经在刑事司法中得到深度应用,并且在预测警务、犯罪风险评估、量刑决策辅助等法律事项上发挥出技术层面的效率优势。同时,也必须清醒地认识到,人工智能介入刑事司法活动当中,对传统刑事程序正义理论的基本理念和价值产生技术性冲击,尤其是算法偏见和算法黑箱等难以避免的技术难题可能在一定程度上侵蚀了裁判中立原则、程序公开原则、程序对等原则和程序参与原则。但是,在弱人工智能司法的现实语境下,刑事程序正义理论因为司法活动中人的主体性依旧可以发挥规制作用,而在人工智能司法中贯彻程序正义的理论基础在于尊严理论、司法公信力理论以及分布式道德责任理论。最后,刑事程序正义理论应当借鉴技术性正当程序理念,通过引入机器决策风险提示、算法透明原则、算法审计以及算法问责机制等举措来实现技术赋权,强化对当事人的诉讼权利保障。  相似文献   

3.
生成式人工智能在引领技术变革的同时也引发了诸多法律风险。根据生成式人工智能的运行机理,可以发现其中存在四大类数据安全风险,其主要原因在于算法高度信任对法益保护的冲击、技术演变中科技伦理规范的缺失以及用户数据主体权利保障不足等。针对生成式人工智能在数据输入阶段的数据源合规风险,研发企业内部应制定具有可操作性的数据合规计划,并在合规计划中制定详细具体的风险规制措施,强化企业合规经营;与此同时,通过多种措施积极响应用户对于数据主体权利的请求,确保模型训练数据来源合法合规。针对生成式人工智能在模型处理阶段的算法黑箱与算法偏见风险,应加大监管力度,重点关注算法的安全性与公平性,积极推进并完善相关立法,细化算法备案和算法解释义务,提高算法技术透明度,落实算法主体责任。针对生成式人工智能在内容输出阶段的数据滥用风险,应优化监管机制,实现全链条合法性监管,完善科研伦理规范并予以实质审查,引领技术向善,实现科技向善治理。针对生成式人工智能在数据存储阶段的数据泄漏风险,应通过技术与管理制度相结合的方式进行全方位规制,严格控制数据共享范围并贯彻数据分级分类保护,及时有效地防范数据泄露风险。  相似文献   

4.
平台对商户及消费者实施的持续性、规模性价格补贴在繁荣平台经济发展的同时也产生了严重的负外部性。与平台价格补贴行为相关的法律规范及公共政策涉及价格法、竞争法和平台经济监管等多个领域,但既有的规则对平台在价格违法行为中的法律地位缺乏明确认定,在具体内容上或难以直接适用,或以行为人为直接经营者且具有市场支配地位为前提,设置的豁免情形亦过于宽泛。应树立明确的规制理念和立场,以价格执法机构、反垄断执法机构、市场监管机构为不同类型补贴行为的规制主体,强化规制依据的针对性。应明确平台可以构成低价倾销或掠夺性定价的主体,对平台价格补贴引发的价格违法行为、不正当竞争行为以及垄断行为予以类型化的法律规制,并在平台经济监管领域的法律规范中完善法律规制的基础设施建设。  相似文献   

5.
外部效应(外部性)是指未在价格中得以反映的经济交易成本或收益。存在正外部性的行为往往过少,而存在负外部性的行为往往过多。引入经济学的外部效应理论有助于我们加深对文山会海现象的理解,并启发我们提出相应的解决思路。文山会海现象存在负外部性,并且这种负外部性极其隐蔽,协商谈判和规范约束是矫正其外部性的可行方法。  相似文献   

6.
政府规制外部性及其政策涵义   总被引:1,自引:0,他引:1  
规制外部性是政府为纠正市场失灵而干预市场资源配置的副产品。具体地讲,它是由政府规制行为引发的一种成本或收益的转移效应。与市场外部性不同,这种外部性一般产生于政治过程,是政府失灵的一种表现。在转轨时期,充分认识到这种外部性的存在基础与作用方式,有利于正确界定政府的职能范围,对于促进我国经济增长与社会稳定具有重要的现实意义。  相似文献   

7.
马方  唐娜 《兰州学刊》2023,(11):87-100
随着人工智能技术的兴起,如今全球范围内都在积极推进大数据侦查发展,其中以算法为支撑的预测性侦查模式发展最为迅速。人工智能技术正在对刑事司法领域产生重新塑造的效应,但与此同时,人工智能技术本身具有的内在客观特征——前瞻性、相关性、技术性等,也带来了数据风险、隐私风险以及算法风险等。社会安全风险视域下,应实现预测性侦查的多元治理:重视数据治理,发挥预测性侦查的预测价值;坚持法律治理,建立监督委员会以保护公民个人隐私;强化技术治理,公开算法决策以增强公众信任度。  相似文献   

8.
互联网与大数据等信息技术促进了互联网消费金融的创新发展,但也带来了诸多风险。当前学术界主要从非法学角度对互联网消费金融风险划分,并没有从法学角度对其进行广覆盖、深视角的划分。依据法学视野下的“主客体关系”分析方法,可以将互联网消费金融风险体系划分为主体风险与客体(行为)风险,前者包括经营者适格性风险与消费者适格性风险,后者包括经营者不正当竞争风险与消费者信用违约风险。通过充分借鉴域外不同法系国家(英国、美国、加拿大、德国、日本、韩国)互联网消费金融风险的法律规制经验,从法律规制体系与法律规制路径层面,全面构建我国互联网消费金融风险的法律规制。  相似文献   

9.
ChatGPT类生成式人工智能在海量的数据、优质的算法与强大的算力支撑下能够实现多项技术赋能。但ChatGPT类生成式人工智能是否能够适用到智慧司法领域,以及在何种程度上将其嵌入,尤其是该项技术在赋能智慧法院建设过程中的边界如何,这对于深层次建设智慧法院具有重要的前提性意义。ChatGPT类生成式人工智能技术通过审判活动的智能化运用,可促进可视正义的实现;通过诉讼服务的可及性,可实现司法为民理念;通过公平与效率的动态平衡,可实现能动司法目标。然而,ChatGPT类生成式人工智能在带来上述诸多技术红利的同时,也引发了一系列新的风险,具体可以划分为由数据“幻觉性”引发的一般风险、由技术垄断性导致的重要风险以及由数据不可控产生的核心风险。对这些风险,应根据不同的风险特征采取相应的规制路径:可以通过对训练数据库的标准化构建以实现数据的“幻觉性”规制,通过辅助性原则的引入而实现技术规制,通过对服务提供者科加义务以实现对数据不可控的数据规制。即运用数据“幻觉性”规制、技术规制与数据规制,实现对ChatGPT类生成式人工智能技术嵌入的一般风险、重要风险与核心风险的防范,以期完成ChatGPT类生成式人工智能技术嵌入智慧法庭建设的风险最小化与技术赋能最大化,最终实现该项技术高质量赋能智慧法院建设。  相似文献   

10.
面对人工智能技术的重大突破,尤其是ChatGPT等新一代人工智能在社会生活各个领域的广泛应用,审视、预判和防范ChatGPT类生成式人工智能的意识形态风险成为一个重要的理论课题。ChatGPT类生成式人工智能环境下的意识形态传播具有可塑性、可量化性、个性化和精准预测性等特点。ChatGPT类生成式人工智能介入意识形态传播的技术路径体现在技术与思想的耦合、预测性的算法推荐、个性化的话语创设和赋权性的网络传播等方面。ChatGPT类生成式人工智能介入意识形态传播会带来算法歧视、数据失真、算法监控和算法反噬等潜在的风险。应通过统筹科技伦理规制算法推荐、设计主流意识形态驾驭算法、协调传播主体与客体的价值需求、强化大数据技术检测与治理等,加强对ChatGPT类生成式人工智能意识形态风险的防控。  相似文献   

11.
人工智能的出现和发展根源于人类的本性:恐惧和贪婪。人工智能可能带来严重的不平等、失业、信任危机,对现有社会秩序带来严重挑战,最终可能失去控制。需要尽早对人工智能进行规制。规制的进路可以分为用技术规制以及用法律规制两种途径。尤其应当用法律来规制人工智能。用法律规制人工智能又可以分为法律规制人工智能本身以及法律规制人工智能背后的人。规制的原则包括目的正当原则、人类善良情感原则、公众知情原则或者透明原则、政府管控原则、分类管控原则、全程管控原则、预防原则以及国际合作原则。应当尽早制定人工智能促进法,确立人工智能发展的原则、划定人工智能发展的底线,并对现有法律进行整理,增加规制人工智能发展的有关内容。  相似文献   

12.
随着通用人工智能时代的到来,以聊天机器人ChatGPT为代表的生成式人工智能将广泛应用于各大领域,并可能引发大量的传播侵权问题。聊天机器人如何承担法律责任也成为社会讨论的焦点。讨论聊天机器人的法律责任必然无法回避其是否具备法律人格的争议,目前主要有否定说、限制说和肯定说三种思想流派争论。依据我国现行相关法律对传播侵权的规制路径,聊天机器人不具备法律主体资格,适用传统民事侵权责任。然而,具有自主学习和强大内容生成能力的大模型ChatGPT的出现,对这一传统规制路径提出了挑战。通过双轨制构建聊天机器人的法律责任主体资格,可以解决我国传统侵权责任的规制困境。针对弱人工智能的聊天机器人,依旧采用传统侵权责任的规制路径;而对于增强人工智能和自主人工智能这类不可预测性较强且具备一定自主决策能力的聊天机器人,应当赋予其法律人格地位,并建立财产保障、安全技术保障与市场保障机制,以应对传统侵权法律无法应对的挑战。  相似文献   

13.
人工智能在推动人类社会智能化变革的同时,其不确定性(自动性)所衍生的侵害人类法益的刑事风险是亟待认真对待的"真问题",绝非凭空臆造、危言耸听的"伪问题".对人工智能体被滥用于实施犯罪的刑事风险,应根据现有刑事归责原理,按照具体行为方式以及主观罪过形式,分别追究人工智能体背后的算法设计者、产品制造者与使用者(管理者)故意或过失犯罪的刑事责任.对人工智能体脱离人类控制侵害法益的刑事风险,赋予人工智能体以刑事责任主体地位的肯定论归责方案,存在持论依据及论证路径方面的诸多误区.以刑罚规制人工智能体刑事风险缺乏适宜性,应当借鉴"科技社会防卫论",通过建构保安处分机制,由司法机关在参考专业技术意见的基础上,对严重侵害人类利益的人工智能体适用以技术性危险消除措施为内容的对物保安处分,回避以刑罚规制人工智能体刑事风险必须具备可非难性的局限,进而为人工智能的发展预留必要的法律空间.  相似文献   

14.
在第三次人工智能发展的浪潮中,以大数据为依托的人工智能因其深度学习和强化学习能力的提升不断冲击着人们的想象空间,也开始深刻地影响人类现实生活。我们需要在构建人工智能法律规则时考虑如何实现算法的透明性和可解释性、算法的正义问题,以及是否应给予人工智能系统以独立的法律地位及其对个人隐私、自由尊严等的影响。从人工智能法律规制整体建构的角度来看,应从立法、司法裁判和法律效果评价环节嵌入伦理性考量因素,将具体的道德考量因素转化为可以实施的法律原则乃至法律规制,同时发挥人在司法裁判过程中的主观能动性,防止过度依赖人工智能辅助系统,从而保障司法裁判结果的公平公正。  相似文献   

15.
算法决策技术的兴起推动了社会发展,同时也带来了算法黑箱、算法合谋、算法操纵等技术和社会风险,必须对算法进行规制以控制风险。算法透明是进行算法规制的前提和基础,由于技术和制度上的障碍,完全彻底的算法透明不现实也不合理,在具体场景中追求有限、适当的算法透明才是有意义的。在算法透明的落实和保障上,行政规制具有独特的优势,通过构建刚柔并济的行政规制体系、促进企业算法合规监管、推进算法备案制度、追究算法披露不当行为责任四项具体行政规制措施,监督和保障算法透明制度的运行,实现科技创新与社会安全之间的平衡与协调。  相似文献   

16.
人工智能的流派大体上可分为符号主义、联结主义和行为主义,它们在历史上与知识产权法各自存在相应的联系.20世纪50年代开始的符号主义人工智能以符号化的知识表征和逻辑推理为主要特点,客观上为知识产权法统一本质的概括提供了新的理论,并可以进行知识产权法专家系统的建构.20世纪80年代兴起的联结主义人工智能以模拟人脑的神经网络和学习过程为主要特点,与知识产权法具有共同的"鼓励学习"宗旨,又在专利客体、创造性审查、创新本质界定和法律伦理等方面提出了挑战.与互联网联系更加密切的行为主义人工智能强调智能行为是适应周围环境的进化行为,其契合了网络时代知识产权立法一定程度的"行为规制"转向,也对相关主体的权利博弈、保护对象的进化升级、智能交互行为的法律规制等带来了挑战.不同流派的人工智能既是知识产权法的调整对象又是其完善工具,它们应当彼此进行深度融合.  相似文献   

17.
人工智能诞生以来的海量技术创新突破,催生其从一个边缘性学科成为学术界、产业界关注的焦点,并成为各国的关键战略技术,各国政府也相继出台了规范人工智能发展的相关规制政策以应对风险。近期,火爆出圈的“新物种”ChatGPT颠覆了人与技术的关系,其“自主学习”特质更是引发了学者们的种种担忧,围绕人工智能是否会威胁人类这一时代命题进行了深入探讨。而人工智能发展的政策规制面临由于技术的不确定所引发的社会风险、政策制定者预测未来所需的各种信息及知识不足的风险、政策滞后性风险等问题,使政策效果预期与运行结果产生偏差。因此,如何规范人工智能发展政策的决策程序并提升人工智能政策的理性水平是解决现代社会技术风险规制的重要课题。  相似文献   

18.
平台通过数据垄断、资本加持已经成为新型“非国家权力体”,其背后隐藏的平台资本主义在双边网络效应的支持下无序扩张,容易带来政治伦理风险。互联网平台依靠技术理性、技术价值遮蔽资本本性,通过资本与技术的合谋俘获公共权力,侵害公共利益。互联网平台的资本遮蔽性、负外部性以及“技术黑箱”导致网络空间政治民主偏离,互联网平台存在的“数据鸿沟”“马太效应”“数据孤岛”带来政治正义解体风险。党和政府应发挥主体治理监管作用,通过建构责任治理、规范治理、底线治理的三维框架,化解互联网平台产生的政治伦理风险,实现平台良性发展和规范并重的目标。  相似文献   

19.
人工智能技术权力随着人工智能技术的发展孕育而生,其以“微观的”权力为内核、传统公权力为载体,是一种既难以掌控又难以解释,且具备“微观的”权力与传统公权力双重控制力的力量。在这些特性的影响下,人工智能技术带来的风险也具有非完全的人为性、双重不确定性、差异普遍性等特性,这最终使得法律在使用“行为-责任”机制分配人工智能技术风险时存在诸多“行为”无法通达“责任”的困境。为摆脱该困境,可借鉴罗尔斯的分配正义理论,建立一种类“原初状态”的沙箱环境为公平分配风险提供基础,再以纯粹程序正义为分配渠道,打通“行为”与“责任”之间的路径,最后通过差别原则与反思平衡合理地直接连接“行为”与“责任”,以解决另一部分难以适用“行为-责任”机制的困境。  相似文献   

20.
互联网企业滥用相对优势地位行为具有明显的危害性,而我国滥用市场支配地位的规制方法和《反垄断法》的相关规定却无法对该行为进行科学、有效的规制.因此,在互联网领域引入滥用相对优势地位法律规制的理论与方法具有充分的必要性.此外,滥用相对优势地位法律规制理论在互联网领域具有相当的可行性,不仅能够有效契合互联网市场特性,还能减轻原告方的举证责任,从而显著改善对互联网企业滥用相对优势地位行为的法律规制效果.在规制互联网企业滥用相对优势地位行为时,需要明确立法模式,准确设立“相对优势地位”的认定标准,适当减轻交易相对人的举证责任,科学设置互联网企业滥用相对优势地位的法律责任.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号