首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 0 毫秒
1.
生成式人工智能在引领技术变革的同时也引发了诸多法律风险。根据生成式人工智能的运行机理,可以发现其中存在四大类数据安全风险,其主要原因在于算法高度信任对法益保护的冲击、技术演变中科技伦理规范的缺失以及用户数据主体权利保障不足等。针对生成式人工智能在数据输入阶段的数据源合规风险,研发企业内部应制定具有可操作性的数据合规计划,并在合规计划中制定详细具体的风险规制措施,强化企业合规经营;与此同时,通过多种措施积极响应用户对于数据主体权利的请求,确保模型训练数据来源合法合规。针对生成式人工智能在模型处理阶段的算法黑箱与算法偏见风险,应加大监管力度,重点关注算法的安全性与公平性,积极推进并完善相关立法,细化算法备案和算法解释义务,提高算法技术透明度,落实算法主体责任。针对生成式人工智能在内容输出阶段的数据滥用风险,应优化监管机制,实现全链条合法性监管,完善科研伦理规范并予以实质审查,引领技术向善,实现科技向善治理。针对生成式人工智能在数据存储阶段的数据泄漏风险,应通过技术与管理制度相结合的方式进行全方位规制,严格控制数据共享范围并贯彻数据分级分类保护,及时有效地防范数据泄露风险。  相似文献   

2.
在第三次人工智能发展的浪潮中,以大数据为依托的人工智能因其深度学习和强化学习能力的提升不断冲击着人们的想象空间,也开始深刻地影响人类现实生活。我们需要在构建人工智能法律规则时考虑如何实现算法的透明性和可解释性、算法的正义问题,以及是否应给予人工智能系统以独立的法律地位及其对个人隐私、自由尊严等的影响。从人工智能法律规制整体建构的角度来看,应从立法、司法裁判和法律效果评价环节嵌入伦理性考量因素,将具体的道德考量因素转化为可以实施的法律原则乃至法律规制,同时发挥人在司法裁判过程中的主观能动性,防止过度依赖人工智能辅助系统,从而保障司法裁判结果的公平公正。  相似文献   

3.
人工智能的大范围应用正在重构经济社会行为规则和组织运行方式,其在促进经济高质量增长和实现有效社会治理的同时也带来诸多严重的经济社会风险。人工智能系统的黑箱模式及其不可解释性是风险产生的主要原因,并且人工智能应用风险是由系统运行不同环节的风险所共同构成的。人工智能监管治理需要树立以人为中心的基本价值取向,坚持透明度、安全性、公平性和问责性的基本原则,建立以风险为基础的全生命周期监管治理体制,强化系统使用者的风险治理主体责任,并突出技术性方案的基础性作用。  相似文献   

4.
5.
中小企业信用担保是我国目前为推动中小企业发展而实施的一项政策,旨在解决中小企业资金少,信用等级低而导致参与市场竞争融资难的问题。以各国实践经验,中小企业创造的经济效益在全国经济总量中占据着很重要的地位,只有发展好中小企业,为中小企业融资提供担保才能有力的壮大中小企业。主要从分析信用担保风险的传导路径和制度成因,参照国外先进成功经验来对我国信用担保风险进行法律控制。具体从统一监管,建立担保金补偿制度和风险内部控制制度,完善再担保制度和加强银行风险共担意识,构建相应制度来保障中小企业信用担保的发展。  相似文献   

6.
商业银行在经营中面临多种风险,其中集中性风险即大额风险暴露越来越引起人们的关注,对其法律监管也在逐步完善。我国应借鉴国际先进经验,针对商业银行的大额风险暴露构建包含三大支柱的法律监督体系。  相似文献   

7.
8.
我国P2P网络借贷的法律风险解析及监管应对   总被引:2,自引:2,他引:0  
通过对我国 P2P 网络借贷平台运营模式的探究,认为网络借贷平台存在民事法律风险、刑事法律风险和金融法律风险。在此基础上,借鉴美国对 P2P 网络借贷平台的监管格局,提出通过明晰监管结构、完善个人征信体系、规范中间账户管理、引入第三方担保机制或建立风险准备金制度等监管措施,增进行业自律来完善我国对网络借贷平台的监管。  相似文献   

9.
随着人工智能的广泛应用,其在为人类生产和生活带来便利的同时,也引发了数据隐私泄露与算法偏见、责任主体冲击与边界模糊、主客体异化与信任危机、软法缺陷与硬法缺失等伦理风险。规制人工智能的伦理风险,须优化人工智能技术设计,注重隐私保护与社会公正;赋予人工智能以社会角色,划定人与智能的责任边界;构筑人工智能伦理规约,强化人的主体地位与诚信品质;加快人工智能的法制化进程,健全智能伦理制度体系,从而促使“人—机”和谐共处。  相似文献   

10.
信用承诺是一项重要的信用制度,也是信用建设的重要环节。如何在各行各业、各领域全面深入推行市场主体信用承诺监管,学界对此尚缺乏应有的关注。从开展领域、监管方式等视角对市场主体信用承诺监管的实施情况进行评估,可以发现覆盖领域不全、过于重视事前监管等问题。从监管主体和监管时序两个维度进行深层探析,可以进一步厘清市场主体信用承诺监管覆盖的事项。市场主体信用承诺监管制度的有效实施还需要理论补强,包括重新构造多层次的信用法理念、实现行业监管法与领域监管法的理论分野、完善信用监管主体理论等。同时,要对告知承诺、X+承诺、退出信用承诺、信用修复承诺、信用承诺参与主体等制度进行创新完善。  相似文献   

11.
人类社会向智能化发展的大势不可避免,争议也随之而来。人工智能发展在推动社会发展、提高生产效率、促进人从劳动中解放出来的同时,人工智能中的女性异化现象也不断浮出水面。资本对人工智能技术的偏好、男性在人工智能领域的主导地位、社会消费对女性身体的偏好等等都导致女性在人工智能大数据时代不可避免地出现经典作家所批判的异化现象。人工智能领域中的女性异化具体呈现为:身体符号化、数字技术性别化和女性主体性被侵蚀。要祛除上述异化现象,除了要大力提升女性主体意识和合理规划工具理性、价值理性外,坚持用生产力与生产关系的矛盾运动规律来观照人工智能异化是根本路径。具体而言,我们要致力于技术、理性与人文、感性,法律与道德,生产力与生产关系等系统矛盾解答中来获求人工智能中女性异化现象的消解,坚持系统辩证思维,为女性解放提供一种新的可能性。  相似文献   

12.
人工智能是引领新一轮科技革命和产业变革的战略性技术。加快发展人工智能有助于中国赢得全球科技竞争主动权,推动中国科技跨越式发展,赋能产业升级,促进生产力整体跃升,为中国经济高质量发展添薪续力。但是人工智能在推动中国经济社会快速发展的同时,也会带来包括经济风险在内的诸多风险,这些风险如果不能及时化解,将会对中国经济社会高质量发展构成严峻的挑战。经济风险主要包括失业风险、收入分配两极分化风险、加剧市场垄断风险、对消费者实施价格歧视风险和国际经济风险等。中国在加快发展人工智能的同时,必须针对这些经济风险采取有效的对策措施,提高中国运用人工智能的综合能力,促进经济社会高质量发展。  相似文献   

13.
我国中小企业信用担保体系在运作实践中面临着来自政府、银行、中小企业以担保机构自身的多种潜在风险,因此必须建立市场准入制度、资本管理制度、风险管理制度、银保合作制度、政府扶持制度、政府监管制度以及其他相关制度,才能针对性的进行风险防范,实现规范发展。  相似文献   

14.
人工智能时代,算法在社会领域诱发了一种全新的发展态势,不但深刻地影响着既有的生产关系,而且已经渗透到日常生活的各个角落。但是,在算法全方位赋能社会治理的背后,也蕴藏着一系列内生风险,并由此引发了技术和社会系统之间的剧烈冲突与碰撞。文章基于国内外算法治理领域对算法规则和算法权力的单向度研究,通过文献分析和比较调研的方法,结合公共管理学理论、法学理论等多学科思维,探讨算法规则向算法权力的动态转变。正是这种动态转变加速了算法权力的膨胀,这也催生了大量的算法风险,引发了社会治理的困境。因此,算法治理需要通过约束算法权力进行建构、引导和反思。算法治理的路径包括确立以人为本的治理理念,提高算法的可解释性以及构建多元主体协同的治理体系。  相似文献   

15.
人工智能时代,经由算法产生的互联网诱导行为已成普遍现象,其负外部性效应愈发显现,具有法律规制的迫切性。这种负外部性效应的本质是纯粹算法中立,即不加限制的算法技术应用带来的风险。由于算法的应用,促使人工智能与互联网诱导行为产生关联,并因其公共属性,使得该风险具有公法风险的特点。因此,算法规制的法正当性,主要是对纯粹算法中立的修正,包含公益优先和文化引导两方面。在传统命令控制型规制存在权利保障疑虑的情况下,基于国家担保责任的兜底,元规制理论下的自我规制有助于改善和提高规制的绩效;并通过算法技术计算公共利益的限度,保障规制活动始终受到法律的拘束。  相似文献   

16.
刘云 《江汉论坛》2020,(12):113-119
依赖于大数据的人工智能技术存在算法黑箱的固有缺陷,构建具有可解释性的人工智能是保障用户实现相关权益的前提,是促进社会形成人工智能准确认知和良好信心的必然选择,是实现透明、可控、负责任人工智能发展的基础,也是人工智能成为一门科学的内在要求。任何人工智能都不是完全不具有可解释性的,它们都在一定范围内具有相当程度的可解释性的。私法上的算法解释权属于事后救济权,是用户请求网络运营者对个人权益有重大影响的自动化决策予以解释的权利,限于调整基于连接主义的黑盒算法,解释的水平应当符合现有科学技术水平。在潜在风险发生之前和存在损害普遍多数用户利益的情况下,应当引入算法影响评估、告知义务、外部算法问责,从而以积极的方式促进人工智能的可解释性,提高算法透明度以构建公共信任的基础。我国《个人信息保护法(草案)》已经为个人信息处理领域的人工智能可解释性提供了充分的法律依据,未来还需要通过专门的人工智能立法围绕"可解释性"作出合理制度安排。  相似文献   

17.
《江西社会科学》2014,(6):146-150
良好的法律信用有利于法律的实施。先秦法家代表人物韩非的思想体系中体现着对法律信用的推崇,其法律信用思想具有社会基础、人性基础、理论基础、制度基础和实践基础,并通过立法、司法、法律监督、技术保障、法制教育来建构。韩非建构法律信用思想对当前法治的借鉴意义在于:法律信用的构建要靠法律内在条文的和谐以及依法执政、公正司法和普遍守法来实现。  相似文献   

18.
人工智能技术权力随着人工智能技术的发展孕育而生,其以“微观的”权力为内核、传统公权力为载体,是一种既难以掌控又难以解释,且具备“微观的”权力与传统公权力双重控制力的力量。在这些特性的影响下,人工智能技术带来的风险也具有非完全的人为性、双重不确定性、差异普遍性等特性,这最终使得法律在使用“行为-责任”机制分配人工智能技术风险时存在诸多“行为”无法通达“责任”的困境。为摆脱该困境,可借鉴罗尔斯的分配正义理论,建立一种类“原初状态”的沙箱环境为公平分配风险提供基础,再以纯粹程序正义为分配渠道,打通“行为”与“责任”之间的路径,最后通过差别原则与反思平衡合理地直接连接“行为”与“责任”,以解决另一部分难以适用“行为-责任”机制的困境。  相似文献   

19.
尽管目前的养老金投资被限定于定期存款和国债,但走市场化之路并辅以有效的法律监管既是世界潮流,也是未来趋势。应当专门制定养老金投资监管的法律规范,实行“固定投资与动态投资搭配并灵活调整”的基本模式,实行结构性的比例控制,委托全国社保基金理事会投资并实行决策、管理与执行“三分开”,强化养老金投资的信息披露监管并设置严格的法律责任。  相似文献   

20.
作为个性化新闻分发的底层支撑技术,算法推荐的科学技术特质决定了其并非中立,而是具有一定的意识形态属性.算法推荐的利用若不受监管,将会对主流意识形态传播、网络信息环境和用户的价值观念带来冲击,引发意识形态安全风险:平台流量至上的推送逻辑降低主流意识形态的引领力和凝聚力,以用户偏好为中心的内容推荐加剧了价值分化和观念隔离,过滤推荐引发价值迷失和信息操纵.有必要发挥法律的安全功能,通过强化网络平台的审核、监督义务和信息披露义务促进主流意识形态传播升级;通过赋予用户算法知情权、算法解释权打破信息茧房,建立多元信息环境;通过限制算法推荐的适用范围和算法审计监管构建可信任的算法,切实防范化解意识形态风险.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号