首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 900 毫秒
1.
基于“个人自治”的私法保护路径已经无法满足大数据时代下个人信息保护的新要求。数据时代下共享社会的有机性、个人信息标识性以及国家社会治理的需求性共同塑造个人信息的公共性,由此生成维护个人信息公共利益、预防个人信息风险、规制个人信息处理规则的公法保护路径,弥补了传统个人信息私法保护路径的单一性、有限性、扩张性缺陷。但公法保护路径仍存在法理依据不明、个人信息专责保护机构缺失、信息保护节点导向性不足等问题。为完善个人信息保护公法规范体系,提出以基本权利作为公法法理依据设立个人信息保护专责机构,建立事前、事中、事后一体化保护机制,以加快形成我国公私并行的个人信息法律保护体系。  相似文献   

2.
以ChatGPT为代表的生成式人工智能在优化产业结构促进经济发展的同时也带来新的法律风险。语言模型训练中的风险主要包括侵害个人信息与作品著作权风险,内容生成过程中的风险则体现为人工智能“幻觉”导致的错误信息风险、算法偏见风险、“涌现”导致的算法失控风险以及人机互动中的算法滥用风险。《生成式人工智能服务管理暂行办法》提供基本的治理框架,但部分条款设置与具体治理方式上存在不足。生成式人工智能的性能取决于训练数据集的规模与质量,模型训练中的数据治理需要尊重其技术逻辑,实践中应拓展公共数据中著作权数据与个人数据的合理使用边界。内容治理可以借鉴“宪法人工智能”的基本理念,构建动态的内容反馈评估机制。  相似文献   

3.
意识形态风险防范是事关民族复兴、国家主权、文化建设的核心范畴。在当今人工智能技术蓬勃发展的数字时代,以ChatGPT为代表的生成式人工智能技术内嵌渗透到社会生活领域之中,伴随着交互深度与辐射范围的不断扩展,裹挟了众多具有新特点的意识形态风险。清晰明辨ChatGPT等生成式人工智能产生意识形态风险的内在机理是防范生成式人工智能意识形态风险的前提。ChatGPT等生成式人工智能凭借内容生成的首要功能对意识形态的价值观念层进行渗透;依靠交互对话的产品形态对意识形态的话语方式产生影响;利用多维应用的功能属性对社会生活实践领域展开强势介入,促使当下意识形态斗争态势风云诡谲,变化万千。理性审视和精准识别ChatGPT等生成式人工智能所诱发的意识形态风险是防范生成式人工智能意识形态风险的关键。从意识形态引领角度出发,ChatGPT等生成式人工智能的运行机制深蕴的资本逻辑解构社会成员已形成的认知和价值,借由"技术-资本"双重优势导致意识形态面临引领乏力风险;从意识形态话语维度审视,ChatGPT等生成式人工智能带来的"人机协同"话语生产新模式削弱主流意识形态话语深度,多元的生成式话语输送淡化话语权威,导致意识形态话语减蚀风险;从意识形态管理层面反思,ChatGPT等生成式人工智能引发的信息传播新范式消解意识形态管理的主导权,及其对人的强化宰制,导致意识形态管理弱化风险。ChatGPT等生成式人工智能在掌握先进技术基础上诱发了一系列辐射广泛、渗透全面、不易掌控的意识形态风险。如何防范与化解ChatGPT等生成式人工智能所带来的意识形态风险,成为当前我国意识形态建设无法回避的新课题。首先,贯彻落实人民至上的价值理念,以马克思主义理论指导意识形态防范工作,推进打造人机和谐、风清气正的网络空间;其次,打造富有中国特色的话语途径,在讲好中国故事的话语基础上破解西方话语的现代困境;最后,积极倡导全球治理并贡献中国方案,以共商共建共享的发展原则,依托人类命运共同体构建负责任的人工智能格局,促使ChatGPT等生成式人工智能在现代文明面前彰显光明的未来前景。  相似文献   

4.
利用生成式人工智能技术参与数字政府建设,为新时代国家治理现代化提供技术驱动,具有重要的时代意义和实践价值。ChatGPT等生成式人工智能参与数字政府建设的功用,与其相对于既有人工智能技术的技术跃迁息息相关。生成式人工智能的自然语言理解与生成能力跃迁、文本生成能力跃迁和知识更新能力跃迁,是与数字政府建设联系最为紧密的技术跃迁,对数字技术参与政府内部工作、政务服务和公共服务均有重大功用。生成式人工智能参与数字政府建设的根本目标在于建设人文数字政府,直接目标在于实现效率数字政府,长期目标在于建成智慧数字政府。生成式人工智能参与数字政府建设的可行路径在于实现权利保障优位、效率与责任并行和安全与发展均衡。面对生成式人工智能参与数字政府建设的广阔前景和风险问题,要加快我国自主的生成式人工智能在数字政府建设领域的应用培育。  相似文献   

5.
以ChatGPT为代表的生成式人工智能技术快速迭代发展,为数字司法改革的适应性调整创造了历史性契机。生成式人工智能在类案推送、辅助证据认定、偏离度预警等方面确实能够统一司法裁判的标准与尺度,实现法的普适性价值追求,然而法的普适性只是实现正义的必要条件,而非充分条件。生成式人工智能的算法黑箱、算法歧视、算法偏见等技术性缺陷亦引发了对司法公信力、司法公正、司法责任制的质疑与冲击。为此,应当在生成式人工智能的技术理性与司法裁判的价值理性之间寻求平衡。针对当前智能化裁判的技术风险,应从数据、算法、控制三个维度进行治理,最大程度控制生成式人工智能的工具主义缺陷,以实现智能化司法裁判迈向可信。  相似文献   

6.
算法驱动型虚拟数字人作为生成式人工智能的典型代表,能够在基于元数据投喂的基础上,通过对海量大数据(文本、图片、音频、视频等)自主解析与人类进行多维交互。搭载ChatGPT技术的虚拟数字人,将实现算法驱动+真人建模/虚拟形象相结合的3D场景化应用。其输出内容(人工智能生成物)包括音乐、舞蹈、文本等多种形式。算法驱动型虚拟数字人因具备交互性、数字化、拟人化、独特性四大特征,随之产生了虚拟数字人本身的权利保护和因其交互性而生成相关内容的权属划定等争议问题。第一类是算法驱动型虚拟数字人在研发之初,预训练数据采集和优化训练数据过程中对享有数据权利的主体造成的损害;第二类则是算法驱动型虚拟数字人自身或者对其享有财产权益的研发主体可能遭受的侵权。具体又可以分为由算法驱动型虚拟数字人自主产生的具有独创性内容的生成物所可能面临的权属争议和算法驱动型虚拟数字人基于不同的创作模式下产生的不同权属划归两种情形。运营公司单方创作的情形下,算法驱动型虚拟数字人的权益应划归运营公司,但如果用户也参与到虚拟数字人的创作过程中,又可以细分为“材料主义”“创作主义”与“合作主义”三种形式,分别对应着平台所有、用户所有和共有三种归属主体。现阶段,虚拟数字人作为一种数字化工具,并不具备拥有人格利益前提的人格尊严,因此不宜认定其具有独立人格,享有人格利益。通过对虚拟数字人各部分进行解构的方式,如肖像、名称、声音以及名誉所产生的利益主要采取“财产说”进行保护,而对虚拟数字人的名誉则通常采用“同一说”予以救济。另外,智能型虚拟数字人生成物可版权性问题本质上是基于深度学习技术的人工智能生成物的可版权性问题,学界存在将其是否纳入公共领域的争议。我国在生成式人工智能发展过程中可考虑探索人工智能统一立法的方式。具体而言,一是通过增强生成式人工智能服务提供者的大型基础设施服务义务来平衡其和政府之间的监管义务分配责任,二是从鼓励发展的角度建构起生成式人工智能服务提供者元数据采集的适度豁免规则,三是明确现阶段人工智能生成物不宜直接进入公共领域,其权属划分以服务提供者与使用者的约定为主。  相似文献   

7.
个人信息保护是时代数字化发展的重要议题。在人工智能辅助裁判的背景下,司法保障的关键是个人信息保护案件的裁判公正与审判效率之间的协调。法律本体模型是连接法律知识和人工智能裁判之间的桥梁,是法律知识的计算机化,是人工智能辅助裁判的底层逻辑。因此,对个人信息保护相关法律规范解构,在此基础上,构建个人信息保护法律本体模型,实现个人信息保护领域法律知识的组织和表示。挖掘个人信息保护法律本体模型在司法保障中的应用场景,从法律咨询的可靠度、量刑辅助的准确度和类案推荐的相关度等三方面保障个人信息保护案件的裁判公正。  相似文献   

8.
大数据时代的个人信息立法应平衡个人信息控制保护与促进利用的关系。当前国内外个人信息立法的既有路径未协调好这一关系,出现知情同意机制失灵、个人信息出售机制乱象、匿名化制度遭遇技术壁垒的困局。破除既有路径困境的关键是从应然目标、理论基础和规则重建三个方面,对个人信息“控制—利用”二元立法路径进行体系化重构。二元路径的目标是通过划清私人领域与公共领域的界限,以平衡个人信息控制保护与利用流通的关系;理论基础是承认个人信息的人格与财产双层、个人与公共的双重价值属性;通过构建个人信息直接识别、个人信息利用促进、利用规制和信息财产权属制度,重构个人信息控制保护与促进流通利用的规则体系。  相似文献   

9.
隐私权乃维系人类文明之基石,然而数字时代的科技革命全面打破了隐私权功能赖以发挥的传统社会场景与制度规范,深刻瓦解了隐私权的功效,致使隐私保护问题在数字社会成为全球性的公共问题。面对愈演愈烈的隐私危机以及基本失效的隐私权,欧盟与美国分别另行建构风格迥异的个人数据/信息保护体系,将其作为隐私保护的先导机制。我国采取与欧美类似路径,淡化隐私权的作用,另辟个人信息保护制度承接数字社会隐私保护的重任,虽有巨大的时代进步性,但仍需重点关注现存的法律体系结构混乱、碎片化立法等问题。  相似文献   

10.
为有效应对信息科技发展引致的个人信息保护和信息产业发展的矛盾冲突,必须创新优化个人信息侵权法保护的制度设计,肯定个人信息受法律保护的同时又限制信息主体的排他性控制权,制衡“数据权力”以抑制个人信息处理者的恣意和滥权,谋求信息时代人权保护以及为信息产业内置发展空间的“双赢”。基于大数据透明化悖论、权力悖论、身份悖论的视角,个人信息处理事实上同时存在正负效应双重外部性,这决定了个人信息法律保护不能仅依赖“基于权利的方法”,还应直面大数据时代面临的认知和结构困境,并“基于风险的方法”对个人信息的法律保护进行路径重构。大数据悖论决定了个人信息侵权法保护的价值取向不能简单化、绝对化,其实质是要求在信息处理者秘密搜集处理信息与个人主张信息处理透明化、信息处理者的数据特权与个人对信息权利的“让渡”或“牺牲”、信息处理者识别个人身份与个人主张身份隐私保护等博弈关系中求得优解。为此,个人信息侵权法保护的价值既要定位于保护公民个人的人格尊严,保障数字时代人权,又要衡平信息有序流动、跨境交易以及信息产业发展中的各方利益。大数据悖论非但不应成为个人信息权利保护、政府信息治理权力、信息产业发展间“非零和博弈”的...  相似文献   

11.
传统上依赖私权维护的个人信息静态刑法保护模式不仅提高了信息流动的制度成本,还导致侵犯公民个人信息罪适用僵化、不灵活,不利于信息保护与利用的平衡。场景化理论主张信息合理流动,对破解这一问题具有重要意义。场景化视域下,个人信息不是私权的客体,侵犯公民个人信息罪不应保护个人对信息的绝对控制权,而应仅保护个人信息的合理流动权。动态刑法保护模式顺应了数字社会对个人信息场景化保护的要求,能有效实现信息保护与信息利用的平衡,应予以提倡。对于侵犯公民个人信息罪的适用,在“违反国家有关规定”方面,应重新界定其实质性内涵,发挥其限制入罪的机能;在行为对象上,要扩充高度敏感信息的内涵,使其适应个人信息分级保护的需要;在情节严重的认定上,要改变其中存在的根据单一标准认定情节严重的做法,通过场景整合,实现情节严重认定的综合化。  相似文献   

12.
信息性人格权是以“不同面向的个人信息”为客体建构的新兴人格权,其具有主体识别性、客体动态性、有限支配性等特质。在类型体系上,信息性人格权包括信息性隐私权、个人信息权、信用权和被遗忘权等具体权利。上述各权利在规制对象上具有同质性,即为个人与信息处理者之间在数字社会形成的一种持续性的信息不平等关系。在规范构造层面,信息性隐私权宜采取合理隐私期待标准,建立“私人安宁+私密信息”的保护范式,实现空间隐私向场景隐私的转化;个人信息权的权能体系建构需以信息保有权为基础、以信息自决权为主干、以信息获取权为分支、以信息修复权维系数字人格的完整性;被遗忘权的本质是一种免受不当信息惩罚的要求权,其具体形态为删除权。吸纳信息性人格权,有助于保障人格尊严和人的自主性、规范新兴人格权法权构造、丰富人格权规则体系和化解智能时代人的主体性危机。  相似文献   

13.
未成年人生物信息保护与使用的争议不断白热化,立法应正视技术发展并积极回应社会关切,使未成年人在特殊保护下享受科技带来的福祉。未成年人生物信息权益存在主体有限性与客体特殊性,沿用一般个人信息保护规则难以周延保护未成年人生物信息。生物识别技术收益与风险的比例均衡,可在不同适用场景、区分保护对象下合理使用。未成年人信息权益源自国际性公约中儿童生存权、受保护权、发展权、参与权等基本权利在数据时代的全新解读。应检讨域内外生物信息立法现状,完善未成年人生物信息的特殊保护路径:一是弥补未成年人行权能力不足,确立充分知情与可验证同意、实现多层次告知程序;二是由侵权后救济转向生物信息处理前风险识别、处理中动态反馈、处理后及时删除的信息安全影响评估管理;三是改善保护主体单一结构,构造法定保护、商业保护、算法保护、监督保护的多元保护体系。  相似文献   

14.
搜索引擎技术的大众化特性改变了信息流通的方式,不仅扩散了信息的传播范围,甚至可能无限延长信息的留存,因而使得合理的信息遗忘机制失效,影响个人声誉的恢复。我国《民法典》和《个人信息保护法》均未规定被遗忘权,但被遗忘的法益是一项正当的独立的人格法益,本质上是实现个人身份建构的法益。不同于民法上的隐私权,被遗忘权仅适用于合法被公开的个人信息;不同于民法上的名誉权,被遗忘权中的个人信息是真实的,只因在网络上存续时间过长,影响了个人的身份呈现。《个人信息保护法》中的删除权是实现被遗忘权本权的一种手段,被遗忘权的义务主体限于搜索引擎,但应扩大解释至通过调用搜索引擎快速检索信息并生成回复的生成式人工智能;其权利内容为限制搜索引擎通过姓名查询结果的网站链接,而非彻底从网络上删除。原始公开行为的合法是搜索引擎再次公开的合法性基础,但信息公开行为合法无法推导出搜索引擎为所有搜索行为持续提供网页链接的合理性。  相似文献   

15.
以人工智能深度伪造技术为代表的生成式AI的创造力和技术想象力正在以“数字化身体”为焦点,重塑数字生活世界。一方面,数字化身体以一种数据信息流的方式在虚拟世界中进行传播和应用,塑造了高度流动性的场景。另一方面,在全景展示社会中,数字化身体不断建构符号化、流程化和同质化的主体暴露美学,为人工智能深度伪造的技术叙事和场景叙事提供了可供性。基于数字化身体景观的涌现,人工智能深度伪造技术强大的“数字世界再造”导致生物识别数据隐私泄露和自主性丧失、社会信任危机与群体分化、政治舆论变异和社会民主破坏、后真相与本体性安全丧失等伦理风险。进而,在超真实的数字化世界中,现实世界被虚拟世界遮蔽而引发人的认知、伦理和生存的虚无化,从而走向真相与假相的内爆、真相衰退与认知无能、图像制造的道德悖论以及主体性剩余的虚无困境。面对人工智能技术内在的虚无主义力量,关键不在于确定性世界和确定性观念的建立,更重要的是以一种生存论哲学视角去看待人工智能技术,即人工智能技术就是人的本质存在,其带来的种种问题并不是技术对人的单向度地反噬和异化,而是人类社会发展和人的自我建构不断扬弃的历史过程。  相似文献   

16.
以ChatGPT为代表的生成式人工智能的诞生,标志着人工智能技术从“决策式AI”向“生成式AI”的重大技术跃迁,引发了从“时空革命”到“知识革命”的技术演进。生成式人工智能技术在带来众多科技红利的同时,也引发包括数据安全问题、个人隐私侵犯、知识产权侵害、误导性和虚假信息泛滥、市场垄断、偏见和歧视等诸多现实风险。为了鼓励生成式人工智能技术的创新发展以及规避其所带来的风险,中国采取“包容性法律治理”模式。在治理原则上,包容性法律治理始终坚持协同共治、提升透明度、提高数据质量、发挥法治效能等基本理念;在治理主体上,包容性法律治理提倡多方主体协同治理,充分发挥政府机构、科研机构、行业协会和公民团体等社会组织的力量;在治理过程中,包容性法律治理主张运用多种治理工具,通过技术方案、伦理标准和法律政策全面提升生成式人工智能的风险治理水平;在治理方法上,采取分类分级治理策略;在治理结果上,包容性法律治理强调要注重数字社会的分配公平,弥合数字鸿沟,保障数字空间的基本人权。  相似文献   

17.
ChatGPT是美国人工智能研究实验室OpenAI推出的一种人工智能技术驱动的自然语言处理工具,其深度的学习能力和自我纠正能力,提高了人工智能与人类之间的交往。ChatGPT在实现科学技术革新的同时,也存在敏感数据泄露的风险。ChatGPT在保护个人主体数据、企业主体数据和国家主体数据方面需要法律予以规范。因此,如何应对ChatGPT带来的数据安全,成为生成式人工智能亟待解决的问题。为此,通过分析ChatGPT运作阶段和数据主体应用现状可能存在的数据风险,以我国数据规制法律框架为基础,借鉴域外人工智能立法模式,探究ChatGPT的数据风险法治化应对策略,以此合理构建我国生成式人工智能的数据风险法律规制体系。  相似文献   

18.
用户画像技术在学术期刊智能化应用中为用户提供精准知识服务,但用户画像中个人信息的大规模应用加剧了用户信息收集、用户标签侵权以及算法歧视、算法偏见等风险,本文基于法律视角剖析学术期刊用户画像个人信息和敏感个人信息界定、个人信息主体权利认定、算法自动化决策透明度与可解释性的实现、个人信息处理者特殊保护义务的规定、个人信息跨境交流管理等,提出了学术期刊用户画像个人信息保护法律规制策略。  相似文献   

19.
以ChatGPT为代表的生成式AI的崛起是人工智能领域的一次重大变革,也可能成为由专用性人工智能转向通用性人工智能的关键转折点。生成式AI的爆发由算法、算力和数据的进步共同推动,其中算法层面的突破最为关键。生成式AI在消费端的应用场景主要有内容生产、便捷交互、简化操作,这些应用将会同时对消费者的消费品数量、质量、多样性,以及拥有的闲暇等因素产生显著影响。生成式AI对产业端的影响主要体现为加速自动化、通过“组合式创新”促进技术进步、实现对新要素尤其是新数据要素的创造,靠近生产领域的代表性应用有工业设计、药物研发、材料科学、合成数据等。生成式AI带来的问题主要有失业问题、收入分配和不平等问题、竞争和垄断问题、知识产权问题、安全和隐私问题、道德和伦理问题、能源和环保问题。为此,应从产业政策、就业和保障政策、法律法规建设等方面制定有针对性的措施。  相似文献   

20.
生成式人工智能是一项变革性技术,具有高度颠覆性,将改变当前用户生活、工作和交流的方式,也引发出一些竞争法律问题。除了传统反垄断法律问题在生成式人工智能领域的体现外,生成式人工智能产业链的竞争法律问题表现为垄断结构的扼杀式收购等行业并购和网络平台效应,训练数据的数据垄断、剥削性滥用,算法研发的生态系统封锁、竞业条款构成排他性行为,算力提供的算力封锁、歧视性待遇、自我优待,应用服务的搭售、捆绑销售、独家售卖、拒绝交易等排他性行为。传统竞争法监管框架都适用于生成式人工智能新业态,同时密切关注并对生成式人工智能等新业态的反竞争行为保持警惕。我国现有竞争法律规则体系仍然适用于生成式人工智能新技术新业态领域,针对新的竞争法问题,建议出台促进生成式人工智能技术和产业的充分竞争、创新发展政策,制定出台专门的《人工智能的反垄断指南》,竞争执法部门分场景、分环节重点关注生成式人工智能的潜在反竞争行为,司法机关适时总结典型司法案例,出台司法解释进行指导。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号