首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
以ChatGPT为代表的生成式人工智能技术快速迭代发展,为数字司法改革的适应性调整创造了历史性契机。生成式人工智能在类案推送、辅助证据认定、偏离度预警等方面确实能够统一司法裁判的标准与尺度,实现法的普适性价值追求,然而法的普适性只是实现正义的必要条件,而非充分条件。生成式人工智能的算法黑箱、算法歧视、算法偏见等技术性缺陷亦引发了对司法公信力、司法公正、司法责任制的质疑与冲击。为此,应当在生成式人工智能的技术理性与司法裁判的价值理性之间寻求平衡。针对当前智能化裁判的技术风险,应从数据、算法、控制三个维度进行治理,最大程度控制生成式人工智能的工具主义缺陷,以实现智能化司法裁判迈向可信。  相似文献   

2.
意识形态风险防范是事关民族复兴、国家主权、文化建设的核心范畴。在当今人工智能技术蓬勃发展的数字时代,以ChatGPT为代表的生成式人工智能技术内嵌渗透到社会生活领域之中,伴随着交互深度与辐射范围的不断扩展,裹挟了众多具有新特点的意识形态风险。清晰明辨ChatGPT等生成式人工智能产生意识形态风险的内在机理是防范生成式人工智能意识形态风险的前提。ChatGPT等生成式人工智能凭借内容生成的首要功能对意识形态的价值观念层进行渗透;依靠交互对话的产品形态对意识形态的话语方式产生影响;利用多维应用的功能属性对社会生活实践领域展开强势介入,促使当下意识形态斗争态势风云诡谲,变化万千。理性审视和精准识别ChatGPT等生成式人工智能所诱发的意识形态风险是防范生成式人工智能意识形态风险的关键。从意识形态引领角度出发,ChatGPT等生成式人工智能的运行机制深蕴的资本逻辑解构社会成员已形成的认知和价值,借由"技术-资本"双重优势导致意识形态面临引领乏力风险;从意识形态话语维度审视,ChatGPT等生成式人工智能带来的"人机协同"话语生产新模式削弱主流意识形态话语深度,多元的生成式话语输送淡化话语权威,导致意识形态话语减蚀风险;从意识形态管理层面反思,ChatGPT等生成式人工智能引发的信息传播新范式消解意识形态管理的主导权,及其对人的强化宰制,导致意识形态管理弱化风险。ChatGPT等生成式人工智能在掌握先进技术基础上诱发了一系列辐射广泛、渗透全面、不易掌控的意识形态风险。如何防范与化解ChatGPT等生成式人工智能所带来的意识形态风险,成为当前我国意识形态建设无法回避的新课题。首先,贯彻落实人民至上的价值理念,以马克思主义理论指导意识形态防范工作,推进打造人机和谐、风清气正的网络空间;其次,打造富有中国特色的话语途径,在讲好中国故事的话语基础上破解西方话语的现代困境;最后,积极倡导全球治理并贡献中国方案,以共商共建共享的发展原则,依托人类命运共同体构建负责任的人工智能格局,促使ChatGPT等生成式人工智能在现代文明面前彰显光明的未来前景。  相似文献   

3.
戚凯 《国际论坛》2023,(4):3-23+155
数字全球化加速发展致使人工智能及其潜在变革动能受到国际社会广泛关注。美国高度重视相关技术研发以护持自身霸权,政府携手跨国数字巨头加速推进该国人工智能领军企业OpenAI发展步伐,美国金融资本亦对其予以重点扶持。作为该企业的核心产品与生成式人工智能科技的最新成果,ChatGPT一经发布即引发世界各国高度重视。然而,该产品发展前景并不完全明朗,不仅仍面临准确性与安全性困境,且难以突破知识产权与监管限制。同时,生成式人工智能技术贸然跃进或带来国家内外矛盾上升、数字鸿沟扩大等重大挑战,加快数字时代国际竞争节奏、提升大国竞争复杂性,并加剧全球数字扩张无序性。作为全球数字大国,中国亦正积极把握ChatGPT带来的人工智能发展机遇,但因受美国战略遏制打压严重而在技术跟进、人才培养、产业布局、国家安全保障等方面面临诸多挑战。鉴于此,中国需保持战略定力,从本国实际情况出发,在加大研发投入的同时坚持国际合作与和平发展,积极推动全球人工智能治理加速。  相似文献   

4.
ChatGPT作为生成式人工智能的典型代表,是由美国人工智能研究实验室OpenAI研发并推出的一款基于自然语言处理和机器学习的大型语言模型,该应用一经问世便风靡全球,掀起一场广泛且深刻的大讨论。以ChatGPT为代表的生成式人工智能作为人工智能发展的最新成果,进一步向有感情和通用人工智能的发展目标迈出了一大步。随着生成式人工智能发展及其广泛应用,被认为正在重塑着人和人类社会,人类在享受新技术带来的便利时,也将遭受前所未有的挑战,突出地表现为生成式人工智能对于人的异化,重塑人的交往、人的思维和人的劳动。信息时代人的异化问题的研究,需要从马克思关于人的本质的规定出发,用历史唯物主义的方法深入分析人的异化现象,并为应对人工智能引发的危机寻找突破口。人的本质具有三重内涵,即交往、思维和劳动,交往是人的本质的独特体现,思维是人的本质的现实表现,劳动是人的本质的内在规定。随着认知技术与神经科学的迅猛发展,生成式人工智能以其独特的模拟能力,表现出对马克思所描述人的本质的异化的确证,即人的创造物威胁着人的主体性发展。包括:人-机交往、数据化交往、数字化生存引发的人的交往异化;人机结合、依赖智能、机器生产带来"超越"的人、"弱化"的人、"虚无"的人;人与物、人自身的劳动异化等。面对生成式人工智能引发的人的异化危机,亟须价值理性在智能时代的回归与复兴,亟须正确认识生成式人工智能的价值与限度,亟须重视对人的生命的终极关怀,因此深化生成式人工智能引发人的异化的反思,一是要重构生成式人工智能的工具属性,即认识到人工智能不过是人类的"新工具"、认识到"新工具"的与众不同、用好人工智能这个"新工具";二是审视生成式人工智能的价值与限度,即必须回归人类自我价值审视、实现人工智能自我价值塑造、重视人工智能的发展限度;三是生成式人工智能发展的应然归旨,即构建可控的、安全的、可靠的人工智能。  相似文献   

5.
数字政府是指政府以新一代信息技术为支撑,综合运用云计算、大数据、区块链和人工智能等新兴互联网技术,对治理过程所需的各种数据和信息以数字化形式自动采集、整合、储存、管理、交流和分析,提升政府行政效率与决策科学性的新型政府运行模式。随着第四次工业革命以指数级的速度不断深化拓展,人类加速迈入数字文明时代,互联网与政务服务的深度融合推动了政府治理的数字化转型。面对世界百年未有之大变局,加快数字政府建设已成为推进国家治理体系与治理能力现代化的必备项。在以中国式现代化全面推进中华民族伟大复兴的进程中,加强数字政府建设创新成为驱动政府治理体系改革的强大内生性动力。面向未来,以信息化驱动现代化、以数字化引领智能化、以数字技术赋权公民参与,推进数字政府建设向纵深发展,既是守正创新和开创政府治理现代化变革新局面的重要抓手,也是在数字文明时代取得全球数字治理竞争优势的关键之举。  相似文献   

6.
算法驱动型虚拟数字人作为生成式人工智能的典型代表,能够在基于元数据投喂的基础上,通过对海量大数据(文本、图片、音频、视频等)自主解析与人类进行多维交互。搭载ChatGPT技术的虚拟数字人,将实现算法驱动+真人建模/虚拟形象相结合的3D场景化应用。其输出内容(人工智能生成物)包括音乐、舞蹈、文本等多种形式。算法驱动型虚拟数字人因具备交互性、数字化、拟人化、独特性四大特征,随之产生了虚拟数字人本身的权利保护和因其交互性而生成相关内容的权属划定等争议问题。第一类是算法驱动型虚拟数字人在研发之初,预训练数据采集和优化训练数据过程中对享有数据权利的主体造成的损害;第二类则是算法驱动型虚拟数字人自身或者对其享有财产权益的研发主体可能遭受的侵权。具体又可以分为由算法驱动型虚拟数字人自主产生的具有独创性内容的生成物所可能面临的权属争议和算法驱动型虚拟数字人基于不同的创作模式下产生的不同权属划归两种情形。运营公司单方创作的情形下,算法驱动型虚拟数字人的权益应划归运营公司,但如果用户也参与到虚拟数字人的创作过程中,又可以细分为“材料主义”“创作主义”与“合作主义”三种形式,分别对应着平台所有、用户所有和共有三种归属主体。现阶段,虚拟数字人作为一种数字化工具,并不具备拥有人格利益前提的人格尊严,因此不宜认定其具有独立人格,享有人格利益。通过对虚拟数字人各部分进行解构的方式,如肖像、名称、声音以及名誉所产生的利益主要采取“财产说”进行保护,而对虚拟数字人的名誉则通常采用“同一说”予以救济。另外,智能型虚拟数字人生成物可版权性问题本质上是基于深度学习技术的人工智能生成物的可版权性问题,学界存在将其是否纳入公共领域的争议。我国在生成式人工智能发展过程中可考虑探索人工智能统一立法的方式。具体而言,一是通过增强生成式人工智能服务提供者的大型基础设施服务义务来平衡其和政府之间的监管义务分配责任,二是从鼓励发展的角度建构起生成式人工智能服务提供者元数据采集的适度豁免规则,三是明确现阶段人工智能生成物不宜直接进入公共领域,其权属划分以服务提供者与使用者的约定为主。  相似文献   

7.
生成式人工智能是一项变革性技术,具有高度颠覆性,将改变当前用户生活、工作和交流的方式,也引发出一些竞争法律问题。除了传统反垄断法律问题在生成式人工智能领域的体现外,生成式人工智能产业链的竞争法律问题表现为垄断结构的扼杀式收购等行业并购和网络平台效应,训练数据的数据垄断、剥削性滥用,算法研发的生态系统封锁、竞业条款构成排他性行为,算力提供的算力封锁、歧视性待遇、自我优待,应用服务的搭售、捆绑销售、独家售卖、拒绝交易等排他性行为。传统竞争法监管框架都适用于生成式人工智能新业态,同时密切关注并对生成式人工智能等新业态的反竞争行为保持警惕。我国现有竞争法律规则体系仍然适用于生成式人工智能新技术新业态领域,针对新的竞争法问题,建议出台促进生成式人工智能技术和产业的充分竞争、创新发展政策,制定出台专门的《人工智能的反垄断指南》,竞争执法部门分场景、分环节重点关注生成式人工智能的潜在反竞争行为,司法机关适时总结典型司法案例,出台司法解释进行指导。  相似文献   

8.
生成式人工智能的应运而生使得个人信息保护面临着日益严峻的新风险,生成式人工智能从个人信息收集、使用和生成场景中引发了信任危机,传统的个人信息自决路径已然无法适应数字时代的变革。生成式人工智能应用场景中个人信息的算法识别本质成为个人信息保护的新契机,算法对个人信息识别从因果关系转向相关关系,而个人信息流通则基于场景一致性理论建构起信息规范,使得个人信息流通具备合理性,并将个人信息流通的风险控制在信息规范的限度之下。重塑以算法可识别为核心的风险规范路径,需要建构数字守门人的二元规制机制,形成个人信息流通的外部监管规范;同时在个人信息识别流通中,对知情同意原则以信息信托义务进行补充,从而实现个人信息的内部流通机理;对个人信息流通风险基于场景化分置,将个人信息和模型算法进行分级分类,促进个人信息保护的敏捷性治理,以此实现个人信息保护和流通的平衡。  相似文献   

9.
以ChatGPT4为代表的生成式人工智能具有高度类人性和广泛适用性,有利于生产方式和众多领域的转型升级。然而,这种所谓强人工智能时代的标志性产物,伴随着技术固有的风险性问题,引发伦理以及法律层面的失范性问题。生成式人工智能的失范性主要表现为:一是针对生成式人工智能引发的风险问题,伦理与法律尚无回应;二是现有的伦理体系和法律制度的“规范性”不足。为此,文章借鉴凯尔森的规范性理论,采用“旧论新用”的方法:一是利用伦理规范化,增强其约束性、可执行力,整理其内部层级关系,形成生成式人工智能的伦理治理体系;二是运用法律规范化,强化其对生成式人工智能数理化逻辑运行的模型规范。最后,基于伦理与法律协同构建生成式人工智能的规范性体系。  相似文献   

10.
技术对人类的认知范式起着重要的影响。从数据可视化到生成式人工智能的互动在不同维度上挑战甚至重塑着人类的认知能力及框架。数据可视化本质上是一种视觉认知范式,它强化了人类认识论领域中的视觉中心主义传统,由此导致以视觉为中心的数字技术权力谱系的建立。随着以ChatGPT为代表的生成式人工智能的出现,人类的认知发生了由视觉向言说的转变。其一方面通过语言处理技术和算法模型,突破并重塑了人类的认知结构;另一方面则建立起一种以数据言说为核心的普遍性知识体系,消解了人类对经验知识背后的特殊目的乃至意义的追问。生成式人工智能带给人类认知的挑战,应从它凭借普遍理性原则造成的认知中心化趋势,以及借由对话训练方式所激发出的主体创造性两个层面加以考察。  相似文献   

11.
进入数智时代,生成式人工智能应用在全球掀起的使用热潮引发了人们对相关伦理困境与风险问题的关注,虽然公平、准确、可靠、安全、人类监督等几项内容被设定为负责任人工智能的核心原则;但生成式人工智能的技术治理方面存在因本体论身份引发的价值张力、训练数据的代表性偏差与安全系统被动保护带来的三重困境并为生成式人工智能如何实践“负责任”的原则带来了现实挑战。在风险全球化与国际竞争加剧的历史变局下,人类社会面对生成式人工智能潜在的伦理与社会风险,应加快建立全球治理的合作机制,践行文化包容的治理智慧,以及回归社会问题本源的认识论是实现生成式人工智能“负责任”原则的关键。  相似文献   

12.
ChatGPT是美国人工智能研究实验室OpenAI推出的一种人工智能技术驱动的自然语言处理工具,其深度的学习能力和自我纠正能力,提高了人工智能与人类之间的交往。ChatGPT在实现科学技术革新的同时,也存在敏感数据泄露的风险。ChatGPT在保护个人主体数据、企业主体数据和国家主体数据方面需要法律予以规范。因此,如何应对ChatGPT带来的数据安全,成为生成式人工智能亟待解决的问题。为此,通过分析ChatGPT运作阶段和数据主体应用现状可能存在的数据风险,以我国数据规制法律框架为基础,借鉴域外人工智能立法模式,探究ChatGPT的数据风险法治化应对策略,以此合理构建我国生成式人工智能的数据风险法律规制体系。  相似文献   

13.
以ChatGPT为代表的生成式人工智能已经成为意识形态风险生成的重要场域,其具有的基于大数据的人机对话模式、基于自我学习的算法机制和不断改进的算力等特点使其在实际运作中内嵌了强烈的意识形态属性,表征为以技术为手段的意识形态权力转移导致的场域失落风险、以人机协同操纵意识形态偏见导致的话语权旁落风险和以模糊边界运作加大意识形态治理难度引发的治理失效风险。其生成诱因在于资本与技术扩张导致资本逻辑内嵌于意识形态风险之中,去中心化与再中心化的话语权转移带来了人类语言逻辑表达与多元价值博弈,以及对话沉迷与主体危机的内容失真引发的治理范式转化与监管失灵。应立足于阵地治理、数据治理和制度治理使生成式人工智能场域转变为巩固意识形态认同的最大增量。  相似文献   

14.
当今时代,人工智能的勃兴特别是生成式人工智能的横空出世深度影响了人类社会的生存境遇和文化生态。在人工智能技术赋能之下,文化辐射范围得以延展,文化资源能够精准匹配,文化传播权力发生转移,文化安全治理效能极大提升,构建了国家文化安全建设的崭新图景。与此同时,我国文化安全也面临“数字殖民”挑战国家文化主权、“算法黑箱”解构文化价值、“技术魅影”消解文化自信、“智能依赖”制约文化创新等多重风险。因此,必须警惕数字陷阱,增强技术规制,推进科技自立自强,审慎对待智能变革,切实维护好国家文化安全。  相似文献   

15.
经过长期且广泛讨论,主流观点认为人工智能是人类创作作品的工具,并应当从客观结果上判断其生成内容是否构成作品,该观点也被司法裁判采纳。未来研究的重点应是,以ChatGPT为代表的生成式AI的作品认定与版权归属的特殊性问题。生成式AI作品版权的数字化、强需求性和高生成效率三大特点,要求我们在尊重作品版权私权性的同时,对其挖掘文本与数据的行为以及对其生成作品的使用,持更为开放的态度。为适应生成式AI产业需求和未来应用场景,可以在既有版权规则基础上探索建立版权共享模式。同时,在版权归属上,注重作品创作的实质性智力投入并侧重投资激励,扩大合作作品的适用空间。  相似文献   

16.
以ChatGPT为代表的生成式AI的崛起是人工智能领域的一次重大变革,也可能成为由专用性人工智能转向通用性人工智能的关键转折点。生成式AI的爆发由算法、算力和数据的进步共同推动,其中算法层面的突破最为关键。生成式AI在消费端的应用场景主要有内容生产、便捷交互、简化操作,这些应用将会同时对消费者的消费品数量、质量、多样性,以及拥有的闲暇等因素产生显著影响。生成式AI对产业端的影响主要体现为加速自动化、通过“组合式创新”促进技术进步、实现对新要素尤其是新数据要素的创造,靠近生产领域的代表性应用有工业设计、药物研发、材料科学、合成数据等。生成式AI带来的问题主要有失业问题、收入分配和不平等问题、竞争和垄断问题、知识产权问题、安全和隐私问题、道德和伦理问题、能源和环保问题。为此,应从产业政策、就业和保障政策、法律法规建设等方面制定有针对性的措施。  相似文献   

17.
自2022年起,以ChatGPT和GPT-4为代表的生成式人工智能迅速发展,人工智能进入了“大模型”时代。作为一项具有重大意义的技术进步,对人类社会的发展具有重要意义;同时,ChatGPT类生成式人工智能作为人的创造物,也引发了人的主体性的丧失、数据隐私泄露与算法偏见、责任主体冲击与道德地位的模糊等伦理问题,会威胁到人类的幸福生活。以ChatGPT类生成式人工智能引发的伦理问题为起点、以挖掘其产生的原因为依据,提出完善生成式人工智能伦理治理的体制和机制、优化生成式人工智能技术设计和培育正确的主体意识等规制路径。  相似文献   

18.
善治:和谐社会建设视野中的治理伦理   总被引:3,自引:0,他引:3       下载免费PDF全文
社会治理是由共同目标支持的、社会各主体共同参与的社会管理活动。在构建社会主义和谐社会的进程中,需要通过引入“善治”理念,积极建构符合中国特色社会主义的治理伦理,从而实现和谐之治。善治理念强调在目的上增进公共利益、满足公众需要,体现“全体人民共同享有”的价值取向;在程序上加强公民与政府、与社会组织的良性互动与合作。治理伦理的生成主要不是靠制定伦理规则,而是靠公民的广泛参与和共同建设,其生成过程的重心在于监督和批评。  相似文献   

19.
以人工智能深度伪造技术为代表的生成式AI的创造力和技术想象力正在以“数字化身体”为焦点,重塑数字生活世界。一方面,数字化身体以一种数据信息流的方式在虚拟世界中进行传播和应用,塑造了高度流动性的场景。另一方面,在全景展示社会中,数字化身体不断建构符号化、流程化和同质化的主体暴露美学,为人工智能深度伪造的技术叙事和场景叙事提供了可供性。基于数字化身体景观的涌现,人工智能深度伪造技术强大的“数字世界再造”导致生物识别数据隐私泄露和自主性丧失、社会信任危机与群体分化、政治舆论变异和社会民主破坏、后真相与本体性安全丧失等伦理风险。进而,在超真实的数字化世界中,现实世界被虚拟世界遮蔽而引发人的认知、伦理和生存的虚无化,从而走向真相与假相的内爆、真相衰退与认知无能、图像制造的道德悖论以及主体性剩余的虚无困境。面对人工智能技术内在的虚无主义力量,关键不在于确定性世界和确定性观念的建立,更重要的是以一种生存论哲学视角去看待人工智能技术,即人工智能技术就是人的本质存在,其带来的种种问题并不是技术对人的单向度地反噬和异化,而是人类社会发展和人的自我建构不断扬弃的历史过程。  相似文献   

20.
以ChatGPT为代表的生成式人工智能在优化产业结构促进经济发展的同时也带来新的法律风险。语言模型训练中的风险主要包括侵害个人信息与作品著作权风险,内容生成过程中的风险则体现为人工智能“幻觉”导致的错误信息风险、算法偏见风险、“涌现”导致的算法失控风险以及人机互动中的算法滥用风险。《生成式人工智能服务管理暂行办法》提供基本的治理框架,但部分条款设置与具体治理方式上存在不足。生成式人工智能的性能取决于训练数据集的规模与质量,模型训练中的数据治理需要尊重其技术逻辑,实践中应拓展公共数据中著作权数据与个人数据的合理使用边界。内容治理可以借鉴“宪法人工智能”的基本理念,构建动态的内容反馈评估机制。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号