首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 359 毫秒
1.
自2022年起,以ChatGPT和GPT-4为代表的生成式人工智能迅速发展,人工智能进入了“大模型”时代。作为一项具有重大意义的技术进步,对人类社会的发展具有重要意义;同时,ChatGPT类生成式人工智能作为人的创造物,也引发了人的主体性的丧失、数据隐私泄露与算法偏见、责任主体冲击与道德地位的模糊等伦理问题,会威胁到人类的幸福生活。以ChatGPT类生成式人工智能引发的伦理问题为起点、以挖掘其产生的原因为依据,提出完善生成式人工智能伦理治理的体制和机制、优化生成式人工智能技术设计和培育正确的主体意识等规制路径。  相似文献   

2.
利用生成式人工智能技术参与数字政府建设,为新时代国家治理现代化提供技术驱动,具有重要的时代意义和实践价值。ChatGPT等生成式人工智能参与数字政府建设的功用,与其相对于既有人工智能技术的技术跃迁息息相关。生成式人工智能的自然语言理解与生成能力跃迁、文本生成能力跃迁和知识更新能力跃迁,是与数字政府建设联系最为紧密的技术跃迁,对数字技术参与政府内部工作、政务服务和公共服务均有重大功用。生成式人工智能参与数字政府建设的根本目标在于建设人文数字政府,直接目标在于实现效率数字政府,长期目标在于建成智慧数字政府。生成式人工智能参与数字政府建设的可行路径在于实现权利保障优位、效率与责任并行和安全与发展均衡。面对生成式人工智能参与数字政府建设的广阔前景和风险问题,要加快我国自主的生成式人工智能在数字政府建设领域的应用培育。  相似文献   

3.
以ChatGPT为代表的生成式人工智能技术快速迭代发展,为数字司法改革的适应性调整创造了历史性契机。生成式人工智能在类案推送、辅助证据认定、偏离度预警等方面确实能够统一司法裁判的标准与尺度,实现法的普适性价值追求,然而法的普适性只是实现正义的必要条件,而非充分条件。生成式人工智能的算法黑箱、算法歧视、算法偏见等技术性缺陷亦引发了对司法公信力、司法公正、司法责任制的质疑与冲击。为此,应当在生成式人工智能的技术理性与司法裁判的价值理性之间寻求平衡。针对当前智能化裁判的技术风险,应从数据、算法、控制三个维度进行治理,最大程度控制生成式人工智能的工具主义缺陷,以实现智能化司法裁判迈向可信。  相似文献   

4.
进入数智时代,生成式人工智能应用在全球掀起的使用热潮引发了人们对相关伦理困境与风险问题的关注,虽然公平、准确、可靠、安全、人类监督等几项内容被设定为负责任人工智能的核心原则;但生成式人工智能的技术治理方面存在因本体论身份引发的价值张力、训练数据的代表性偏差与安全系统被动保护带来的三重困境并为生成式人工智能如何实践“负责任”的原则带来了现实挑战。在风险全球化与国际竞争加剧的历史变局下,人类社会面对生成式人工智能潜在的伦理与社会风险,应加快建立全球治理的合作机制,践行文化包容的治理智慧,以及回归社会问题本源的认识论是实现生成式人工智能“负责任”原则的关键。  相似文献   

5.
以ChatGPT4为代表的生成式人工智能具有高度类人性和广泛适用性,有利于生产方式和众多领域的转型升级。然而,这种所谓强人工智能时代的标志性产物,伴随着技术固有的风险性问题,引发伦理以及法律层面的失范性问题。生成式人工智能的失范性主要表现为:一是针对生成式人工智能引发的风险问题,伦理与法律尚无回应;二是现有的伦理体系和法律制度的“规范性”不足。为此,文章借鉴凯尔森的规范性理论,采用“旧论新用”的方法:一是利用伦理规范化,增强其约束性、可执行力,整理其内部层级关系,形成生成式人工智能的伦理治理体系;二是运用法律规范化,强化其对生成式人工智能数理化逻辑运行的模型规范。最后,基于伦理与法律协同构建生成式人工智能的规范性体系。  相似文献   

6.
以ChatGPT为代表的生成式人工智能在优化产业结构促进经济发展的同时也带来新的法律风险。语言模型训练中的风险主要包括侵害个人信息与作品著作权风险,内容生成过程中的风险则体现为人工智能“幻觉”导致的错误信息风险、算法偏见风险、“涌现”导致的算法失控风险以及人机互动中的算法滥用风险。《生成式人工智能服务管理暂行办法》提供基本的治理框架,但部分条款设置与具体治理方式上存在不足。生成式人工智能的性能取决于训练数据集的规模与质量,模型训练中的数据治理需要尊重其技术逻辑,实践中应拓展公共数据中著作权数据与个人数据的合理使用边界。内容治理可以借鉴“宪法人工智能”的基本理念,构建动态的内容反馈评估机制。  相似文献   

7.
生成式人工智能是一项变革性技术,具有高度颠覆性,将改变当前用户生活、工作和交流的方式,也引发出一些竞争法律问题。除了传统反垄断法律问题在生成式人工智能领域的体现外,生成式人工智能产业链的竞争法律问题表现为垄断结构的扼杀式收购等行业并购和网络平台效应,训练数据的数据垄断、剥削性滥用,算法研发的生态系统封锁、竞业条款构成排他性行为,算力提供的算力封锁、歧视性待遇、自我优待,应用服务的搭售、捆绑销售、独家售卖、拒绝交易等排他性行为。传统竞争法监管框架都适用于生成式人工智能新业态,同时密切关注并对生成式人工智能等新业态的反竞争行为保持警惕。我国现有竞争法律规则体系仍然适用于生成式人工智能新技术新业态领域,针对新的竞争法问题,建议出台促进生成式人工智能技术和产业的充分竞争、创新发展政策,制定出台专门的《人工智能的反垄断指南》,竞争执法部门分场景、分环节重点关注生成式人工智能的潜在反竞争行为,司法机关适时总结典型司法案例,出台司法解释进行指导。  相似文献   

8.
生成式人工智能在发明人主体资格、其生成物的可专利性及审查条件、权利归属、责任承担等方面对传统专利法律制度提出了挑战。生成式人工智能算法与其生成物的区分是讨论生成式人工智能专利法律问题的前提,发明人主体资格并不影响生成物中的技术方案作为专利法的保护客体。在审查条件方面,可以适当地采用综合对比原则以确保新颖性审查的准确性,调整“本领域技术人员”的拟制以提高创造性的审查标准,同时要坚持实用性的审查标准。在权利归属方面,经人工干预的发明,其专利权应当归属于发明人;未经人工干预的发明,应当参照适用职务发明和委托发明制度来确定其权利归属。在侵权责任方面,由于人工智能本身无法承担责任,应当将侵权责任分配至其背后的相关主体。  相似文献   

9.
意识形态风险防范是事关民族复兴、国家主权、文化建设的核心范畴。在当今人工智能技术蓬勃发展的数字时代,以ChatGPT为代表的生成式人工智能技术内嵌渗透到社会生活领域之中,伴随着交互深度与辐射范围的不断扩展,裹挟了众多具有新特点的意识形态风险。清晰明辨ChatGPT等生成式人工智能产生意识形态风险的内在机理是防范生成式人工智能意识形态风险的前提。ChatGPT等生成式人工智能凭借内容生成的首要功能对意识形态的价值观念层进行渗透;依靠交互对话的产品形态对意识形态的话语方式产生影响;利用多维应用的功能属性对社会生活实践领域展开强势介入,促使当下意识形态斗争态势风云诡谲,变化万千。理性审视和精准识别ChatGPT等生成式人工智能所诱发的意识形态风险是防范生成式人工智能意识形态风险的关键。从意识形态引领角度出发,ChatGPT等生成式人工智能的运行机制深蕴的资本逻辑解构社会成员已形成的认知和价值,借由"技术-资本"双重优势导致意识形态面临引领乏力风险;从意识形态话语维度审视,ChatGPT等生成式人工智能带来的"人机协同"话语生产新模式削弱主流意识形态话语深度,多元的生成式话语输送淡化话语权威,导致意识形态话语减蚀风险;从意识形态管理层面反思,ChatGPT等生成式人工智能引发的信息传播新范式消解意识形态管理的主导权,及其对人的强化宰制,导致意识形态管理弱化风险。ChatGPT等生成式人工智能在掌握先进技术基础上诱发了一系列辐射广泛、渗透全面、不易掌控的意识形态风险。如何防范与化解ChatGPT等生成式人工智能所带来的意识形态风险,成为当前我国意识形态建设无法回避的新课题。首先,贯彻落实人民至上的价值理念,以马克思主义理论指导意识形态防范工作,推进打造人机和谐、风清气正的网络空间;其次,打造富有中国特色的话语途径,在讲好中国故事的话语基础上破解西方话语的现代困境;最后,积极倡导全球治理并贡献中国方案,以共商共建共享的发展原则,依托人类命运共同体构建负责任的人工智能格局,促使ChatGPT等生成式人工智能在现代文明面前彰显光明的未来前景。  相似文献   

10.
ChatGPT作为生成式人工智能的典型代表,是由美国人工智能研究实验室OpenAI研发并推出的一款基于自然语言处理和机器学习的大型语言模型,该应用一经问世便风靡全球,掀起一场广泛且深刻的大讨论。以ChatGPT为代表的生成式人工智能作为人工智能发展的最新成果,进一步向有感情和通用人工智能的发展目标迈出了一大步。随着生成式人工智能发展及其广泛应用,被认为正在重塑着人和人类社会,人类在享受新技术带来的便利时,也将遭受前所未有的挑战,突出地表现为生成式人工智能对于人的异化,重塑人的交往、人的思维和人的劳动。信息时代人的异化问题的研究,需要从马克思关于人的本质的规定出发,用历史唯物主义的方法深入分析人的异化现象,并为应对人工智能引发的危机寻找突破口。人的本质具有三重内涵,即交往、思维和劳动,交往是人的本质的独特体现,思维是人的本质的现实表现,劳动是人的本质的内在规定。随着认知技术与神经科学的迅猛发展,生成式人工智能以其独特的模拟能力,表现出对马克思所描述人的本质的异化的确证,即人的创造物威胁着人的主体性发展。包括:人-机交往、数据化交往、数字化生存引发的人的交往异化;人机结合、依赖智能、机器生产带来"超越"的人、"弱化"的人、"虚无"的人;人与物、人自身的劳动异化等。面对生成式人工智能引发的人的异化危机,亟须价值理性在智能时代的回归与复兴,亟须正确认识生成式人工智能的价值与限度,亟须重视对人的生命的终极关怀,因此深化生成式人工智能引发人的异化的反思,一是要重构生成式人工智能的工具属性,即认识到人工智能不过是人类的"新工具"、认识到"新工具"的与众不同、用好人工智能这个"新工具";二是审视生成式人工智能的价值与限度,即必须回归人类自我价值审视、实现人工智能自我价值塑造、重视人工智能的发展限度;三是生成式人工智能发展的应然归旨,即构建可控的、安全的、可靠的人工智能。  相似文献   

11.
关于以ChatGPT为代表的生成式人工智能的法律人格主要有三种观点:工具说、独立主体说和有限人格说。生成式人工智能既赋能人权发展又具有局限性,给人权带来的威胁有:冲击人类主体地位;突破人类道德边界;增加信息泄露、歧视、失业等风险。对此,中国在保障宏观人权方面,应引导确立数字人权理念,构建中国特色生成式人工智能产业模式;在保障具体人权方面,应遵守国际规则,完善国内治理。  相似文献   

12.
为解决智能监控领域中存在的基于人脸图像的性别识别准确率不高的问题,本研究构建了DCT-FSR-CNN模型。该模型以相邻两帧面部图像作为超分辨率的双输入,通过离散余弦变换和局部超分辨率技术对图像进行融合处理以提高图像整体分辨率;对Alexnet网络进行优化改进,通过融合网络中间层进行特征值优化以提高分类器的准确率。同时,将该模型与其他4种性别识别模型进行实验对比,在现实的模糊面部图像数据集上的实验结果准确率和运行速度均有明显提升,证明了该模型的应用性和有效性。  相似文献   

13.
ChatGPT是美国人工智能研究实验室OpenAI推出的一种人工智能技术驱动的自然语言处理工具,其深度的学习能力和自我纠正能力,提高了人工智能与人类之间的交往。ChatGPT在实现科学技术革新的同时,也存在敏感数据泄露的风险。ChatGPT在保护个人主体数据、企业主体数据和国家主体数据方面需要法律予以规范。因此,如何应对ChatGPT带来的数据安全,成为生成式人工智能亟待解决的问题。为此,通过分析ChatGPT运作阶段和数据主体应用现状可能存在的数据风险,以我国数据规制法律框架为基础,借鉴域外人工智能立法模式,探究ChatGPT的数据风险法治化应对策略,以此合理构建我国生成式人工智能的数据风险法律规制体系。  相似文献   

14.
当前的各种TV(total variation)算法均只利用待修复点及其邻域的4个点的信息进行修复,由于所提供的参考信息有限,使得修复后的图像精确度欠佳。该文提出的双十字TV算法利用原始的TV算法,将待修复点邻域中的8个点分为两组,分别利用每组4个点的参考信息计算待修复点的像素值,然后将这两个像素值进行加权平均得到最终的修复值。实例验证结果表明,在不增加时间复杂度的情况下,双十字TV算法有效提高了修复后图像的精确度。  相似文献   

15.
基于小波变换的图像修复算法   总被引:1,自引:0,他引:1  
传统的图像修复算法速度慢,对大面积的破损区域修复效果较差.本文针对这一缺点,首先对待修复图像进行小波分解,使得图像的破损区域在低频部分留下的空洞大为缩小,然后利用基于快速行进法(FMM)的图像修复算法修复低频部分的破损区域,再利用低频信息来预测相应的高频信息,最后进行小波重构,并对受损部分进行自然化处理,得到修复的图像.仿真实验结果表明,本文提出的算法速度快,修复结果基本恢复了原有的视觉效果.  相似文献   

16.
技术对人类的认知范式起着重要的影响。从数据可视化到生成式人工智能的互动在不同维度上挑战甚至重塑着人类的认知能力及框架。数据可视化本质上是一种视觉认知范式,它强化了人类认识论领域中的视觉中心主义传统,由此导致以视觉为中心的数字技术权力谱系的建立。随着以ChatGPT为代表的生成式人工智能的出现,人类的认知发生了由视觉向言说的转变。其一方面通过语言处理技术和算法模型,突破并重塑了人类的认知结构;另一方面则建立起一种以数据言说为核心的普遍性知识体系,消解了人类对经验知识背后的特殊目的乃至意义的追问。生成式人工智能带给人类认知的挑战,应从它凭借普遍理性原则造成的认知中心化趋势,以及借由对话训练方式所激发出的主体创造性两个层面加以考察。  相似文献   

17.
以ChatGPT为代表的生成式AI的崛起是人工智能领域的一次重大变革,也可能成为由专用性人工智能转向通用性人工智能的关键转折点。生成式AI的爆发由算法、算力和数据的进步共同推动,其中算法层面的突破最为关键。生成式AI在消费端的应用场景主要有内容生产、便捷交互、简化操作,这些应用将会同时对消费者的消费品数量、质量、多样性,以及拥有的闲暇等因素产生显著影响。生成式AI对产业端的影响主要体现为加速自动化、通过“组合式创新”促进技术进步、实现对新要素尤其是新数据要素的创造,靠近生产领域的代表性应用有工业设计、药物研发、材料科学、合成数据等。生成式AI带来的问题主要有失业问题、收入分配和不平等问题、竞争和垄断问题、知识产权问题、安全和隐私问题、道德和伦理问题、能源和环保问题。为此,应从产业政策、就业和保障政策、法律法规建设等方面制定有针对性的措施。  相似文献   

18.
戚凯 《国际论坛》2023,(4):3-23+155
数字全球化加速发展致使人工智能及其潜在变革动能受到国际社会广泛关注。美国高度重视相关技术研发以护持自身霸权,政府携手跨国数字巨头加速推进该国人工智能领军企业OpenAI发展步伐,美国金融资本亦对其予以重点扶持。作为该企业的核心产品与生成式人工智能科技的最新成果,ChatGPT一经发布即引发世界各国高度重视。然而,该产品发展前景并不完全明朗,不仅仍面临准确性与安全性困境,且难以突破知识产权与监管限制。同时,生成式人工智能技术贸然跃进或带来国家内外矛盾上升、数字鸿沟扩大等重大挑战,加快数字时代国际竞争节奏、提升大国竞争复杂性,并加剧全球数字扩张无序性。作为全球数字大国,中国亦正积极把握ChatGPT带来的人工智能发展机遇,但因受美国战略遏制打压严重而在技术跟进、人才培养、产业布局、国家安全保障等方面面临诸多挑战。鉴于此,中国需保持战略定力,从本国实际情况出发,在加大研发投入的同时坚持国际合作与和平发展,积极推动全球人工智能治理加速。  相似文献   

19.
随着网络的发展和网络技术的成熟,Internet己经在世界范围得到普及。Internet上的各种信息,给人们的工作、学习和生活带来了极大的便利,人们对于计算机网络的依赖性也越来越强。但与此同时,一个不容忽视的问题——网络安全,摆在了我们面前。本文主要介绍网络安全存在的问题,通过分析目前网络所存在的问题研究出IE浏览器的修复方法。  相似文献   

20.
当今时代,人工智能的勃兴特别是生成式人工智能的横空出世深度影响了人类社会的生存境遇和文化生态。在人工智能技术赋能之下,文化辐射范围得以延展,文化资源能够精准匹配,文化传播权力发生转移,文化安全治理效能极大提升,构建了国家文化安全建设的崭新图景。与此同时,我国文化安全也面临“数字殖民”挑战国家文化主权、“算法黑箱”解构文化价值、“技术魅影”消解文化自信、“智能依赖”制约文化创新等多重风险。因此,必须警惕数字陷阱,增强技术规制,推进科技自立自强,审慎对待智能变革,切实维护好国家文化安全。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号