首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 526 毫秒
1.
ChatGPT以其强大的内容生成能力在赋能各行各业的同时也潜藏着意识形态渗透风险、主流意识形态权威淡化风险、主流思想传导弱化风险、操纵网络舆论风险、意识形态排斥风险等各类意识形态风险。通过对ChatGPT意识形态风险的肇因分析,发现算法霸权扩张、算法强化偏见与不确定性、资本对技术统摄、文化软实力较量、协同监管滞后等因素共同导致了ChatGPT意识形态风险“在场”的必然性。因此,要坚持整体观来防范ChatGPT的意识形态风险,坚持引导算法权力,优化算法技术,矫治资本逻辑,提升文化软实力,完善法律法规,使这一新的“变量”成为赋能中国式现代化建设、维护意识形态安全的最大“增量”。  相似文献   

2.
以ChatGPT为代表的生成式人工智能已经成为意识形态风险生成的重要场域,其具有的基于大数据的人机对话模式、基于自我学习的算法机制和不断改进的算力等特点使其在实际运作中内嵌了强烈的意识形态属性,表征为以技术为手段的意识形态权力转移导致的场域失落风险、以人机协同操纵意识形态偏见导致的话语权旁落风险和以模糊边界运作加大意识形态治理难度引发的治理失效风险。其生成诱因在于资本与技术扩张导致资本逻辑内嵌于意识形态风险之中,去中心化与再中心化的话语权转移带来了人类语言逻辑表达与多元价值博弈,以及对话沉迷与主体危机的内容失真引发的治理范式转化与监管失灵。应立足于阵地治理、数据治理和制度治理使生成式人工智能场域转变为巩固意识形态认同的最大增量。  相似文献   

3.
ChatGPT是人工智能发展划时代的标志,然而ChatGPT并不是其标榜的持中立客观的立场,而是存在明显的政治倾向和政治偏见,具有很强的意识形态属性。ChatGPT的强大功能使其具有一种隐形的意识形态功能,ChatGPT的西式资本所有权属性决定了其本质上是资本主义维持自身体系以及资本增殖的工具,ChatGPT的技术构成蕴含了其天然的政治倾向和政治偏见。ChatGPT的意识形态风险在现实性上表现为技术瑕疵风险、智能依赖风险、资本僭越风险、信息茧房风险、数据泄露风险、伦理风险和监管风险。防范ChatGPT的意识形态风险要从推动ChatGPT更好地服务于人,增强意识形态工作者对ChatGPT意识形态风险的认知和应对能力,健全和完善意识形态风险防范的制度化水平以及巩固和壮大主流意识形态的传播阵地等措施出发,做好ChatGPT意识形态风险的防范工作。  相似文献   

4.
ChatGPT作为生成式人工智能的典型代表,是由美国人工智能研究实验室OpenAI研发并推出的一款基于自然语言处理和机器学习的大型语言模型,该应用一经问世便风靡全球,掀起一场广泛且深刻的大讨论。以ChatGPT为代表的生成式人工智能作为人工智能发展的最新成果,进一步向有感情和通用人工智能的发展目标迈出了一大步。随着生成式人工智能发展及其广泛应用,被认为正在重塑着人和人类社会,人类在享受新技术带来的便利时,也将遭受前所未有的挑战,突出地表现为生成式人工智能对于人的异化,重塑人的交往、人的思维和人的劳动。信息时代人的异化问题的研究,需要从马克思关于人的本质的规定出发,用历史唯物主义的方法深入分析人的异化现象,并为应对人工智能引发的危机寻找突破口。人的本质具有三重内涵,即交往、思维和劳动,交往是人的本质的独特体现,思维是人的本质的现实表现,劳动是人的本质的内在规定。随着认知技术与神经科学的迅猛发展,生成式人工智能以其独特的模拟能力,表现出对马克思所描述人的本质的异化的确证,即人的创造物威胁着人的主体性发展。包括:人-机交往、数据化交往、数字化生存引发的人的交往异化;人机结合、依赖智能、机器生产带来"超越"的人、"弱化"的人、"虚无"的人;人与物、人自身的劳动异化等。面对生成式人工智能引发的人的异化危机,亟须价值理性在智能时代的回归与复兴,亟须正确认识生成式人工智能的价值与限度,亟须重视对人的生命的终极关怀,因此深化生成式人工智能引发人的异化的反思,一是要重构生成式人工智能的工具属性,即认识到人工智能不过是人类的"新工具"、认识到"新工具"的与众不同、用好人工智能这个"新工具";二是审视生成式人工智能的价值与限度,即必须回归人类自我价值审视、实现人工智能自我价值塑造、重视人工智能的发展限度;三是生成式人工智能发展的应然归旨,即构建可控的、安全的、可靠的人工智能。  相似文献   

5.
以ChatGPT为代表的生成式人工智能在优化产业结构促进经济发展的同时也带来新的法律风险。语言模型训练中的风险主要包括侵害个人信息与作品著作权风险,内容生成过程中的风险则体现为人工智能“幻觉”导致的错误信息风险、算法偏见风险、“涌现”导致的算法失控风险以及人机互动中的算法滥用风险。《生成式人工智能服务管理暂行办法》提供基本的治理框架,但部分条款设置与具体治理方式上存在不足。生成式人工智能的性能取决于训练数据集的规模与质量,模型训练中的数据治理需要尊重其技术逻辑,实践中应拓展公共数据中著作权数据与个人数据的合理使用边界。内容治理可以借鉴“宪法人工智能”的基本理念,构建动态的内容反馈评估机制。  相似文献   

6.
由OpenAI研发的生成式人工智能聊天机器人ChatGPT一经问世便引起剧烈轰动和广泛热议。ChatGPT是以深度学习和人类反馈强化学习等技术为基础,经过针对海量数据的预训练,能够根据用户指令,生成内容丰富、风格类人的自然语言文本的大型生成式人工智能语言模型。同其他人工智能聊天机器人相较,ChatGPT特征鲜明:一是能够保障人机的连续性对话;二是能够在无法理解指令时主动向用户发出追问;三是能够以“人化”而非机器化的话语体系进行自然语言表意;四是能够“记住”用户生产的内容。ChatGPT作为生成式人工智能的杰作,或将利用强大的自然语言处理能力成为撬动第四次工业革命的一根杠杆,可能引发人类社会的深层次变革。包括:有望通过开辟信息智能化处理的场域,推动产业转型升级、提高劳动者生产力、改进生产工具、优化生产决策以变革生产方式;有助于研究现状梳理、研究思路组织、研究数据处理、研究成果完善以变革科研范式;为教育主体赋能、为教育客体赋权、为教育过程赋魂以变革教育形式;重构劳动生活、消费生活、精神生活以变革生活方式等。科技发展具有两面性,ChatGPT也会给我们带来系列风险隐患,或将滋生知识产权侵犯、...  相似文献   

7.
ChatGPT作为一款基于超大规模人工智能模型的人机对话应用程序,其广泛运用将对政治社会带来诸多影响。ChatGPT具备较强的政治社会动能,其对多个社会领域、应用场景的嵌入将使得政治社会面临机遇与风险兼具态势、出现技术的不断演化迭代、迎来更多类人化的替代物、遭遇多维度深层次的变革。同时,ChatGPT也会引发政治社会风险:政治风险方面,ChatGPT使用过程中的数据流动会冲击国家主权独立性,数字技术霸权可能威胁政治安全,意识形态安全可能面临渗透风险;社会风险方面,就业结构、社会传播、伦理道德、人口安全等领域都可能因为ChatGPT而产生新的风险。针对这些潜在风险,应在总体国家安全观的指导下,秉持鼓励发展、保障安全、技术规制、协同监管的原则对其加以防范。具体而言,应坚持发展与安全并重,加快构建ChatGPT发展的安全生态;坚持积极引导与有效治理并进,加快推进ChatGPT协同监管体系;坚持技术规制与立法保护并举,加快净化ChatGPT风险防范环境。  相似文献   

8.
ChatGPT是美国人工智能研究实验室OpenAI推出的一种人工智能技术驱动的自然语言处理工具,其深度的学习能力和自我纠正能力,提高了人工智能与人类之间的交往。ChatGPT在实现科学技术革新的同时,也存在敏感数据泄露的风险。ChatGPT在保护个人主体数据、企业主体数据和国家主体数据方面需要法律予以规范。因此,如何应对ChatGPT带来的数据安全,成为生成式人工智能亟待解决的问题。为此,通过分析ChatGPT运作阶段和数据主体应用现状可能存在的数据风险,以我国数据规制法律框架为基础,借鉴域外人工智能立法模式,探究ChatGPT的数据风险法治化应对策略,以此合理构建我国生成式人工智能的数据风险法律规制体系。  相似文献   

9.
作为一种生成式预训练变压器,ChatGPT技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解ChatGPT技术带来的伦理风险,使人工智能系统成功融入人类社会。  相似文献   

10.
作为一种生成式预训练变压器,ChatGPT技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解ChatGPT技术带来的伦理风险,使人工智能系统成功融入人类社会。  相似文献   

11.
生成式人工智能ChatGPT的诞生引发全球关注与热议,相关研究在近几个月内迎来爆发式增长,有必要对国内外有关ChatGPT的研究情况进行梳理,为未来研究指明方向。通过文献研读和主题分析法,在研读国内外相关文献的基础上,提取出ChatGPT的概念与技术特征、主要领域、人机关系、风险与对策等主题进行分析,把握国内外有关ChatGPT研究的主要议题与研究方向。有关ChatGPT的研究在短时间内取得了大量成果,研究主要集中在ChatGPT的技术特质与相关领域的应用与挑战,但也存在概念梳理不足、研究方法单一、理论深度不够、研究视角狭隘等诸多问题。未来相关研究应在丰富研究方法和理论视野的基础上,进一步聚焦ChatGPT对人的价值挑战、人机关系的重塑和知识生产的变革等议题上来。  相似文献   

12.
人工智能刑事风险并非属于一种"超个人风险"类型。对人工智能刑事风险认知的主观幻化现象进行逐一诘问,能够得知:超个人风险分为事实层面的现象风险和规范层面的法律风险,智能产品在设计和编制程序范围外,其所实施的严重社会危害性行为仅是一种纯粹事实的现象风险。人工智能产品刑事责任评价的路径阻却在于智能技术本身缺乏生活情感的经验总结、智能产品适用刑罚规范不具备现实意义、深度学习是凭借人类思维模式的基础输出进行的。人工智能刑事风险的立法归责应确立限制从属性,亦即,限制可允许性与超越性的人工智能风险之存在,明确人工智能刑事风险从属于自然人主体。继而,可为人工智能时代刑法立法的科学化探索奠定理论基础。  相似文献   

13.
第四次工业革命以人工智能为主要发展动力,作为新工具、新技术的人工智能技术优化了政府公共行政效率,并潜移默化地改善了现有生活方式,提升了人民群众的获得感、幸福感、安全感。人工智能由"主体"人创造,人对技术的发现遵循着自然律,但是日益进步的技术导致人主体理性膨胀,出现了现代性困境,人对技术依赖度越强,越受技术奴役,形成"人与机器的二元对立关系"。在国家大力发展人工智能的背景下,人类应理性使用新工具,运用哲学的思维规范AI伦理、拥有AI思维。  相似文献   

14.
人工智能技术的出现,表现出对自由的张力和限制,亟需以合理的视角审视人工智能,为人工智能的应用正本清源。事实上,马克思自由观为诠释人工智能提供了立体化呈现维度。以自由劳动之维观察,人工智能下的劳动消解传统分工,使劳动复归自觉,具有科学性和社会性动向;以自由时间之维观察,人工智能延伸了通往自由王国的自由时间;以自由个性之维观察,人工智能的终极指向是生成自由自觉的类存在,这三个诠释维度之间彼此有着密切的关联。在正视人工智能时,也要警醒人工智能技术在资本逻辑驱动下容易成为异化人和削弱人本质力量的工具,只有这样才能从人工智能的变革中挖掘人自由全面发展的价值。  相似文献   

15.
为解决民众核电风险认知对其核电可接受的影响的量化问题,文章对不同地区的600多人进行问卷调查。在研究民众传统核电事故风险认知的同时,基于核电建设的大规模土地使用,添加民众对核电建设土地占用风险的认知。通过熵权法对民众的核电事故风险认知、核电建设的土地占用风险认知进行权重确定,求出综合风险认知以此量化核电建设中民众对这两种风险认知造成的成本。研究结果表明,民众的核电事故风险认知、核电建设土地占用风险的认知对其态度影响不仅是显著的,而且综合风险认知对民众核电站建设的接受态度的影响也是显著的,随着民众对核电综合风险认知的增加,民众对核电站建设的支持度会越来越低,造成的综合风险认知成本也会越来越高。  相似文献   

16.
习近平关于网络意识形态工作论述是习近平新时代中国特色社会主义思想的重要组成部分,彰显了以人民为中心的基本方略。论述中的人民性主要包括人民取向、人民力量和人民立场三个内涵与维度。在网络意识形态工作中,习近平始终把人民放在最高位置,秉承为了谁、依靠谁、服务谁的核心理念,一切为了人民,一切依靠人民,一切造福人民,以人民取向为统领,以人民力量为保障,以人民立场为旨归,体现了关于网络意识形态工作论述人民性的逻辑意蕴。人民取向是网络意识形态工作论述的价值根基,人民力量是网络意识形态工作论述的实践动力,人民立场是网络意识形态工作论述的目标归宿。  相似文献   

17.
以话语理论为视角,新时代国家治理的内涵,或曰话语,应以中国共产党领导的群众工作为价值核心.其孕育于革命政权建构时期,以《兴国调查》为代表文本,奠基于新中国成立初期的《必须重视人民来信》信函,改革开放后经历了以《信访条例》为代表的群众工作法治化进程.党的十九届四中全会以来,凭借新时代的语境划分和依靠人民推动国家发展的治理导向,其话语正式建构.唯有通过法治平衡制度整体性与技术嵌入碎片化,以公平公正平衡动员的价值传统与稳定的改革思维,以多元合作平衡政策的静态化与风险的未知性,方能在新时代寻找到话语完善的方向坐标.  相似文献   

18.
当前人类社会正在展开以人工智能技术为核心标志的第四次工业革命,人工智能在赋能人类达致美好生活方面充满光明的前景,但是也潜藏不少可能抵消其赋能功效的风险。不同于早期人们偏重于对人工智能的乐观想象,近年来人工智能的风险话语逐渐显现并扩散乃至走向失序。类型化是解决人工智能风险话语失序问题的有效尝试。基于主体维度和时限维度可以将人工智能风险划分为四大类型:国家主体在短期时限内面临的失业风险、国家主体在长期时限内面临的消权风险、社会主体在短期时限内面临的隐私风险、社会主体在长期时限内面临的意义风险。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号