首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 4 毫秒
1.
意识形态风险防范是事关民族复兴、国家主权、文化建设的核心范畴。在当今人工智能技术蓬勃发展的数字时代,以ChatGPT为代表的生成式人工智能技术内嵌渗透到社会生活领域之中,伴随着交互深度与辐射范围的不断扩展,裹挟了众多具有新特点的意识形态风险。清晰明辨ChatGPT等生成式人工智能产生意识形态风险的内在机理是防范生成式人工智能意识形态风险的前提。ChatGPT等生成式人工智能凭借内容生成的首要功能对意识形态的价值观念层进行渗透;依靠交互对话的产品形态对意识形态的话语方式产生影响;利用多维应用的功能属性对社会生活实践领域展开强势介入,促使当下意识形态斗争态势风云诡谲,变化万千。理性审视和精准识别ChatGPT等生成式人工智能所诱发的意识形态风险是防范生成式人工智能意识形态风险的关键。从意识形态引领角度出发,ChatGPT等生成式人工智能的运行机制深蕴的资本逻辑解构社会成员已形成的认知和价值,借由"技术-资本"双重优势导致意识形态面临引领乏力风险;从意识形态话语维度审视,ChatGPT等生成式人工智能带来的"人机协同"话语生产新模式削弱主流意识形态话语深度,多元的生成式话语输送淡化话语权威,导致意识形态话语减蚀风险;从意识形态管理层面反思,ChatGPT等生成式人工智能引发的信息传播新范式消解意识形态管理的主导权,及其对人的强化宰制,导致意识形态管理弱化风险。ChatGPT等生成式人工智能在掌握先进技术基础上诱发了一系列辐射广泛、渗透全面、不易掌控的意识形态风险。如何防范与化解ChatGPT等生成式人工智能所带来的意识形态风险,成为当前我国意识形态建设无法回避的新课题。首先,贯彻落实人民至上的价值理念,以马克思主义理论指导意识形态防范工作,推进打造人机和谐、风清气正的网络空间;其次,打造富有中国特色的话语途径,在讲好中国故事的话语基础上破解西方话语的现代困境;最后,积极倡导全球治理并贡献中国方案,以共商共建共享的发展原则,依托人类命运共同体构建负责任的人工智能格局,促使ChatGPT等生成式人工智能在现代文明面前彰显光明的未来前景。  相似文献   

2.
ChatGPT以其强大的内容生成能力在赋能各行各业的同时也潜藏着意识形态渗透风险、主流意识形态权威淡化风险、主流思想传导弱化风险、操纵网络舆论风险、意识形态排斥风险等各类意识形态风险。通过对ChatGPT意识形态风险的肇因分析,发现算法霸权扩张、算法强化偏见与不确定性、资本对技术统摄、文化软实力较量、协同监管滞后等因素共同导致了ChatGPT意识形态风险“在场”的必然性。因此,要坚持整体观来防范ChatGPT的意识形态风险,坚持引导算法权力,优化算法技术,矫治资本逻辑,提升文化软实力,完善法律法规,使这一新的“变量”成为赋能中国式现代化建设、维护意识形态安全的最大“增量”。  相似文献   

3.
以ChatGPT为代表的生成式人工智能已经成为意识形态风险生成的重要场域,其具有的基于大数据的人机对话模式、基于自我学习的算法机制和不断改进的算力等特点使其在实际运作中内嵌了强烈的意识形态属性,表征为以技术为手段的意识形态权力转移导致的场域失落风险、以人机协同操纵意识形态偏见导致的话语权旁落风险和以模糊边界运作加大意识形态治理难度引发的治理失效风险。其生成诱因在于资本与技术扩张导致资本逻辑内嵌于意识形态风险之中,去中心化与再中心化的话语权转移带来了人类语言逻辑表达与多元价值博弈,以及对话沉迷与主体危机的内容失真引发的治理范式转化与监管失灵。应立足于阵地治理、数据治理和制度治理使生成式人工智能场域转变为巩固意识形态认同的最大增量。  相似文献   

4.
ChatGPT的爆火宣介人类打开了强人工智能时代的序幕,其凭借着强大的数字孪生能力、创作能力、编辑能力及类人性推动着人类社会向更敏捷的时代转型。ChatGPT的出现势必会对现有规则提出挑战,可能诱发生成违法或不良信息、算法偏见、数据泄露、借势贩卖租赁账号等诸多法律风险。但ChatGPT可能产生的法律风险与现存的社会风险并无实质差异,仍未脱离个人信息保护、数据安全、服务提供者应当承担的义务等核心议题。因此,对ChatGPT法律风险的规制,仍应根据ChatGPT技术发展的特征,依托阶段性规制理论,注重风险防范,及时对现行的基本法律条款进行解释适用。  相似文献   

5.
作为具有潜在战略意义的新兴领域,元宇宙不仅充满机遇而且暗含风险,必须做出前瞻性的风险研判并谋划如何治理。元宇宙固有的空间拓展、去中心化、虚拟生存、数字沉溺与意识形态的主权性、主导性、凝聚性、认同性形成对立。在资本技术扩张共谋、去中心化群体共创、虚拟化身跨界共存和沉浸体验具身共在等诱因的作用下,生成了新生场域失落、主流话语式微、价值引领失焦与思想传导弱化等意识形态安全风险。为此,需要遵循权衡利弊,趋利避害的辩证思维方法,构建基于夯实阵地建设、凝聚治理合力、整合价值引领和重构认知情境的元宇宙意识形态风险治理框架,使元宇宙这一新的“变量”转化成为巩固意识形态安全、凝聚主流价值共识的最大“增量”。  相似文献   

6.
依托新型信息技术的迅速发展,人类在追求个性化网络生存的同时,又在不断建构风格与功能各异的网络社群,形成了以个体群体化和群体个性化复杂耦合为典型标志的网络圈群化现象。网络圈群化源于主动构筑和被动构筑的综合作用,正在不断构建公众网络集体生活的新样态、新图景,也在持续为各种社会交往营造新载体、新空间。网络圈群有利于全社会的关系聚合、信息交流和情感传递,给公众带来了高效、便利的交流机制,但其内蕴的封闭性、同质化、排外性等特征也暗含着诱发不良社会舆论乃至意识形态风险的潜在威胁。相关风险主要表现为因圈内意识形态倾向难以准确把控而造成的对外遮蔽风险、因主流意识形态面临深度融入壁垒而造成的交互区隔风险、因圈内不良思想动向难以及时化解而造成隐性传播风险和因圈内观点极化进程难以有效避免而造成的同质共振风险等多种样态,亟须通过立足网络圈群生成与演化规律推进科学引导,统筹法律、制度和道德等维度综合治理作用,协同主流意识形态认同深化与信息技术发展的双向赋能等举措加以辩证施策、积极应对。  相似文献   

7.
大数据带来的不仅是一场技术变革,更是一场思想观念的变革。大数据因其对数据量的追求而导致人们由对因果关系的探求走向对相关关系的诉求。同样,大数据也因其数据的流动和开放而带来人们对自由、民主和开放社会的向往。然而,无论是西方技术大国的大数据挖掘和分析技术,还是大数据由对相关度的重视而导致的信息混杂以及开放和共享导致的隐私泄露,都将对我国的意识形态安全构成威胁。因此,在大数据时代维护我国意识形态安全不仅要加强技术防范,进行技术研发,更要从思想观念上采取积极的防范措施。  相似文献   

8.
ChatGPT基于跨模态深度学习模型获取了参与思政教育对话的能力,从而在现实中直接实现思政主客体与人工智能的交流。具体而言,依托特征关联技术精确识别思政教育问题和答案的对应机理后,ChatGPT通过反馈强化学习机制,在与思政主客体互动交流中,聚合语料知识,转化数据意义,生产文本内容,修正并输出答案,实现对思政教育的技术介入。然而ChatGPT介入后所生产出的思政教育话语却导致了主客体关系失衡、主体间性的推测性价值解构和主体情感功能消解等问题。ChatGPT的技术瑕疵以不能准确分辨信源真伪和不能充分理解语言内涵为甚,两大瑕疵对输入输出内容的影响可能会强化思政教育客体对主流意识形态的错误认知,并破坏客体已经成型的符合主流意识形态的认知结构。由于对ChatGPT的不当利用会导致意识形态渗透和错误思潮传播等安全风险,因此思政教育主体应积极解析ChatGPT的底层算法技术,研究其生产思政话语的规律和特点,建构正向的思政传播与接受机制,使思政主客体由被动适应技术介入转向主动识别智控技术,从而实现守正创新、立德树人的教育使命。  相似文献   

9.
ChatGPT作为一款基于超大规模人工智能模型的人机对话应用程序,其广泛运用将对政治社会带来诸多影响。ChatGPT具备较强的政治社会动能,其对多个社会领域、应用场景的嵌入将使得政治社会面临机遇与风险兼具态势、出现技术的不断演化迭代、迎来更多类人化的替代物、遭遇多维度深层次的变革。同时,ChatGPT也会引发政治社会风险:政治风险方面,ChatGPT使用过程中的数据流动会冲击国家主权独立性,数字技术霸权可能威胁政治安全,意识形态安全可能面临渗透风险;社会风险方面,就业结构、社会传播、伦理道德、人口安全等领域都可能因为ChatGPT而产生新的风险。针对这些潜在风险,应在总体国家安全观的指导下,秉持鼓励发展、保障安全、技术规制、协同监管的原则对其加以防范。具体而言,应坚持发展与安全并重,加快构建ChatGPT发展的安全生态;坚持积极引导与有效治理并进,加快推进ChatGPT协同监管体系;坚持技术规制与立法保护并举,加快净化ChatGPT风险防范环境。  相似文献   

10.
ChatGPT一经问世就引起广泛热仪,它以高拟真度、强互动性和多模态的特质颠覆了人们对于人工智能的既有印象。其作为生成式人工智能的优秀代表正以高调的姿态变革人类生产生活方式、打破人类认知壁垒。但科技的发展具有矛盾性和两面性,越智慧的科技,越易使人滋生恐惧和不安等情绪,提升效率、便民利民的同时,也通常伴随一系列的伦理风险。ChatGPT对工作效率模式带来的重大变化,使其两面矛盾性更为凸显。克服矛盾心理需要厘清ChatGPT引发的人类主体地位受冲击、隐私侵犯与算法歧视、作弊成本降低与学术不端、侵扰意识形态防线等伦理风险。应对这些伦理风险需要坚持人本主义原则、守住技术发展底线、保护隐私群己共律、加强算法设计与监管、坚持科技伦理教育、实现监督与引导并行、补齐生成式AI短板、走独立自主发展之路,从而实现ChatGPT的伦理规制,克服人们因技术的强大智慧而产生的矛盾心理,确保智能技术始终沿着造福人类之路稳步前行。  相似文献   

11.
意识形态具有极端重要性,网络意识形态是其重要组成。新时代我国网络意识形态呈现出多元的交互性、传播的流变性以及斗争的复杂性等特征。当前,我国网络意识形态面临话语权易被消解和全民网络意识形态安全共同体建设不足的双重风险。因此,需要加快复合型人才的培养,加强资本监管和网络意识形态话语创新,多维度巩固网络意识形态的话语权;同时还应明确全民网络意识形态安全共同体的思想内核,依托大数据技术,积极开展好共同体的启蒙工作,弥补新时代全民网络意识形态安全共同体建设的不足,增强新时代我国网络意识形态安全建设的实效性。  相似文献   

12.
在文化交流交融交锋的过程中,意识形态议题设置作为一种关乎国家发展的战略,日益为各国政府所重视。中美两国意识形态议题设置的交锋,实质上是两国的利益博弈。美国基于新时期国家意识形态博弈的新情况、争夺和掌握话语权的现实需要、宣传机制存在缺口等客观现实,采取政治丑化、经济操控、文化解构、技术控制等手段对我国进行意识形态议题设置,力图形成一套系统且隐蔽、软硬兼施、战略与策略相配合的"多位一体"的意识形态议题设置运作体系,以解构我国主流意识形态,实现价值同化的梦想。对此,我们需要从国家安全的战略高度、意识形态议题设置的策略、专家队伍、宣传媒体、沟通渠道、依法治网等多角度,探讨应对美国对华意识形态议题设置策略的基本思路。  相似文献   

13.
微传播时代的信息传播呈现传播主体多元、信息体量剧增、信息传播交互、传播价值多元、传播内容碎片化等特征.传播主体多元要求改变以往单一主流意识传播格局;信息高速发展要求进行适当的信息疏导及总量管控;信息交互传播要求意识形态阵地应实现对话式宣教;信息价值多元要求进行适当的意识形态合规性监管;传播内容碎片化要求意识形态传播应进行话语转化.当前我国应着重健全主流微媒体意识形态宣教长效机制、完善特别群体信息疏导及总量管控机制、建立意识形态对话式灌输长效实施机制、实施微媒体意识形态风险分级监控制度和构建主流意识形态微话语传播交流机制.  相似文献   

14.
美国OpenAI公司开发的新一代人工智能语言模型ChatGPT标志着通用人工智能时代的到来,将对人类社会发展产生巨大影响。作为AIGC(人工智能生成内容)技术的典型代表,它具有拟人化、强交互性、全感官3个主要特征。ChatGPT的出现可能会掀起AI的技术革命,推动人类生活生产方式创新,促进新一轮科技革命和产业变革。与此同时,也会引发数据隐私泄露、社会失业、行业垄断、算法偏见等社会风险。对ChatGPT的社会风险治理,在伦理方面,应当坚持以人为本、培育公民的数字素养和建立伦理审查机构,促进应用的合理化;在法律规制上,应通过立法、权力监督、制度保障等手段,促进ChatGPT的应用合法化;在技术上,应将法律规制、相关伦理等价值观念转化为算法,以算法来规制算法。  相似文献   

15.
媒介技术的发展引发了关于视觉与制度、话语、国家机器、身体、比喻之间的复杂互动,视觉符码成为当下西方意识形态的隐喻性表达。这种新的意识形态生产范式基于资本统摄的逻辑,在生产、分配、交换、消费相互渗透与衔接的环节中进行“意象”布展,以“意象形态”之样态渗进主体无意识中,形成“没有视野”的观看前提,目的在于不断制造意象迷雾使个体受到快感刺激、幻象诱导、抽象统治以及群体裹挟,以此确证和实现自身的观点和意图,完成资本增殖的最终目的。  相似文献   

16.
作为引领和驱动未来世界颠覆性技术发展的人工智能,具有数据霸权、文化软实力和价值形塑等意识形态属性。人工智能广泛应用于人们的生产、生活和学习等实践中,在意识形态领域不可避免产生政治引领力下降、思想凝聚力弱化、道德指向力失落和法律规制力失效等风险问题。警惕技术拜物教以及资本逻辑操控下的意识形态风险,确立主流意识形态在智能技术应用中的话语权,建立智能推送与公共责任动态平衡的调节器、建构人工智能的道德“护城河”、筑牢人工智能的“法律网”,是有效应对人工智能意识形态风险、彰显技术优势的应然举措,也是确保人工智能技术健康发展的必然选择。  相似文献   

17.
近年来 ,我国实行积极财政政策对拉动经济增长已初见成效 ,但与此同时 ,财政风险也日益加大。尽管目前中国赤字占 GDP比率还相当低 ,从理论上讲还存在继续扩大赤字余地 ,但由于中央财政收入占 GDP比重不高且对债务依存度极高 ,更为严重的是大量规模的隐性债务存在和不确定因素增多势必造成未来一个时期 ,尤其是“十五”期间中国的财政所面临的风险将日益增大。出于上述考虑 ,本文将就财政风险及其表现形式进行分析 ,从我国财政风险的实际成因出发力图找到财政风险的防范对策  相似文献   

18.
人工智能正以迅雷不及掩耳之势深入到人类社会之中,并使得主流意识形态传播产生巨大变革。而主流意识形态传播作为思想政治工作的重要内容,其效果关系到思想政治工作的成败。人工智能凭借其高效快捷、真实立体和实时精准的特点为主流意识形态的传播提供了发展机遇。同时,人工智能的迅速发展也引发主流意识形态传播中主权失语、信息失真、舆论失控、治理失效等风险挑战。为此,需在强化主体领导、提升技术水准、加强舆情把关、建立制度保障等方面共同发力,促进人工智能时代主流意识形态传播的良性发展。  相似文献   

19.
ChatGPT是美国人工智能研究实验室OpenAI推出的一种人工智能技术驱动的自然语言处理工具,其深度的学习能力和自我纠正能力,提高了人工智能与人类之间的交往。ChatGPT在实现科学技术革新的同时,也存在敏感数据泄露的风险。ChatGPT在保护个人主体数据、企业主体数据和国家主体数据方面需要法律予以规范。因此,如何应对ChatGPT带来的数据安全,成为生成式人工智能亟待解决的问题。为此,通过分析ChatGPT运作阶段和数据主体应用现状可能存在的数据风险,以我国数据规制法律框架为基础,借鉴域外人工智能立法模式,探究ChatGPT的数据风险法治化应对策略,以此合理构建我国生成式人工智能的数据风险法律规制体系。  相似文献   

20.
生成型人工智能在通过程序生成具有创造性的新内容方面实现了新的突破,同时蕴含诸多的刑事风险。生成型人工智能的刑事风险包括不当获取数据信息的刑事风险、生成违法犯罪信息的刑事风险、使用者不当利用生成内容的刑事风险。规制生成型人工智能的刑事风险时,刑法应有所为有所不为,始终保持内在的谦抑,坚守不阻碍科技发展的底线。为此,应采用分级治理策略:通过生成型人工智能研发企业刑事合规计划,探索生成型人工智能所涉违法犯罪的预防性治理模式;加强科技监管手段在行政监管手段中的运用比重,通过有效的行政规制手段降低生成型人工智能刑事风险现实化的可能性;当刑事合规计划与行政监管手段失灵时,才可考虑采用轻重程度适当的刑法规制手段。实施分级治理策略,有利于督促生成型人工智能研发企业从源头上降低风险,并充分发挥行政监管与行政前置法“过滤”犯罪的作用,实现遏制技术风险和促进科技发展的双重目的。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号