首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
面对人工智能技术的重大突破,尤其是ChatGPT等新一代人工智能在社会生活各个领域的广泛应用,审视、预判和防范ChatGPT类生成式人工智能的意识形态风险成为一个重要的理论课题。ChatGPT类生成式人工智能环境下的意识形态传播具有可塑性、可量化性、个性化和精准预测性等特点。ChatGPT类生成式人工智能介入意识形态传播的技术路径体现在技术与思想的耦合、预测性的算法推荐、个性化的话语创设和赋权性的网络传播等方面。ChatGPT类生成式人工智能介入意识形态传播会带来算法歧视、数据失真、算法监控和算法反噬等潜在的风险。应通过统筹科技伦理规制算法推荐、设计主流意识形态驾驭算法、协调传播主体与客体的价值需求、强化大数据技术检测与治理等,加强对ChatGPT类生成式人工智能意识形态风险的防控。  相似文献   

2.
ChatGPT热潮下的教育伦理是ChatGPT等人工智能技术在教育领域开发、应用与治理过程中,教育智能体——教育参与者与智能机器——应该遵循的道德关系、伦理准则及行为规范。教育“善”是人工智能时代教育伦理的内在属性和集中彰显。然而,随着ChatGPT等人工智能技术与教育的融合,引发了一系列显在和潜在的教育伦理风险,表现为技术向“善”趋于异化、个体崇“善”走向衰微、社会趋“善”面临溃散等。为促进教育向“善”发展,有效防控ChatGPT运用于教育的伦理风险,应改良智能技术,加快人机双师协同育人;回归人性本真,敦促德性良知重返人心;匡扶社会正义,促进教育优质均衡发展。  相似文献   

3.
人工智能技术增进社会福祉和进步的同时,伴随着人机边界模糊、责任追究困境、价值鸿沟扩大和技术过度依赖等伦理风险。人工智能伦理风险的生成有其内在逻辑。人工智能伦理风险的深层性、复杂性等特征契合了协同治理的要求。协同治理范式是人工智能伦理风险治理具有可行性的新探索。推进人工智能伦理风险的协同治理,应构建多元协同组织,形成以政府为核心,技术专家、社会组织、研究机构和公众等共同参与的风险治理自组织系统。在此基础上,通过夯实协同治理条件、增强协同治理参量提升人工智能伦理风险治理效能,促进人工智能伦理风险的整体性治理。  相似文献   

4.
ChatGPT类生成式人工智能在海量的数据、优质的算法与强大的算力支撑下能够实现多项技术赋能。但ChatGPT类生成式人工智能是否能够适用到智慧司法领域,以及在何种程度上将其嵌入,尤其是该项技术在赋能智慧法院建设过程中的边界如何,这对于深层次建设智慧法院具有重要的前提性意义。ChatGPT类生成式人工智能技术通过审判活动的智能化运用,可促进可视正义的实现;通过诉讼服务的可及性,可实现司法为民理念;通过公平与效率的动态平衡,可实现能动司法目标。然而,ChatGPT类生成式人工智能在带来上述诸多技术红利的同时,也引发了一系列新的风险,具体可以划分为由数据“幻觉性”引发的一般风险、由技术垄断性导致的重要风险以及由数据不可控产生的核心风险。对这些风险,应根据不同的风险特征采取相应的规制路径:可以通过对训练数据库的标准化构建以实现数据的“幻觉性”规制,通过辅助性原则的引入而实现技术规制,通过对服务提供者科加义务以实现对数据不可控的数据规制。即运用数据“幻觉性”规制、技术规制与数据规制,实现对ChatGPT类生成式人工智能技术嵌入的一般风险、重要风险与核心风险的防范,以期完成ChatGPT类生成式人工智能技术嵌入智慧法庭建设的风险最小化与技术赋能最大化,最终实现该项技术高质量赋能智慧法院建设。  相似文献   

5.
马方  唐娜 《兰州学刊》2023,(11):87-100
随着人工智能技术的兴起,如今全球范围内都在积极推进大数据侦查发展,其中以算法为支撑的预测性侦查模式发展最为迅速。人工智能技术正在对刑事司法领域产生重新塑造的效应,但与此同时,人工智能技术本身具有的内在客观特征——前瞻性、相关性、技术性等,也带来了数据风险、隐私风险以及算法风险等。社会安全风险视域下,应实现预测性侦查的多元治理:重视数据治理,发挥预测性侦查的预测价值;坚持法律治理,建立监督委员会以保护公民个人隐私;强化技术治理,公开算法决策以增强公众信任度。  相似文献   

6.
多模态大模型GPT-4的发布预示着人工智能生成式技术迎来了从弱人工智能跨入强人工智能的临界点,但技术进步与技术风险是相伴而生的。随着GPT-4数据容量的快速积累,数据质量、算力不断提高,知识产权侵权、生产虚假信息、数据歧视等风险与日俱增,对ChatGPT类模型的数据风险治理迫在眉睫。文章基于对生成式人工智能在数据安全领域的风险分析,比较GPT类模型数据的输入、访问以及内容生成等数据运行的风险及其特征,提出从数据源头、内部运行到数据生成的全链条风险防范机制,具体包括:构建保障数据源头“清澈”的“净水器”式合规技术;维护模型内部数据运行“可信根”监管的自治原则;构建国际协同联动式数据治理的协作框架等风险治理路径。  相似文献   

7.
以ChatGPT为代表的大语言模型的崛起,标志着人类向着通用人工智能迈出了巨大的一步,给人类带来更多的便利,但也将引发一些潜在风险。2023年4月11日国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》。研究者应对ChatGPT等人工智能语言模型进行负责任的创新,即在创新的同时对模型可能带来的风险具有前瞻性和更加深入的了解。针对ChatGPT存在的缺陷,我们要仔细考量大语言模型应用可能给人类带来的安全性问题,从使用者、研究者、监督者三个角度分析降低ChatGPT造成危害的可能对策,并给出法律规制建议,从而促进更公平、更负责的大语言模型的发展。  相似文献   

8.
以人工智能(Artificial Intelligence,AI)为代表的第四次工业革命正在深刻改变人类生产方式、生活方式与治理方式。人工智能在创造巨大社会生产力的同时,也对社会生产关系产生诸多不利影响,引起社会公众的广泛关注,甚至一度引发人们的恐慌和对科技伦理的焦虑。为此,需要从理论上和逻辑上深刻理解人工智能对生产关系的影响。基于政治经济学的视角,可以系统考察人工智能对劳动价值论、就业市场、资本与劳动者之间的关系、消费者权益、国民收入分配格局、经济全球化、社会伦理与社会治理等社会生产关系的影响,为妥善处理和规范人工智能可能带来的各种风险挑战,推动人工智能安全、可靠、可控、健康发展提供有益参考。  相似文献   

9.
人工智能诞生以来的海量技术创新突破,催生其从一个边缘性学科成为学术界、产业界关注的焦点,并成为各国的关键战略技术,各国政府也相继出台了规范人工智能发展的相关规制政策以应对风险。近期,火爆出圈的“新物种”ChatGPT颠覆了人与技术的关系,其“自主学习”特质更是引发了学者们的种种担忧,围绕人工智能是否会威胁人类这一时代命题进行了深入探讨。而人工智能发展的政策规制面临由于技术的不确定所引发的社会风险、政策制定者预测未来所需的各种信息及知识不足的风险、政策滞后性风险等问题,使政策效果预期与运行结果产生偏差。因此,如何规范人工智能发展政策的决策程序并提升人工智能政策的理性水平是解决现代社会技术风险规制的重要课题。  相似文献   

10.
国家安全问题历来牵涉国家核心利益,是国家长治久安的重点与核心。人工智能技术的颠覆性突破触发国家安全问题,新时代国家安全治理不仅面临传统安全威胁和非传统安全挑战,面对全球安全治理体系的变革和安全形势的变化,更受到人工智能革命带来的安全治理风险冲击。因此,通过提升国家安全风险意识,构建国家安全治理体系,加强国家监督和加深国际合作来完善国家安全治理体系,化解人工智能带来的挑战,同时为国家安全治理提供反思路径。  相似文献   

11.
人工智能的大范围应用正在重构经济社会行为规则和组织运行方式,其在促进经济高质量增长和实现有效社会治理的同时也带来诸多严重的经济社会风险。人工智能系统的黑箱模式及其不可解释性是风险产生的主要原因,并且人工智能应用风险是由系统运行不同环节的风险所共同构成的。人工智能监管治理需要树立以人为中心的基本价值取向,坚持透明度、安全性、公平性和问责性的基本原则,建立以风险为基础的全生命周期监管治理体制,强化系统使用者的风险治理主体责任,并突出技术性方案的基础性作用。  相似文献   

12.
数字经济赋能旅游业高质量发展是一种新的技术—经济范式,其安全风险实质上是新技术—经济范式所导致的利益分配格局变化带来的冲突,安全风险治理的本质是技术、经济、社会三者的匹配问题,治理目标在于通过三者的匹配形成一种对新技术的包容—排斥机制。从产生原因来看,技术的不确定性、安全风险在一定时期处于灰色地带带来的治理真空期、政府数字化治理的缺位与越位、制度适应的滞后性等是安全风险产生的原因;从形成机制看,任何一次技术—经济范式的转换都不会自动形成一种包容性的利益分配机制,因此对抗与妥协或者说风险及其治理贯穿着赋能经济的全过程。在新技术—经济范式的能量释放过程中,存在着一个由旅游业新技术、新业态、新商业模式变革引发的技术—经济—社会—政治层面变革的问题,也即数字技术引发的各种变革不能单独在技术和经济领域得到解决。对此,可采取引入技术—经济与社会—政治耦合治理模式、从动态演化角度对顶层政策设计进行持续改进、在矛盾思维和复杂性思维中进行协同治理等安全风险防范策略。  相似文献   

13.
推动城市高水平安全建设,是城市高质量发展的保障。当前城市面临自然灾害、事故灾难、公共卫生、社会安全、居住安全、能源安全、金融经济及网络安全等八类风险,受到来自生态、空间、社会、技术、全球化、治理等六个方面脆弱性因素的复合影响。党的十八大以来,我国在城市安全治理方面逐渐形成了安全与发展并重的治理理念,以完善“城市公共安全体系”为目标,建构了“党委主责、多元协同”的治理机制,并且开展了“韧性治理”“数字治理”等治理实践。面对城市的多元化风险和治理问题,还须着重处理好风险分类处置、责任共担、治理多主体联动三个关键问题,区分“可应对的风险”和“要面对的风险”,明确治理主体的风险责任归属,推动多元主体参与风险治理,建构因类施策、分级管理、政商社一体的城市安全治理体系。  相似文献   

14.
政府数据安全是事关国家安全和经济发展的重大问题,随着人工智能的迅速发展,运用人工智能加强政府数据安全治理是当前备受学术界关注的一项重要课题,有利于落实国家总体安全观、保障政府数据安全、推动政府治理创新以及促进国家安全体系现代化建设。人工智能作为一项引领未来的战略技术,在给政府数据安全治理带来新机遇的同时,也给政府数据安全保障、数据安全风险防范、个人隐私数据防护等方面提出新挑战。现阶段,人工智能背景下的政府数据安全治理面临权责关系不明、标准规范缺位、安全审查不当、智能监控不足、技术应用不力等方面的现实困境。为了解决这些困境,须重点从深化数据安全顶层设计、共筑数据安全标准规范、完善数据管理保障机制、搭建数据综合治理平台、强化核心技术自主创新等方面进行治理。  相似文献   

15.
张爱军 《学术界》2023,(4):61-71
人与ChatGPT交互会给政治带来量和质的变化,形成“双身一头”新政治趋向、塑造新民主形态、产生新政治社会逻辑。“双身一头”新政治趋向、新民主形态与新政治社会逻辑三者之间相互渗透、相互影响,有构建政治生态新领域和新格局的可能性和现实性。人与ChatGPT交互既给政治带来了风险,也给政治带来了新机遇。从发展趋势看,人与ChatGPT交互风险大于机遇,需要建立联通传统、现实和未来的机制,及时化解ChatGPT带来的政治风险。  相似文献   

16.
ChatGPT的出现代表了新一代生成式人工智能的重要进展,从马克思主义哲学来看,更是超越马克思本人所处时代的“新事物”,但这并不意味着马克思主义哲学无法成为ChatGPT等新一代人工智能在“信息文明”之下的借鉴,反而是马克思主义哲学提出的“生产力—生产关系”“经济基础—上层建筑”的基本原理,在人工智能这一新事物中得到了进一步的发展,ChatGPT在促进生产力发展、改变生产关系、转变经济基础、重构上层建筑等方面都体现了马克思主义哲学的映照。同时,ChatGPT依托于“信息文明”这一背景,在消除剥削、消除异化劳动以及实现人的自由发展等方面也在新时代回应了马克思主义哲学。然而,我们也应当根据马克思主义哲学所赋予的人的基本地位,对ChatGPT可能的发展方向进行反思,要避免在“信息文明”的人工智能技术中可能出现的人的“动物性懒惰”、人的“创造性劳动”机会的丧失,以及在人工智能对闲暇空间的占据中可能导致的人的理性基础动摇。以马克思主义哲学观照“信息文明”,并以之作为ChatGPT的借鉴,促使ChatGPT向马克思主义的回归,是现代社会的必然要求。  相似文献   

17.
陈翔 《天府新论》2023,(6):80-93
人工智能的无限可能性从来没有像今天这样迫近,以至于时间不断激发出清晰而又完整的自相矛盾。人工智能是一种技术性时间的延伸,承载着更多势在必行的提升、转变、对抗和瓦解。这是技术刻度所体现出来的时间之喻,更是人工智能经由深度学习和海量训练之后持续驱动而成的时间叙述模型,即人类与人工智能的互喻在加速“增长型社会”里,已经被一整套严密的时间机制所支配,以“巨量”扩张为基准,改变了社会交互的历史框架与当下谱系,尤其是ChatGPT所代表的强大算法功能,在瞬时汇聚和快速迭代中对传统“时态”提出挑战,进而重建了“物态”和“物界”,人类在时间塌缩的巨变中,迅速失去了“现在感”和“现代性”,也背离了“技术即人”的历史期许。如何反思并阻止人工智能的异化,就需要为人工智能增加一个相反的时间维度,即“减速”或“停下来”,并实施多方治理,调整社会和人工智能在时间之中的相互效度。  相似文献   

18.
人工智能在推动人类进步与社会发展的过程中扮演着越来越重要的角色。人工智能在改变人类生产生活方式的同时,也不可避免地带来许多潜在风险和社会问题。人工智能的发展可能造成责任主体不清晰、潜在风险因素增多、人的异化现象加剧、道德主体不明确等问题。保障人工智能的安全使用,实现人工智能的良性健康发展,需要确立人工智能发展的基本伦理原则,加强对人工智能发展的价值规范和道德引导,制定人工智能伦理的相关制度。  相似文献   

19.
随着人工智能的广泛应用,其在为人类生产和生活带来便利的同时,也引发了数据隐私泄露与算法偏见、责任主体冲击与边界模糊、主客体异化与信任危机、软法缺陷与硬法缺失等伦理风险。规制人工智能的伦理风险,须优化人工智能技术设计,注重隐私保护与社会公正;赋予人工智能以社会角色,划定人与智能的责任边界;构筑人工智能伦理规约,强化人的主体地位与诚信品质;加快人工智能的法制化进程,健全智能伦理制度体系,从而促使“人—机”和谐共处。  相似文献   

20.
张涛甫 《学术月刊》2024,(2):149-157
以人工智能为代表的数字技术推动了网络舆论环境的生态化转型,使得网络舆论热点的酝酿、发展与爆发环节发生了结构性的变化,进而为智能媒体时代个体的信息接受与观点表达设置了新的“技术—文化逻辑”。具体而言,生成式人工智能技术借由自动化信息生产、精准化算法推荐与情感化交互对话呼应了网络舆论在场景、主体与内容等维度上的发展趋势,在任务型知识生产与辅助型角色层面为网络舆论研究理论带来了新的想象空间。利用人工智能技术进行舆论治理,须满足两个前置条件:确立技术向善的价值立场;科学把握人工智能时代的舆论生成、演化规律。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号