首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 604 毫秒
1.
ChatGPT热潮下的教育伦理是ChatGPT等人工智能技术在教育领域开发、应用与治理过程中,教育智能体——教育参与者与智能机器——应该遵循的道德关系、伦理准则及行为规范。教育“善”是人工智能时代教育伦理的内在属性和集中彰显。然而,随着ChatGPT等人工智能技术与教育的融合,引发了一系列显在和潜在的教育伦理风险,表现为技术向“善”趋于异化、个体崇“善”走向衰微、社会趋“善”面临溃散等。为促进教育向“善”发展,有效防控ChatGPT运用于教育的伦理风险,应改良智能技术,加快人机双师协同育人;回归人性本真,敦促德性良知重返人心;匡扶社会正义,促进教育优质均衡发展。  相似文献   

2.
智能时代的特点是数据与算法在社会经济运行中发挥越来越重要的作用。然而,算法赋能社会的同时,也伴生了“信息茧房”、算法歧视、算法“黑箱”等内生风险,因此需要深刻理解算法的伦理面向,以确立算法风险的治理原则,进而构建科学有效的算法治理体系。文章基于国内外算法治理实践,从算法治理的“权力—权利”价值与“技术—社群”路径两个维度,阐述了算法风险治理及其伦理关切的四个核心面向:可控、透明、安全、公平。算法伦理风险产生于算法权力和用户权利的失衡,因此算法治理的价值在于规制算法权力并保障用户权利。算法治理的路径包括技术改进与社群约束,通过优化算法系统设计与完善算法的规制体系等方式,促进算法向善,防范或化解算法支配、算法“黑箱”、算法歧视等风险,并保障算法使用的安全性。  相似文献   

3.
人工智能赋能教育教学已经成为教育发展的重要驱动力.借助于融媒体智能技术的迭代整合和创新,人工智能技术被广泛应用于大学教学场域,形成了新的教学模式和形态,具有自主决策和行为的人工智能开始被视为道德主体.传统大学教学在被深刻重构的同时、发生着巨大变革,也引发了人们关于教学伦理问题的思考.随着人工智能深度嵌入大学教学场域,人工智能技术导致教学有限理性行为、传统教学优势消解、教学公平遭遇新挑战、隐私侵犯等一系列典型伦理问题开始凸显.为此,加强大学教学伦理治理应立足长远,致力于构建大学教学良性伦理秩序.在实践中坚持系统性治理理念,从价值秩序、制度秩序和心灵秩序三个维度进行构建,其中价值秩序是基础、制度秩序是支撑、心灵秩序是追求,有机形成大学教学治理体系的结构性力量.  相似文献   

4.
杜艳 《重庆社会科学》2023,(12):115-127
新时代,人工智能跨界赋能网络意识形态治理呈现机遇与挑战并存的现实态势。基于理论、现实与实践三维逻辑,缕析人工智能驱动网络意识形态治理的价值意蕴与路径选择。守正理论基础,梳理马克思主义的理论积淀与时代的科学应答,揭示人工智能与网络意识形态治理契合的考镜源流;审视现实样态,从主流意识形态偏离、资本合谋技术宰制、数据重构遮蔽价值和思想凝聚结构性失衡四个方面探究风险隐忧;创新实践要略,从坚定价值引领、强化智能融渗,创新跨界赋能、提升智能融合,优化数据推荐、增强智能传播,构建制度体系、完善智能保障四个方面,立破并举、靶向施策,推进人工智能驱动网络意识形态治理的新发展格局。  相似文献   

5.
盛思琦 《南方论刊》2024,(2):107-109+112
生成式人工智能赋能网络意识形态治理现代化,是维护意识形态安全的现实之需。但就其现状而言,生成式人工智能暗藏风险,阻碍我国网络意识形态治理现代化。只有以智能平权破解算法歧视、以群己共律驾驭资本力量、以价值理性匡正工具理性、以良法善治维护网络秩序,才能化智为治,进而为有效利用生成式人工智能驱动网络意识形态治理现代化提供有力保障。  相似文献   

6.
面对人工智能技术的重大突破,尤其是ChatGPT等新一代人工智能在社会生活各个领域的广泛应用,审视、预判和防范ChatGPT类生成式人工智能的意识形态风险成为一个重要的理论课题。ChatGPT类生成式人工智能环境下的意识形态传播具有可塑性、可量化性、个性化和精准预测性等特点。ChatGPT类生成式人工智能介入意识形态传播的技术路径体现在技术与思想的耦合、预测性的算法推荐、个性化的话语创设和赋权性的网络传播等方面。ChatGPT类生成式人工智能介入意识形态传播会带来算法歧视、数据失真、算法监控和算法反噬等潜在的风险。应通过统筹科技伦理规制算法推荐、设计主流意识形态驾驭算法、协调传播主体与客体的价值需求、强化大数据技术检测与治理等,加强对ChatGPT类生成式人工智能意识形态风险的防控。  相似文献   

7.
人工智能技术增进社会福祉和进步的同时,伴随着人机边界模糊、责任追究困境、价值鸿沟扩大和技术过度依赖等伦理风险。人工智能伦理风险的生成有其内在逻辑。人工智能伦理风险的深层性、复杂性等特征契合了协同治理的要求。协同治理范式是人工智能伦理风险治理具有可行性的新探索。推进人工智能伦理风险的协同治理,应构建多元协同组织,形成以政府为核心,技术专家、社会组织、研究机构和公众等共同参与的风险治理自组织系统。在此基础上,通过夯实协同治理条件、增强协同治理参量提升人工智能伦理风险治理效能,促进人工智能伦理风险的整体性治理。  相似文献   

8.
随着人工智能的广泛应用,其在为人类生产和生活带来便利的同时,也引发了数据隐私泄露与算法偏见、责任主体冲击与边界模糊、主客体异化与信任危机、软法缺陷与硬法缺失等伦理风险。规制人工智能的伦理风险,须优化人工智能技术设计,注重隐私保护与社会公正;赋予人工智能以社会角色,划定人与智能的责任边界;构筑人工智能伦理规约,强化人的主体地位与诚信品质;加快人工智能的法制化进程,健全智能伦理制度体系,从而促使“人—机”和谐共处。  相似文献   

9.
ChatGPT类生成式人工智能在海量的数据、优质的算法与强大的算力支撑下能够实现多项技术赋能。但ChatGPT类生成式人工智能是否能够适用到智慧司法领域,以及在何种程度上将其嵌入,尤其是该项技术在赋能智慧法院建设过程中的边界如何,这对于深层次建设智慧法院具有重要的前提性意义。ChatGPT类生成式人工智能技术通过审判活动的智能化运用,可促进可视正义的实现;通过诉讼服务的可及性,可实现司法为民理念;通过公平与效率的动态平衡,可实现能动司法目标。然而,ChatGPT类生成式人工智能在带来上述诸多技术红利的同时,也引发了一系列新的风险,具体可以划分为由数据“幻觉性”引发的一般风险、由技术垄断性导致的重要风险以及由数据不可控产生的核心风险。对这些风险,应根据不同的风险特征采取相应的规制路径:可以通过对训练数据库的标准化构建以实现数据的“幻觉性”规制,通过辅助性原则的引入而实现技术规制,通过对服务提供者科加义务以实现对数据不可控的数据规制。即运用数据“幻觉性”规制、技术规制与数据规制,实现对ChatGPT类生成式人工智能技术嵌入的一般风险、重要风险与核心风险的防范,以期完成ChatGPT类生成式人工智能技术嵌入智慧法庭建设的风险最小化与技术赋能最大化,最终实现该项技术高质量赋能智慧法院建设。  相似文献   

10.
相较于西方的“非意识形态论”与“技术统治论”,马克思对于机器应用“异化”的观点更适于用来诠释由生成式人工智能应用所产生的意识形态风险命题。基于应用场景与因果关系的不同,可将生成式人工智能应用的意识形态风险划分为原发性风险、继发性风险和并发性风险。原发性风险是基础应用场景下的风险,发端于“算法钢印”风险因素,会在社会意识生产领域引发“逆向驯化”的风险事故,最终将导致“认知茧房”的风险损失,对此应以“技术规驯”为核心开展治理。继发性风险是恶意应用场景下的风险,以“智能仿真”风险因素为技术条件,会导致“把关失效”的风险事故,最终将发生“价值失衡”的风险损失,对此应以“全链监管”为核心加以治理。并发性风险是技术应用的附随风险,生成于危及人类地位的“主客异位”风险因素,其以“解构传统”的风险事故瓦解人类价值观,最终将导致“信仰迁移”的风险损失,对此应以“价值巩固”为核心进行治理。  相似文献   

11.
人工智能时代,算法在社会领域诱发了一种全新的发展态势,不但深刻地影响着既有的生产关系,而且已经渗透到日常生活的各个角落。但是,在算法全方位赋能社会治理的背后,也蕴藏着一系列内生风险,并由此引发了技术和社会系统之间的剧烈冲突与碰撞。文章基于国内外算法治理领域对算法规则和算法权力的单向度研究,通过文献分析和比较调研的方法,结合公共管理学理论、法学理论等多学科思维,探讨算法规则向算法权力的动态转变。正是这种动态转变加速了算法权力的膨胀,这也催生了大量的算法风险,引发了社会治理的困境。因此,算法治理需要通过约束算法权力进行建构、引导和反思。算法治理的路径包括确立以人为本的治理理念,提高算法的可解释性以及构建多元主体协同的治理体系。  相似文献   

12.
智能革命时代构建人类命运共同体的要义是实现程序智能刚性治理与理念本身弹性治理之间的动态平衡,目标是构建一种平衡型的全球治理模式.智能革命时代人工智能技术在丰富资源、达成共识、消除隔阂等方面可以对构建人类命运共同体提供助力,但也在安全风险、数据隐患和国际公平等方面对人类命运共同体的构建形成挑战.区块链所具有的分布式账本、共识机制、加密算法以及点对点传输等技术,能够为解决智能革命时代下因信任不足而引发的全球隐私、安全和公平等问题提供保障.人工智能和区块链的程序智能强化了全球的刚性治理能力,对于构建人类命运共同体具有重要意义.然而,程序智能更多体现的是程序的公平与正义,全球治理过度倚重程序智能可能会出现技术的异化风险.要实现实质的公平和正义需要保持程序智能刚性治理与人类命运共同体弹性治理间的平衡.人类命运共同体的弹性治理要求核心价值的定义由国家间达成共识,确保各国人民参与全球治理实践的自主性,并在保障其理念有效性基础上对全球个体充分赋权和鼓励全球各单元创新行为.因此,智能革命时代人类命运共同体的构建,不仅要增强全球治理的整体性能力,还要回归个体本身以实现每个人的自由全面发展.  相似文献   

13.
人工智能技术在新闻传播教育领域的应用,驱使新闻传播教育发生了实践转向,调整了教育目标,创新了教学方式,并对教学场景进行了升级。随着人工智能技术的继续深入,未来的新闻传播教育应改变教育理念,从实用性为主的传统教育理念向智能化思维引领下的现代教育理念转型,培养兼具功能性和可迁移性的新闻智慧人才,并契合新闻传播教育的特性实现新闻传播教育与人工智能技术的深度融合。人工智能赋能新闻传播教育的路径包括数据赋能、场景赋能和个体赋能三个方面:通过数据赋能增强数据思维应用能力,通过场景赋能构建“具身化”虚拟教学情景,通过个体赋能定制“千人千面”个性化学习模式。  相似文献   

14.
引入人工智能是构建以信用为基础的新型监管机制的有利选择,目前人工智能融合大数据、物联网技术已然在信用信息的共享与挖掘、信用脸谱的描摹、信用风险的预测、信用监管执行的监控及联合奖惩的实施等多个环节彰显功用。但人工智能技术壁垒易阻隔公众知情权的行使;人工智能对信用数据的深度挖掘将威胁信用主体隐私权;人工智能嵌入信用评价的隐匿性会稀释信用主体异议权;机器智能故障易引发联合惩戒过程中的过度损权风险;人工智能算法缺陷亦可能衍生信用监管偏差及权力运行失范风险。对此,应多维治理信用评测中的数据与算法偏见,强化以效果为导向的算法披露理念,赋予信用主体算法解释权并设立信用数据活动顾问;审慎控制人工智能介入信用监管的场景与限度,明确人工智能在信用监管领域的辅助地位;明确信用监管人工智能化的主体间责任,并结合配套立法制度的完善逐一应对。  相似文献   

15.
人工智能是根据对环境的感知,做出合理的行动,并获得最大收益的计算机程序,它有着应用人工智能、通用人工智能与超人工智能三类层级。由于超人工智能远超人类的控制范围,对人工智能伦理的考察可以从其他两个层级展开。从应用人工智能伦理看,人工智能引发了信息安全困境、责任归属困境、技术依赖风险以及产业后备军与社会不公平等问题。从通用人工智能伦理看,人工智能带来了人机边界模糊、人的存在异化、人的自由异化甚至人类种族终结等问题。对此,要在坚持人本主义原则的基础上,通过技术层面的智能监管、程序设置与价值规范以及社会层面的伦理设计、法律规制与协同治理等,实现对人工智能的正向规约。  相似文献   

16.
人工智能伦理制度化是将人工智能伦理价值和要求转化为国家规范化、常态化的正式性行动原则、集体规约与管理制度的过程,探索人工智能伦理制度化的影响因素及其生成逻辑是完善我国人工智能伦理治理体系的关键之义。运用扎根理论对我国人工智能伦理相关政策文本进行分析,构建出“条件—工具—行为”的影响因素模型。研究发现,风险情境、价值感知和政治势能是人工智能伦理制度化的重要发生条件,经验准备、保障基础和配套支持是人工智能伦理制度化的必要辅助工具,国际竞合和多元协作是人工智能伦理制度化的主要联结行为。三者发挥驱动力、托动力和助动力的合力作用,共同推进我国人工智能伦理制度化建设进程。  相似文献   

17.
杜传忠  疏爽 《社会科学战线》2023,(12):78-87+281
伴随新一轮科技革命与产业变革的深入推进,以人工智能技术为核心的新一代信息通信技术正成为引领中国经济高质量发展的重要引擎。文章从技术—经济范式特征出发,认为人工智能分别从微观、中观和宏观三个层面促进我国经济高质量发展。微观层面,人工智能作为新型通用数字技术,主要通过培育高端要素、提高企业生产效率和优化资源配置促进经济高质量发展;中观层面,人工智能通过融合三大产业,采用乘数增长模式,进行智能技术赋能,实现活化驱动,进而促进经济高质量发展;宏观层面,人工智能通过改变消费结构、投资结构、对外贸易结构和劳动力供给结构,进而影响经济高质量发展。现阶段,人工智能发展的理论基础、人工智能产业生态和产业链构建以及人工智能与实体经济融合等方面尚存在一定制约因素。为此,文章提出应大力加强基础理论研究、着力打造国产芯片生态圈和产业链、进一步促进人工智能与实体经济深度融合、加快人工智能标准体系建设的建议。  相似文献   

18.
多模态大模型GPT-4的发布预示着人工智能生成式技术迎来了从弱人工智能跨入强人工智能的临界点,但技术进步与技术风险是相伴而生的。随着GPT-4数据容量的快速积累,数据质量、算力不断提高,知识产权侵权、生产虚假信息、数据歧视等风险与日俱增,对ChatGPT类模型的数据风险治理迫在眉睫。文章基于对生成式人工智能在数据安全领域的风险分析,比较GPT类模型数据的输入、访问以及内容生成等数据运行的风险及其特征,提出从数据源头、内部运行到数据生成的全链条风险防范机制,具体包括:构建保障数据源头“清澈”的“净水器”式合规技术;维护模型内部数据运行“可信根”监管的自治原则;构建国际协同联动式数据治理的协作框架等风险治理路径。  相似文献   

19.
人工智能训练数据制度的构建,应置于“智能涌现”的观察视角之中。“涌现现象”和“涌现论”在不同学科都是传统命题,而在人工智能时代“智能涌现”又成为新的关注焦点。对于训练的数据,应注重著作权保护和个人信息保护,但同时亦应在合法框架之下尽可能采集大体量数据和高质量数据,多元数据采集主体负有一系列义务。对于数据的训练,则旨在突出数据的利用规则,通过价值嵌入与技术支撑,防止“智能叛变”,实现数据训练目标,并直接影响人工智能的“输出端”。训练数据制度的构建内嵌于人工智能治理之中,在遵循人工智能伦理准则的基础上,“好的数据”原则应成为一个新视角与新范式,通过涵盖“伦理”之内与之外的实践,使人工智能中的数据制度超越抽象性而更具实践性。  相似文献   

20.
人工智能日益成为新一轮产业革命的引擎,其通过技术牵引与场景驱动,正重塑着审计工作的模式和流程。将人工智能应用于审计活动能够大幅提升审计效能,但同时也产生了严重的伦理危机。如何治理人工智能时代下的审计伦理危机,以使人工智能更好地服务于审计工作,已成为各类审计组织亟待解决的问题。文章在明晰人工智能时代审计伦理内涵的基础之上,从审计主体自身以及审计主体与审计客体、利益相关者、智能审计系统开发者之间关系等视角系统分析了人工智能时代审计伦理危机的表征,并基于伦理原则构建、政策与制度、数据与技术、个人与组织等层面探索了人工智能时代审计伦理危机的治理路径,旨在为人工智能时代审计伦理危机的预防、监测和控制提供理论参考和实践借鉴。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号