首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 109 毫秒
1.
人工智能赋能教育是技术发展的时代必然,但在智能技术与教育的融合过程中,教育技术、师生关系以及教育环境等方面也会产生新的伦理风险。从理论上说,教育技术运用方面的伦理风险,主要根源于由认知受限而导致的算法黑箱、由文化偏见而引致的算法歧视、由智能技术法制缺位而引发的伦理治理受阻;师生关系方面的伦理风险,主要根源于教师、学生以及师生等伦理关系的错位;教育环境方面的伦理风险,主要根源于由价值歧视导致的社会公平正义缺失,从而引发更深层次的教育不公平。因而,在人工智能赋能教育过程中,一方面要理性看待已经出现或可能会出现的伦理困境,另一方面要在倡导智能技术和教育融合共生的基础上,从加强技术支撑和伦理规范建设、构建新型师生伦理空间、明晰智能教育伦理责任和提升师生智能素养等四个方面,构建人工智能教育伦理治理新范式,以防患于未然。  相似文献   

2.
随着人工智能的广泛应用,其在为人类生产和生活带来便利的同时,也引发了数据隐私泄露与算法偏见、责任主体冲击与边界模糊、主客体异化与信任危机、软法缺陷与硬法缺失等伦理风险。规制人工智能的伦理风险,须优化人工智能技术设计,注重隐私保护与社会公正;赋予人工智能以社会角色,划定人与智能的责任边界;构筑人工智能伦理规约,强化人的主体地位与诚信品质;加快人工智能的法制化进程,健全智能伦理制度体系,从而促使“人—机”和谐共处。  相似文献   

3.
文章基于功能、关系与本体的HMC研究框架,对ChatGPT的应用及影响进行反思与探讨。从功能维度看,ChatGPT以“拟人际传播”的形态发挥部分人际传播功能,却无法替代人际交流,其可以无限靠近“拟人化表象”,但仍具有不可克服的固化模式与不可控偏向的风险。从关系维度看,ChatGPT生成的人机关系类型能够提供人际传播无法达成的使用满足,也将扩大伦理风险;AI的社会行动者属性仅存在于现象层面,与人类行动者具有本质差别,人机传播并不能真正实现主体间关系;人机传播对平台的赋权将加剧数字隐私风险和对用户的控制力,形成“人—AI—平台”三者间的多向控制关系;人机传播以及更大范围的智能传播生态正在构建全新的网络传播逻辑,预示着未来社交媒体文化的终结与连接逻辑的嬗变。从本体维度看,逐渐走向通用人工智能的ChatGPT要求对人的价值在哲学层面进行重思,人不再是万物的尺度,人与机器将走上双向影响、边界消融、互为尺度的未来。  相似文献   

4.
刘建生  李纪元 《南方论刊》2023,(5):16-18+27
人工智能技术在更新换代的过程中诞生了ChatGPT,在增进人类福祉的同时也产生了追责困难与伦理失范风险、价值失衡不断增大、技术高度异化等诸多安全风险。因此,本论文试图以ChatGPT为视角,对ChatGPT所带来的优势和弊端进行全面分析,并结合人工智能安全风险进行描述,探索协同治理人工智能安全风险的途径。要推动人工智能安全风险的协同治理,必须建立一个以国家为主体,由技术专家、社会组织、科研机构和社会大众组成的“自我治理体系”。然后,进一步强化协同治理条件,增强协同治理参数,提高其治理效率,从而推动人工智能安全风险治理的整体化,以更好的姿态迎接人工智能技术所带来的机遇与挑战。  相似文献   

5.
在人工智能伦理风险防范研究受到广泛关注的时代背景下,需要深入思考并澄清相关研究中的某些基础性问题。虽然人工智能伦理风险防范研究目前尚处于初创阶段,但具有极其重要的社会意义,同时也是一项长期任务。人工智能伦理风险防范研究的战略目标是澄清伦理风险,采取灵活多样的措施防范伦理风险,并积极参与人工智能国际治理,为人工智能科技发展提供伦理支持。当前,需要从拓宽理论基础、合理评估伦理风险、实现伦理设计与解决核心伦理风险等重要任务入手,切实推动人工智能伦理风险防范研究走向深入。  相似文献   

6.
人工智能技术增进社会福祉和进步的同时,伴随着人机边界模糊、责任追究困境、价值鸿沟扩大和技术过度依赖等伦理风险。人工智能伦理风险的生成有其内在逻辑。人工智能伦理风险的深层性、复杂性等特征契合了协同治理的要求。协同治理范式是人工智能伦理风险治理具有可行性的新探索。推进人工智能伦理风险的协同治理,应构建多元协同组织,形成以政府为核心,技术专家、社会组织、研究机构和公众等共同参与的风险治理自组织系统。在此基础上,通过夯实协同治理条件、增强协同治理参量提升人工智能伦理风险治理效能,促进人工智能伦理风险的整体性治理。  相似文献   

7.
面对人工智能技术的重大突破,尤其是ChatGPT等新一代人工智能在社会生活各个领域的广泛应用,审视、预判和防范ChatGPT类生成式人工智能的意识形态风险成为一个重要的理论课题。ChatGPT类生成式人工智能环境下的意识形态传播具有可塑性、可量化性、个性化和精准预测性等特点。ChatGPT类生成式人工智能介入意识形态传播的技术路径体现在技术与思想的耦合、预测性的算法推荐、个性化的话语创设和赋权性的网络传播等方面。ChatGPT类生成式人工智能介入意识形态传播会带来算法歧视、数据失真、算法监控和算法反噬等潜在的风险。应通过统筹科技伦理规制算法推荐、设计主流意识形态驾驭算法、协调传播主体与客体的价值需求、强化大数据技术检测与治理等,加强对ChatGPT类生成式人工智能意识形态风险的防控。  相似文献   

8.
ChatGPT的出现代表了新一代生成式人工智能的重要进展,从马克思主义哲学来看,更是超越马克思本人所处时代的“新事物”,但这并不意味着马克思主义哲学无法成为ChatGPT等新一代人工智能在“信息文明”之下的借鉴,反而是马克思主义哲学提出的“生产力—生产关系”“经济基础—上层建筑”的基本原理,在人工智能这一新事物中得到了进一步的发展,ChatGPT在促进生产力发展、改变生产关系、转变经济基础、重构上层建筑等方面都体现了马克思主义哲学的映照。同时,ChatGPT依托于“信息文明”这一背景,在消除剥削、消除异化劳动以及实现人的自由发展等方面也在新时代回应了马克思主义哲学。然而,我们也应当根据马克思主义哲学所赋予的人的基本地位,对ChatGPT可能的发展方向进行反思,要避免在“信息文明”的人工智能技术中可能出现的人的“动物性懒惰”、人的“创造性劳动”机会的丧失,以及在人工智能对闲暇空间的占据中可能导致的人的理性基础动摇。以马克思主义哲学观照“信息文明”,并以之作为ChatGPT的借鉴,促使ChatGPT向马克思主义的回归,是现代社会的必然要求。  相似文献   

9.
人工智能伦理研究最根本的目的是增进人类的繁荣福祉,但是,学界存在着不同的理论主张:“人工智能体中心论”主张应当使人工智能体符合人类伦理规范,有必要对它们进行伦理设计、监管;“关系情境主义”主张人是人工智能伦理的中心而非智能体,人工智能伦理应当是关于“人类善的伦理”;马克思主义道德学说的“语境主义”则从唯物史观的高度将生产力、道德、人的自由联系起来,从而从新的高度奠定了人工智能伦理范式基础。  相似文献   

10.
人工智能是根据对环境的感知,做出合理的行动,并获得最大收益的计算机程序,它有着应用人工智能、通用人工智能与超人工智能三类层级。由于超人工智能远超人类的控制范围,对人工智能伦理的考察可以从其他两个层级展开。从应用人工智能伦理看,人工智能引发了信息安全困境、责任归属困境、技术依赖风险以及产业后备军与社会不公平等问题。从通用人工智能伦理看,人工智能带来了人机边界模糊、人的存在异化、人的自由异化甚至人类种族终结等问题。对此,要在坚持人本主义原则的基础上,通过技术层面的智能监管、程序设置与价值规范以及社会层面的伦理设计、法律规制与协同治理等,实现对人工智能的正向规约。  相似文献   

11.
人工智能正在重塑社会生活,其对知识创新的影响进而对学术职业的挑战值得认真探究。鉴于以ChatGPT为代表的人工智能在自然语言处理方面的显著进步,而语言既是人类的本质特征,也是知识创新的操作系统,本研究以ChatGPT为例从知识创新视角分析人工智能取代人类工作的可能性。研究通过概念分析,进而从创新意向、创新水平与特点、创新伦理三个维度,讨论人类学术工作被机器替代或影响的现实可能性,并对ChatGPT进行测试,验证人工智能承担知识任务的实际效果。研究认为,人工智能不具创新意向,因此知识创新任务仍需由人类发起、主导和审查;在创新水平上,人工智能在承担组合性创新任务中优势与缺陷并存,在承担探索性创新任务上表现最好但难掩瑕疵,它根本上不能胜任变革性创新任务;在创新伦理上,人工智能不具备独立的伦理判断能力而是受制于人类植入机器的代码。相较于其在知识创新方面的表现,当前人工智能在创新伦理方面的表现更弱,无法代替人类,反而为人类知识分子提出了新的思考课题和任务。尽管如此,人工智能正深刻影响着人类的学术生活,人要养成与人工智能有效合作的能力,包括人类智能与机器智能融合的科研思维、设计和操作能力,以及对其...  相似文献   

12.
随着物联网、人工智能和大数据等新兴技术的发展,家庭传统设备逐渐被赋予新的技术架构,使其能够感知周围环境和自动决策,智能家居产品快速发展并逐步进入寻常百姓家。智能设备逐步将家庭成员从繁重的家务劳动中解脱出来,同时也衍生出伦理风险,表现为技术剧本的性别歧视、机器神话的虚无主义、家庭时间的去休闲化、家庭空间的去秘密化、万物互联的数据殖民主义等风险样态。研究基于STS视角透析智能家居伦理风险的成因,既有智能技术自在的不确定性,也有技术营销、社会环境、技术受众的因素。智能家居技术的良性发展需要构建涵盖政府、市场和社会等多元主体的治理体系,实现智能家居从开发到使用的全过程治理,引导智能家居更好地为人类福祉服务。  相似文献   

13.
在技术风险社会,技术主体在履行责任时往往会遇到伦理困境,所以技术主体伦理成为技术伦理的重要话题,它是对技术研发、运用以及运用后果等一系列技术过程中技术主体作用的伦理反思。文章分析了技术主体伦理构建的必要性:人与技术协调发展的客观要求、增强技术主体道德责任的重要途径、构建和谐社会的应有之义。在此基础上,认为明确、可行、合理的技术主体伦理原则对于指导技术主体走出伦理困境极为重要。为此,提出几条原则:“人与自然和谐统一”、“自律与他律相结合”、“主体愿用(受用)”、“技术风险即命令”等,以期实现技术价值认同、技术灾难教育素质化及技术德性“经营”的目标,而构建技术主体伦理是真正有效解决技术伦理问题的核心所在。  相似文献   

14.
伦理学作为一门求索善的真谛及其实现的学问,在当今社会转型和道德重建的宏观背景下,应在以下方面进行突破:在伦理目标确立上,既要坚持主导道德的一元性,又要承认多元道德取向的现实合理性;在伦理规范建设中。不仅要设定人们行为之应然,而且要昭示这种应然之内在依据;在伦理功能向度上,既要注重贬抑人的行为之“恶”,且应褒扬人的行为之“善”;在伦理价值追求上,不仅应着眼个体的致善,而且要研究社会善的实现。对这一系列问题的切实关注和有效解决,将有利于提升伦理学的学科价值,推进现代化建设事业的健康发展。  相似文献   

15.
ChatGPT类生成式人工智能在海量的数据、优质的算法与强大的算力支撑下能够实现多项技术赋能。但ChatGPT类生成式人工智能是否能够适用到智慧司法领域,以及在何种程度上将其嵌入,尤其是该项技术在赋能智慧法院建设过程中的边界如何,这对于深层次建设智慧法院具有重要的前提性意义。ChatGPT类生成式人工智能技术通过审判活动的智能化运用,可促进可视正义的实现;通过诉讼服务的可及性,可实现司法为民理念;通过公平与效率的动态平衡,可实现能动司法目标。然而,ChatGPT类生成式人工智能在带来上述诸多技术红利的同时,也引发了一系列新的风险,具体可以划分为由数据“幻觉性”引发的一般风险、由技术垄断性导致的重要风险以及由数据不可控产生的核心风险。对这些风险,应根据不同的风险特征采取相应的规制路径:可以通过对训练数据库的标准化构建以实现数据的“幻觉性”规制,通过辅助性原则的引入而实现技术规制,通过对服务提供者科加义务以实现对数据不可控的数据规制。即运用数据“幻觉性”规制、技术规制与数据规制,实现对ChatGPT类生成式人工智能技术嵌入的一般风险、重要风险与核心风险的防范,以期完成ChatGPT类生成式人工智能技术嵌入智慧法庭建设的风险最小化与技术赋能最大化,最终实现该项技术高质量赋能智慧法院建设。  相似文献   

16.
作为新科技革命浪潮的重要力量,人工智能日益融入经济社会发展各领域全过程,为人类社会发展提供了强大动力。但是,人工智能技术在政治领域的深度介入也使得民主政治发展面临着诸多风险和挑战,如政治生态受损与社会公平正义遭到破坏、政治透明受朦与政府公信力下降、政治谣言肆虐与人的主体性价值消解等。上述风险和挑战是由技术系统的不确定性与不可解释性、资本的侵蚀与人工智能的意识形态化、算法权力的裹挟与无限扩张性等因由引起的。为确保人工智能技术在民主政治领域的向善向美,应通过加强核心技术攻坚,构建网络空间命运共同体;完善算法运行规制,打破算法赋权失衡状态;强化算法技术把关,提高技术监管水平;缩小数字鸿沟,提升公众数字素养等途径,形成技术与民主政治的良性互动,实现以“数智”促成“善治”的美好愿景。  相似文献   

17.
随着经济社会的发展,人工智能逐渐深入千家万户,其伦理问题日益为人们所关注。然而,人工智能伦理的伪命题倾向、符号漂移倾向与责任泛化倾向等凸显了当前人工智能伦理的价值表象之困境,主要原因是其人伦本质受到了一定程度的遮蔽。保护隐私,本质上是保护人工智能对象人的隐私;防止偏见歧视,本质上是防止人工智能当事人的偏见歧视;促进公平,本质上是促进人工智能所涉及的弱势人群的公平,等等。这都确证了人工智能伦理的人伦本质。因此,在实践中着眼于人,尤其是提升人工智能当事人的伦理认知、促进其伦理行为之改善、矫正其严重伦理错误等,方可实现人工智能伦理的人伦复归。加强人工智能伦理的人伦本质探析,在理论上对于揭示人工智能伦理的本质规律,推进人工智能伦理研究系统深化,在实践上对于强化人工智能当事人的责任担当、实现社会善治、满足人对美好生活的追求等等,均具有必要的、积极的理论价值与现实意义。  相似文献   

18.
人工智能赋能教育教学已经成为教育发展的重要驱动力.借助于融媒体智能技术的迭代整合和创新,人工智能技术被广泛应用于大学教学场域,形成了新的教学模式和形态,具有自主决策和行为的人工智能开始被视为道德主体.传统大学教学在被深刻重构的同时、发生着巨大变革,也引发了人们关于教学伦理问题的思考.随着人工智能深度嵌入大学教学场域,人工智能技术导致教学有限理性行为、传统教学优势消解、教学公平遭遇新挑战、隐私侵犯等一系列典型伦理问题开始凸显.为此,加强大学教学伦理治理应立足长远,致力于构建大学教学良性伦理秩序.在实践中坚持系统性治理理念,从价值秩序、制度秩序和心灵秩序三个维度进行构建,其中价值秩序是基础、制度秩序是支撑、心灵秩序是追求,有机形成大学教学治理体系的结构性力量.  相似文献   

19.
人工智能在推动人类进步与社会发展的过程中扮演着越来越重要的角色。人工智能在改变人类生产生活方式的同时,也不可避免地带来许多潜在风险和社会问题。人工智能的发展可能造成责任主体不清晰、潜在风险因素增多、人的异化现象加剧、道德主体不明确等问题。保障人工智能的安全使用,实现人工智能的良性健康发展,需要确立人工智能发展的基本伦理原则,加强对人工智能发展的价值规范和道德引导,制定人工智能伦理的相关制度。  相似文献   

20.
人工智能日益成为新一轮产业革命的引擎,其通过技术牵引与场景驱动,正重塑着审计工作的模式和流程。将人工智能应用于审计活动能够大幅提升审计效能,但同时也产生了严重的伦理危机。如何治理人工智能时代下的审计伦理危机,以使人工智能更好地服务于审计工作,已成为各类审计组织亟待解决的问题。文章在明晰人工智能时代审计伦理内涵的基础之上,从审计主体自身以及审计主体与审计客体、利益相关者、智能审计系统开发者之间关系等视角系统分析了人工智能时代审计伦理危机的表征,并基于伦理原则构建、政策与制度、数据与技术、个人与组织等层面探索了人工智能时代审计伦理危机的治理路径,旨在为人工智能时代审计伦理危机的预防、监测和控制提供理论参考和实践借鉴。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号