首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 125 毫秒
1.
对话生成预训练模型ChatGPT(Chat Generative Pre-trained Transformer)因其高超的对话能力,一经发布便吸引了工业界和学术界的广泛关注,成为历史上增长最快的消费者应用程序,在发布后两个月内就吸引了1亿注册用户,带动了数据、算法、算力、应用等人工智能板块的产业研发热潮。本文立足语言学的视角,围绕ChatGPT是否已经具备语言理解和推理能力,可否提高大语言模型的可解释性,以及能否预示着知识工程的新方向三个核心问题,探讨ChatGPT带来的机遇和挑战。  相似文献   

2.
ChatGPT这项技术具有双重性质:既是一个用于搜索和研究的工具,也是一个用于愉快对话的玩具。人们通常高估了ChatGPT作为搜索工具的实用性,也可能低估了它与人进行趣味交谈和快乐互动的价值。可以把ChatGPT重新构想和开发成为一个对话和交谈领域的新成员,将对话和交谈互动的范围扩展到人类之外的AI聊天机器人。这种扩展可以激发新的人文反思议题,如:善意、理解、教养、交往理性、欣赏“他者”,以及对人工智能的恐惧。此外,这种转变的视角也能使人们重新审视与互联网和人工智能相关的长期问题,例如:“人类”的意义、人类与技术之间的关系、人工智能可能带来的威胁、失去人类价值观的风险、工作和娱乐的伦理道德以及对话和互动的伦理道德,等等。作为一种人工智能语言模型,ChatGPT具有人文启蒙的潜力,包括:促进知识获取、增进互动、鼓励批判性思维、推动逻辑和理性对话以及传播准确信息的潜力。最终,ChatGPT作为工具和玩具的独特能力可以帮助人们更好地理解自己和技术的关系,同时应对日益数字化的世界的复杂性。  相似文献   

3.
ChatGPT一经问世就引起广泛热仪,它以高拟真度、强互动性和多模态的特质颠覆了人们对于人工智能的既有印象。其作为生成式人工智能的优秀代表正以高调的姿态变革人类生产生活方式、打破人类认知壁垒。但科技的发展具有矛盾性和两面性,越智慧的科技,越易使人滋生恐惧和不安等情绪,提升效率、便民利民的同时,也通常伴随一系列的伦理风险。ChatGPT对工作效率模式带来的重大变化,使其两面矛盾性更为凸显。克服矛盾心理需要厘清ChatGPT引发的人类主体地位受冲击、隐私侵犯与算法歧视、作弊成本降低与学术不端、侵扰意识形态防线等伦理风险。应对这些伦理风险需要坚持人本主义原则、守住技术发展底线、保护隐私群己共律、加强算法设计与监管、坚持科技伦理教育、实现监督与引导并行、补齐生成式AI短板、走独立自主发展之路,从而实现ChatGPT的伦理规制,克服人们因技术的强大智慧而产生的矛盾心理,确保智能技术始终沿着造福人类之路稳步前行。  相似文献   

4.
为探索人工智能内容生成技术对学术出版的影响,以ChatGPT功能和特点为基础,从工作内容、流程和模式三方面分析了ChatGPT对学术出版的冲击和影响,强调ChatGPT对学术出版最深刻的影响在于生产力解放和伦理冲击。在此基础上提出人工智能内容生成技术的发展对于学术出版参与主体提出了更高的伦理、人工智能使用水平以及更加专业的学术水平的要求,重点强调了学术出版参与主体应通过定位人类参与者的价值取向和功能,坚定主体地位,配合完善的人力及业务改革措施,合智协同促进ChatGPT在学术出版实践中共生共智共创。  相似文献   

5.
本文介绍了自然语言处理技术的人工智能应用程序ChatGPT在AIGC(人工智能生成内容)领域的突破性进展,以及这种进步的重要意义。通过回溯历次工业革命对社会的影响,提出以下观点:人工智能发展将带来新的工业革命,人工智能社会已经成为趋势;人类的历史就是不断突破自身局限的历史,人工智能正带来一次新的工业革命,前两次工业革命人类扩展了肢体的机能,从第三次工业革命开始扩展的是大脑和神经系统的机能,进入对自身局限挑战的最高阶段,人工智能将推动大脑和其他身体机能整合式扩展,形成智能社会。还分析了ChatGPT可能带来的就业问题和社会分化与不平等,分析了人工智能技术的风险,如隐私和数据安全、算法黑箱可能带来的偏见和歧视、人工智能依赖等问题。最后,介绍了国外研究者关于人工智能社会治理的思想,提出社会治理的基本思路。  相似文献   

6.
作为首款通用型GenAI,ChatGPT的出现与广泛应用带来巨大的社会变革,也给人们带来多重担忧。自2022年底以来,ChatGPT迅速渗透到高等教育与基础教育领域,许多国家政府与大学积极应对。ChatGPT为教育带来新的发展机遇,引起教育目标、教育内容、教育形式与教育评估等多方面的变革,同时,也带来突出的教育伦理挑战。教育中主体性的淡化、情感与道德的淡漠,甚至于某些情况下的缺失,以及人力资本高企、教育公平失衡等,都将是AI时代我们必须面对的重大问题。  相似文献   

7.
作为一种生成式预训练变压器,ChatGPT技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解ChatGPT技术带来的伦理风险,使人工智能系统成功融入人类社会。  相似文献   

8.
由OpenAI研发的生成式人工智能聊天机器人ChatGPT一经问世便引起剧烈轰动和广泛热议。ChatGPT是以深度学习和人类反馈强化学习等技术为基础,经过针对海量数据的预训练,能够根据用户指令,生成内容丰富、风格类人的自然语言文本的大型生成式人工智能语言模型。同其他人工智能聊天机器人相较,ChatGPT特征鲜明:一是能够保障人机的连续性对话;二是能够在无法理解指令时主动向用户发出追问;三是能够以“人化”而非机器化的话语体系进行自然语言表意;四是能够“记住”用户生产的内容。ChatGPT作为生成式人工智能的杰作,或将利用强大的自然语言处理能力成为撬动第四次工业革命的一根杠杆,可能引发人类社会的深层次变革。包括:有望通过开辟信息智能化处理的场域,推动产业转型升级、提高劳动者生产力、改进生产工具、优化生产决策以变革生产方式;有助于研究现状梳理、研究思路组织、研究数据处理、研究成果完善以变革科研范式;为教育主体赋能、为教育客体赋权、为教育过程赋魂以变革教育形式;重构劳动生活、消费生活、精神生活以变革生活方式等。科技发展具有两面性,ChatGPT也会给我们带来系列风险隐患,或将滋生知识产权侵犯、...  相似文献   

9.
自2022年起,以ChatGPT和GPT-4为代表的生成式人工智能迅速发展,人工智能进入了“大模型”时代。作为一项具有重大意义的技术进步,对人类社会的发展具有重要意义;同时,ChatGPT类生成式人工智能作为人的创造物,也引发了人的主体性的丧失、数据隐私泄露与算法偏见、责任主体冲击与道德地位的模糊等伦理问题,会威胁到人类的幸福生活。以ChatGPT类生成式人工智能引发的伦理问题为起点、以挖掘其产生的原因为依据,提出完善生成式人工智能伦理治理的体制和机制、优化生成式人工智能技术设计和培育正确的主体意识等规制路径。  相似文献   

10.
ChatGPT的横空出世为思想道德教育的改革和创新提供了新契机。一方面,ChatGPT以基于人类反馈的强化学习机制等核心技术手段为思想道德教育提供了主体、客体、介体、环体等不同维度的应用价值,即主体维度具有实现教育者教育教学工作高效化的价值,客体维度具有为教育对象提供个性化学习体验的价值,介体维度具有实现思想道德教育内容高质量和教学方式智能化的价值,环体维度具有实现思想道德教育环境优化升级的价值等。另一方面,ChatGPT的介入也使思想道德教育面临着大德混淆、公德失守、私德有缺等道德问题和伦理风险。其问题治理和风险防范需要坚持以德为先,明大德、守公德、严私德;坚持以人为本,明确育人为本、技术为用的原则立场;坚持以法为界,建立体系化的思想道德保障机制,从而确保生成式人工智能与思想道德教育深度融合、向善而行。  相似文献   

11.
意识形态风险防范是事关民族复兴、国家主权、文化建设的核心范畴。在当今人工智能技术蓬勃发展的数字时代,以ChatGPT为代表的生成式人工智能技术内嵌渗透到社会生活领域之中,伴随着交互深度与辐射范围的不断扩展,裹挟了众多具有新特点的意识形态风险。清晰明辨ChatGPT等生成式人工智能产生意识形态风险的内在机理是防范生成式人工智能意识形态风险的前提。ChatGPT等生成式人工智能凭借内容生成的首要功能对意识形态的价值观念层进行渗透;依靠交互对话的产品形态对意识形态的话语方式产生影响;利用多维应用的功能属性对社会生活实践领域展开强势介入,促使当下意识形态斗争态势风云诡谲,变化万千。理性审视和精准识别ChatGPT等生成式人工智能所诱发的意识形态风险是防范生成式人工智能意识形态风险的关键。从意识形态引领角度出发,ChatGPT等生成式人工智能的运行机制深蕴的资本逻辑解构社会成员已形成的认知和价值,借由"技术-资本"双重优势导致意识形态面临引领乏力风险;从意识形态话语维度审视,ChatGPT等生成式人工智能带来的"人机协同"话语生产新模式削弱主流意识形态话语深度,多元的生成式话语输送淡化话语权威,导致意识形态话语减蚀风险;从意识形态管理层面反思,ChatGPT等生成式人工智能引发的信息传播新范式消解意识形态管理的主导权,及其对人的强化宰制,导致意识形态管理弱化风险。ChatGPT等生成式人工智能在掌握先进技术基础上诱发了一系列辐射广泛、渗透全面、不易掌控的意识形态风险。如何防范与化解ChatGPT等生成式人工智能所带来的意识形态风险,成为当前我国意识形态建设无法回避的新课题。首先,贯彻落实人民至上的价值理念,以马克思主义理论指导意识形态防范工作,推进打造人机和谐、风清气正的网络空间;其次,打造富有中国特色的话语途径,在讲好中国故事的话语基础上破解西方话语的现代困境;最后,积极倡导全球治理并贡献中国方案,以共商共建共享的发展原则,依托人类命运共同体构建负责任的人工智能格局,促使ChatGPT等生成式人工智能在现代文明面前彰显光明的未来前景。  相似文献   

12.
ChatGPT已成为社会普遍关注的新兴事物,在诸多领域表现出巨大的潜力与应用价值,成为我国学界热点研究话题之一。使用CiteSpace、Spss与VOSviewer软件,运用知识图谱可视化分析方法,通过构建与解读“国内ChatGPT研究成果作者共现图谱”“国内ChatGPT研究成果关键词共现图谱”“国内ChatGPT研究关键词共现聚类图谱”,明确国内ChatGPT研究领域的时间分布、作者分布、期刊分布等特征以及研究主题分布情况。研究发现:我国ChatGPT研究始于2023年初,并呈现快速增长趋势;国内ChatGPT研究处于起步阶段,缺少高产作者群;国内ChatGPT研究虽具有一定的合作状态,但整体合作规模不大;目前我国ChatGPT研究不仅涉及ChatGPT模型所依托的技术,还包括ChatGPT应用涉及的数字政府、智能传播、信息资源管理等内容;我国ChatGPT研究聚焦在于技术、教育、信息情报、伦理4个主题。本研究为国内ChatGPT的理论研究与应用探索提供了学理依据与科学指导。  相似文献   

13.
ChatGPT作为生成式人工智能的典型代表,是由美国人工智能研究实验室OpenAI研发并推出的一款基于自然语言处理和机器学习的大型语言模型,该应用一经问世便风靡全球,掀起一场广泛且深刻的大讨论。以ChatGPT为代表的生成式人工智能作为人工智能发展的最新成果,进一步向有感情和通用人工智能的发展目标迈出了一大步。随着生成式人工智能发展及其广泛应用,被认为正在重塑着人和人类社会,人类在享受新技术带来的便利时,也将遭受前所未有的挑战,突出地表现为生成式人工智能对于人的异化,重塑人的交往、人的思维和人的劳动。信息时代人的异化问题的研究,需要从马克思关于人的本质的规定出发,用历史唯物主义的方法深入分析人的异化现象,并为应对人工智能引发的危机寻找突破口。人的本质具有三重内涵,即交往、思维和劳动,交往是人的本质的独特体现,思维是人的本质的现实表现,劳动是人的本质的内在规定。随着认知技术与神经科学的迅猛发展,生成式人工智能以其独特的模拟能力,表现出对马克思所描述人的本质的异化的确证,即人的创造物威胁着人的主体性发展。包括:人-机交往、数据化交往、数字化生存引发的人的交往异化;人机结合、依赖智能、机器生产带来"超越"的人、"弱化"的人、"虚无"的人;人与物、人自身的劳动异化等。面对生成式人工智能引发的人的异化危机,亟须价值理性在智能时代的回归与复兴,亟须正确认识生成式人工智能的价值与限度,亟须重视对人的生命的终极关怀,因此深化生成式人工智能引发人的异化的反思,一是要重构生成式人工智能的工具属性,即认识到人工智能不过是人类的"新工具"、认识到"新工具"的与众不同、用好人工智能这个"新工具";二是审视生成式人工智能的价值与限度,即必须回归人类自我价值审视、实现人工智能自我价值塑造、重视人工智能的发展限度;三是生成式人工智能发展的应然归旨,即构建可控的、安全的、可靠的人工智能。  相似文献   

14.
随着产业哲学的兴起,社会自然已经成为自然辩证法研究的热点,在纪念于光远先生逝世一周年之际,该研究形成了一个热潮。本研究介绍了国内学者对于光远“社会的自然”思想的发掘,以社会自然为研究对象的工程哲学和产业哲学的兴起;评述了国内学者围绕社会自然定义的争论,分析了社会自然与天然自然、人化自然、人工自然的区别和联系;最后阐述了研究社会自然的意义不仅是自然辩证法学科发展的需要,也是建立和谐的人与自然关系的需要。  相似文献   

15.
学术成果评价作为科研项目评审、人才评价、期刊评价、机构评价等活动的基础,是学术评价体系的重中之重,也是科研管理的关键环节之一。当前,我国学术成果评价模式存在“同行评议黑箱”“引文动机模糊”“评价数据间接且片面”等弊端,阻碍了学术创新,也与当下建构自主知识体系的战略相悖。而近年来人工智能等技术在数据、算法、算力上的突破性发展,特别是判别式模型和生成式模型在机器翻译、文本分类、文本摘要、情感分析、问答系统等领域日益成熟的应用,为传统学术成果评价模式的革新带来契机,为实现更加科学、多元与智能的学术成果评价提供了充分可能。基于对现有学术成果评价模式不足与人工智能应用契合度的分析,文章提出学术成果评价新模式——自然评价。自然评价模式是人工智能与学术成果评价的深度融合,既是对以往同行评议、文献计量、网络计量、替代计量等传统评价模式的批判性继承与发展,也是一种突破与革新。具体而言,自然评价是基于学术共同体在各种学术活动中自然产生的全量化的学术痕迹大数据,将人工智能技术应用于学术成果知识内容和学术共同体学术痕迹数据的语义理解与自动分析中,从而动态形成评价判断,并服务于知识创新与学术进步的一种评价模式。...  相似文献   

16.
中国人文社会科学评价问题之审视   总被引:2,自引:0,他引:2  
人文社会科学的评价问题纷繁复杂,理论上尚不成熟,实践中问题较多.事实上,人文社会科学评价以多种形相存在,如人文社会科学评价是一种价值判断,是"对评价的评价"等等,其评价规范之间存在着学术标准与非学术标准等多种冲突.在评价实践过程中,也大量存在评价主体问题与评价程序问题等诸多矛盾.因此,迫切需要深入分析人文社会科学的复杂性,建立与完善中国人文社会科学的评价机制、评价标准和评价体系.  相似文献   

17.
人文社会科学教育作为素质教育的重要组成部分已经引起了各高校的普遍关注 ,在各高校中开设人文社会科学课程 ,旨在大学生素质的完善和人文精神的弘扬。素质教育不是一种教育“模式”,而是“思想与观念”。其中思想道德素质是根本 ,文化素质是基础 ,业务素质是本领 ,身体心理素质是本钱。对大学生进行素质教育 ,关键是将自然科学教育和人文社会科学教育有机地结合起来  相似文献   

18.
知识社会学认为,科学与日常生活无异并源于日常生活,应从日常生活出发对科学活动进行社会学分析。从社会的日常分类出发,社会科学可以分为普遍性学科、专门性学科和综合性学科等类型。通过这种分类,我们可以洞察到社会科学研究中蕴涵的综合和分化之间的紧张关系。这种紧张关系的根源在于人类理性能力的有限性。  相似文献   

19.
以2006-2010年人文社会科学(以下简称"人文社科")研究一般项目立项课题为研究对象,比较高校及其所在地区人文社科研究水平。通过对各类项目立项数目的历时变化,发现青年基金项目立项数不断超越规划基金;通过各学校和各学科立项数的分布,看到相应学科的历时变化,发现了各学校立项数变化的"马太效应",并将在各学科领域研究实力较强的院校进行定级;通过对立项数前20名院校在各学科的立项数进行相关性分析,得到学科结构相似的院校集合;以"立项数""立项院校数""立项院校平均立项数"三项指标对各地区人文社科研究力比较,看到立项数目在地区分布上的不均衡,并通过聚类分析将31个省(市、区)分为四类;最后对四类院校群体的研究水平作比较,发现省部共建高校人文社科研究水平提高很快。  相似文献   

20.
研究模式对于学术研究具有重要的意义,它不仅使研究者的研究呈现出不同的风格,而且对于学术创新具有重要的影响;人文社科研究的两种模式(文本模式与创新模式)各具特点,对于学术研究分别具有不同的作用。文本模式主要起着基础性的作用,而创新模式则是学术创新不可缺少的,它们之间的互动是实现学术创新的必要条件;我国学术研究偏重文本模式,轻视甚至忽视了创新模式,这可以说是造成我国人文社会科学创新力不足的重要原因之一;要实现两种研究模式之间的互动,需要做好三个方面的工作:一是转变思维习惯,二是正确处理好"博"与"专"的关系,三是将研究对象由文本转向问题。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号