首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
作为一种生成式预训练变压器,ChatGPT技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解ChatGPT技术带来的伦理风险,使人工智能系统成功融入人类社会。  相似文献   

2.
作为一种生成式预训练变压器,ChatGPT技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解ChatGPT技术带来的伦理风险,使人工智能系统成功融入人类社会。  相似文献   

3.
自2022年起,以ChatGPT和GPT-4为代表的生成式人工智能迅速发展,人工智能进入了“大模型”时代。作为一项具有重大意义的技术进步,对人类社会的发展具有重要意义;同时,ChatGPT类生成式人工智能作为人的创造物,也引发了人的主体性的丧失、数据隐私泄露与算法偏见、责任主体冲击与道德地位的模糊等伦理问题,会威胁到人类的幸福生活。以ChatGPT类生成式人工智能引发的伦理问题为起点、以挖掘其产生的原因为依据,提出完善生成式人工智能伦理治理的体制和机制、优化生成式人工智能技术设计和培育正确的主体意识等规制路径。  相似文献   

4.
ChatGPT掀起的通用化转型趋势意味着技术风险的社会化,这对国家技术治理造成了新冲击,同时也引发了人们对技术与社会关系的思考。任何技术都不是完美的,未雨绸缪地对其潜藏的社会风险进行防范,这是人类主体性的重要表现。从波兰尼思想中提炼出“嵌入—脱嵌”互动的理论框架,为我们分析ChatGPT与社会之间的关系提供了重要视角。ChatGPT运行“脱嵌”可能对社会造成算法逻辑风险、数据安全风险、泛社会化风险等危害。对此,国家应承担庇护社会的职责,通过强化国家监管能力、推动企业积极履责、促成社会多元共治等手段加以防范,使ChatGPT“嵌入”社会并维持在“技术向善”的轨道上。ChatGPT的兴起预示着未来新技术将不断涌现,为应对这一趋势,相适应的国家治理能力亟需提升,应秉持全面性、安全性、开放性、包容性的原则,建构动态性的国家技术治理范式,在技术“脱嵌”与“嵌入”两个动向之间取得平衡。  相似文献   

5.
休谟提出驱动人类行为的根本力量是情感或欲望。康德接受休谟在动机问题上的内在主义进路,但反对休谟在这一问题上的看法,认为可以通过从“欲求能力”到“道德关切”推出“理性单独可以作为行动的动机”。不过,出于人的完善性和行动完整性的要求,康德并没有拒斥义务论对后果的需要,动机和后果以一种更深刻的内在逻辑在康德义务论中得到了合理的安置。  相似文献   

6.
在技术路径上,ChatGPT通过前所未有的大语言模型训练和对人类反馈方式的学习,具备了生成对话的能力,在语词重组、自我表达修正和信息整合方面的强化使其成为知识生产的新引擎,又通过掌握特殊标记和经验性学习能给出一定的情感反应,从而形成了对人类的“超模拟”。人们在索取答案、发起挑战、提出问题的同时形成自发投喂AI的群体行为,ChatGPT据此反向延伸人类,不断获得更好的连接能力和嵌入社会运转系统的机会,其生长速度显现出新的摩尔效应;反向的技术依赖、动态的连接与嵌入、加速堆叠硬件和升级算法等构成其传播逻辑。最后,ChatGPT开启了“人机共在”的新主体时代,人机协同将作为长期的社会解决方案,而针对人机交互的复杂性和AIGC的衍生问题,也可能陷入诠释经验的多重解释的迷乱之中,故需要在突破“主客二元论”和“诠释经验主义”两个传统研究范式的基础上进行价值重构。  相似文献   

7.
马克斯·韦伯对资本主义有着全面而深入的剖析。他认为资本主义是人类历史无法避免的命运,是一经发动就无法停止的社会各个方面理性化的进程,这种理性资本主义既带来了社会各个方面的条理性和社会生产力的大发展,给社会提供了丰富的物质性产品,同时也产生了非理性的后果,它使人类丧失自由和价值的统一,人类在自我丰富的同时又陷入危机。但韦伯提出的解决这种困境的方法不是通过否认理性资本主义,而是企图以责任伦理和魅力型人格来消解理性资本主义的后果。  相似文献   

8.
ChatGPT是美国人工智能研究实验室OpenAI推出的一种人工智能技术驱动的自然语言处理工具,其深度的学习能力和自我纠正能力,提高了人工智能与人类之间的交往。ChatGPT在实现科学技术革新的同时,也存在敏感数据泄露的风险。ChatGPT在保护个人主体数据、企业主体数据和国家主体数据方面需要法律予以规范。因此,如何应对ChatGPT带来的数据安全,成为生成式人工智能亟待解决的问题。为此,通过分析ChatGPT运作阶段和数据主体应用现状可能存在的数据风险,以我国数据规制法律框架为基础,借鉴域外人工智能立法模式,探究ChatGPT的数据风险法治化应对策略,以此合理构建我国生成式人工智能的数据风险法律规制体系。  相似文献   

9.
ChatGPT一经问世就引起广泛热仪,它以高拟真度、强互动性和多模态的特质颠覆了人们对于人工智能的既有印象。其作为生成式人工智能的优秀代表正以高调的姿态变革人类生产生活方式、打破人类认知壁垒。但科技的发展具有矛盾性和两面性,越智慧的科技,越易使人滋生恐惧和不安等情绪,提升效率、便民利民的同时,也通常伴随一系列的伦理风险。ChatGPT对工作效率模式带来的重大变化,使其两面矛盾性更为凸显。克服矛盾心理需要厘清ChatGPT引发的人类主体地位受冲击、隐私侵犯与算法歧视、作弊成本降低与学术不端、侵扰意识形态防线等伦理风险。应对这些伦理风险需要坚持人本主义原则、守住技术发展底线、保护隐私群己共律、加强算法设计与监管、坚持科技伦理教育、实现监督与引导并行、补齐生成式AI短板、走独立自主发展之路,从而实现ChatGPT的伦理规制,克服人们因技术的强大智慧而产生的矛盾心理,确保智能技术始终沿着造福人类之路稳步前行。  相似文献   

10.
美国OpenAI公司开发的新一代人工智能语言模型ChatGPT标志着通用人工智能时代的到来,将对人类社会发展产生巨大影响。作为AIGC(人工智能生成内容)技术的典型代表,它具有拟人化、强交互性、全感官3个主要特征。ChatGPT的出现可能会掀起AI的技术革命,推动人类生活生产方式创新,促进新一轮科技革命和产业变革。与此同时,也会引发数据隐私泄露、社会失业、行业垄断、算法偏见等社会风险。对ChatGPT的社会风险治理,在伦理方面,应当坚持以人为本、培育公民的数字素养和建立伦理审查机构,促进应用的合理化;在法律规制上,应通过立法、权力监督、制度保障等手段,促进ChatGPT的应用合法化;在技术上,应将法律规制、相关伦理等价值观念转化为算法,以算法来规制算法。  相似文献   

11.
ChatGPT已成为社会普遍关注的新兴事物,在诸多领域表现出巨大的潜力与应用价值,成为我国学界热点研究话题之一。使用CiteSpace、Spss与VOSviewer软件,运用知识图谱可视化分析方法,通过构建与解读“国内ChatGPT研究成果作者共现图谱”“国内ChatGPT研究成果关键词共现图谱”“国内ChatGPT研究关键词共现聚类图谱”,明确国内ChatGPT研究领域的时间分布、作者分布、期刊分布等特征以及研究主题分布情况。研究发现:我国ChatGPT研究始于2023年初,并呈现快速增长趋势;国内ChatGPT研究处于起步阶段,缺少高产作者群;国内ChatGPT研究虽具有一定的合作状态,但整体合作规模不大;目前我国ChatGPT研究不仅涉及ChatGPT模型所依托的技术,还包括ChatGPT应用涉及的数字政府、智能传播、信息资源管理等内容;我国ChatGPT研究聚焦在于技术、教育、信息情报、伦理4个主题。本研究为国内ChatGPT的理论研究与应用探索提供了学理依据与科学指导。  相似文献   

12.
在信息伦理中,保持人的主体独特性、自由性是首要问题。技术哲学内在转向的代表性思想道德物化理论可为信息伦理研究提供“主体性”和“内在视角”两个主要启示。道德物化理论主体性研究为信息伦理本体研究提供解释学路径,技术伴随观点为信息伦理实践研究提供内在视角。但道德物化存在的“技治主义”风险、可能引起的对“去道德化”的质疑等,本质上是实践落点并未获得一致性结果所导致。文章提出道德价值作为信息伦理道德物化研究落点。道德价值满足道德物化研究的两个基本条件,同时贯穿于道德行为全过程。信息伦理需要构建一种道德价值,以阐述信息道德与信息交互之间的和谐关系。根据信息伦理规范范畴、道德目的层次以及对应主体道德行为能力,文章采用道德价值推断法对道德价值进行推导,以ChatGPT为例建构了信息伦理道德价值系统。  相似文献   

13.
ChatGPT技术是一把双刃剑,既有嵌入国家治理的诸多可能性,也存在一定的治理风险。一方面,ChatGPT技术因其具有强大的语言交互能力、高效的信息驱动能力和精确的运算能力,可增强国家治理的亲民性,提高国家治理的效能性,推动国家治理的智慧性;另一方面,ChatGPT技术在数据安全、舆论传播、技术监管等方面存在一定风险。为了发挥ChatGPT技术对国家治理的赋能效用并有效规避风险,应推动ChatGPT数据的分类分级、完善ChatGPT模型的责任链条、加强对ChatGPT技术的引导与研发,进一步强化自主科技研究,克服技术难题,抢占市场高地,为国家治理提供安全、可持续的技术支撑和创新机制。  相似文献   

14.
数字政府建设关涉国家治理体系与治理能力现代化,面对ChatGPT模型这一重大技术性突破,切实发挥其在我国数字政府建设之中的作用具有重要意义。在数字政府建设中植入ChatGPT模型,必须厘清技术赋能、技术风险以及技术规制之间的逻辑关联。ChatGPT模型能够推动数字政府的亲民化、高效化和智能化发展,但同时也可能引发国家层面的数据主权安全风险、政府层面的行政公共性解构风险以及个人层面的数据权利侵犯风险。规范ChatGPT模型的技术应用,需要推动ChatGPT数据的分类分级,完善ChatGPT模型的责任链条,明确国家对公民数据权利的保护义务,强化国家对ChatGPT技术的引导与研发。  相似文献   

15.
智能环绕的生活形态引发了认识问题、实践问题和道德问题,一种虚拟的数字健康道德出场扩展了人类道德领域的边界,作为家长主义的劝导技术从“硬劝导”走向以人类福祉为目标的“善劝导”,并没有改变数字健康及其劝导技术的资本逻辑本质。数字健康存在身体数据隐私泄露和对生命伦理的冲击风险,数字健康与“有意义”的生命伦理之间的嫌隙跨越需要依赖于人的有意义的现实实践活动。智能环绕的生活场景和健康监控需要数字技术的支撑,也需要智能可穿戴设备的必要辅助,但这种支撑和辅助需要以人类健康自主权和“有意义”的生命伦理为前提。数字健康与劝导技术仅是健康数字化和可视化的工具,不是人类美好生活的全部事实。  相似文献   

16.
基因编辑是一项新兴的复杂的前沿科学技术,它如果得到安全、合理的利用,无疑具有重要的积极效应;但关键是它目前并不成熟,在缺乏严格的科学评估、安全性存在不可预知风险的情况下,贸然使用可能导致人类基因谱系发生改变等问题,甚至带来难以预料的灾难性后果。即使今后基因编辑技术成熟了,如何合理地运用它,而不偏离正确的轨道,也需要更审慎地进行伦理反思,努力形成基本的伦理共识。为了促进基因编辑技术的健康发展,令其更好地兴利除弊,为人类造福,基因编辑技术的研究、应用必须遵循人本原则、公正原则、公开透明原则、知情同意原则、责任原则等基本的伦理原则。  相似文献   

17.
ChatGPT这项技术具有双重性质:既是一个用于搜索和研究的工具,也是一个用于愉快对话的玩具。人们通常高估了ChatGPT作为搜索工具的实用性,也可能低估了它与人进行趣味交谈和快乐互动的价值。可以把ChatGPT重新构想和开发成为一个对话和交谈领域的新成员,将对话和交谈互动的范围扩展到人类之外的AI聊天机器人。这种扩展可以激发新的人文反思议题,如:善意、理解、教养、交往理性、欣赏“他者”,以及对人工智能的恐惧。此外,这种转变的视角也能使人们重新审视与互联网和人工智能相关的长期问题,例如:“人类”的意义、人类与技术之间的关系、人工智能可能带来的威胁、失去人类价值观的风险、工作和娱乐的伦理道德以及对话和互动的伦理道德,等等。作为一种人工智能语言模型,ChatGPT具有人文启蒙的潜力,包括:促进知识获取、增进互动、鼓励批判性思维、推动逻辑和理性对话以及传播准确信息的潜力。最终,ChatGPT作为工具和玩具的独特能力可以帮助人们更好地理解自己和技术的关系,同时应对日益数字化的世界的复杂性。  相似文献   

18.
“国家”一直是马克思主义理论研究的重要课题,也是贯穿人类发展始终的基本问题。马克思以黑格尔关于市民与国家的结构关系为基础起点,理解国家与市民社会的矛盾,突破黑格尔法哲学的框架,深化市民社会的反伦理性质,定位市民社会与国家的建构性关系。追溯黑格尔的伦理国家观并探析马克思历史唯物主义的“国家逻辑”,通过对黑格尔和马克思国家理论的研究,在理论辨析中挖掘关于国家治理和建设的核心方法论,一方面为我国国家治理体系和治理能力现代化所要遵循的方向道路提供重要线索,另一方面有助于构建新型大国关系。  相似文献   

19.
风险社会作为人类反思现代化所关注的对象,不仅是工业社会发展的必然产物,也是对现实社会未来走向展开的一项前瞻性预测。以不确定性和损失性为主要特征的风险社会的到来要求我们去探讨它所造成的后果以及我们如何进行风险规避这一具有现实性和紧迫性的问题。在世界风险社会背景下构建和谐社会,需要充分发挥国家的主体作用,借助儒家伦理规范企业行为,以及个人通过公众参与途径实现风险规避。  相似文献   

20.
为探索人工智能内容生成技术对学术出版的影响,以ChatGPT功能和特点为基础,从工作内容、流程和模式三方面分析了ChatGPT对学术出版的冲击和影响,强调ChatGPT对学术出版最深刻的影响在于生产力解放和伦理冲击。在此基础上提出人工智能内容生成技术的发展对于学术出版参与主体提出了更高的伦理、人工智能使用水平以及更加专业的学术水平的要求,重点强调了学术出版参与主体应通过定位人类参与者的价值取向和功能,坚定主体地位,配合完善的人力及业务改革措施,合智协同促进ChatGPT在学术出版实践中共生共智共创。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号