首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 8 毫秒
1.
2.
文章基于功能、关系与本体的HMC研究框架,对ChatGPT的应用及影响进行反思与探讨。从功能维度看,ChatGPT以“拟人际传播”的形态发挥部分人际传播功能,却无法替代人际交流,其可以无限靠近“拟人化表象”,但仍具有不可克服的固化模式与不可控偏向的风险。从关系维度看,ChatGPT生成的人机关系类型能够提供人际传播无法达成的使用满足,也将扩大伦理风险;AI的社会行动者属性仅存在于现象层面,与人类行动者具有本质差别,人机传播并不能真正实现主体间关系;人机传播对平台的赋权将加剧数字隐私风险和对用户的控制力,形成“人—AI—平台”三者间的多向控制关系;人机传播以及更大范围的智能传播生态正在构建全新的网络传播逻辑,预示着未来社交媒体文化的终结与连接逻辑的嬗变。从本体维度看,逐渐走向通用人工智能的ChatGPT要求对人的价值在哲学层面进行重思,人不再是万物的尺度,人与机器将走上双向影响、边界消融、互为尺度的未来。  相似文献   

3.
生成式人工智能通过人机交互的方式为新闻业带来了前所未有的可能性,它为新闻主体赋能:数据驱动采集与自动内容生成、多重视角新闻与创新叙事形式以及量身定制新闻与多维交互模式。然而,这项技术的迅速发展也带来了一系列主体危机,如削弱专业价值、冲击业务模式,影响新闻职业、贬低工作价值,加剧权力不平等、植入特定价值观,污染信息生态、引发信任危机等。为了应对主体危机,新闻编辑部应制定使用指南和规范伦理原则;新闻工作者需调整角色定位,发挥跨界整合能力;新闻用户应强化数字媒体素养,从而推动人机关系从共存、协作向“共情和共同进化”发展。  相似文献   

4.
面对人工智能技术的重大突破,尤其是ChatGPT等新一代人工智能在社会生活各个领域的广泛应用,审视、预判和防范ChatGPT类生成式人工智能的意识形态风险成为一个重要的理论课题。ChatGPT类生成式人工智能环境下的意识形态传播具有可塑性、可量化性、个性化和精准预测性等特点。ChatGPT类生成式人工智能介入意识形态传播的技术路径体现在技术与思想的耦合、预测性的算法推荐、个性化的话语创设和赋权性的网络传播等方面。ChatGPT类生成式人工智能介入意识形态传播会带来算法歧视、数据失真、算法监控和算法反噬等潜在的风险。应通过统筹科技伦理规制算法推荐、设计主流意识形态驾驭算法、协调传播主体与客体的价值需求、强化大数据技术检测与治理等,加强对ChatGPT类生成式人工智能意识形态风险的防控。  相似文献   

5.
肖峰 《学术界》2023,(4):52-60
生成式人工智能和数字劳动之间具有相互建构的双向关联性。以ChatGPT为代表的生成式人工智能作为数字劳动的新产物,是包括专业人员和非专业人员多方面的数字劳动协同创构的成果,它一经出现,就成为数字劳动的新工具或新平台,形成“生成式人工智能介导的数字劳动”,使数字劳动具有了自动高效、人机互动、更加个性和人性化、更富拓展性和创造性等新特征,以至于革命性地建构了数字劳动新形态。生成式人工智能同时也给数字劳动带来了内容过载、数字鸿沟、机器换人等新挑战,需要在积极应对这些挑战中合理而有效地使用这一新型的数字劳动工具,以维持人类数字劳动的健康和可持续的发展。  相似文献   

6.
人工智能发展给人的主体性带来诸多挑战,主要体现在思维领域,ChatGPT表现出超强的“类人智能”;在技术领域,智能机器开始替代人类从事技术性工作,造成主客体颠倒;在平台消费领域,智能机器助力人类借助资本对人进行宰制。即便如此,人工智能并不会造成人的主体性的丧失,因为人工智能不具有建构社会关系的能力、不具有感性思维,人工智能系统正常运转无法离开人的参与。从本质上来说,人工智能是人的机体的延伸,是人类实践手段的外化,其被人类运用并对物质世界进行探索和改造,是对人类的生产方式和生活方式起到解放作用的一种工具。而意识是人脑的机能,人可以自主构建自己的社会关系,人才是主体。  相似文献   

7.
林峥 《南方论刊》2024,(2):12-14
人工智能的发展给人类伦理带来了挑战,此时研究并发挥人类智能的优势尤为必要。自由意志为人类智能提供了巨大的可能性,人类的抽象思维能力,人类意识的能动性、创造性、灵活性,人类智能的综合性、处理复杂问题的能力,以及人类情感的丰富性,是现阶段人工智能无法比拟的。人们应以开放、积极与理性的态度应对人工智能时代的挑战,进一步发挥人类智能的优势,实现人类与人工智能的协同进化。  相似文献   

8.
相较于西方的“非意识形态论”与“技术统治论”,马克思对于机器应用“异化”的观点更适于用来诠释由生成式人工智能应用所产生的意识形态风险命题。基于应用场景与因果关系的不同,可将生成式人工智能应用的意识形态风险划分为原发性风险、继发性风险和并发性风险。原发性风险是基础应用场景下的风险,发端于“算法钢印”风险因素,会在社会意识生产领域引发“逆向驯化”的风险事故,最终将导致“认知茧房”的风险损失,对此应以“技术规驯”为核心开展治理。继发性风险是恶意应用场景下的风险,以“智能仿真”风险因素为技术条件,会导致“把关失效”的风险事故,最终将发生“价值失衡”的风险损失,对此应以“全链监管”为核心加以治理。并发性风险是技术应用的附随风险,生成于危及人类地位的“主客异位”风险因素,其以“解构传统”的风险事故瓦解人类价值观,最终将导致“信仰迁移”的风险损失,对此应以“价值巩固”为核心进行治理。  相似文献   

9.
陈翔 《天府新论》2023,(6):80-93
人工智能的无限可能性从来没有像今天这样迫近,以至于时间不断激发出清晰而又完整的自相矛盾。人工智能是一种技术性时间的延伸,承载着更多势在必行的提升、转变、对抗和瓦解。这是技术刻度所体现出来的时间之喻,更是人工智能经由深度学习和海量训练之后持续驱动而成的时间叙述模型,即人类与人工智能的互喻在加速“增长型社会”里,已经被一整套严密的时间机制所支配,以“巨量”扩张为基准,改变了社会交互的历史框架与当下谱系,尤其是ChatGPT所代表的强大算法功能,在瞬时汇聚和快速迭代中对传统“时态”提出挑战,进而重建了“物态”和“物界”,人类在时间塌缩的巨变中,迅速失去了“现在感”和“现代性”,也背离了“技术即人”的历史期许。如何反思并阻止人工智能的异化,就需要为人工智能增加一个相反的时间维度,即“减速”或“停下来”,并实施多方治理,调整社会和人工智能在时间之中的相互效度。  相似文献   

10.
以ChatGPT为代表的生成式人工智能赋能思想政治教育是当前网络思想政治教育研究的前沿和热点。生成式人工智能作为科技工具嵌入思想政治教育,能够让教育者更加高效、系统地认识教育客体,使教育内容更加契合个性化、隐性化的目标,让教育方法更加注重过程性、具备前瞻性。然而,思想政治教育的重点是做“人”的工作,过度倚重人工智能可能会削弱思想政治教育的方向原则、求实原则和示范原则,进而影响思想政治教育主流价值传播、学生实事求是精神培养以及师生间思想交流和情感沟通。基于此,为适应生成式人工智能对思想政治教育带来的变革,促进二者深度融合发展,需要提升人机协同能力,强化思想政治教育主流价值引导;强化“把关人”角色,构建文明、规范的数字世界;注重思想政治教育的人文关怀,不仅要教育人更要培养人。  相似文献   

11.
数字经济时代,人工智能技术深度应用导致的法律问题层出不穷。2017年,国务院在《新一代人工智能发展规划》中提出要明晰人工智能的法律主体地位。人工智能法律主体地位的厘定是解决人工智能其他相关法律问题的“钥匙”。人工智能法律主体适格性的厘清与人工智能的生成内容界定、侵权责任认定、责任能力承担以及惩罚标准的适用等方面都紧密相关。现有对人工智能法律主体地位的研究主要是以主客体二分法为讨论的肯定说与否定说之争。人工智能法律主体适格性的研究应当回溯至法学理论的本源,从民事主体自身的适格性构成要件进行分析,方能知其所以然。  相似文献   

12.
13.
ChatGPT和“文心一言”作为生成式人工智能的新产品,造就了人机合作进行知识生产(尤其是学术研究)的新形式。以探究数字劳动的含义为例,以人机问答的方式获得机器智能提供的答案,这展现了ChatGPT和“文心一言”可以辅助人进行学术研究的新功用,从而形成人机合作的知识生产新模式。在这种模式中,机器智能在提供资源的概括和简单的文本生成方面对人的知识生产提供高效的帮助,并通过人机问答的互动使这种帮助更具针对性和时效性。通过对机器生成内容的具体考察,深入体验这两款生成式人工智能新产品的实际使用,也可以发现其明显的不足和局限,尤其体现在:由于受限于训练数据集和能够进入的学术资源数据库,其归纳既有知识成果的全面性和准确性与人的要求还有较大的差距,更不能替代人去进行原创性的知识创新。鉴于此,需要理性地看待智能机器为人类的知识生产所能起到的功用,既要前瞻性预测这一新型的人机协同方式对人类未来知识生产走向的巨大影响和积极意义,也要根据现阶段生成式人工智能的工作机制,发挥好人在使用提示词等方面的作用,通过人的积极作为来调动智能辅助系统的潜能,在人机之间既有合理的分工又有融洽的互补式合作,来助力学术研究型知识生产活动的开展,并对人作为知识生产的主体始终保持足够的警醒。  相似文献   

14.
15.
金庚星 《学术界》2023,(4):72-79
以大型语言模型(LLMs)为代表的生成式人工智能的出现在物质技术、内容模态、组织制度与媒介性四个面向上对当前的媒介理论构成了挑战。在海德格尔的“媒介即语言”、曼诺维奇的“媒介即软件”的基础上,大型语言模型之后的媒介理论变革可以进一步通过“媒介即模型”来阐明。在人工智能的语境中,“媒介即模型”意味着一切软件都会被接入大模型进行改造。这一观点为媒介理论注入了面向机器学习时代的新解释力。在“媒介即模型”的理论视野下,所有人类行动者都参与到了一个共同信息库的编码之中,并和其他过去的、同时的,或将来的交流行动者共同塑造一个共享的社会信息系统。作为现代社会中最具影响力的知识生产制度之一,媒介系统与社会系统之间的关系范式也将从内容模态对现实世界的知识表征,转向语言模型对现实世界的计算生成。从更一般的社会科学知识论层面来看,“人—模型”之间相互叠加增强的交互方式预示了“人—模型”共生自主系统的崛起,并进一步涌现出群体智能,这是理解生成式人工智能时代社会认识论转型的关键。  相似文献   

16.
人工智能的意识问题是一项非常重要的议题,也是关于人工智能其他讨论的前提性问题。历史上关于意识的讨论很多,我们目前能够得到意识的两个确切定义:第一是主观体验,第二是信息。当我们探究机器意识时,生物自然主义从内在体验的角度去论证机器意识不存在,而技术乐观主义则将意识体验归于计算,以此来说明机器意识的存在。不过,即便是在超人类主义视域下,也没有科学的论证方法能够证明机器意识的真实存在性。我们只能发现,人工智能拥有意识仅可以算作是一个文学性的想象性命题,而人工智能意识问题的重点应该是一个实践性命题,即去探索人工智能的发展方向。  相似文献   

17.
对文学主体论的学术反思   总被引:2,自引:0,他引:2  
王纪人 《河北学刊》2005,25(1):142-147
20世纪80年代出现的文学主体论虽然客观上对庸俗社会学和机械决定论形成了冲击,但从学术上反思,它确实存在诸多问题。从主、客体辩证关系看,创作主体只有充分发挥自主性和创造性才可能成为主体,但主体能动性也只有顺应客观规律或荧的规律时才能达到最佳效果。"对象主体"的提法和"实践主体性"与"精神主体性"的区分都是不确切的。人是实践的主体、历史的主体,作为主体的人性也不是抽象的、凝固不变的。只有建立人性的历史观,才谈得上解释人的主体性。20世纪80年代的文学主体论基本上是从原子式的人出发的,以资产阶级的人道主义为思想武器,在当时的历史语境下呼唤人道主义有其历史必然性和合理性;但是,人道主义不是医治社会百病的灵丹妙药,离开根本问题去抽象地谈论"人类之爱"更是苍白无力的。人道主义的范型结构以一种普遍的人的本质为基本前提,是"性本善"的主体经验主义,其实主体是一种意识形态的建构物。在肯定人道主义反封建精神的同时,需要批判其二元论和人类中心主义。  相似文献   

18.
随着通用人工智能时代的到来,以聊天机器人ChatGPT为代表的生成式人工智能将广泛应用于各大领域,并可能引发大量的传播侵权问题。聊天机器人如何承担法律责任也成为社会讨论的焦点。讨论聊天机器人的法律责任必然无法回避其是否具备法律人格的争议,目前主要有否定说、限制说和肯定说三种思想流派争论。依据我国现行相关法律对传播侵权的规制路径,聊天机器人不具备法律主体资格,适用传统民事侵权责任。然而,具有自主学习和强大内容生成能力的大模型ChatGPT的出现,对这一传统规制路径提出了挑战。通过双轨制构建聊天机器人的法律责任主体资格,可以解决我国传统侵权责任的规制困境。针对弱人工智能的聊天机器人,依旧采用传统侵权责任的规制路径;而对于增强人工智能和自主人工智能这类不可预测性较强且具备一定自主决策能力的聊天机器人,应当赋予其法律人格地位,并建立财产保障、安全技术保障与市场保障机制,以应对传统侵权法律无法应对的挑战。  相似文献   

19.
孙玮 《学术研究》2023,(10):58-62+177
媒介视角的人工智能研究以人—机交互的外显行为为出发点,综合技术脉络与人文脉络的双重逻辑,探讨人类与智能机器系统性交互的特定意涵及社会影响。媒介的作用在于连接、交互、转换、生成,人工智能依赖人—机交互系统的机制与运作。“异类”的交互与共生,是人类与人工智能关系的核心点。异类智能数字接合形成的交互,数字系统中节点主体的共生,展现了智能社会新世界、新主体的一种样貌。  相似文献   

20.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号