首页 | 本学科首页   官方微博 | 高级检索  
     检索      

ChatGPT技术中的人工智能伦理风险及其科学祛魅
引用本文:陈元,黄秋生.ChatGPT技术中的人工智能伦理风险及其科学祛魅[J].湖南科技大学学报(社会科学版),2023(3):135-142.
作者姓名:陈元  黄秋生
作者单位:南华大学马克思主义学院
基金项目:湖南省社会科学成果评审委员会一般项目(XSP22YBZ087);
摘    要:作为一种生成式预训练变压器,ChatGPT技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解ChatGPT技术带来的伦理风险,使人工智能系统成功融入人类社会。

关 键 词:ChatGPT  “隐形的伦理代理人”  人工智能伦理风险  科学祛魅
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号