ChatGPT技术中的人工智能伦理风险及其科学祛魅 |
| |
引用本文: | 陈元,黄秋生.ChatGPT技术中的人工智能伦理风险及其科学祛魅[J].湖南科技大学学报(社会科学版),2023(3):135-142. |
| |
作者姓名: | 陈元 黄秋生 |
| |
作者单位: | 南华大学马克思主义学院 |
| |
基金项目: | 湖南省社会科学成果评审委员会一般项目(XSP22YBZ087); |
| |
摘 要: | 作为一种生成式预训练变压器,ChatGPT技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解ChatGPT技术带来的伦理风险,使人工智能系统成功融入人类社会。
|
关 键 词: | ChatGPT “隐形的伦理代理人” 人工智能伦理风险 科学祛魅 |
|