首页 | 本学科首页   官方微博 | 高级检索  
     检索      

风险防范视阈下生成式人工智能数据安全的治理路径——以GPT类模型为例
引用本文:李森.风险防范视阈下生成式人工智能数据安全的治理路径——以GPT类模型为例[J].西藏民族学院学报,2023(6):139-145.
作者姓名:李森
作者单位:南京大学法学院
基金项目:国家社科基金一般项目“网络发展对西藏社会稳定的影响及其法律对策研究”(项目号:19BFX026);
摘    要:多模态大模型GPT-4的发布预示着人工智能生成式技术迎来了从弱人工智能跨入强人工智能的临界点,但技术进步与技术风险是相伴而生的。随着GPT-4数据容量的快速积累,数据质量、算力不断提高,知识产权侵权、生产虚假信息、数据歧视等风险与日俱增,对ChatGPT类模型的数据风险治理迫在眉睫。文章基于对生成式人工智能在数据安全领域的风险分析,比较GPT类模型数据的输入、访问以及内容生成等数据运行的风险及其特征,提出从数据源头、内部运行到数据生成的全链条风险防范机制,具体包括:构建保障数据源头“清澈”的“净水器”式合规技术;维护模型内部数据运行“可信根”监管的自治原则;构建国际协同联动式数据治理的协作框架等风险治理路径。

关 键 词:生成式人工智能  GPT  数据安全  治理
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号