论生成式大语言模型应用的安全性——以ChatGPT为例 |
| |
引用本文: | 熊明辉,池骁.论生成式大语言模型应用的安全性——以ChatGPT为例[J].山东社会科学,2023(5):79-90. |
| |
作者姓名: | 熊明辉 池骁 |
| |
作者单位: | 1. 浙江大学光华法学院;2. 浙江省哲学社会科学试点实验室浙江大学数字法治实验室 |
| |
基金项目: | 国家社科基金重大项目“语用逻辑的深度与应用研究”(项目编号:19ZDA042)的阶段性成果; |
| |
摘 要: | 以ChatGPT为代表的大语言模型的崛起,标志着人类向着通用人工智能迈出了巨大的一步,给人类带来更多的便利,但也将引发一些潜在风险。2023年4月11日国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》。研究者应对ChatGPT等人工智能语言模型进行负责任的创新,即在创新的同时对模型可能带来的风险具有前瞻性和更加深入的了解。针对ChatGPT存在的缺陷,我们要仔细考量大语言模型应用可能给人类带来的安全性问题,从使用者、研究者、监督者三个角度分析降低ChatGPT造成危害的可能对策,并给出法律规制建议,从而促进更公平、更负责的大语言模型的发展。
|
关 键 词: | 通用人工智能 大语言模型 安全风险 法律规制 |
|