首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 638 毫秒
1.
ChatGPT是美国人工智能研究实验室OpenAI推出的一种人工智能技术驱动的自然语言处理工具,其深度的学习能力和自我纠正能力,提高了人工智能与人类之间的交往。ChatGPT在实现科学技术革新的同时,也存在敏感数据泄露的风险。ChatGPT在保护个人主体数据、企业主体数据和国家主体数据方面需要法律予以规范。因此,如何应对ChatGPT带来的数据安全,成为生成式人工智能亟待解决的问题。为此,通过分析ChatGPT运作阶段和数据主体应用现状可能存在的数据风险,以我国数据规制法律框架为基础,借鉴域外人工智能立法模式,探究ChatGPT的数据风险法治化应对策略,以此合理构建我国生成式人工智能的数据风险法律规制体系。  相似文献   

2.
自2022年起,以ChatGPT和GPT-4为代表的生成式人工智能迅速发展,人工智能进入了“大模型”时代。作为一项具有重大意义的技术进步,对人类社会的发展具有重要意义;同时,ChatGPT类生成式人工智能作为人的创造物,也引发了人的主体性的丧失、数据隐私泄露与算法偏见、责任主体冲击与道德地位的模糊等伦理问题,会威胁到人类的幸福生活。以ChatGPT类生成式人工智能引发的伦理问题为起点、以挖掘其产生的原因为依据,提出完善生成式人工智能伦理治理的体制和机制、优化生成式人工智能技术设计和培育正确的主体意识等规制路径。  相似文献   

3.
聚焦社会治理领域的算法应用伦理问题,以欧美社会治理中的智能算法应用为例,通过案例分析和归纳演绎相结合的方法,阐释智能算法嵌入社会治理面临的应用伦理风险,即算法“黑箱”与社会信任危机、算法歧视与社会不平等、隐私泄露与社会监视。基于此,从技术、伦理准则与法律、媒体三个层面提出欧美社会治理算法应用伦理的规制路径:一是优化算法技术,提升算法准确性和安全性;二是完善算法伦理准则和法律,构建智能算法善治体系;三是加强算法伦理的媒体监督,构建多元主体协商共治路径。本研究能够为我国人工智能伦理治理提供重要的启示与借鉴作用。  相似文献   

4.
ChatGPT一经问世就引起广泛热仪,它以高拟真度、强互动性和多模态的特质颠覆了人们对于人工智能的既有印象。其作为生成式人工智能的优秀代表正以高调的姿态变革人类生产生活方式、打破人类认知壁垒。但科技的发展具有矛盾性和两面性,越智慧的科技,越易使人滋生恐惧和不安等情绪,提升效率、便民利民的同时,也通常伴随一系列的伦理风险。ChatGPT对工作效率模式带来的重大变化,使其两面矛盾性更为凸显。克服矛盾心理需要厘清ChatGPT引发的人类主体地位受冲击、隐私侵犯与算法歧视、作弊成本降低与学术不端、侵扰意识形态防线等伦理风险。应对这些伦理风险需要坚持人本主义原则、守住技术发展底线、保护隐私群己共律、加强算法设计与监管、坚持科技伦理教育、实现监督与引导并行、补齐生成式AI短板、走独立自主发展之路,从而实现ChatGPT的伦理规制,克服人们因技术的强大智慧而产生的矛盾心理,确保智能技术始终沿着造福人类之路稳步前行。  相似文献   

5.
作为一种生成式预训练变压器,ChatGPT技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解ChatGPT技术带来的伦理风险,使人工智能系统成功融入人类社会。  相似文献   

6.
作为一种生成式预训练变压器,ChatGPT技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解ChatGPT技术带来的伦理风险,使人工智能系统成功融入人类社会。  相似文献   

7.
ChatGPT作为一款基于超大规模人工智能模型的人机对话应用程序,其广泛运用将对政治社会带来诸多影响。ChatGPT具备较强的政治社会动能,其对多个社会领域、应用场景的嵌入将使得政治社会面临机遇与风险兼具态势、出现技术的不断演化迭代、迎来更多类人化的替代物、遭遇多维度深层次的变革。同时,ChatGPT也会引发政治社会风险:政治风险方面,ChatGPT使用过程中的数据流动会冲击国家主权独立性,数字技术霸权可能威胁政治安全,意识形态安全可能面临渗透风险;社会风险方面,就业结构、社会传播、伦理道德、人口安全等领域都可能因为ChatGPT而产生新的风险。针对这些潜在风险,应在总体国家安全观的指导下,秉持鼓励发展、保障安全、技术规制、协同监管的原则对其加以防范。具体而言,应坚持发展与安全并重,加快构建ChatGPT发展的安全生态;坚持积极引导与有效治理并进,加快推进ChatGPT协同监管体系;坚持技术规制与立法保护并举,加快净化ChatGPT风险防范环境。  相似文献   

8.
数字时代人工智能逐步深入人类生活,在改造和重塑各行业、为社会发展赋能的同时,也引发了不容小觑的法律和伦理风险。尤其是在Chat GPT等生成式人工智能面世后,人工智能立法规制的必要性大大增加。欧盟和美国率先针对人工智能发布立法规制,这为我国人工智能综合立法中基础法律问题的解决提供了先行经验,如解决人工智能法律主体地位和知识产权争议等相关问题。除此之外,分析美欧人工智能相关立法也为中国应对AI风险等级分类管理、全过程体制监管以及建立人工智能相关治理机构等具体程序性问题提供了参考。目前,我国针对生成式人工智能出台了《生成式人工智能服务管理暂行办法》,深圳、上海等地也相继出台了地方性立法,但还未形成国家层面的人工智能综合立法。综合立法可以解决我国人工智能法律规范数量少、层级低、缺乏顶层设计等问题,更好地进行人工智能管理和促进其发展。此外,树立良性道德伦理规范有利于为后续立法进程打好基础,加快数据、算法等基础立法进程也有助于促进人工智能的综合立法进程。  相似文献   

9.
意识形态风险防范是事关民族复兴、国家主权、文化建设的核心范畴。在当今人工智能技术蓬勃发展的数字时代,以ChatGPT为代表的生成式人工智能技术内嵌渗透到社会生活领域之中,伴随着交互深度与辐射范围的不断扩展,裹挟了众多具有新特点的意识形态风险。清晰明辨ChatGPT等生成式人工智能产生意识形态风险的内在机理是防范生成式人工智能意识形态风险的前提。ChatGPT等生成式人工智能凭借内容生成的首要功能对意识形态的价值观念层进行渗透;依靠交互对话的产品形态对意识形态的话语方式产生影响;利用多维应用的功能属性对社会生活实践领域展开强势介入,促使当下意识形态斗争态势风云诡谲,变化万千。理性审视和精准识别ChatGPT等生成式人工智能所诱发的意识形态风险是防范生成式人工智能意识形态风险的关键。从意识形态引领角度出发,ChatGPT等生成式人工智能的运行机制深蕴的资本逻辑解构社会成员已形成的认知和价值,借由"技术-资本"双重优势导致意识形态面临引领乏力风险;从意识形态话语维度审视,ChatGPT等生成式人工智能带来的"人机协同"话语生产新模式削弱主流意识形态话语深度,多元的生成式话语输送淡化话语权威,导致意识形态话语减蚀风险;从意识形态管理层面反思,ChatGPT等生成式人工智能引发的信息传播新范式消解意识形态管理的主导权,及其对人的强化宰制,导致意识形态管理弱化风险。ChatGPT等生成式人工智能在掌握先进技术基础上诱发了一系列辐射广泛、渗透全面、不易掌控的意识形态风险。如何防范与化解ChatGPT等生成式人工智能所带来的意识形态风险,成为当前我国意识形态建设无法回避的新课题。首先,贯彻落实人民至上的价值理念,以马克思主义理论指导意识形态防范工作,推进打造人机和谐、风清气正的网络空间;其次,打造富有中国特色的话语途径,在讲好中国故事的话语基础上破解西方话语的现代困境;最后,积极倡导全球治理并贡献中国方案,以共商共建共享的发展原则,依托人类命运共同体构建负责任的人工智能格局,促使ChatGPT等生成式人工智能在现代文明面前彰显光明的未来前景。  相似文献   

10.
ChatGPT的出现意味着人工智能的发展进入新阶段。虽然ChatGPT的终极商业化场景尚未明确,但其改变人类创新活动的潜力已经引发社会上下广为关注。目前ChatGPT引发的创新挑战主要与其生成物的学术性使用密切相关:一方面,ChatGPT生成物是否可以受到著作权的保护;另一方面,学者和学生使用ChatGPT生成物完成学术论文或者课程论文是否构成学术不端。人工智能的学术性使用宜从工具化的角度进行处理。因此,我们应当在不排斥学术性使用ChatGPT生成物的同时,对一些特定的滥用行为进行规制。  相似文献   

11.
以ChatGPT为代表的生成式人工智能具备在自动学习的基础上生成新内容的能力,在引发生产力革命的同时也形成了法律规制难题。ChatGPT会造成隐私侵权、数据安全风险以及知识产权确权与保护困境等难题,其主要原因在于数据中心主义、算法高度信任以及规范滞后于技术等。治理ChatGPT应当秉持捍卫人的尊严原则和倡导有限信任原则,坚持以公共利益为导向确定权属分配,并构建以开发设计者为主体的合规方案,发挥科技伦理引领与法律规范的双重作用。具体可采取对数据采集的合规控制、以技术治理技术、优化数据管理方法等措施。为了防范ChatGPT过度模糊人与机器之间的信任边界,还应根据用户的专业性程度配置不同的披露义务。  相似文献   

12.
以ChatGPT4为代表的生成式人工智能具有高度类人性和广泛适用性,有利于生产方式和众多领域的转型升级。然而,这种所谓强人工智能时代的标志性产物,伴随着技术固有的风险性问题,引发伦理以及法律层面的失范性问题。生成式人工智能的失范性主要表现为:一是针对生成式人工智能引发的风险问题,伦理与法律尚无回应;二是现有的伦理体系和法律制度的“规范性”不足。为此,文章借鉴凯尔森的规范性理论,采用“旧论新用”的方法:一是利用伦理规范化,增强其约束性、可执行力,整理其内部层级关系,形成生成式人工智能的伦理治理体系;二是运用法律规范化,强化其对生成式人工智能数理化逻辑运行的模型规范。最后,基于伦理与法律协同构建生成式人工智能的规范性体系。  相似文献   

13.
元宇宙是一个基于多种数字技术构建的、以数字身份参与的虚实相生甚至以虚运实的数字虚拟社会,其本质在于社会性而非虚拟性。尽管元宇宙已经在娱乐、医疗、教育、工业和法律等领域获得初步应用,但是仍面临法律、伦理和技术的多维困境。从法律上来看,元宇宙的应用可能直接与个人信息保护权、隐私权、著作权等权能形成冲突;从伦理上来看,元宇宙的发展趋势与道德哲学对人之主体性的强调不相兼容;从技术上来看,元宇宙仍面临交互设备差、算法算力弱、经济系统不完善等瓶颈问题。为了在一定程度上解决这些困境,推动元宇宙应用的良性发展,需从宏观和微观两个层面展开法律规制:一是以现实社会为中心,构建一体融合的法律体系,促进现实社会的法律系统与虚拟社会的算法系统之间的跨系统沟通;二是以风险为基础,根据比例原则对元宇宙应用实施从原则上禁止、全流程监管到行业自律的差异规制。  相似文献   

14.
本文介绍了自然语言处理技术的人工智能应用程序ChatGPT在AIGC(人工智能生成内容)领域的突破性进展,以及这种进步的重要意义。通过回溯历次工业革命对社会的影响,提出以下观点:人工智能发展将带来新的工业革命,人工智能社会已经成为趋势;人类的历史就是不断突破自身局限的历史,人工智能正带来一次新的工业革命,前两次工业革命人类扩展了肢体的机能,从第三次工业革命开始扩展的是大脑和神经系统的机能,进入对自身局限挑战的最高阶段,人工智能将推动大脑和其他身体机能整合式扩展,形成智能社会。还分析了ChatGPT可能带来的就业问题和社会分化与不平等,分析了人工智能技术的风险,如隐私和数据安全、算法黑箱可能带来的偏见和歧视、人工智能依赖等问题。最后,介绍了国外研究者关于人工智能社会治理的思想,提出社会治理的基本思路。  相似文献   

15.
ChatGPT类生成式人工智能的快速发展虽在不同领域带来积极影响,但也引发了法律政策、安全技术、社会伦理等层面的监管问题。比较美国、欧盟、日本等国外典型经济体人工智能监管的治理实践,为完善我国人工智能监管治理体系提供政策参考。我国人工智能监管应坚持发展与安全并重、促进创新与依法治理相结合的监管原则,建立健全法律与政策、技术与安全、社会与伦理等层面的监管路径,同时对人工智能进行进入性监管、技术性全程监管和分级分类监管,完善我国的人工智能监管体系。  相似文献   

16.
大数据、人工智能、算法推荐技术等信息技术的快速迭代,推动了传统社会的数字化转型,传统新闻业同样在开展数字化转型升级。在此背景下,随着新闻信息过载的不断加剧,由大数据衍生出的算法推荐新闻迅速崛起,算法信任、数据优势与新闻媒介的数字化客观上为算法推荐新闻的应用和发展奠定了基础。毋庸置疑,算法推荐新闻对于实现新闻准确分发、增强新闻受众黏性具有重要意义,智慧化、瞬时性的算法推荐新闻具有精准、高效、个性化优势,但同时算法作为一种复杂性、不确定性技术,带来了多层面、多环节、多领域的风险挑战和制度掣肘,算法推荐新闻同样引发了"算法黑箱" "算法偏差" "技术霸权""责任缺口"与"信息泄露"等多种伦理风险。当前,学界对于算法推荐技术本身是否真的成熟,以及算法推荐新闻可能引发的伦理危机研判明显不足。对此,从技术不确定性理论所内嵌的技术本身不确定性、技术认知不确定性与技术制度不确定性三个向度,可以为算法推荐新闻的伦理风险提供适当的分析框架,在此基础上厘清算法推荐新闻伦理风险发生的根源,可将其归纳为技术本身不确定性向度的数学洗脑与主体性缺失、技术认知不确定性向度的能力不足与底线失守以及技术制度不确定性向度的法律规范与伦理体系的不完善。具言之,算法推荐新闻作为一种新兴技术,已有伦理形态与法律规范逐渐无法有效规制其伦理风险,亟需建构专业化、制度化的算法推荐新闻伦理风险规制体系。算法推荐新闻伦理风险的法律规制应当奉行何种原则是规制路径建构的前提性、方向性议题,分析认为技术不确定性下算法推荐新闻伦理风险的法律规制需坚持新闻透明原则、价值中立原则和德法共治原则。当然,随着算法推荐技术、云计算等新兴技术的不断进化,新闻透明原则亦需与时俱进,对算法推荐新闻的新兴伦理风险予以有效规制,新闻从业者、算法推荐新闻分发平台等要坚持以价值中立原则为指导,强化算法推荐新闻中"人"的主体性地位,并在德法共治原则指导下明确算法推荐新闻伦理风险的法律规制范式。从以上原则出发,算法推荐新闻伦理风险的法律规制,应当针对不同类型的伦理风险进行有针对性的制度建构,即在技术本身不确定性向度加强算法公开与算法解释权、数据权利等保障,在技术认知不确定性向度推动新闻从业者计算思维的培养及伦理约束,在技术制度不确定性向度采取伦理结构化与法律问责等规制对策。  相似文献   

17.
智慧养老基于大数据、人工智能等新技术,在养老模式、养老产品与服务提供方面形成了创新,提高了养老效率与质量。但是,作为新技术在民生领域的转化应用,智慧养老仍然具有伦理风险、法律风险、市场风险和技术风险。这一系列风险都缘于新技术因素与传统的法律规制体系、社会运行体系之间的矛盾。对此,应当构建以法律为主导的智慧养老规制体系,并结合相应的纵向风险防控机制、智慧化与多元化法律思维,以此为基础保障智慧养老模式的顺利变革,进而促进民生领域的治理质量与效率提高。  相似文献   

18.
智慧养老基于大数据、人工智能等新技术,在养老模式、养老产品与服务提供方面形成了创新,提高了养老效率与质量。但是,作为新技术在民生领域的转化应用,智慧养老仍然具有伦理风险、法律风险、市场风险和技术风险。这一系列风险都缘于新技术因素与传统的法律规制体系、社会运行体系之间的矛盾。对此,应当构建以法律为主导的智慧养老规制体系,并结合相应的纵向风险防控机制、智慧化与多元化法律思维,以此为基础保障智慧养老模式的顺利变革,进而促进民生领域的治理质量与效率提高。  相似文献   

19.
类ChatGPT具有潜意识形态性,其引入和嵌入应用易招致非传统国家安全威胁。类ChatGPT通用人工智能算法受资本与西方价值观的浸润,冲击国家意识形态安全和情报安全,易诱发意识形态安全风险,并为网络情报的获取和传输提供诸多便利条件;杜撰假舆论,致使社会谣言泛滥,或将挑战社会公共安全;收集存储处理用户数据,严重威胁国家数据安全;阻碍发展中国家崛起的步伐,使产业跨国转移变得缺乏现实意义并重新定义社会人力资源成本上限,或将挟制他国经济发展安全。我国算法审查制度面临专门审查主体缺失、审查范围不明和审查法律规范体系化水平严重滞后等现实问题。应当以总体国家安全观为指引,明确中央科技委员会领导的、国务院数据安全局负责执行的算法安全专门审查主体机制,统筹算法审查宏观设计;充分发挥平台经营者和使用者的协同共治效能,夯实算法审查的社会基础;将算法文化监控、算法可解释性和算法可控性纳入算法审查范围,合理评估算法对国家和社会的冲击,明确算法安全内容;制定“算法安全法”以破解政策敏锐立法滞后的困局,回应算法安全制度的现实需求和总体国家安全的需要,提升国家在科技领域的监管能力,积极应对西方国家算法霸权,加速推进类ChatGPT通用人工智能本土化应用及国产化替代进程。  相似文献   

20.
智慧养老基于大数据、人工智能等新技术,在养老模式、养老产品与服务提供方面形成了创新,提高了养老效率与质量。但是,作为新技术在民生领域的转化应用,智慧养老仍然具有伦理风险、法律风险、市场风险和技术风险。这一系列风险都缘于新技术因素与传统的法律规制体系、社会运行体系之间的矛盾。对此,应当构建以法律为主导的智慧养老规制体系,并结合相应的纵向风险防控机制、智慧化与多元化法律思维,以此为基础保障智慧养老模式的顺利变革,进而促进民生领域的治理质量与效率提高。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号