首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
随着人工智能在法学领域中的深入应用,“法律人工智能”“人工智能+法律”等新兴概念相继出现。法律人工智能系统经历了从法律专家系统到论证检索和认知计算的转变,为提高法律服务效率、降低法律风险、促进社会公平正义发挥了重要作用。其基础核心论题与底层技术是法律推理。法律人工智能背景下的法律推理较之传统法律推理有其自身的独特性质与特征,要想充分利用人工智能来服务法律,必须首先关注法律推理的人工智能模型。  相似文献   

2.
人工智能技术增进社会福祉和进步的同时,伴随着人机边界模糊、责任追究困境、价值鸿沟扩大和技术过度依赖等伦理风险。人工智能伦理风险的生成有其内在逻辑。人工智能伦理风险的深层性、复杂性等特征契合了协同治理的要求。协同治理范式是人工智能伦理风险治理具有可行性的新探索。推进人工智能伦理风险的协同治理,应构建多元协同组织,形成以政府为核心,技术专家、社会组织、研究机构和公众等共同参与的风险治理自组织系统。在此基础上,通过夯实协同治理条件、增强协同治理参量提升人工智能伦理风险治理效能,促进人工智能伦理风险的整体性治理。  相似文献   

3.
人工智能诞生以来的海量技术创新突破,催生其从一个边缘性学科成为学术界、产业界关注的焦点,并成为各国的关键战略技术,各国政府也相继出台了规范人工智能发展的相关规制政策以应对风险。近期,火爆出圈的“新物种”ChatGPT颠覆了人与技术的关系,其“自主学习”特质更是引发了学者们的种种担忧,围绕人工智能是否会威胁人类这一时代命题进行了深入探讨。而人工智能发展的政策规制面临由于技术的不确定所引发的社会风险、政策制定者预测未来所需的各种信息及知识不足的风险、政策滞后性风险等问题,使政策效果预期与运行结果产生偏差。因此,如何规范人工智能发展政策的决策程序并提升人工智能政策的理性水平是解决现代社会技术风险规制的重要课题。  相似文献   

4.
ChatGPT类生成式人工智能在海量的数据、优质的算法与强大的算力支撑下能够实现多项技术赋能。但ChatGPT类生成式人工智能是否能够适用到智慧司法领域,以及在何种程度上将其嵌入,尤其是该项技术在赋能智慧法院建设过程中的边界如何,这对于深层次建设智慧法院具有重要的前提性意义。ChatGPT类生成式人工智能技术通过审判活动的智能化运用,可促进可视正义的实现;通过诉讼服务的可及性,可实现司法为民理念;通过公平与效率的动态平衡,可实现能动司法目标。然而,ChatGPT类生成式人工智能在带来上述诸多技术红利的同时,也引发了一系列新的风险,具体可以划分为由数据“幻觉性”引发的一般风险、由技术垄断性导致的重要风险以及由数据不可控产生的核心风险。对这些风险,应根据不同的风险特征采取相应的规制路径:可以通过对训练数据库的标准化构建以实现数据的“幻觉性”规制,通过辅助性原则的引入而实现技术规制,通过对服务提供者科加义务以实现对数据不可控的数据规制。即运用数据“幻觉性”规制、技术规制与数据规制,实现对ChatGPT类生成式人工智能技术嵌入的一般风险、重要风险与核心风险的防范,以期完成ChatGPT类生成式人工智能技术嵌入智慧法庭建设的风险最小化与技术赋能最大化,最终实现该项技术高质量赋能智慧法院建设。  相似文献   

5.
刘建生  李纪元 《南方论刊》2023,(5):16-18+27
人工智能技术在更新换代的过程中诞生了ChatGPT,在增进人类福祉的同时也产生了追责困难与伦理失范风险、价值失衡不断增大、技术高度异化等诸多安全风险。因此,本论文试图以ChatGPT为视角,对ChatGPT所带来的优势和弊端进行全面分析,并结合人工智能安全风险进行描述,探索协同治理人工智能安全风险的途径。要推动人工智能安全风险的协同治理,必须建立一个以国家为主体,由技术专家、社会组织、科研机构和社会大众组成的“自我治理体系”。然后,进一步强化协同治理条件,增强协同治理参数,提高其治理效率,从而推动人工智能安全风险治理的整体化,以更好的姿态迎接人工智能技术所带来的机遇与挑战。  相似文献   

6.
生成式人工智能在引领技术变革的同时也引发了诸多法律风险。根据生成式人工智能的运行机理,可以发现其中存在四大类数据安全风险,其主要原因在于算法高度信任对法益保护的冲击、技术演变中科技伦理规范的缺失以及用户数据主体权利保障不足等。针对生成式人工智能在数据输入阶段的数据源合规风险,研发企业内部应制定具有可操作性的数据合规计划,并在合规计划中制定详细具体的风险规制措施,强化企业合规经营;与此同时,通过多种措施积极响应用户对于数据主体权利的请求,确保模型训练数据来源合法合规。针对生成式人工智能在模型处理阶段的算法黑箱与算法偏见风险,应加大监管力度,重点关注算法的安全性与公平性,积极推进并完善相关立法,细化算法备案和算法解释义务,提高算法技术透明度,落实算法主体责任。针对生成式人工智能在内容输出阶段的数据滥用风险,应优化监管机制,实现全链条合法性监管,完善科研伦理规范并予以实质审查,引领技术向善,实现科技向善治理。针对生成式人工智能在数据存储阶段的数据泄漏风险,应通过技术与管理制度相结合的方式进行全方位规制,严格控制数据共享范围并贯彻数据分级分类保护,及时有效地防范数据泄露风险。  相似文献   

7.
人工智能在推动人类社会智能化变革的同时,其不确定性(自动性)所衍生的侵害人类法益的刑事风险是亟待认真对待的"真问题",绝非凭空臆造、危言耸听的"伪问题".对人工智能体被滥用于实施犯罪的刑事风险,应根据现有刑事归责原理,按照具体行为方式以及主观罪过形式,分别追究人工智能体背后的算法设计者、产品制造者与使用者(管理者)故意或过失犯罪的刑事责任.对人工智能体脱离人类控制侵害法益的刑事风险,赋予人工智能体以刑事责任主体地位的肯定论归责方案,存在持论依据及论证路径方面的诸多误区.以刑罚规制人工智能体刑事风险缺乏适宜性,应当借鉴"科技社会防卫论",通过建构保安处分机制,由司法机关在参考专业技术意见的基础上,对严重侵害人类利益的人工智能体适用以技术性危险消除措施为内容的对物保安处分,回避以刑罚规制人工智能体刑事风险必须具备可非难性的局限,进而为人工智能的发展预留必要的法律空间.  相似文献   

8.
随着人工智能技术的发展,传统民法人物二分的体系受到挑战,学界对是否赋予人工智能民事法律主体地位存在较大争议。以创造者、生产者能否控制人工智能为标准,可将人工智能划分为弱、中、强三个层次,在此基础上解决人工智能导致的一系列民事责任问题。弱人工智能可视为物,不赋予其法律主体地位;对于中人工智能,生产、创造者以能够控制的范围为限承担相应民事责任或者监护责任;强人工智能能够完全摆脱生产者和创造者的控制并自行创造新的人工智能,法律应赋予其独立的主体地位,将其视为拟制人或者一种特殊的法律主体。  相似文献   

9.
随着人工智能的广泛应用,其在为人类生产和生活带来便利的同时,也引发了数据隐私泄露与算法偏见、责任主体冲击与边界模糊、主客体异化与信任危机、软法缺陷与硬法缺失等伦理风险。规制人工智能的伦理风险,须优化人工智能技术设计,注重隐私保护与社会公正;赋予人工智能以社会角色,划定人与智能的责任边界;构筑人工智能伦理规约,强化人的主体地位与诚信品质;加快人工智能的法制化进程,健全智能伦理制度体系,从而促使“人—机”和谐共处。  相似文献   

10.
人工智能是根据对环境的感知,做出合理的行动,并获得最大收益的计算机程序,它有着应用人工智能、通用人工智能与超人工智能三类层级。由于超人工智能远超人类的控制范围,对人工智能伦理的考察可以从其他两个层级展开。从应用人工智能伦理看,人工智能引发了信息安全困境、责任归属困境、技术依赖风险以及产业后备军与社会不公平等问题。从通用人工智能伦理看,人工智能带来了人机边界模糊、人的存在异化、人的自由异化甚至人类种族终结等问题。对此,要在坚持人本主义原则的基础上,通过技术层面的智能监管、程序设置与价值规范以及社会层面的伦理设计、法律规制与协同治理等,实现对人工智能的正向规约。  相似文献   

11.
人工智能技术权力随着人工智能技术的发展孕育而生,其以“微观的”权力为内核、传统公权力为载体,是一种既难以掌控又难以解释,且具备“微观的”权力与传统公权力双重控制力的力量。在这些特性的影响下,人工智能技术带来的风险也具有非完全的人为性、双重不确定性、差异普遍性等特性,这最终使得法律在使用“行为-责任”机制分配人工智能技术风险时存在诸多“行为”无法通达“责任”的困境。为摆脱该困境,可借鉴罗尔斯的分配正义理论,建立一种类“原初状态”的沙箱环境为公平分配风险提供基础,再以纯粹程序正义为分配渠道,打通“行为”与“责任”之间的路径,最后通过差别原则与反思平衡合理地直接连接“行为”与“责任”,以解决另一部分难以适用“行为-责任”机制的困境。  相似文献   

12.
人工智能在司法活动中应用的重要领域之一就是证据审查。人工智能为证据审查提供科技赋能,减少司法裁判的恣意性,提高证据审查的实效性,但是,人工智能在证据审查中的应用存在证据审查建构模型数据样本不充分、证据规则结构化转换不完整、证据审查程序缺乏可视性等风险和问题。为了应对人工智能在证据审查中的上述风险,需要明确人工智能在司法审判和证据审查中的辅助地位,提高司法人工智能训练的案例样本数量和质量,在技术层面提升人工智能自然语言转换能力,在规则层面限定司法人工智能在证据审查中的适用范围,将专家辅助人制度引入司法人工智能审查证据领域,强化对司法人工智能审查证据结果的说理论证。  相似文献   

13.
人工智能尤其是强人工智能使得人与技术之间呈现交互关系,技术现象学中具身、诠释、它异、背景这4种人—技术—世界的意向性关系发生着变更和异化,冲击了人作为技术主体的地位,同时蕴含着身体虚化、诠释遮蔽、他者竞争和文明失序的内在性风险。把握人—技术—世界中的意向性关系,成为人工智能风险治理的新思路、新视角,有助于完善人工智能技术治理、原则治理路径,促使善治良治成为机器行为学的内生品质。  相似文献   

14.
程鹏  谭浩 《理论界》2023,(1):42-48
当下人工智能领域发展迅速,尤其在专用人工智能方面取得了重大的技术成果之后,伴随着这一技术的不断创新和积累,人们开始对其有了更多的期待。当今通用人工智能技术仍然处于发展的初级阶段,虽然整体上取得了一些技术进步,如神经网络、小样本学习等,但仍然只是探索通往通用人工智能的可能性进路。由于人工智能的快速发展和自身的特征,我们更需要负责任地前瞻性地探讨通用人工智能发展所带来的伦理问题。其中之一就是,通用人工智能的出现势必会对人类社会的价值伦理体系造成巨大的影响,而人工智能的出现挑战了一直以来的人类中心主义的伦理价值体系。于是,以什么视角去看待通用人工智能将是一个重要问题。  相似文献   

15.
面对人工智能技术的重大突破,尤其是ChatGPT等新一代人工智能在社会生活各个领域的广泛应用,审视、预判和防范ChatGPT类生成式人工智能的意识形态风险成为一个重要的理论课题。ChatGPT类生成式人工智能环境下的意识形态传播具有可塑性、可量化性、个性化和精准预测性等特点。ChatGPT类生成式人工智能介入意识形态传播的技术路径体现在技术与思想的耦合、预测性的算法推荐、个性化的话语创设和赋权性的网络传播等方面。ChatGPT类生成式人工智能介入意识形态传播会带来算法歧视、数据失真、算法监控和算法反噬等潜在的风险。应通过统筹科技伦理规制算法推荐、设计主流意识形态驾驭算法、协调传播主体与客体的价值需求、强化大数据技术检测与治理等,加强对ChatGPT类生成式人工智能意识形态风险的防控。  相似文献   

16.
多模态大模型GPT-4的发布预示着人工智能生成式技术迎来了从弱人工智能跨入强人工智能的临界点,但技术进步与技术风险是相伴而生的。随着GPT-4数据容量的快速积累,数据质量、算力不断提高,知识产权侵权、生产虚假信息、数据歧视等风险与日俱增,对ChatGPT类模型的数据风险治理迫在眉睫。文章基于对生成式人工智能在数据安全领域的风险分析,比较GPT类模型数据的输入、访问以及内容生成等数据运行的风险及其特征,提出从数据源头、内部运行到数据生成的全链条风险防范机制,具体包括:构建保障数据源头“清澈”的“净水器”式合规技术;维护模型内部数据运行“可信根”监管的自治原则;构建国际协同联动式数据治理的协作框架等风险治理路径。  相似文献   

17.
我国经济已由数量规模的高速增长转向高质量发展新阶段,制造业企业高质量发展还面临着诸多问题和发展瓶颈。基于2011—2019年沪深A股制造业上市公司与国际机器人联合会(IFR)的匹配数据,考察人工智能应用对我国制造业企业高质量发展的影响效应及机制,可以发现人工智能应用对我国制造业企业高质量发展存在显著且稳健的促进作用;异质性分析结果显示,人工智能应用较大幅度地提升了国有企业、非沿海地区企业及高技术行业企业的高质量发展。政府应通过各种财政支持措施对机器人及人工智能技术的引进、应用及开发予以补贴及税收优惠等,在加大机器人及人工智能等机器人技术应用力度的同时,要转变技术创新模式,加强劳动者的职业技能培养和劳动者自身的技术吸收能力提升,充分发挥产学研之间相互合作的协同创新优势;扩大中西部地区人工智能技术的应用领域和范围,强化企业自主创新的能力,更大程度发挥其对地区社会经济发展的促进作用。  相似文献   

18.
从小冰"写诗"事件开始,人类的确正在走向人工智能诗学时代,旧的文艺学、旧的狭义诗学在不久的将来将不得不重新书写。在诗歌主体重置的话题方面,人工智能写诗软件抹消了诗人这一诗歌创作主体,同时随之抹去了诗歌创作环节。在小冰"写诗"事件中,不存在诗歌创作主体的新旧替换,存在的是科技对诗歌创作主体的扼杀。在诗人消失的地方,出现的是非文学性质的主体如计算机程序员或软件用户。小冰"写诗"事件在文艺学层面所造成的诗人之死具有一种崭新的意义,它既动摇了文艺学整体的基础,预示着人工智能诗学的诞生,又成为人类自身之存在本质在今天发生新旧蜕变的命运启示,人类或将从此步入后人类时代。在后人类时代,人凭借人工智能技术获得对世界的崭新感觉,在新的世界感觉中,人的命运只能是从旧人蜕变为新人。  相似文献   

19.
马方  唐娜 《兰州学刊》2023,(11):87-100
随着人工智能技术的兴起,如今全球范围内都在积极推进大数据侦查发展,其中以算法为支撑的预测性侦查模式发展最为迅速。人工智能技术正在对刑事司法领域产生重新塑造的效应,但与此同时,人工智能技术本身具有的内在客观特征——前瞻性、相关性、技术性等,也带来了数据风险、隐私风险以及算法风险等。社会安全风险视域下,应实现预测性侦查的多元治理:重视数据治理,发挥预测性侦查的预测价值;坚持法律治理,建立监督委员会以保护公民个人隐私;强化技术治理,公开算法决策以增强公众信任度。  相似文献   

20.
以大语言模型为底层技术、以社交界面为互动方式的生成式人工智能将“文本到文本”的转换工具以一种在社会框架支撑下进行的人机交互方式展现了出来。这是“一般智力”/“公共智力”在数字时代的最新发展形态:公共智能(Public Intelligence)。然而,在这个被构造出来的全新公共领域中,存在着一些风险:一方面,以ChatGPT为代表的生成式人工智能超越了空间区域的限制,在新的公共场域内塑造了“数字化的普遍理性”;另一方面,由于AIGC缺乏自我标注,会重新作为数据来源进入新的生成,从而使知识的对象在不断自我引证的技术条件下被凝固。AIGC中的知识型结构是将符号之序通过AI技术的加持达到极化的表现,它通过算法塑造了一种纯粹的认识形式的领域。并且,过度依赖AIGC的知识生产还会塑造出知识拟象。这就需要调试人工智能技术和人的主体创造性之间的关系,从公共性入手促进人机和谐发展和强互惠。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号