首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
人工智能可能给社会带来法律所不能允许的危害风险.理性地审视人工智能带来的风险,从利益驱动到技术发展是一个在场域与频度逐步减少的风险.经过技术的检验和实验室的过滤,人工智能的危害风险并非不可控制.人工智能的危害风险可以体系化地应对,不会形成风险处置,不能导致风险无限扩张.从技术治理、道德约束、强制登记与保险制度以及立法监管等可以系统地化解和有效地处置人工智能的危害风险.  相似文献   

2.
在人工智能发展初期,经济系统已经出现了市场风险增大的现象。随着人工智能与大数据的深度融合发展,新就业形态劳动者数量开始大量增加、数字劳工与数据垄断也开始出现。这些现象都表明,在未来人工智能发展中,财富分配结构的恶化、社会供需结构的失衡可能成为经济体系中的主要风险。从马克思主义政治经济学的角度来看,生成上述经济风险的根本原因在于人工智能的出现导致了生产力内部矛盾的激化。所以,防范人工智能发展中的经济风险必须从反映生产关系的生产、分配、流通等环节入手,使生产关系适应生产力的发展,缓解生产力内部矛盾。在法律制度层面要实现要素市场的发展、分配机制的合理化、市场监管机制的优化以及金融供给侧的改革,从而达到防范风险、协同科技创新的效果。  相似文献   

3.
"法律人格扩展论""人工智能发展论""有限人格论"是人工智能法律主体理论的三大论据。针对这些论据,可对人工智能法律主体理论展开批判。首先,在法律人格理论层面上,"法律人格扩展论"的主张不合法理。法律人格发展至今始终是人类中心主义的。自然人的内涵外延无法涵盖人工智能,法人亦与其背后的自然人密切相关。其次,在人工智能技术层面上,"人工智能发展论"的幻想不切实际。现阶段人工智能虽具自主性,但不具意识、意志和理性。对未来人工智能的科幻想象亦绝不能成为法治的注脚。最后在人工智能法律主体制度构建层面上,"有限人格论"的设想无法操作。其无法解决具体制度设计中的矛盾,无法实现法律的作用,且不当转移了责任风险,最终将有害于人的权利保障。因此,人工智能无法成为法律主体。  相似文献   

4.
人工智能技术既是一项制度文明,也可能带来一定的制度风险。人工智能凭借其智能算法模型对人类思维的模仿,正在科研发明领域逐渐展现着具备脱离人类干预、自主创新的能力。但这种现代化的技术形态对法律所调整的诸方面社会关系产生了冲击。在智能机器自主发明过程中,不可避免地产生了权利保护模式不明、侵权责任难以认定、市场竞争被破坏以及违反人类道德等社会风险。当前法律制度应从厘清权利保护模式、明确侵权责任主体与证明责任分配、规制反竞争风险以及加强伦理道德要求等方面进行积极应对,并在此基础上,建立以预防性治理理念为核心的法律运行体系,从而实现对人工智能自主发明风险的有效防控。  相似文献   

5.
网络技术发展促成了网络代际更迭。在大数据为核心的Internet 3.0阶段,网络在犯罪中的作用和地位发生变化,网络的刑法属性由传统的犯罪对象、工具演变为网络犯罪的场域空间和存在方式。网络犯罪的表现形式也随之演化,在传统犯罪网络化趋势加强的同时,出现了人工智能犯罪等新的犯罪形态。在对比网络犯罪与传统犯罪的危害性评价差异的基础上,可以将网络犯罪区分为三种类型:危害性评价等价于传统犯罪的网络犯罪类型、线上线下危害性评价背离的网络犯罪类型、以网络大数据为核心的新型网络犯罪,后者尤以人工智能犯罪为代表。人工智能的法律问题冲击着以人为核心的法律制度体系,也给刑法提出了新的命题。大数据、云计算以及人工智能技术的发展,意味着新的风险时代的到来。刑法对以网络为工具和对象的犯罪进行了有效立法应对,但对大数据时代的网络犯罪规制不力,对以“网络为空间”的犯罪应对不力,对以“网络为存在本质”的犯罪尚未作出实质回应。刑法缺乏应对新型网络犯罪的风险机制,一是对大数据系统安全、算法安全和数据与信息安全为内容的新型网络安全风险应对不足,二是对滥用人工智能技术、人工智能技术瑕疵带来的刑事风险缺乏应对。同时,在立法规制网...  相似文献   

6.
在医疗领域,人工智能被广泛地应用于临床诊断、医学治疗、医疗康复、疾病预测和医学研究等多个方面,但由于人工智能技术发生错误,致使患者合法权益受损的事例时有发生,因此医疗人工智能的应用面临多种风险。如医疗人工智能法律主体资格尚未明确;不良后果发生时法律责任认定存在争议;存在数据偏见和歧视,数据公平难以保障;数据隐私和个人信息保护力度不足;立法监管制度不够健全;缺乏医疗人工智能相关人才。面对这些风险,有必要明确界定医疗人工智能法律地位、明确划分人工智能医疗事故责任承担方式、选择适当数据样本及研发者以规避偏见、尽快出台个人信息保护法、完善人工智能相关立法加强全流程监管以及大力培养医疗人工智能相关人才,以促进医疗人工智能技术健康快速发展。  相似文献   

7.
随着我国大力推动"人工智能+"建设,大数据收集及智能化信息处理在法庭裁判中的运用也逐步发展.智能裁判需仰赖大量数据采集及使用,其中包含了案件中当事人的个人信息数据采集.人工智能在后台数据进行学习、分析的过程,不可避免地涉及对个人信息的侵犯,并由此引发新的问题——隐私风险和算法歧视风险.需要从技术层面和法律层面联合对个人信息进行保障,并重视人本身在科技运用中的价值,使人工智能更好地发挥其社会效能.  相似文献   

8.
随着我国大力推动"人工智能+"建设,大数据收集及智能化信息处理在法庭裁判中的运用也逐步发展.智能裁判需仰赖大量数据采集及使用,其中包含了案件中当事人的个人信息数据采集.人工智能在后台数据进行学习、分析的过程,不可避免地涉及对个人信息的侵犯,并由此引发新的问题——隐私风险和算法歧视风险.需要从技术层面和法律层面联合对个人信息进行保障,并重视人本身在科技运用中的价值,使人工智能更好地发挥其社会效能.  相似文献   

9.
ChatGPT是搜索模式的一次颠覆性变革,依托“自然语言处理(NLP)”与“搜索引擎”两大底层技术,GPT模型为法律咨询、类案检索、法律文书撰写的智能化发展创造了广阔空间。同时GPT模型也面临着伦理性风险、准确性风险、法律责任承担风险等方面的质疑。将新一代人工智能技术应用于法律领域,需要通过完善规则体系建设、强化法律专业监管、加强GPT模型的法律专业训练等方法来规范其使用,推动我国新一代法律人工智能的发展。  相似文献   

10.
人工智能技术给人类生活带来诸多便利的同时,也蕴含巨大风险。从实践层面观察,人工智能技术的研发、应用以及发展给法律带来了巨大挑战,具体反映在个人信息保护、算法规制、人工智能作品的知识产权保护、人工智能监管及其引发的责任分配等方面;从理论推演分析,由人工智能引发的法律问题包括法律原则、主体制度、权利制度以及责任制度四方面。为应对人工智能产生的法律问题,各国纷纷加快了立法、修法进程,并在算法自动化决策、自动驾驶汽车、生物识别信息技术、深度伪造技术及数据安全与隐私保护等领域取得了积极成果。尽管如此,在迅猛发展的人工智能技术及其应用面前,相关立法仍然存在滞后性,需要从理念、原则与措施三个层面积极寻求应对方略。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号