首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 487 毫秒
1.
人脸识别系统扮演着越来越重要的角色,现在社会上的各种安全问题使得基于密码、证卡等手段的传统身份鉴别技术已逐渐不能适应现代社会的需求,以人脸识别等为代表的生物特征识别技术,利用的是人类自身携带的人脸等特征进行身份鉴别,难以伪造,也不会丢失,因而为公共安全、金融等各领域的身份鉴别提供了更加安全可靠的技术手段。人脸识别系统广泛应用在机场、海关、银行等需要验证人员身份的场合,市场前景日益看好。  相似文献   

2.
近年来,人脸识别技术不断渗透到社会生活的方方面面,其在世界范围内所引发的法律问题和伦理道德问题愈发引起人们的重视。究其原因,是法律规制远滞后于技术发展。本文概述了在世界各地由人脸识别引发的社会问题,进一步突出立法规制人脸识别技术应用的紧迫性。本文通过基于人脸特征的分析,阐述了人脸识别信息的敏感性,同时表明其泄漏对个人可造成的危害程度;从比较法角度,分析研究了我国、美国及加拿大对人脸识别技术现行的法律规制及立法趋势,以期从法律规制角度,因地制宜解决现存问题,并对未来人脸识别技术的合法应用提供参考。  相似文献   

3.
本文在综述人脸认知领域研究成果的基础上,给出两点有益于人脸识别技术研究和发展的意见,并从认知角度分析了人脸识别技术的发展问题,提出当前人脸识别技术的研究宜以人机交互为突破口的观点。  相似文献   

4.
针对CCD图或红外热像图人脸识别方法的局限性,本文从多传感器图像融合技术出发。采用基于CCD图与红外热像图决策级融合的人脸识别方法,并建立了一个800幅的人脸图像库,进行人脸识别实验。实验表明:基于决策融合的人脸识别方法比单纯的CCD图或红外热像图人脸识别方法,具有更高的识别率。  相似文献   

5.
在讨论人脸识别算法的基础上,提出了基于支持向量机算法的人脸识别技术,进而分析了其原理,确定了多项式的核,并利用人脸数据对多项式核的SVM进行训练,根据训练结果进行识别实验,结果表明:SVM与传统方法比较,对人脸具有较高的识别率。  相似文献   

6.
为了降低人脸识别对环境条件的要求,克服光照对人脸识别的影响,通过分析人脸图像的幅频特性和相频特性,提出了频域光照归一化的人脸识别,对任何光照条件下采集的图像经过归一化后,光照与训练库中完全相同,同时保留了人脸的可区分性。人脸之间差异的信息量一般较少,运用最小非零特征向量作为人脸特征。实验仿真表明,与传统方法相比,频域光照归一化人脸识别方法对光照变化具有鲁棒性。  相似文献   

7.
人类社会漫长的政治发展进程中充满了权力生产与权力转移现象。随着人工智能时代的到来,作为人工智能技术关键成分的数据与算法,逐渐成为权力生产的新要素,谁掌握更充分的数据和更先进的算法,谁就可能拥有更多或更大的权力,技术的赋权效应得以彰显。技术赋权可能催生新权力主体,权力转移现象可能再度发生。人工智能企业既因为在数据与算法方面拥有独特的技术优势而内生出部分权力,也因为为国家治理提供技术辅助而另外获得部分权力,可能成为与国家相媲美的新权力中心。人工智能企业的权力增长,可能促使国家治理权力结构从传统的单中心结构变为多中心结构;与此同时,由于人工智能时代的国家治理越来越倚重人工智能企业提供算法支持,而算法可能出现失误,加之“算法黑箱”和卸责链条的存在,因此人工智能企业的权力增长还可能消解权责同体的基本政治规则,引发权责分离现象或者说国家治理问责难题。新权力中心在多大概率上会出现,既取决于国家与人工智能企业的技术实力对比,也取决于国家治理对人工智能企业的技术依赖程度。应对人工智能时代的权责分离现象或者说问责难题,除了促使人工智能企业高度自律,还需要国家匹配备案与试点制、随机抽查检验制、服务积分制等制...  相似文献   

8.
有效应对人脸识别等新兴技术所诱发的身份认证信息安全风险,是人脸信息犯罪刑事治理的根本目的。司法实践中,涉人脸信息案件的认定仍存在入罪标准混乱、定罪量刑宽严不一致等困境。人脸识别信息本身具有人身反映性、独特性、不可改变性等特殊性质,目前技术无法实现对其的周密保护。侵犯人脸识别信息犯罪行为的严重化趋势,以及对技术中立性的突破,是理论与实践中主张进行刑事治理的重要缘由。针对涉人脸识别信息不法行为的评价,首先应当考虑行为是否满足前置性法律法规的违法性评价前提,之后判断行为是否达到了侵犯公民个人信息罪的入罪标准,为涉人脸信息案件的刑事治理提供体系性的评价路径。  相似文献   

9.
计算机模式识别是视觉领域中的研究热点之一,是指用生物特征比如人脸信息来识别和辨认某个人类个体.提出了一种基于RBF神经网络的人脸识别方法:采用主成分分析技术把样本维数降低,同时利用模糊聚类算法进行粗分,然后用ORL标准人脸数据库进行实验.实验结果表明,该方法大幅度提高了人脸识别的效果.  相似文献   

10.
在信息科技时代,人脸识别技术在为人们的生产生活提供极大便利的同时,也带来了识别错位、歧视、破坏知情同意规则等风险以及侵犯隐私的可能。为了从法律上规范人脸识别技术应用,美国采取了分散立法规制模式,根据人脸识别技术应用主体的不同建立差异化的规制路径,而欧盟采取的是统一严格限制模式。当前,我国法律制度对人脸识别技术应用的规制存在多处空白。为了创设全方位、立体化的面部特征信息保护机制,我国在鼓励新兴科技发展的同时,需要立足于现有规范体系,通过确立信息准确处理原则、完善知情同意规则、强化侵害隐私救济措施、完善信息处理相关各方责任等措施,构建和完善多方主体参与的治理机制。  相似文献   

11.
人工智能体道德的出现引发了人们对传统伦理体制的思考。随着技术不断革新,人工智能体的内涵也不断丰富,它的自由性和独立性日趋进步。人工智能体的安全性凸显,在设计和应用人工智能体的过程中,传统的研发进路已然落后。人们对人工智能体有无道德以及道德去向提出了质疑。人工智能体走向人机一体化可能更有助于人工智能体道德的确立,人机之间的互动与交流对于人工智能体道德所引发的伦理困境而言具有进步意义。人机之间的和谐相处可能是未来人工智能体道德迈出困境的一条路径。  相似文献   

12.
随着第四次工业革命浪潮的到来,云计算、深度学习、大数据等技术不断普及,人工智能已嵌入人们生活的方方面面,不仅影响科技领域的发展,同时也给政治、经济、社会、道德伦理等领域带来了风险与挑战。由此,应从社会、政府及人类自身三个层面积极探索应对策略,以期形成多方共同参与、相互联动的有效合力机制,实现对人工智能的合理控制,更好地应对人工智能可能带来的社会风险。探索人工智能未来的发展方向,推进“技术”与“社会”的良性互动。  相似文献   

13.
ChatGPT这项技术具有双重性质:既是一个用于搜索和研究的工具,也是一个用于愉快对话的玩具。人们通常高估了ChatGPT作为搜索工具的实用性,也可能低估了它与人进行趣味交谈和快乐互动的价值。可以把ChatGPT重新构想和开发成为一个对话和交谈领域的新成员,将对话和交谈互动的范围扩展到人类之外的AI聊天机器人。这种扩展可以激发新的人文反思议题,如:善意、理解、教养、交往理性、欣赏“他者”,以及对人工智能的恐惧。此外,这种转变的视角也能使人们重新审视与互联网和人工智能相关的长期问题,例如:“人类”的意义、人类与技术之间的关系、人工智能可能带来的威胁、失去人类价值观的风险、工作和娱乐的伦理道德以及对话和互动的伦理道德,等等。作为一种人工智能语言模型,ChatGPT具有人文启蒙的潜力,包括:促进知识获取、增进互动、鼓励批判性思维、推动逻辑和理性对话以及传播准确信息的潜力。最终,ChatGPT作为工具和玩具的独特能力可以帮助人们更好地理解自己和技术的关系,同时应对日益数字化的世界的复杂性。  相似文献   

14.
针对人脸图像,双树复小波变换具有良好的方向选择性、近似平移不变性,并且能够进行局部多尺度描述.本文利用双树复小波变换的优点,提出了一种基于双树复小波变换人脸特征表示的人脸识别方法.该方法首先利用DT-CWT捕获人脸图像不同尺度和方向的局部特征并形成人脸特征表示,然后结合最大散度差鉴别分析提取有助于分类的鉴别特征.实验结果表明该方法对于人脸分类是有效和鲁棒的.  相似文献   

15.
人脸识别技术以公共安全和国家安全为价值使命而得到发展和应用,但人脸识别技术的滥用和可靠性问题也引发了隐私泄露、识别错误、安全风险和歧视等伦理风险。基于技术伦理学的非力量伦理和责任伦理,最小必要原则、知情同意原则、不伤害原则和公正原则构成了防范和规制人脸识别技术伦理风险的伦理原则。  相似文献   

16.
人脸识别技术通过对人脸图像进行特征提取、分类识别,从而达到身份鉴别的目的,其具有识别的自动性、自然性和风险防控的复杂性等特征。人脸识别技术应用场景众多,根据应用目的的不同,可以将其划分为基于公益目的的应用和基于私益目的的应用。人脸识别技术的应用具有侵犯个人隐私、贬损个人人格尊严、侵害个人财产权益等风险,法律规制无力是这些风险产生的主要原因。 «个人信息保护法»的制定是治理人脸识别技术应用的良好契机,未来可以以«个人信息保护法»为基础,渐次推导出适用人脸识别技术的规范,明确人脸识别技术应用的法律原则以及使用者的义务,并区分不同应用场景下法律规制的重心。  相似文献   

17.
当前人类社会正在展开以人工智能技术为核心标志的第四次工业革命,人工智能在赋能人类达致美好生活方面充满光明的前景,但是也潜藏不少可能抵消其赋能功效的风险。不同于早期人们偏重于对人工智能的乐观想象,近年来人工智能的风险话语逐渐显现并扩散乃至走向失序。类型化是解决人工智能风险话语失序问题的有效尝试。基于主体维度和时限维度可以将人工智能风险划分为四大类型:国家主体在短期时限内面临的失业风险、国家主体在长期时限内面临的消权风险、社会主体在短期时限内面临的隐私风险、社会主体在长期时限内面临的意义风险。  相似文献   

18.
机器在马克思对于资本主义的分析中处于核心地位,而人工智能(AI)技术则代表着一种全新的机器形态.《非人的力量》一书从马克思主义的视角,讨论了AI对社会已经产生的、可观察的冲击,分析了AI的发展趋势及其可能产生的影响.作者强调,人工智能绝非仅仅是技术内在发展规律的结果,它同时也是资本主义体制下生产剩余价值和商品化这样一种社会逻辑的产物.基于此,本书着重探讨了人工智能作为一般性生产条件的未来图景及其可能性,工人阶级所受到的冲击及其新的斗争,以及人工通用智能技术的出现将如何挑战马克思的劳动价值理论.本书为STS路径下关于技术的社会研究提供了许多有益的启发,也为我们思考马克思主义与STS之间的对话提供了一个契机.  相似文献   

19.
人工智能技术在计算机网络教育中的应用   总被引:3,自引:0,他引:3  
随着科技的发展,人们的教育观念的改变及终身学习体系的建立,尤其是计算机网络的普及,计算机网络教育作为一种全新的教育模式正步入高速发展的新阶段。然而,在实践中遇到的许多困惑与难点给人们的学习带来了很大障碍。人工智能技术在计算机网络教育中的应用,给人们带来了希望。本文介绍了人工智能的理论和技术,及其AI技术在计算机网络教育中的具体应用。  相似文献   

20.
人工智能可能给社会带来法律所不能允许的危害风险.理性地审视人工智能带来的风险,从利益驱动到技术发展是一个在场域与频度逐步减少的风险.经过技术的检验和实验室的过滤,人工智能的危害风险并非不可控制.人工智能的危害风险可以体系化地应对,不会形成风险处置,不能导致风险无限扩张.从技术治理、道德约束、强制登记与保险制度以及立法监管等可以系统地化解和有效地处置人工智能的危害风险.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号