首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
美国OpenAI公司开发的新一代人工智能语言模型ChatGPT标志着通用人工智能时代的到来,将对人类社会发展产生巨大影响。作为AIGC(人工智能生成内容)技术的典型代表,它具有拟人化、强交互性、全感官3个主要特征。ChatGPT的出现可能会掀起AI的技术革命,推动人类生活生产方式创新,促进新一轮科技革命和产业变革。与此同时,也会引发数据隐私泄露、社会失业、行业垄断、算法偏见等社会风险。对ChatGPT的社会风险治理,在伦理方面,应当坚持以人为本、培育公民的数字素养和建立伦理审查机构,促进应用的合理化;在法律规制上,应通过立法、权力监督、制度保障等手段,促进ChatGPT的应用合法化;在技术上,应将法律规制、相关伦理等价值观念转化为算法,以算法来规制算法。  相似文献   

2.
第四次工业革命以人工智能为主要发展动力,作为新工具、新技术的人工智能技术优化了政府公共行政效率,并潜移默化地改善了现有生活方式,提升了人民群众的获得感、幸福感、安全感。人工智能由"主体"人创造,人对技术的发现遵循着自然律,但是日益进步的技术导致人主体理性膨胀,出现了现代性困境,人对技术依赖度越强,越受技术奴役,形成"人与机器的二元对立关系"。在国家大力发展人工智能的背景下,人类应理性使用新工具,运用哲学的思维规范AI伦理、拥有AI思维。  相似文献   

3.
大数据、人工智能、算法推荐技术等信息技术的快速迭代,推动了传统社会的数字化转型,传统新闻业同样在开展数字化转型升级。在此背景下,随着新闻信息过载的不断加剧,由大数据衍生出的算法推荐新闻迅速崛起,算法信任、数据优势与新闻媒介的数字化客观上为算法推荐新闻的应用和发展奠定了基础。毋庸置疑,算法推荐新闻对于实现新闻准确分发、增强新闻受众黏性具有重要意义,智慧化、瞬时性的算法推荐新闻具有精准、高效、个性化优势,但同时算法作为一种复杂性、不确定性技术,带来了多层面、多环节、多领域的风险挑战和制度掣肘,算法推荐新闻同样引发了"算法黑箱" "算法偏差" "技术霸权""责任缺口"与"信息泄露"等多种伦理风险。当前,学界对于算法推荐技术本身是否真的成熟,以及算法推荐新闻可能引发的伦理危机研判明显不足。对此,从技术不确定性理论所内嵌的技术本身不确定性、技术认知不确定性与技术制度不确定性三个向度,可以为算法推荐新闻的伦理风险提供适当的分析框架,在此基础上厘清算法推荐新闻伦理风险发生的根源,可将其归纳为技术本身不确定性向度的数学洗脑与主体性缺失、技术认知不确定性向度的能力不足与底线失守以及技术制度不确定性向度的法律规范与伦理体系的不完善。具言之,算法推荐新闻作为一种新兴技术,已有伦理形态与法律规范逐渐无法有效规制其伦理风险,亟需建构专业化、制度化的算法推荐新闻伦理风险规制体系。算法推荐新闻伦理风险的法律规制应当奉行何种原则是规制路径建构的前提性、方向性议题,分析认为技术不确定性下算法推荐新闻伦理风险的法律规制需坚持新闻透明原则、价值中立原则和德法共治原则。当然,随着算法推荐技术、云计算等新兴技术的不断进化,新闻透明原则亦需与时俱进,对算法推荐新闻的新兴伦理风险予以有效规制,新闻从业者、算法推荐新闻分发平台等要坚持以价值中立原则为指导,强化算法推荐新闻中"人"的主体性地位,并在德法共治原则指导下明确算法推荐新闻伦理风险的法律规制范式。从以上原则出发,算法推荐新闻伦理风险的法律规制,应当针对不同类型的伦理风险进行有针对性的制度建构,即在技术本身不确定性向度加强算法公开与算法解释权、数据权利等保障,在技术认知不确定性向度推动新闻从业者计算思维的培养及伦理约束,在技术制度不确定性向度采取伦理结构化与法律问责等规制对策。  相似文献   

4.
算法运用导致的算法歧视正危害着民事主体的合法权益。不同国家(地区)分别从事前预防或事后问责两个维度展开对算法歧视的治理;目前我国在事前主要通过公法进行数据规制与个人赋权,同时在事后采用行政问责来应对算法歧视。在事前预防模式下存在新型权利行使障碍、责任主体不明确等问题,事后问责机制则忽略了民事主体的私法救济路径,存在效率低下等弊端。鉴此,需要明确算法歧视作出方的民事义务,在行政问责机制基础上完善以私法救济为核心的侵权责任法律体系,丰富事后问责体系,与事前规制共同治理算法歧视。在路径上可通过厘清算法歧视归因、公法规制困境以及侵权责任救济的适配性,将公法中对算法歧视治理的理念纳入侵权救济体系,对算法歧视侵权的归责原则、过错认定、免责事由等内容进行丰富与扩展,达到国家干预与调控算法歧视相济的正当性目的与法律效果。  相似文献   

5.
人工智能产品相较于普通产品最大区别在于其自主性,一方面体现在人工智能产品运作方式更具复杂性,它们能够自主决策与自主行为,处于"感知-分析-行动"模式,其运行过程为"黑箱"操作,难以为人类所探究;另一方面体现在产品侵权的致害主体更具多元性,除了作为传统产品侵权主体的生产者与销售者外,还包括研发者,甚至人工智能产品本身。基于此,当前产品缺陷的司法认定存在困境。一是现有判断标准在人工智能产品视域下缺乏适应性,由于《产品质量法》中"不合理标准"的抽象性、复杂性与《人工智能标准化白皮书(2018版)》中"技术标准"的应急性、不确定性,现有标准的使用难以解决人工智能产品缺陷的司法认定问题;二是我国现有立法未将产品缺陷进行类型化认定,而仅对产品进行笼统的缺陷判断,在人工智能这一多元责任主体与多样未知风险的领域,该种产品缺陷的司法认定模式在适用时更为捉襟见肘。为将人工智能产品缺陷的司法实践规范化,在产品责任框架下应将缺陷划分为设计缺陷、制造缺陷、警示缺陷及跟踪观察缺陷,这不仅有利于契合人工智能产品的归责原则,也与产品侵权责任各要素相对应。人工智能产品缺陷司法认定标准应与有关主体应履行的义务相结合。具体而言,人工智能产品设计缺陷的责任主体为设计研发者,其应当履行安全保障、性能平衡、全面测试等义务,该缺陷采用"风险-效用"的司法认定规则。制造缺陷的责任主体为制造者,其应当履行配合设计预期效果与按照设计方案进行制造的义务,该缺陷采用"对预期设计偏离"的司法认定标准。警示缺陷的责任主体为制造者、销售者,警示义务应当达到警示内容的充分性、警示时间的更迭性与警示语言的简明醒目性等要求,该缺陷采用"合理充分"的司法认定标准。跟踪观察缺陷的责任主体为设计研发者、制造者与销售者,跟踪观察不仅要求畅通产品的反馈渠道,也要积极定期对产品进行监察,更要及时对问题产品作出反应,该缺陷采用"个案认定,综合判断"的司法认定原则。  相似文献   

6.
智能技术及其应用的迅猛发展,对以人类的主体性地位为根本存立前提的当代法律体系形成强烈冲击,智能主体的刑法地位成为关键问题。目前,消极论和积极论处于相持阶段,加速了现行刑法理论体系的知识变革进程。"人造物"等不同程度的消极论,以现行刑事法律制度难以直接接纳及其所裹挟的潜在的刑事风险等为由,虽有其可取之处,但其逻辑机理正是过度释放人类中心主义的预设效应。完全按照人类中心的立场进行审视会得出无法调和的结论,也显示了智能技术应用的工具属性被深度放大之倾向,但上述消极事由不尽然合乎规制人工智能犯罪的现实需要,也与法律主体制度的演进规律不符,甚至会压制刑法主体的自主进化。"电子人"等不同形式的积极论,率先走出绝对的人类中心主义及其观念束缚,以发展的眼光看待人工智能与刑法的互动及其动向,更加契合了人工智能犯罪的发展动态。而意志自由、刑事责任能力、道德伦理规则、智能程度与智能主体类型、刑事责任的客观存在、算法的特殊地位与意义等既有的知识框架与新的要素累积,意味着人工智能可以在发展的刑法体系中实现衔接与契合。经由不真正完全背离刑法原理的认识扭转,亦供给了学理层面的支撑。而且,遵循功利主义的理路,以及在一系列有关人工智能主体方面的先行立法之做法的引领下,应分阶段、类型化、动态化厘定智能主体的刑法地位,使其在法律拟制的路径上可以继续延续和拓展。在人工智能的刑法主体地位得以澄清下,有必要接受智能主体可以享有一定的新兴权利之现实情状,但应具体地确证权利类型等具体内容。在现阶段的技术代际之策动下,智能主体的权利内容与范围目前是限制性的,无法采取与"人"对等的保护策略,保护方式也应有别。这种"降维"保护有其现实合理性,通过积极制度设计与规则配置,能够最大限度策应人工智能主体的刑法地位之更迭态势。  相似文献   

7.
人工智能时代的个人数据和信息支撑着人工智能系统的运行,个人信息在当下的重要性和具有的价值已不言而喻。个人信息的识别要素包括"可识别性"和"可固定性",人工智能领域的个人信息在此基础上呈现出不同形式,包括被"智能物"收集的个人信息和被智能系统分析得出的个人信息。而人工智能在不同情形中侵犯个人信息,其侵权主体在现行法律的规定下难以判定。"智造时代",人工智能严重威胁着个人信息的安全。因此,在人工智能时代到来的同时,更应当对人工智能领域中的个人信息安全问题提供有效的法律保障。  相似文献   

8.
人工智能著作权主体适格性分析是研究人工智能创作物权属、定性以及行为责任承担的前提,关涉著作权法律制度逻辑的自恰性。以认识论为视角,运用文本、比较和逻辑分析方法分析后可知,人工智能主体适格性与其特定发展阶段是相适应的。弱人工智能与强人工智能阶段,人工智能扮演"工具"角色,不可作为著作权主体,其行为视为自然人的机能器官的延伸,行为产生侵权责任由制造者或使用者承担。类人人工智能和超级人工智能阶段,人工智能具备自主意识,可作为创作者层面上的作者,具备著作权主体资格,在涉及著作权侵权时,如若侵权行为属于独立行为,则应独立承担著作权侵权责任,具体损害赔偿责任可采取著作权侵权保险方式予以承担;如若侵权行为属于制造者或使用者控制或者指示下的行为,则应按照"雇主责任"方式处理,由制造者或使用者替代承担著作权侵权责任。  相似文献   

9.
赋予人工智能拟制法律人格是界清人工智能产物的财产权利归属和人工智能侵权责任的必要前提。我国民法总则和公司法等法律规范只确立了自然人、法人和非法人组织三种主体的法律人格,对人工智能并无规定。为了适应人工智能技术的发展,解决涉及人工智能产物的权利归属纠纷和人工智能侵权纠纷,需要从人类权利优先的立场出发,运用法律拟制的立法技术赋予人工智能独立的法律人格;借鉴法人制度建立人工智能登记备案制,完善人工智能的法律责任制度。这一方面有利于促进人工智能更好地服务于人类,另一方有利于确保其不异化为“超人类”的主体。  相似文献   

10.
人工智能对人类智能的模拟在逻辑上包含对人类道德的模拟。人工智能的规范者指引应从"人为自己立法"的原理中产生。对于智能体的伦理框架而言,"让算法遵循‘善法’"是一条自明性原则,可称为"算法从善"原则。该原则的第一个方面的伦理尺度与智能主体模式的革命性构建有关,其实质是在拟主体性维度通过道德算法进行规范性指引,且亟需新的责任伦理框架提供支持。由于道德算法是嵌入在算法体系中有待完善的算法程式,算法从善原则就涉及与之相关的第二个方面的伦理尺度。它与人类主体模式下的道德建构有关,包括常见的人类主体模式以及"人类主体与人工智能主体相处的主体间模式"。对这两种道德形态而言,算法只有体现或遵循人类主体模式下的善法,才能以有责任感的方式推进道德算法的进化及其在机器中的嵌入。人类在算法的控制权上保持审慎,是避免伤害的明智选择,也是在技术发展面前维护人类尊严的底线。  相似文献   

11.
自2022年起,以ChatGPT和GPT-4为代表的生成式人工智能迅速发展,人工智能进入了“大模型”时代。作为一项具有重大意义的技术进步,对人类社会的发展具有重要意义;同时,ChatGPT类生成式人工智能作为人的创造物,也引发了人的主体性的丧失、数据隐私泄露与算法偏见、责任主体冲击与道德地位的模糊等伦理问题,会威胁到人类的幸福生活。以ChatGPT类生成式人工智能引发的伦理问题为起点、以挖掘其产生的原因为依据,提出完善生成式人工智能伦理治理的体制和机制、优化生成式人工智能技术设计和培育正确的主体意识等规制路径。  相似文献   

12.
聚焦社会治理领域的算法应用伦理问题,以欧美社会治理中的智能算法应用为例,通过案例分析和归纳演绎相结合的方法,阐释智能算法嵌入社会治理面临的应用伦理风险,即算法“黑箱”与社会信任危机、算法歧视与社会不平等、隐私泄露与社会监视。基于此,从技术、伦理准则与法律、媒体三个层面提出欧美社会治理算法应用伦理的规制路径:一是优化算法技术,提升算法准确性和安全性;二是完善算法伦理准则和法律,构建智能算法善治体系;三是加强算法伦理的媒体监督,构建多元主体协商共治路径。本研究能够为我国人工智能伦理治理提供重要的启示与借鉴作用。  相似文献   

13.
随着算力、数据和算法的不断改进,人工智能的智能性不断增强。当人类的参与和控制逐渐减弱,开始辅助机器创作或者完全由机器自主创作时,经由人的意志决定性的解释方法将难以在既有法律框架下完成权益归属。从维护著作权法在“激励自然人创作”方面的价值取向和基本概念体系,促进人工智能产业健康发展及保护自然人创作者的合法权益角度分析,人工智能生成内容宜采用非赋权模式,以作为知识公有领域的组成部分。  相似文献   

14.
数字时代人工智能逐步深入人类生活,在改造和重塑各行业、为社会发展赋能的同时,也引发了不容小觑的法律和伦理风险。尤其是在Chat GPT等生成式人工智能面世后,人工智能立法规制的必要性大大增加。欧盟和美国率先针对人工智能发布立法规制,这为我国人工智能综合立法中基础法律问题的解决提供了先行经验,如解决人工智能法律主体地位和知识产权争议等相关问题。除此之外,分析美欧人工智能相关立法也为中国应对AI风险等级分类管理、全过程体制监管以及建立人工智能相关治理机构等具体程序性问题提供了参考。目前,我国针对生成式人工智能出台了《生成式人工智能服务管理暂行办法》,深圳、上海等地也相继出台了地方性立法,但还未形成国家层面的人工智能综合立法。综合立法可以解决我国人工智能法律规范数量少、层级低、缺乏顶层设计等问题,更好地进行人工智能管理和促进其发展。此外,树立良性道德伦理规范有利于为后续立法进程打好基础,加快数据、算法等基础立法进程也有助于促进人工智能的综合立法进程。  相似文献   

15.
算法赋予传统共谋以新表现形式,理解算法促进共谋的机理是对其进行规制的前提。算法改变了传统意思联络方式,使共谋更隐蔽且更易达成;算法能迅速识别背离共谋的行为并施以惩戒,提高了共谋的稳定性;算法弱化了市场集中度的限制,从而拓展了共谋发生场域。算法共谋的规制困境包括算法工具理性逐渐超越甚至取代人类理性,致使垄断协议认定困难;算法决策自主性的增强模糊了责任分配;算法成为经营者豁免共谋责任的理由,导致事后追责威慑失灵。但现有反垄断法律对算法共谋仍具有可规制性。应引入意识意志框架探寻经营者真意,除知情同意外,知情并推定同意及推定知情并推定同意也属于意思联络表现形式。同时拓展责任主体范围,设计者存在过错时可穿透“技术中立”屏障,追究其法律责任;使用者未积极采取预防措施致使共谋风险现实化应受法律谴责。执法机构应从源头上对算法共谋进行合规治理,提高反垄断法律的事前威慑。  相似文献   

16.
人工智能技术的飞速发展带来了全新自主发明模式,也引发了一系列的伦理挑战,既涉及本身作为人类创造物的人工智能在自主发明过程中扮演发明主体角色的伦理争议,也涵盖了人工智能脱离人类干预与控制自主生成发明客体过程中由算法失灵、数据失准等情况所造成的技术伦理风险。因此,为有效应对人工智能自主发明模式的伦理挑战,有必要从人工智能的本质特征与运转机制入手厘清人工智能自主发明的伦理定位,并遵循以人为本基本伦理价值理念下算法向善与数据向善的伦理准则,通过人工智能工具性虚拟人格的创设和人工智能算法监测与数据评定指标体系的确立,建构人工智能自主发明模式的治理体系与框架。  相似文献   

17.
以ChatGPT为代表的生成式人工智能具备在自动学习的基础上生成新内容的能力,在引发生产力革命的同时也形成了法律规制难题。ChatGPT会造成隐私侵权、数据安全风险以及知识产权确权与保护困境等难题,其主要原因在于数据中心主义、算法高度信任以及规范滞后于技术等。治理ChatGPT应当秉持捍卫人的尊严原则和倡导有限信任原则,坚持以公共利益为导向确定权属分配,并构建以开发设计者为主体的合规方案,发挥科技伦理引领与法律规范的双重作用。具体可采取对数据采集的合规控制、以技术治理技术、优化数据管理方法等措施。为了防范ChatGPT过度模糊人与机器之间的信任边界,还应根据用户的专业性程度配置不同的披露义务。  相似文献   

18.
规制与规范有着一定的区别。规范更强调行为的原则,而规制则是规范的具体化,它能够在原则与行为之间建起一个通道,使规范能够被付诸实践。伦理规制就是伦理规范的具体化。在现代应用伦理领域,伦理规范的规制化使伦理规制与法律规制在形式上开始趋同。然而伦理规制与法律规制是不同的。伦理规制最突出的特征是主要依靠和平手段而非强制措施。通过区分这两种规制,可以发现联合国通过伦理规制发挥作用的趋向。  相似文献   

19.
人工智能不同于人工智能体.从功利主义角度看,人工智能体的行为是先行程序设定的继续推导,其不具有辨认和控制能力,因而不具备自由意志.同时强人工智能体缺乏法规范遵从能力的意志,对其无法进行刑事苛责和施加刑罚,因此不能作为刑事责任主体;从人本主义视角看,强人工智能体同法人在意志能力、财产权利和刑罚配备上均有很大区别,因此无法类比法人将强人工智能体拟制为刑事主体.理应将人工智能体看作人类社会治理的辅助工具,从而有效规制人工智能体带来的刑事风险,解决人工智能犯罪的刑事归责问题.  相似文献   

20.
无意思联络数人环境侵权是指无意思联络的数人排污行为或排污行为与其他行为结合导致相同受害人同一不可分割污染损害。无意思联络数人环境侵权按其主体关联程度、行为结合的紧密程度及各行为与结果的紧密程度可分为主体强关联多因一果型、行为紧密结合一因一果型、行为半紧密结合多因一果型和行为相对松散全责性多因一果型四种类型。主体强关联多因一果型、行为紧密结合一因一果型和行为相对松散全责性多因一果型的无意思联络数人环境侵权,各加害人应当承担连带责任,但受害人有重大过失的除外;半紧密结合多因一果型无意思联络数人环境侵权,各加害人应根据过错的大小和造成损害后果的原因力比例等承担按份责任。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号