首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
在金融强国目标与人工智能技术的驱动下,数字金融平台快速兴起并将算法技术深度应用于传统金融行业。数字金融平台是数字金融与平台经济的融合产物,其通过输出技术或提供场景与金融机构开展合作活动,具有天然的技术偏好与金融属性,有效促进金融产品与服务的数字化与普惠性。然而,任何事物都具有双面性,不是非此即彼的结果,而是利弊同在的产物。通过采用案例分析方法发现,算法技术深度应用于数字金融平台总是存在着一定的误差或测不准(算法黑箱),具有不同于传统企业的太大不能倒、太多不能倒、太强不能倒的系统性风险特征,并在三方系统(平台端、用户端与监管端)形成了算法黑箱风险:算法黑箱具有平台迷雾风险,阻碍平台端的稳定发展;算法黑箱具有技术遮蔽风险,加剧用户端的风险缺陷;算法黑箱具有监管真空风险,制约监管端的公权治理。因此,为实现金融强国的目标,防范化解数字金融平台算法黑箱的系统性风险,基于三方控制理论与国际算法黑箱风险的系统治理经验,我国应当从三方系统(平台端、用户端、监管端)构建数字金融平台算法黑箱的系统治理机制。  相似文献   

2.
算法治理是社会治理主体综合运用算法技术,以精准满足治理对象的需求为目标,对社会治理中的议题进行精准识别、精准判断、精准制策的社会治理过程。作为一种新型的社会治理方式,算法治理具有强大的功能,可以精准识别治理议题、精准预判社会矛盾和精准满足治理对象的多元化需求。因此,算法治理极大提升了社会治理体系和治理能力现代化的水平。然而,由于算法技术本身的不成熟和在社会治理过程中的误用,产生了诸多社会伦理问题,集中体现为4个方面:算法治理过程的不透明酿成社会信任危机、算法治理行为的不确定引发社会正义问题、算法治理方案的不精准诱发社会公平问题、算法治理准则的不恰当造成社会价值问题。在实践中,要从算法治理产生社会伦理问题的深层原因着手,有针对性地对算法技术进行驯服,从观念、文化、制度等多个层面着手迎接算法时代的到来,助推算法治理朝着人类美好生活的目标迈进。  相似文献   

3.
把“物理实体、连接、数据、虚拟模型、服务”作为数字孪生模型的五个维度,与“输入、处理、输出”算法运作的三层过程结构相结合,提出一个数字孪生算法运作的“五维三构”模型。这一模型有助于理清数字孪生算法黑箱的生成机制并探寻其有效治理的路径。数字孪生机器学习算法的复杂性、数字孪生数据交互融合的动态性、数字孪生技术内嵌价值非中立性等因素,是造成其算法黑箱的内外部原因。数字孪生算法黑箱本质上是由于技术进步所带来的不确定性风险,人们对数字孪生算法决策的担忧也正是源于这种不确定风险的存在。因此,采取以算法解释权的运用应对数字孪生机器学习算法的复杂性、以交流与协作的方式应对数字孪生数据交互融合的动态性、以伦理与法律的规制应对数字孪生技术内嵌价值非中立性的治理路径,以有效减少数字孪生算法黑箱带来的不确定性风险,增强人们对数字孪生算法决策的可信任度。  相似文献   

4.
算法技术在数字孪生时代背景下正面临着算法偏见、算法归责难、人类主体的自主性削弱、隐私泄露和数据滥用、数字鸿沟、人与算法的矛盾等一系列算法风险挑战。算法的复杂性、人的认知限制、算法设计者的价值偏差和公众的算法素养是产生算法风险的主要原因。为保障算法技术的良性运行和创新发展,需要进行伦理治理:在秉持尊重人类主体、安全可靠、以人为本、公开透明、公正五项基本原则的基础上进行算法技术的伦理设计,创新制定伦理准则,努力引入责任伦理,集聚合力协同共治,提升公众算法素养。  相似文献   

5.
代码所形成的架构在网络空间中起到了重要的规制作用,在算法推荐场景中,架构包括三个主要部分,即可以自我执行规制的环境架构、以用户画像表达的个人数字身份架构,以及形成推荐内容的推荐算法架构。在架构规制的模式下,出现了一系列风险,包括由于个人参与不足、个人自决受限导致的自主性削弱的风险,由于传统隐私保护方式滞后导致的隐私权风险,以及表现为信息不平等与结构性不平等的平等权风险。对此可以采取设计架构、完善法律、调整社群规范的路径进行综合性治理,通过利用隐私增强的架构设计保护隐私权、配置用户画像权利义务保障自主性,以及强化网络平台的伦理约束促进算法向善,从而治理算法推荐所产生的风险。  相似文献   

6.
7.
人工智能(AI)在医疗领域具有重大应用价值,不过,黑箱属性是其走向广泛应用的最大阻碍.通过法律制度的合理设计可以有效应对医疗AI的黑箱难题.转变规制思路,重点运用临床试验、真实世界研究等其他方法管控医疗AI之风险.从对算法解释的规制转向对算法透明和可追溯的规制,从对算法本身的规制转向对算法之外的其他环节和要素的规制,并契合医疗AI非锁定之特性,可建立全生命周期的规制体系.同时,平衡好监管安全和技术创新之关系,防止规制过度,应适度温和上市前的监管措施,在特定情形下豁免审批或加速审批,将监管重心适当后移,为医疗AI之发展创造合理空间.  相似文献   

8.
黑箱方法与中医“藏象学说”   总被引:6,自引:0,他引:6  
祖国医学是传统的应用科学,具有朴素的系统性和辩证性的独特优势,且同控制论黑箱方法结合紧密,其中"藏象学说"理论为中医黑箱识别与控制提供了理论基础.  相似文献   

9.
10.
算法性别歧视是人工智能算法在信息采集、生成、分发等传播环节产生的与现实社会相同的对女性的差别化待遇,它是现实生活中长期存在的性别歧视观念在网络领域的延伸,给女性的数字化生存带来诸多挑战。其成因既有社会结构性偏见的智能投射,也包括政治操控与资本干预的共谋塑造以及算法黑箱量化建模的计算偏差。智能传播时代,对算法性别歧视的治理应采取多元的视角和立场,在技术、法律、伦理等层面共同约束规制、协同治理。  相似文献   

11.
算法并非意识形态无涉的价值真空地带,技术与价值的相互耦合促使算法产生出强烈的意识形态属性。在算法所座驾而形成的数字社会中,算法歧视、算法牢笼、算法黑箱导致主流意识形态的认同度、引领力和凝聚力都陷入了新的风险情境,而这些意识形态风险得以生成的内在机理表现为:大数据通过对社会建构的中介性作用诱使人们形成了数据崇拜的意识形态方式,算法权力通过对人们的数字权利的支配而形成了算法统治的监控体系,算法与大数据的深度联合实现了意识形态的智能操控,由此,算法成为意识形态风险滋生的数字温床。然而,算法的意识形态风险不应导致对算法的“卢德主义”拒斥,算法仍是赋能意识形态建设的重要利器。基于此,必须强化主流意识形态对算法的价值引领、矫正算法的技术漏洞,从而推动算法成为社会主义意识形态建设的强大助力。  相似文献   

12.
疫苗研发风险是评估疫苗研发的基本要素和伦理限度,已成为重大公共卫生事件爆发后迫切需要考虑的重要议题。人类对疫苗科学认知的有限性、疫苗技术异化的负向价值以及科技创新治理体系的局限性,是造成这些风险的重要原因。为了加强风险治理,推进疫苗研发,政府在强化疫苗国家储备战略规划、完善疫苗研发指导法规、健全疫苗监管和部际间协调机制等方面应加强制度创新,提升治理能力;科学共同体应弘扬科学精神,坚持负责任创新,以制度化咨询与对话机制,增强话语权;公众应积极参与,充分发挥非政府组织、媒体及受试志愿者对疫苗研发的支持、监督和反馈作用。  相似文献   

13.
网络食品交易与“数字利维坦”共存于虚拟网络社会中。飞速发展的信息技术和不断扩大的大数据海洋,为网络食品交易提供了巨大的发展空间,同时也暗藏着侵犯公民权利和反噬政府监管的风险,即网络食品交易的“数字利维坦”风险。在网络食品交易领域,数字信息技术在作为经济行为的控制工具时忽略了价值理性,存在以下问题:公民个人隐私受到侵犯,呈现个体镜像化;食品质量得不到保障,出现柠檬市场化;交易市场垄断当道,平台荒漠化;数字信息技术分配不均,公民与经营者因张力扩大而出现维权受阻;政府监管受数据驱动,个体化政府受到威胁。因此,政府应该完善数据治理的保障体系、明确经营者准入机制、限制网络巨头垄断、构建合作权益保护机制、革新监管治理体系,才能合理规避和治理“数字利维坦”风险,构建一个安全稳固的网络食品交易市场。  相似文献   

14.
全球信息网络和数字技术的发展,推动着当代社会生活的网络化、信息化与数字化进程。基于人们“数字化生存”的现实,互联网巨头和数字资本家积极利用监视与算法技术对人们的线上活动进行实时监控和即时分析,从而源源不断地制造出一系列数据商品,为其带来巨额利润。监视技术与算法程序的耦合构成了当代西方数字资本主义体系运作的技术逻辑,也在“透明社会”的技术可能和“黑箱社会”的发展现实之间,形成了一种内在悖论。  相似文献   

15.
聚焦社会治理领域的算法应用伦理问题,以欧美社会治理中的智能算法应用为例,通过案例分析和归纳演绎相结合的方法,阐释智能算法嵌入社会治理面临的应用伦理风险,即算法“黑箱”与社会信任危机、算法歧视与社会不平等、隐私泄露与社会监视。基于此,从技术、伦理准则与法律、媒体三个层面提出欧美社会治理算法应用伦理的规制路径:一是优化算法技术,提升算法准确性和安全性;二是完善算法伦理准则和法律,构建智能算法善治体系;三是加强算法伦理的媒体监督,构建多元主体协商共治路径。本研究能够为我国人工智能伦理治理提供重要的启示与借鉴作用。  相似文献   

16.
当前以大型互联网企业为代表的数字平台和企业影响力日益强大,成为全球算法治理机制的重要力量。企业算法合规是一种基于“算法风险”的专项合规管理,是企业为了有效防范、识别、应对可能发生的算法违规风险所建立的一整套公司治理体系。企业算法合规因具有改进算法治理模式、降低企业治理风险、提升权利保护水平、改进传统企业合规治理方式的优势,在算法治理中具有必要性。同时,中国特色企业算法合规的开展以“以人民为中心”为价值导向、以“创新与伦理的平衡”为应然边界、以“全面渗透与多层参与”为行动指南、以“公开透明和灵活持续”为执行要求,与当前算法治理的现实需求相吻合,因此具有成为算法治理新路径的可行性。  相似文献   

17.
在当今时代,社交媒体和移动客户端加速融合,推动了微博客、微信等新兴应用的发展。自媒体的迅速崛起消解了传统媒体对话语权的垄断,为草根化社会的表达创造了条件,同时也潜藏着难以预知的风险。社会转型过程中的矛盾、压力和负面情绪在虚拟空间无序释放,通过网络舆论的"蝴蝶效应",迅即演化成危机舆情事件,造成破坏性后果。有效应对网络舆论风险,必须树立现代治理理念,创新互联网治理模式,完善制度和工作机制,推进网络社区自治,形成一整套刚柔并济的多元治理结构。  相似文献   

18.
风险治理机制的选择应当与风险类别相匹配,关键在于在风险治理主体之间寻求合理的风险责任分配。为此,我们要对发生可能小——危害范围小的风险实行个体预防和国家赔偿相结合的治理机制;对发生可能大——危害范围小的风险实行个体预防和个体赔偿相结合的治理机制;对发生可能小——危害范围大的风险实行国家预防和国家赔偿相结合的治理机制;对发生可能大——危害范围大的风险实行国家预防和个体赔偿的治理机制。  相似文献   

19.
数字时代人工智能技术的飞速发展正在改造和重塑社会各个行业和领域,为人类的未来带来更大的不确定性。相较于其他现代技术,基于数字底座的人工智能表现出更强的迭代性、通用性、颠覆性和重塑性等特性,因此对经济社会产生更为广泛和深刻的影响。根据技术的实践性理论和风险社会理论,人工智能社会安全风险可以概括为源于技术本身的本体性风险、源于技术利用主体的主体性风险,以及在规模化应用中对社会群体产生影响的客体性风险。这种类型划分不仅印证了该技术社会影响的全面性,也揭示了风险生成的内在机理。为了构建负责任、有预见性的技术风险治理体系,应坚持以人为中心的发展思路、营造人文良善的技术生态、构建包容审慎的监管体系、形成多元共治的社会格局,以整体性的敏捷治理体系实现对技术风险的长效治理。  相似文献   

20.
"关键少数"是中央权威向基层渗透的枢纽,抓住"关键少数"已成为新时代以来中国共产党治国理政的重要途径。在代议制民主政体下,"关键少数"就是掌握公共权力、履行公共责任的政治精英。依据委托-代理理论,作为政治代理人的"关键少数"在行使公共权力过程中必须履行政治委托人(人民)的意志。然而,在政治生活领域的委托-代理关系中,作为"关键少数"的政治代理人拥有信息优势,在公共权力运行中可能会产生为一己之私而偏离公共意志的政治风险:一是"关键少数"在"官本位"等思想的作用下产生僵化、教条、为官不为的政治"偷懒";二是作为管理者、组织者的"关键少数"高高在上、严重脱离群众的政治自负;三是"关键少数"为谋求个人经济利益最大化而滥用权力的政治腐败。抓住"关键少数",防范政治风险,一要实现对"关键少数"的有效监督;二要实现"关键少数"与社会民众之间的有效沟通与畅通流动;三要实现对"关键少数"的有效管控。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号