首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
元宇宙是数字技术取得突破性进展后由多种技术融合而成的“技术集”,是一个与现实世界平行的智能化虚拟世界,具有智能运行逻辑、精神满足功能、无碍穿梭技术和数字永生主体等显著特点。元宇宙的出现解构了现实世界中人与人之间的关系,在使空间无限大、时间可重启、数字主体可变化的同时,也给人类社会也带来了伦理风险:在个体层面,元宇宙主要带来人的异化、隐私泄露的伦理风险;在技术层面,元宇宙主要带来数据霸权的伦理风险;在社会层面,元宇宙改变了以人为中心的已有社会伦理结构。当前,可通过培育数字素养、嵌入伦理原则、完善法律法规、推进国际合作等途径来防范元宇宙伦理风险,引导元宇宙技术发展向善,促进人类文明进步。  相似文献   

2.
数字孪生技术的快速发展和广泛应用将对教育变革与创新产生深远的影响,同时也必将带来一系列新的伦理问题。借助当代技术哲学理论,探讨教育数字孪生面临的现实与虚拟谁主谁客的主体伦理,师生角色、师生关系与师生情感的关系伦理,数据泄露与算法风险的技术伦理,以及资源牟利与教育不公的资源伦理等问题,并剖析产生这些伦理问题的原因,对于推进数字孪生技术在教育领域中合理应用,具有重要的理论价值和实践意义。研究发现,数字孪生技术在教育中的应用,需建构以人为本的伦理共识以巩固人的主体地位,建立教育数字孪生新型师生关系,构建教育数字孪生伦理规范体系,利用体制机制推进教育数字孪生发展,以重构教育数字孪生新生态。  相似文献   

3.
数字身份是以数字化形式存在的身份形态,与网络空间相伴而生。网络无处不在、无时不在的泛在特征使数字身份呈现出云形态、微形态、超文本形态、可视化形态和碎片化形态,为人们生产生活带来便利的同时,也在一定程度上存在伦理风险。数字身份的不合理应用总体指向了认同、隐私、自由和正义等4个伦理议题:数字身份弱化了人的自我认同和社会认同,造成了“整合型隐私”保护困境及“隐私悖论”,遮蔽了主体的自由意志和社会遗忘能力,隐含了“数据偏差”和“算法逻辑”不正义等问题。随着互联网日益普及,传统身份逐步向数字身份转型,加强数字身份伦理风险治理成为重要的时代议题。在新发展阶段,应充分利用技术、法律、伦理的协作互动,实现数字身份伦理风险的协同治理,提升数字社会认同感,维护数字身份隐私权,克服数字身份的异化,消解算法逻辑的歧视性影响,使其更好服务于社会政治经济发展和满足人民的美好生活需要。从技术治理层面来看,要加强技术的创新和发展,克服技术自身存在的负效应;从法律治理层面来看,应坚持权利与义务辩证统一的立法原则,为数字身份应用提供法律保障;从伦理治理层面来看,各个主体要加强自我约束,自觉成为数字身份治理的重要补充力量。  相似文献   

4.
美国OpenAI公司开发的新一代人工智能语言模型ChatGPT标志着通用人工智能时代的到来,将对人类社会发展产生巨大影响。作为AIGC(人工智能生成内容)技术的典型代表,它具有拟人化、强交互性、全感官3个主要特征。ChatGPT的出现可能会掀起AI的技术革命,推动人类生活生产方式创新,促进新一轮科技革命和产业变革。与此同时,也会引发数据隐私泄露、社会失业、行业垄断、算法偏见等社会风险。对ChatGPT的社会风险治理,在伦理方面,应当坚持以人为本、培育公民的数字素养和建立伦理审查机构,促进应用的合理化;在法律规制上,应通过立法、权力监督、制度保障等手段,促进ChatGPT的应用合法化;在技术上,应将法律规制、相关伦理等价值观念转化为算法,以算法来规制算法。  相似文献   

5.
算法新闻重构了新的新闻传播生态,但也暴露出一些伦理问题,最核心的是算法黑箱与新闻透明原则的矛盾、算法霸权与媒介公正的对立和算法操纵与委托信任的冲突.解决算法新闻产生的伦理问题,必须明确算法是非人类的"网络行动者",但并不是独立的伦理行动者,"人"才是算法新闻的责任主体.算法新闻治理的逻辑起点应回到技术、人与社会的良性互动关系.算法新闻治理应将不作恶、不滥用的"向善"作为底线伦理,将对人的自由全面发展负责和对社会健康有序运行负责的"向上"作为责任担当.算法新闻治理需要建立多主体协同共进的治理体系:政府要充当好规则制定者、过程把控者和底线管控者的角色;平台机构要承担算法新闻治理的主体责任;公众应自觉避免新闻消费中的盲从或被动现象,传统媒体应严格职业把关和审核机制,拒绝迎合人性弱点及惰性的新闻生产.公众与传统媒体的共同责任在于实现对算法新闻的纠偏、改进与监督.  相似文献   

6.
算法新闻重构了新的新闻传播生态,但也暴露出一些伦理问题,最核心的是算法黑箱与新闻透明原则的矛盾、算法霸权与媒介公正的对立和算法操纵与委托信任的冲突.解决算法新闻产生的伦理问题,必须明确算法是非人类的"网络行动者",但并不是独立的伦理行动者,"人"才是算法新闻的责任主体.算法新闻治理的逻辑起点应回到技术、人与社会的良性互动关系.算法新闻治理应将不作恶、不滥用的"向善"作为底线伦理,将对人的自由全面发展负责和对社会健康有序运行负责的"向上"作为责任担当.算法新闻治理需要建立多主体协同共进的治理体系:政府要充当好规则制定者、过程把控者和底线管控者的角色;平台机构要承担算法新闻治理的主体责任;公众应自觉避免新闻消费中的盲从或被动现象,传统媒体应严格职业把关和审核机制,拒绝迎合人性弱点及惰性的新闻生产.公众与传统媒体的共同责任在于实现对算法新闻的纠偏、改进与监督.  相似文献   

7.
技术创新管理的伦理风险出现的情况取决于技术新颖度、公共管制强度、技术创新的经济比较收益、恶意开发成本和主体自律约束等五种风险影响因子。创新技术越新颖,技术创新的经济比较收益越高,可能出现的伦理风险就越大;而公共管制力度越强,恶意开发成本越高,创新主体的自律约束越强,则发生伦理风险的可能就越小。因此,技术创新管理的伦理风险等于该创新技术的伦理风险因子与创新主体的伦理冒犯概率和可获得的伦理风险收益率三者之积,从而形成了技术创新管理的"伦理风险乘数效应"。  相似文献   

8.
数字技术是引领新时代思想政治教育高质量发展的新动能,数字技术与思想政治教育在结构、功能、价值上的耦合,为数字赋能新时代思想政治教育高质量发展提供了适切性、可行性证明。数字技术在促进思想政治教育升级迭代和实效提升的同时也面临着一定的风险:一是数字嵌入思想政治教育的张力失度带来的数字悬浮、数字依赖、数字至上等错误倾向;二是思想政治教育主体呈现出人的自我、人与人、人与教育、人与社会之间的关系的失调和异化倾向;三是思想政治教育数据的过度采集和滥用带来的数据过载、隐私侵犯、数据安全等风险挑战;四是算法不当产生的算法偏见、信息茧房、算法黑箱等问题。针对数字赋能思想政治教育面临的风险挑战,提出了具体的解决措施,即深化理念认识,明确数字技术赋能的战略定位;加强数字素养教育,发挥思想政治教育的育人价值;加强数字技术规范,促进技术势能的充分释放。  相似文献   

9.
本文探讨了大数据技术创新、研发和应用中的伦理问题。指出大数据技术是把双刃剑,这种技术的创新使社会、商业、以及亿万人受益,但同时也带来风险。我们必须鉴定风险,平衡创新带来的利益与风险。文章还探讨了与信息技术及大数据技术有关的数字身份、隐私、可及、安全和安保、数字鸿沟等伦理问题,并讨论了解决这些伦理问题的进路。最后,建议引入伦理治理的概念,指出大数据的顺利推广应用要求我们制订评价在大数据方面所采取行动的伦理框架,即伦理原则,为制订行为准则、管理和立法建立一个伦理学基础。  相似文献   

10.
作为一种生成式预训练变压器,ChatGPT技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解ChatGPT技术带来的伦理风险,使人工智能系统成功融入人类社会。  相似文献   

11.
作为一种生成式预训练变压器,ChatGPT技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解ChatGPT技术带来的伦理风险,使人工智能系统成功融入人类社会。  相似文献   

12.
算法作为人工智能技术的重要组成部分,已经成为决定“人机共生”关系走向的关键要素,同时也带来了人类认知上的“黑匣子”,限制了人类理解和使用技术的能力,引发了技术使用过程中的各种问题,导致了人类对算法的不充分信任。算法伦理审查的价值规范体系,包括算法伦理审查的标准化、制度化和结构化。发展负责任的算法,强化算法伦理审查的理性认知并建构实用框架,推进算法透明度、可解释性以及公众满意度等伦理维度指标落地,可以有效消解算法歧视和隐私暴露等问题,更好地推动算法伦理审查机制的健全完善。  相似文献   

13.
在技术驱动与效率职能转变的需求下,算法决策广泛且深入应用于社会生活的各方面.在算法决策不断释放技术红利的同时,也因对其缺乏伦理规制而陷入技术偏轨的困境,形成算法自动关联导致个体非自愿泄露隐私、算法决策弱化人的主体能力、算法权威压缩人的自主选择空间、大数据杀熟损害个体消费权益等伦理风险样态."科技之真"必须强化"道德之善"的价值理念,只有秉持以人为本的宗旨,强化匿名算法技术保护隐私、加强人工干预以纠正算法决策偏差,才能有效规避算法决策的伦理风险.  相似文献   

14.
现代人工智能的“可信任”研究通常关注的是人对智能算法的信任问题。但在风控领域逐渐转向AI“合理怀疑”能力的要求中,算法对人的“信任”也已成为人工智能伦理的重要问题。风险防控本身就是如何信任一个人的问题。在现代未来学思维下,人把对信任与怀疑的规划都交付给技术,以降低风险率。人工智能风控技术以数据和算法作为信任人的方式,这是智能时代“后人类”的一个必然的社会深度脱域特征。因而,人工智能风控相对于其他智能技术需得到独特的哲学关注。但是这种算法信任主导下的风险防控,必然面对正义性的考量。在人工智能物逐渐被作为一种能动主体的情境下,实现其在风控场景中对人的“合理怀疑”也成为智能风控的基本伦理要求。  相似文献   

15.
在互联网飞速发展的数字化、信息化时代,智能媒体平台的蓬勃兴起使信息流动更具复杂性、分散性、迭代性和不可控性。数字鸿沟、信息茧房、算法滥用等现象加剧了受众的信息焦虑及其蔓延,信息焦虑已成为智媒时代公众的集体病症。究其原因,数字平台快速发展引发信息多主体化、微短视频流行导致信息碎片化、数据互联算法指向信息同质化以及信息传播内容变革引致轻知识化等共同引发了智媒时代公众的信息焦虑。因此,在推进数字中国建设过程中,应从创新拓展主流媒体的正能量引领、促进舆论引导主体的机制建立、构筑缓释信息焦虑的场域空间、提升公众信息素养和舆情辨识力等方面来应对公众信息焦虑带来的挑战。  相似文献   

16.
认识论的发展需要以技术进步为基础。数字技术是指以现代计算机和程序算法为核心要件,将客观世界中的不同信息转化为计算机语言,并将所得数字化信息进行运算、加工、存储、传播等操作的技术集合。数字技术的诞生与发展对马克思主义认识论具有重要创新推动作用。从认识结构来看,数字技术为认识结构的要素增添了新内容;从认识与实践的关系来看,数字技术通过提升人类的实践水平以强化其认识能力;从认识与伦理的关系来看,数字技术延展了马克思主义认识论的伦理域场。厘清数字技术对马克思主义认识论的创新推动,利于准确把握马克思主义认识论与时俱进的新内涵。  相似文献   

17.
人工智能对人类智能的模拟在逻辑上包含对人类道德的模拟。人工智能的规范者指引应从"人为自己立法"的原理中产生。对于智能体的伦理框架而言,"让算法遵循‘善法’"是一条自明性原则,可称为"算法从善"原则。该原则的第一个方面的伦理尺度与智能主体模式的革命性构建有关,其实质是在拟主体性维度通过道德算法进行规范性指引,且亟需新的责任伦理框架提供支持。由于道德算法是嵌入在算法体系中有待完善的算法程式,算法从善原则就涉及与之相关的第二个方面的伦理尺度。它与人类主体模式下的道德建构有关,包括常见的人类主体模式以及"人类主体与人工智能主体相处的主体间模式"。对这两种道德形态而言,算法只有体现或遵循人类主体模式下的善法,才能以有责任感的方式推进道德算法的进化及其在机器中的嵌入。人类在算法的控制权上保持审慎,是避免伤害的明智选择,也是在技术发展面前维护人类尊严的底线。  相似文献   

18.
ChatGPT一经问世就引起广泛热仪,它以高拟真度、强互动性和多模态的特质颠覆了人们对于人工智能的既有印象。其作为生成式人工智能的优秀代表正以高调的姿态变革人类生产生活方式、打破人类认知壁垒。但科技的发展具有矛盾性和两面性,越智慧的科技,越易使人滋生恐惧和不安等情绪,提升效率、便民利民的同时,也通常伴随一系列的伦理风险。ChatGPT对工作效率模式带来的重大变化,使其两面矛盾性更为凸显。克服矛盾心理需要厘清ChatGPT引发的人类主体地位受冲击、隐私侵犯与算法歧视、作弊成本降低与学术不端、侵扰意识形态防线等伦理风险。应对这些伦理风险需要坚持人本主义原则、守住技术发展底线、保护隐私群己共律、加强算法设计与监管、坚持科技伦理教育、实现监督与引导并行、补齐生成式AI短板、走独立自主发展之路,从而实现ChatGPT的伦理规制,克服人们因技术的强大智慧而产生的矛盾心理,确保智能技术始终沿着造福人类之路稳步前行。  相似文献   

19.
人工智能技术的飞速发展带来了全新自主发明模式,也引发了一系列的伦理挑战,既涉及本身作为人类创造物的人工智能在自主发明过程中扮演发明主体角色的伦理争议,也涵盖了人工智能脱离人类干预与控制自主生成发明客体过程中由算法失灵、数据失准等情况所造成的技术伦理风险。因此,为有效应对人工智能自主发明模式的伦理挑战,有必要从人工智能的本质特征与运转机制入手厘清人工智能自主发明的伦理定位,并遵循以人为本基本伦理价值理念下算法向善与数据向善的伦理准则,通过人工智能工具性虚拟人格的创设和人工智能算法监测与数据评定指标体系的确立,建构人工智能自主发明模式的治理体系与框架。  相似文献   

20.
智能环绕的生活形态引发了认识问题、实践问题和道德问题,一种虚拟的数字健康道德出场扩展了人类道德领域的边界,作为家长主义的劝导技术从“硬劝导”走向以人类福祉为目标的“善劝导”,并没有改变数字健康及其劝导技术的资本逻辑本质。数字健康存在身体数据隐私泄露和对生命伦理的冲击风险,数字健康与“有意义”的生命伦理之间的嫌隙跨越需要依赖于人的有意义的现实实践活动。智能环绕的生活场景和健康监控需要数字技术的支撑,也需要智能可穿戴设备的必要辅助,但这种支撑和辅助需要以人类健康自主权和“有意义”的生命伦理为前提。数字健康与劝导技术仅是健康数字化和可视化的工具,不是人类美好生活的全部事实。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号