首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
隐私一般指个人免于被打扰和干预的权利。它是流动社会的个体性得以发展的必要条件。隐私权是一种随着技术的发展而变迁的一种开放性与扩充性的权利赋予,并在不同的法律文化背景中被视为一种基本的个人权利或人权。信息隐私是隐私在信息时代的新发展,信息隐私权指个人拥有控制或限制他人获悉或披露个人信息的权利。在网络与大数据时代,信息隐私的保护建立在对个人数据的规制之上。在不同的规制架构下,个人许可与数据使用者的责任担当日益受到重视,它们是提升消费者对信息服务信心必不可少的前提。  相似文献   

2.
“隐私担忧”指涉了与隐私泄露和隐私侵害相关联的一系列特殊的信息意识和感知状态,个体遭遇隐私侵害时会唤醒或提升自身的隐私忧虑,并会影响个体信息披露和隐私保护行为,这也符合信息自决的权利意涵。5G、人工智能、VR等技术的广泛应用,使短视频的内容生产与使用体验更为垂直化与沉浸化,也进一步模糊了传播活动的边界,短视频平台去中心化的内容分发机制也加剧了隐私泄露的风险。算法对大量数据的高速处理能力,能有效提升隐私治理的精确性与效能,严格的算法规则更显示出人机共审、自审与他审协同治理的优势。本研究聚焦如何通过算法治理来有效解决短视频使用中潜在的隐私担忧问题,通过对抖音短视频平台用户进行深度访谈,分析用户隐私担忧的影响因素,以此探索打破算法黑箱、优化算法规制,提升短视频平台用户隐私保护水平的治理路径。本研究认为,治理隐私泄露问题的关键必须回归算法本身,实施元规制治理,从而优化人机公审机制,以此构建算法治理与法治相协调的“三步走”模式——通过事前预防机制、事中多方监督与事后救济规制来推进算法治理法治化。  相似文献   

3.
用户画像技术在学术期刊智能化应用中为用户提供精准知识服务,但用户画像中个人信息的大规模应用加剧了用户信息收集、用户标签侵权以及算法歧视、算法偏见等风险,本文基于法律视角剖析学术期刊用户画像个人信息和敏感个人信息界定、个人信息主体权利认定、算法自动化决策透明度与可解释性的实现、个人信息处理者特殊保护义务的规定、个人信息跨境交流管理等,提出了学术期刊用户画像个人信息保护法律规制策略。  相似文献   

4.
受物理空间和科层等级等的限制,传统腐败治理的信息共享和服务联动效应不足,从而导致腐败治理效果不彰,而智能算法能够有效突破物理空间和科层等级限制,提升腐败治理的技术水平,智能治理成为新时代腐败治理的新路向。智能算法在腐败治理中的应用引发了诸如推动腐败治理资源的整合、促进腐败治理能力的提升、强化腐败治理的治理体系建构以及扩展腐败治理的伦理边界等变革。但受智能算法运行逻辑和算法规则的影响,智能算法在腐败治理中的应用也带来了诸如技术权力的专制化、运行规则的功利化、责任界定的模糊化以及个体隐私的透明化等价值隐忧,需要通过规制算法权力运行、强化算法德性伦理、规范算法权责分配以及消解个体隐私透明风险等路径来提升腐败治理中的技术治理效果,以增强腐败治理效能。  相似文献   

5.
隐私计算具有推动数据“可用不可见”的功能,能够满足数据价值运用与数据安全保护兼顾的需求。然而,隐私计算也潜藏着数据合规风险、数据泄漏风险、歧视放大风险、数据群岛风险、信任瓦解风险,亟须通过法律进行规制。我国现行法律针对隐私计算风险的治理存在立法不完善、标准不统一、监管不全面、救济不平衡、引导不及时五大问题。行政法规制可以实现事前、事中、事后全链条治理,具有及时、灵活、系统等优点。通过完善法律法规、构建统一标准、巩固信任体系、强化监管力度、引导合规意识五大措施,可有效为隐私计算的发展系上“安全带”。  相似文献   

6.
超大型互联网平台算法以商业化利益为最终追求目标,对其法律规制就显得尤为重要。构建用户画像、差异化定价、精准推送和提供个性化服务是超大型互联网平台对算法的主要运用场景和目的。目前法律对算法的规制存在以下不足:规则分散且相互冲突;对算法本身规制不足;未能有效规制算法的设计者和所有者。通过数据保护、算法本身及算法相关责任人层面对欧盟和美国的算法法律规制的剖析,提出我国超大型互联网平台算法的法律规制路径:坚持数据治理为基础、三元主体协同理念以及算法公平、公正和透明原则;构建算法治理内在法律协调机制和完善相应法律规则。  相似文献   

7.
信息时代的迅速发展和通信网络技术的广泛运用,使得公民的个人隐私权受到挑战和威胁,保障手机短信用户的隐私已成为隐私权法律保护中的热点问题。在全面分析和归纳手机短信隐私权的特征和内容的基础上,透视我国对短信隐私保护的不足,进而在借鉴国外相关保护措施的基础上,从加强立法、行政保护、司法救济、技术保障以及增强公民法律意识等方面提出完善我国手机短信隐私权的保护措施。  相似文献   

8.
信息性人格权是以“不同面向的个人信息”为客体建构的新兴人格权,其具有主体识别性、客体动态性、有限支配性等特质。在类型体系上,信息性人格权包括信息性隐私权、个人信息权、信用权和被遗忘权等具体权利。上述各权利在规制对象上具有同质性,即为个人与信息处理者之间在数字社会形成的一种持续性的信息不平等关系。在规范构造层面,信息性隐私权宜采取合理隐私期待标准,建立“私人安宁+私密信息”的保护范式,实现空间隐私向场景隐私的转化;个人信息权的权能体系建构需以信息保有权为基础、以信息自决权为主干、以信息获取权为分支、以信息修复权维系数字人格的完整性;被遗忘权的本质是一种免受不当信息惩罚的要求权,其具体形态为删除权。吸纳信息性人格权,有助于保障人格尊严和人的自主性、规范新兴人格权法权构造、丰富人格权规则体系和化解智能时代人的主体性危机。  相似文献   

9.
审判公开是现代司法制度的基本要求,并随着社会的发展呈现出多元化的趋势。在这样的背景之下,却忽视了对被告人隐私权的保障。这不仅给被告人造成了极大的伤害,更违背了基本的法治理念。从法理逻辑上看,被告人平等地享有隐私权。虽然在庭审过程中对被告人隐私的公开是不可避免的,但对隐私在庭审外的公开是可以控制的。因此,要在继续坚持审判公开原则的基础上,通过规制法院、新闻媒体与自媒体在公开审理案件中的公开行为入手,保障被告人的隐私权。  相似文献   

10.
聚焦社会治理领域的算法应用伦理问题,以欧美社会治理中的智能算法应用为例,通过案例分析和归纳演绎相结合的方法,阐释智能算法嵌入社会治理面临的应用伦理风险,即算法“黑箱”与社会信任危机、算法歧视与社会不平等、隐私泄露与社会监视。基于此,从技术、伦理准则与法律、媒体三个层面提出欧美社会治理算法应用伦理的规制路径:一是优化算法技术,提升算法准确性和安全性;二是完善算法伦理准则和法律,构建智能算法善治体系;三是加强算法伦理的媒体监督,构建多元主体协商共治路径。本研究能够为我国人工智能伦理治理提供重要的启示与借鉴作用。  相似文献   

11.
搜索引擎作为大数据发展下的时代产物,满足了人们对数据信息的渴望,但同时引发了人们对自身网络隐私泄露的担忧。通过分析我国搜索引擎对用户隐私权保护的现状,发现我国搜索引擎对用户隐私权的保护仍然面临着诸多困境,因此在深刻分析美国行业自律模式、欧盟立法规制模式以及荷兰自由港模式的基础上,以期从国家层面、社会层面、公民层面三个方面来探索我国网络隐私权保护的有效路径。  相似文献   

12.
隐私权是自然人对与其有关的一切无碍于社会公共利益的个人信息、个人空间和私人活动所享有的阻却他人知晓及不受他人非法干扰的人格权。公众人物由于享有了更多的其他权利(权力)以及肩负着更多的社会责任,所以应对其隐私权进行适当限制。应遵循权利平等、社会公共利益优先、平衡协调、人格尊严等原则,协调解决知情权、采访权与公众人物隐私权的冲突。在公开公众人物隐私的时候不应牵涉或影射与此无关或关系不大的其他人,不损害公众人物的人格尊严。  相似文献   

13.
偷拍行为明显侵犯他人的隐私权,违反社会伦理道德,具有严重的社会危害性,应当予以刑法规制。目前,我国偷拍行为日益猖獗,现行行政法、民法以及刑事立法与司法实践都不足以有效地规制偷拍行为。我国有必要修改《刑法》,设立"侵犯个人秘密罪"或"侵犯隐私罪",以规制偷拍行为。  相似文献   

14.
信息隐私领域的“自决”与“控制”理论影响隐私权研究,并体现在法律文本中。然而,个人信息与主体之关联性及隐私之重要性绝不意味着隐私权的主观化。通过对隐私的个人维度和社会维度的阐述,我们可以发现隐私权的研究进路是个人主义的,研究起点和终点都落脚于个人,但关于隐私标准、公民隐私期待的合理性判断以及隐私权与其他权利的冲突与调和却都体现社群主义的观点。说到底,隐私权是一个彰显“程度”判断的问题,它并非“全有”或“全无”。个人隐私要上升到隐私权保护,需要与社会隐私观相契合,同时在多元价值间作出精心安排,才能预期自由、开放的社会。  相似文献   

15.
算法的黑箱状态掩藏并固化了原有不平等的社会权力结构,产生了诸如算法歧视等失控问题。算法规制的私法进路在于明确算法控制者与数据主体的权利义务关系,以保障个人免受算法的规训。私法规制的前提是,算法应当被认定为工具,背后的控制者(开发者)应对算法失控的后果承担责任。算法决策离不开数据,算法失控问题的根源在于算法控制者收集的数据存在问题。个人作为数据主体对个人信息(数据)享有人格权,算法控制者提供服务以获得使用权,两者之间的法律关系应解释为信托关系,在信义义务的框架下算法控制者负有勤勉、忠实和信息披露义务。明确算法控制者的义务后,更应在私法权利谱系中寻找规制算法的工具,包括数据主体的个人信息权确立与隐私权夯实两条进路。  相似文献   

16.
从平衡论的角度看,隐私权的界限应该是隐私所保护的利益与隐私可能涉及的其他利益之间的平衡。隐私权的保护看似是对公民民事权益的保障,实则通过隐私权来实现人格的独立以及保障个人的人格尊严。个人人格尊严的实现是个体认同感和人的发展的基础性要件。媒体将当事人隐私的全面保护纳入新闻报道者的职业道德范畴,也是对依法行使言论自由的彰显...  相似文献   

17.
尽管我国算法治理的基本架构已经初步形成,但相关实证研究依然薄弱。我国用户算法应用感知大规模问卷调查与结果分析,反映出民众对算法风险的高度关注,也揭示出不同群体对算法关注的分歧、同一群体算法关注与算法行为的矛盾以及算法推荐便利与算法关注的取舍。面对“算法悖论”的种种表现形式,应根据其内在机理予以制度回应,将“算法向善”嵌入“业务流程”,从“算法透明”迈向“算法素养”,经“过程公平”落实“算法公平”,借“算法问责”铸就“算法安全”,最终形成熨帖公众真实需求、平衡多元目标的中国算法治理体系。  相似文献   

18.
公共信用评价是信用监管的核心制度。随着算法技术的迭代,其在公共信用评价中的优势也日渐显现。“数据+算法”的智能融合是算法嵌入公共信用评价的技术逻辑,推动政府治理现代化和提升社会信用水平则分别构成算法嵌入公共信用评价的实践逻辑和价值逻辑。然而,算法在发挥技术优势的同时,也可能在公共信用评价中引发三重风险:技术风险,主要包括算法黑箱破坏评价公正性和数据质量影响评价准确性;法律风险,主要包括算法权力助推评价权力滥用和数据滥用危及隐私与信息安全;伦理风险,主要包括算法至上引发评价自主性困境和算法偏见破坏基于信用的分配正义。针对上述风险,在选择规制路径时宜采取“整体性视角”和“基于过程的方法”。在事前阶段,需要制定算法信用评价技术标准、建立算法信息公开制度、完善算法影响评估制度;在事中阶段,需要运用行政法治原则钳制行政权力、以信用及个人信息权利制衡算法权力;在事后阶段,需要完善公共信用评价异议申诉制度,同时强化对公共信用评价的算法审计和司法审查。  相似文献   

19.
从明星和隐私权的角度出发,分析明星隐私权保护与限制的现实意义。对明星隐私权由于公众知情权、公众合理兴趣等公共利益需要克减进行原因分析。划定明星隐私权的范围边界,提出明星违法犯罪及不道德行为不予保护,主动公开或经同意的隐私不予保护,与明星事业无关的个人隐私应予相对保护,对其未成年子女隐私予以绝对保护,并对国家、新闻媒体、公众以及明星个人提出建议。  相似文献   

20.
以ChatGPT为代表的生成式人工智能在优化产业结构促进经济发展的同时也带来新的法律风险。语言模型训练中的风险主要包括侵害个人信息与作品著作权风险,内容生成过程中的风险则体现为人工智能“幻觉”导致的错误信息风险、算法偏见风险、“涌现”导致的算法失控风险以及人机互动中的算法滥用风险。《生成式人工智能服务管理暂行办法》提供基本的治理框架,但部分条款设置与具体治理方式上存在不足。生成式人工智能的性能取决于训练数据集的规模与质量,模型训练中的数据治理需要尊重其技术逻辑,实践中应拓展公共数据中著作权数据与个人数据的合理使用边界。内容治理可以借鉴“宪法人工智能”的基本理念,构建动态的内容反馈评估机制。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号