首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 234 毫秒
1.
第三次全国经济普查充分运用了现代信息技术,全面推广了手持电子终端设备(PDA)和电子地图,实现了普查数据的采集报送、处理等手段的自动化、电子化,但普查单位成分构成的复杂性和普查对象配合程度的下降,给控制普查数据质量提出了新课题。本文分析了第三次全国经济普查数据质量控制存在的问题,从普查准备、现场登记和审核验收等方面提出了加强数据质量控制的措施。  相似文献   

2.
人口普查数据是为全国和各地的区域发展、产业布局、生态建设、政府管理与公共服务提供规划和决策的科学依据。因此,人口普查数据质量的高低直接关系到政府各项政策措施的制定和执行效果。本文深入分析了我国人口普查数据质量控制存在的问题,从普查方法、质量评估、人员机构、技术创新等方面提出了加强数据质量控制的措施。  相似文献   

3.
本文以高质量发展为目标,对大数据基础设施与技术应用能力的双重驱动机制进行分析,验证“梅特卡夫定律”是否能解释大数据发展规律。研究发现,第一,大数据能通过推进市场一体化优化资本与劳动力配置,推进经济高质量发展,且大数据技术应用的积极作用强于数据基础设施。第二,现阶段,数据基础设施与技术应用存在异质性高质量发展效应,前者的积极效应发挥需跨越一定门槛,且存在“适度区间”;后者则呈正向“边际递增”特征,且在数据基础设施支撑下,数据技术应用的“边际递增”效应增强。第三,“邻近合作”有利于激发数据基础设施的高质量发展溢出作用,“技术强强联合”可增强数据技术应用的空间溢出作用。第四,数据技术应用的积极效应发挥存在营商环境与教育水平依赖性,现阶段其仅能激发数字经济产业高质量发展,在传统产业方面动力不足。本文证明了“梅特卡夫定律”在大数据应用中依然存在,有助于加深对数据基础设施建设与技术应用能力提升的认识。  相似文献   

4.
在全面、客观、准确地评价前一段工业普查数据质量控制工作的同时,必须实事求是地看到目前工业普查数据质量控制工作还存在着隐患和薄弱环节。一是普查数据质量控制工作各地抓得粗细不一;二是搞准三资企业数据,特别是关键性敏感数据的难度仍然很大;三是乡村工业企业,特别是村及村以下工业受计划、考核、政绩挂钩等体制性因素的影响,搞得不好,很可能要拖整个工业普查数据质量的后腿。为此,我们建议,近期大家要着重做好以下工作:(一)要充分认识到搞准搞实普查数据质量的难度和艰巨性,各级工普办对普查数据质量,尤其是企业最后填…  相似文献   

5.
近几十年来,多区域投入产出表的开发和应用推动了投入产出研究领域的重要进展,但如何评估其数据质量的问题仍未得到有效解决。鉴于此,本文首先从理论角度剖析多区域表与单区域表之间的数据关联,结合实际数据考察国内多区域表与官方数据的衔接情况,发现不同多区域表在不同指标上的数据衔接能力存在明显差异;通过对数据质量评估问题的多方位探讨,基于强化多区域表核算功能的视角提出了一种相对有效的评估思路,并设计了相应的量化评估方案;最后,从指标和地区两个角度对部分已有的国内多区域表进行评估实证,并结合开发特点综合比较这些多区域表的整体评估结果和局部结构特征。本研究对多区域投入产出表的数据开发、管理和应用具有一定的参考和助益。  相似文献   

6.
黄恒君 《统计研究》2019,36(7):3-12
大数据在统计生产中潜力巨大,有助于构建高质量的统计生产体系,但符合统计生产目标的数据源特征及其数据质量问题有待明确。本文在寻求大数据源与传统统计数据源共同点的基础上,讨论了统计生产中的大数据源及其数据质量问题,进而探讨了大数据与传统统计生产融合应用。首先从数据生成流程及数据特征两个方面论证并限定了可用于统计生产的大数据源;然后在广义数据质量框架下讨论了大数据统计生产中的数据质量问题,梳理了大数据统计生产流程的数据质量控制要点和质量缺陷;最后根据数据质量分析结果,提出了将大数据融入传统调查的统计体系构建思路。  相似文献   

7.
李金昌 《统计研究》2016,33(11):3-10
本文基于大数据思维,对统计学若干理论问题进行了讨论。本文认为:在大数据背景下,统计学以数据为研究对象没有变,作为方法论科学的性质没有变,以探索真相为根本任务没有变;但是作为统计学研究对象的数据出现了四个新的动向,即数据内涵有新理解,数据结构与来源有新方式,数据不确定性有新表现,数据分析思路与技术有新要求;为此,需要重新理解和定义总体、个体与样本,标志与变量,可靠性与有效性这三组统计学中最基本也最重要的概念。最后论文指出,大数据为统计学发展提供了新的平台,需要我们从数据、方法和应用三个维度同时发力。  相似文献   

8.
从匹配模型法数据的缺失机理分析,匹配模型法编制的价格指数的质量偏差可分为两部分:一部分为样本内的质量偏差;一部分为样本外的质量偏差。文章对匹配模型框架下质量偏差的数据模式和数据缺失机理进行了探讨和研究,在此基础上针对不同的数据缺失机理,提出了均值插补法、交叠插补法和hedonic插补法三种质量调整方法。  相似文献   

9.
大数据时代,传统生产型企业如何加强企业自身与周边相关数据信息的统计与分析是一个亟待关注的问题。本文对生产型企业发生的数据现状与特点进行了总结与概括,深入分析了企业统计工作中存在的精细化程度不够、数据实时性不够等问题,并结合生产型企业的特点,从五个方面提出改进措施,希望对企业提升统计分析能力,以数据支撑科学决策提供一定的借鉴价值。  相似文献   

10.
《青海统计》2009,(4):47-48
为了顺利完成第二次经济普查登记和数据处理阶段的各项工作,海南州第二次经济普查领导小组组长、副州长董杰人对全州近期普查工作提出了六点要求:一是克服实际困难,努力打好普查登记攻坚战;二是加大宣传力度,严查违法违纪案件;三是加强督促检查,做好事后质量抽查;四是抓住核心环节,确保普查数据质量;五是加强组织协调,搞好数据处理工作;六是认真评估分析,按质上报普查数据。  相似文献   

11.
统计系统基本单位名录库是统计数据质量的基石,现有数据源在成本、时效性、数据提供者负担方面存在劣势。为此,提出一种互联网大数据整合视角下的名录库更新维护思路:从参与者行为、数据质量角度论证了将异源异构互联网作为名录库更新数据源的优势,讨论了名录库基本信息、属性信息及地理定位信息获取的技术手段,并给出实例应用。  相似文献   

12.
秦磊  谢邦昌 《统计研究》2016,33(2):107-110
大数据时代下机遇与挑战并存,如何基于传统方法去处理大数据引人深思,一味地追求大数据也不一定正确。本文以谷歌流感趋势(GFT)为案例,介绍了大数据在疾病疫情监测方面的主要技术及相关成果,阐述了大数据在使用中的关键问题,并结合复杂的统计学工具给出了一些改进措施。谷歌流感趋势的成功取决于相关关系的应用,其失误却来源于模型的构造、因果关系和相关关系的冲突等问题。谷歌流感趋势案例的分析与启示对政府今后在大数据解决方案中有重要的理论和实践意义。  相似文献   

13.
黄恒君  漆威 《统计研究》2014,31(5):10-16
大数据现象及处理引起了社会各界的关注。本文以大数据宏观层面理论为依据,试图从微观层面讨论一类大数据具体处理,归纳提出一种基于开源架构的海量半结构化数据采集、存储及分析自动化解决方案,并分析解决方案的开放性、融合性和经济性的特点,指出解决方案的可拓展方面。同时,结合海量空气质量实时数据,分析解决方案的具体开发细节,给出解决方案运行的经验做法,讨论分析过程的大数据压缩机制。  相似文献   

14.
胡帆 《统计研究》2010,27(11):53-56
本文借鉴全面质量管理体系的概念,综合分析贯穿统计工作整个流程的统计调查数据质量管理的要素及作用。本文重点讨论了全面质量管理的流程和重点工作的布局;结合统计信息化的建设,特别讨论了相关工作规范、应用软件的作用,以及数据资源的建设和利用。  相似文献   

15.
王娜 《统计研究》2016,33(11):56-62
为了研究大数据是否能够帮助我们预测碳排放权价格,本文讨论了结构化数据和非结构化信息对预测碳价所起的作用。结构化数据选取了国际碳现货价格、碳期货价格和汇率,非结构化信息选择百度搜索指数和媒体指数。考虑到当解释变量很多时,平等对待每一个解释变量是不合理的,所以提出了网络结构自回归分布滞后(ADL)模型,在参数估计和变量选择的同时兼顾了解释变量之间的网络关系。实证分析表明,网络结构ADL模型明显优于其他模型,可以获得较高的预测准确性,更适合基于大数据的预测。  相似文献   

16.
赵彦云 《统计研究》2015,32(6):3-10
本文认为大数据统计与三个问题有关:大数据发展趋向极限无穷,人类社会数据信息将发生什么变化?大数据发展会不会产生危害社会进步的数据垃圾?大数据即使是一场革命,那么作为数据科学的统计学脱胎换骨地继承与发展是什么?本文对此回答包括,提出大数据发展的统计设计观点,从理论和实践上做出了论证分析,并联系我国实际,探讨了我国大数据发展中的统计设计理论和内容要点。  相似文献   

17.
There are no practical and effective mechanisms to share high-dimensional data including sensitive information in various fields like health financial intelligence or socioeconomics without compromising either the utility of the data or exposing private personal or secure organizational information. Excessive scrambling or encoding of the information makes it less useful for modelling or analytical processing. Insufficient preprocessing may compromise sensitive information and introduce a substantial risk for re-identification of individuals by various stratification techniques. To address this problem, we developed a novel statistical obfuscation method (DataSifter) for on-the-fly de-identification of structured and unstructured sensitive high-dimensional data such as clinical data from electronic health records (EHR). DataSifter provides complete administrative control over the balance between risk of data re-identification and preservation of the data information. Simulation results suggest that DataSifter can provide privacy protection while maintaining data utility for different types of outcomes of interest. The application of DataSifter on a large autism dataset provides a realistic demonstration of its promise practical applications.  相似文献   

18.
贺建风  李宏煜 《统计研究》2021,38(4):131-144
数字经济时代,社交网络作为数字化平台经济的重要载体,受到了国内外学者的广泛关注。大数据背景下,社交网络的商业应用价值巨大,但由于其网络规模空前庞大,传统的网络分析方法 因计算成本过高而不再适用。而通过网络抽样算法获取样本网络,再推断整体网络,可节约计算资源, 因此抽样算法的好坏将直接影响社交网络分析结论的准确性。现有社交网络抽样算法存在忽略网络内部拓扑结构、容易陷入局部网络、抽样效率过低等缺陷。为了弥补现有社交网络抽样算法的缺陷,本文结合大数据社交网络的社区特征,提出了一种聚类随机游走抽样算法。该方法首先使用社区聚类算法将原始网络节点进行社区划分,得到多个社区网络,然后分别对每个社区进行随机游走抽样获取样本网 络。数值模拟和案例应用的结果均表明,聚类随机游走抽样算法克服了传统网络抽样算法的缺点,能够在降低网络规模的同时较好地保留原始网络的结构特征。此外,该抽样算法还可以并行运算,有效提升抽样效率,对于大数据背景下大规模社交网络的抽样实践具有重大现实意义。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号