首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
抽样调查的目的是通过有限的样本的指标(样本平均数,样本成数)来估计总体(population)的参数(平均数,总体成数),由于用样本来估计总体,所以人们期望样本能如实地反映总体、代表总体,因而如何提高样本的代表性,就成为当前研究的热点之一。一、样本代表性的含义目前在国内,不少关心或从事抽样调  相似文献   

2.
抽样调查是在事先设计的精度下,通过对抽中样本的调查,推算出总体总量指标.换言之,抽样调查的样本是对相应总体的一种反映,在哪个总体中抽取,就只对那个总体有代表性.2000年,国家统计制度正式取消对规模以下工业的全面统计,改由抽样调查搜集数据,并规定以省为抽样总体.也就是说,国家规模以下工业抽样调查只保证国家和省的代表性,不保证市、县两级的代表性,市县不能依据国家的样本推算本辖区的数据.  相似文献   

3.
宋子轩  冷燮  陈瑶瑶 《统计研究》2012,29(7):96-100
 样本代表性直接牵扯到统计数据质量和统计公布引起的民众反响,目前社会上不乏对政府统计数据的质疑之声,最终影响到政府统计机关的公信力,因此有必要重新审视现行样本代表性的研究。目前相关文献普遍强调不同抽样方式下的样本代表性的相对性内涵,确保样本的代表性仅从抽样方法和样本量两个维度入手,缺乏对既定抽样方法下样本代表性的事后评估体系的探索,以及多样本之间样本代表性优劣的比较方法研究。鉴于此,本文在结合人口普查数据基础上尝试从样本-总体整体分布和内部属性结构两个方面构建样本代表性事后评估的一整套指标和假设检验,进而找到一种多样本代表性比较的依据。最后对浦东新区2010年城镇居民收入调查样本进行了代表性检验的尝试。  相似文献   

4.
巩红禹  陈雅 《统计研究》2018,35(12):113-122
本文主要讨论样本代表性的改进和多目标调查两个问题。一,本文提出了一种新的改进样本代表性多目标抽样方法,增加样本量与调整样本结构相结合的方法-追加样本的平衡设计,即通过追加样本,使得补充的样本与原来的样本组合生成新的平衡样本,相对于初始样本,减少样本与总体的结构性偏差。平衡样本是指辅助变量总量的霍维茨汤普森估计量等于总体总量真值。二,平衡样本通过选择与多个目标参数相关的辅助变量,使得一套样本对不同的目标参数而言都具有良好的代表性,进而完成多目标调查。结合2010年第六次人口分县普查数据,通过选择多个目标参数,对追加样本后的平衡样本作事后评估结果表明,追加平衡设计能够有效改进样本结构,使得样本结构与总体结构相近,降低目标估计的误差;同时也说明平衡抽样设计能够实现多目标调查,提高样本的使用效率。  相似文献   

5.
样本平均亩产对总体平均亩产的代表性不足是农产量抽样调查实践中遇到的难题之一.笔者以湖北省为例,发表一点浅见.一、代表性不足的客观现实及其原因表1是以全省为总体,33个抽样调查县(市)为样本,用简单平均法计算得到的1975-  相似文献   

6.
当前,进行城镇个体工商业调查大都以个体户作为总体单位抽取样本,这难免产生以下问题:(1)总体变动大,影响样本代表性。个体户的总体单位数经常发生变动,停业、歇业、转业、新开业时有发生,使原有的样本户失去代表性,而经常进行样本轮换又相当麻烦。(2)由于样本户分散在城镇的各个角落,既增加了调查的难度,又不便对样本户进行管理和辅导。  相似文献   

7.
在抽样调查中,样本规模的确定,即抽多少样本单位(简称样本客量)也是一个很重要的问题.因为抽样规模过大会给调查造成不必要的浪拜,还可能增大调查误差,样本单位数目太少,又会使样本在估计总体时因缺乏代表性而发生较大的误差.因此,为何获得一个规模有限,且能反映总体特征,对总体有充分代表性的样本,应该是抽样调查首先要解决的问题。一、样本规模的确定抽样规模即样本容量的大小,一般取决于以下几个因素:1、被调查总体各单位标志值的差异程度。一般用方差。’(或均方差。,下同)来表示。对被调查总体来说。’愈大,总体各…  相似文献   

8.
冯士雍 《统计研究》2001,9(9):30-33
一、问题的提出抽样调查作为非全面调查最重要、应用最为广泛的一种方法 ,是按一定程序 (方法 )从总体中抽取一部分单元 ,即样本进行调查 ,根据样本数据对总体目标量作估计或其他推断。根据样本估计总体 ,也即根据部分来估计整体必然存在误差 ,即抽样误差。人们期望这种误差愈小愈好 ,估计愈精确愈好。用什么样的抽样方法和估计方法能使这种抽样估计更为正确 ?用一种目前流行的说法就是 ,什么样的样本对总体有较好的代表性 ?目前在国内 ,不少关心或从事抽样调查的统计工作者 ,对上述所谓“样本对总体的代表性”问题 ,不同程度地存在一些认识…  相似文献   

9.
魏振军 《统计教育》2010,(11):61-64
一、样本的代表性 从前面两讲的案例大家了解到,抽样调查技术的关键是选取有代表性的样本。这说起来简单,但实际操作起来却不那么容易。假如用以收集信息的样本不能代表总体,由此做出的推断,很容易偏离事实。如果留意的话,在见诸媒体的一些报道中,有些耸人听闻的数据却经不住推敲。现在我们来看1949年美国某报刊的一则报道:  相似文献   

10.
住户调查是我国社会经济统计调查体系的重要组成部分,样本代表性直接决定统计数据质量。多阶段抽样中初级单元的方差对估计的影响是主要的,因此本文结合2010年全国第六次人口普查分县数据,采用平衡抽样设计获取初级单元的代表性样本-平衡样本。对代表性样本的事后评估结果表明,样本结构与总体结构吻合,目标估计的误差很小,说明了本文平衡设计的有效性。  相似文献   

11.
The effectiveness of Bartlett adjustment, using one of several methods of deriving a Bartlett factor, in improving the chi-squared approximation to the distribution of the log likelihood ratio statistic is investigated by computer simulation in three situations of practical interest:tests of equality of exponential distributions, equality of normal distributions and equality of coefficients of variation of normal distributions.  相似文献   

12.
对中国大陆经济增长竞争力排名的分析   总被引:1,自引:0,他引:1  
武军定  李晓宇 《统计研究》2007,24(11):39-41
本文通过对世界经济论坛(WEF)历年全球竞争力报告的分析,指出2002年以来中国大陆经济增长竞争力(GCI)排名下滑是客观存在的。通过研究参加排名的国家和地区数量的变动对中国大陆经济竞争力排名的影响,以及GCI各层子指标变化对中国大陆经济竞争力排名下滑的影响,本文指出了我国经济竞争力排名下滑的深层原因。  相似文献   

13.
科学发展观与深化政府综合统计体制改革   总被引:1,自引:0,他引:1  
欧卫东 《统计研究》2008,25(2):12-16
 内容提要:目前我国政府综合统计存在难以与时俱进地满足政府调控管理需求、抗干扰能力不够强、基层数据失真风险越来越高等一系列问题,已不能很好地适应在全党、全国贯彻落实科学发展观中担负的使命要求。究其原因,本文认为其核心问题是相关管理体制和制度设计不合理、不规范、缺乏与时俱进的能力。要解决这些问题必须以科学发展观为指引,依法治统为重点,治标与治本相结合,在建立国家权威性协调组织、推进政绩考核评估方法完善、缩减基层工作量以及依法规范国家统计需求和统计体系设计管理方面做切实有效的工作。  相似文献   

14.
伍业锋 《统计研究》2014,31(11):29-34
在解析海洋经济核心特征和海洋经济生产函数、明晰海洋经济竞争力概念的基础上,构建了一套包括发展基础、发展环境和业绩表现3大维度、资源环境等9个方面和62项具体指标的中国海洋经济区域竞争力测度指标体系。利用2011-2012年数据对中国沿海11个地区进行试测之后发现,测度结果符合中国沿海地区海洋经济发展竞争的现实,具有较高效度和信度,可指导沿海各地海洋经济的竞争发展。  相似文献   

15.
外商直接投资区域差异及影响因素的比较研究   总被引:1,自引:0,他引:1       下载免费PDF全文
仲鑫  陈相森 《统计研究》2012,29(3):54-60
20世纪90年代以来,我国利用外商直接投资进入迅速增长时期,但区域间FDI差异不断扩大成为不可争辩的事实。本文尝试从数量和质量两个方面对我国地级城市间FDI差异进行对比分析发现:1993-2008年我国城市FDI数量和质量均有大幅提升,但城市间FDI差异较大,其中数量差异远大于质量差异,从FDI差异变动趋势看,数量差异和质量差异均呈下降趋势。通过面板GMM估计发现城市经济发展水平、FDI滞后效应以及WTO制度变化对FDI数量和质量均产生显著正向影响,工资水平影响是负向的。但分时段估计发现,随着时间推移,工资水平与FDI项目规模呈显著正向关系,即工资水平提高有利于提升一个城市利用外资平均规模,第三产业比重显著影响FDI数量规模。  相似文献   

16.
There has been ever increasing interest in the use of microarray experiments as a basis for the provision of prediction (discriminant) rules for improved diagnosis of cancer and other diseases. Typically, the microarray cancer studies provide only a limited number of tissue samples from the specified classes of tumours or patients, whereas each tissue sample may contain the expression levels of thousands of genes. Thus researchers are faced with the problem of forming a prediction rule on the basis of a small number of classified tissue samples, which are of very high dimension. Usually, some form of feature (gene) selection is adopted in the formation of the prediction rule. As the subset of genes used in the final form of the rule have not been randomly selected but rather chosen according to some criterion designed to reflect the predictive power of the rule, there will be a selection bias inherent in estimates of the error rates of the rules if care is not taken. We shall present various situations where selection bias arises in the formation of a prediction rule and where there is a consequent need for the correction of this bias. We describe the design of cross-validation schemes that are able to correct for the various selection biases.  相似文献   

17.
本文以生产性服务业集聚的出口传导效应为切入点,采用我国222个城市数据和微观工业企业数据,通过Cloglog模型研究了生产性服务业集聚对企业出口生存的影响并进行了异质性和传导机制的扩展分析。研究发现:生产性服务业集聚通过专业化分工外溢、综合成本节约效应降低企业面临的出口风险,提高出口生存的概率,但上述效应表现出明显的滞后性;高端生产性服务业集聚对延长企业出口持续时间具有显著的正向效应,而低端生产性服务业集聚由于“拥挤效应”阻碍了企业的出口生存和可持续性,内资企业和非国有企业表现得尤为突出;同时,生产性服务业集聚的影响具有显著的地区异质性,高端生产性服务业集聚显著降低了东部地区企业的出口风险,低端生产性服务业集聚对提升西部地区企业出口成功概率的作用更大;此外,我国生产性服务业集聚的特征使得多样化集聚成为影响企业出口生存的主要机制,专业化集聚的作用相对较小。本研究有助于更全面地认识生产性服务业集聚影响我国企业出口生存的作用机制,对政府管理者更加精准与科学地制定服务业发展和对外开放政策具有积极的现实意义。  相似文献   

18.
The aim of this paper is to achieve the complete classification of (69,17,4)-designs admitting an action of any Frobenius group of automorphisms the kernel of which is isomorphic to one of the cyclic groups of order 13, 17 and 23. A positive result can be got only in the case of the nonabelian group of order 39, where the cyclic group of order 3 fixes exactly 9 points.  相似文献   

19.
We describe a class of random field models for geostatistical count data based on Gaussian copulas. Unlike hierarchical Poisson models often used to describe this type of data, Gaussian copula models allow a more direct modelling of the marginal distributions and association structure of the count data. We study in detail the correlation structure of these random fields when the family of marginal distributions is either negative binomial or zero‐inflated Poisson; these represent two types of overdispersion often encountered in geostatistical count data. We also contrast the correlation structure of one of these Gaussian copula models with that of a hierarchical Poisson model having the same family of marginal distributions, and show that the former is more flexible than the latter in terms of range of feasible correlation, sensitivity to the mean function and modelling of isotropy. An exploratory analysis of a dataset of Japanese beetle larvae counts illustrate some of the findings. All of these investigations show that Gaussian copula models are useful alternatives to hierarchical Poisson models, specially for geostatistical count data that display substantial correlation and small overdispersion.  相似文献   

20.
We present a mathematical theory of objective, frequentist chance phenomena that uses as a model a set of probability measures. In this work, sets of measures are not viewed as a statistical compound hypothesis or as a tool for modeling imprecise subjective behavior. Instead we use sets of measures to model stable (although not stationary in the traditional stochastic sense) physical sources of finite time series data that have highly irregular behavior. Such models give a coarse-grained picture of the phenomena, keeping track of the range of the possible probabilities of the events. We present methods to simulate finite data sequences coming from a source modeled by a set of probability measures, and to estimate the model from finite time series data. The estimation of the set of probability measures is based on the analysis of a set of relative frequencies of events taken along subsequences selected by a collection of rules. In particular, we provide a universal methodology for finding a family of subsequence selection rules that can estimate any set of probability measures with high probability.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号