首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   6159篇
  免费   291篇
  国内免费   119篇
管理学   435篇
民族学   15篇
人才学   1篇
人口学   117篇
丛书文集   253篇
理论方法论   134篇
综合类   1652篇
社会学   339篇
统计学   3623篇
  2024年   18篇
  2023年   90篇
  2022年   118篇
  2021年   150篇
  2020年   185篇
  2019年   267篇
  2018年   310篇
  2017年   393篇
  2016年   281篇
  2015年   234篇
  2014年   327篇
  2013年   1069篇
  2012年   406篇
  2011年   274篇
  2010年   234篇
  2009年   232篇
  2008年   254篇
  2007年   247篇
  2006年   205篇
  2005年   219篇
  2004年   187篇
  2003年   146篇
  2002年   106篇
  2001年   126篇
  2000年   99篇
  1999年   73篇
  1998年   70篇
  1997年   49篇
  1996年   27篇
  1995年   35篇
  1994年   27篇
  1993年   17篇
  1992年   23篇
  1991年   12篇
  1990年   12篇
  1989年   6篇
  1988年   8篇
  1987年   7篇
  1986年   6篇
  1985年   6篇
  1984年   6篇
  1983年   5篇
  1981年   1篇
  1980年   1篇
  1979年   1篇
排序方式: 共有6569条查询结果,搜索用时 15 毫秒
1.
部分线性模型是一类非常重要的半参数回归模型,由于它既含有参数部分又含有非参数部分,与常规的线性模型相比具有更强的适应性和解释能力。文章研究带有局部平稳协变量的固定效应部分线性面板数据模型的统计推断。首先提出一个两阶段估计方法得到模型中未知参数和非参数函数的估计,并证明估计量的渐近性质,然后运用不变原理构造出非参数函数的一致置信带,最后通过数值模拟研究和实例分析验证了该方法的有效性。  相似文献   
2.
Abstract

The problem of testing equality of two multivariate normal covariance matrices is considered. Assuming that the incomplete data are of monotone pattern, a quantity similar to the Likelihood Ratio Test Statistic is proposed. A satisfactory approximation to the distribution of the quantity is derived. Hypothesis testing based on the approximate distribution is outlined. The merits of the test are investigated using Monte Carlo simulation. Monte Carlo studies indicate that the test is very satisfactory even for moderately small samples. The proposed methods are illustrated using an example.  相似文献   
3.
系统总结了在伸展构造背景下,导致反映构造特征的地层倾角模式复杂化的多种因素。沉积相的不同、岩性变化、井眼状况和测井作业时间等多种因素都可能使地层倾角资料复杂化。进一步指出在拉张盆地中,进行倾角资料的构造解释,必须了解其构造样式的多样性和复杂性,解释存在的多解性。重点解剖了铲式断层在横剖面情况下,对于不同构造位置下的倾角模式。详细分析了一个倾角模式对应多种构造样式的倾角构造解释实例。倾角资料的构造解释应是综合解释,既要综合井筒的相关地质资料,又要综合测井与地质知识,还必须考虑综合地震资料。  相似文献   
4.
Based on the environment-strategy performance perspective and dynamic capabilities framework, we develop a theoretical model and hypotheses specifying how supply chain collaboration as a response to environment context factors – competitive intensity, supply uncertainty, technological turbulence and market turbulence, using a lean and agile strategy may influence firm performance. We test the model using partial least square structural equation modelling on data collected from a field survey with responses from 152 manufacturing firms representing a variety of industries. Empirical findings generally support the relationship between collaboration and firm performance using a lean and agile strategy. Also, for firms in industries that face environments characterised by high supply uncertainty and competitive intensity with, technological turbulence, the study finds evidence of a direct relationship between these environmental factors and supply chain collaboration. The findings provide an initial strategic response framework for appropriately aligning a lean and agile supply chain strategy through collaboration with environment context factors to achieve firm performance improvements.  相似文献   
5.
Random effects regression mixture models are a way to classify longitudinal data (or trajectories) having possibly varying lengths. The mixture structure of the traditional random effects regression mixture model arises through the distribution of the random regression coefficients, which is assumed to be a mixture of multivariate normals. An extension of this standard model is presented that accounts for various levels of heterogeneity among the trajectories, depending on their assumed error structure. A standard likelihood ratio test is presented for testing this error structure assumption. Full details of an expectation-conditional maximization algorithm for maximum likelihood estimation are also presented. This model is used to analyze data from an infant habituation experiment, where it is desirable to assess whether infants comprise different populations in terms of their habituation time.  相似文献   
6.
Mihyun Kim 《Statistics》2019,53(4):699-720
Functional principal component scores are commonly used to reduce mathematically infinitely dimensional functional data to finite dimensional vectors. In certain applications, most notably in finance, these scores exhibit tail behaviour consistent with the assumption of regular variation. Knowledge of the index of the regular variation, α, is needed to apply methods of extreme value theory. The most commonly used method of the estimation of α is the Hill estimator. We derive conditions under which the Hill estimator computed from the sample scores is consistent for the tail index of the unobservable population scores.  相似文献   
7.
在零售4.0时代,渠道的多样化不仅丰富了数据源,还能迅速生成大量数据,需要通过分析大数据,为决策提取有意义的信息,通过分析先行发货的重要性,提出了一种基于遗传算法(GA)的优化模型,预测顾客何时购买,然后在顾客线下单前将产品运送到距顾客最近的配送中心,解决先行发货中存在的问题。研究认为,需要先部署云计算来存储所有渠道生成的大数据,再应用基于集群的关联规则挖掘研究顾客的购买行为,根据“如果-那么”预测规则预测未来的采购情况,最后利用修正的遗传算法生成最优的先行发货计划;这种遗传算法考虑了其在运输成本和运输距离之外,还有预测规则的置信度,利用大量的数值实验权衡了先行发货中的不同因素,验证了模型的最优可靠性  相似文献   
8.
数字货币,是一种具有财产性价值属性的电磁记录型数据。数字货币在其依存的区块链体系中所彰显的与不特定者之间的支付对价性、与法定货币之间的互换性、使用电子信息处理系统进行转移的在线转移性等特点,得以从数据说的角度,将其作为一种数据性财产权在现行法律框架内对其私法性质进行讨论。有鉴于我国民法总则已将数据纳入保护客体的范畴,数字货币作为数据之一种,理应成为一种新型法律客体,在得到法律理论支撑的基础上获得保护。  相似文献   
9.
介绍了高性能定点可重构DSP处理器的数据通路设计。该数据通路以功能强大的16位定点计算单元为基础,搭建起高速16位数据处理平台;并能以单指令流多数据流的方式灵活支持多维向量运算;通过重构的方法有效地支持了32位数据处理。  相似文献   
10.
Abstract.  Recurrent event data are largely characterized by the rate function but smoothing techniques for estimating the rate function have never been rigorously developed or studied in statistical literature. This paper considers the moment and least squares methods for estimating the rate function from recurrent event data. With an independent censoring assumption on the recurrent event process, we study statistical properties of the proposed estimators and propose bootstrap procedures for the bandwidth selection and for the approximation of confidence intervals in the estimation of the occurrence rate function. It is identified that the moment method without resmoothing via a smaller bandwidth will produce a curve with nicks occurring at the censoring times, whereas there is no such problem with the least squares method. Furthermore, the asymptotic variance of the least squares estimator is shown to be smaller under regularity conditions. However, in the implementation of the bootstrap procedures, the moment method is computationally more efficient than the least squares method because the former approach uses condensed bootstrap data. The performance of the proposed procedures is studied through Monte Carlo simulations and an epidemiological example on intravenous drug users.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号