首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   15371篇
  免费   646篇
  国内免费   190篇
管理学   1534篇
劳动科学   2篇
民族学   131篇
人才学   1篇
人口学   385篇
丛书文集   1017篇
理论方法论   528篇
综合类   8839篇
社会学   1197篇
统计学   2573篇
  2024年   17篇
  2023年   129篇
  2022年   112篇
  2021年   170篇
  2020年   296篇
  2019年   339篇
  2018年   384篇
  2017年   469篇
  2016年   423篇
  2015年   503篇
  2014年   828篇
  2013年   1577篇
  2012年   1087篇
  2011年   1081篇
  2010年   861篇
  2009年   813篇
  2008年   941篇
  2007年   1034篇
  2006年   961篇
  2005年   824篇
  2004年   728篇
  2003年   612篇
  2002年   522篇
  2001年   376篇
  2000年   279篇
  1999年   156篇
  1998年   82篇
  1997年   88篇
  1996年   86篇
  1995年   64篇
  1994年   60篇
  1993年   54篇
  1992年   42篇
  1991年   22篇
  1990年   29篇
  1989年   33篇
  1988年   24篇
  1987年   23篇
  1986年   21篇
  1985年   14篇
  1984年   15篇
  1983年   7篇
  1982年   6篇
  1981年   9篇
  1980年   2篇
  1979年   1篇
  1978年   1篇
  1977年   1篇
  1975年   1篇
排序方式: 共有10000条查询结果,搜索用时 239 毫秒
41.
《政治学核心概念》是一部在国外政治学界有广泛影响的著作。在这部著作中,海伍德强调了政治概念的特殊重要性并对此进行了独到的解释;探讨了政治概念在实际应用中存在的特殊问题并进行了有深度的分析;对"规范性概念"和"描述性概念"进行了富有启发意义的区分与阐释。该书不仅展现了作者在政治概念界定与诠释上的学术专长与独到之处,也体现了作者在政治学知识再现与传播上尽量贴近读者与学生的教师情结与风范。  相似文献   
42.
在对国外公司财务预警经典研究成果进行回顾和总结的基础上,运用多元判别分析方法(MDA)和逐步判别分析(Stepdisc)等方法逐层推进构造预测模型,以经济实用为选择标准,最终建立一个预测准确率最高、变量最少的适合中国实际情况的财务危机预测模型。  相似文献   
43.
根据先前的研究 ,从企业核心能力的角度阐述了自知识能力的本质特征 ,即动态的特征、宽泛的特征、深层次的特征。分析了扼杀企业自知识能力的因素 ,包括企业文化因素、组织结构设计因素、分析性思维因素、策略性决策因素、激励性体系因素等五个方面。在此基础上提出了提升企业自知识能力的对策。  相似文献   
44.
对于大众传媒作为世界的丰富内涵的阐释,则是传媒批判理论始终如一的目标。具体来说,最初是对于大众传媒作为文化世界的发现;继而,是对于大众传媒作为权力世界的发现;然后,是对于大众传媒作为文本世界的发现;最后,是对于大众传媒作为游戏世界的发现,它意味着文化世界、权力世界、文本世界的消解,也意味着全新的传媒世界的即将莅临。  相似文献   
45.
危机管理的目的是为了避免和减少危机的损害,是一场"防御性的战斗",也是一项系统工程。论文结合竞争激烈的施工企业市场实际,从施工企业危机管理入手,阐述了施工企业危机管理目前的共性内容,并通过分析对危机管理的重要意义、危机管理效果和经济效果的衡量等问题,进一步通过施工企业危机管理的经济分析对危机管理投入、所得的界定,研究了危机管理投入的量化及归一化,以及危机管理所得的量化及归一化问题,得出单位投入所带来的整体稳定态势,其值越大表明危机管理越有效。可为施工企业开展此项工作提供一定的理论指导。  相似文献   
46.
Quantifying uncertainty in the biospheric carbon flux for England and Wales   总被引:1,自引:0,他引:1  
Summary.  A crucial issue in the current global warming debate is the effect of vegetation and soils on carbon dioxide (CO2) concentrations in the atmosphere. Vegetation can extract CO2 through photosynthesis, but respiration, decay of soil organic matter and disturbance effects such as fire return it to the atmosphere. The balance of these processes is the net carbon flux. To estimate the biospheric carbon flux for England and Wales, we address the statistical problem of inference for the sum of multiple outputs from a complex deterministic computer code whose input parameters are uncertain. The code is a process model which simulates the carbon dynamics of vegetation and soils, including the amount of carbon that is stored as a result of photosynthesis and the amount that is returned to the atmosphere through respiration. The aggregation of outputs corresponding to multiple sites and types of vegetation in a region gives an estimate of the total carbon flux for that region over a period of time. Expert prior opinions are elicited for marginal uncertainty about the relevant input parameters and for correlations of inputs between sites. A Gaussian process model is used to build emulators of the multiple code outputs and Bayesian uncertainty analysis is then used to propagate uncertainty in the input parameters through to uncertainty on the aggregated output. Numerical results are presented for England and Wales in the year 2000. It is estimated that vegetation and soils in England and Wales constituted a net sink of 7.55 Mt C (1 Mt C = 1012 g of carbon) in 2000, with standard deviation 0.56 Mt C resulting from the sources of uncertainty that are considered.  相似文献   
47.
建立了S油田勘探、开发、炼化、机械、公用工程等多个部门和全局的非线性多级目标优化规划模型,应用关联分析、改进灰色预测、回归分析求取规划模型的约束方程并线性化;编制了相应的计算软件,使之快速预测和优化油田各部门“九五”各年的投资和产值;并将优化结果与油田过去或计划值加以对比,给油田规划决策带来一定的参考。  相似文献   
48.
Summary.  Social data often contain missing information. The problem is inevitably severe when analysing historical data. Conventionally, researchers analyse complete records only. Listwise deletion not only reduces the effective sample size but also may result in biased estimation, depending on the missingness mechanism. We analyse household types by using population registers from ancient China (618–907 AD) by comparing a simple classification, a latent class model of the complete data and a latent class model of the complete and partially missing data assuming four types of ignorable and non-ignorable missingness mechanisms. The findings show that either a frequency classification or a latent class analysis using the complete records only yielded biased estimates and incorrect conclusions in the presence of partially missing data of a non-ignorable mechanism. Although simply assuming ignorable or non-ignorable missing data produced consistently similarly higher estimates of the proportion of complex households, a specification of the relationship between the latent variable and the degree of missingness by a row effect uniform association model helped to capture the missingness mechanism better and improved the model fit.  相似文献   
49.
Bayesian networks for imputation   总被引:1,自引:0,他引:1  
Summary.  Bayesian networks are particularly useful for dealing with high dimensional statistical problems. They allow a reduction in the complexity of the phenomenon under study by representing joint relationships between a set of variables through conditional relationships between subsets of these variables. Following Thibaudeau and Winkler we use Bayesian networks for imputing missing values. This method is introduced to deal with the problem of the consistency of imputed values: preservation of statistical relationships between variables ( statistical consistency ) and preservation of logical constraints in data ( logical consistency ). We perform some experiments on a subset of anonymous individual records from the 1991 UK population census.  相似文献   
50.
This paper argues that Fisher's paradox can be explained away in terms of estimator choice. We analyse by means of Monte Carlo experiments the small sample properties of a large set of estimators (including virtually all available single-equation estimators), and compute the critical values based on the empirical distributions of the t-statistics, for a variety of Data Generation Processes (DGPs), allowing for structural breaks, ARCH effects etc. We show that precisely the estimators most commonly used in the literature, namely OLS, Dynamic OLS (DOLS) and non-prewhitened FMLS, have the worst performance in small samples, and produce rejections of the Fisher hypothesis. If one employs the estimators with the most desirable properties (i.e., the smallest downward bias and the minimum shift in the distribution of the associated t-statistics), or if one uses the empirical critical values, the evidence based on US data is strongly supportive of the Fisher relation, consistently with many theoretical models.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号