首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   21篇
  免费   1篇
管理学   1篇
丛书文集   1篇
理论方法论   1篇
社会学   17篇
统计学   2篇
  2024年   1篇
  2022年   1篇
  2021年   1篇
  2020年   2篇
  2019年   1篇
  2017年   2篇
  2015年   1篇
  2010年   1篇
  2008年   1篇
  2007年   2篇
  2006年   1篇
  2005年   1篇
  1999年   1篇
  1998年   1篇
  1988年   1篇
  1987年   1篇
  1986年   1篇
  1979年   1篇
  1972年   1篇
排序方式: 共有22条查询结果,搜索用时 0 毫秒
21.
Consider a mixture problem consisting of k classes. Suppose we observe an s-dimensional random vector X   whose distribution is specified by the relations P(X∈A|Y=i)=Pi(A)P(XA|Y=i)=Pi(A), where Y   is an unobserved class identifier defined on {1,…,k}{1,,k}, having distribution P(Y=i)=piP(Y=i)=pi. Assuming the distributions PiPi having a common covariance matrix, elegant identities are presented that connect the matrix of Fisher information in Y   on the parameters p1,…,pkp1,,pk, the matrix of linear information in X, and the Mahalanobis distances between the pairs of P  's. Since the parameters are not free, the information matrices are singular and the technique of generalized inverses is used. A matrix extension of the Mahalanobis distance and its invariant forms are introduced that are of interest in their own right. In terms of parameter estimation, the results provide an independent of the parameter upper bound for the loss of accuracy by esimating p1,…,pkp1,,pk from a sample of XXs, as compared with the ideal estimator based on a random sample of YYs.  相似文献   
22.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号