3020:
2327:
3015:{\displaystyle {\begin{aligned}(\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})^{\mathsf {T}}(\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})&=^{\mathsf {T}}\\&=(\mathbf {y} -\mathbf {X} {\hat {\boldsymbol {\beta }}})^{\mathsf {T}}(\mathbf {y} -\mathbf {X} {\hat {\boldsymbol {\beta }}})+({\boldsymbol {\beta }}-{\hat {\boldsymbol {\beta }}})^{\mathsf {T}}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} )({\boldsymbol {\beta }}-{\hat {\boldsymbol {\beta }}})+\underbrace {2(\mathbf {X} {\hat {\boldsymbol {\beta }}}-\mathbf {X} {\boldsymbol {\beta }})^{\mathsf {T}}(\mathbf {y} -\mathbf {X} {\hat {\boldsymbol {\beta }}})} _{=\ 0}\\&=(\mathbf {y} -\mathbf {X} {\hat {\boldsymbol {\beta }}})^{\mathsf {T}}(\mathbf {y} -\mathbf {X} {\hat {\boldsymbol {\beta }}})+({\boldsymbol {\beta }}-{\hat {\boldsymbol {\beta }}})^{\mathsf {T}}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} )({\boldsymbol {\beta }}-{\hat {\boldsymbol {\beta }}})\,.\end{aligned}}}
5033:
5796:
6304:
4494:
5402:
5813:
5028:{\displaystyle {\begin{aligned}\rho ({\boldsymbol {\beta }},\sigma ^{2}\mid \mathbf {y} ,\mathbf {X} )&\propto \rho (\mathbf {y} \mid \mathbf {X} ,{\boldsymbol {\beta }},\sigma ^{2})\rho ({\boldsymbol {\beta }}\mid \sigma ^{2})\rho (\sigma ^{2})\\&\propto (\sigma ^{2})^{-n/2}\exp \left(-{\frac {1}{2{\sigma }^{2}}}(\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})^{\mathsf {T}}(\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})\right)(\sigma ^{2})^{-k/2}\exp \left(-{\frac {1}{2\sigma ^{2}}}({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{0})^{\mathsf {T}}{\boldsymbol {\Lambda }}_{0}({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{0})\right)(\sigma ^{2})^{-(a_{0}+1)}\exp \left(-{\frac {b_{0}}{\sigma ^{2}}}\right)\end{aligned}}}
5791:{\displaystyle (\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})^{\mathsf {T}}(\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})+({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{0})^{\mathsf {T}}{\boldsymbol {\Lambda }}_{0}({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{0})=({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{n})^{\mathsf {T}}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} +{\boldsymbol {\Lambda }}_{0})({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{n})+\mathbf {y} ^{\mathsf {T}}\mathbf {y} -{\boldsymbol {\mu }}_{n}^{\mathsf {T}}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} +{\boldsymbol {\Lambda }}_{0}){\boldsymbol {\mu }}_{n}+{\boldsymbol {\mu }}_{0}^{\mathsf {T}}{\boldsymbol {\Lambda }}_{0}{\boldsymbol {\mu }}_{0}.}
6299:{\displaystyle \rho ({\boldsymbol {\beta }},\sigma ^{2}\mid \mathbf {y} ,\mathbf {X} )\propto (\sigma ^{2})^{-k/2}\exp \left(-{\frac {1}{2{\sigma }^{2}}}({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{n})^{\mathsf {T}}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} +\mathbf {\Lambda } _{0})({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{n})\right)(\sigma ^{2})^{-{\frac {n+2a_{0}}{2}}-1}\exp \left(-{\frac {2b_{0}+\mathbf {y} ^{\mathsf {T}}\mathbf {y} -{\boldsymbol {\mu }}_{n}^{\mathsf {T}}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} +{\boldsymbol {\Lambda }}_{0}){\boldsymbol {\mu }}_{n}+{\boldsymbol {\mu }}_{0}^{\mathsf {T}}{\boldsymbol {\Lambda }}_{0}{\boldsymbol {\mu }}_{0}}{2\sigma ^{2}}}\right).}
7982:
11155:
8844:
686:
268:
3348:
3027:
11141:
6985:
6773:
11179:
3343:{\displaystyle \rho (\mathbf {y} |\mathbf {X} ,{\boldsymbol {\beta }},\sigma ^{2})\propto (\sigma ^{2})^{-{\frac {v}{2}}}\exp \left(-{\frac {vs^{2}}{2{\sigma }^{2}}}\right)(\sigma ^{2})^{-{\frac {n-v}{2}}}\exp \left(-{\frac {1}{2{\sigma }^{2}}}({\boldsymbol {\beta }}-{\hat {\boldsymbol {\beta }}})^{\mathsf {T}}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} )({\boldsymbol {\beta }}-{\hat {\boldsymbol {\beta }}})\right),}
1417:
4392:
11167:
36:
7598:
6777:
6592:
5323:
7827:
6450:
1224:
4199:
7375:
5179:
3477:
7370:
7671:
6311:
6980:{\displaystyle a_{n}=a_{0}+{\frac {n}{2}},\qquad b_{n}=b_{0}+{\frac {1}{2}}(\mathbf {y} ^{\mathsf {T}}\mathbf {y} +{\boldsymbol {\mu }}_{0}^{\mathsf {T}}{\boldsymbol {\Lambda }}_{0}{\boldsymbol {\mu }}_{0}-{\boldsymbol {\mu }}_{n}^{\mathsf {T}}{\boldsymbol {\Lambda }}_{n}{\boldsymbol {\mu }}_{n}).}
6768:{\displaystyle {\boldsymbol {\Lambda }}_{n}=(\mathbf {X} ^{\mathsf {T}}\mathbf {X} +\mathbf {\Lambda } _{0}),\quad {\boldsymbol {\mu }}_{n}=({\boldsymbol {\Lambda }}_{n})^{-1}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} {\hat {\boldsymbol {\beta }}}+{\boldsymbol {\Lambda }}_{0}{\boldsymbol {\mu }}_{0}),}
3788:
1513:
1412:{\displaystyle \rho (\mathbf {y} \mid \mathbf {X} ,{\boldsymbol {\beta }},\sigma ^{2})\propto (\sigma ^{2})^{-n/2}\exp \left(-{\frac {1}{2\sigma ^{2}}}(\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})^{\mathsf {T}}(\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})\right).}
4387:{\displaystyle \rho ({\boldsymbol {\beta }}\mid \sigma ^{2})\propto (\sigma ^{2})^{-k/2}\exp \left(-{\frac {1}{2\sigma ^{2}}}({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{0})^{\mathsf {T}}\mathbf {\Lambda } _{0}({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{0})\right).}
3353:
3596:
2119:
7257:
7159:. These models may differ in the number and values of the predictor variables as well as in their priors on the model parameters. Model complexity is already taken into account by the model evidence, because it marginalizes out the parameters by integrating
6530:
4480:
7593:{\displaystyle p(\mathbf {y} \mid m)={\frac {1}{(2\pi )^{n/2}}}{\sqrt {\frac {\det({\boldsymbol {\Lambda }}_{0})}{\det({\boldsymbol {\Lambda }}_{n})}}}\cdot {\frac {b_{0}^{a_{0}}}{b_{n}^{a_{n}}}}\cdot {\frac {\Gamma (a_{n})}{\Gamma (a_{0})}}}
5318:{\displaystyle {\boldsymbol {\mu }}_{n}=(\mathbf {X} ^{\mathsf {T}}\mathbf {X} +{\boldsymbol {\Lambda }}_{0})^{-1}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} {\hat {\boldsymbol {\beta }}}+{\boldsymbol {\Lambda }}_{0}{\boldsymbol {\mu }}_{0}).}
1949:
1069:
7155:. The model evidence captures in a single number how well such a model explains the observations. The model evidence of the Bayesian linear regression model presented in this section can be used to compare competing linear models by
7919:
3640:
7210:
7116:
7822:{\displaystyle p(\mathbf {y} \mid m)={\frac {p({\boldsymbol {\beta }},\sigma |m)\,p(\mathbf {y} \mid \mathbf {X} ,{\boldsymbol {\beta }},\sigma ,m)}{p({\boldsymbol {\beta }},\sigma \mid \mathbf {y} ,\mathbf {X} ,m)}}}
6445:{\displaystyle \rho ({\boldsymbol {\beta }},\sigma ^{2}\mid \mathbf {y} ,\mathbf {X} )\propto \rho ({\boldsymbol {\beta }}\mid \sigma ^{2},\mathbf {y} ,\mathbf {X} )\rho (\sigma ^{2}\mid \mathbf {y} ,\mathbf {X} ),}
1432:
2320:
3505:
5395:
4140:
6585:
4188:
2209:
1211:
4499:
3961:
2332:
7153:
1997:
3845:
1602:
5115:
2044:
5173:
6455:
3894:
5354:
5144:
5064:
4403:
7646:
7232:
5086:
3472:{\displaystyle vs^{2}=(\mathbf {y} -\mathbf {X} {\hat {\boldsymbol {\beta }}})^{\mathsf {T}}(\mathbf {y} -\mathbf {X} {\hat {\boldsymbol {\beta }}})\quad {\text{ and }}\quad v=n-k,}
2277:
2235:
1768:
1730:
1093:
7035:
1004:
8299:
3632:
1146:
999:
1701:
7365:{\displaystyle p(\mathbf {y} |m)=\int p(\mathbf {y} \mid \mathbf {X} ,{\boldsymbol {\beta }},\sigma )\,p({\boldsymbol {\beta }},\sigma )\,d{\boldsymbol {\beta }}\,d\sigma }
913:
2141:
2039:
1883:
1861:
1839:
1817:
1624:
1537:
4020:
1563:
1119:
970:
7666:
7620:
7252:
2255:
2017:
1788:
1888:
4067:
3988:
944:
7833:. Inserting the formulas for the prior, the likelihood, and the posterior and simplifying the resulting expression leads to the analytic expression given above.
7055:
4040:
3497:
1644:
851:
831:
807:
781:
7841:
In general, it may be impossible or impractical to derive the posterior distribution analytically. However, it is possible to approximate the posterior by an
7626:. Because we have chosen a conjugate prior, the marginal likelihood can also be easily computed by evaluating the following equality for arbitrary values of
8292:
7863:
7162:
7068:
6989:
which illustrates
Bayesian inference being a compromise between the information contained in the prior and the information contained in the sample.
7970:
11210:
10276:
8361:
8285:
10781:
8114:
298:
2282:
1158:
10931:
3783:{\displaystyle \rho (\sigma ^{2})\propto (\sigma ^{2})^{-{\frac {v_{0}}{2}}-1}\exp \left(-{\frac {v_{0}s_{0}^{2}}{2\sigma ^{2}}}\right).}
89:
8267:
10555:
9196:
8370:
5363:
4076:
10329:
8375:
7850:
716:
171:
10768:
8808:
7933:
4070:
1508:{\displaystyle {\hat {\boldsymbol {\beta }}}=(\mathbf {X} ^{\mathsf {T}}\mathbf {X} )^{-1}\mathbf {X} ^{\mathsf {T}}\mathbf {y} }
865:âthe posterior can be found analytically. With more arbitrarily chosen priors, the posteriors generally have to be approximated.
626:
6535:
7928:
A similar analysis can be performed for the general case of the multivariate regression and part of this provides for
Bayesian
4147:
2170:
8213:
8194:
8172:
9191:
8891:
8343:
8069:
The intermediate steps of this computation can be found in O'Hagan (1994) at the beginning of the chapter on Linear models.
916:
616:
3591:{\displaystyle \rho ({\boldsymbol {\beta }},\sigma ^{2})=\rho (\sigma ^{2})\rho ({\boldsymbol {\beta }}\mid \sigma ^{2}),}
9795:
8943:
8703:
3899:
2121:. The latter part is usually ignored under the assumption of disjoint parameter sets. More so, under classic assumptions
2143:
are considered chosen (for example, in a designed experiment) and therefore has a known probability without parameters.
8683:
8333:
7121:
1954:
2114:{\displaystyle \rho (\mathbf {y} \mid {\boldsymbol {\mathbf {X} }},\beta ,\sigma ^{2})\rho (\mathbf {X} \mid \gamma )}
10578:
10470:
8603:
8251:
8145:
8126:
8096:
Carlin and Louis (2008) and Gelman, et al. (2003) explain how to use sampling methods for
Bayesian linear regression.
8025:
8003:
7965:
7929:
3799:
291:
254:
7996:
1571:
11183:
10756:
10630:
8409:
7842:
5091:
580:
181:
6525:{\displaystyle {\mathcal {N}}\left({\boldsymbol {\mu }}_{n},\sigma ^{2}{\boldsymbol {\Lambda }}_{n}^{-1}\right)\,}
5149:
10814:
10475:
10220:
9591:
9181:
4475:{\displaystyle {\mathcal {N}}\left({\boldsymbol {\mu }}_{0},\sigma ^{2}{\boldsymbol {\Lambda }}_{0}^{-1}\right).}
1426:
631:
569:
389:
364:
207:
84:
10865:
10077:
9884:
9773:
9731:
8645:
8232:
3850:
1737:
491:
145:
9805:
5330:
5120:
5040:
1790:. The prior can take different functional forms depending on the domain and the information that is available
11108:
10067:
8970:
450:
7629:
7215:
5069:
2260:
2218:
1751:
1713:
1076:
10659:
10608:
10593:
10583:
10452:
10324:
10291:
10117:
10072:
9902:
8831:
8731:
8721:
8640:
8585:
7003:
709:
284:
176:
114:
11205:
11171:
11003:
10804:
10728:
10029:
9783:
9452:
8916:
8858:
8673:
5357:
652:
3601:
10888:
10860:
10855:
10603:
10268:
10248:
10156:
9867:
9685:
9168:
9040:
8353:
5805:
3793:
3635:
590:
517:
166:
1124:
975:
10620:
10388:
10109:
10034:
9963:
9892:
9812:
9800:
9670:
9658:
9651:
9359:
9080:
8698:
8525:
8489:
8458:
7955:
7950:
7156:
1740:. The prior belief about the parameters is combined with the data's likelihood function according to
611:
600:
564:
471:
228:
109:
1649:
11103:
10870:
10733:
10418:
10383:
10347:
10132:
9574:
9483:
9442:
9354:
9045:
8884:
8678:
8556:
8520:
8448:
8338:
8320:
8271:
7990:
880:
752:
672:
543:
466:
359:
338:
249:
161:
2124:
2022:
1866:
1844:
1822:
1800:
1607:
1520:
11012:
10625:
10565:
10502:
10140:
10124:
9862:
9724:
9714:
9564:
9478:
8419:
7960:
7945:
785:
730:
702:
595:
7372:
This integral can be computed analytically and the solution is given in the following equation.
11050:
10980:
10773:
10710:
10465:
10352:
9349:
9246:
9153:
9032:
8931:
8772:
8598:
8463:
8453:
8404:
8007:
3993:
2157:
1944:{\displaystyle \rho (\mathbf {y} ,\mathbf {X} \mid {\boldsymbol {\beta }},\sigma ^{2},\gamma )}
1542:
1422:
1098:
949:
559:
554:
496:
140:
1710:
approach, and it assumes that there are enough measurements to say something meaningful about
11075:
11017:
10960:
10786:
10679:
10588:
10314:
10198:
10057:
10049:
9939:
9931:
9746:
9642:
9620:
9579:
9544:
9511:
9457:
9432:
9387:
9326:
9286:
9088:
8911:
8853:
8813:
8777:
8762:
8713:
8657:
8484:
7651:
7605:
7237:
5356:
is indeed the posterior mean, the quadratic terms in the exponential can be re-arranged as a
2240:
2002:
1773:
1745:
748:
647:
343:
43:
1064:{\displaystyle y_{i}=\mathbf {x} _{i}^{\mathsf {T}}{\boldsymbol {\beta }}+\varepsilon _{i},}
10998:
10573:
10522:
10498:
10460:
10378:
10357:
10309:
10188:
10166:
10135:
10044:
9921:
9872:
9790:
9763:
9719:
9675:
9437:
9213:
9093:
8818:
8757:
8744:
8693:
8593:
8515:
8494:
8468:
7846:
4045:
3966:
2041:. Only under the assumption of (weak) exogeneity can the joint likelihood be factored into
1152:
922:
667:
657:
538:
506:
461:
440:
348:
223:
104:
74:
1885:
needs justification. In fact, a "full" Bayesian analysis would require a joint likelihood
8:
11145:
11070:
10993:
10674:
10438:
10431:
10393:
10301:
10281:
10253:
9986:
9852:
9847:
9837:
9829:
9647:
9608:
9498:
9488:
9397:
9176:
9132:
9050:
8975:
8877:
8836:
8767:
8652:
8619:
8571:
8561:
8540:
8535:
8414:
8396:
8381:
8312:
7058:
5801:
4397:
4191:
1216:
854:
585:
486:
481:
435:
384:
374:
319:
55:
47:
27:
8277:
11159:
10970:
10824:
10720:
10669:
10545:
10442:
10426:
10403:
10180:
9914:
9897:
9857:
9768:
9663:
9625:
9596:
9556:
9516:
9462:
9379:
9065:
9060:
8848:
8752:
8741:
8566:
7040:
4025:
3482:
1733:
1629:
836:
816:
792:
766:
744:
690:
419:
404:
272:
197:
99:
69:
8087:
The intermediate steps of this computation can be found in O'Hagan (1994) on page 257.
11154:
11065:
11035:
11027:
10847:
10838:
10763:
10694:
10550:
10535:
10510:
10398:
10339:
10205:
10193:
9819:
9736:
9680:
9603:
9447:
9369:
9148:
9022:
8843:
8803:
8530:
8440:
8431:
8247:
8228:
8209:
8190:
8168:
8141:
8122:
7854:
5037:
With some re-arrangement, the posterior can be re-written so that the posterior mean
874:
858:
740:
685:
476:
379:
333:
267:
202:
79:
51:
11090:
11045:
10809:
10796:
10689:
10664:
10598:
10530:
10408:
10016:
9909:
9842:
9755:
9702:
9521:
9392:
9186:
9070:
8985:
8952:
8499:
8366:
8246:. Kendall's Advanced Theory of Statistics. Vol. 2B (First ed.). Halsted.
8160:
8110:
7922:
501:
430:
94:
11007:
10751:
10613:
10540:
10215:
10089:
10062:
10039:
10008:
9635:
9630:
9584:
9314:
8965:
8782:
8688:
8629:
8624:
2212:
2161:
2156:
For an arbitrary prior distribution, there may be no analytical solution for the
1736:
approach, the data are supplemented with additional information in the form of a
862:
662:
369:
130:
10497:
7914:{\displaystyle {\boldsymbol {\mu }}_{0}=0,\mathbf {\Lambda } _{0}=c\mathbf {I} }
760:
10956:
10951:
9414:
9344:
8990:
8726:
7623:
7205:{\displaystyle p(\mathbf {y} ,{\boldsymbol {\beta }},\sigma \mid \mathbf {X} )}
7111:{\displaystyle p(\mathbf {y} \mid \mathbf {X} ,{\boldsymbol {\beta }},\sigma )}
6998:
2215:
to this likelihood function if it has the same functional form with respect to
414:
8164:
2279:, the log-likelihood is re-written such that the likelihood becomes normal in
11199:
11113:
11080:
10943:
10904:
10715:
10684:
10148:
10102:
9707:
9409:
9236:
9000:
8995:
8798:
8328:
8308:
8182:
7830:
4489:
With the prior now specified, the posterior distribution can be expressed as
1741:
1565:
756:
533:
409:
11055:
10988:
10965:
10880:
10210:
9506:
9404:
9339:
9281:
9266:
9203:
9158:
751:
of the regression coefficients (as well as other parameters describing the
399:
244:
8189:(Third ed.). Boca Raton, FL: Chapman and Hall/CRC. pp. 353â380.
11098:
11060:
10743:
10644:
10506:
10319:
10286:
9778:
9695:
9690:
9334:
9291:
9271:
9251:
9241:
9010:
8386:
5146:, with the strength of the prior indicated by the prior precision matrix
1707:
445:
394:
9944:
9424:
9124:
9055:
9005:
8980:
8900:
6308:
Therefore, the posterior distribution can be parametrized as follows.
2315:{\displaystyle ({\boldsymbol {\beta }}-{\hat {\boldsymbol {\beta }}})}
10097:
9949:
9569:
9364:
9276:
9261:
9256:
9221:
9613:
9231:
9108:
9103:
9098:
8135:
2164:
for which the posterior distribution can be derived analytically.
809:). The simplest and most widely used version of this model is the
11118:
10819:
8078:
The intermediate steps are in
Fahrmeir et al. (2009) on page 188.
11040:
10021:
9995:
9975:
9226:
9017:
5390:{\displaystyle {\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{n}}
1149:
4135:{\displaystyle {\text{Scale-inv-}}\chi ^{2}(v_{0},s_{0}^{2}).}
1425:
solution is used to estimate the coefficient vector using the
8869:
8268:
Bayesian estimation of linear models (R programming wikibook)
8223:
Rossi, Peter E.; Allenby, Greg M.; McCulloch, Robert (2006).
8154:
4069:, respectively. Equivalently, it can also be described as a
35:
8960:
8185:; et al. (2013). "Introduction to regression models".
7829:
Note that this equation is nothing but a re-arrangement of
6580:{\displaystyle {\text{Inv-Gamma}}\left(a_{n},b_{n}\right)}
8307:
5088:
can be expressed in terms of the least squares estimator
4183:{\displaystyle \rho ({\boldsymbol {\beta }}|\sigma ^{2})}
2204:{\displaystyle \rho ({\boldsymbol {\beta }},\sigma ^{2})}
8140:(Third ed.). Boca Raton, FL: Chapman and Hall/CRC.
7065:. Here, the model is defined by the likelihood function
8181:
3917:
3868:
1206:{\displaystyle \varepsilon _{i}\sim N(0,\sigma ^{2}).}
8222:
7866:
7674:
7654:
7632:
7608:
7378:
7260:
7240:
7218:
7165:
7124:
7071:
7043:
7006:
6780:
6595:
6587:
distributions, with the parameters of these given by
6538:
6458:
6452:
where the two factors correspond to the densities of
6314:
5816:
5405:
5366:
5333:
5182:
5152:
5123:
5094:
5072:
5043:
4497:
4406:
4202:
4150:
4079:
4048:
4028:
3996:
3969:
3902:
3853:
3802:
3643:
3604:
3508:
3485:
3356:
3030:
2330:
2285:
2263:
2243:
2221:
2173:
2127:
2047:
2025:
2005:
1957:
1891:
1869:
1847:
1825:
1803:
1776:
1754:
1716:
1652:
1632:
1610:
1574:
1545:
1523:
1435:
1227:
1161:
1127:
1101:
1079:
1007:
978:
952:
925:
883:
839:
819:
795:
769:
10782:
Autoregressive conditional heteroskedasticity (ARCH)
8241:
743:
in which the mean of one variable is described by a
7118:and the prior distribution on the parameters, i.e.
3956:{\displaystyle b_{0}={\tfrac {1}{2}}v_{0}s_{0}^{2}}
747:of other variables, with the goal of obtaining the
10244:
7913:
7821:
7660:
7640:
7614:
7592:
7364:
7246:
7226:
7204:
7147:
7110:
7049:
7029:
6979:
6767:
6579:
6524:
6444:
6298:
5790:
5389:
5348:
5317:
5167:
5138:
5109:
5080:
5058:
5027:
4474:
4386:
4182:
4134:
4061:
4034:
4014:
3982:
3955:
3888:
3839:
3782:
3626:
3590:
3491:
3471:
3342:
3014:
2314:
2271:
2249:
2229:
2203:
2135:
2113:
2033:
2019:symbolizes the parameters of the distribution for
2011:
1991:
1943:
1877:
1855:
1833:
1811:
1782:
1762:
1724:
1695:
1638:
1618:
1596:
1557:
1531:
1507:
1411:
1205:
1140:
1113:
1087:
1063:
993:
964:
938:
907:
857:. In this model, and under a particular choice of
845:
825:
801:
775:
7148:{\displaystyle p({\boldsymbol {\beta }},\sigma )}
1992:{\displaystyle \rho (\beta ,\sigma ^{2},\gamma )}
11197:
7971:Bayesian interpretation of kernel regularization
7465:
7442:
2160:. In this section, we will consider a so-called
10330:Multivariate adaptive regression splines (MARS)
8270:. Bayesian linear regression as implemented in
7037:is the probability of the data given the model
3840:{\displaystyle {\text{Inv-Gamma}}(a_{0},b_{0})}
2151:
755:of the regressand) and ultimately allowing the
1597:{\displaystyle \mathbf {x} _{i}^{\mathsf {T}}}
8885:
8293:
8157:Regression. Modelle, Methoden und Anwendungen
8136:Carlin, Bradley P.; Louis, Thomas A. (2008).
5110:{\displaystyle {\hat {\boldsymbol {\beta }}}}
710:
292:
8204:Jackman, Simon (2009). "Regression models".
5168:{\displaystyle {\boldsymbol {\Lambda }}_{0}}
2257:. Since the log-likelihood is quadratic in
789:observed values of the regressors (usually
8930:
8892:
8878:
8300:
8286:
8155:Fahrmeir, L.; Kneib, T.; Lang, S. (2009).
8119:Bayesian Inference in Statistical Analysis
3499:is the number of regression coefficients.
1670:
1666:
1568:, each row of which is a predictor vector
717:
703:
299:
285:
9543:
8206:Bayesian Analysis for the Social Sciences
8159:(Second ed.). Heidelberg: Springer.
8026:Learn how and when to remove this message
7729:
7355:
7346:
7325:
6521:
4484:
3889:{\displaystyle a_{0}={\tfrac {v_{0}}{2}}}
3004:
7989:This article includes a list of general
5800:Now the posterior can be expressed as a
5349:{\displaystyle {\boldsymbol {\mu }}_{n}}
5139:{\displaystyle {\boldsymbol {\mu }}_{0}}
5059:{\displaystyle {\boldsymbol {\mu }}_{n}}
4400:, the conditional prior distribution is
2146:
1841:, the focus only on the distribution of
172:Integrated nested Laplace approximations
8809:Numerical smoothing and differentiation
8203:
8109:
7934:Bayesian multivariate linear regression
7869:
7781:
7753:
7708:
7634:
7351:
7333:
7312:
7220:
7181:
7132:
7095:
6961:
6930:
6915:
6884:
6749:
6723:
6657:
6473:
6368:
6322:
6260:
6229:
6214:
6155:
6023:
6014:
5948:
5939:
5824:
5775:
5744:
5729:
5670:
5630:
5621:
5555:
5546:
5526:
5517:
5479:
5470:
5456:
5423:
5377:
5368:
5336:
5299:
5273:
5185:
5126:
5098:
5074:
5046:
4915:
4906:
4868:
4859:
4773:
4740:
4602:
4575:
4509:
4421:
4363:
4354:
4316:
4307:
4210:
4158:
4071:scaled inverse chi-squared distribution
3565:
3516:
3432:
3392:
3320:
3310:
3260:
3250:
3056:
2992:
2982:
2932:
2922:
2903:
2863:
2804:
2769:
2751:
2718:
2708:
2658:
2648:
2629:
2589:
2550:
2532:
2506:
2465:
2447:
2421:
2385:
2352:
2300:
2290:
2265:
2223:
2181:
1915:
1756:
1718:
1439:
1394:
1361:
1251:
1081:
1041:
11211:Single-equation methods (econometrics)
11198:
10856:KaplanâMeier estimator (product limit)
7641:{\displaystyle {\boldsymbol {\beta }}}
7227:{\displaystyle {\boldsymbol {\beta }}}
6941:
6895:
6868:
6709:
6622:
6240:
6183:
6166:
6139:
5981:
5964:
5755:
5698:
5681:
5654:
5588:
5571:
5495:
5433:
5259:
5209:
5081:{\displaystyle {\boldsymbol {\beta }}}
4884:
4750:
4332:
4144:Further the conditional prior density
3407:
3292:
3275:
2964:
2947:
2878:
2779:
2690:
2673:
2604:
2478:
2362:
2272:{\displaystyle {\boldsymbol {\beta }}}
2230:{\displaystyle {\boldsymbol {\beta }}}
1763:{\displaystyle {\boldsymbol {\beta }}}
1725:{\displaystyle {\boldsymbol {\beta }}}
1687:
1588:
1494:
1462:
1371:
1088:{\displaystyle {\boldsymbol {\beta }}}
1034:
10929:
10496:
10243:
9542:
9312:
8929:
8873:
8281:
7030:{\displaystyle p(\mathbf {y} \mid m)}
11166:
10866:Accelerated failure time (AFT) model
8344:Iteratively reweighted least squares
7975:
3502:This suggests a form for the prior:
3024:The likelihood is now re-written as
11178:
10461:Analysis of variance (ANOVA, anova)
9313:
3796:article, this is the density of an
3792:In the notation introduced in the
13:
10556:CochranâMantelâHaenszel statistics
9182:Pearson product-moment correlation
8362:Pearson product-moment correlation
8138:Bayesian Methods for Data Analysis
7995:it lacks sufficient corresponding
7609:
7568:
7547:
6461:
4409:
3627:{\displaystyle \rho (\sigma ^{2})}
1215:This corresponds to the following
14:
11222:
8261:
8225:Bayesian Statistics and Marketing
8060:See Gelman et al. (2013), p. 354.
7966:Spike and slab variable selection
7930:estimation of covariance matrices
6992:
11177:
11165:
11153:
11140:
11139:
10930:
8842:
7980:
7907:
7890:
7803:
7795:
7745:
7737:
7682:
7473:
7450:
7386:
7304:
7296:
7268:
7195:
7173:
7087:
7079:
7014:
6949:
6903:
6875:
6862:
6737:
6716:
6703:
6675:
6638:
6629:
6616:
6598:
6498:
6432:
6424:
6397:
6389:
6351:
6343:
6248:
6199:
6190:
6177:
6146:
6133:
5997:
5988:
5975:
5853:
5845:
5763:
5714:
5705:
5692:
5661:
5648:
5604:
5595:
5582:
5503:
5451:
5443:
5418:
5410:
5287:
5266:
5253:
5225:
5216:
5203:
5155:
4892:
4768:
4760:
4735:
4727:
4567:
4559:
4538:
4530:
4446:
4340:
3425:
3417:
3385:
3377:
3299:
3286:
3048:
3038:
2971:
2958:
2896:
2888:
2856:
2848:
2797:
2789:
2764:
2744:
2697:
2684:
2622:
2614:
2582:
2574:
2545:
2525:
2499:
2491:
2460:
2440:
2414:
2406:
2380:
2372:
2347:
2339:
2129:
2098:
2064:
2055:
2027:
1907:
1899:
1871:
1849:
1827:
1805:
1612:
1577:
1525:
1501:
1488:
1469:
1456:
1389:
1381:
1356:
1348:
1243:
1235:
1141:{\displaystyle \varepsilon _{i}}
1023:
994:{\displaystyle \mathbf {x} _{i}}
981:
684:
266:
182:Approximate Bayesian computation
34:
10815:Least-squares spectral analysis
6820:
6654:
3450:
3444:
632:Least-squares spectral analysis
570:Generalized estimating equation
390:Multinomial logistic regression
365:Vector generalized linear model
208:Maximum a posteriori estimation
9796:Mean-unbiased minimum-variance
8899:
8090:
8081:
8072:
8063:
8054:
8045:
7843:approximate Bayesian inference
7836:
7813:
7777:
7769:
7733:
7726:
7719:
7704:
7692:
7678:
7584:
7571:
7563:
7550:
7483:
7468:
7460:
7445:
7418:
7408:
7396:
7382:
7343:
7329:
7322:
7292:
7280:
7273:
7264:
7199:
7169:
7142:
7128:
7105:
7075:
7024:
7010:
6971:
6857:
6759:
6726:
6698:
6686:
6670:
6648:
6611:
6436:
6407:
6401:
6364:
6355:
6318:
6209:
6172:
6055:
6041:
6033:
6010:
6007:
5970:
5959:
5935:
5877:
5863:
5857:
5820:
5724:
5687:
5640:
5617:
5614:
5577:
5566:
5542:
5536:
5513:
5490:
5466:
5460:
5439:
5428:
5406:
5309:
5276:
5248:
5236:
5198:
5101:
4973:
4954:
4947:
4933:
4925:
4902:
4879:
4855:
4799:
4785:
4777:
4756:
4745:
4723:
4665:
4651:
4638:
4625:
4619:
4598:
4592:
4555:
4542:
4505:
4373:
4350:
4327:
4303:
4247:
4233:
4227:
4206:
4177:
4163:
4154:
4126:
4095:
3834:
3808:
3680:
3666:
3660:
3647:
3621:
3608:
3582:
3561:
3555:
3542:
3533:
3512:
3441:
3435:
3413:
3402:
3395:
3373:
3329:
3323:
3306:
3303:
3281:
3270:
3263:
3246:
3181:
3167:
3093:
3079:
3073:
3043:
3034:
3001:
2995:
2978:
2975:
2953:
2942:
2935:
2918:
2912:
2906:
2884:
2873:
2866:
2844:
2813:
2807:
2785:
2774:
2754:
2740:
2727:
2721:
2704:
2701:
2679:
2668:
2661:
2644:
2638:
2632:
2610:
2599:
2592:
2570:
2557:
2554:
2535:
2521:
2515:
2509:
2487:
2484:
2473:
2469:
2450:
2436:
2430:
2424:
2402:
2399:
2389:
2368:
2357:
2335:
2309:
2303:
2286:
2198:
2177:
2108:
2094:
2088:
2051:
1986:
1961:
1938:
1895:
1738:prior probability distribution
1696:{\displaystyle ^{\mathsf {T}}}
1682:
1653:
1474:
1451:
1442:
1398:
1377:
1366:
1344:
1288:
1274:
1268:
1231:
1197:
1178:
868:
16:Method of statistical analysis
1:
11109:Geographic information system
10325:Simultaneous equations models
8103:
1797:Since the data comprise both
908:{\displaystyle i=1,\ldots ,n}
861:for the parametersâso-called
451:Nonlinear mixed-effects model
10292:Coefficient of determination
9903:Uniformly most powerful test
8832:Regression analysis category
8722:Response surface methodology
7212:over all possible values of
2152:Conjugate prior distribution
2136:{\displaystyle \mathbf {X} }
2034:{\displaystyle \mathbf {X} }
1878:{\displaystyle \mathbf {X} }
1856:{\displaystyle \mathbf {y} }
1834:{\displaystyle \mathbf {X} }
1812:{\displaystyle \mathbf {y} }
1619:{\displaystyle \mathbf {y} }
1532:{\displaystyle \mathbf {X} }
115:Principle of maximum entropy
7:
10861:Proportional hazards models
10805:Spectral density estimation
10787:Vector autoregression (VAR)
10221:Maximum posterior estimator
9453:Randomized controlled trial
8704:FrischâWaughâLovell theorem
8674:Mean and predicted response
8051:See Jackman (2009), p. 101.
7939:
1427:MooreâPenrose pseudoinverse
1150:independent and identically
915:we specify the mean of the
653:Mean and predicted response
85:Bernsteinâvon Mises theorem
10:
11227:
10621:Multivariate distributions
9041:Average absolute deviation
8354:Correlation and dependence
8208:. Wiley. pp. 99â124.
7057:. It is also known as the
5806:inverse-gamma distribution
3794:inverse-gamma distribution
3636:inverse-gamma distribution
737:Bayesian linear regression
728:
446:Linear mixed-effects model
11135:
11089:
11026:
10979:
10942:
10938:
10925:
10897:
10879:
10846:
10837:
10795:
10742:
10703:
10652:
10643:
10609:Structural equation model
10564:
10521:
10517:
10492:
10451:
10417:
10371:
10338:
10300:
10267:
10263:
10239:
10179:
10088:
10007:
9971:
9962:
9945:Score/Lagrange multiplier
9930:
9883:
9828:
9754:
9745:
9555:
9551:
9538:
9497:
9471:
9423:
9378:
9360:Sample size determination
9325:
9321:
9308:
9212:
9167:
9141:
9123:
9079:
9031:
8951:
8942:
8938:
8925:
8907:
8827:
8791:
8740:
8712:
8699:Minimum mean-square error
8666:
8612:
8586:Decomposition of variance
8584:
8549:
8508:
8490:Growth curve (statistics)
8477:
8459:Generalized least squares
8439:
8428:
8395:
8352:
8319:
8242:O'Hagan, Anthony (1994).
8227:. John Wiley & Sons.
8165:10.1007/978-3-642-01837-4
7956:Regularized least squares
7951:Constrained least squares
7157:Bayesian model comparison
4015:{\displaystyle s_{0}^{2}}
1558:{\displaystyle n\times k}
1114:{\displaystyle k\times 1}
965:{\displaystyle k\times 1}
612:Least absolute deviations
110:Principle of indifference
11104:Environmental statistics
10626:Elliptical distributions
10419:Generalized linear model
10348:Simple linear regression
10118:HodgesâLehmann estimator
9575:Probability distribution
9484:Stochastic approximation
9046:Coefficient of variation
8557:Generalized linear model
8449:Simple linear regression
8339:Non-linear least squares
8321:Computational statistics
8038:
7063:prior predictive density
5066:of the parameter vector
917:conditional distribution
729:Not to be confused with
360:Generalized linear model
162:Markov chain Monte Carlo
10764:Cross-correlation (XCF)
10372:Non-standard predictors
9806:LehmannâScheffĂ© theorem
9479:Adaptive clinical trial
8010:more precise citations.
7961:Tikhonov regularization
7946:Bayes linear statistics
7661:{\displaystyle \sigma }
7615:{\displaystyle \Gamma }
7247:{\displaystyle \sigma }
4396:In the notation of the
4022:as the prior values of
2250:{\displaystyle \sigma }
2012:{\displaystyle \gamma }
1783:{\displaystyle \sigma }
731:Bayes linear statistics
167:Laplace's approximation
154:Posterior approximation
11160:Mathematics portal
10981:Engineering statistics
10889:NelsonâAalen estimator
10466:Analysis of covariance
10353:Ordinary least squares
10277:Pearson product-moment
9681:Statistical functional
9592:Empirical distribution
9425:Controlled experiments
9154:Frequency distribution
8932:Descriptive statistics
8849:Mathematics portal
8773:Orthogonal polynomials
8599:Analysis of covariance
8464:Weighted least squares
8454:Ordinary least squares
8405:Ordinary least squares
8187:Bayesian Data Analysis
7915:
7823:
7662:
7642:
7616:
7594:
7366:
7248:
7228:
7206:
7149:
7112:
7051:
7031:
6981:
6769:
6581:
6526:
6446:
6300:
5792:
5391:
5350:
5319:
5169:
5140:
5111:
5082:
5060:
5029:
4485:Posterior distribution
4476:
4388:
4184:
4136:
4063:
4036:
4016:
3984:
3957:
3890:
3841:
3784:
3628:
3592:
3493:
3473:
3344:
3016:
2316:
2273:
2251:
2231:
2205:
2158:posterior distribution
2137:
2115:
2035:
2013:
1993:
1945:
1879:
1857:
1835:
1813:
1784:
1764:
1726:
1697:
1640:
1620:
1598:
1559:
1533:
1509:
1423:ordinary least squares
1413:
1207:
1142:
1115:
1089:
1065:
995:
966:
940:
909:
877:problem, in which for
847:
827:
803:
777:
691:Mathematics portal
617:Iteratively reweighted
273:Mathematics portal
216:Evidence approximation
11076:Population statistics
11018:System identification
10752:Autocorrelation (ACF)
10680:Exponential smoothing
10594:Discriminant analysis
10589:Canonical correlation
10453:Partition of variance
10315:Regression validation
10159:(JonckheereâTerpstra)
10058:Likelihood-ratio test
9747:Frequentist inference
9659:Locationâscale family
9580:Sampling distribution
9545:Statistical inference
9512:Cross-sectional study
9499:Observational studies
9458:Randomized experiment
9287:Stem-and-leaf display
9089:Central limit theorem
8814:System identification
8778:Chebyshev polynomials
8763:Numerical integration
8714:Design of experiments
8658:Regression validation
8485:Polynomial regression
8410:Partial least squares
7916:
7824:
7663:
7643:
7617:
7595:
7367:
7249:
7229:
7207:
7150:
7113:
7052:
7032:
6982:
6770:
6582:
6527:
6447:
6301:
5793:
5392:
5351:
5320:
5170:
5141:
5112:
5083:
5061:
5030:
4477:
4389:
4185:
4137:
4064:
4062:{\displaystyle s^{2}}
4037:
4017:
3985:
3983:{\displaystyle v_{0}}
3958:
3891:
3842:
3785:
3629:
3593:
3494:
3474:
3345:
3017:
2317:
2274:
2252:
2232:
2206:
2147:With conjugate priors
2138:
2116:
2036:
2014:
1994:
1946:
1880:
1858:
1836:
1814:
1785:
1765:
1748:about the parameters
1727:
1698:
1641:
1621:
1599:
1560:
1534:
1510:
1414:
1208:
1143:
1116:
1090:
1066:
996:
967:
941:
939:{\displaystyle y_{i}}
910:
848:
828:
804:
778:
749:posterior probability
648:Regression validation
627:Bayesian multivariate
344:Polynomial regression
177:Variational inference
10999:Probabilistic design
10584:Principal components
10427:Exponential families
10379:Nonlinear regression
10358:General linear model
10320:Mixed effects models
10310:Errors and residuals
10287:Confounding variable
10189:Bayesian probability
10167:Van der Waerden test
10157:Ordered alternative
9922:Multiple comparisons
9801:RaoâBlackwellization
9764:Estimating equations
9720:Statistical distance
9438:Factorial experiment
8971:Arithmetic-Geometric
8819:Moving least squares
8758:Approximation theory
8694:Studentized residual
8684:Errors and residuals
8679:GaussâMarkov theorem
8594:Analysis of variance
8516:Nonlinear regression
8495:Segmented regression
8469:General linear model
8387:Confounding variable
8334:Linear least squares
7864:
7847:Monte Carlo sampling
7672:
7652:
7630:
7606:
7376:
7258:
7238:
7216:
7163:
7122:
7069:
7041:
7004:
6778:
6593:
6536:
6456:
6312:
5814:
5403:
5364:
5331:
5180:
5150:
5121:
5092:
5070:
5041:
4495:
4404:
4200:
4148:
4077:
4046:
4026:
3994:
3967:
3900:
3851:
3800:
3641:
3602:
3506:
3483:
3354:
3028:
2328:
2283:
2261:
2241:
2219:
2171:
2125:
2045:
2023:
2003:
1955:
1889:
1867:
1845:
1823:
1801:
1774:
1752:
1714:
1650:
1630:
1608:
1572:
1543:
1521:
1433:
1225:
1159:
1153:normally distributed
1125:
1099:
1077:
1005:
976:
950:
923:
881:
873:Consider a standard
837:
817:
793:
767:
741:conditional modeling
673:GaussâMarkov theorem
668:Studentized residual
658:Errors and residuals
492:Principal components
462:Nonlinear regression
349:General linear model
255:Posterior predictive
224:Evidence lower bound
105:Likelihood principle
75:Bayesian probability
11071:Official statistics
10994:Methods engineering
10675:Seasonal adjustment
10443:Poisson regressions
10363:Bayesian regression
10302:Regression analysis
10282:Partial correlation
10254:Regression analysis
9853:Prediction interval
9848:Likelihood interval
9838:Confidence interval
9830:Interval estimation
9791:Unbiased estimators
9609:Model specification
9489:Up-and-down designs
9177:Partial correlation
9133:Index of dispersion
9051:Interquartile range
8837:Statistics category
8768:Gaussian quadrature
8653:Model specification
8620:Stepwise regression
8478:Predictor structure
8415:Total least squares
8397:Regression analysis
8382:Partial correlation
8313:regression analysis
7538:
7516:
7059:marginal likelihood
6946:
6900:
6515:
6245:
6171:
5802:normal distribution
5760:
5686:
5117:and the prior mean
4463:
4398:normal distribution
4192:normal distribution
4125:
4011:
3952:
3753:
1951:along with a prior
1593:
1217:likelihood function
1039:
859:prior probabilities
811:normal linear model
518:Errors-in-variables
385:Logistic regression
375:Binomial regression
320:Regression analysis
314:Part of a series on
28:Bayesian statistics
22:Part of a series on
11206:Bayesian inference
11091:Spatial statistics
10971:Medical statistics
10871:First hitting time
10825:Whittle likelihood
10476:Degrees of freedom
10471:Multivariate ANOVA
10404:Heteroscedasticity
10216:Bayesian estimator
10181:Bayesian inference
10030:KolmogorovâSmirnov
9915:Randomization test
9885:Testing hypotheses
9858:Tolerance interval
9769:Maximum likelihood
9664:Exponential family
9597:Density estimation
9557:Statistical theory
9517:Natural experiment
9463:Scientific control
9380:Survey methodology
9066:Standard deviation
8854:Statistics outline
8753:Numerical analysis
8244:Bayesian Inference
7911:
7819:
7658:
7638:
7612:
7590:
7517:
7495:
7362:
7244:
7224:
7202:
7145:
7108:
7047:
7027:
6977:
6928:
6882:
6765:
6577:
6522:
6496:
6442:
6296:
6227:
6153:
5788:
5742:
5668:
5387:
5346:
5315:
5165:
5136:
5107:
5078:
5056:
5025:
5023:
4472:
4444:
4384:
4180:
4132:
4111:
4059:
4032:
4012:
3997:
3980:
3953:
3938:
3926:
3886:
3884:
3847:distribution with
3837:
3780:
3739:
3624:
3588:
3489:
3469:
3340:
3012:
3010:
2833:
2820:
2312:
2269:
2247:
2227:
2201:
2133:
2111:
2031:
2009:
1989:
1941:
1875:
1853:
1831:
1809:
1780:
1760:
1722:
1693:
1636:
1616:
1594:
1575:
1555:
1529:
1505:
1409:
1203:
1155:random variables:
1138:
1111:
1085:
1061:
1021:
991:
962:
936:
905:
843:
823:
799:
773:
759:prediction of the
745:linear combination
405:Multinomial probit
198:Bayesian estimator
146:Hierarchical model
70:Bayesian inference
11193:
11192:
11131:
11130:
11127:
11126:
11066:National accounts
11036:Actuarial science
11028:Social statistics
10921:
10920:
10917:
10916:
10913:
10912:
10848:Survival function
10833:
10832:
10695:Granger causality
10536:Contingency table
10511:Survival analysis
10488:
10487:
10484:
10483:
10340:Linear regression
10235:
10234:
10231:
10230:
10206:Credible interval
10175:
10174:
9958:
9957:
9774:Method of moments
9643:Parametric family
9604:Statistical model
9534:
9533:
9530:
9529:
9448:Random assignment
9370:Statistical power
9304:
9303:
9300:
9299:
9149:Contingency table
9119:
9118:
8986:Generalized/power
8867:
8866:
8859:Statistics topics
8804:Calibration curve
8613:Model exploration
8580:
8579:
8550:Non-normal errors
8441:Linear regression
8432:statistical model
8215:978-0-470-01154-6
8196:978-1-4398-4095-5
8174:978-3-642-01836-7
8036:
8035:
8028:
7860:The special case
7855:variational Bayes
7817:
7588:
7539:
7488:
7487:
7436:
7050:{\displaystyle m}
6855:
6815:
6729:
6542:
6286:
6088:
5933:
5279:
5104:
5014:
4853:
4721:
4301:
4083:
4035:{\displaystyle v}
3925:
3883:
3806:
3770:
3702:
3492:{\displaystyle k}
3448:
3438:
3398:
3326:
3266:
3244:
3204:
3160:
3108:
2998:
2938:
2909:
2869:
2828:
2810:
2757:
2735:
2733:
2724:
2664:
2635:
2595:
2538:
2512:
2453:
2427:
2306:
1639:{\displaystyle n}
1445:
1342:
972:predictor vector
875:linear regression
846:{\displaystyle X}
826:{\displaystyle y}
802:{\displaystyle X}
776:{\displaystyle y}
727:
726:
380:Binary regression
339:Simple regression
334:Linear regression
309:
308:
203:Credible interval
136:Linear regression
11218:
11181:
11180:
11169:
11168:
11158:
11157:
11143:
11142:
11046:Crime statistics
10940:
10939:
10927:
10926:
10844:
10843:
10810:Fourier analysis
10797:Frequency domain
10777:
10724:
10690:Structural break
10650:
10649:
10599:Cluster analysis
10546:Log-linear model
10519:
10518:
10494:
10493:
10435:
10409:Homoscedasticity
10265:
10264:
10241:
10240:
10160:
10152:
10144:
10143:(KruskalâWallis)
10128:
10113:
10068:Cross validation
10053:
10035:AndersonâDarling
9982:
9969:
9968:
9940:Likelihood-ratio
9932:Parametric tests
9910:Permutation test
9893:1- & 2-tails
9784:Minimum distance
9756:Point estimation
9752:
9751:
9703:Optimal decision
9654:
9553:
9552:
9540:
9539:
9522:Quasi-experiment
9472:Adaptive designs
9323:
9322:
9310:
9309:
9187:Rank correlation
8949:
8948:
8940:
8939:
8927:
8926:
8894:
8887:
8880:
8871:
8870:
8847:
8846:
8604:Multivariate AOV
8500:Local regression
8437:
8436:
8429:Regression as a
8420:Ridge regression
8367:Rank correlation
8302:
8295:
8288:
8279:
8278:
8257:
8238:
8219:
8200:
8178:
8151:
8132:
8097:
8094:
8088:
8085:
8079:
8076:
8070:
8067:
8061:
8058:
8052:
8049:
8031:
8024:
8020:
8017:
8011:
8006:this article by
7997:inline citations
7984:
7983:
7976:
7923:ridge regression
7920:
7918:
7917:
7912:
7910:
7899:
7898:
7893:
7878:
7877:
7872:
7828:
7826:
7825:
7820:
7818:
7816:
7806:
7798:
7784:
7772:
7756:
7748:
7740:
7722:
7711:
7699:
7685:
7667:
7665:
7664:
7659:
7647:
7645:
7644:
7639:
7637:
7621:
7619:
7618:
7613:
7599:
7597:
7596:
7591:
7589:
7587:
7583:
7582:
7566:
7562:
7561:
7545:
7540:
7537:
7536:
7535:
7525:
7515:
7514:
7513:
7503:
7494:
7489:
7486:
7482:
7481:
7476:
7463:
7459:
7458:
7453:
7440:
7439:
7437:
7435:
7434:
7433:
7429:
7403:
7389:
7371:
7369:
7368:
7363:
7354:
7336:
7315:
7307:
7299:
7276:
7271:
7253:
7251:
7250:
7245:
7233:
7231:
7230:
7225:
7223:
7211:
7209:
7208:
7203:
7198:
7184:
7176:
7154:
7152:
7151:
7146:
7135:
7117:
7115:
7114:
7109:
7098:
7090:
7082:
7056:
7054:
7053:
7048:
7036:
7034:
7033:
7028:
7017:
6986:
6984:
6983:
6978:
6970:
6969:
6964:
6958:
6957:
6952:
6945:
6944:
6938:
6933:
6924:
6923:
6918:
6912:
6911:
6906:
6899:
6898:
6892:
6887:
6878:
6873:
6872:
6871:
6865:
6856:
6848:
6843:
6842:
6830:
6829:
6816:
6808:
6803:
6802:
6790:
6789:
6774:
6772:
6771:
6766:
6758:
6757:
6752:
6746:
6745:
6740:
6731:
6730:
6722:
6719:
6714:
6713:
6712:
6706:
6697:
6696:
6684:
6683:
6678:
6666:
6665:
6660:
6647:
6646:
6641:
6632:
6627:
6626:
6625:
6619:
6607:
6606:
6601:
6586:
6584:
6583:
6578:
6576:
6572:
6571:
6570:
6558:
6557:
6543:
6540:
6531:
6529:
6528:
6523:
6520:
6516:
6514:
6506:
6501:
6495:
6494:
6482:
6481:
6476:
6465:
6464:
6451:
6449:
6448:
6443:
6435:
6427:
6419:
6418:
6400:
6392:
6384:
6383:
6371:
6354:
6346:
6338:
6337:
6325:
6305:
6303:
6302:
6297:
6292:
6288:
6287:
6285:
6284:
6283:
6270:
6269:
6268:
6263:
6257:
6256:
6251:
6244:
6243:
6237:
6232:
6223:
6222:
6217:
6208:
6207:
6202:
6193:
6188:
6187:
6186:
6180:
6170:
6169:
6163:
6158:
6149:
6144:
6143:
6142:
6136:
6127:
6126:
6113:
6097:
6096:
6089:
6084:
6083:
6082:
6063:
6053:
6052:
6040:
6036:
6032:
6031:
6026:
6017:
6006:
6005:
6000:
5991:
5986:
5985:
5984:
5978:
5969:
5968:
5967:
5957:
5956:
5951:
5942:
5934:
5932:
5931:
5930:
5925:
5912:
5896:
5895:
5891:
5875:
5874:
5856:
5848:
5840:
5839:
5827:
5797:
5795:
5794:
5789:
5784:
5783:
5778:
5772:
5771:
5766:
5759:
5758:
5752:
5747:
5738:
5737:
5732:
5723:
5722:
5717:
5708:
5703:
5702:
5701:
5695:
5685:
5684:
5678:
5673:
5664:
5659:
5658:
5657:
5651:
5639:
5638:
5633:
5624:
5613:
5612:
5607:
5598:
5593:
5592:
5591:
5585:
5576:
5575:
5574:
5564:
5563:
5558:
5549:
5535:
5534:
5529:
5520:
5512:
5511:
5506:
5500:
5499:
5498:
5488:
5487:
5482:
5473:
5459:
5454:
5446:
5438:
5437:
5436:
5426:
5421:
5413:
5396:
5394:
5393:
5388:
5386:
5385:
5380:
5371:
5355:
5353:
5352:
5347:
5345:
5344:
5339:
5327:To justify that
5324:
5322:
5321:
5316:
5308:
5307:
5302:
5296:
5295:
5290:
5281:
5280:
5272:
5269:
5264:
5263:
5262:
5256:
5247:
5246:
5234:
5233:
5228:
5219:
5214:
5213:
5212:
5206:
5194:
5193:
5188:
5174:
5172:
5171:
5166:
5164:
5163:
5158:
5145:
5143:
5142:
5137:
5135:
5134:
5129:
5116:
5114:
5113:
5108:
5106:
5105:
5097:
5087:
5085:
5084:
5079:
5077:
5065:
5063:
5062:
5057:
5055:
5054:
5049:
5034:
5032:
5031:
5026:
5024:
5020:
5016:
5015:
5013:
5012:
5003:
5002:
4993:
4977:
4976:
4966:
4965:
4945:
4944:
4932:
4928:
4924:
4923:
4918:
4909:
4901:
4900:
4895:
4889:
4888:
4887:
4877:
4876:
4871:
4862:
4854:
4852:
4851:
4850:
4834:
4818:
4817:
4813:
4797:
4796:
4784:
4780:
4776:
4771:
4763:
4755:
4754:
4753:
4743:
4738:
4730:
4722:
4720:
4719:
4718:
4713:
4700:
4684:
4683:
4679:
4663:
4662:
4644:
4637:
4636:
4618:
4617:
4605:
4591:
4590:
4578:
4570:
4562:
4541:
4533:
4525:
4524:
4512:
4481:
4479:
4478:
4473:
4468:
4464:
4462:
4454:
4449:
4443:
4442:
4430:
4429:
4424:
4413:
4412:
4393:
4391:
4390:
4385:
4380:
4376:
4372:
4371:
4366:
4357:
4349:
4348:
4343:
4337:
4336:
4335:
4325:
4324:
4319:
4310:
4302:
4300:
4299:
4298:
4282:
4266:
4265:
4261:
4245:
4244:
4226:
4225:
4213:
4189:
4187:
4186:
4181:
4176:
4175:
4166:
4161:
4141:
4139:
4138:
4133:
4124:
4119:
4107:
4106:
4094:
4093:
4084:
4081:
4068:
4066:
4065:
4060:
4058:
4057:
4041:
4039:
4038:
4033:
4021:
4019:
4018:
4013:
4010:
4005:
3989:
3987:
3986:
3981:
3979:
3978:
3962:
3960:
3959:
3954:
3951:
3946:
3937:
3936:
3927:
3918:
3912:
3911:
3895:
3893:
3892:
3887:
3885:
3879:
3878:
3869:
3863:
3862:
3846:
3844:
3843:
3838:
3833:
3832:
3820:
3819:
3807:
3804:
3789:
3787:
3786:
3781:
3776:
3772:
3771:
3769:
3768:
3767:
3754:
3752:
3747:
3738:
3737:
3727:
3711:
3710:
3703:
3698:
3697:
3688:
3678:
3677:
3659:
3658:
3633:
3631:
3630:
3625:
3620:
3619:
3597:
3595:
3594:
3589:
3581:
3580:
3568:
3554:
3553:
3532:
3531:
3519:
3498:
3496:
3495:
3490:
3478:
3476:
3475:
3470:
3449:
3446:
3440:
3439:
3431:
3428:
3420:
3412:
3411:
3410:
3400:
3399:
3391:
3388:
3380:
3369:
3368:
3349:
3347:
3346:
3341:
3336:
3332:
3328:
3327:
3319:
3313:
3302:
3297:
3296:
3295:
3289:
3280:
3279:
3278:
3268:
3267:
3259:
3253:
3245:
3243:
3242:
3241:
3236:
3223:
3207:
3206:
3205:
3200:
3189:
3179:
3178:
3166:
3162:
3161:
3159:
3158:
3157:
3152:
3142:
3141:
3140:
3127:
3111:
3110:
3109:
3101:
3091:
3090:
3072:
3071:
3059:
3051:
3046:
3041:
3021:
3019:
3018:
3013:
3011:
3000:
2999:
2991:
2985:
2974:
2969:
2968:
2967:
2961:
2952:
2951:
2950:
2940:
2939:
2931:
2925:
2911:
2910:
2902:
2899:
2891:
2883:
2882:
2881:
2871:
2870:
2862:
2859:
2851:
2837:
2832:
2826:
2821:
2816:
2812:
2811:
2803:
2800:
2792:
2784:
2783:
2782:
2772:
2767:
2759:
2758:
2750:
2747:
2726:
2725:
2717:
2711:
2700:
2695:
2694:
2693:
2687:
2678:
2677:
2676:
2666:
2665:
2657:
2651:
2637:
2636:
2628:
2625:
2617:
2609:
2608:
2607:
2597:
2596:
2588:
2585:
2577:
2563:
2553:
2548:
2540:
2539:
2531:
2528:
2514:
2513:
2505:
2502:
2494:
2483:
2482:
2481:
2468:
2463:
2455:
2454:
2446:
2443:
2429:
2428:
2420:
2417:
2409:
2388:
2383:
2375:
2367:
2366:
2365:
2355:
2350:
2342:
2321:
2319:
2318:
2313:
2308:
2307:
2299:
2293:
2278:
2276:
2275:
2270:
2268:
2256:
2254:
2253:
2248:
2236:
2234:
2233:
2228:
2226:
2210:
2208:
2207:
2202:
2197:
2196:
2184:
2142:
2140:
2139:
2134:
2132:
2120:
2118:
2117:
2112:
2101:
2087:
2086:
2068:
2067:
2058:
2040:
2038:
2037:
2032:
2030:
2018:
2016:
2015:
2010:
1998:
1996:
1995:
1990:
1979:
1978:
1950:
1948:
1947:
1942:
1931:
1930:
1918:
1910:
1902:
1884:
1882:
1881:
1876:
1874:
1862:
1860:
1859:
1854:
1852:
1840:
1838:
1837:
1832:
1830:
1818:
1816:
1815:
1810:
1808:
1789:
1787:
1786:
1781:
1769:
1767:
1766:
1761:
1759:
1746:posterior belief
1731:
1729:
1728:
1723:
1721:
1702:
1700:
1699:
1694:
1692:
1691:
1690:
1680:
1679:
1665:
1664:
1645:
1643:
1642:
1637:
1625:
1623:
1622:
1617:
1615:
1603:
1601:
1600:
1595:
1592:
1591:
1585:
1580:
1564:
1562:
1561:
1556:
1538:
1536:
1535:
1530:
1528:
1514:
1512:
1511:
1506:
1504:
1499:
1498:
1497:
1491:
1485:
1484:
1472:
1467:
1466:
1465:
1459:
1447:
1446:
1438:
1418:
1416:
1415:
1410:
1405:
1401:
1397:
1392:
1384:
1376:
1375:
1374:
1364:
1359:
1351:
1343:
1341:
1340:
1339:
1323:
1307:
1306:
1302:
1286:
1285:
1267:
1266:
1254:
1246:
1238:
1212:
1210:
1209:
1204:
1196:
1195:
1171:
1170:
1147:
1145:
1144:
1139:
1137:
1136:
1121:vector, and the
1120:
1118:
1117:
1112:
1094:
1092:
1091:
1086:
1084:
1070:
1068:
1067:
1062:
1057:
1056:
1044:
1038:
1037:
1031:
1026:
1017:
1016:
1000:
998:
997:
992:
990:
989:
984:
971:
969:
968:
963:
945:
943:
942:
937:
935:
934:
914:
912:
911:
906:
863:conjugate priors
852:
850:
849:
844:
832:
830:
829:
824:
808:
806:
805:
800:
782:
780:
779:
774:
763:(often labelled
719:
712:
705:
689:
688:
596:Ridge regression
431:Multilevel model
311:
310:
301:
294:
287:
271:
270:
237:Model evaluation
38:
19:
18:
11226:
11225:
11221:
11220:
11219:
11217:
11216:
11215:
11196:
11195:
11194:
11189:
11152:
11123:
11085:
11022:
11008:quality control
10975:
10957:Clinical trials
10934:
10909:
10893:
10881:Hazard function
10875:
10829:
10791:
10775:
10738:
10734:BreuschâGodfrey
10722:
10699:
10639:
10614:Factor analysis
10560:
10541:Graphical model
10513:
10480:
10447:
10433:
10413:
10367:
10334:
10296:
10259:
10258:
10227:
10171:
10158:
10150:
10142:
10126:
10111:
10090:Rank statistics
10084:
10063:Model selection
10051:
10009:Goodness of fit
10003:
9980:
9954:
9926:
9879:
9824:
9813:Median unbiased
9741:
9652:
9585:Order statistic
9547:
9526:
9493:
9467:
9419:
9374:
9317:
9315:Data collection
9296:
9208:
9163:
9137:
9115:
9075:
9027:
8944:Continuous data
8934:
8921:
8903:
8898:
8868:
8863:
8841:
8823:
8787:
8783:Chebyshev nodes
8736:
8732:Bayesian design
8708:
8689:Goodness of fit
8662:
8635:
8625:Model selection
8608:
8576:
8545:
8504:
8473:
8430:
8424:
8391:
8348:
8315:
8306:
8264:
8254:
8235:
8216:
8197:
8175:
8148:
8129:
8106:
8101:
8100:
8095:
8091:
8086:
8082:
8077:
8073:
8068:
8064:
8059:
8055:
8050:
8046:
8041:
8032:
8021:
8015:
8012:
8002:Please help to
8001:
7985:
7981:
7942:
7906:
7894:
7889:
7888:
7873:
7868:
7867:
7865:
7862:
7861:
7845:method such as
7839:
7802:
7794:
7780:
7773:
7752:
7744:
7736:
7718:
7707:
7700:
7698:
7681:
7673:
7670:
7669:
7653:
7650:
7649:
7633:
7631:
7628:
7627:
7607:
7604:
7603:
7578:
7574:
7567:
7557:
7553:
7546:
7544:
7531:
7527:
7526:
7521:
7509:
7505:
7504:
7499:
7493:
7477:
7472:
7471:
7464:
7454:
7449:
7448:
7441:
7438:
7425:
7421:
7417:
7407:
7402:
7385:
7377:
7374:
7373:
7350:
7332:
7311:
7303:
7295:
7272:
7267:
7259:
7256:
7255:
7239:
7236:
7235:
7219:
7217:
7214:
7213:
7194:
7180:
7172:
7164:
7161:
7160:
7131:
7123:
7120:
7119:
7094:
7086:
7078:
7070:
7067:
7066:
7042:
7039:
7038:
7013:
7005:
7002:
7001:
6995:
6965:
6960:
6959:
6953:
6948:
6947:
6940:
6939:
6934:
6929:
6919:
6914:
6913:
6907:
6902:
6901:
6894:
6893:
6888:
6883:
6874:
6867:
6866:
6861:
6860:
6847:
6838:
6834:
6825:
6821:
6807:
6798:
6794:
6785:
6781:
6779:
6776:
6775:
6753:
6748:
6747:
6741:
6736:
6735:
6721:
6720:
6715:
6708:
6707:
6702:
6701:
6689:
6685:
6679:
6674:
6673:
6661:
6656:
6655:
6642:
6637:
6636:
6628:
6621:
6620:
6615:
6614:
6602:
6597:
6596:
6594:
6591:
6590:
6566:
6562:
6553:
6549:
6548:
6544:
6539:
6537:
6534:
6533:
6507:
6502:
6497:
6490:
6486:
6477:
6472:
6471:
6470:
6466:
6460:
6459:
6457:
6454:
6453:
6431:
6423:
6414:
6410:
6396:
6388:
6379:
6375:
6367:
6350:
6342:
6333:
6329:
6321:
6313:
6310:
6309:
6279:
6275:
6271:
6264:
6259:
6258:
6252:
6247:
6246:
6239:
6238:
6233:
6228:
6218:
6213:
6212:
6203:
6198:
6197:
6189:
6182:
6181:
6176:
6175:
6165:
6164:
6159:
6154:
6145:
6138:
6137:
6132:
6131:
6122:
6118:
6114:
6112:
6108:
6104:
6078:
6074:
6064:
6062:
6058:
6054:
6048:
6044:
6027:
6022:
6021:
6013:
6001:
5996:
5995:
5987:
5980:
5979:
5974:
5973:
5963:
5962:
5958:
5952:
5947:
5946:
5938:
5926:
5921:
5920:
5916:
5911:
5907:
5903:
5887:
5880:
5876:
5870:
5866:
5852:
5844:
5835:
5831:
5823:
5815:
5812:
5811:
5779:
5774:
5773:
5767:
5762:
5761:
5754:
5753:
5748:
5743:
5733:
5728:
5727:
5718:
5713:
5712:
5704:
5697:
5696:
5691:
5690:
5680:
5679:
5674:
5669:
5660:
5653:
5652:
5647:
5646:
5634:
5629:
5628:
5620:
5608:
5603:
5602:
5594:
5587:
5586:
5581:
5580:
5570:
5569:
5565:
5559:
5554:
5553:
5545:
5530:
5525:
5524:
5516:
5507:
5502:
5501:
5494:
5493:
5489:
5483:
5478:
5477:
5469:
5455:
5450:
5442:
5432:
5431:
5427:
5422:
5417:
5409:
5404:
5401:
5400:
5381:
5376:
5375:
5367:
5365:
5362:
5361:
5340:
5335:
5334:
5332:
5329:
5328:
5303:
5298:
5297:
5291:
5286:
5285:
5271:
5270:
5265:
5258:
5257:
5252:
5251:
5239:
5235:
5229:
5224:
5223:
5215:
5208:
5207:
5202:
5201:
5189:
5184:
5183:
5181:
5178:
5177:
5159:
5154:
5153:
5151:
5148:
5147:
5130:
5125:
5124:
5122:
5119:
5118:
5096:
5095:
5093:
5090:
5089:
5073:
5071:
5068:
5067:
5050:
5045:
5044:
5042:
5039:
5038:
5022:
5021:
5008:
5004:
4998:
4994:
4992:
4988:
4984:
4961:
4957:
4950:
4946:
4940:
4936:
4919:
4914:
4913:
4905:
4896:
4891:
4890:
4883:
4882:
4878:
4872:
4867:
4866:
4858:
4846:
4842:
4838:
4833:
4829:
4825:
4809:
4802:
4798:
4792:
4788:
4772:
4767:
4759:
4749:
4748:
4744:
4739:
4734:
4726:
4714:
4709:
4708:
4704:
4699:
4695:
4691:
4675:
4668:
4664:
4658:
4654:
4642:
4641:
4632:
4628:
4613:
4609:
4601:
4586:
4582:
4574:
4566:
4558:
4545:
4537:
4529:
4520:
4516:
4508:
4498:
4496:
4493:
4492:
4487:
4455:
4450:
4445:
4438:
4434:
4425:
4420:
4419:
4418:
4414:
4408:
4407:
4405:
4402:
4401:
4367:
4362:
4361:
4353:
4344:
4339:
4338:
4331:
4330:
4326:
4320:
4315:
4314:
4306:
4294:
4290:
4286:
4281:
4277:
4273:
4257:
4250:
4246:
4240:
4236:
4221:
4217:
4209:
4201:
4198:
4197:
4171:
4167:
4162:
4157:
4149:
4146:
4145:
4120:
4115:
4102:
4098:
4089:
4085:
4080:
4078:
4075:
4074:
4053:
4049:
4047:
4044:
4043:
4027:
4024:
4023:
4006:
4001:
3995:
3992:
3991:
3974:
3970:
3968:
3965:
3964:
3947:
3942:
3932:
3928:
3916:
3907:
3903:
3901:
3898:
3897:
3874:
3870:
3867:
3858:
3854:
3852:
3849:
3848:
3828:
3824:
3815:
3811:
3803:
3801:
3798:
3797:
3763:
3759:
3755:
3748:
3743:
3733:
3729:
3728:
3726:
3722:
3718:
3693:
3689:
3687:
3683:
3679:
3673:
3669:
3654:
3650:
3642:
3639:
3638:
3615:
3611:
3603:
3600:
3599:
3576:
3572:
3564:
3549:
3545:
3527:
3523:
3515:
3507:
3504:
3503:
3484:
3481:
3480:
3447: and
3445:
3430:
3429:
3424:
3416:
3406:
3405:
3401:
3390:
3389:
3384:
3376:
3364:
3360:
3355:
3352:
3351:
3318:
3317:
3309:
3298:
3291:
3290:
3285:
3284:
3274:
3273:
3269:
3258:
3257:
3249:
3237:
3232:
3231:
3227:
3222:
3218:
3214:
3190:
3188:
3184:
3180:
3174:
3170:
3153:
3148:
3147:
3143:
3136:
3132:
3128:
3126:
3122:
3118:
3100:
3096:
3092:
3086:
3082:
3067:
3063:
3055:
3047:
3042:
3037:
3029:
3026:
3025:
3009:
3008:
2990:
2989:
2981:
2970:
2963:
2962:
2957:
2956:
2946:
2945:
2941:
2930:
2929:
2921:
2901:
2900:
2895:
2887:
2877:
2876:
2872:
2861:
2860:
2855:
2847:
2835:
2834:
2822:
2802:
2801:
2796:
2788:
2778:
2777:
2773:
2768:
2763:
2749:
2748:
2743:
2736:
2734:
2716:
2715:
2707:
2696:
2689:
2688:
2683:
2682:
2672:
2671:
2667:
2656:
2655:
2647:
2627:
2626:
2621:
2613:
2603:
2602:
2598:
2587:
2586:
2581:
2573:
2561:
2560:
2549:
2544:
2530:
2529:
2524:
2504:
2503:
2498:
2490:
2477:
2476:
2472:
2464:
2459:
2445:
2444:
2439:
2419:
2418:
2413:
2405:
2392:
2384:
2379:
2371:
2361:
2360:
2356:
2351:
2346:
2338:
2331:
2329:
2326:
2325:
2298:
2297:
2289:
2284:
2281:
2280:
2264:
2262:
2259:
2258:
2242:
2239:
2238:
2222:
2220:
2217:
2216:
2192:
2188:
2180:
2172:
2169:
2168:
2162:conjugate prior
2154:
2149:
2128:
2126:
2123:
2122:
2097:
2082:
2078:
2063:
2062:
2054:
2046:
2043:
2042:
2026:
2024:
2021:
2020:
2004:
2001:
2000:
1974:
1970:
1956:
1953:
1952:
1926:
1922:
1914:
1906:
1898:
1890:
1887:
1886:
1870:
1868:
1865:
1864:
1863:conditional on
1848:
1846:
1843:
1842:
1826:
1824:
1821:
1820:
1804:
1802:
1799:
1798:
1775:
1772:
1771:
1755:
1753:
1750:
1749:
1717:
1715:
1712:
1711:
1686:
1685:
1681:
1675:
1671:
1660:
1656:
1651:
1648:
1647:
1631:
1628:
1627:
1611:
1609:
1606:
1605:
1587:
1586:
1581:
1576:
1573:
1570:
1569:
1544:
1541:
1540:
1524:
1522:
1519:
1518:
1500:
1493:
1492:
1487:
1486:
1477:
1473:
1468:
1461:
1460:
1455:
1454:
1437:
1436:
1434:
1431:
1430:
1393:
1388:
1380:
1370:
1369:
1365:
1360:
1355:
1347:
1335:
1331:
1327:
1322:
1318:
1314:
1298:
1291:
1287:
1281:
1277:
1262:
1258:
1250:
1242:
1234:
1226:
1223:
1222:
1191:
1187:
1166:
1162:
1160:
1157:
1156:
1132:
1128:
1126:
1123:
1122:
1100:
1097:
1096:
1080:
1078:
1075:
1074:
1052:
1048:
1040:
1033:
1032:
1027:
1022:
1012:
1008:
1006:
1003:
1002:
985:
980:
979:
977:
974:
973:
951:
948:
947:
930:
926:
924:
921:
920:
882:
879:
878:
871:
853:is distributed
838:
835:
834:
818:
815:
814:
794:
791:
790:
768:
765:
764:
734:
723:
683:
663:Goodness of fit
370:Discrete choice
305:
265:
250:Model averaging
229:Nested sampling
141:Empirical Bayes
131:Conjugate prior
100:Cromwell's rule
17:
12:
11:
5:
11224:
11214:
11213:
11208:
11191:
11190:
11188:
11187:
11175:
11163:
11149:
11136:
11133:
11132:
11129:
11128:
11125:
11124:
11122:
11121:
11116:
11111:
11106:
11101:
11095:
11093:
11087:
11086:
11084:
11083:
11078:
11073:
11068:
11063:
11058:
11053:
11048:
11043:
11038:
11032:
11030:
11024:
11023:
11021:
11020:
11015:
11010:
11001:
10996:
10991:
10985:
10983:
10977:
10976:
10974:
10973:
10968:
10963:
10954:
10952:Bioinformatics
10948:
10946:
10936:
10935:
10923:
10922:
10919:
10918:
10915:
10914:
10911:
10910:
10908:
10907:
10901:
10899:
10895:
10894:
10892:
10891:
10885:
10883:
10877:
10876:
10874:
10873:
10868:
10863:
10858:
10852:
10850:
10841:
10835:
10834:
10831:
10830:
10828:
10827:
10822:
10817:
10812:
10807:
10801:
10799:
10793:
10792:
10790:
10789:
10784:
10779:
10771:
10766:
10761:
10760:
10759:
10757:partial (PACF)
10748:
10746:
10740:
10739:
10737:
10736:
10731:
10726:
10718:
10713:
10707:
10705:
10704:Specific tests
10701:
10700:
10698:
10697:
10692:
10687:
10682:
10677:
10672:
10667:
10662:
10656:
10654:
10647:
10641:
10640:
10638:
10637:
10636:
10635:
10634:
10633:
10618:
10617:
10616:
10606:
10604:Classification
10601:
10596:
10591:
10586:
10581:
10576:
10570:
10568:
10562:
10561:
10559:
10558:
10553:
10551:McNemar's test
10548:
10543:
10538:
10533:
10527:
10525:
10515:
10514:
10490:
10489:
10486:
10485:
10482:
10481:
10479:
10478:
10473:
10468:
10463:
10457:
10455:
10449:
10448:
10446:
10445:
10429:
10423:
10421:
10415:
10414:
10412:
10411:
10406:
10401:
10396:
10391:
10389:Semiparametric
10386:
10381:
10375:
10373:
10369:
10368:
10366:
10365:
10360:
10355:
10350:
10344:
10342:
10336:
10335:
10333:
10332:
10327:
10322:
10317:
10312:
10306:
10304:
10298:
10297:
10295:
10294:
10289:
10284:
10279:
10273:
10271:
10261:
10260:
10257:
10256:
10251:
10245:
10237:
10236:
10233:
10232:
10229:
10228:
10226:
10225:
10224:
10223:
10213:
10208:
10203:
10202:
10201:
10196:
10185:
10183:
10177:
10176:
10173:
10172:
10170:
10169:
10164:
10163:
10162:
10154:
10146:
10130:
10127:(MannâWhitney)
10122:
10121:
10120:
10107:
10106:
10105:
10094:
10092:
10086:
10085:
10083:
10082:
10081:
10080:
10075:
10070:
10060:
10055:
10052:(ShapiroâWilk)
10047:
10042:
10037:
10032:
10027:
10019:
10013:
10011:
10005:
10004:
10002:
10001:
9993:
9984:
9972:
9966:
9964:Specific tests
9960:
9959:
9956:
9955:
9953:
9952:
9947:
9942:
9936:
9934:
9928:
9927:
9925:
9924:
9919:
9918:
9917:
9907:
9906:
9905:
9895:
9889:
9887:
9881:
9880:
9878:
9877:
9876:
9875:
9870:
9860:
9855:
9850:
9845:
9840:
9834:
9832:
9826:
9825:
9823:
9822:
9817:
9816:
9815:
9810:
9809:
9808:
9803:
9788:
9787:
9786:
9781:
9776:
9771:
9760:
9758:
9749:
9743:
9742:
9740:
9739:
9734:
9729:
9728:
9727:
9717:
9712:
9711:
9710:
9700:
9699:
9698:
9693:
9688:
9678:
9673:
9668:
9667:
9666:
9661:
9656:
9640:
9639:
9638:
9633:
9628:
9618:
9617:
9616:
9611:
9601:
9600:
9599:
9589:
9588:
9587:
9577:
9572:
9567:
9561:
9559:
9549:
9548:
9536:
9535:
9532:
9531:
9528:
9527:
9525:
9524:
9519:
9514:
9509:
9503:
9501:
9495:
9494:
9492:
9491:
9486:
9481:
9475:
9473:
9469:
9468:
9466:
9465:
9460:
9455:
9450:
9445:
9440:
9435:
9429:
9427:
9421:
9420:
9418:
9417:
9415:Standard error
9412:
9407:
9402:
9401:
9400:
9395:
9384:
9382:
9376:
9375:
9373:
9372:
9367:
9362:
9357:
9352:
9347:
9345:Optimal design
9342:
9337:
9331:
9329:
9319:
9318:
9306:
9305:
9302:
9301:
9298:
9297:
9295:
9294:
9289:
9284:
9279:
9274:
9269:
9264:
9259:
9254:
9249:
9244:
9239:
9234:
9229:
9224:
9218:
9216:
9210:
9209:
9207:
9206:
9201:
9200:
9199:
9194:
9184:
9179:
9173:
9171:
9165:
9164:
9162:
9161:
9156:
9151:
9145:
9143:
9142:Summary tables
9139:
9138:
9136:
9135:
9129:
9127:
9121:
9120:
9117:
9116:
9114:
9113:
9112:
9111:
9106:
9101:
9091:
9085:
9083:
9077:
9076:
9074:
9073:
9068:
9063:
9058:
9053:
9048:
9043:
9037:
9035:
9029:
9028:
9026:
9025:
9020:
9015:
9014:
9013:
9008:
9003:
8998:
8993:
8988:
8983:
8978:
8976:Contraharmonic
8973:
8968:
8957:
8955:
8946:
8936:
8935:
8923:
8922:
8920:
8919:
8914:
8908:
8905:
8904:
8897:
8896:
8889:
8882:
8874:
8865:
8864:
8862:
8861:
8856:
8851:
8839:
8834:
8828:
8825:
8824:
8822:
8821:
8816:
8811:
8806:
8801:
8795:
8793:
8789:
8788:
8786:
8785:
8780:
8775:
8770:
8765:
8760:
8755:
8749:
8747:
8738:
8737:
8735:
8734:
8729:
8727:Optimal design
8724:
8718:
8716:
8710:
8709:
8707:
8706:
8701:
8696:
8691:
8686:
8681:
8676:
8670:
8668:
8664:
8663:
8661:
8660:
8655:
8650:
8649:
8648:
8643:
8638:
8633:
8622:
8616:
8614:
8610:
8609:
8607:
8606:
8601:
8596:
8590:
8588:
8582:
8581:
8578:
8577:
8575:
8574:
8569:
8564:
8559:
8553:
8551:
8547:
8546:
8544:
8543:
8538:
8533:
8528:
8526:Semiparametric
8523:
8518:
8512:
8510:
8506:
8505:
8503:
8502:
8497:
8492:
8487:
8481:
8479:
8475:
8474:
8472:
8471:
8466:
8461:
8456:
8451:
8445:
8443:
8434:
8426:
8425:
8423:
8422:
8417:
8412:
8407:
8401:
8399:
8393:
8392:
8390:
8389:
8384:
8379:
8373:
8371:Spearman's rho
8364:
8358:
8356:
8350:
8349:
8347:
8346:
8341:
8336:
8331:
8325:
8323:
8317:
8316:
8305:
8304:
8297:
8290:
8282:
8276:
8275:
8263:
8262:External links
8260:
8259:
8258:
8252:
8239:
8233:
8220:
8214:
8201:
8195:
8183:Gelman, Andrew
8179:
8173:
8152:
8146:
8133:
8127:
8105:
8102:
8099:
8098:
8089:
8080:
8071:
8062:
8053:
8043:
8042:
8040:
8037:
8034:
8033:
7988:
7986:
7979:
7974:
7973:
7968:
7963:
7958:
7953:
7948:
7941:
7938:
7909:
7905:
7902:
7897:
7892:
7887:
7884:
7881:
7876:
7871:
7838:
7835:
7815:
7812:
7809:
7805:
7801:
7797:
7793:
7790:
7787:
7783:
7779:
7776:
7771:
7768:
7765:
7762:
7759:
7755:
7751:
7747:
7743:
7739:
7735:
7732:
7728:
7725:
7721:
7717:
7714:
7710:
7706:
7703:
7697:
7694:
7691:
7688:
7684:
7680:
7677:
7657:
7636:
7624:gamma function
7611:
7586:
7581:
7577:
7573:
7570:
7565:
7560:
7556:
7552:
7549:
7543:
7534:
7530:
7524:
7520:
7512:
7508:
7502:
7498:
7492:
7485:
7480:
7475:
7470:
7467:
7462:
7457:
7452:
7447:
7444:
7432:
7428:
7424:
7420:
7416:
7413:
7410:
7406:
7401:
7398:
7395:
7392:
7388:
7384:
7381:
7361:
7358:
7353:
7349:
7345:
7342:
7339:
7335:
7331:
7328:
7324:
7321:
7318:
7314:
7310:
7306:
7302:
7298:
7294:
7291:
7288:
7285:
7282:
7279:
7275:
7270:
7266:
7263:
7243:
7222:
7201:
7197:
7193:
7190:
7187:
7183:
7179:
7175:
7171:
7168:
7144:
7141:
7138:
7134:
7130:
7127:
7107:
7104:
7101:
7097:
7093:
7089:
7085:
7081:
7077:
7074:
7046:
7026:
7023:
7020:
7016:
7012:
7009:
6999:model evidence
6994:
6993:Model evidence
6991:
6976:
6973:
6968:
6963:
6956:
6951:
6943:
6937:
6932:
6927:
6922:
6917:
6910:
6905:
6897:
6891:
6886:
6881:
6877:
6870:
6864:
6859:
6854:
6851:
6846:
6841:
6837:
6833:
6828:
6824:
6819:
6814:
6811:
6806:
6801:
6797:
6793:
6788:
6784:
6764:
6761:
6756:
6751:
6744:
6739:
6734:
6728:
6725:
6718:
6711:
6705:
6700:
6695:
6692:
6688:
6682:
6677:
6672:
6669:
6664:
6659:
6653:
6650:
6645:
6640:
6635:
6631:
6624:
6618:
6613:
6610:
6605:
6600:
6575:
6569:
6565:
6561:
6556:
6552:
6547:
6519:
6513:
6510:
6505:
6500:
6493:
6489:
6485:
6480:
6475:
6469:
6463:
6441:
6438:
6434:
6430:
6426:
6422:
6417:
6413:
6409:
6406:
6403:
6399:
6395:
6391:
6387:
6382:
6378:
6374:
6370:
6366:
6363:
6360:
6357:
6353:
6349:
6345:
6341:
6336:
6332:
6328:
6324:
6320:
6317:
6295:
6291:
6282:
6278:
6274:
6267:
6262:
6255:
6250:
6242:
6236:
6231:
6226:
6221:
6216:
6211:
6206:
6201:
6196:
6192:
6185:
6179:
6174:
6168:
6162:
6157:
6152:
6148:
6141:
6135:
6130:
6125:
6121:
6117:
6111:
6107:
6103:
6100:
6095:
6092:
6087:
6081:
6077:
6073:
6070:
6067:
6061:
6057:
6051:
6047:
6043:
6039:
6035:
6030:
6025:
6020:
6016:
6012:
6009:
6004:
5999:
5994:
5990:
5983:
5977:
5972:
5966:
5961:
5955:
5950:
5945:
5941:
5937:
5929:
5924:
5919:
5915:
5910:
5906:
5902:
5899:
5894:
5890:
5886:
5883:
5879:
5873:
5869:
5865:
5862:
5859:
5855:
5851:
5847:
5843:
5838:
5834:
5830:
5826:
5822:
5819:
5787:
5782:
5777:
5770:
5765:
5757:
5751:
5746:
5741:
5736:
5731:
5726:
5721:
5716:
5711:
5707:
5700:
5694:
5689:
5683:
5677:
5672:
5667:
5663:
5656:
5650:
5645:
5642:
5637:
5632:
5627:
5623:
5619:
5616:
5611:
5606:
5601:
5597:
5590:
5584:
5579:
5573:
5568:
5562:
5557:
5552:
5548:
5544:
5541:
5538:
5533:
5528:
5523:
5519:
5515:
5510:
5505:
5497:
5492:
5486:
5481:
5476:
5472:
5468:
5465:
5462:
5458:
5453:
5449:
5445:
5441:
5435:
5430:
5425:
5420:
5416:
5412:
5408:
5384:
5379:
5374:
5370:
5358:quadratic form
5343:
5338:
5314:
5311:
5306:
5301:
5294:
5289:
5284:
5278:
5275:
5268:
5261:
5255:
5250:
5245:
5242:
5238:
5232:
5227:
5222:
5218:
5211:
5205:
5200:
5197:
5192:
5187:
5162:
5157:
5133:
5128:
5103:
5100:
5076:
5053:
5048:
5019:
5011:
5007:
5001:
4997:
4991:
4987:
4983:
4980:
4975:
4972:
4969:
4964:
4960:
4956:
4953:
4949:
4943:
4939:
4935:
4931:
4927:
4922:
4917:
4912:
4908:
4904:
4899:
4894:
4886:
4881:
4875:
4870:
4865:
4861:
4857:
4849:
4845:
4841:
4837:
4832:
4828:
4824:
4821:
4816:
4812:
4808:
4805:
4801:
4795:
4791:
4787:
4783:
4779:
4775:
4770:
4766:
4762:
4758:
4752:
4747:
4742:
4737:
4733:
4729:
4725:
4717:
4712:
4707:
4703:
4698:
4694:
4690:
4687:
4682:
4678:
4674:
4671:
4667:
4661:
4657:
4653:
4650:
4647:
4645:
4643:
4640:
4635:
4631:
4627:
4624:
4621:
4616:
4612:
4608:
4604:
4600:
4597:
4594:
4589:
4585:
4581:
4577:
4573:
4569:
4565:
4561:
4557:
4554:
4551:
4548:
4546:
4544:
4540:
4536:
4532:
4528:
4523:
4519:
4515:
4511:
4507:
4504:
4501:
4500:
4486:
4483:
4471:
4467:
4461:
4458:
4453:
4448:
4441:
4437:
4433:
4428:
4423:
4417:
4411:
4383:
4379:
4375:
4370:
4365:
4360:
4356:
4352:
4347:
4342:
4334:
4329:
4323:
4318:
4313:
4309:
4305:
4297:
4293:
4289:
4285:
4280:
4276:
4272:
4269:
4264:
4260:
4256:
4253:
4249:
4243:
4239:
4235:
4232:
4229:
4224:
4220:
4216:
4212:
4208:
4205:
4179:
4174:
4170:
4165:
4160:
4156:
4153:
4131:
4128:
4123:
4118:
4114:
4110:
4105:
4101:
4097:
4092:
4088:
4056:
4052:
4031:
4009:
4004:
4000:
3977:
3973:
3950:
3945:
3941:
3935:
3931:
3924:
3921:
3915:
3910:
3906:
3882:
3877:
3873:
3866:
3861:
3857:
3836:
3831:
3827:
3823:
3818:
3814:
3810:
3779:
3775:
3766:
3762:
3758:
3751:
3746:
3742:
3736:
3732:
3725:
3721:
3717:
3714:
3709:
3706:
3701:
3696:
3692:
3686:
3682:
3676:
3672:
3668:
3665:
3662:
3657:
3653:
3649:
3646:
3623:
3618:
3614:
3610:
3607:
3587:
3584:
3579:
3575:
3571:
3567:
3563:
3560:
3557:
3552:
3548:
3544:
3541:
3538:
3535:
3530:
3526:
3522:
3518:
3514:
3511:
3488:
3468:
3465:
3462:
3459:
3456:
3453:
3443:
3437:
3434:
3427:
3423:
3419:
3415:
3409:
3404:
3397:
3394:
3387:
3383:
3379:
3375:
3372:
3367:
3363:
3359:
3339:
3335:
3331:
3325:
3322:
3316:
3312:
3308:
3305:
3301:
3294:
3288:
3283:
3277:
3272:
3265:
3262:
3256:
3252:
3248:
3240:
3235:
3230:
3226:
3221:
3217:
3213:
3210:
3203:
3199:
3196:
3193:
3187:
3183:
3177:
3173:
3169:
3165:
3156:
3151:
3146:
3139:
3135:
3131:
3125:
3121:
3117:
3114:
3107:
3104:
3099:
3095:
3089:
3085:
3081:
3078:
3075:
3070:
3066:
3062:
3058:
3054:
3050:
3045:
3040:
3036:
3033:
3007:
3003:
2997:
2994:
2988:
2984:
2980:
2977:
2973:
2966:
2960:
2955:
2949:
2944:
2937:
2934:
2928:
2924:
2920:
2917:
2914:
2908:
2905:
2898:
2894:
2890:
2886:
2880:
2875:
2868:
2865:
2858:
2854:
2850:
2846:
2843:
2840:
2838:
2836:
2831:
2825:
2819:
2815:
2809:
2806:
2799:
2795:
2791:
2787:
2781:
2776:
2771:
2766:
2762:
2756:
2753:
2746:
2742:
2739:
2732:
2729:
2723:
2720:
2714:
2710:
2706:
2703:
2699:
2692:
2686:
2681:
2675:
2670:
2663:
2660:
2654:
2650:
2646:
2643:
2640:
2634:
2631:
2624:
2620:
2616:
2612:
2606:
2601:
2594:
2591:
2584:
2580:
2576:
2572:
2569:
2566:
2564:
2562:
2559:
2556:
2552:
2547:
2543:
2537:
2534:
2527:
2523:
2520:
2517:
2511:
2508:
2501:
2497:
2493:
2489:
2486:
2480:
2475:
2471:
2467:
2462:
2458:
2452:
2449:
2442:
2438:
2435:
2432:
2426:
2423:
2416:
2412:
2408:
2404:
2401:
2398:
2395:
2393:
2391:
2387:
2382:
2378:
2374:
2370:
2364:
2359:
2354:
2349:
2345:
2341:
2337:
2334:
2333:
2311:
2305:
2302:
2296:
2292:
2288:
2267:
2246:
2225:
2200:
2195:
2191:
2187:
2183:
2179:
2176:
2153:
2150:
2148:
2145:
2131:
2110:
2107:
2104:
2100:
2096:
2093:
2090:
2085:
2081:
2077:
2074:
2071:
2066:
2061:
2057:
2053:
2050:
2029:
2008:
1988:
1985:
1982:
1977:
1973:
1969:
1966:
1963:
1960:
1940:
1937:
1934:
1929:
1925:
1921:
1917:
1913:
1909:
1905:
1901:
1897:
1894:
1873:
1851:
1829:
1807:
1779:
1758:
1720:
1689:
1684:
1678:
1674:
1669:
1663:
1659:
1655:
1635:
1626:is the column
1614:
1590:
1584:
1579:
1554:
1551:
1548:
1527:
1503:
1496:
1490:
1483:
1480:
1476:
1471:
1464:
1458:
1453:
1450:
1444:
1441:
1408:
1404:
1400:
1396:
1391:
1387:
1383:
1379:
1373:
1368:
1363:
1358:
1354:
1350:
1346:
1338:
1334:
1330:
1326:
1321:
1317:
1313:
1310:
1305:
1301:
1297:
1294:
1290:
1284:
1280:
1276:
1273:
1270:
1265:
1261:
1257:
1253:
1249:
1245:
1241:
1237:
1233:
1230:
1202:
1199:
1194:
1190:
1186:
1183:
1180:
1177:
1174:
1169:
1165:
1135:
1131:
1110:
1107:
1104:
1083:
1060:
1055:
1051:
1047:
1043:
1036:
1030:
1025:
1020:
1015:
1011:
988:
983:
961:
958:
955:
933:
929:
904:
901:
898:
895:
892:
889:
886:
870:
867:
842:
822:
798:
786:conditional on
772:
725:
724:
722:
721:
714:
707:
699:
696:
695:
694:
693:
678:
677:
676:
675:
670:
665:
660:
655:
650:
642:
641:
637:
636:
635:
634:
629:
624:
619:
614:
606:
605:
604:
603:
598:
593:
588:
583:
575:
574:
573:
572:
567:
562:
557:
549:
548:
547:
546:
541:
536:
528:
527:
523:
522:
521:
520:
512:
511:
510:
509:
504:
499:
494:
489:
484:
479:
474:
472:Semiparametric
469:
464:
456:
455:
454:
453:
448:
443:
441:Random effects
438:
433:
425:
424:
423:
422:
417:
415:Ordered probit
412:
407:
402:
397:
392:
387:
382:
377:
372:
367:
362:
354:
353:
352:
351:
346:
341:
336:
328:
327:
323:
322:
316:
315:
307:
306:
304:
303:
296:
289:
281:
278:
277:
276:
275:
260:
259:
258:
257:
252:
247:
239:
238:
234:
233:
232:
231:
226:
218:
217:
213:
212:
211:
210:
205:
200:
192:
191:
187:
186:
185:
184:
179:
174:
169:
164:
156:
155:
151:
150:
149:
148:
143:
138:
133:
125:
124:
123:Model building
120:
119:
118:
117:
112:
107:
102:
97:
92:
87:
82:
80:Bayes' theorem
77:
72:
64:
63:
59:
58:
40:
39:
31:
30:
24:
23:
15:
9:
6:
4:
3:
2:
11223:
11212:
11209:
11207:
11204:
11203:
11201:
11186:
11185:
11176:
11174:
11173:
11164:
11162:
11161:
11156:
11150:
11148:
11147:
11138:
11137:
11134:
11120:
11117:
11115:
11114:Geostatistics
11112:
11110:
11107:
11105:
11102:
11100:
11097:
11096:
11094:
11092:
11088:
11082:
11081:Psychometrics
11079:
11077:
11074:
11072:
11069:
11067:
11064:
11062:
11059:
11057:
11054:
11052:
11049:
11047:
11044:
11042:
11039:
11037:
11034:
11033:
11031:
11029:
11025:
11019:
11016:
11014:
11011:
11009:
11005:
11002:
11000:
10997:
10995:
10992:
10990:
10987:
10986:
10984:
10982:
10978:
10972:
10969:
10967:
10964:
10962:
10958:
10955:
10953:
10950:
10949:
10947:
10945:
10944:Biostatistics
10941:
10937:
10933:
10928:
10924:
10906:
10905:Log-rank test
10903:
10902:
10900:
10896:
10890:
10887:
10886:
10884:
10882:
10878:
10872:
10869:
10867:
10864:
10862:
10859:
10857:
10854:
10853:
10851:
10849:
10845:
10842:
10840:
10836:
10826:
10823:
10821:
10818:
10816:
10813:
10811:
10808:
10806:
10803:
10802:
10800:
10798:
10794:
10788:
10785:
10783:
10780:
10778:
10776:(BoxâJenkins)
10772:
10770:
10767:
10765:
10762:
10758:
10755:
10754:
10753:
10750:
10749:
10747:
10745:
10741:
10735:
10732:
10730:
10729:DurbinâWatson
10727:
10725:
10719:
10717:
10714:
10712:
10711:DickeyâFuller
10709:
10708:
10706:
10702:
10696:
10693:
10691:
10688:
10686:
10685:Cointegration
10683:
10681:
10678:
10676:
10673:
10671:
10668:
10666:
10663:
10661:
10660:Decomposition
10658:
10657:
10655:
10651:
10648:
10646:
10642:
10632:
10629:
10628:
10627:
10624:
10623:
10622:
10619:
10615:
10612:
10611:
10610:
10607:
10605:
10602:
10600:
10597:
10595:
10592:
10590:
10587:
10585:
10582:
10580:
10577:
10575:
10572:
10571:
10569:
10567:
10563:
10557:
10554:
10552:
10549:
10547:
10544:
10542:
10539:
10537:
10534:
10532:
10531:Cohen's kappa
10529:
10528:
10526:
10524:
10520:
10516:
10512:
10508:
10504:
10500:
10495:
10491:
10477:
10474:
10472:
10469:
10467:
10464:
10462:
10459:
10458:
10456:
10454:
10450:
10444:
10440:
10436:
10430:
10428:
10425:
10424:
10422:
10420:
10416:
10410:
10407:
10405:
10402:
10400:
10397:
10395:
10392:
10390:
10387:
10385:
10384:Nonparametric
10382:
10380:
10377:
10376:
10374:
10370:
10364:
10361:
10359:
10356:
10354:
10351:
10349:
10346:
10345:
10343:
10341:
10337:
10331:
10328:
10326:
10323:
10321:
10318:
10316:
10313:
10311:
10308:
10307:
10305:
10303:
10299:
10293:
10290:
10288:
10285:
10283:
10280:
10278:
10275:
10274:
10272:
10270:
10266:
10262:
10255:
10252:
10250:
10247:
10246:
10242:
10238:
10222:
10219:
10218:
10217:
10214:
10212:
10209:
10207:
10204:
10200:
10197:
10195:
10192:
10191:
10190:
10187:
10186:
10184:
10182:
10178:
10168:
10165:
10161:
10155:
10153:
10147:
10145:
10139:
10138:
10137:
10134:
10133:Nonparametric
10131:
10129:
10123:
10119:
10116:
10115:
10114:
10108:
10104:
10103:Sample median
10101:
10100:
10099:
10096:
10095:
10093:
10091:
10087:
10079:
10076:
10074:
10071:
10069:
10066:
10065:
10064:
10061:
10059:
10056:
10054:
10048:
10046:
10043:
10041:
10038:
10036:
10033:
10031:
10028:
10026:
10024:
10020:
10018:
10015:
10014:
10012:
10010:
10006:
10000:
9998:
9994:
9992:
9990:
9985:
9983:
9978:
9974:
9973:
9970:
9967:
9965:
9961:
9951:
9948:
9946:
9943:
9941:
9938:
9937:
9935:
9933:
9929:
9923:
9920:
9916:
9913:
9912:
9911:
9908:
9904:
9901:
9900:
9899:
9896:
9894:
9891:
9890:
9888:
9886:
9882:
9874:
9871:
9869:
9866:
9865:
9864:
9861:
9859:
9856:
9854:
9851:
9849:
9846:
9844:
9841:
9839:
9836:
9835:
9833:
9831:
9827:
9821:
9818:
9814:
9811:
9807:
9804:
9802:
9799:
9798:
9797:
9794:
9793:
9792:
9789:
9785:
9782:
9780:
9777:
9775:
9772:
9770:
9767:
9766:
9765:
9762:
9761:
9759:
9757:
9753:
9750:
9748:
9744:
9738:
9735:
9733:
9730:
9726:
9723:
9722:
9721:
9718:
9716:
9713:
9709:
9708:loss function
9706:
9705:
9704:
9701:
9697:
9694:
9692:
9689:
9687:
9684:
9683:
9682:
9679:
9677:
9674:
9672:
9669:
9665:
9662:
9660:
9657:
9655:
9649:
9646:
9645:
9644:
9641:
9637:
9634:
9632:
9629:
9627:
9624:
9623:
9622:
9619:
9615:
9612:
9610:
9607:
9606:
9605:
9602:
9598:
9595:
9594:
9593:
9590:
9586:
9583:
9582:
9581:
9578:
9576:
9573:
9571:
9568:
9566:
9563:
9562:
9560:
9558:
9554:
9550:
9546:
9541:
9537:
9523:
9520:
9518:
9515:
9513:
9510:
9508:
9505:
9504:
9502:
9500:
9496:
9490:
9487:
9485:
9482:
9480:
9477:
9476:
9474:
9470:
9464:
9461:
9459:
9456:
9454:
9451:
9449:
9446:
9444:
9441:
9439:
9436:
9434:
9431:
9430:
9428:
9426:
9422:
9416:
9413:
9411:
9410:Questionnaire
9408:
9406:
9403:
9399:
9396:
9394:
9391:
9390:
9389:
9386:
9385:
9383:
9381:
9377:
9371:
9368:
9366:
9363:
9361:
9358:
9356:
9353:
9351:
9348:
9346:
9343:
9341:
9338:
9336:
9333:
9332:
9330:
9328:
9324:
9320:
9316:
9311:
9307:
9293:
9290:
9288:
9285:
9283:
9280:
9278:
9275:
9273:
9270:
9268:
9265:
9263:
9260:
9258:
9255:
9253:
9250:
9248:
9245:
9243:
9240:
9238:
9237:Control chart
9235:
9233:
9230:
9228:
9225:
9223:
9220:
9219:
9217:
9215:
9211:
9205:
9202:
9198:
9195:
9193:
9190:
9189:
9188:
9185:
9183:
9180:
9178:
9175:
9174:
9172:
9170:
9166:
9160:
9157:
9155:
9152:
9150:
9147:
9146:
9144:
9140:
9134:
9131:
9130:
9128:
9126:
9122:
9110:
9107:
9105:
9102:
9100:
9097:
9096:
9095:
9092:
9090:
9087:
9086:
9084:
9082:
9078:
9072:
9069:
9067:
9064:
9062:
9059:
9057:
9054:
9052:
9049:
9047:
9044:
9042:
9039:
9038:
9036:
9034:
9030:
9024:
9021:
9019:
9016:
9012:
9009:
9007:
9004:
9002:
8999:
8997:
8994:
8992:
8989:
8987:
8984:
8982:
8979:
8977:
8974:
8972:
8969:
8967:
8964:
8963:
8962:
8959:
8958:
8956:
8954:
8950:
8947:
8945:
8941:
8937:
8933:
8928:
8924:
8918:
8915:
8913:
8910:
8909:
8906:
8902:
8895:
8890:
8888:
8883:
8881:
8876:
8875:
8872:
8860:
8857:
8855:
8852:
8850:
8845:
8840:
8838:
8835:
8833:
8830:
8829:
8826:
8820:
8817:
8815:
8812:
8810:
8807:
8805:
8802:
8800:
8799:Curve fitting
8797:
8796:
8794:
8790:
8784:
8781:
8779:
8776:
8774:
8771:
8769:
8766:
8764:
8761:
8759:
8756:
8754:
8751:
8750:
8748:
8746:
8745:approximation
8743:
8739:
8733:
8730:
8728:
8725:
8723:
8720:
8719:
8717:
8715:
8711:
8705:
8702:
8700:
8697:
8695:
8692:
8690:
8687:
8685:
8682:
8680:
8677:
8675:
8672:
8671:
8669:
8665:
8659:
8656:
8654:
8651:
8647:
8644:
8642:
8639:
8637:
8636:
8628:
8627:
8626:
8623:
8621:
8618:
8617:
8615:
8611:
8605:
8602:
8600:
8597:
8595:
8592:
8591:
8589:
8587:
8583:
8573:
8570:
8568:
8565:
8563:
8560:
8558:
8555:
8554:
8552:
8548:
8542:
8539:
8537:
8534:
8532:
8529:
8527:
8524:
8522:
8521:Nonparametric
8519:
8517:
8514:
8513:
8511:
8507:
8501:
8498:
8496:
8493:
8491:
8488:
8486:
8483:
8482:
8480:
8476:
8470:
8467:
8465:
8462:
8460:
8457:
8455:
8452:
8450:
8447:
8446:
8444:
8442:
8438:
8435:
8433:
8427:
8421:
8418:
8416:
8413:
8411:
8408:
8406:
8403:
8402:
8400:
8398:
8394:
8388:
8385:
8383:
8380:
8377:
8376:Kendall's tau
8374:
8372:
8368:
8365:
8363:
8360:
8359:
8357:
8355:
8351:
8345:
8342:
8340:
8337:
8335:
8332:
8330:
8329:Least squares
8327:
8326:
8324:
8322:
8318:
8314:
8310:
8309:Least squares
8303:
8298:
8296:
8291:
8289:
8284:
8283:
8280:
8273:
8269:
8266:
8265:
8255:
8253:0-340-52922-9
8249:
8245:
8240:
8236:
8230:
8226:
8221:
8217:
8211:
8207:
8202:
8198:
8192:
8188:
8184:
8180:
8176:
8170:
8166:
8162:
8158:
8153:
8149:
8147:1-58488-697-8
8143:
8139:
8134:
8130:
8128:0-471-57428-7
8124:
8120:
8116:
8112:
8111:Box, G. E. P.
8108:
8107:
8093:
8084:
8075:
8066:
8057:
8048:
8044:
8030:
8027:
8019:
8009:
8005:
7999:
7998:
7992:
7987:
7978:
7977:
7972:
7969:
7967:
7964:
7962:
7959:
7957:
7954:
7952:
7949:
7947:
7944:
7943:
7937:
7935:
7931:
7926:
7924:
7903:
7900:
7895:
7885:
7882:
7879:
7874:
7858:
7856:
7852:
7848:
7844:
7834:
7832:
7831:Bayes theorem
7810:
7807:
7799:
7791:
7788:
7785:
7774:
7766:
7763:
7760:
7757:
7749:
7741:
7730:
7723:
7715:
7712:
7701:
7695:
7689:
7686:
7675:
7655:
7625:
7600:
7579:
7575:
7558:
7554:
7541:
7532:
7528:
7522:
7518:
7510:
7506:
7500:
7496:
7490:
7478:
7455:
7430:
7426:
7422:
7414:
7411:
7404:
7399:
7393:
7390:
7379:
7359:
7356:
7347:
7340:
7337:
7326:
7319:
7316:
7308:
7300:
7289:
7286:
7283:
7277:
7261:
7241:
7191:
7188:
7185:
7177:
7166:
7158:
7139:
7136:
7125:
7102:
7099:
7091:
7083:
7072:
7064:
7061:, and as the
7060:
7044:
7021:
7018:
7007:
7000:
6990:
6987:
6974:
6966:
6954:
6935:
6925:
6920:
6908:
6889:
6879:
6852:
6849:
6844:
6839:
6835:
6831:
6826:
6822:
6817:
6812:
6809:
6804:
6799:
6795:
6791:
6786:
6782:
6762:
6754:
6742:
6732:
6693:
6690:
6680:
6667:
6662:
6651:
6643:
6633:
6608:
6603:
6588:
6573:
6567:
6563:
6559:
6554:
6550:
6545:
6517:
6511:
6508:
6503:
6491:
6487:
6483:
6478:
6467:
6439:
6428:
6420:
6415:
6411:
6404:
6393:
6385:
6380:
6376:
6372:
6361:
6358:
6347:
6339:
6334:
6330:
6326:
6315:
6306:
6293:
6289:
6280:
6276:
6272:
6265:
6253:
6234:
6224:
6219:
6204:
6194:
6160:
6150:
6128:
6123:
6119:
6115:
6109:
6105:
6101:
6098:
6093:
6090:
6085:
6079:
6075:
6071:
6068:
6065:
6059:
6049:
6045:
6037:
6028:
6018:
6002:
5992:
5953:
5943:
5927:
5922:
5917:
5913:
5908:
5904:
5900:
5897:
5892:
5888:
5884:
5881:
5871:
5867:
5860:
5849:
5841:
5836:
5832:
5828:
5817:
5809:
5807:
5803:
5798:
5785:
5780:
5768:
5749:
5739:
5734:
5719:
5709:
5675:
5665:
5643:
5635:
5625:
5609:
5599:
5560:
5550:
5539:
5531:
5521:
5508:
5484:
5474:
5463:
5447:
5414:
5398:
5382:
5372:
5359:
5341:
5325:
5312:
5304:
5292:
5282:
5243:
5240:
5230:
5220:
5195:
5190:
5175:
5160:
5131:
5051:
5035:
5017:
5009:
5005:
4999:
4995:
4989:
4985:
4981:
4978:
4970:
4967:
4962:
4958:
4951:
4941:
4937:
4929:
4920:
4910:
4897:
4873:
4863:
4847:
4843:
4839:
4835:
4830:
4826:
4822:
4819:
4814:
4810:
4806:
4803:
4793:
4789:
4781:
4764:
4731:
4715:
4710:
4705:
4701:
4696:
4692:
4688:
4685:
4680:
4676:
4672:
4669:
4659:
4655:
4648:
4646:
4633:
4629:
4622:
4614:
4610:
4606:
4595:
4587:
4583:
4579:
4571:
4563:
4552:
4549:
4547:
4534:
4526:
4521:
4517:
4513:
4502:
4490:
4482:
4469:
4465:
4459:
4456:
4451:
4439:
4435:
4431:
4426:
4415:
4399:
4394:
4381:
4377:
4368:
4358:
4345:
4321:
4311:
4295:
4291:
4287:
4283:
4278:
4274:
4270:
4267:
4262:
4258:
4254:
4251:
4241:
4237:
4230:
4222:
4218:
4214:
4203:
4195:
4193:
4172:
4168:
4151:
4142:
4129:
4121:
4116:
4112:
4108:
4103:
4099:
4090:
4086:
4072:
4054:
4050:
4029:
4007:
4002:
3998:
3975:
3971:
3948:
3943:
3939:
3933:
3929:
3922:
3919:
3913:
3908:
3904:
3880:
3875:
3871:
3864:
3859:
3855:
3829:
3825:
3821:
3816:
3812:
3795:
3790:
3777:
3773:
3764:
3760:
3756:
3749:
3744:
3740:
3734:
3730:
3723:
3719:
3715:
3712:
3707:
3704:
3699:
3694:
3690:
3684:
3674:
3670:
3663:
3655:
3651:
3644:
3637:
3616:
3612:
3605:
3585:
3577:
3573:
3569:
3558:
3550:
3546:
3539:
3536:
3528:
3524:
3520:
3509:
3500:
3486:
3466:
3463:
3460:
3457:
3454:
3451:
3421:
3381:
3370:
3365:
3361:
3357:
3337:
3333:
3314:
3254:
3238:
3233:
3228:
3224:
3219:
3215:
3211:
3208:
3201:
3197:
3194:
3191:
3185:
3175:
3171:
3163:
3154:
3149:
3144:
3137:
3133:
3129:
3123:
3119:
3115:
3112:
3105:
3102:
3097:
3087:
3083:
3076:
3068:
3064:
3060:
3052:
3031:
3022:
3005:
2986:
2926:
2915:
2892:
2852:
2841:
2839:
2829:
2823:
2817:
2793:
2760:
2737:
2730:
2712:
2652:
2641:
2618:
2578:
2567:
2565:
2541:
2518:
2495:
2456:
2433:
2410:
2396:
2394:
2376:
2343:
2323:
2294:
2244:
2214:
2193:
2189:
2185:
2174:
2165:
2163:
2159:
2144:
2105:
2102:
2091:
2083:
2079:
2075:
2072:
2069:
2059:
2048:
2006:
1983:
1980:
1975:
1971:
1967:
1964:
1958:
1935:
1932:
1927:
1923:
1919:
1911:
1903:
1892:
1795:
1793:
1777:
1747:
1744:to yield the
1743:
1742:Bayes theorem
1739:
1735:
1709:
1704:
1676:
1672:
1667:
1661:
1657:
1633:
1582:
1567:
1566:design matrix
1552:
1549:
1546:
1515:
1481:
1478:
1448:
1428:
1424:
1419:
1406:
1402:
1385:
1352:
1336:
1332:
1328:
1324:
1319:
1315:
1311:
1308:
1303:
1299:
1295:
1292:
1282:
1278:
1271:
1263:
1259:
1255:
1247:
1239:
1228:
1220:
1218:
1213:
1200:
1192:
1188:
1184:
1181:
1175:
1172:
1167:
1163:
1154:
1151:
1133:
1129:
1108:
1105:
1102:
1071:
1058:
1053:
1049:
1045:
1028:
1018:
1013:
1009:
986:
959:
956:
953:
931:
927:
918:
902:
899:
896:
893:
890:
887:
884:
876:
866:
864:
860:
856:
840:
820:
812:
796:
788:
787:
770:
762:
758:
757:out-of-sample
754:
750:
746:
742:
739:is a type of
738:
732:
720:
715:
713:
708:
706:
701:
700:
698:
697:
692:
687:
682:
681:
680:
679:
674:
671:
669:
666:
664:
661:
659:
656:
654:
651:
649:
646:
645:
644:
643:
639:
638:
633:
630:
628:
625:
623:
620:
618:
615:
613:
610:
609:
608:
607:
602:
599:
597:
594:
592:
589:
587:
584:
582:
579:
578:
577:
576:
571:
568:
566:
563:
561:
558:
556:
553:
552:
551:
550:
545:
542:
540:
537:
535:
534:Least squares
532:
531:
530:
529:
525:
524:
519:
516:
515:
514:
513:
508:
505:
503:
500:
498:
495:
493:
490:
488:
485:
483:
480:
478:
475:
473:
470:
468:
467:Nonparametric
465:
463:
460:
459:
458:
457:
452:
449:
447:
444:
442:
439:
437:
436:Fixed effects
434:
432:
429:
428:
427:
426:
421:
418:
416:
413:
411:
410:Ordered logit
408:
406:
403:
401:
398:
396:
393:
391:
388:
386:
383:
381:
378:
376:
373:
371:
368:
366:
363:
361:
358:
357:
356:
355:
350:
347:
345:
342:
340:
337:
335:
332:
331:
330:
329:
325:
324:
321:
318:
317:
313:
312:
302:
297:
295:
290:
288:
283:
282:
280:
279:
274:
269:
264:
263:
262:
261:
256:
253:
251:
248:
246:
243:
242:
241:
240:
236:
235:
230:
227:
225:
222:
221:
220:
219:
215:
214:
209:
206:
204:
201:
199:
196:
195:
194:
193:
189:
188:
183:
180:
178:
175:
173:
170:
168:
165:
163:
160:
159:
158:
157:
153:
152:
147:
144:
142:
139:
137:
134:
132:
129:
128:
127:
126:
122:
121:
116:
113:
111:
108:
106:
103:
101:
98:
96:
95:Cox's theorem
93:
91:
88:
86:
83:
81:
78:
76:
73:
71:
68:
67:
66:
65:
61:
60:
57:
53:
49:
45:
42:
41:
37:
33:
32:
29:
26:
25:
21:
20:
11182:
11170:
11151:
11144:
11056:Econometrics
11006: /
10989:Chemometrics
10966:Epidemiology
10959: /
10932:Applications
10774:ARIMA model
10721:Q-statistic
10670:Stationarity
10566:Multivariate
10509: /
10505: /
10503:Multivariate
10501: /
10441: /
10437: /
10362:
10211:Bayes factor
10110:Signed rank
10022:
9996:
9988:
9976:
9671:Completeness
9507:Cohort study
9405:Opinion poll
9340:Missing data
9327:Study design
9282:Scatter plot
9204:Scatter plot
9197:Spearman's Ï
9159:Grouped data
8792:Applications
8631:
8509:Non-standard
8243:
8224:
8205:
8186:
8156:
8137:
8118:
8092:
8083:
8074:
8065:
8056:
8047:
8022:
8013:
7994:
7927:
7859:
7840:
7622:denotes the
7601:
7062:
6996:
6988:
6589:
6307:
5810:
5799:
5399:
5326:
5176:
5036:
4491:
4488:
4395:
4196:
4143:
3791:
3501:
3023:
2324:
2166:
2155:
1796:
1791:
1705:
1516:
1420:
1221:
1214:
1072:
872:
810:
784:
753:distribution
736:
735:
621:
591:Non-negative
245:Bayes factor
135:
11184:WikiProject
11099:Cartography
11061:Jurimetrics
11013:Reliability
10744:Time domain
10723:(LjungâBox)
10645:Time-series
10523:Categorical
10507:Time-series
10499:Categorical
10434:(Bernoulli)
10269:Correlation
10249:Correlation
10045:JarqueâBera
10017:Chi-squared
9779:M-estimator
9732:Asymptotics
9676:Sufficiency
9443:Interaction
9355:Replication
9335:Effect size
9292:Violin plot
9272:Radar chart
9252:Forest plot
9242:Correlogram
9192:Kendall's Ï
8115:Tiao, G. C.
8016:August 2011
8008:introducing
7837:Other cases
1708:frequentist
869:Model setup
813:, in which
601:Regularized
565:Generalized
497:Least angle
395:Mixed logit
11200:Categories
11051:Demography
10769:ARMA model
10574:Regression
10151:(Friedman)
10112:(Wilcoxon)
10050:Normality
10040:Lilliefors
9987:Student's
9863:Resampling
9737:Robustness
9725:divergence
9715:Efficiency
9653:(monotone)
9648:Likelihood
9565:Population
9398:Stratified
9350:Population
9169:Dependence
9125:Count data
9056:Percentile
9033:Dispersion
8966:Arithmetic
8901:Statistics
8667:Background
8630:Mallows's
8234:0470863676
8104:References
7991:references
7921:is called
4082:Scale-inv-
1732:. In the
1706:This is a
761:regressand
640:Background
544:Non-linear
526:Estimation
190:Estimators
62:Background
48:Likelihood
10432:Logistic
10199:posterior
10125:Rank sum
9873:Jackknife
9868:Bootstrap
9686:Bootstrap
9621:Parameter
9570:Statistic
9365:Statistic
9277:Run chart
9262:Pie chart
9257:Histogram
9247:Fan chart
9222:Bar chart
9104:L-moments
8991:Geometric
8742:Numerical
8121:. Wiley.
7891:Λ
7870:μ
7792:∣
7789:σ
7782:β
7761:σ
7754:β
7742:∣
7716:σ
7709:β
7687:∣
7656:σ
7635:β
7610:Γ
7569:Γ
7548:Γ
7542:⋅
7491:⋅
7474:Λ
7451:Λ
7415:π
7391:∣
7360:σ
7352:β
7341:σ
7334:β
7320:σ
7313:β
7301:∣
7287:∫
7242:σ
7221:β
7192:∣
7189:σ
7182:β
7140:σ
7133:β
7103:σ
7096:β
7084:∣
7019:∣
6962:μ
6950:Λ
6931:μ
6926:−
6916:μ
6904:Λ
6885:μ
6750:μ
6738:Λ
6727:^
6724:β
6691:−
6676:Λ
6658:μ
6639:Λ
6599:Λ
6541:Inv-Gamma
6509:−
6499:Λ
6488:σ
6474:μ
6421:∣
6412:σ
6405:ρ
6377:σ
6373:∣
6369:β
6362:ρ
6359:∝
6340:∣
6331:σ
6323:β
6316:ρ
6277:σ
6261:μ
6249:Λ
6230:μ
6215:μ
6200:Λ
6156:μ
6151:−
6110:−
6102:
6091:−
6060:−
6046:σ
6024:μ
6019:−
6015:β
5998:Λ
5949:μ
5944:−
5940:β
5923:σ
5909:−
5901:
5882:−
5868:σ
5861:∝
5842:∣
5833:σ
5825:β
5818:ρ
5804:times an
5776:μ
5764:Λ
5745:μ
5730:μ
5715:Λ
5671:μ
5666:−
5631:μ
5626:−
5622:β
5605:Λ
5556:μ
5551:−
5547:β
5527:μ
5522:−
5518:β
5504:Λ
5480:μ
5475:−
5471:β
5457:β
5448:−
5424:β
5415:−
5378:μ
5373:−
5369:β
5337:μ
5300:μ
5288:Λ
5277:^
5274:β
5241:−
5226:Λ
5186:μ
5156:Λ
5127:μ
5102:^
5099:β
5075:β
5047:μ
5006:σ
4990:−
4982:
4952:−
4938:σ
4916:μ
4911:−
4907:β
4893:Λ
4869:μ
4864:−
4860:β
4844:σ
4831:−
4823:
4804:−
4790:σ
4774:β
4765:−
4741:β
4732:−
4711:σ
4697:−
4689:
4670:−
4656:σ
4649:∝
4630:σ
4623:ρ
4611:σ
4607:∣
4603:β
4596:ρ
4584:σ
4576:β
4564:∣
4553:ρ
4550:∝
4527:∣
4518:σ
4510:β
4503:ρ
4457:−
4447:Λ
4436:σ
4422:μ
4364:μ
4359:−
4355:β
4341:Λ
4317:μ
4312:−
4308:β
4292:σ
4279:−
4271:
4252:−
4238:σ
4231:∝
4219:σ
4215:∣
4211:β
4204:ρ
4169:σ
4159:β
4152:ρ
4087:χ
3805:Inv-Gamma
3761:σ
3724:−
3716:
3705:−
3685:−
3671:σ
3664:∝
3652:σ
3645:ρ
3613:σ
3606:ρ
3574:σ
3570:∣
3566:β
3559:ρ
3547:σ
3540:ρ
3525:σ
3517:β
3510:ρ
3461:−
3436:^
3433:β
3422:−
3396:^
3393:β
3382:−
3324:^
3321:β
3315:−
3311:β
3264:^
3261:β
3255:−
3251:β
3234:σ
3220:−
3212:
3195:−
3186:−
3172:σ
3150:σ
3124:−
3116:
3098:−
3084:σ
3077:∝
3065:σ
3057:β
3032:ρ
2996:^
2993:β
2987:−
2983:β
2936:^
2933:β
2927:−
2923:β
2907:^
2904:β
2893:−
2867:^
2864:β
2853:−
2818:⏟
2808:^
2805:β
2794:−
2770:β
2761:−
2755:^
2752:β
2722:^
2719:β
2713:−
2709:β
2662:^
2659:β
2653:−
2649:β
2633:^
2630:β
2619:−
2593:^
2590:β
2579:−
2551:β
2542:−
2536:^
2533:β
2510:^
2507:β
2496:−
2466:β
2457:−
2451:^
2448:β
2425:^
2422:β
2411:−
2386:β
2377:−
2353:β
2344:−
2322:. Write
2304:^
2301:β
2295:−
2291:β
2266:β
2245:σ
2224:β
2213:conjugate
2190:σ
2182:β
2175:ρ
2106:γ
2103:∣
2092:ρ
2080:σ
2073:β
2060:∣
2049:ρ
2007:γ
1984:γ
1972:σ
1965:β
1959:ρ
1936:γ
1924:σ
1916:β
1912:∣
1893:ρ
1778:σ
1757:β
1719:β
1668:⋯
1550:×
1479:−
1443:^
1440:β
1395:β
1386:−
1362:β
1353:−
1333:σ
1320:−
1312:
1293:−
1279:σ
1272:∝
1260:σ
1252:β
1240:∣
1229:ρ
1189:σ
1173:∼
1164:ε
1130:ε
1106:×
1082:β
1050:ε
1042:β
957:×
897:…
507:Segmented
90:Coherence
44:Posterior
11146:Category
10839:Survival
10716:Johansen
10439:Binomial
10394:Isotonic
9981:(normal)
9626:location
9433:Blocking
9388:Sampling
9267:QâQ plot
9232:Box plot
9214:Graphics
9109:Skewness
9099:Kurtosis
9071:Variance
9001:Heronian
8996:Harmonic
8572:Logistic
8562:Binomial
8541:Isotonic
8536:Quantile
8117:(1973).
7940:See also
2167:A prior
1999:, where
1792:a priori
1734:Bayesian
1646:-vector
946:given a
855:Gaussian
622:Bayesian
560:Weighted
555:Ordinary
487:Isotonic
482:Quantile
56:Evidence
11172:Commons
11119:Kriging
11004:Process
10961:studies
10820:Wavelet
10653:General
9820:Plug-in
9614:L space
9393:Cluster
9094:Moments
8912:Outline
8567:Poisson
8004:improve
1539:is the
581:Partial
420:Poisson
11041:Census
10631:Normal
10579:Manova
10399:Robust
10149:2-way
10141:1-way
9979:-test
9650:
9227:Biplot
9018:Median
9011:Lehmer
8953:Center
8531:Robust
8250:
8231:
8212:
8193:
8171:
8144:
8125:
7993:, but
7932:: see
3634:is an
3598:where
3479:where
3350:where
2827:
1604:; and
1517:where
1073:where
833:given
539:Linear
477:Robust
400:Probit
326:Models
10665:Trend
10194:prior
10136:anova
10025:-test
9999:-test
9991:-test
9898:Power
9843:Pivot
9636:shape
9631:scale
9081:Shape
9061:Range
9006:Heinz
8981:Cubic
8917:Index
8039:Notes
7602:Here
4190:is a
3963:with
1095:is a
586:Total
502:Local
52:Prior
10898:Test
10098:Sign
9950:Wald
9023:Mode
8961:Mean
8311:and
8248:ISBN
8229:ISBN
8210:ISBN
8191:ISBN
8169:ISBN
8142:ISBN
8123:ISBN
7851:INLA
7648:and
7234:and
6997:The
6532:and
4042:and
3990:and
3896:and
2237:and
1819:and
1770:and
1421:The
1148:are
10078:BIC
10073:AIC
8646:BIC
8641:AIC
8161:doi
7853:or
7466:det
7443:det
6099:exp
5898:exp
5360:in
4979:exp
4820:exp
4686:exp
4268:exp
3713:exp
3209:exp
3113:exp
2211:is
1309:exp
919:of
11202::
8167:.
8113:;
7936:.
7925:.
7857:.
7849:,
7668:.
7254:.
5808::
5397:.
4194:,
4073:,
1794:.
1703:.
1429::
1219::
1001::
783:)
54:Ă·
50:Ă
46:=
10023:G
9997:F
9989:t
9977:Z
9696:V
9691:U
8893:e
8886:t
8879:v
8634:p
8632:C
8378:)
8369:(
8301:e
8294:t
8287:v
8274:.
8272:R
8256:.
8237:.
8218:.
8199:.
8177:.
8163::
8150:.
8131:.
8029:)
8023:(
8018:)
8014:(
8000:.
7908:I
7904:c
7901:=
7896:0
7886:,
7883:0
7880:=
7875:0
7814:)
7811:m
7808:,
7804:X
7800:,
7796:y
7786:,
7778:(
7775:p
7770:)
7767:m
7764:,
7758:,
7750:,
7746:X
7738:y
7734:(
7731:p
7727:)
7724:m
7720:|
7713:,
7705:(
7702:p
7696:=
7693:)
7690:m
7683:y
7679:(
7676:p
7585:)
7580:0
7576:a
7572:(
7564:)
7559:n
7555:a
7551:(
7533:n
7529:a
7523:n
7519:b
7511:0
7507:a
7501:0
7497:b
7484:)
7479:n
7469:(
7461:)
7456:0
7446:(
7431:2
7427:/
7423:n
7419:)
7412:2
7409:(
7405:1
7400:=
7397:)
7394:m
7387:y
7383:(
7380:p
7357:d
7348:d
7344:)
7338:,
7330:(
7327:p
7323:)
7317:,
7309:,
7305:X
7297:y
7293:(
7290:p
7284:=
7281:)
7278:m
7274:|
7269:y
7265:(
7262:p
7200:)
7196:X
7186:,
7178:,
7174:y
7170:(
7167:p
7143:)
7137:,
7129:(
7126:p
7106:)
7100:,
7092:,
7088:X
7080:y
7076:(
7073:p
7045:m
7025:)
7022:m
7015:y
7011:(
7008:p
6975:.
6972:)
6967:n
6955:n
6942:T
6936:n
6921:0
6909:0
6896:T
6890:0
6880:+
6876:y
6869:T
6863:y
6858:(
6853:2
6850:1
6845:+
6840:0
6836:b
6832:=
6827:n
6823:b
6818:,
6813:2
6810:n
6805:+
6800:0
6796:a
6792:=
6787:n
6783:a
6763:,
6760:)
6755:0
6743:0
6733:+
6717:X
6710:T
6704:X
6699:(
6694:1
6687:)
6681:n
6671:(
6668:=
6663:n
6652:,
6649:)
6644:0
6634:+
6630:X
6623:T
6617:X
6612:(
6609:=
6604:n
6574:)
6568:n
6564:b
6560:,
6555:n
6551:a
6546:(
6518:)
6512:1
6504:n
6492:2
6484:,
6479:n
6468:(
6462:N
6440:,
6437:)
6433:X
6429:,
6425:y
6416:2
6408:(
6402:)
6398:X
6394:,
6390:y
6386:,
6381:2
6365:(
6356:)
6352:X
6348:,
6344:y
6335:2
6327:,
6319:(
6294:.
6290:)
6281:2
6273:2
6266:0
6254:0
6241:T
6235:0
6225:+
6220:n
6210:)
6205:0
6195:+
6191:X
6184:T
6178:X
6173:(
6167:T
6161:n
6147:y
6140:T
6134:y
6129:+
6124:0
6120:b
6116:2
6106:(
6094:1
6086:2
6080:0
6076:a
6072:2
6069:+
6066:n
6056:)
6050:2
6042:(
6038:)
6034:)
6029:n
6011:(
6008:)
6003:0
5993:+
5989:X
5982:T
5976:X
5971:(
5965:T
5960:)
5954:n
5936:(
5928:2
5918:2
5914:1
5905:(
5893:2
5889:/
5885:k
5878:)
5872:2
5864:(
5858:)
5854:X
5850:,
5846:y
5837:2
5829:,
5821:(
5786:.
5781:0
5769:0
5756:T
5750:0
5740:+
5735:n
5725:)
5720:0
5710:+
5706:X
5699:T
5693:X
5688:(
5682:T
5676:n
5662:y
5655:T
5649:y
5644:+
5641:)
5636:n
5618:(
5615:)
5610:0
5600:+
5596:X
5589:T
5583:X
5578:(
5572:T
5567:)
5561:n
5543:(
5540:=
5537:)
5532:0
5514:(
5509:0
5496:T
5491:)
5485:0
5467:(
5464:+
5461:)
5452:X
5444:y
5440:(
5434:T
5429:)
5419:X
5411:y
5407:(
5383:n
5342:n
5313:.
5310:)
5305:0
5293:0
5283:+
5267:X
5260:T
5254:X
5249:(
5244:1
5237:)
5231:0
5221:+
5217:X
5210:T
5204:X
5199:(
5196:=
5191:n
5161:0
5132:0
5052:n
5018:)
5010:2
5000:0
4996:b
4986:(
4974:)
4971:1
4968:+
4963:0
4959:a
4955:(
4948:)
4942:2
4934:(
4930:)
4926:)
4921:0
4903:(
4898:0
4885:T
4880:)
4874:0
4856:(
4848:2
4840:2
4836:1
4827:(
4815:2
4811:/
4807:k
4800:)
4794:2
4786:(
4782:)
4778:)
4769:X
4761:y
4757:(
4751:T
4746:)
4736:X
4728:y
4724:(
4716:2
4706:2
4702:1
4693:(
4681:2
4677:/
4673:n
4666:)
4660:2
4652:(
4639:)
4634:2
4626:(
4620:)
4615:2
4599:(
4593:)
4588:2
4580:,
4572:,
4568:X
4560:y
4556:(
4543:)
4539:X
4535:,
4531:y
4522:2
4514:,
4506:(
4470:.
4466:)
4460:1
4452:0
4440:2
4432:,
4427:0
4416:(
4410:N
4382:.
4378:)
4374:)
4369:0
4351:(
4346:0
4333:T
4328:)
4322:0
4304:(
4296:2
4288:2
4284:1
4275:(
4263:2
4259:/
4255:k
4248:)
4242:2
4234:(
4228:)
4223:2
4207:(
4178:)
4173:2
4164:|
4155:(
4130:.
4127:)
4122:2
4117:0
4113:s
4109:,
4104:0
4100:v
4096:(
4091:2
4055:2
4051:s
4030:v
4008:2
4003:0
3999:s
3976:0
3972:v
3949:2
3944:0
3940:s
3934:0
3930:v
3923:2
3920:1
3914:=
3909:0
3905:b
3881:2
3876:0
3872:v
3865:=
3860:0
3856:a
3835:)
3830:0
3826:b
3822:,
3817:0
3813:a
3809:(
3778:.
3774:)
3765:2
3757:2
3750:2
3745:0
3741:s
3735:0
3731:v
3720:(
3708:1
3700:2
3695:0
3691:v
3681:)
3675:2
3667:(
3661:)
3656:2
3648:(
3622:)
3617:2
3609:(
3586:,
3583:)
3578:2
3562:(
3556:)
3551:2
3543:(
3537:=
3534:)
3529:2
3521:,
3513:(
3487:k
3467:,
3464:k
3458:n
3455:=
3452:v
3442:)
3426:X
3418:y
3414:(
3408:T
3403:)
3386:X
3378:y
3374:(
3371:=
3366:2
3362:s
3358:v
3338:,
3334:)
3330:)
3307:(
3304:)
3300:X
3293:T
3287:X
3282:(
3276:T
3271:)
3247:(
3239:2
3229:2
3225:1
3216:(
3202:2
3198:v
3192:n
3182:)
3176:2
3168:(
3164:)
3155:2
3145:2
3138:2
3134:s
3130:v
3120:(
3106:2
3103:v
3094:)
3088:2
3080:(
3074:)
3069:2
3061:,
3053:,
3049:X
3044:|
3039:y
3035:(
3006:.
3002:)
2979:(
2976:)
2972:X
2965:T
2959:X
2954:(
2948:T
2943:)
2919:(
2916:+
2913:)
2897:X
2889:y
2885:(
2879:T
2874:)
2857:X
2849:y
2845:(
2842:=
2830:0
2824:=
2814:)
2798:X
2790:y
2786:(
2780:T
2775:)
2765:X
2745:X
2741:(
2738:2
2731:+
2728:)
2705:(
2702:)
2698:X
2691:T
2685:X
2680:(
2674:T
2669:)
2645:(
2642:+
2639:)
2623:X
2615:y
2611:(
2605:T
2600:)
2583:X
2575:y
2571:(
2568:=
2558:]
2555:)
2546:X
2526:X
2522:(
2519:+
2516:)
2500:X
2492:y
2488:(
2485:[
2479:T
2474:]
2470:)
2461:X
2441:X
2437:(
2434:+
2431:)
2415:X
2407:y
2403:(
2400:[
2397:=
2390:)
2381:X
2373:y
2369:(
2363:T
2358:)
2348:X
2340:y
2336:(
2310:)
2287:(
2199:)
2194:2
2186:,
2178:(
2130:X
2109:)
2099:X
2095:(
2089:)
2084:2
2076:,
2070:,
2065:X
2056:y
2052:(
2028:X
1987:)
1981:,
1976:2
1968:,
1962:(
1939:)
1933:,
1928:2
1920:,
1908:X
1904:,
1900:y
1896:(
1872:X
1850:y
1828:X
1806:y
1688:T
1683:]
1677:n
1673:y
1662:1
1658:y
1654:[
1634:n
1613:y
1589:T
1583:i
1578:x
1553:k
1547:n
1526:X
1502:y
1495:T
1489:X
1482:1
1475:)
1470:X
1463:T
1457:X
1452:(
1449:=
1407:.
1403:)
1399:)
1390:X
1382:y
1378:(
1372:T
1367:)
1357:X
1349:y
1345:(
1337:2
1329:2
1325:1
1316:(
1304:2
1300:/
1296:n
1289:)
1283:2
1275:(
1269:)
1264:2
1256:,
1248:,
1244:X
1236:y
1232:(
1201:.
1198:)
1193:2
1185:,
1182:0
1179:(
1176:N
1168:i
1134:i
1109:1
1103:k
1059:,
1054:i
1046:+
1035:T
1029:i
1024:x
1019:=
1014:i
1010:y
987:i
982:x
960:1
954:k
932:i
928:y
903:n
900:,
894:,
891:1
888:=
885:i
841:X
821:y
797:X
771:y
733:.
718:e
711:t
704:v
300:e
293:t
286:v
Text is available under the Creative Commons Attribution-ShareAlike License. Additional terms may apply.