Knowledge

Bayesian linear regression

Source 📝

3020: 2327: 3015:{\displaystyle {\begin{aligned}(\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})^{\mathsf {T}}(\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})&=^{\mathsf {T}}\\&=(\mathbf {y} -\mathbf {X} {\hat {\boldsymbol {\beta }}})^{\mathsf {T}}(\mathbf {y} -\mathbf {X} {\hat {\boldsymbol {\beta }}})+({\boldsymbol {\beta }}-{\hat {\boldsymbol {\beta }}})^{\mathsf {T}}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} )({\boldsymbol {\beta }}-{\hat {\boldsymbol {\beta }}})+\underbrace {2(\mathbf {X} {\hat {\boldsymbol {\beta }}}-\mathbf {X} {\boldsymbol {\beta }})^{\mathsf {T}}(\mathbf {y} -\mathbf {X} {\hat {\boldsymbol {\beta }}})} _{=\ 0}\\&=(\mathbf {y} -\mathbf {X} {\hat {\boldsymbol {\beta }}})^{\mathsf {T}}(\mathbf {y} -\mathbf {X} {\hat {\boldsymbol {\beta }}})+({\boldsymbol {\beta }}-{\hat {\boldsymbol {\beta }}})^{\mathsf {T}}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} )({\boldsymbol {\beta }}-{\hat {\boldsymbol {\beta }}})\,.\end{aligned}}} 5033: 5796: 6304: 4494: 5402: 5813: 5028:{\displaystyle {\begin{aligned}\rho ({\boldsymbol {\beta }},\sigma ^{2}\mid \mathbf {y} ,\mathbf {X} )&\propto \rho (\mathbf {y} \mid \mathbf {X} ,{\boldsymbol {\beta }},\sigma ^{2})\rho ({\boldsymbol {\beta }}\mid \sigma ^{2})\rho (\sigma ^{2})\\&\propto (\sigma ^{2})^{-n/2}\exp \left(-{\frac {1}{2{\sigma }^{2}}}(\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})^{\mathsf {T}}(\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})\right)(\sigma ^{2})^{-k/2}\exp \left(-{\frac {1}{2\sigma ^{2}}}({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{0})^{\mathsf {T}}{\boldsymbol {\Lambda }}_{0}({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{0})\right)(\sigma ^{2})^{-(a_{0}+1)}\exp \left(-{\frac {b_{0}}{\sigma ^{2}}}\right)\end{aligned}}} 5791:{\displaystyle (\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})^{\mathsf {T}}(\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})+({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{0})^{\mathsf {T}}{\boldsymbol {\Lambda }}_{0}({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{0})=({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{n})^{\mathsf {T}}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} +{\boldsymbol {\Lambda }}_{0})({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{n})+\mathbf {y} ^{\mathsf {T}}\mathbf {y} -{\boldsymbol {\mu }}_{n}^{\mathsf {T}}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} +{\boldsymbol {\Lambda }}_{0}){\boldsymbol {\mu }}_{n}+{\boldsymbol {\mu }}_{0}^{\mathsf {T}}{\boldsymbol {\Lambda }}_{0}{\boldsymbol {\mu }}_{0}.} 6299:{\displaystyle \rho ({\boldsymbol {\beta }},\sigma ^{2}\mid \mathbf {y} ,\mathbf {X} )\propto (\sigma ^{2})^{-k/2}\exp \left(-{\frac {1}{2{\sigma }^{2}}}({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{n})^{\mathsf {T}}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} +\mathbf {\Lambda } _{0})({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{n})\right)(\sigma ^{2})^{-{\frac {n+2a_{0}}{2}}-1}\exp \left(-{\frac {2b_{0}+\mathbf {y} ^{\mathsf {T}}\mathbf {y} -{\boldsymbol {\mu }}_{n}^{\mathsf {T}}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} +{\boldsymbol {\Lambda }}_{0}){\boldsymbol {\mu }}_{n}+{\boldsymbol {\mu }}_{0}^{\mathsf {T}}{\boldsymbol {\Lambda }}_{0}{\boldsymbol {\mu }}_{0}}{2\sigma ^{2}}}\right).} 7982: 11155: 8844: 686: 268: 3348: 3027: 11141: 6985: 6773: 11179: 3343:{\displaystyle \rho (\mathbf {y} |\mathbf {X} ,{\boldsymbol {\beta }},\sigma ^{2})\propto (\sigma ^{2})^{-{\frac {v}{2}}}\exp \left(-{\frac {vs^{2}}{2{\sigma }^{2}}}\right)(\sigma ^{2})^{-{\frac {n-v}{2}}}\exp \left(-{\frac {1}{2{\sigma }^{2}}}({\boldsymbol {\beta }}-{\hat {\boldsymbol {\beta }}})^{\mathsf {T}}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} )({\boldsymbol {\beta }}-{\hat {\boldsymbol {\beta }}})\right),} 1417: 4392: 11167: 36: 7598: 6777: 6592: 5323: 7827: 6450: 1224: 4199: 7375: 5179: 3477: 7370: 7671: 6311: 6980:{\displaystyle a_{n}=a_{0}+{\frac {n}{2}},\qquad b_{n}=b_{0}+{\frac {1}{2}}(\mathbf {y} ^{\mathsf {T}}\mathbf {y} +{\boldsymbol {\mu }}_{0}^{\mathsf {T}}{\boldsymbol {\Lambda }}_{0}{\boldsymbol {\mu }}_{0}-{\boldsymbol {\mu }}_{n}^{\mathsf {T}}{\boldsymbol {\Lambda }}_{n}{\boldsymbol {\mu }}_{n}).} 6768:{\displaystyle {\boldsymbol {\Lambda }}_{n}=(\mathbf {X} ^{\mathsf {T}}\mathbf {X} +\mathbf {\Lambda } _{0}),\quad {\boldsymbol {\mu }}_{n}=({\boldsymbol {\Lambda }}_{n})^{-1}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} {\hat {\boldsymbol {\beta }}}+{\boldsymbol {\Lambda }}_{0}{\boldsymbol {\mu }}_{0}),} 3788: 1513: 1412:{\displaystyle \rho (\mathbf {y} \mid \mathbf {X} ,{\boldsymbol {\beta }},\sigma ^{2})\propto (\sigma ^{2})^{-n/2}\exp \left(-{\frac {1}{2\sigma ^{2}}}(\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})^{\mathsf {T}}(\mathbf {y} -\mathbf {X} {\boldsymbol {\beta }})\right).} 4387:{\displaystyle \rho ({\boldsymbol {\beta }}\mid \sigma ^{2})\propto (\sigma ^{2})^{-k/2}\exp \left(-{\frac {1}{2\sigma ^{2}}}({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{0})^{\mathsf {T}}\mathbf {\Lambda } _{0}({\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{0})\right).} 3353: 3596: 2119: 7257: 7159:. These models may differ in the number and values of the predictor variables as well as in their priors on the model parameters. Model complexity is already taken into account by the model evidence, because it marginalizes out the parameters by integrating 6530: 4480: 7593:{\displaystyle p(\mathbf {y} \mid m)={\frac {1}{(2\pi )^{n/2}}}{\sqrt {\frac {\det({\boldsymbol {\Lambda }}_{0})}{\det({\boldsymbol {\Lambda }}_{n})}}}\cdot {\frac {b_{0}^{a_{0}}}{b_{n}^{a_{n}}}}\cdot {\frac {\Gamma (a_{n})}{\Gamma (a_{0})}}} 5318:{\displaystyle {\boldsymbol {\mu }}_{n}=(\mathbf {X} ^{\mathsf {T}}\mathbf {X} +{\boldsymbol {\Lambda }}_{0})^{-1}(\mathbf {X} ^{\mathsf {T}}\mathbf {X} {\hat {\boldsymbol {\beta }}}+{\boldsymbol {\Lambda }}_{0}{\boldsymbol {\mu }}_{0}).} 1949: 1069: 7155:. The model evidence captures in a single number how well such a model explains the observations. The model evidence of the Bayesian linear regression model presented in this section can be used to compare competing linear models by 7919: 3640: 7210: 7116: 7822:{\displaystyle p(\mathbf {y} \mid m)={\frac {p({\boldsymbol {\beta }},\sigma |m)\,p(\mathbf {y} \mid \mathbf {X} ,{\boldsymbol {\beta }},\sigma ,m)}{p({\boldsymbol {\beta }},\sigma \mid \mathbf {y} ,\mathbf {X} ,m)}}} 6445:{\displaystyle \rho ({\boldsymbol {\beta }},\sigma ^{2}\mid \mathbf {y} ,\mathbf {X} )\propto \rho ({\boldsymbol {\beta }}\mid \sigma ^{2},\mathbf {y} ,\mathbf {X} )\rho (\sigma ^{2}\mid \mathbf {y} ,\mathbf {X} ),} 1432: 2320: 3505: 5395: 4140: 6585: 4188: 2209: 1211: 4499: 3961: 2332: 7153: 1997: 3845: 1602: 5115: 2044: 5173: 6455: 3894: 5354: 5144: 5064: 4403: 7646: 7232: 5086: 3472:{\displaystyle vs^{2}=(\mathbf {y} -\mathbf {X} {\hat {\boldsymbol {\beta }}})^{\mathsf {T}}(\mathbf {y} -\mathbf {X} {\hat {\boldsymbol {\beta }}})\quad {\text{ and }}\quad v=n-k,} 2277: 2235: 1768: 1730: 1093: 7035: 1004: 8299: 3632: 1146: 999: 1701: 7365:{\displaystyle p(\mathbf {y} |m)=\int p(\mathbf {y} \mid \mathbf {X} ,{\boldsymbol {\beta }},\sigma )\,p({\boldsymbol {\beta }},\sigma )\,d{\boldsymbol {\beta }}\,d\sigma } 913: 2141: 2039: 1883: 1861: 1839: 1817: 1624: 1537: 4020: 1563: 1119: 970: 7666: 7620: 7252: 2255: 2017: 1788: 1888: 4067: 3988: 944: 7833:. Inserting the formulas for the prior, the likelihood, and the posterior and simplifying the resulting expression leads to the analytic expression given above. 7055: 4040: 3497: 1644: 851: 831: 807: 781: 7841:
In general, it may be impossible or impractical to derive the posterior distribution analytically. However, it is possible to approximate the posterior by an
7626:. Because we have chosen a conjugate prior, the marginal likelihood can also be easily computed by evaluating the following equality for arbitrary values of 8292: 7863: 7162: 7068: 6989:
which illustrates Bayesian inference being a compromise between the information contained in the prior and the information contained in the sample.
7970: 11210: 10276: 8361: 8285: 10781: 8114: 298: 2282: 1158: 10931: 3783:{\displaystyle \rho (\sigma ^{2})\propto (\sigma ^{2})^{-{\frac {v_{0}}{2}}-1}\exp \left(-{\frac {v_{0}s_{0}^{2}}{2\sigma ^{2}}}\right).} 89: 8267: 10555: 9196: 8370: 5363: 4076: 10329: 8375: 7850: 716: 171: 10768: 8808: 7933: 4070: 1508:{\displaystyle {\hat {\boldsymbol {\beta }}}=(\mathbf {X} ^{\mathsf {T}}\mathbf {X} )^{-1}\mathbf {X} ^{\mathsf {T}}\mathbf {y} } 865:—the posterior can be found analytically. With more arbitrarily chosen priors, the posteriors generally have to be approximated. 626: 6535: 7928:
A similar analysis can be performed for the general case of the multivariate regression and part of this provides for Bayesian
4147: 2170: 8213: 8194: 8172: 9191: 8891: 8343: 8069:
The intermediate steps of this computation can be found in O'Hagan (1994) at the beginning of the chapter on Linear models.
916: 616: 3591:{\displaystyle \rho ({\boldsymbol {\beta }},\sigma ^{2})=\rho (\sigma ^{2})\rho ({\boldsymbol {\beta }}\mid \sigma ^{2}),} 9795: 8943: 8703: 3899: 2121:. The latter part is usually ignored under the assumption of disjoint parameter sets. More so, under classic assumptions 2143:
are considered chosen (for example, in a designed experiment) and therefore has a known probability without parameters.
8683: 8333: 7121: 1954: 2114:{\displaystyle \rho (\mathbf {y} \mid {\boldsymbol {\mathbf {X} }},\beta ,\sigma ^{2})\rho (\mathbf {X} \mid \gamma )} 10578: 10470: 8603: 8251: 8145: 8126: 8096:
Carlin and Louis (2008) and Gelman, et al. (2003) explain how to use sampling methods for Bayesian linear regression.
8025: 8003: 7965: 7929: 3799: 291: 254: 7996: 1571: 11183: 10756: 10630: 8409: 7842: 5091: 580: 181: 6525:{\displaystyle {\mathcal {N}}\left({\boldsymbol {\mu }}_{n},\sigma ^{2}{\boldsymbol {\Lambda }}_{n}^{-1}\right)\,} 5149: 10814: 10475: 10220: 9591: 9181: 4475:{\displaystyle {\mathcal {N}}\left({\boldsymbol {\mu }}_{0},\sigma ^{2}{\boldsymbol {\Lambda }}_{0}^{-1}\right).} 1426: 631: 569: 389: 364: 207: 84: 10865: 10077: 9884: 9773: 9731: 8645: 8232: 3850: 1737: 491: 145: 9805: 5330: 5120: 5040: 1790:. The prior can take different functional forms depending on the domain and the information that is available 11108: 10067: 8970: 450: 7629: 7215: 5069: 2260: 2218: 1751: 1713: 1076: 10659: 10608: 10593: 10583: 10452: 10324: 10291: 10117: 10072: 9902: 8831: 8731: 8721: 8640: 8585: 7003: 709: 284: 176: 114: 11205: 11171: 11003: 10804: 10728: 10029: 9783: 9452: 8916: 8858: 8673: 5357: 652: 3601: 10888: 10860: 10855: 10603: 10268: 10248: 10156: 9867: 9685: 9168: 9040: 8353: 5805: 3793: 3635: 590: 517: 166: 1124: 975: 10620: 10388: 10109: 10034: 9963: 9892: 9812: 9800: 9670: 9658: 9651: 9359: 9080: 8698: 8525: 8489: 8458: 7955: 7950: 7156: 1740:. The prior belief about the parameters is combined with the data's likelihood function according to 611: 600: 564: 471: 228: 109: 1649: 11103: 10870: 10733: 10418: 10383: 10347: 10132: 9574: 9483: 9442: 9354: 9045: 8884: 8678: 8556: 8520: 8448: 8338: 8320: 8271: 7990: 880: 752: 672: 543: 466: 359: 338: 249: 161: 2124: 2022: 1866: 1844: 1822: 1800: 1607: 1520: 11012: 10625: 10565: 10502: 10140: 10124: 9862: 9724: 9714: 9564: 9478: 8419: 7960: 7945: 785: 730: 702: 595: 7372:
This integral can be computed analytically and the solution is given in the following equation.
11050: 10980: 10773: 10710: 10465: 10352: 9349: 9246: 9153: 9032: 8931: 8772: 8598: 8463: 8453: 8404: 8007: 3993: 2157: 1944:{\displaystyle \rho (\mathbf {y} ,\mathbf {X} \mid {\boldsymbol {\beta }},\sigma ^{2},\gamma )} 1542: 1422: 1098: 949: 559: 554: 496: 140: 1710:
approach, and it assumes that there are enough measurements to say something meaningful about
11075: 11017: 10960: 10786: 10679: 10588: 10314: 10198: 10057: 10049: 9939: 9931: 9746: 9642: 9620: 9579: 9544: 9511: 9457: 9432: 9387: 9326: 9286: 9088: 8911: 8853: 8813: 8777: 8762: 8713: 8657: 8484: 7651: 7605: 7237: 5356:
is indeed the posterior mean, the quadratic terms in the exponential can be re-arranged as a
2240: 2002: 1773: 1745: 748: 647: 343: 43: 1064:{\displaystyle y_{i}=\mathbf {x} _{i}^{\mathsf {T}}{\boldsymbol {\beta }}+\varepsilon _{i},} 10998: 10573: 10522: 10498: 10460: 10378: 10357: 10309: 10188: 10166: 10135: 10044: 9921: 9872: 9790: 9763: 9719: 9675: 9437: 9213: 9093: 8818: 8757: 8744: 8693: 8593: 8515: 8494: 8468: 7846: 4045: 3966: 2041:. Only under the assumption of (weak) exogeneity can the joint likelihood be factored into 1152: 922: 667: 657: 538: 506: 461: 440: 348: 223: 104: 74: 1885:
needs justification. In fact, a "full" Bayesian analysis would require a joint likelihood
8: 11145: 11070: 10993: 10674: 10438: 10431: 10393: 10301: 10281: 10253: 9986: 9852: 9847: 9837: 9829: 9647: 9608: 9498: 9488: 9397: 9176: 9132: 9050: 8975: 8877: 8836: 8767: 8652: 8619: 8571: 8561: 8540: 8535: 8414: 8396: 8381: 8312: 7058: 5801: 4397: 4191: 1216: 854: 585: 486: 481: 435: 384: 374: 319: 55: 47: 27: 8277: 11159: 10970: 10824: 10720: 10669: 10545: 10442: 10426: 10403: 10180: 9914: 9897: 9857: 9768: 9663: 9625: 9596: 9556: 9516: 9462: 9379: 9065: 9060: 8848: 8752: 8741: 8566: 7040: 4025: 3482: 1733: 1629: 836: 816: 792: 766: 744: 690: 419: 404: 272: 197: 99: 69: 8087:
The intermediate steps of this computation can be found in O'Hagan (1994) on page 257.
11154: 11065: 11035: 11027: 10847: 10838: 10763: 10694: 10550: 10535: 10510: 10398: 10339: 10205: 10193: 9819: 9736: 9680: 9603: 9447: 9369: 9148: 9022: 8843: 8803: 8530: 8440: 8431: 8247: 8228: 8209: 8190: 8168: 8141: 8122: 7854: 5037:
With some re-arrangement, the posterior can be re-written so that the posterior mean
874: 858: 740: 685: 476: 379: 333: 267: 202: 79: 51: 11090: 11045: 10809: 10796: 10689: 10664: 10598: 10530: 10408: 10016: 9909: 9842: 9755: 9702: 9521: 9392: 9186: 9070: 8985: 8952: 8499: 8366: 8246:. Kendall's Advanced Theory of Statistics. Vol. 2B (First ed.). Halsted. 8160: 8110: 7922: 501: 430: 94: 11007: 10751: 10613: 10540: 10215: 10089: 10062: 10039: 10008: 9635: 9630: 9584: 9314: 8965: 8782: 8688: 8629: 8624: 2212: 2161: 2156:
For an arbitrary prior distribution, there may be no analytical solution for the
1736:
approach, the data are supplemented with additional information in the form of a
862: 662: 369: 130: 10497: 7914:{\displaystyle {\boldsymbol {\mu }}_{0}=0,\mathbf {\Lambda } _{0}=c\mathbf {I} } 760: 10956: 10951: 9414: 9344: 8990: 8726: 7623: 7205:{\displaystyle p(\mathbf {y} ,{\boldsymbol {\beta }},\sigma \mid \mathbf {X} )} 7111:{\displaystyle p(\mathbf {y} \mid \mathbf {X} ,{\boldsymbol {\beta }},\sigma )} 6998: 2215:
to this likelihood function if it has the same functional form with respect to
414: 8164: 2279:, the log-likelihood is re-written such that the likelihood becomes normal in 11199: 11113: 11080: 10943: 10904: 10715: 10684: 10148: 10102: 9707: 9409: 9236: 9000: 8995: 8798: 8328: 8308: 8182: 7830: 4489:
With the prior now specified, the posterior distribution can be expressed as
1741: 1565: 756: 533: 409: 11055: 10988: 10965: 10880: 10210: 9506: 9404: 9339: 9281: 9266: 9203: 9158: 751:
of the regression coefficients (as well as other parameters describing the
399: 244: 8189:(Third ed.). Boca Raton, FL: Chapman and Hall/CRC. pp. 353–380. 11098: 11060: 10743: 10644: 10506: 10319: 10286: 9778: 9695: 9690: 9334: 9291: 9271: 9251: 9241: 9010: 8386: 5146:, with the strength of the prior indicated by the prior precision matrix 1707: 445: 394: 9944: 9424: 9124: 9055: 9005: 8980: 8900: 6308:
Therefore, the posterior distribution can be parametrized as follows.
2315:{\displaystyle ({\boldsymbol {\beta }}-{\hat {\boldsymbol {\beta }}})} 10097: 9949: 9569: 9364: 9276: 9261: 9256: 9221: 9613: 9231: 9108: 9103: 9098: 8135: 2164:
for which the posterior distribution can be derived analytically.
809:). The simplest and most widely used version of this model is the 11118: 10819: 8078:
The intermediate steps are in Fahrmeir et al. (2009) on page 188.
11040: 10021: 9995: 9975: 9226: 9017: 5390:{\displaystyle {\boldsymbol {\beta }}-{\boldsymbol {\mu }}_{n}} 1149: 4135:{\displaystyle {\text{Scale-inv-}}\chi ^{2}(v_{0},s_{0}^{2}).} 1425:
solution is used to estimate the coefficient vector using the
8869: 8268:
Bayesian estimation of linear models (R programming wikibook)
8223:
Rossi, Peter E.; Allenby, Greg M.; McCulloch, Robert (2006).
8154: 4069:, respectively. Equivalently, it can also be described as a 35: 8960: 8185:; et al. (2013). "Introduction to regression models". 7829:
Note that this equation is nothing but a re-arrangement of
6580:{\displaystyle {\text{Inv-Gamma}}\left(a_{n},b_{n}\right)} 8307: 5088:
can be expressed in terms of the least squares estimator
4183:{\displaystyle \rho ({\boldsymbol {\beta }}|\sigma ^{2})} 2204:{\displaystyle \rho ({\boldsymbol {\beta }},\sigma ^{2})} 8140:(Third ed.). Boca Raton, FL: Chapman and Hall/CRC. 7065:. Here, the model is defined by the likelihood function 8181: 3917: 3868: 1206:{\displaystyle \varepsilon _{i}\sim N(0,\sigma ^{2}).} 8222: 7866: 7674: 7654: 7632: 7608: 7378: 7260: 7240: 7218: 7165: 7124: 7071: 7043: 7006: 6780: 6595: 6587:
distributions, with the parameters of these given by
6538: 6458: 6452:
where the two factors correspond to the densities of
6314: 5816: 5405: 5366: 5333: 5182: 5152: 5123: 5094: 5072: 5043: 4497: 4406: 4202: 4150: 4079: 4048: 4028: 3996: 3969: 3902: 3853: 3802: 3643: 3604: 3508: 3485: 3356: 3030: 2330: 2285: 2263: 2243: 2221: 2173: 2127: 2047: 2025: 2005: 1957: 1891: 1869: 1847: 1825: 1803: 1776: 1754: 1716: 1652: 1632: 1610: 1574: 1545: 1523: 1435: 1227: 1161: 1127: 1101: 1079: 1007: 978: 952: 925: 883: 839: 819: 795: 769: 10782:
Autoregressive conditional heteroskedasticity (ARCH)
8241: 743:
in which the mean of one variable is described by a
7118:and the prior distribution on the parameters, i.e. 3956:{\displaystyle b_{0}={\tfrac {1}{2}}v_{0}s_{0}^{2}} 747:of other variables, with the goal of obtaining the 10244: 7913: 7821: 7660: 7640: 7614: 7592: 7364: 7246: 7226: 7204: 7147: 7110: 7049: 7029: 6979: 6767: 6579: 6524: 6444: 6298: 5790: 5389: 5348: 5317: 5167: 5138: 5109: 5080: 5058: 5027: 4474: 4386: 4182: 4134: 4061: 4034: 4014: 3982: 3955: 3888: 3839: 3782: 3626: 3590: 3491: 3471: 3342: 3014: 2314: 2271: 2249: 2229: 2203: 2135: 2113: 2033: 2019:symbolizes the parameters of the distribution for 2011: 1991: 1943: 1877: 1855: 1833: 1811: 1782: 1762: 1724: 1695: 1638: 1618: 1596: 1557: 1531: 1507: 1411: 1205: 1140: 1113: 1087: 1063: 993: 964: 938: 907: 857:. In this model, and under a particular choice of 845: 825: 801: 775: 7148:{\displaystyle p({\boldsymbol {\beta }},\sigma )} 1992:{\displaystyle \rho (\beta ,\sigma ^{2},\gamma )} 11197: 7971:Bayesian interpretation of kernel regularization 7465: 7442: 2160:. In this section, we will consider a so-called 10330:Multivariate adaptive regression splines (MARS) 8270:. Bayesian linear regression as implemented in 7037:is the probability of the data given the model 3840:{\displaystyle {\text{Inv-Gamma}}(a_{0},b_{0})} 2151: 755:of the regressand) and ultimately allowing the 1597:{\displaystyle \mathbf {x} _{i}^{\mathsf {T}}} 8885: 8293: 8157:Regression. Modelle, Methoden und Anwendungen 8136:Carlin, Bradley P.; Louis, Thomas A. (2008). 5110:{\displaystyle {\hat {\boldsymbol {\beta }}}} 710: 292: 8204:Jackman, Simon (2009). "Regression models". 5168:{\displaystyle {\boldsymbol {\Lambda }}_{0}} 2257:. Since the log-likelihood is quadratic in 789:observed values of the regressors (usually 8930: 8892: 8878: 8300: 8286: 8155:Fahrmeir, L.; Kneib, T.; Lang, S. (2009). 8119:Bayesian Inference in Statistical Analysis 3499:is the number of regression coefficients. 1670: 1666: 1568:, each row of which is a predictor vector 717: 703: 299: 285: 9543: 8206:Bayesian Analysis for the Social Sciences 8159:(Second ed.). Heidelberg: Springer. 8026:Learn how and when to remove this message 7729: 7355: 7346: 7325: 6521: 4484: 3889:{\displaystyle a_{0}={\tfrac {v_{0}}{2}}} 3004: 7989:This article includes a list of general 5800:Now the posterior can be expressed as a 5349:{\displaystyle {\boldsymbol {\mu }}_{n}} 5139:{\displaystyle {\boldsymbol {\mu }}_{0}} 5059:{\displaystyle {\boldsymbol {\mu }}_{n}} 4400:, the conditional prior distribution is 2146: 1841:, the focus only on the distribution of 172:Integrated nested Laplace approximations 8809:Numerical smoothing and differentiation 8203: 8109: 7934:Bayesian multivariate linear regression 7869: 7781: 7753: 7708: 7634: 7351: 7333: 7312: 7220: 7181: 7132: 7095: 6961: 6930: 6915: 6884: 6749: 6723: 6657: 6473: 6368: 6322: 6260: 6229: 6214: 6155: 6023: 6014: 5948: 5939: 5824: 5775: 5744: 5729: 5670: 5630: 5621: 5555: 5546: 5526: 5517: 5479: 5470: 5456: 5423: 5377: 5368: 5336: 5299: 5273: 5185: 5126: 5098: 5074: 5046: 4915: 4906: 4868: 4859: 4773: 4740: 4602: 4575: 4509: 4421: 4363: 4354: 4316: 4307: 4210: 4158: 4071:scaled inverse chi-squared distribution 3565: 3516: 3432: 3392: 3320: 3310: 3260: 3250: 3056: 2992: 2982: 2932: 2922: 2903: 2863: 2804: 2769: 2751: 2718: 2708: 2658: 2648: 2629: 2589: 2550: 2532: 2506: 2465: 2447: 2421: 2385: 2352: 2300: 2290: 2265: 2223: 2181: 1915: 1756: 1718: 1439: 1394: 1361: 1251: 1081: 1041: 11211:Single-equation methods (econometrics) 11198: 10856:Kaplan–Meier estimator (product limit) 7641:{\displaystyle {\boldsymbol {\beta }}} 7227:{\displaystyle {\boldsymbol {\beta }}} 6941: 6895: 6868: 6709: 6622: 6240: 6183: 6166: 6139: 5981: 5964: 5755: 5698: 5681: 5654: 5588: 5571: 5495: 5433: 5259: 5209: 5081:{\displaystyle {\boldsymbol {\beta }}} 4884: 4750: 4332: 4144:Further the conditional prior density 3407: 3292: 3275: 2964: 2947: 2878: 2779: 2690: 2673: 2604: 2478: 2362: 2272:{\displaystyle {\boldsymbol {\beta }}} 2230:{\displaystyle {\boldsymbol {\beta }}} 1763:{\displaystyle {\boldsymbol {\beta }}} 1725:{\displaystyle {\boldsymbol {\beta }}} 1687: 1588: 1494: 1462: 1371: 1088:{\displaystyle {\boldsymbol {\beta }}} 1034: 10929: 10496: 10243: 9542: 9312: 8929: 8873: 8281: 7030:{\displaystyle p(\mathbf {y} \mid m)} 11166: 10866:Accelerated failure time (AFT) model 8344:Iteratively reweighted least squares 7975: 3502:This suggests a form for the prior: 3024:The likelihood is now re-written as 11178: 10461:Analysis of variance (ANOVA, anova) 9313: 3796:article, this is the density of an 3792:In the notation introduced in the 13: 10556:Cochran–Mantel–Haenszel statistics 9182:Pearson product-moment correlation 8362:Pearson product-moment correlation 8138:Bayesian Methods for Data Analysis 7995:it lacks sufficient corresponding 7609: 7568: 7547: 6461: 4409: 3627:{\displaystyle \rho (\sigma ^{2})} 1215:This corresponds to the following 14: 11222: 8261: 8225:Bayesian Statistics and Marketing 8060:See Gelman et al. (2013), p. 354. 7966:Spike and slab variable selection 7930:estimation of covariance matrices 6992: 11177: 11165: 11153: 11140: 11139: 10930: 8842: 7980: 7907: 7890: 7803: 7795: 7745: 7737: 7682: 7473: 7450: 7386: 7304: 7296: 7268: 7195: 7173: 7087: 7079: 7014: 6949: 6903: 6875: 6862: 6737: 6716: 6703: 6675: 6638: 6629: 6616: 6598: 6498: 6432: 6424: 6397: 6389: 6351: 6343: 6248: 6199: 6190: 6177: 6146: 6133: 5997: 5988: 5975: 5853: 5845: 5763: 5714: 5705: 5692: 5661: 5648: 5604: 5595: 5582: 5503: 5451: 5443: 5418: 5410: 5287: 5266: 5253: 5225: 5216: 5203: 5155: 4892: 4768: 4760: 4735: 4727: 4567: 4559: 4538: 4530: 4446: 4340: 3425: 3417: 3385: 3377: 3299: 3286: 3048: 3038: 2971: 2958: 2896: 2888: 2856: 2848: 2797: 2789: 2764: 2744: 2697: 2684: 2622: 2614: 2582: 2574: 2545: 2525: 2499: 2491: 2460: 2440: 2414: 2406: 2380: 2372: 2347: 2339: 2129: 2098: 2064: 2055: 2027: 1907: 1899: 1871: 1849: 1827: 1805: 1612: 1577: 1525: 1501: 1488: 1469: 1456: 1389: 1381: 1356: 1348: 1243: 1235: 1141:{\displaystyle \varepsilon _{i}} 1023: 994:{\displaystyle \mathbf {x} _{i}} 981: 684: 266: 182:Approximate Bayesian computation 34: 10815:Least-squares spectral analysis 6820: 6654: 3450: 3444: 632:Least-squares spectral analysis 570:Generalized estimating equation 390:Multinomial logistic regression 365:Vector generalized linear model 208:Maximum a posteriori estimation 9796:Mean-unbiased minimum-variance 8899: 8090: 8081: 8072: 8063: 8054: 8045: 7843:approximate Bayesian inference 7836: 7813: 7777: 7769: 7733: 7726: 7719: 7704: 7692: 7678: 7584: 7571: 7563: 7550: 7483: 7468: 7460: 7445: 7418: 7408: 7396: 7382: 7343: 7329: 7322: 7292: 7280: 7273: 7264: 7199: 7169: 7142: 7128: 7105: 7075: 7024: 7010: 6971: 6857: 6759: 6726: 6698: 6686: 6670: 6648: 6611: 6436: 6407: 6401: 6364: 6355: 6318: 6209: 6172: 6055: 6041: 6033: 6010: 6007: 5970: 5959: 5935: 5877: 5863: 5857: 5820: 5724: 5687: 5640: 5617: 5614: 5577: 5566: 5542: 5536: 5513: 5490: 5466: 5460: 5439: 5428: 5406: 5309: 5276: 5248: 5236: 5198: 5101: 4973: 4954: 4947: 4933: 4925: 4902: 4879: 4855: 4799: 4785: 4777: 4756: 4745: 4723: 4665: 4651: 4638: 4625: 4619: 4598: 4592: 4555: 4542: 4505: 4373: 4350: 4327: 4303: 4247: 4233: 4227: 4206: 4177: 4163: 4154: 4126: 4095: 3834: 3808: 3680: 3666: 3660: 3647: 3621: 3608: 3582: 3561: 3555: 3542: 3533: 3512: 3441: 3435: 3413: 3402: 3395: 3373: 3329: 3323: 3306: 3303: 3281: 3270: 3263: 3246: 3181: 3167: 3093: 3079: 3073: 3043: 3034: 3001: 2995: 2978: 2975: 2953: 2942: 2935: 2918: 2912: 2906: 2884: 2873: 2866: 2844: 2813: 2807: 2785: 2774: 2754: 2740: 2727: 2721: 2704: 2701: 2679: 2668: 2661: 2644: 2638: 2632: 2610: 2599: 2592: 2570: 2557: 2554: 2535: 2521: 2515: 2509: 2487: 2484: 2473: 2469: 2450: 2436: 2430: 2424: 2402: 2399: 2389: 2368: 2357: 2335: 2309: 2303: 2286: 2198: 2177: 2108: 2094: 2088: 2051: 1986: 1961: 1938: 1895: 1738:prior probability distribution 1696:{\displaystyle ^{\mathsf {T}}} 1682: 1653: 1474: 1451: 1442: 1398: 1377: 1366: 1344: 1288: 1274: 1268: 1231: 1197: 1178: 868: 16:Method of statistical analysis 1: 11109:Geographic information system 10325:Simultaneous equations models 8103: 1797:Since the data comprise both 908:{\displaystyle i=1,\ldots ,n} 861:for the parameters—so-called 451:Nonlinear mixed-effects model 10292:Coefficient of determination 9903:Uniformly most powerful test 8832:Regression analysis category 8722:Response surface methodology 7212:over all possible values of 2152:Conjugate prior distribution 2136:{\displaystyle \mathbf {X} } 2034:{\displaystyle \mathbf {X} } 1878:{\displaystyle \mathbf {X} } 1856:{\displaystyle \mathbf {y} } 1834:{\displaystyle \mathbf {X} } 1812:{\displaystyle \mathbf {y} } 1619:{\displaystyle \mathbf {y} } 1532:{\displaystyle \mathbf {X} } 115:Principle of maximum entropy 7: 10861:Proportional hazards models 10805:Spectral density estimation 10787:Vector autoregression (VAR) 10221:Maximum posterior estimator 9453:Randomized controlled trial 8704:Frisch–Waugh–Lovell theorem 8674:Mean and predicted response 8051:See Jackman (2009), p. 101. 7939: 1427:Moore–Penrose pseudoinverse 1150:independent and identically 915:we specify the mean of the 653:Mean and predicted response 85:Bernstein–von Mises theorem 10: 11227: 10621:Multivariate distributions 9041:Average absolute deviation 8354:Correlation and dependence 8208:. Wiley. pp. 99–124. 7057:. It is also known as the 5806:inverse-gamma distribution 3794:inverse-gamma distribution 3636:inverse-gamma distribution 737:Bayesian linear regression 728: 446:Linear mixed-effects model 11135: 11089: 11026: 10979: 10942: 10938: 10925: 10897: 10879: 10846: 10837: 10795: 10742: 10703: 10652: 10643: 10609:Structural equation model 10564: 10521: 10517: 10492: 10451: 10417: 10371: 10338: 10300: 10267: 10263: 10239: 10179: 10088: 10007: 9971: 9962: 9945:Score/Lagrange multiplier 9930: 9883: 9828: 9754: 9745: 9555: 9551: 9538: 9497: 9471: 9423: 9378: 9360:Sample size determination 9325: 9321: 9308: 9212: 9167: 9141: 9123: 9079: 9031: 8951: 8942: 8938: 8925: 8907: 8827: 8791: 8740: 8712: 8699:Minimum mean-square error 8666: 8612: 8586:Decomposition of variance 8584: 8549: 8508: 8490:Growth curve (statistics) 8477: 8459:Generalized least squares 8439: 8428: 8395: 8352: 8319: 8242:O'Hagan, Anthony (1994). 8227:. John Wiley & Sons. 8165:10.1007/978-3-642-01837-4 7956:Regularized least squares 7951:Constrained least squares 7157:Bayesian model comparison 4015:{\displaystyle s_{0}^{2}} 1558:{\displaystyle n\times k} 1114:{\displaystyle k\times 1} 965:{\displaystyle k\times 1} 612:Least absolute deviations 110:Principle of indifference 11104:Environmental statistics 10626:Elliptical distributions 10419:Generalized linear model 10348:Simple linear regression 10118:Hodges–Lehmann estimator 9575:Probability distribution 9484:Stochastic approximation 9046:Coefficient of variation 8557:Generalized linear model 8449:Simple linear regression 8339:Non-linear least squares 8321:Computational statistics 8038: 7063:prior predictive density 5066:of the parameter vector 917:conditional distribution 729:Not to be confused with 360:Generalized linear model 162:Markov chain Monte Carlo 10764:Cross-correlation (XCF) 10372:Non-standard predictors 9806:Lehmann–ScheffĂ© theorem 9479:Adaptive clinical trial 8010:more precise citations. 7961:Tikhonov regularization 7946:Bayes linear statistics 7661:{\displaystyle \sigma } 7615:{\displaystyle \Gamma } 7247:{\displaystyle \sigma } 4396:In the notation of the 4022:as the prior values of 2250:{\displaystyle \sigma } 2012:{\displaystyle \gamma } 1783:{\displaystyle \sigma } 731:Bayes linear statistics 167:Laplace's approximation 154:Posterior approximation 11160:Mathematics portal 10981:Engineering statistics 10889:Nelson–Aalen estimator 10466:Analysis of covariance 10353:Ordinary least squares 10277:Pearson product-moment 9681:Statistical functional 9592:Empirical distribution 9425:Controlled experiments 9154:Frequency distribution 8932:Descriptive statistics 8849:Mathematics portal 8773:Orthogonal polynomials 8599:Analysis of covariance 8464:Weighted least squares 8454:Ordinary least squares 8405:Ordinary least squares 8187:Bayesian Data Analysis 7915: 7823: 7662: 7642: 7616: 7594: 7366: 7248: 7228: 7206: 7149: 7112: 7051: 7031: 6981: 6769: 6581: 6526: 6446: 6300: 5792: 5391: 5350: 5319: 5169: 5140: 5111: 5082: 5060: 5029: 4485:Posterior distribution 4476: 4388: 4184: 4136: 4063: 4036: 4016: 3984: 3957: 3890: 3841: 3784: 3628: 3592: 3493: 3473: 3344: 3016: 2316: 2273: 2251: 2231: 2205: 2158:posterior distribution 2137: 2115: 2035: 2013: 1993: 1945: 1879: 1857: 1835: 1813: 1784: 1764: 1726: 1697: 1640: 1620: 1598: 1559: 1533: 1509: 1423:ordinary least squares 1413: 1207: 1142: 1115: 1089: 1065: 995: 966: 940: 909: 877:problem, in which for 847: 827: 803: 777: 691:Mathematics portal 617:Iteratively reweighted 273:Mathematics portal 216:Evidence approximation 11076:Population statistics 11018:System identification 10752:Autocorrelation (ACF) 10680:Exponential smoothing 10594:Discriminant analysis 10589:Canonical correlation 10453:Partition of variance 10315:Regression validation 10159:(Jonckheere–Terpstra) 10058:Likelihood-ratio test 9747:Frequentist inference 9659:Location–scale family 9580:Sampling distribution 9545:Statistical inference 9512:Cross-sectional study 9499:Observational studies 9458:Randomized experiment 9287:Stem-and-leaf display 9089:Central limit theorem 8814:System identification 8778:Chebyshev polynomials 8763:Numerical integration 8714:Design of experiments 8658:Regression validation 8485:Polynomial regression 8410:Partial least squares 7916: 7824: 7663: 7643: 7617: 7595: 7367: 7249: 7229: 7207: 7150: 7113: 7052: 7032: 6982: 6770: 6582: 6527: 6447: 6301: 5793: 5392: 5351: 5320: 5170: 5141: 5112: 5083: 5061: 5030: 4477: 4389: 4185: 4137: 4064: 4062:{\displaystyle s^{2}} 4037: 4017: 3985: 3983:{\displaystyle v_{0}} 3958: 3891: 3842: 3785: 3629: 3593: 3494: 3474: 3345: 3017: 2317: 2274: 2252: 2232: 2206: 2147:With conjugate priors 2138: 2116: 2036: 2014: 1994: 1946: 1880: 1858: 1836: 1814: 1785: 1765: 1748:about the parameters 1727: 1698: 1641: 1621: 1599: 1560: 1534: 1510: 1414: 1208: 1143: 1116: 1090: 1066: 996: 967: 941: 939:{\displaystyle y_{i}} 910: 848: 828: 804: 778: 749:posterior probability 648:Regression validation 627:Bayesian multivariate 344:Polynomial regression 177:Variational inference 10999:Probabilistic design 10584:Principal components 10427:Exponential families 10379:Nonlinear regression 10358:General linear model 10320:Mixed effects models 10310:Errors and residuals 10287:Confounding variable 10189:Bayesian probability 10167:Van der Waerden test 10157:Ordered alternative 9922:Multiple comparisons 9801:Rao–Blackwellization 9764:Estimating equations 9720:Statistical distance 9438:Factorial experiment 8971:Arithmetic-Geometric 8819:Moving least squares 8758:Approximation theory 8694:Studentized residual 8684:Errors and residuals 8679:Gauss–Markov theorem 8594:Analysis of variance 8516:Nonlinear regression 8495:Segmented regression 8469:General linear model 8387:Confounding variable 8334:Linear least squares 7864: 7847:Monte Carlo sampling 7672: 7652: 7630: 7606: 7376: 7258: 7238: 7216: 7163: 7122: 7069: 7041: 7004: 6778: 6593: 6536: 6456: 6312: 5814: 5403: 5364: 5331: 5180: 5150: 5121: 5092: 5070: 5041: 4495: 4404: 4200: 4148: 4077: 4046: 4026: 3994: 3967: 3900: 3851: 3800: 3641: 3602: 3506: 3483: 3354: 3028: 2328: 2283: 2261: 2241: 2219: 2171: 2125: 2045: 2023: 2003: 1955: 1889: 1867: 1845: 1823: 1801: 1774: 1752: 1714: 1650: 1630: 1608: 1572: 1543: 1521: 1433: 1225: 1159: 1153:normally distributed 1125: 1099: 1077: 1005: 976: 950: 923: 881: 873:Consider a standard 837: 817: 793: 767: 741:conditional modeling 673:Gauss–Markov theorem 668:Studentized residual 658:Errors and residuals 492:Principal components 462:Nonlinear regression 349:General linear model 255:Posterior predictive 224:Evidence lower bound 105:Likelihood principle 75:Bayesian probability 11071:Official statistics 10994:Methods engineering 10675:Seasonal adjustment 10443:Poisson regressions 10363:Bayesian regression 10302:Regression analysis 10282:Partial correlation 10254:Regression analysis 9853:Prediction interval 9848:Likelihood interval 9838:Confidence interval 9830:Interval estimation 9791:Unbiased estimators 9609:Model specification 9489:Up-and-down designs 9177:Partial correlation 9133:Index of dispersion 9051:Interquartile range 8837:Statistics category 8768:Gaussian quadrature 8653:Model specification 8620:Stepwise regression 8478:Predictor structure 8415:Total least squares 8397:Regression analysis 8382:Partial correlation 8313:regression analysis 7538: 7516: 7059:marginal likelihood 6946: 6900: 6515: 6245: 6171: 5802:normal distribution 5760: 5686: 5117:and the prior mean 4463: 4398:normal distribution 4192:normal distribution 4125: 4011: 3952: 3753: 1951:along with a prior 1593: 1217:likelihood function 1039: 859:prior probabilities 811:normal linear model 518:Errors-in-variables 385:Logistic regression 375:Binomial regression 320:Regression analysis 314:Part of a series on 28:Bayesian statistics 22:Part of a series on 11206:Bayesian inference 11091:Spatial statistics 10971:Medical statistics 10871:First hitting time 10825:Whittle likelihood 10476:Degrees of freedom 10471:Multivariate ANOVA 10404:Heteroscedasticity 10216:Bayesian estimator 10181:Bayesian inference 10030:Kolmogorov–Smirnov 9915:Randomization test 9885:Testing hypotheses 9858:Tolerance interval 9769:Maximum likelihood 9664:Exponential family 9597:Density estimation 9557:Statistical theory 9517:Natural experiment 9463:Scientific control 9380:Survey methodology 9066:Standard deviation 8854:Statistics outline 8753:Numerical analysis 8244:Bayesian Inference 7911: 7819: 7658: 7638: 7612: 7590: 7517: 7495: 7362: 7244: 7224: 7202: 7145: 7108: 7047: 7027: 6977: 6928: 6882: 6765: 6577: 6522: 6496: 6442: 6296: 6227: 6153: 5788: 5742: 5668: 5387: 5346: 5315: 5165: 5136: 5107: 5078: 5056: 5025: 5023: 4472: 4444: 4384: 4180: 4132: 4111: 4059: 4032: 4012: 3997: 3980: 3953: 3938: 3926: 3886: 3884: 3847:distribution with 3837: 3780: 3739: 3624: 3588: 3489: 3469: 3340: 3012: 3010: 2833: 2820: 2312: 2269: 2247: 2227: 2201: 2133: 2111: 2031: 2009: 1989: 1941: 1875: 1853: 1831: 1809: 1780: 1760: 1722: 1693: 1636: 1616: 1594: 1575: 1555: 1529: 1505: 1409: 1203: 1155:random variables: 1138: 1111: 1085: 1061: 1021: 991: 962: 936: 905: 843: 823: 799: 773: 759:prediction of the 745:linear combination 405:Multinomial probit 198:Bayesian estimator 146:Hierarchical model 70:Bayesian inference 11193: 11192: 11131: 11130: 11127: 11126: 11066:National accounts 11036:Actuarial science 11028:Social statistics 10921: 10920: 10917: 10916: 10913: 10912: 10848:Survival function 10833: 10832: 10695:Granger causality 10536:Contingency table 10511:Survival analysis 10488: 10487: 10484: 10483: 10340:Linear regression 10235: 10234: 10231: 10230: 10206:Credible interval 10175: 10174: 9958: 9957: 9774:Method of moments 9643:Parametric family 9604:Statistical model 9534: 9533: 9530: 9529: 9448:Random assignment 9370:Statistical power 9304: 9303: 9300: 9299: 9149:Contingency table 9119: 9118: 8986:Generalized/power 8867: 8866: 8859:Statistics topics 8804:Calibration curve 8613:Model exploration 8580: 8579: 8550:Non-normal errors 8441:Linear regression 8432:statistical model 8215:978-0-470-01154-6 8196:978-1-4398-4095-5 8174:978-3-642-01836-7 8036: 8035: 8028: 7860:The special case 7855:variational Bayes 7817: 7588: 7539: 7488: 7487: 7436: 7050:{\displaystyle m} 6855: 6815: 6729: 6542: 6286: 6088: 5933: 5279: 5104: 5014: 4853: 4721: 4301: 4083: 4035:{\displaystyle v} 3925: 3883: 3806: 3770: 3702: 3492:{\displaystyle k} 3448: 3438: 3398: 3326: 3266: 3244: 3204: 3160: 3108: 2998: 2938: 2909: 2869: 2828: 2810: 2757: 2735: 2733: 2724: 2664: 2635: 2595: 2538: 2512: 2453: 2427: 2306: 1639:{\displaystyle n} 1445: 1342: 972:predictor vector 875:linear regression 846:{\displaystyle X} 826:{\displaystyle y} 802:{\displaystyle X} 776:{\displaystyle y} 727: 726: 380:Binary regression 339:Simple regression 334:Linear regression 309: 308: 203:Credible interval 136:Linear regression 11218: 11181: 11180: 11169: 11168: 11158: 11157: 11143: 11142: 11046:Crime statistics 10940: 10939: 10927: 10926: 10844: 10843: 10810:Fourier analysis 10797:Frequency domain 10777: 10724: 10690:Structural break 10650: 10649: 10599:Cluster analysis 10546:Log-linear model 10519: 10518: 10494: 10493: 10435: 10409:Homoscedasticity 10265: 10264: 10241: 10240: 10160: 10152: 10144: 10143:(Kruskal–Wallis) 10128: 10113: 10068:Cross validation 10053: 10035:Anderson–Darling 9982: 9969: 9968: 9940:Likelihood-ratio 9932:Parametric tests 9910:Permutation test 9893:1- & 2-tails 9784:Minimum distance 9756:Point estimation 9752: 9751: 9703:Optimal decision 9654: 9553: 9552: 9540: 9539: 9522:Quasi-experiment 9472:Adaptive designs 9323: 9322: 9310: 9309: 9187:Rank correlation 8949: 8948: 8940: 8939: 8927: 8926: 8894: 8887: 8880: 8871: 8870: 8847: 8846: 8604:Multivariate AOV 8500:Local regression 8437: 8436: 8429:Regression as a 8420:Ridge regression 8367:Rank correlation 8302: 8295: 8288: 8279: 8278: 8257: 8238: 8219: 8200: 8178: 8151: 8132: 8097: 8094: 8088: 8085: 8079: 8076: 8070: 8067: 8061: 8058: 8052: 8049: 8031: 8024: 8020: 8017: 8011: 8006:this article by 7997:inline citations 7984: 7983: 7976: 7923:ridge regression 7920: 7918: 7917: 7912: 7910: 7899: 7898: 7893: 7878: 7877: 7872: 7828: 7826: 7825: 7820: 7818: 7816: 7806: 7798: 7784: 7772: 7756: 7748: 7740: 7722: 7711: 7699: 7685: 7667: 7665: 7664: 7659: 7647: 7645: 7644: 7639: 7637: 7621: 7619: 7618: 7613: 7599: 7597: 7596: 7591: 7589: 7587: 7583: 7582: 7566: 7562: 7561: 7545: 7540: 7537: 7536: 7535: 7525: 7515: 7514: 7513: 7503: 7494: 7489: 7486: 7482: 7481: 7476: 7463: 7459: 7458: 7453: 7440: 7439: 7437: 7435: 7434: 7433: 7429: 7403: 7389: 7371: 7369: 7368: 7363: 7354: 7336: 7315: 7307: 7299: 7276: 7271: 7253: 7251: 7250: 7245: 7233: 7231: 7230: 7225: 7223: 7211: 7209: 7208: 7203: 7198: 7184: 7176: 7154: 7152: 7151: 7146: 7135: 7117: 7115: 7114: 7109: 7098: 7090: 7082: 7056: 7054: 7053: 7048: 7036: 7034: 7033: 7028: 7017: 6986: 6984: 6983: 6978: 6970: 6969: 6964: 6958: 6957: 6952: 6945: 6944: 6938: 6933: 6924: 6923: 6918: 6912: 6911: 6906: 6899: 6898: 6892: 6887: 6878: 6873: 6872: 6871: 6865: 6856: 6848: 6843: 6842: 6830: 6829: 6816: 6808: 6803: 6802: 6790: 6789: 6774: 6772: 6771: 6766: 6758: 6757: 6752: 6746: 6745: 6740: 6731: 6730: 6722: 6719: 6714: 6713: 6712: 6706: 6697: 6696: 6684: 6683: 6678: 6666: 6665: 6660: 6647: 6646: 6641: 6632: 6627: 6626: 6625: 6619: 6607: 6606: 6601: 6586: 6584: 6583: 6578: 6576: 6572: 6571: 6570: 6558: 6557: 6543: 6540: 6531: 6529: 6528: 6523: 6520: 6516: 6514: 6506: 6501: 6495: 6494: 6482: 6481: 6476: 6465: 6464: 6451: 6449: 6448: 6443: 6435: 6427: 6419: 6418: 6400: 6392: 6384: 6383: 6371: 6354: 6346: 6338: 6337: 6325: 6305: 6303: 6302: 6297: 6292: 6288: 6287: 6285: 6284: 6283: 6270: 6269: 6268: 6263: 6257: 6256: 6251: 6244: 6243: 6237: 6232: 6223: 6222: 6217: 6208: 6207: 6202: 6193: 6188: 6187: 6186: 6180: 6170: 6169: 6163: 6158: 6149: 6144: 6143: 6142: 6136: 6127: 6126: 6113: 6097: 6096: 6089: 6084: 6083: 6082: 6063: 6053: 6052: 6040: 6036: 6032: 6031: 6026: 6017: 6006: 6005: 6000: 5991: 5986: 5985: 5984: 5978: 5969: 5968: 5967: 5957: 5956: 5951: 5942: 5934: 5932: 5931: 5930: 5925: 5912: 5896: 5895: 5891: 5875: 5874: 5856: 5848: 5840: 5839: 5827: 5797: 5795: 5794: 5789: 5784: 5783: 5778: 5772: 5771: 5766: 5759: 5758: 5752: 5747: 5738: 5737: 5732: 5723: 5722: 5717: 5708: 5703: 5702: 5701: 5695: 5685: 5684: 5678: 5673: 5664: 5659: 5658: 5657: 5651: 5639: 5638: 5633: 5624: 5613: 5612: 5607: 5598: 5593: 5592: 5591: 5585: 5576: 5575: 5574: 5564: 5563: 5558: 5549: 5535: 5534: 5529: 5520: 5512: 5511: 5506: 5500: 5499: 5498: 5488: 5487: 5482: 5473: 5459: 5454: 5446: 5438: 5437: 5436: 5426: 5421: 5413: 5396: 5394: 5393: 5388: 5386: 5385: 5380: 5371: 5355: 5353: 5352: 5347: 5345: 5344: 5339: 5327:To justify that 5324: 5322: 5321: 5316: 5308: 5307: 5302: 5296: 5295: 5290: 5281: 5280: 5272: 5269: 5264: 5263: 5262: 5256: 5247: 5246: 5234: 5233: 5228: 5219: 5214: 5213: 5212: 5206: 5194: 5193: 5188: 5174: 5172: 5171: 5166: 5164: 5163: 5158: 5145: 5143: 5142: 5137: 5135: 5134: 5129: 5116: 5114: 5113: 5108: 5106: 5105: 5097: 5087: 5085: 5084: 5079: 5077: 5065: 5063: 5062: 5057: 5055: 5054: 5049: 5034: 5032: 5031: 5026: 5024: 5020: 5016: 5015: 5013: 5012: 5003: 5002: 4993: 4977: 4976: 4966: 4965: 4945: 4944: 4932: 4928: 4924: 4923: 4918: 4909: 4901: 4900: 4895: 4889: 4888: 4887: 4877: 4876: 4871: 4862: 4854: 4852: 4851: 4850: 4834: 4818: 4817: 4813: 4797: 4796: 4784: 4780: 4776: 4771: 4763: 4755: 4754: 4753: 4743: 4738: 4730: 4722: 4720: 4719: 4718: 4713: 4700: 4684: 4683: 4679: 4663: 4662: 4644: 4637: 4636: 4618: 4617: 4605: 4591: 4590: 4578: 4570: 4562: 4541: 4533: 4525: 4524: 4512: 4481: 4479: 4478: 4473: 4468: 4464: 4462: 4454: 4449: 4443: 4442: 4430: 4429: 4424: 4413: 4412: 4393: 4391: 4390: 4385: 4380: 4376: 4372: 4371: 4366: 4357: 4349: 4348: 4343: 4337: 4336: 4335: 4325: 4324: 4319: 4310: 4302: 4300: 4299: 4298: 4282: 4266: 4265: 4261: 4245: 4244: 4226: 4225: 4213: 4189: 4187: 4186: 4181: 4176: 4175: 4166: 4161: 4141: 4139: 4138: 4133: 4124: 4119: 4107: 4106: 4094: 4093: 4084: 4081: 4068: 4066: 4065: 4060: 4058: 4057: 4041: 4039: 4038: 4033: 4021: 4019: 4018: 4013: 4010: 4005: 3989: 3987: 3986: 3981: 3979: 3978: 3962: 3960: 3959: 3954: 3951: 3946: 3937: 3936: 3927: 3918: 3912: 3911: 3895: 3893: 3892: 3887: 3885: 3879: 3878: 3869: 3863: 3862: 3846: 3844: 3843: 3838: 3833: 3832: 3820: 3819: 3807: 3804: 3789: 3787: 3786: 3781: 3776: 3772: 3771: 3769: 3768: 3767: 3754: 3752: 3747: 3738: 3737: 3727: 3711: 3710: 3703: 3698: 3697: 3688: 3678: 3677: 3659: 3658: 3633: 3631: 3630: 3625: 3620: 3619: 3597: 3595: 3594: 3589: 3581: 3580: 3568: 3554: 3553: 3532: 3531: 3519: 3498: 3496: 3495: 3490: 3478: 3476: 3475: 3470: 3449: 3446: 3440: 3439: 3431: 3428: 3420: 3412: 3411: 3410: 3400: 3399: 3391: 3388: 3380: 3369: 3368: 3349: 3347: 3346: 3341: 3336: 3332: 3328: 3327: 3319: 3313: 3302: 3297: 3296: 3295: 3289: 3280: 3279: 3278: 3268: 3267: 3259: 3253: 3245: 3243: 3242: 3241: 3236: 3223: 3207: 3206: 3205: 3200: 3189: 3179: 3178: 3166: 3162: 3161: 3159: 3158: 3157: 3152: 3142: 3141: 3140: 3127: 3111: 3110: 3109: 3101: 3091: 3090: 3072: 3071: 3059: 3051: 3046: 3041: 3021: 3019: 3018: 3013: 3011: 3000: 2999: 2991: 2985: 2974: 2969: 2968: 2967: 2961: 2952: 2951: 2950: 2940: 2939: 2931: 2925: 2911: 2910: 2902: 2899: 2891: 2883: 2882: 2881: 2871: 2870: 2862: 2859: 2851: 2837: 2832: 2826: 2821: 2816: 2812: 2811: 2803: 2800: 2792: 2784: 2783: 2782: 2772: 2767: 2759: 2758: 2750: 2747: 2726: 2725: 2717: 2711: 2700: 2695: 2694: 2693: 2687: 2678: 2677: 2676: 2666: 2665: 2657: 2651: 2637: 2636: 2628: 2625: 2617: 2609: 2608: 2607: 2597: 2596: 2588: 2585: 2577: 2563: 2553: 2548: 2540: 2539: 2531: 2528: 2514: 2513: 2505: 2502: 2494: 2483: 2482: 2481: 2468: 2463: 2455: 2454: 2446: 2443: 2429: 2428: 2420: 2417: 2409: 2388: 2383: 2375: 2367: 2366: 2365: 2355: 2350: 2342: 2321: 2319: 2318: 2313: 2308: 2307: 2299: 2293: 2278: 2276: 2275: 2270: 2268: 2256: 2254: 2253: 2248: 2236: 2234: 2233: 2228: 2226: 2210: 2208: 2207: 2202: 2197: 2196: 2184: 2142: 2140: 2139: 2134: 2132: 2120: 2118: 2117: 2112: 2101: 2087: 2086: 2068: 2067: 2058: 2040: 2038: 2037: 2032: 2030: 2018: 2016: 2015: 2010: 1998: 1996: 1995: 1990: 1979: 1978: 1950: 1948: 1947: 1942: 1931: 1930: 1918: 1910: 1902: 1884: 1882: 1881: 1876: 1874: 1862: 1860: 1859: 1854: 1852: 1840: 1838: 1837: 1832: 1830: 1818: 1816: 1815: 1810: 1808: 1789: 1787: 1786: 1781: 1769: 1767: 1766: 1761: 1759: 1746:posterior belief 1731: 1729: 1728: 1723: 1721: 1702: 1700: 1699: 1694: 1692: 1691: 1690: 1680: 1679: 1665: 1664: 1645: 1643: 1642: 1637: 1625: 1623: 1622: 1617: 1615: 1603: 1601: 1600: 1595: 1592: 1591: 1585: 1580: 1564: 1562: 1561: 1556: 1538: 1536: 1535: 1530: 1528: 1514: 1512: 1511: 1506: 1504: 1499: 1498: 1497: 1491: 1485: 1484: 1472: 1467: 1466: 1465: 1459: 1447: 1446: 1438: 1418: 1416: 1415: 1410: 1405: 1401: 1397: 1392: 1384: 1376: 1375: 1374: 1364: 1359: 1351: 1343: 1341: 1340: 1339: 1323: 1307: 1306: 1302: 1286: 1285: 1267: 1266: 1254: 1246: 1238: 1212: 1210: 1209: 1204: 1196: 1195: 1171: 1170: 1147: 1145: 1144: 1139: 1137: 1136: 1121:vector, and the 1120: 1118: 1117: 1112: 1094: 1092: 1091: 1086: 1084: 1070: 1068: 1067: 1062: 1057: 1056: 1044: 1038: 1037: 1031: 1026: 1017: 1016: 1000: 998: 997: 992: 990: 989: 984: 971: 969: 968: 963: 945: 943: 942: 937: 935: 934: 914: 912: 911: 906: 863:conjugate priors 852: 850: 849: 844: 832: 830: 829: 824: 808: 806: 805: 800: 782: 780: 779: 774: 763:(often labelled 719: 712: 705: 689: 688: 596:Ridge regression 431:Multilevel model 311: 310: 301: 294: 287: 271: 270: 237:Model evaluation 38: 19: 18: 11226: 11225: 11221: 11220: 11219: 11217: 11216: 11215: 11196: 11195: 11194: 11189: 11152: 11123: 11085: 11022: 11008:quality control 10975: 10957:Clinical trials 10934: 10909: 10893: 10881:Hazard function 10875: 10829: 10791: 10775: 10738: 10734:Breusch–Godfrey 10722: 10699: 10639: 10614:Factor analysis 10560: 10541:Graphical model 10513: 10480: 10447: 10433: 10413: 10367: 10334: 10296: 10259: 10258: 10227: 10171: 10158: 10150: 10142: 10126: 10111: 10090:Rank statistics 10084: 10063:Model selection 10051: 10009:Goodness of fit 10003: 9980: 9954: 9926: 9879: 9824: 9813:Median unbiased 9741: 9652: 9585:Order statistic 9547: 9526: 9493: 9467: 9419: 9374: 9317: 9315:Data collection 9296: 9208: 9163: 9137: 9115: 9075: 9027: 8944:Continuous data 8934: 8921: 8903: 8898: 8868: 8863: 8841: 8823: 8787: 8783:Chebyshev nodes 8736: 8732:Bayesian design 8708: 8689:Goodness of fit 8662: 8635: 8625:Model selection 8608: 8576: 8545: 8504: 8473: 8430: 8424: 8391: 8348: 8315: 8306: 8264: 8254: 8235: 8216: 8197: 8175: 8148: 8129: 8106: 8101: 8100: 8095: 8091: 8086: 8082: 8077: 8073: 8068: 8064: 8059: 8055: 8050: 8046: 8041: 8032: 8021: 8015: 8012: 8002:Please help to 8001: 7985: 7981: 7942: 7906: 7894: 7889: 7888: 7873: 7868: 7867: 7865: 7862: 7861: 7845:method such as 7839: 7802: 7794: 7780: 7773: 7752: 7744: 7736: 7718: 7707: 7700: 7698: 7681: 7673: 7670: 7669: 7653: 7650: 7649: 7633: 7631: 7628: 7627: 7607: 7604: 7603: 7578: 7574: 7567: 7557: 7553: 7546: 7544: 7531: 7527: 7526: 7521: 7509: 7505: 7504: 7499: 7493: 7477: 7472: 7471: 7464: 7454: 7449: 7448: 7441: 7438: 7425: 7421: 7417: 7407: 7402: 7385: 7377: 7374: 7373: 7350: 7332: 7311: 7303: 7295: 7272: 7267: 7259: 7256: 7255: 7239: 7236: 7235: 7219: 7217: 7214: 7213: 7194: 7180: 7172: 7164: 7161: 7160: 7131: 7123: 7120: 7119: 7094: 7086: 7078: 7070: 7067: 7066: 7042: 7039: 7038: 7013: 7005: 7002: 7001: 6995: 6965: 6960: 6959: 6953: 6948: 6947: 6940: 6939: 6934: 6929: 6919: 6914: 6913: 6907: 6902: 6901: 6894: 6893: 6888: 6883: 6874: 6867: 6866: 6861: 6860: 6847: 6838: 6834: 6825: 6821: 6807: 6798: 6794: 6785: 6781: 6779: 6776: 6775: 6753: 6748: 6747: 6741: 6736: 6735: 6721: 6720: 6715: 6708: 6707: 6702: 6701: 6689: 6685: 6679: 6674: 6673: 6661: 6656: 6655: 6642: 6637: 6636: 6628: 6621: 6620: 6615: 6614: 6602: 6597: 6596: 6594: 6591: 6590: 6566: 6562: 6553: 6549: 6548: 6544: 6539: 6537: 6534: 6533: 6507: 6502: 6497: 6490: 6486: 6477: 6472: 6471: 6470: 6466: 6460: 6459: 6457: 6454: 6453: 6431: 6423: 6414: 6410: 6396: 6388: 6379: 6375: 6367: 6350: 6342: 6333: 6329: 6321: 6313: 6310: 6309: 6279: 6275: 6271: 6264: 6259: 6258: 6252: 6247: 6246: 6239: 6238: 6233: 6228: 6218: 6213: 6212: 6203: 6198: 6197: 6189: 6182: 6181: 6176: 6175: 6165: 6164: 6159: 6154: 6145: 6138: 6137: 6132: 6131: 6122: 6118: 6114: 6112: 6108: 6104: 6078: 6074: 6064: 6062: 6058: 6054: 6048: 6044: 6027: 6022: 6021: 6013: 6001: 5996: 5995: 5987: 5980: 5979: 5974: 5973: 5963: 5962: 5958: 5952: 5947: 5946: 5938: 5926: 5921: 5920: 5916: 5911: 5907: 5903: 5887: 5880: 5876: 5870: 5866: 5852: 5844: 5835: 5831: 5823: 5815: 5812: 5811: 5779: 5774: 5773: 5767: 5762: 5761: 5754: 5753: 5748: 5743: 5733: 5728: 5727: 5718: 5713: 5712: 5704: 5697: 5696: 5691: 5690: 5680: 5679: 5674: 5669: 5660: 5653: 5652: 5647: 5646: 5634: 5629: 5628: 5620: 5608: 5603: 5602: 5594: 5587: 5586: 5581: 5580: 5570: 5569: 5565: 5559: 5554: 5553: 5545: 5530: 5525: 5524: 5516: 5507: 5502: 5501: 5494: 5493: 5489: 5483: 5478: 5477: 5469: 5455: 5450: 5442: 5432: 5431: 5427: 5422: 5417: 5409: 5404: 5401: 5400: 5381: 5376: 5375: 5367: 5365: 5362: 5361: 5340: 5335: 5334: 5332: 5329: 5328: 5303: 5298: 5297: 5291: 5286: 5285: 5271: 5270: 5265: 5258: 5257: 5252: 5251: 5239: 5235: 5229: 5224: 5223: 5215: 5208: 5207: 5202: 5201: 5189: 5184: 5183: 5181: 5178: 5177: 5159: 5154: 5153: 5151: 5148: 5147: 5130: 5125: 5124: 5122: 5119: 5118: 5096: 5095: 5093: 5090: 5089: 5073: 5071: 5068: 5067: 5050: 5045: 5044: 5042: 5039: 5038: 5022: 5021: 5008: 5004: 4998: 4994: 4992: 4988: 4984: 4961: 4957: 4950: 4946: 4940: 4936: 4919: 4914: 4913: 4905: 4896: 4891: 4890: 4883: 4882: 4878: 4872: 4867: 4866: 4858: 4846: 4842: 4838: 4833: 4829: 4825: 4809: 4802: 4798: 4792: 4788: 4772: 4767: 4759: 4749: 4748: 4744: 4739: 4734: 4726: 4714: 4709: 4708: 4704: 4699: 4695: 4691: 4675: 4668: 4664: 4658: 4654: 4642: 4641: 4632: 4628: 4613: 4609: 4601: 4586: 4582: 4574: 4566: 4558: 4545: 4537: 4529: 4520: 4516: 4508: 4498: 4496: 4493: 4492: 4487: 4455: 4450: 4445: 4438: 4434: 4425: 4420: 4419: 4418: 4414: 4408: 4407: 4405: 4402: 4401: 4367: 4362: 4361: 4353: 4344: 4339: 4338: 4331: 4330: 4326: 4320: 4315: 4314: 4306: 4294: 4290: 4286: 4281: 4277: 4273: 4257: 4250: 4246: 4240: 4236: 4221: 4217: 4209: 4201: 4198: 4197: 4171: 4167: 4162: 4157: 4149: 4146: 4145: 4120: 4115: 4102: 4098: 4089: 4085: 4080: 4078: 4075: 4074: 4053: 4049: 4047: 4044: 4043: 4027: 4024: 4023: 4006: 4001: 3995: 3992: 3991: 3974: 3970: 3968: 3965: 3964: 3947: 3942: 3932: 3928: 3916: 3907: 3903: 3901: 3898: 3897: 3874: 3870: 3867: 3858: 3854: 3852: 3849: 3848: 3828: 3824: 3815: 3811: 3803: 3801: 3798: 3797: 3763: 3759: 3755: 3748: 3743: 3733: 3729: 3728: 3726: 3722: 3718: 3693: 3689: 3687: 3683: 3679: 3673: 3669: 3654: 3650: 3642: 3639: 3638: 3615: 3611: 3603: 3600: 3599: 3576: 3572: 3564: 3549: 3545: 3527: 3523: 3515: 3507: 3504: 3503: 3484: 3481: 3480: 3447: and  3445: 3430: 3429: 3424: 3416: 3406: 3405: 3401: 3390: 3389: 3384: 3376: 3364: 3360: 3355: 3352: 3351: 3318: 3317: 3309: 3298: 3291: 3290: 3285: 3284: 3274: 3273: 3269: 3258: 3257: 3249: 3237: 3232: 3231: 3227: 3222: 3218: 3214: 3190: 3188: 3184: 3180: 3174: 3170: 3153: 3148: 3147: 3143: 3136: 3132: 3128: 3126: 3122: 3118: 3100: 3096: 3092: 3086: 3082: 3067: 3063: 3055: 3047: 3042: 3037: 3029: 3026: 3025: 3009: 3008: 2990: 2989: 2981: 2970: 2963: 2962: 2957: 2956: 2946: 2945: 2941: 2930: 2929: 2921: 2901: 2900: 2895: 2887: 2877: 2876: 2872: 2861: 2860: 2855: 2847: 2835: 2834: 2822: 2802: 2801: 2796: 2788: 2778: 2777: 2773: 2768: 2763: 2749: 2748: 2743: 2736: 2734: 2716: 2715: 2707: 2696: 2689: 2688: 2683: 2682: 2672: 2671: 2667: 2656: 2655: 2647: 2627: 2626: 2621: 2613: 2603: 2602: 2598: 2587: 2586: 2581: 2573: 2561: 2560: 2549: 2544: 2530: 2529: 2524: 2504: 2503: 2498: 2490: 2477: 2476: 2472: 2464: 2459: 2445: 2444: 2439: 2419: 2418: 2413: 2405: 2392: 2384: 2379: 2371: 2361: 2360: 2356: 2351: 2346: 2338: 2331: 2329: 2326: 2325: 2298: 2297: 2289: 2284: 2281: 2280: 2264: 2262: 2259: 2258: 2242: 2239: 2238: 2222: 2220: 2217: 2216: 2192: 2188: 2180: 2172: 2169: 2168: 2162:conjugate prior 2154: 2149: 2128: 2126: 2123: 2122: 2097: 2082: 2078: 2063: 2062: 2054: 2046: 2043: 2042: 2026: 2024: 2021: 2020: 2004: 2001: 2000: 1974: 1970: 1956: 1953: 1952: 1926: 1922: 1914: 1906: 1898: 1890: 1887: 1886: 1870: 1868: 1865: 1864: 1863:conditional on 1848: 1846: 1843: 1842: 1826: 1824: 1821: 1820: 1804: 1802: 1799: 1798: 1775: 1772: 1771: 1755: 1753: 1750: 1749: 1717: 1715: 1712: 1711: 1686: 1685: 1681: 1675: 1671: 1660: 1656: 1651: 1648: 1647: 1631: 1628: 1627: 1611: 1609: 1606: 1605: 1587: 1586: 1581: 1576: 1573: 1570: 1569: 1544: 1541: 1540: 1524: 1522: 1519: 1518: 1500: 1493: 1492: 1487: 1486: 1477: 1473: 1468: 1461: 1460: 1455: 1454: 1437: 1436: 1434: 1431: 1430: 1393: 1388: 1380: 1370: 1369: 1365: 1360: 1355: 1347: 1335: 1331: 1327: 1322: 1318: 1314: 1298: 1291: 1287: 1281: 1277: 1262: 1258: 1250: 1242: 1234: 1226: 1223: 1222: 1191: 1187: 1166: 1162: 1160: 1157: 1156: 1132: 1128: 1126: 1123: 1122: 1100: 1097: 1096: 1080: 1078: 1075: 1074: 1052: 1048: 1040: 1033: 1032: 1027: 1022: 1012: 1008: 1006: 1003: 1002: 985: 980: 979: 977: 974: 973: 951: 948: 947: 930: 926: 924: 921: 920: 882: 879: 878: 871: 853:is distributed 838: 835: 834: 818: 815: 814: 794: 791: 790: 768: 765: 764: 734: 723: 683: 663:Goodness of fit 370:Discrete choice 305: 265: 250:Model averaging 229:Nested sampling 141:Empirical Bayes 131:Conjugate prior 100:Cromwell's rule 17: 12: 11: 5: 11224: 11214: 11213: 11208: 11191: 11190: 11188: 11187: 11175: 11163: 11149: 11136: 11133: 11132: 11129: 11128: 11125: 11124: 11122: 11121: 11116: 11111: 11106: 11101: 11095: 11093: 11087: 11086: 11084: 11083: 11078: 11073: 11068: 11063: 11058: 11053: 11048: 11043: 11038: 11032: 11030: 11024: 11023: 11021: 11020: 11015: 11010: 11001: 10996: 10991: 10985: 10983: 10977: 10976: 10974: 10973: 10968: 10963: 10954: 10952:Bioinformatics 10948: 10946: 10936: 10935: 10923: 10922: 10919: 10918: 10915: 10914: 10911: 10910: 10908: 10907: 10901: 10899: 10895: 10894: 10892: 10891: 10885: 10883: 10877: 10876: 10874: 10873: 10868: 10863: 10858: 10852: 10850: 10841: 10835: 10834: 10831: 10830: 10828: 10827: 10822: 10817: 10812: 10807: 10801: 10799: 10793: 10792: 10790: 10789: 10784: 10779: 10771: 10766: 10761: 10760: 10759: 10757:partial (PACF) 10748: 10746: 10740: 10739: 10737: 10736: 10731: 10726: 10718: 10713: 10707: 10705: 10704:Specific tests 10701: 10700: 10698: 10697: 10692: 10687: 10682: 10677: 10672: 10667: 10662: 10656: 10654: 10647: 10641: 10640: 10638: 10637: 10636: 10635: 10634: 10633: 10618: 10617: 10616: 10606: 10604:Classification 10601: 10596: 10591: 10586: 10581: 10576: 10570: 10568: 10562: 10561: 10559: 10558: 10553: 10551:McNemar's test 10548: 10543: 10538: 10533: 10527: 10525: 10515: 10514: 10490: 10489: 10486: 10485: 10482: 10481: 10479: 10478: 10473: 10468: 10463: 10457: 10455: 10449: 10448: 10446: 10445: 10429: 10423: 10421: 10415: 10414: 10412: 10411: 10406: 10401: 10396: 10391: 10389:Semiparametric 10386: 10381: 10375: 10373: 10369: 10368: 10366: 10365: 10360: 10355: 10350: 10344: 10342: 10336: 10335: 10333: 10332: 10327: 10322: 10317: 10312: 10306: 10304: 10298: 10297: 10295: 10294: 10289: 10284: 10279: 10273: 10271: 10261: 10260: 10257: 10256: 10251: 10245: 10237: 10236: 10233: 10232: 10229: 10228: 10226: 10225: 10224: 10223: 10213: 10208: 10203: 10202: 10201: 10196: 10185: 10183: 10177: 10176: 10173: 10172: 10170: 10169: 10164: 10163: 10162: 10154: 10146: 10130: 10127:(Mann–Whitney) 10122: 10121: 10120: 10107: 10106: 10105: 10094: 10092: 10086: 10085: 10083: 10082: 10081: 10080: 10075: 10070: 10060: 10055: 10052:(Shapiro–Wilk) 10047: 10042: 10037: 10032: 10027: 10019: 10013: 10011: 10005: 10004: 10002: 10001: 9993: 9984: 9972: 9966: 9964:Specific tests 9960: 9959: 9956: 9955: 9953: 9952: 9947: 9942: 9936: 9934: 9928: 9927: 9925: 9924: 9919: 9918: 9917: 9907: 9906: 9905: 9895: 9889: 9887: 9881: 9880: 9878: 9877: 9876: 9875: 9870: 9860: 9855: 9850: 9845: 9840: 9834: 9832: 9826: 9825: 9823: 9822: 9817: 9816: 9815: 9810: 9809: 9808: 9803: 9788: 9787: 9786: 9781: 9776: 9771: 9760: 9758: 9749: 9743: 9742: 9740: 9739: 9734: 9729: 9728: 9727: 9717: 9712: 9711: 9710: 9700: 9699: 9698: 9693: 9688: 9678: 9673: 9668: 9667: 9666: 9661: 9656: 9640: 9639: 9638: 9633: 9628: 9618: 9617: 9616: 9611: 9601: 9600: 9599: 9589: 9588: 9587: 9577: 9572: 9567: 9561: 9559: 9549: 9548: 9536: 9535: 9532: 9531: 9528: 9527: 9525: 9524: 9519: 9514: 9509: 9503: 9501: 9495: 9494: 9492: 9491: 9486: 9481: 9475: 9473: 9469: 9468: 9466: 9465: 9460: 9455: 9450: 9445: 9440: 9435: 9429: 9427: 9421: 9420: 9418: 9417: 9415:Standard error 9412: 9407: 9402: 9401: 9400: 9395: 9384: 9382: 9376: 9375: 9373: 9372: 9367: 9362: 9357: 9352: 9347: 9345:Optimal design 9342: 9337: 9331: 9329: 9319: 9318: 9306: 9305: 9302: 9301: 9298: 9297: 9295: 9294: 9289: 9284: 9279: 9274: 9269: 9264: 9259: 9254: 9249: 9244: 9239: 9234: 9229: 9224: 9218: 9216: 9210: 9209: 9207: 9206: 9201: 9200: 9199: 9194: 9184: 9179: 9173: 9171: 9165: 9164: 9162: 9161: 9156: 9151: 9145: 9143: 9142:Summary tables 9139: 9138: 9136: 9135: 9129: 9127: 9121: 9120: 9117: 9116: 9114: 9113: 9112: 9111: 9106: 9101: 9091: 9085: 9083: 9077: 9076: 9074: 9073: 9068: 9063: 9058: 9053: 9048: 9043: 9037: 9035: 9029: 9028: 9026: 9025: 9020: 9015: 9014: 9013: 9008: 9003: 8998: 8993: 8988: 8983: 8978: 8976:Contraharmonic 8973: 8968: 8957: 8955: 8946: 8936: 8935: 8923: 8922: 8920: 8919: 8914: 8908: 8905: 8904: 8897: 8896: 8889: 8882: 8874: 8865: 8864: 8862: 8861: 8856: 8851: 8839: 8834: 8828: 8825: 8824: 8822: 8821: 8816: 8811: 8806: 8801: 8795: 8793: 8789: 8788: 8786: 8785: 8780: 8775: 8770: 8765: 8760: 8755: 8749: 8747: 8738: 8737: 8735: 8734: 8729: 8727:Optimal design 8724: 8718: 8716: 8710: 8709: 8707: 8706: 8701: 8696: 8691: 8686: 8681: 8676: 8670: 8668: 8664: 8663: 8661: 8660: 8655: 8650: 8649: 8648: 8643: 8638: 8633: 8622: 8616: 8614: 8610: 8609: 8607: 8606: 8601: 8596: 8590: 8588: 8582: 8581: 8578: 8577: 8575: 8574: 8569: 8564: 8559: 8553: 8551: 8547: 8546: 8544: 8543: 8538: 8533: 8528: 8526:Semiparametric 8523: 8518: 8512: 8510: 8506: 8505: 8503: 8502: 8497: 8492: 8487: 8481: 8479: 8475: 8474: 8472: 8471: 8466: 8461: 8456: 8451: 8445: 8443: 8434: 8426: 8425: 8423: 8422: 8417: 8412: 8407: 8401: 8399: 8393: 8392: 8390: 8389: 8384: 8379: 8373: 8371:Spearman's rho 8364: 8358: 8356: 8350: 8349: 8347: 8346: 8341: 8336: 8331: 8325: 8323: 8317: 8316: 8305: 8304: 8297: 8290: 8282: 8276: 8275: 8263: 8262:External links 8260: 8259: 8258: 8252: 8239: 8233: 8220: 8214: 8201: 8195: 8183:Gelman, Andrew 8179: 8173: 8152: 8146: 8133: 8127: 8105: 8102: 8099: 8098: 8089: 8080: 8071: 8062: 8053: 8043: 8042: 8040: 8037: 8034: 8033: 7988: 7986: 7979: 7974: 7973: 7968: 7963: 7958: 7953: 7948: 7941: 7938: 7909: 7905: 7902: 7897: 7892: 7887: 7884: 7881: 7876: 7871: 7838: 7835: 7815: 7812: 7809: 7805: 7801: 7797: 7793: 7790: 7787: 7783: 7779: 7776: 7771: 7768: 7765: 7762: 7759: 7755: 7751: 7747: 7743: 7739: 7735: 7732: 7728: 7725: 7721: 7717: 7714: 7710: 7706: 7703: 7697: 7694: 7691: 7688: 7684: 7680: 7677: 7657: 7636: 7624:gamma function 7611: 7586: 7581: 7577: 7573: 7570: 7565: 7560: 7556: 7552: 7549: 7543: 7534: 7530: 7524: 7520: 7512: 7508: 7502: 7498: 7492: 7485: 7480: 7475: 7470: 7467: 7462: 7457: 7452: 7447: 7444: 7432: 7428: 7424: 7420: 7416: 7413: 7410: 7406: 7401: 7398: 7395: 7392: 7388: 7384: 7381: 7361: 7358: 7353: 7349: 7345: 7342: 7339: 7335: 7331: 7328: 7324: 7321: 7318: 7314: 7310: 7306: 7302: 7298: 7294: 7291: 7288: 7285: 7282: 7279: 7275: 7270: 7266: 7263: 7243: 7222: 7201: 7197: 7193: 7190: 7187: 7183: 7179: 7175: 7171: 7168: 7144: 7141: 7138: 7134: 7130: 7127: 7107: 7104: 7101: 7097: 7093: 7089: 7085: 7081: 7077: 7074: 7046: 7026: 7023: 7020: 7016: 7012: 7009: 6999:model evidence 6994: 6993:Model evidence 6991: 6976: 6973: 6968: 6963: 6956: 6951: 6943: 6937: 6932: 6927: 6922: 6917: 6910: 6905: 6897: 6891: 6886: 6881: 6877: 6870: 6864: 6859: 6854: 6851: 6846: 6841: 6837: 6833: 6828: 6824: 6819: 6814: 6811: 6806: 6801: 6797: 6793: 6788: 6784: 6764: 6761: 6756: 6751: 6744: 6739: 6734: 6728: 6725: 6718: 6711: 6705: 6700: 6695: 6692: 6688: 6682: 6677: 6672: 6669: 6664: 6659: 6653: 6650: 6645: 6640: 6635: 6631: 6624: 6618: 6613: 6610: 6605: 6600: 6575: 6569: 6565: 6561: 6556: 6552: 6547: 6519: 6513: 6510: 6505: 6500: 6493: 6489: 6485: 6480: 6475: 6469: 6463: 6441: 6438: 6434: 6430: 6426: 6422: 6417: 6413: 6409: 6406: 6403: 6399: 6395: 6391: 6387: 6382: 6378: 6374: 6370: 6366: 6363: 6360: 6357: 6353: 6349: 6345: 6341: 6336: 6332: 6328: 6324: 6320: 6317: 6295: 6291: 6282: 6278: 6274: 6267: 6262: 6255: 6250: 6242: 6236: 6231: 6226: 6221: 6216: 6211: 6206: 6201: 6196: 6192: 6185: 6179: 6174: 6168: 6162: 6157: 6152: 6148: 6141: 6135: 6130: 6125: 6121: 6117: 6111: 6107: 6103: 6100: 6095: 6092: 6087: 6081: 6077: 6073: 6070: 6067: 6061: 6057: 6051: 6047: 6043: 6039: 6035: 6030: 6025: 6020: 6016: 6012: 6009: 6004: 5999: 5994: 5990: 5983: 5977: 5972: 5966: 5961: 5955: 5950: 5945: 5941: 5937: 5929: 5924: 5919: 5915: 5910: 5906: 5902: 5899: 5894: 5890: 5886: 5883: 5879: 5873: 5869: 5865: 5862: 5859: 5855: 5851: 5847: 5843: 5838: 5834: 5830: 5826: 5822: 5819: 5787: 5782: 5777: 5770: 5765: 5757: 5751: 5746: 5741: 5736: 5731: 5726: 5721: 5716: 5711: 5707: 5700: 5694: 5689: 5683: 5677: 5672: 5667: 5663: 5656: 5650: 5645: 5642: 5637: 5632: 5627: 5623: 5619: 5616: 5611: 5606: 5601: 5597: 5590: 5584: 5579: 5573: 5568: 5562: 5557: 5552: 5548: 5544: 5541: 5538: 5533: 5528: 5523: 5519: 5515: 5510: 5505: 5497: 5492: 5486: 5481: 5476: 5472: 5468: 5465: 5462: 5458: 5453: 5449: 5445: 5441: 5435: 5430: 5425: 5420: 5416: 5412: 5408: 5384: 5379: 5374: 5370: 5358:quadratic form 5343: 5338: 5314: 5311: 5306: 5301: 5294: 5289: 5284: 5278: 5275: 5268: 5261: 5255: 5250: 5245: 5242: 5238: 5232: 5227: 5222: 5218: 5211: 5205: 5200: 5197: 5192: 5187: 5162: 5157: 5133: 5128: 5103: 5100: 5076: 5053: 5048: 5019: 5011: 5007: 5001: 4997: 4991: 4987: 4983: 4980: 4975: 4972: 4969: 4964: 4960: 4956: 4953: 4949: 4943: 4939: 4935: 4931: 4927: 4922: 4917: 4912: 4908: 4904: 4899: 4894: 4886: 4881: 4875: 4870: 4865: 4861: 4857: 4849: 4845: 4841: 4837: 4832: 4828: 4824: 4821: 4816: 4812: 4808: 4805: 4801: 4795: 4791: 4787: 4783: 4779: 4775: 4770: 4766: 4762: 4758: 4752: 4747: 4742: 4737: 4733: 4729: 4725: 4717: 4712: 4707: 4703: 4698: 4694: 4690: 4687: 4682: 4678: 4674: 4671: 4667: 4661: 4657: 4653: 4650: 4647: 4645: 4643: 4640: 4635: 4631: 4627: 4624: 4621: 4616: 4612: 4608: 4604: 4600: 4597: 4594: 4589: 4585: 4581: 4577: 4573: 4569: 4565: 4561: 4557: 4554: 4551: 4548: 4546: 4544: 4540: 4536: 4532: 4528: 4523: 4519: 4515: 4511: 4507: 4504: 4501: 4500: 4486: 4483: 4471: 4467: 4461: 4458: 4453: 4448: 4441: 4437: 4433: 4428: 4423: 4417: 4411: 4383: 4379: 4375: 4370: 4365: 4360: 4356: 4352: 4347: 4342: 4334: 4329: 4323: 4318: 4313: 4309: 4305: 4297: 4293: 4289: 4285: 4280: 4276: 4272: 4269: 4264: 4260: 4256: 4253: 4249: 4243: 4239: 4235: 4232: 4229: 4224: 4220: 4216: 4212: 4208: 4205: 4179: 4174: 4170: 4165: 4160: 4156: 4153: 4131: 4128: 4123: 4118: 4114: 4110: 4105: 4101: 4097: 4092: 4088: 4056: 4052: 4031: 4009: 4004: 4000: 3977: 3973: 3950: 3945: 3941: 3935: 3931: 3924: 3921: 3915: 3910: 3906: 3882: 3877: 3873: 3866: 3861: 3857: 3836: 3831: 3827: 3823: 3818: 3814: 3810: 3779: 3775: 3766: 3762: 3758: 3751: 3746: 3742: 3736: 3732: 3725: 3721: 3717: 3714: 3709: 3706: 3701: 3696: 3692: 3686: 3682: 3676: 3672: 3668: 3665: 3662: 3657: 3653: 3649: 3646: 3623: 3618: 3614: 3610: 3607: 3587: 3584: 3579: 3575: 3571: 3567: 3563: 3560: 3557: 3552: 3548: 3544: 3541: 3538: 3535: 3530: 3526: 3522: 3518: 3514: 3511: 3488: 3468: 3465: 3462: 3459: 3456: 3453: 3443: 3437: 3434: 3427: 3423: 3419: 3415: 3409: 3404: 3397: 3394: 3387: 3383: 3379: 3375: 3372: 3367: 3363: 3359: 3339: 3335: 3331: 3325: 3322: 3316: 3312: 3308: 3305: 3301: 3294: 3288: 3283: 3277: 3272: 3265: 3262: 3256: 3252: 3248: 3240: 3235: 3230: 3226: 3221: 3217: 3213: 3210: 3203: 3199: 3196: 3193: 3187: 3183: 3177: 3173: 3169: 3165: 3156: 3151: 3146: 3139: 3135: 3131: 3125: 3121: 3117: 3114: 3107: 3104: 3099: 3095: 3089: 3085: 3081: 3078: 3075: 3070: 3066: 3062: 3058: 3054: 3050: 3045: 3040: 3036: 3033: 3007: 3003: 2997: 2994: 2988: 2984: 2980: 2977: 2973: 2966: 2960: 2955: 2949: 2944: 2937: 2934: 2928: 2924: 2920: 2917: 2914: 2908: 2905: 2898: 2894: 2890: 2886: 2880: 2875: 2868: 2865: 2858: 2854: 2850: 2846: 2843: 2840: 2838: 2836: 2831: 2825: 2819: 2815: 2809: 2806: 2799: 2795: 2791: 2787: 2781: 2776: 2771: 2766: 2762: 2756: 2753: 2746: 2742: 2739: 2732: 2729: 2723: 2720: 2714: 2710: 2706: 2703: 2699: 2692: 2686: 2681: 2675: 2670: 2663: 2660: 2654: 2650: 2646: 2643: 2640: 2634: 2631: 2624: 2620: 2616: 2612: 2606: 2601: 2594: 2591: 2584: 2580: 2576: 2572: 2569: 2566: 2564: 2562: 2559: 2556: 2552: 2547: 2543: 2537: 2534: 2527: 2523: 2520: 2517: 2511: 2508: 2501: 2497: 2493: 2489: 2486: 2480: 2475: 2471: 2467: 2462: 2458: 2452: 2449: 2442: 2438: 2435: 2432: 2426: 2423: 2416: 2412: 2408: 2404: 2401: 2398: 2395: 2393: 2391: 2387: 2382: 2378: 2374: 2370: 2364: 2359: 2354: 2349: 2345: 2341: 2337: 2334: 2333: 2311: 2305: 2302: 2296: 2292: 2288: 2267: 2246: 2225: 2200: 2195: 2191: 2187: 2183: 2179: 2176: 2153: 2150: 2148: 2145: 2131: 2110: 2107: 2104: 2100: 2096: 2093: 2090: 2085: 2081: 2077: 2074: 2071: 2066: 2061: 2057: 2053: 2050: 2029: 2008: 1988: 1985: 1982: 1977: 1973: 1969: 1966: 1963: 1960: 1940: 1937: 1934: 1929: 1925: 1921: 1917: 1913: 1909: 1905: 1901: 1897: 1894: 1873: 1851: 1829: 1807: 1779: 1758: 1720: 1689: 1684: 1678: 1674: 1669: 1663: 1659: 1655: 1635: 1626:is the column 1614: 1590: 1584: 1579: 1554: 1551: 1548: 1527: 1503: 1496: 1490: 1483: 1480: 1476: 1471: 1464: 1458: 1453: 1450: 1444: 1441: 1408: 1404: 1400: 1396: 1391: 1387: 1383: 1379: 1373: 1368: 1363: 1358: 1354: 1350: 1346: 1338: 1334: 1330: 1326: 1321: 1317: 1313: 1310: 1305: 1301: 1297: 1294: 1290: 1284: 1280: 1276: 1273: 1270: 1265: 1261: 1257: 1253: 1249: 1245: 1241: 1237: 1233: 1230: 1202: 1199: 1194: 1190: 1186: 1183: 1180: 1177: 1174: 1169: 1165: 1135: 1131: 1110: 1107: 1104: 1083: 1060: 1055: 1051: 1047: 1043: 1036: 1030: 1025: 1020: 1015: 1011: 988: 983: 961: 958: 955: 933: 929: 904: 901: 898: 895: 892: 889: 886: 870: 867: 842: 822: 798: 786:conditional on 772: 725: 724: 722: 721: 714: 707: 699: 696: 695: 694: 693: 678: 677: 676: 675: 670: 665: 660: 655: 650: 642: 641: 637: 636: 635: 634: 629: 624: 619: 614: 606: 605: 604: 603: 598: 593: 588: 583: 575: 574: 573: 572: 567: 562: 557: 549: 548: 547: 546: 541: 536: 528: 527: 523: 522: 521: 520: 512: 511: 510: 509: 504: 499: 494: 489: 484: 479: 474: 472:Semiparametric 469: 464: 456: 455: 454: 453: 448: 443: 441:Random effects 438: 433: 425: 424: 423: 422: 417: 415:Ordered probit 412: 407: 402: 397: 392: 387: 382: 377: 372: 367: 362: 354: 353: 352: 351: 346: 341: 336: 328: 327: 323: 322: 316: 315: 307: 306: 304: 303: 296: 289: 281: 278: 277: 276: 275: 260: 259: 258: 257: 252: 247: 239: 238: 234: 233: 232: 231: 226: 218: 217: 213: 212: 211: 210: 205: 200: 192: 191: 187: 186: 185: 184: 179: 174: 169: 164: 156: 155: 151: 150: 149: 148: 143: 138: 133: 125: 124: 123:Model building 120: 119: 118: 117: 112: 107: 102: 97: 92: 87: 82: 80:Bayes' theorem 77: 72: 64: 63: 59: 58: 40: 39: 31: 30: 24: 23: 15: 9: 6: 4: 3: 2: 11223: 11212: 11209: 11207: 11204: 11203: 11201: 11186: 11185: 11176: 11174: 11173: 11164: 11162: 11161: 11156: 11150: 11148: 11147: 11138: 11137: 11134: 11120: 11117: 11115: 11114:Geostatistics 11112: 11110: 11107: 11105: 11102: 11100: 11097: 11096: 11094: 11092: 11088: 11082: 11081:Psychometrics 11079: 11077: 11074: 11072: 11069: 11067: 11064: 11062: 11059: 11057: 11054: 11052: 11049: 11047: 11044: 11042: 11039: 11037: 11034: 11033: 11031: 11029: 11025: 11019: 11016: 11014: 11011: 11009: 11005: 11002: 11000: 10997: 10995: 10992: 10990: 10987: 10986: 10984: 10982: 10978: 10972: 10969: 10967: 10964: 10962: 10958: 10955: 10953: 10950: 10949: 10947: 10945: 10944:Biostatistics 10941: 10937: 10933: 10928: 10924: 10906: 10905:Log-rank test 10903: 10902: 10900: 10896: 10890: 10887: 10886: 10884: 10882: 10878: 10872: 10869: 10867: 10864: 10862: 10859: 10857: 10854: 10853: 10851: 10849: 10845: 10842: 10840: 10836: 10826: 10823: 10821: 10818: 10816: 10813: 10811: 10808: 10806: 10803: 10802: 10800: 10798: 10794: 10788: 10785: 10783: 10780: 10778: 10776:(Box–Jenkins) 10772: 10770: 10767: 10765: 10762: 10758: 10755: 10754: 10753: 10750: 10749: 10747: 10745: 10741: 10735: 10732: 10730: 10729:Durbin–Watson 10727: 10725: 10719: 10717: 10714: 10712: 10711:Dickey–Fuller 10709: 10708: 10706: 10702: 10696: 10693: 10691: 10688: 10686: 10685:Cointegration 10683: 10681: 10678: 10676: 10673: 10671: 10668: 10666: 10663: 10661: 10660:Decomposition 10658: 10657: 10655: 10651: 10648: 10646: 10642: 10632: 10629: 10628: 10627: 10624: 10623: 10622: 10619: 10615: 10612: 10611: 10610: 10607: 10605: 10602: 10600: 10597: 10595: 10592: 10590: 10587: 10585: 10582: 10580: 10577: 10575: 10572: 10571: 10569: 10567: 10563: 10557: 10554: 10552: 10549: 10547: 10544: 10542: 10539: 10537: 10534: 10532: 10531:Cohen's kappa 10529: 10528: 10526: 10524: 10520: 10516: 10512: 10508: 10504: 10500: 10495: 10491: 10477: 10474: 10472: 10469: 10467: 10464: 10462: 10459: 10458: 10456: 10454: 10450: 10444: 10440: 10436: 10430: 10428: 10425: 10424: 10422: 10420: 10416: 10410: 10407: 10405: 10402: 10400: 10397: 10395: 10392: 10390: 10387: 10385: 10384:Nonparametric 10382: 10380: 10377: 10376: 10374: 10370: 10364: 10361: 10359: 10356: 10354: 10351: 10349: 10346: 10345: 10343: 10341: 10337: 10331: 10328: 10326: 10323: 10321: 10318: 10316: 10313: 10311: 10308: 10307: 10305: 10303: 10299: 10293: 10290: 10288: 10285: 10283: 10280: 10278: 10275: 10274: 10272: 10270: 10266: 10262: 10255: 10252: 10250: 10247: 10246: 10242: 10238: 10222: 10219: 10218: 10217: 10214: 10212: 10209: 10207: 10204: 10200: 10197: 10195: 10192: 10191: 10190: 10187: 10186: 10184: 10182: 10178: 10168: 10165: 10161: 10155: 10153: 10147: 10145: 10139: 10138: 10137: 10134: 10133:Nonparametric 10131: 10129: 10123: 10119: 10116: 10115: 10114: 10108: 10104: 10103:Sample median 10101: 10100: 10099: 10096: 10095: 10093: 10091: 10087: 10079: 10076: 10074: 10071: 10069: 10066: 10065: 10064: 10061: 10059: 10056: 10054: 10048: 10046: 10043: 10041: 10038: 10036: 10033: 10031: 10028: 10026: 10024: 10020: 10018: 10015: 10014: 10012: 10010: 10006: 10000: 9998: 9994: 9992: 9990: 9985: 9983: 9978: 9974: 9973: 9970: 9967: 9965: 9961: 9951: 9948: 9946: 9943: 9941: 9938: 9937: 9935: 9933: 9929: 9923: 9920: 9916: 9913: 9912: 9911: 9908: 9904: 9901: 9900: 9899: 9896: 9894: 9891: 9890: 9888: 9886: 9882: 9874: 9871: 9869: 9866: 9865: 9864: 9861: 9859: 9856: 9854: 9851: 9849: 9846: 9844: 9841: 9839: 9836: 9835: 9833: 9831: 9827: 9821: 9818: 9814: 9811: 9807: 9804: 9802: 9799: 9798: 9797: 9794: 9793: 9792: 9789: 9785: 9782: 9780: 9777: 9775: 9772: 9770: 9767: 9766: 9765: 9762: 9761: 9759: 9757: 9753: 9750: 9748: 9744: 9738: 9735: 9733: 9730: 9726: 9723: 9722: 9721: 9718: 9716: 9713: 9709: 9708:loss function 9706: 9705: 9704: 9701: 9697: 9694: 9692: 9689: 9687: 9684: 9683: 9682: 9679: 9677: 9674: 9672: 9669: 9665: 9662: 9660: 9657: 9655: 9649: 9646: 9645: 9644: 9641: 9637: 9634: 9632: 9629: 9627: 9624: 9623: 9622: 9619: 9615: 9612: 9610: 9607: 9606: 9605: 9602: 9598: 9595: 9594: 9593: 9590: 9586: 9583: 9582: 9581: 9578: 9576: 9573: 9571: 9568: 9566: 9563: 9562: 9560: 9558: 9554: 9550: 9546: 9541: 9537: 9523: 9520: 9518: 9515: 9513: 9510: 9508: 9505: 9504: 9502: 9500: 9496: 9490: 9487: 9485: 9482: 9480: 9477: 9476: 9474: 9470: 9464: 9461: 9459: 9456: 9454: 9451: 9449: 9446: 9444: 9441: 9439: 9436: 9434: 9431: 9430: 9428: 9426: 9422: 9416: 9413: 9411: 9410:Questionnaire 9408: 9406: 9403: 9399: 9396: 9394: 9391: 9390: 9389: 9386: 9385: 9383: 9381: 9377: 9371: 9368: 9366: 9363: 9361: 9358: 9356: 9353: 9351: 9348: 9346: 9343: 9341: 9338: 9336: 9333: 9332: 9330: 9328: 9324: 9320: 9316: 9311: 9307: 9293: 9290: 9288: 9285: 9283: 9280: 9278: 9275: 9273: 9270: 9268: 9265: 9263: 9260: 9258: 9255: 9253: 9250: 9248: 9245: 9243: 9240: 9238: 9237:Control chart 9235: 9233: 9230: 9228: 9225: 9223: 9220: 9219: 9217: 9215: 9211: 9205: 9202: 9198: 9195: 9193: 9190: 9189: 9188: 9185: 9183: 9180: 9178: 9175: 9174: 9172: 9170: 9166: 9160: 9157: 9155: 9152: 9150: 9147: 9146: 9144: 9140: 9134: 9131: 9130: 9128: 9126: 9122: 9110: 9107: 9105: 9102: 9100: 9097: 9096: 9095: 9092: 9090: 9087: 9086: 9084: 9082: 9078: 9072: 9069: 9067: 9064: 9062: 9059: 9057: 9054: 9052: 9049: 9047: 9044: 9042: 9039: 9038: 9036: 9034: 9030: 9024: 9021: 9019: 9016: 9012: 9009: 9007: 9004: 9002: 8999: 8997: 8994: 8992: 8989: 8987: 8984: 8982: 8979: 8977: 8974: 8972: 8969: 8967: 8964: 8963: 8962: 8959: 8958: 8956: 8954: 8950: 8947: 8945: 8941: 8937: 8933: 8928: 8924: 8918: 8915: 8913: 8910: 8909: 8906: 8902: 8895: 8890: 8888: 8883: 8881: 8876: 8875: 8872: 8860: 8857: 8855: 8852: 8850: 8845: 8840: 8838: 8835: 8833: 8830: 8829: 8826: 8820: 8817: 8815: 8812: 8810: 8807: 8805: 8802: 8800: 8799:Curve fitting 8797: 8796: 8794: 8790: 8784: 8781: 8779: 8776: 8774: 8771: 8769: 8766: 8764: 8761: 8759: 8756: 8754: 8751: 8750: 8748: 8746: 8745:approximation 8743: 8739: 8733: 8730: 8728: 8725: 8723: 8720: 8719: 8717: 8715: 8711: 8705: 8702: 8700: 8697: 8695: 8692: 8690: 8687: 8685: 8682: 8680: 8677: 8675: 8672: 8671: 8669: 8665: 8659: 8656: 8654: 8651: 8647: 8644: 8642: 8639: 8637: 8636: 8628: 8627: 8626: 8623: 8621: 8618: 8617: 8615: 8611: 8605: 8602: 8600: 8597: 8595: 8592: 8591: 8589: 8587: 8583: 8573: 8570: 8568: 8565: 8563: 8560: 8558: 8555: 8554: 8552: 8548: 8542: 8539: 8537: 8534: 8532: 8529: 8527: 8524: 8522: 8521:Nonparametric 8519: 8517: 8514: 8513: 8511: 8507: 8501: 8498: 8496: 8493: 8491: 8488: 8486: 8483: 8482: 8480: 8476: 8470: 8467: 8465: 8462: 8460: 8457: 8455: 8452: 8450: 8447: 8446: 8444: 8442: 8438: 8435: 8433: 8427: 8421: 8418: 8416: 8413: 8411: 8408: 8406: 8403: 8402: 8400: 8398: 8394: 8388: 8385: 8383: 8380: 8377: 8376:Kendall's tau 8374: 8372: 8368: 8365: 8363: 8360: 8359: 8357: 8355: 8351: 8345: 8342: 8340: 8337: 8335: 8332: 8330: 8329:Least squares 8327: 8326: 8324: 8322: 8318: 8314: 8310: 8309:Least squares 8303: 8298: 8296: 8291: 8289: 8284: 8283: 8280: 8273: 8269: 8266: 8265: 8255: 8253:0-340-52922-9 8249: 8245: 8240: 8236: 8230: 8226: 8221: 8217: 8211: 8207: 8202: 8198: 8192: 8188: 8184: 8180: 8176: 8170: 8166: 8162: 8158: 8153: 8149: 8147:1-58488-697-8 8143: 8139: 8134: 8130: 8128:0-471-57428-7 8124: 8120: 8116: 8112: 8111:Box, G. E. P. 8108: 8107: 8093: 8084: 8075: 8066: 8057: 8048: 8044: 8030: 8027: 8019: 8009: 8005: 7999: 7998: 7992: 7987: 7978: 7977: 7972: 7969: 7967: 7964: 7962: 7959: 7957: 7954: 7952: 7949: 7947: 7944: 7943: 7937: 7935: 7931: 7926: 7924: 7903: 7900: 7895: 7885: 7882: 7879: 7874: 7858: 7856: 7852: 7848: 7844: 7834: 7832: 7831:Bayes theorem 7810: 7807: 7799: 7791: 7788: 7785: 7774: 7766: 7763: 7760: 7757: 7749: 7741: 7730: 7723: 7715: 7712: 7701: 7695: 7689: 7686: 7675: 7655: 7625: 7600: 7579: 7575: 7558: 7554: 7541: 7532: 7528: 7522: 7518: 7510: 7506: 7500: 7496: 7490: 7478: 7455: 7430: 7426: 7422: 7414: 7411: 7404: 7399: 7393: 7390: 7379: 7359: 7356: 7347: 7340: 7337: 7326: 7319: 7316: 7308: 7300: 7289: 7286: 7283: 7277: 7261: 7241: 7191: 7188: 7185: 7177: 7166: 7158: 7139: 7136: 7125: 7102: 7099: 7091: 7083: 7072: 7064: 7061:, and as the 7060: 7044: 7021: 7018: 7007: 7000: 6990: 6987: 6974: 6966: 6954: 6935: 6925: 6920: 6908: 6889: 6879: 6852: 6849: 6844: 6839: 6835: 6831: 6826: 6822: 6817: 6812: 6809: 6804: 6799: 6795: 6791: 6786: 6782: 6762: 6754: 6742: 6732: 6693: 6690: 6680: 6667: 6662: 6651: 6643: 6633: 6608: 6603: 6588: 6573: 6567: 6563: 6559: 6554: 6550: 6545: 6517: 6511: 6508: 6503: 6491: 6487: 6483: 6478: 6467: 6439: 6428: 6420: 6415: 6411: 6404: 6393: 6385: 6380: 6376: 6372: 6361: 6358: 6347: 6339: 6334: 6330: 6326: 6315: 6306: 6293: 6289: 6280: 6276: 6272: 6265: 6253: 6234: 6224: 6219: 6204: 6194: 6160: 6150: 6128: 6123: 6119: 6115: 6109: 6105: 6101: 6098: 6093: 6090: 6085: 6079: 6075: 6071: 6068: 6065: 6059: 6049: 6045: 6037: 6028: 6018: 6002: 5992: 5953: 5943: 5927: 5922: 5917: 5913: 5908: 5904: 5900: 5897: 5892: 5888: 5884: 5881: 5871: 5867: 5860: 5849: 5841: 5836: 5832: 5828: 5817: 5809: 5807: 5803: 5798: 5785: 5780: 5768: 5749: 5739: 5734: 5719: 5709: 5675: 5665: 5643: 5635: 5625: 5609: 5599: 5560: 5550: 5539: 5531: 5521: 5508: 5484: 5474: 5463: 5447: 5414: 5398: 5382: 5372: 5359: 5341: 5325: 5312: 5304: 5292: 5282: 5243: 5240: 5230: 5220: 5195: 5190: 5175: 5160: 5131: 5051: 5035: 5017: 5009: 5005: 4999: 4995: 4989: 4985: 4981: 4978: 4970: 4967: 4962: 4958: 4951: 4941: 4937: 4929: 4920: 4910: 4897: 4873: 4863: 4847: 4843: 4839: 4835: 4830: 4826: 4822: 4819: 4814: 4810: 4806: 4803: 4793: 4789: 4781: 4764: 4731: 4715: 4710: 4705: 4701: 4696: 4692: 4688: 4685: 4680: 4676: 4672: 4669: 4659: 4655: 4648: 4646: 4633: 4629: 4622: 4614: 4610: 4606: 4595: 4587: 4583: 4579: 4571: 4563: 4552: 4549: 4547: 4534: 4526: 4521: 4517: 4513: 4502: 4490: 4482: 4469: 4465: 4459: 4456: 4451: 4439: 4435: 4431: 4426: 4415: 4399: 4394: 4381: 4377: 4368: 4358: 4345: 4321: 4311: 4295: 4291: 4287: 4283: 4278: 4274: 4270: 4267: 4262: 4258: 4254: 4251: 4241: 4237: 4230: 4222: 4218: 4214: 4203: 4195: 4193: 4172: 4168: 4151: 4142: 4129: 4121: 4116: 4112: 4108: 4103: 4099: 4090: 4086: 4072: 4054: 4050: 4029: 4007: 4002: 3998: 3975: 3971: 3948: 3943: 3939: 3933: 3929: 3922: 3919: 3913: 3908: 3904: 3880: 3875: 3871: 3864: 3859: 3855: 3829: 3825: 3821: 3816: 3812: 3795: 3790: 3777: 3773: 3764: 3760: 3756: 3749: 3744: 3740: 3734: 3730: 3723: 3719: 3715: 3712: 3707: 3704: 3699: 3694: 3690: 3684: 3674: 3670: 3663: 3655: 3651: 3644: 3637: 3616: 3612: 3605: 3585: 3577: 3573: 3569: 3558: 3550: 3546: 3539: 3536: 3528: 3524: 3520: 3509: 3500: 3486: 3466: 3463: 3460: 3457: 3454: 3451: 3421: 3381: 3370: 3365: 3361: 3357: 3337: 3333: 3314: 3254: 3238: 3233: 3228: 3224: 3219: 3215: 3211: 3208: 3201: 3197: 3194: 3191: 3185: 3175: 3171: 3163: 3154: 3149: 3144: 3137: 3133: 3129: 3123: 3119: 3115: 3112: 3105: 3102: 3097: 3087: 3083: 3076: 3068: 3064: 3060: 3052: 3031: 3022: 3005: 2986: 2926: 2915: 2892: 2852: 2841: 2839: 2829: 2823: 2817: 2793: 2760: 2737: 2730: 2712: 2652: 2641: 2618: 2578: 2567: 2565: 2541: 2518: 2495: 2456: 2433: 2410: 2396: 2394: 2376: 2343: 2323: 2294: 2244: 2214: 2193: 2189: 2185: 2174: 2165: 2163: 2159: 2144: 2105: 2102: 2091: 2083: 2079: 2075: 2072: 2069: 2059: 2048: 2006: 1983: 1980: 1975: 1971: 1967: 1964: 1958: 1935: 1932: 1927: 1923: 1919: 1911: 1903: 1892: 1795: 1793: 1777: 1747: 1744:to yield the 1743: 1742:Bayes theorem 1739: 1735: 1709: 1704: 1676: 1672: 1667: 1661: 1657: 1633: 1582: 1567: 1566:design matrix 1552: 1549: 1546: 1515: 1481: 1478: 1448: 1428: 1424: 1419: 1406: 1402: 1385: 1352: 1336: 1332: 1328: 1324: 1319: 1315: 1311: 1308: 1303: 1299: 1295: 1292: 1282: 1278: 1271: 1263: 1259: 1255: 1247: 1239: 1228: 1220: 1218: 1213: 1200: 1192: 1188: 1184: 1181: 1175: 1172: 1167: 1163: 1154: 1151: 1133: 1129: 1108: 1105: 1102: 1071: 1058: 1053: 1049: 1045: 1028: 1018: 1013: 1009: 986: 959: 956: 953: 931: 927: 918: 902: 899: 896: 893: 890: 887: 884: 876: 866: 864: 860: 856: 840: 820: 812: 796: 788: 787: 770: 762: 758: 757:out-of-sample 754: 750: 746: 742: 739:is a type of 738: 732: 720: 715: 713: 708: 706: 701: 700: 698: 697: 692: 687: 682: 681: 680: 679: 674: 671: 669: 666: 664: 661: 659: 656: 654: 651: 649: 646: 645: 644: 643: 639: 638: 633: 630: 628: 625: 623: 620: 618: 615: 613: 610: 609: 608: 607: 602: 599: 597: 594: 592: 589: 587: 584: 582: 579: 578: 577: 576: 571: 568: 566: 563: 561: 558: 556: 553: 552: 551: 550: 545: 542: 540: 537: 535: 534:Least squares 532: 531: 530: 529: 525: 524: 519: 516: 515: 514: 513: 508: 505: 503: 500: 498: 495: 493: 490: 488: 485: 483: 480: 478: 475: 473: 470: 468: 467:Nonparametric 465: 463: 460: 459: 458: 457: 452: 449: 447: 444: 442: 439: 437: 436:Fixed effects 434: 432: 429: 428: 427: 426: 421: 418: 416: 413: 411: 410:Ordered logit 408: 406: 403: 401: 398: 396: 393: 391: 388: 386: 383: 381: 378: 376: 373: 371: 368: 366: 363: 361: 358: 357: 356: 355: 350: 347: 345: 342: 340: 337: 335: 332: 331: 330: 329: 325: 324: 321: 318: 317: 313: 312: 302: 297: 295: 290: 288: 283: 282: 280: 279: 274: 269: 264: 263: 262: 261: 256: 253: 251: 248: 246: 243: 242: 241: 240: 236: 235: 230: 227: 225: 222: 221: 220: 219: 215: 214: 209: 206: 204: 201: 199: 196: 195: 194: 193: 189: 188: 183: 180: 178: 175: 173: 170: 168: 165: 163: 160: 159: 158: 157: 153: 152: 147: 144: 142: 139: 137: 134: 132: 129: 128: 127: 126: 122: 121: 116: 113: 111: 108: 106: 103: 101: 98: 96: 95:Cox's theorem 93: 91: 88: 86: 83: 81: 78: 76: 73: 71: 68: 67: 66: 65: 61: 60: 57: 53: 49: 45: 42: 41: 37: 33: 32: 29: 26: 25: 21: 20: 11182: 11170: 11151: 11144: 11056:Econometrics 11006: / 10989:Chemometrics 10966:Epidemiology 10959: / 10932:Applications 10774:ARIMA model 10721:Q-statistic 10670:Stationarity 10566:Multivariate 10509: / 10505: / 10503:Multivariate 10501: / 10441: / 10437: / 10362: 10211:Bayes factor 10110:Signed rank 10022: 9996: 9988: 9976: 9671:Completeness 9507:Cohort study 9405:Opinion poll 9340:Missing data 9327:Study design 9282:Scatter plot 9204:Scatter plot 9197:Spearman's ρ 9159:Grouped data 8792:Applications 8631: 8509:Non-standard 8243: 8224: 8205: 8186: 8156: 8137: 8118: 8092: 8083: 8074: 8065: 8056: 8047: 8022: 8013: 7994: 7927: 7859: 7840: 7622:denotes the 7601: 7062: 6996: 6988: 6589: 6307: 5810: 5799: 5399: 5326: 5176: 5036: 4491: 4488: 4395: 4196: 4143: 3791: 3501: 3023: 2324: 2166: 2155: 1796: 1791: 1705: 1516: 1420: 1221: 1214: 1072: 872: 810: 784: 753:distribution 736: 735: 621: 591:Non-negative 245:Bayes factor 135: 11184:WikiProject 11099:Cartography 11061:Jurimetrics 11013:Reliability 10744:Time domain 10723:(Ljung–Box) 10645:Time-series 10523:Categorical 10507:Time-series 10499:Categorical 10434:(Bernoulli) 10269:Correlation 10249:Correlation 10045:Jarque–Bera 10017:Chi-squared 9779:M-estimator 9732:Asymptotics 9676:Sufficiency 9443:Interaction 9355:Replication 9335:Effect size 9292:Violin plot 9272:Radar chart 9252:Forest plot 9242:Correlogram 9192:Kendall's τ 8115:Tiao, G. C. 8016:August 2011 8008:introducing 7837:Other cases 1708:frequentist 869:Model setup 813:, in which 601:Regularized 565:Generalized 497:Least angle 395:Mixed logit 11200:Categories 11051:Demography 10769:ARMA model 10574:Regression 10151:(Friedman) 10112:(Wilcoxon) 10050:Normality 10040:Lilliefors 9987:Student's 9863:Resampling 9737:Robustness 9725:divergence 9715:Efficiency 9653:(monotone) 9648:Likelihood 9565:Population 9398:Stratified 9350:Population 9169:Dependence 9125:Count data 9056:Percentile 9033:Dispersion 8966:Arithmetic 8901:Statistics 8667:Background 8630:Mallows's 8234:0470863676 8104:References 7991:references 7921:is called 4082:Scale-inv- 1732:. In the 1706:This is a 761:regressand 640:Background 544:Non-linear 526:Estimation 190:Estimators 62:Background 48:Likelihood 10432:Logistic 10199:posterior 10125:Rank sum 9873:Jackknife 9868:Bootstrap 9686:Bootstrap 9621:Parameter 9570:Statistic 9365:Statistic 9277:Run chart 9262:Pie chart 9257:Histogram 9247:Fan chart 9222:Bar chart 9104:L-moments 8991:Geometric 8742:Numerical 8121:. Wiley. 7891:Λ 7870:μ 7792:∣ 7789:σ 7782:β 7761:σ 7754:β 7742:∣ 7716:σ 7709:β 7687:∣ 7656:σ 7635:β 7610:Γ 7569:Γ 7548:Γ 7542:⋅ 7491:⋅ 7474:Λ 7451:Λ 7415:π 7391:∣ 7360:σ 7352:β 7341:σ 7334:β 7320:σ 7313:β 7301:∣ 7287:∫ 7242:σ 7221:β 7192:∣ 7189:σ 7182:β 7140:σ 7133:β 7103:σ 7096:β 7084:∣ 7019:∣ 6962:μ 6950:Λ 6931:μ 6926:− 6916:μ 6904:Λ 6885:μ 6750:μ 6738:Λ 6727:^ 6724:β 6691:− 6676:Λ 6658:μ 6639:Λ 6599:Λ 6541:Inv-Gamma 6509:− 6499:Λ 6488:σ 6474:μ 6421:∣ 6412:σ 6405:ρ 6377:σ 6373:∣ 6369:β 6362:ρ 6359:∝ 6340:∣ 6331:σ 6323:β 6316:ρ 6277:σ 6261:μ 6249:Λ 6230:μ 6215:μ 6200:Λ 6156:μ 6151:− 6110:− 6102:⁡ 6091:− 6060:− 6046:σ 6024:μ 6019:− 6015:β 5998:Λ 5949:μ 5944:− 5940:β 5923:σ 5909:− 5901:⁡ 5882:− 5868:σ 5861:∝ 5842:∣ 5833:σ 5825:β 5818:ρ 5804:times an 5776:μ 5764:Λ 5745:μ 5730:μ 5715:Λ 5671:μ 5666:− 5631:μ 5626:− 5622:β 5605:Λ 5556:μ 5551:− 5547:β 5527:μ 5522:− 5518:β 5504:Λ 5480:μ 5475:− 5471:β 5457:β 5448:− 5424:β 5415:− 5378:μ 5373:− 5369:β 5337:μ 5300:μ 5288:Λ 5277:^ 5274:β 5241:− 5226:Λ 5186:μ 5156:Λ 5127:μ 5102:^ 5099:β 5075:β 5047:μ 5006:σ 4990:− 4982:⁡ 4952:− 4938:σ 4916:μ 4911:− 4907:β 4893:Λ 4869:μ 4864:− 4860:β 4844:σ 4831:− 4823:⁡ 4804:− 4790:σ 4774:β 4765:− 4741:β 4732:− 4711:σ 4697:− 4689:⁡ 4670:− 4656:σ 4649:∝ 4630:σ 4623:ρ 4611:σ 4607:∣ 4603:β 4596:ρ 4584:σ 4576:β 4564:∣ 4553:ρ 4550:∝ 4527:∣ 4518:σ 4510:β 4503:ρ 4457:− 4447:Λ 4436:σ 4422:μ 4364:μ 4359:− 4355:β 4341:Λ 4317:μ 4312:− 4308:β 4292:σ 4279:− 4271:⁡ 4252:− 4238:σ 4231:∝ 4219:σ 4215:∣ 4211:β 4204:ρ 4169:σ 4159:β 4152:ρ 4087:χ 3805:Inv-Gamma 3761:σ 3724:− 3716:⁡ 3705:− 3685:− 3671:σ 3664:∝ 3652:σ 3645:ρ 3613:σ 3606:ρ 3574:σ 3570:∣ 3566:β 3559:ρ 3547:σ 3540:ρ 3525:σ 3517:β 3510:ρ 3461:− 3436:^ 3433:β 3422:− 3396:^ 3393:β 3382:− 3324:^ 3321:β 3315:− 3311:β 3264:^ 3261:β 3255:− 3251:β 3234:σ 3220:− 3212:⁡ 3195:− 3186:− 3172:σ 3150:σ 3124:− 3116:⁡ 3098:− 3084:σ 3077:∝ 3065:σ 3057:β 3032:ρ 2996:^ 2993:β 2987:− 2983:β 2936:^ 2933:β 2927:− 2923:β 2907:^ 2904:β 2893:− 2867:^ 2864:β 2853:− 2818:⏟ 2808:^ 2805:β 2794:− 2770:β 2761:− 2755:^ 2752:β 2722:^ 2719:β 2713:− 2709:β 2662:^ 2659:β 2653:− 2649:β 2633:^ 2630:β 2619:− 2593:^ 2590:β 2579:− 2551:β 2542:− 2536:^ 2533:β 2510:^ 2507:β 2496:− 2466:β 2457:− 2451:^ 2448:β 2425:^ 2422:β 2411:− 2386:β 2377:− 2353:β 2344:− 2322:. Write 2304:^ 2301:β 2295:− 2291:β 2266:β 2245:σ 2224:β 2213:conjugate 2190:σ 2182:β 2175:ρ 2106:γ 2103:∣ 2092:ρ 2080:σ 2073:β 2060:∣ 2049:ρ 2007:γ 1984:γ 1972:σ 1965:β 1959:ρ 1936:γ 1924:σ 1916:β 1912:∣ 1893:ρ 1778:σ 1757:β 1719:β 1668:⋯ 1550:× 1479:− 1443:^ 1440:β 1395:β 1386:− 1362:β 1353:− 1333:σ 1320:− 1312:⁡ 1293:− 1279:σ 1272:∝ 1260:σ 1252:β 1240:∣ 1229:ρ 1189:σ 1173:∼ 1164:ε 1130:ε 1106:× 1082:β 1050:ε 1042:β 957:× 897:… 507:Segmented 90:Coherence 44:Posterior 11146:Category 10839:Survival 10716:Johansen 10439:Binomial 10394:Isotonic 9981:(normal) 9626:location 9433:Blocking 9388:Sampling 9267:Q–Q plot 9232:Box plot 9214:Graphics 9109:Skewness 9099:Kurtosis 9071:Variance 9001:Heronian 8996:Harmonic 8572:Logistic 8562:Binomial 8541:Isotonic 8536:Quantile 8117:(1973). 7940:See also 2167:A prior 1999:, where 1792:a priori 1734:Bayesian 1646:-vector 946:given a 855:Gaussian 622:Bayesian 560:Weighted 555:Ordinary 487:Isotonic 482:Quantile 56:Evidence 11172:Commons 11119:Kriging 11004:Process 10961:studies 10820:Wavelet 10653:General 9820:Plug-in 9614:L space 9393:Cluster 9094:Moments 8912:Outline 8567:Poisson 8004:improve 1539:is the 581:Partial 420:Poisson 11041:Census 10631:Normal 10579:Manova 10399:Robust 10149:2-way 10141:1-way 9979:-test 9650:  9227:Biplot 9018:Median 9011:Lehmer 8953:Center 8531:Robust 8250:  8231:  8212:  8193:  8171:  8144:  8125:  7993:, but 7932:: see 3634:is an 3598:where 3479:where 3350:where 2827:  1604:; and 1517:where 1073:where 833:given 539:Linear 477:Robust 400:Probit 326:Models 10665:Trend 10194:prior 10136:anova 10025:-test 9999:-test 9991:-test 9898:Power 9843:Pivot 9636:shape 9631:scale 9081:Shape 9061:Range 9006:Heinz 8981:Cubic 8917:Index 8039:Notes 7602:Here 4190:is a 3963:with 1095:is a 586:Total 502:Local 52:Prior 10898:Test 10098:Sign 9950:Wald 9023:Mode 8961:Mean 8311:and 8248:ISBN 8229:ISBN 8210:ISBN 8191:ISBN 8169:ISBN 8142:ISBN 8123:ISBN 7851:INLA 7648:and 7234:and 6997:The 6532:and 4042:and 3990:and 3896:and 2237:and 1819:and 1770:and 1421:The 1148:are 10078:BIC 10073:AIC 8646:BIC 8641:AIC 8161:doi 7853:or 7466:det 7443:det 6099:exp 5898:exp 5360:in 4979:exp 4820:exp 4686:exp 4268:exp 3713:exp 3209:exp 3113:exp 2211:is 1309:exp 919:of 11202:: 8167:. 8113:; 7936:. 7925:. 7857:. 7849:, 7668:. 7254:. 5808:: 5397:. 4194:, 4073:, 1794:. 1703:. 1429:: 1219:: 1001:: 783:) 54:Ă· 50:× 46:= 10023:G 9997:F 9989:t 9977:Z 9696:V 9691:U 8893:e 8886:t 8879:v 8634:p 8632:C 8378:) 8369:( 8301:e 8294:t 8287:v 8274:. 8272:R 8256:. 8237:. 8218:. 8199:. 8177:. 8163:: 8150:. 8131:. 8029:) 8023:( 8018:) 8014:( 8000:. 7908:I 7904:c 7901:= 7896:0 7886:, 7883:0 7880:= 7875:0 7814:) 7811:m 7808:, 7804:X 7800:, 7796:y 7786:, 7778:( 7775:p 7770:) 7767:m 7764:, 7758:, 7750:, 7746:X 7738:y 7734:( 7731:p 7727:) 7724:m 7720:| 7713:, 7705:( 7702:p 7696:= 7693:) 7690:m 7683:y 7679:( 7676:p 7585:) 7580:0 7576:a 7572:( 7564:) 7559:n 7555:a 7551:( 7533:n 7529:a 7523:n 7519:b 7511:0 7507:a 7501:0 7497:b 7484:) 7479:n 7469:( 7461:) 7456:0 7446:( 7431:2 7427:/ 7423:n 7419:) 7412:2 7409:( 7405:1 7400:= 7397:) 7394:m 7387:y 7383:( 7380:p 7357:d 7348:d 7344:) 7338:, 7330:( 7327:p 7323:) 7317:, 7309:, 7305:X 7297:y 7293:( 7290:p 7284:= 7281:) 7278:m 7274:| 7269:y 7265:( 7262:p 7200:) 7196:X 7186:, 7178:, 7174:y 7170:( 7167:p 7143:) 7137:, 7129:( 7126:p 7106:) 7100:, 7092:, 7088:X 7080:y 7076:( 7073:p 7045:m 7025:) 7022:m 7015:y 7011:( 7008:p 6975:. 6972:) 6967:n 6955:n 6942:T 6936:n 6921:0 6909:0 6896:T 6890:0 6880:+ 6876:y 6869:T 6863:y 6858:( 6853:2 6850:1 6845:+ 6840:0 6836:b 6832:= 6827:n 6823:b 6818:, 6813:2 6810:n 6805:+ 6800:0 6796:a 6792:= 6787:n 6783:a 6763:, 6760:) 6755:0 6743:0 6733:+ 6717:X 6710:T 6704:X 6699:( 6694:1 6687:) 6681:n 6671:( 6668:= 6663:n 6652:, 6649:) 6644:0 6634:+ 6630:X 6623:T 6617:X 6612:( 6609:= 6604:n 6574:) 6568:n 6564:b 6560:, 6555:n 6551:a 6546:( 6518:) 6512:1 6504:n 6492:2 6484:, 6479:n 6468:( 6462:N 6440:, 6437:) 6433:X 6429:, 6425:y 6416:2 6408:( 6402:) 6398:X 6394:, 6390:y 6386:, 6381:2 6365:( 6356:) 6352:X 6348:, 6344:y 6335:2 6327:, 6319:( 6294:. 6290:) 6281:2 6273:2 6266:0 6254:0 6241:T 6235:0 6225:+ 6220:n 6210:) 6205:0 6195:+ 6191:X 6184:T 6178:X 6173:( 6167:T 6161:n 6147:y 6140:T 6134:y 6129:+ 6124:0 6120:b 6116:2 6106:( 6094:1 6086:2 6080:0 6076:a 6072:2 6069:+ 6066:n 6056:) 6050:2 6042:( 6038:) 6034:) 6029:n 6011:( 6008:) 6003:0 5993:+ 5989:X 5982:T 5976:X 5971:( 5965:T 5960:) 5954:n 5936:( 5928:2 5918:2 5914:1 5905:( 5893:2 5889:/ 5885:k 5878:) 5872:2 5864:( 5858:) 5854:X 5850:, 5846:y 5837:2 5829:, 5821:( 5786:. 5781:0 5769:0 5756:T 5750:0 5740:+ 5735:n 5725:) 5720:0 5710:+ 5706:X 5699:T 5693:X 5688:( 5682:T 5676:n 5662:y 5655:T 5649:y 5644:+ 5641:) 5636:n 5618:( 5615:) 5610:0 5600:+ 5596:X 5589:T 5583:X 5578:( 5572:T 5567:) 5561:n 5543:( 5540:= 5537:) 5532:0 5514:( 5509:0 5496:T 5491:) 5485:0 5467:( 5464:+ 5461:) 5452:X 5444:y 5440:( 5434:T 5429:) 5419:X 5411:y 5407:( 5383:n 5342:n 5313:. 5310:) 5305:0 5293:0 5283:+ 5267:X 5260:T 5254:X 5249:( 5244:1 5237:) 5231:0 5221:+ 5217:X 5210:T 5204:X 5199:( 5196:= 5191:n 5161:0 5132:0 5052:n 5018:) 5010:2 5000:0 4996:b 4986:( 4974:) 4971:1 4968:+ 4963:0 4959:a 4955:( 4948:) 4942:2 4934:( 4930:) 4926:) 4921:0 4903:( 4898:0 4885:T 4880:) 4874:0 4856:( 4848:2 4840:2 4836:1 4827:( 4815:2 4811:/ 4807:k 4800:) 4794:2 4786:( 4782:) 4778:) 4769:X 4761:y 4757:( 4751:T 4746:) 4736:X 4728:y 4724:( 4716:2 4706:2 4702:1 4693:( 4681:2 4677:/ 4673:n 4666:) 4660:2 4652:( 4639:) 4634:2 4626:( 4620:) 4615:2 4599:( 4593:) 4588:2 4580:, 4572:, 4568:X 4560:y 4556:( 4543:) 4539:X 4535:, 4531:y 4522:2 4514:, 4506:( 4470:. 4466:) 4460:1 4452:0 4440:2 4432:, 4427:0 4416:( 4410:N 4382:. 4378:) 4374:) 4369:0 4351:( 4346:0 4333:T 4328:) 4322:0 4304:( 4296:2 4288:2 4284:1 4275:( 4263:2 4259:/ 4255:k 4248:) 4242:2 4234:( 4228:) 4223:2 4207:( 4178:) 4173:2 4164:| 4155:( 4130:. 4127:) 4122:2 4117:0 4113:s 4109:, 4104:0 4100:v 4096:( 4091:2 4055:2 4051:s 4030:v 4008:2 4003:0 3999:s 3976:0 3972:v 3949:2 3944:0 3940:s 3934:0 3930:v 3923:2 3920:1 3914:= 3909:0 3905:b 3881:2 3876:0 3872:v 3865:= 3860:0 3856:a 3835:) 3830:0 3826:b 3822:, 3817:0 3813:a 3809:( 3778:. 3774:) 3765:2 3757:2 3750:2 3745:0 3741:s 3735:0 3731:v 3720:( 3708:1 3700:2 3695:0 3691:v 3681:) 3675:2 3667:( 3661:) 3656:2 3648:( 3622:) 3617:2 3609:( 3586:, 3583:) 3578:2 3562:( 3556:) 3551:2 3543:( 3537:= 3534:) 3529:2 3521:, 3513:( 3487:k 3467:, 3464:k 3458:n 3455:= 3452:v 3442:) 3426:X 3418:y 3414:( 3408:T 3403:) 3386:X 3378:y 3374:( 3371:= 3366:2 3362:s 3358:v 3338:, 3334:) 3330:) 3307:( 3304:) 3300:X 3293:T 3287:X 3282:( 3276:T 3271:) 3247:( 3239:2 3229:2 3225:1 3216:( 3202:2 3198:v 3192:n 3182:) 3176:2 3168:( 3164:) 3155:2 3145:2 3138:2 3134:s 3130:v 3120:( 3106:2 3103:v 3094:) 3088:2 3080:( 3074:) 3069:2 3061:, 3053:, 3049:X 3044:| 3039:y 3035:( 3006:. 3002:) 2979:( 2976:) 2972:X 2965:T 2959:X 2954:( 2948:T 2943:) 2919:( 2916:+ 2913:) 2897:X 2889:y 2885:( 2879:T 2874:) 2857:X 2849:y 2845:( 2842:= 2830:0 2824:= 2814:) 2798:X 2790:y 2786:( 2780:T 2775:) 2765:X 2745:X 2741:( 2738:2 2731:+ 2728:) 2705:( 2702:) 2698:X 2691:T 2685:X 2680:( 2674:T 2669:) 2645:( 2642:+ 2639:) 2623:X 2615:y 2611:( 2605:T 2600:) 2583:X 2575:y 2571:( 2568:= 2558:] 2555:) 2546:X 2526:X 2522:( 2519:+ 2516:) 2500:X 2492:y 2488:( 2485:[ 2479:T 2474:] 2470:) 2461:X 2441:X 2437:( 2434:+ 2431:) 2415:X 2407:y 2403:( 2400:[ 2397:= 2390:) 2381:X 2373:y 2369:( 2363:T 2358:) 2348:X 2340:y 2336:( 2310:) 2287:( 2199:) 2194:2 2186:, 2178:( 2130:X 2109:) 2099:X 2095:( 2089:) 2084:2 2076:, 2070:, 2065:X 2056:y 2052:( 2028:X 1987:) 1981:, 1976:2 1968:, 1962:( 1939:) 1933:, 1928:2 1920:, 1908:X 1904:, 1900:y 1896:( 1872:X 1850:y 1828:X 1806:y 1688:T 1683:] 1677:n 1673:y 1662:1 1658:y 1654:[ 1634:n 1613:y 1589:T 1583:i 1578:x 1553:k 1547:n 1526:X 1502:y 1495:T 1489:X 1482:1 1475:) 1470:X 1463:T 1457:X 1452:( 1449:= 1407:. 1403:) 1399:) 1390:X 1382:y 1378:( 1372:T 1367:) 1357:X 1349:y 1345:( 1337:2 1329:2 1325:1 1316:( 1304:2 1300:/ 1296:n 1289:) 1283:2 1275:( 1269:) 1264:2 1256:, 1248:, 1244:X 1236:y 1232:( 1201:. 1198:) 1193:2 1185:, 1182:0 1179:( 1176:N 1168:i 1134:i 1109:1 1103:k 1059:, 1054:i 1046:+ 1035:T 1029:i 1024:x 1019:= 1014:i 1010:y 987:i 982:x 960:1 954:k 932:i 928:y 903:n 900:, 894:, 891:1 888:= 885:i 841:X 821:y 797:X 771:y 733:. 718:e 711:t 704:v 300:e 293:t 286:v

Index

Bayesian statistics

Posterior
Likelihood
Prior
Evidence
Bayesian inference
Bayesian probability
Bayes' theorem
Bernstein–von Mises theorem
Coherence
Cox's theorem
Cromwell's rule
Likelihood principle
Principle of indifference
Principle of maximum entropy
Conjugate prior
Linear regression
Empirical Bayes
Hierarchical model
Markov chain Monte Carlo
Laplace's approximation
Integrated nested Laplace approximations
Variational inference
Approximate Bayesian computation
Bayesian estimator
Credible interval
Maximum a posteriori estimation
Evidence lower bound
Nested sampling

Text is available under the Creative Commons Attribution-ShareAlike License. Additional terms may apply.

↑