Knowledge

Residual sum of squares

Source 📝

2541: 25: 1981: 2536:{\displaystyle {\begin{aligned}\operatorname {RSS} &=\sum _{i=1}^{n}(y_{i}-f(x_{i}))^{2}=\sum _{i=1}^{n}(y_{i}-(ax_{i}+b))^{2}=\sum _{i=1}^{n}(y_{i}-ax_{i}-{\bar {y}}+a{\bar {x}})^{2}\\&=\sum _{i=1}^{n}(a({\bar {x}}-x_{i})-({\bar {y}}-y_{i}))^{2}=a^{2}S_{xx}-2aS_{xy}+S_{yy}=S_{yy}-aS_{xy}=S_{yy}\left(1-{\frac {S_{xy}^{2}}{S_{xx}S_{yy}}}\right)\end{aligned}}} 1588: 751: 1398: 1297: 1382: 578: 1187: 1107: 1876: 290: 2639: 1971: 467: 1986: 2716: 2777: 570: 1760: 1583:{\displaystyle \operatorname {RSS} =y^{\operatorname {T} }y-y^{\operatorname {T} }X(X^{\operatorname {T} }X)^{-1}X^{\operatorname {T} }y=y^{\operatorname {T} }y=y^{\operatorname {T} }y} 1707: 1041: 786: 838: 400: 1195: 912: 746:{\displaystyle \operatorname {RSS} =\sum _{i=1}^{n}({\widehat {\varepsilon \,}}_{i})^{2}=\sum _{i=1}^{n}(y_{i}-({\widehat {\alpha \,}}+{\widehat {\beta \,}}x_{i}))^{2}} 1305: 355: 806: 487: 1650: 995: 959: 858: 507: 1115: 189: 1049: 2797: 161:(deviations predicted from actual empirical values of data). It is a measure of the discrepancy between the data and an estimation model, such as a 1765: 206: 2787: 89: 61: 2549: 1881: 42: 409: 2650: 68: 2721: 75: 2802: 530: 158: 2889: 2857: 536: 108: 57: 2644: 2792: 1712: 46: 1659: 2913: 2817: 1003: 876:
explanators, the first of which is a constant unit vector whose coefficient is the regression intercept, is
759: 811: 2828: 2807: 1292:{\displaystyle {\hat {e}}=y-X{\hat {\beta }}=y-X(X^{\operatorname {T} }X)^{-1}X^{\operatorname {T} }y} 82: 369: 181: 1377:{\displaystyle \operatorname {RSS} ={\hat {e}}^{\operatorname {T} }{\hat {e}}=\|{\hat {e}}\|^{2}} 882: 35: 2908: 974: 185: 324: 791: 472: 1620: 980: 944: 843: 492: 177: 166: 8: 154: 2823: 2812: 1182:{\displaystyle {\hat {\beta }}=(X^{\operatorname {T} }X)^{-1}X^{\operatorname {T} }y.} 2885: 2863: 2853: 162: 1102:{\displaystyle X^{\operatorname {T} }X{\hat {\beta }}=X^{\operatorname {T} }y\iff } 403: 170: 165:. A small RSS indicates a tight fit of the model to the data. It is used as an 2902: 1611: 2867: 16:
Statistical measure of the discrepancy between data and an estimation model
1871:{\displaystyle S_{xy}=\sum _{i=1}^{n}({\bar {x}}-x_{i})({\bar {y}}-y_{i})} 1389: 510: 863: 285:{\displaystyle \operatorname {RSS} =\sum _{i=1}^{n}(y_{i}-f(x_{i}))^{2}} 1599: 522: 122: 2798:
Degrees of freedom (statistics)#Sum of squares and degrees of freedom
1605: 526: 150: 184:+ residual sum of squares. For a proof of this in the multivariate 24: 925:× 1 vector of dependent variable observations, each column of the 200:
In a model with a single explanatory variable, RSS is given by:
2850:
Correlation and regression analysis : a historian's guide
2634:{\displaystyle S_{yy}=\sum _{i=1}^{n}({\bar {y}}-y_{i})^{2}.} 1966:{\displaystyle S_{xx}=\sum _{i=1}^{n}({\bar {x}}-x_{i})^{2}.} 533:. The sum of squares of residuals is the sum of squares of 462:{\displaystyle y_{i}=\alpha +\beta x_{i}+\varepsilon _{i}\,} 2788:
Akaike information criterion#Comparison with least squares
2711:{\displaystyle r={\frac {S_{xy}}{\sqrt {S_{xx}S_{yy}}}};} 2847: 2772:{\displaystyle \operatorname {RSS} =S_{yy}(1-r^{2}).} 2724: 2653: 2552: 1984: 1884: 1768: 1715: 1662: 1623: 1401: 1308: 1198: 1118: 1052: 1006: 983: 947: 885: 864:
Matrix expression for the OLS residual sum of squares
846: 814: 794: 762: 581: 539: 495: 475: 412: 372: 327: 209: 2852:. University of Wisconsin Press. pp. 161–162. 49:. Unsourced material may be challenged and removed. 2771: 2710: 2633: 2535: 1965: 1870: 1754: 1701: 1644: 1606:Relation with Pearson's product-moment correlation 1582: 1376: 1291: 1181: 1101: 1035: 989: 953: 906: 852: 832: 800: 780: 745: 564: 501: 481: 461: 394: 349: 284: 1602:, or the projection matrix in linear regression. 2900: 840:is the estimated value of the slope coefficient 973:× 1 vector of the true underlying errors. The 565:{\displaystyle {\widehat {\varepsilon \,}}_{i}} 1365: 1349: 788:is the estimated value of the constant term 2879: 195: 1755:{\displaystyle a={\frac {S_{xy}}{S_{xx}}}} 1098: 1094: 1032: 1028: 937:is a vector of observations on one of the 822: 770: 712: 694: 620: 548: 458: 109:Learn how and when to remove this message 1702:{\displaystyle b={\bar {y}}-a{\bar {x}}} 1036:{\displaystyle X{\hat {\beta }}=y\iff } 321:value of the explanatory variable, and 308:value of the variable to be predicted, 2901: 965:× 1 vector of true coefficients, and 781:{\displaystyle {\widehat {\alpha \,}}} 2793:Chi-squared distribution#Applications 1299:; so the residual sum of squares is: 833:{\displaystyle {\widehat {\beta \,}}} 190:partitioning in the general OLS model 47:adding citations to reliable sources 18: 13: 2803:Errors and residuals in statistics 2645:Pearson product-moment correlation 1557: 1538: 1512: 1487: 1471: 1445: 1429: 1413: 1329: 1281: 1255: 1168: 1142: 1086: 1058: 868:The general regression model with 529:, respectively, and ε is the 14: 2925: 1388:(equivalent to the square of the 143:sum of squared estimate of errors 2880:Draper, N.R.; Smith, H. (1998). 23: 402:). In a standard linear simple 34:needs additional citations for 2848:Archdeacon, Thomas J. (1994). 2841: 2763: 2744: 2619: 2599: 2590: 2339: 2335: 2316: 2307: 2301: 2282: 2273: 2267: 2227: 2220: 2202: 2164: 2131: 2127: 2105: 2089: 2056: 2052: 2039: 2020: 1951: 1931: 1922: 1865: 1846: 1837: 1834: 1815: 1806: 1693: 1675: 1574: 1562: 1543: 1521: 1504: 1492: 1454: 1437: 1358: 1340: 1322: 1264: 1247: 1229: 1205: 1151: 1134: 1125: 1095: 1072: 1029: 1016: 734: 730: 684: 668: 635: 609: 395:{\displaystyle {\hat {y_{i}}}} 386: 344: 331: 273: 269: 256: 237: 1: 2834: 2818:Reduced chi-squared statistic 1612:least-squares regression line 2884:(3rd ed.). John Wiley. 7: 2882:Applied Regression Analysis 2829:Sum of squares (statistics) 2820:, RSS per degree of freedom 2781: 907:{\displaystyle y=X\beta +e} 169:in parameter selection and 10: 2930: 2808:Lack-of-fit sum of squares 357:is the predicted value of 58:"Residual sum of squares" 1392:of residuals). In full: 350:{\displaystyle f(x_{i})} 196:One explanatory variable 182:explained sum of squares 135:sum of squared residuals 801:{\displaystyle \alpha } 482:{\displaystyle \alpha } 127:residual sum of squares 2773: 2712: 2635: 2589: 2537: 2266: 2163: 2088: 2019: 1967: 1921: 1872: 1805: 1756: 1703: 1646: 1645:{\displaystyle y=ax+b} 1584: 1378: 1293: 1183: 1103: 1037: 991: 990:{\displaystyle \beta } 975:ordinary least squares 955: 954:{\displaystyle \beta } 908: 854: 853:{\displaystyle \beta } 834: 802: 782: 747: 667: 608: 566: 503: 502:{\displaystyle \beta } 483: 463: 396: 351: 286: 236: 186:ordinary least squares 133:), also known as the 2774: 2713: 2636: 2569: 2538: 2246: 2143: 2068: 1999: 1968: 1901: 1873: 1785: 1757: 1704: 1647: 1585: 1379: 1294: 1184: 1104: 1038: 992: 956: 909: 855: 835: 803: 783: 748: 647: 588: 567: 504: 484: 464: 397: 352: 287: 216: 2914:Errors and residuals 2722: 2651: 2550: 1982: 1882: 1766: 1713: 1660: 1621: 1399: 1306: 1196: 1192:The residual vector 1116: 1050: 1004: 981: 945: 883: 844: 812: 792: 760: 579: 537: 493: 473: 410: 370: 325: 207: 178:total sum of squares 167:optimality criterion 43:improve this article 2493: 2824:Squared deviations 2813:Mean squared error 2769: 2708: 2631: 2533: 2531: 2476: 1963: 1868: 1752: 1699: 1642: 1580: 1374: 1289: 1179: 1099: 1033: 987: 951: 904: 850: 830: 798: 778: 743: 562: 499: 479: 459: 392: 347: 282: 2703: 2702: 2602: 2522: 2319: 2285: 2223: 2205: 1934: 1849: 1818: 1750: 1696: 1678: 1361: 1343: 1325: 1232: 1208: 1128: 1075: 1019: 872:observations and 827: 775: 717: 699: 625: 553: 389: 163:linear regression 119: 118: 111: 93: 2921: 2895: 2872: 2871: 2845: 2778: 2776: 2775: 2770: 2762: 2761: 2743: 2742: 2717: 2715: 2714: 2709: 2704: 2701: 2700: 2688: 2687: 2675: 2674: 2673: 2661: 2640: 2638: 2637: 2632: 2627: 2626: 2617: 2616: 2604: 2603: 2595: 2588: 2583: 2565: 2564: 2542: 2540: 2539: 2534: 2532: 2528: 2524: 2523: 2521: 2520: 2519: 2507: 2506: 2492: 2487: 2475: 2462: 2461: 2446: 2445: 2427: 2426: 2411: 2410: 2395: 2394: 2373: 2372: 2360: 2359: 2347: 2346: 2334: 2333: 2321: 2320: 2312: 2300: 2299: 2287: 2286: 2278: 2265: 2260: 2239: 2235: 2234: 2225: 2224: 2216: 2207: 2206: 2198: 2192: 2191: 2176: 2175: 2162: 2157: 2139: 2138: 2120: 2119: 2101: 2100: 2087: 2082: 2064: 2063: 2051: 2050: 2032: 2031: 2018: 2013: 1972: 1970: 1969: 1964: 1959: 1958: 1949: 1948: 1936: 1935: 1927: 1920: 1915: 1897: 1896: 1877: 1875: 1874: 1869: 1864: 1863: 1851: 1850: 1842: 1833: 1832: 1820: 1819: 1811: 1804: 1799: 1781: 1780: 1761: 1759: 1758: 1753: 1751: 1749: 1748: 1736: 1735: 1723: 1708: 1706: 1705: 1700: 1698: 1697: 1689: 1680: 1679: 1671: 1651: 1649: 1648: 1643: 1597: 1589: 1587: 1586: 1581: 1561: 1560: 1542: 1541: 1532: 1531: 1516: 1515: 1491: 1490: 1475: 1474: 1465: 1464: 1449: 1448: 1433: 1432: 1417: 1416: 1383: 1381: 1380: 1375: 1373: 1372: 1363: 1362: 1354: 1345: 1344: 1336: 1333: 1332: 1327: 1326: 1318: 1298: 1296: 1295: 1290: 1285: 1284: 1275: 1274: 1259: 1258: 1234: 1233: 1225: 1210: 1209: 1201: 1188: 1186: 1185: 1180: 1172: 1171: 1162: 1161: 1146: 1145: 1130: 1129: 1121: 1108: 1106: 1105: 1100: 1090: 1089: 1077: 1076: 1068: 1062: 1061: 1042: 1040: 1039: 1034: 1021: 1020: 1012: 996: 994: 993: 988: 968: 960: 958: 957: 952: 936: 920: 913: 911: 910: 905: 875: 871: 859: 857: 856: 851: 839: 837: 836: 831: 829: 828: 823: 817: 807: 805: 804: 799: 787: 785: 784: 779: 777: 776: 771: 765: 752: 750: 749: 744: 742: 741: 729: 728: 719: 718: 713: 707: 701: 700: 695: 689: 680: 679: 666: 661: 643: 642: 633: 632: 627: 626: 621: 615: 607: 602: 571: 569: 568: 563: 561: 560: 555: 554: 549: 543: 508: 506: 505: 500: 488: 486: 485: 480: 468: 466: 465: 460: 457: 456: 444: 443: 422: 421: 404:regression model 401: 399: 398: 393: 391: 390: 385: 384: 375: 356: 354: 353: 348: 343: 342: 291: 289: 288: 283: 281: 280: 268: 267: 249: 248: 235: 230: 188:(OLS) case, see 114: 107: 103: 100: 94: 92: 51: 27: 19: 2929: 2928: 2924: 2923: 2922: 2920: 2919: 2918: 2899: 2898: 2892: 2876: 2875: 2860: 2846: 2842: 2837: 2784: 2757: 2753: 2735: 2731: 2723: 2720: 2719: 2693: 2689: 2680: 2676: 2666: 2662: 2660: 2652: 2649: 2648: 2622: 2618: 2612: 2608: 2594: 2593: 2584: 2573: 2557: 2553: 2551: 2548: 2547: 2530: 2529: 2512: 2508: 2499: 2495: 2494: 2488: 2480: 2474: 2467: 2463: 2454: 2450: 2438: 2434: 2419: 2415: 2403: 2399: 2387: 2383: 2365: 2361: 2355: 2351: 2342: 2338: 2329: 2325: 2311: 2310: 2295: 2291: 2277: 2276: 2261: 2250: 2237: 2236: 2230: 2226: 2215: 2214: 2197: 2196: 2187: 2183: 2171: 2167: 2158: 2147: 2134: 2130: 2115: 2111: 2096: 2092: 2083: 2072: 2059: 2055: 2046: 2042: 2027: 2023: 2014: 2003: 1992: 1985: 1983: 1980: 1979: 1954: 1950: 1944: 1940: 1926: 1925: 1916: 1905: 1889: 1885: 1883: 1880: 1879: 1859: 1855: 1841: 1840: 1828: 1824: 1810: 1809: 1800: 1789: 1773: 1769: 1767: 1764: 1763: 1741: 1737: 1728: 1724: 1722: 1714: 1711: 1710: 1688: 1687: 1670: 1669: 1661: 1658: 1657: 1622: 1619: 1618: 1608: 1595: 1556: 1552: 1537: 1533: 1524: 1520: 1511: 1507: 1486: 1482: 1470: 1466: 1457: 1453: 1444: 1440: 1428: 1424: 1412: 1408: 1400: 1397: 1396: 1368: 1364: 1353: 1352: 1335: 1334: 1328: 1317: 1316: 1315: 1307: 1304: 1303: 1280: 1276: 1267: 1263: 1254: 1250: 1224: 1223: 1200: 1199: 1197: 1194: 1193: 1167: 1163: 1154: 1150: 1141: 1137: 1120: 1119: 1117: 1114: 1113: 1085: 1081: 1067: 1066: 1057: 1053: 1051: 1048: 1047: 1011: 1010: 1005: 1002: 1001: 982: 979: 978: 966: 946: 943: 942: 934: 918: 884: 881: 880: 873: 869: 866: 845: 842: 841: 818: 816: 815: 813: 810: 809: 793: 790: 789: 766: 764: 763: 761: 758: 757: 737: 733: 724: 720: 708: 706: 705: 690: 688: 687: 675: 671: 662: 651: 638: 634: 628: 616: 614: 613: 612: 603: 592: 580: 577: 576: 556: 544: 542: 541: 540: 538: 535: 534: 494: 491: 490: 474: 471: 470: 452: 448: 439: 435: 417: 413: 411: 408: 407: 380: 376: 374: 373: 371: 368: 367: 365: 338: 334: 326: 323: 322: 316: 303: 276: 272: 263: 259: 244: 240: 231: 220: 208: 205: 204: 198: 171:model selection 115: 104: 98: 95: 52: 50: 40: 28: 17: 12: 11: 5: 2927: 2917: 2916: 2911: 2897: 2896: 2890: 2874: 2873: 2858: 2839: 2838: 2836: 2833: 2832: 2831: 2826: 2821: 2815: 2810: 2805: 2800: 2795: 2790: 2783: 2780: 2768: 2765: 2760: 2756: 2752: 2749: 2746: 2741: 2738: 2734: 2730: 2727: 2707: 2699: 2696: 2692: 2686: 2683: 2679: 2672: 2669: 2665: 2659: 2656: 2630: 2625: 2621: 2615: 2611: 2607: 2601: 2598: 2592: 2587: 2582: 2579: 2576: 2572: 2568: 2563: 2560: 2556: 2544: 2543: 2527: 2518: 2515: 2511: 2505: 2502: 2498: 2491: 2486: 2483: 2479: 2473: 2470: 2466: 2460: 2457: 2453: 2449: 2444: 2441: 2437: 2433: 2430: 2425: 2422: 2418: 2414: 2409: 2406: 2402: 2398: 2393: 2390: 2386: 2382: 2379: 2376: 2371: 2368: 2364: 2358: 2354: 2350: 2345: 2341: 2337: 2332: 2328: 2324: 2318: 2315: 2309: 2306: 2303: 2298: 2294: 2290: 2284: 2281: 2275: 2272: 2269: 2264: 2259: 2256: 2253: 2249: 2245: 2242: 2240: 2238: 2233: 2229: 2222: 2219: 2213: 2210: 2204: 2201: 2195: 2190: 2186: 2182: 2179: 2174: 2170: 2166: 2161: 2156: 2153: 2150: 2146: 2142: 2137: 2133: 2129: 2126: 2123: 2118: 2114: 2110: 2107: 2104: 2099: 2095: 2091: 2086: 2081: 2078: 2075: 2071: 2067: 2062: 2058: 2054: 2049: 2045: 2041: 2038: 2035: 2030: 2026: 2022: 2017: 2012: 2009: 2006: 2002: 1998: 1995: 1993: 1991: 1988: 1987: 1962: 1957: 1953: 1947: 1943: 1939: 1933: 1930: 1924: 1919: 1914: 1911: 1908: 1904: 1900: 1895: 1892: 1888: 1867: 1862: 1858: 1854: 1848: 1845: 1839: 1836: 1831: 1827: 1823: 1817: 1814: 1808: 1803: 1798: 1795: 1792: 1788: 1784: 1779: 1776: 1772: 1747: 1744: 1740: 1734: 1731: 1727: 1721: 1718: 1695: 1692: 1686: 1683: 1677: 1674: 1668: 1665: 1654: 1653: 1641: 1638: 1635: 1632: 1629: 1626: 1607: 1604: 1592: 1591: 1579: 1576: 1573: 1570: 1567: 1564: 1559: 1555: 1551: 1548: 1545: 1540: 1536: 1530: 1527: 1523: 1519: 1514: 1510: 1506: 1503: 1500: 1497: 1494: 1489: 1485: 1481: 1478: 1473: 1469: 1463: 1460: 1456: 1452: 1447: 1443: 1439: 1436: 1431: 1427: 1423: 1420: 1415: 1411: 1407: 1404: 1386: 1385: 1371: 1367: 1360: 1357: 1351: 1348: 1342: 1339: 1331: 1324: 1321: 1314: 1311: 1288: 1283: 1279: 1273: 1270: 1266: 1262: 1257: 1253: 1249: 1246: 1243: 1240: 1237: 1231: 1228: 1222: 1219: 1216: 1213: 1207: 1204: 1190: 1189: 1178: 1175: 1170: 1166: 1160: 1157: 1153: 1149: 1144: 1140: 1136: 1133: 1127: 1124: 1110: 1109: 1097: 1093: 1088: 1084: 1080: 1074: 1071: 1065: 1060: 1056: 1044: 1043: 1031: 1027: 1024: 1018: 1015: 1009: 986: 977:estimator for 950: 915: 914: 903: 900: 897: 894: 891: 888: 865: 862: 849: 826: 821: 797: 774: 769: 754: 753: 740: 736: 732: 727: 723: 716: 711: 704: 698: 693: 686: 683: 678: 674: 670: 665: 660: 657: 654: 650: 646: 641: 637: 631: 624: 619: 611: 606: 601: 598: 595: 591: 587: 584: 559: 552: 547: 498: 478: 455: 451: 447: 442: 438: 434: 431: 428: 425: 420: 416: 388: 383: 379: 361: 346: 341: 337: 333: 330: 312: 299: 293: 292: 279: 275: 271: 266: 262: 258: 255: 252: 247: 243: 239: 234: 229: 226: 223: 219: 215: 212: 197: 194: 117: 116: 31: 29: 22: 15: 9: 6: 4: 3: 2: 2926: 2915: 2912: 2910: 2909:Least squares 2907: 2906: 2904: 2893: 2891:0-471-17082-8 2887: 2883: 2878: 2877: 2869: 2865: 2861: 2859:0-299-13650-7 2855: 2851: 2844: 2840: 2830: 2827: 2825: 2822: 2819: 2816: 2814: 2811: 2809: 2806: 2804: 2801: 2799: 2796: 2794: 2791: 2789: 2786: 2785: 2779: 2766: 2758: 2754: 2750: 2747: 2739: 2736: 2732: 2728: 2725: 2705: 2697: 2694: 2690: 2684: 2681: 2677: 2670: 2667: 2663: 2657: 2654: 2646: 2641: 2628: 2623: 2613: 2609: 2605: 2596: 2585: 2580: 2577: 2574: 2570: 2566: 2561: 2558: 2554: 2525: 2516: 2513: 2509: 2503: 2500: 2496: 2489: 2484: 2481: 2477: 2471: 2468: 2464: 2458: 2455: 2451: 2447: 2442: 2439: 2435: 2431: 2428: 2423: 2420: 2416: 2412: 2407: 2404: 2400: 2396: 2391: 2388: 2384: 2380: 2377: 2374: 2369: 2366: 2362: 2356: 2352: 2348: 2343: 2330: 2326: 2322: 2313: 2304: 2296: 2292: 2288: 2279: 2270: 2262: 2257: 2254: 2251: 2247: 2243: 2241: 2231: 2217: 2211: 2208: 2199: 2193: 2188: 2184: 2180: 2177: 2172: 2168: 2159: 2154: 2151: 2148: 2144: 2140: 2135: 2124: 2121: 2116: 2112: 2108: 2102: 2097: 2093: 2084: 2079: 2076: 2073: 2069: 2065: 2060: 2047: 2043: 2036: 2033: 2028: 2024: 2015: 2010: 2007: 2004: 2000: 1996: 1994: 1989: 1978: 1977: 1976: 1973: 1960: 1955: 1945: 1941: 1937: 1928: 1917: 1912: 1909: 1906: 1902: 1898: 1893: 1890: 1886: 1860: 1856: 1852: 1843: 1829: 1825: 1821: 1812: 1801: 1796: 1793: 1790: 1786: 1782: 1777: 1774: 1770: 1745: 1742: 1738: 1732: 1729: 1725: 1719: 1716: 1690: 1684: 1681: 1672: 1666: 1663: 1639: 1636: 1633: 1630: 1627: 1624: 1617: 1616: 1615: 1613: 1603: 1601: 1577: 1571: 1568: 1565: 1553: 1549: 1546: 1534: 1528: 1525: 1517: 1508: 1501: 1498: 1495: 1483: 1479: 1476: 1467: 1461: 1458: 1450: 1441: 1434: 1425: 1421: 1418: 1409: 1405: 1402: 1395: 1394: 1393: 1391: 1369: 1355: 1346: 1337: 1319: 1312: 1309: 1302: 1301: 1300: 1286: 1277: 1271: 1268: 1260: 1251: 1244: 1241: 1238: 1235: 1226: 1220: 1217: 1214: 1211: 1202: 1176: 1173: 1164: 1158: 1155: 1147: 1138: 1131: 1122: 1112: 1111: 1091: 1082: 1078: 1069: 1063: 1054: 1046: 1045: 1025: 1022: 1013: 1007: 1000: 999: 998: 984: 976: 972: 964: 948: 941:explanators, 940: 932: 928: 924: 901: 898: 895: 892: 889: 886: 879: 878: 877: 861: 847: 824: 819: 795: 772: 767: 738: 725: 721: 714: 709: 702: 696: 691: 681: 676: 672: 663: 658: 655: 652: 648: 644: 639: 629: 622: 617: 604: 599: 596: 593: 589: 585: 582: 575: 574: 573: 557: 550: 545: 532: 528: 524: 520: 516: 512: 496: 476: 453: 449: 445: 440: 436: 432: 429: 426: 423: 418: 414: 405: 381: 377: 366:(also termed 364: 360: 339: 335: 328: 320: 315: 311: 307: 302: 298: 277: 264: 260: 253: 250: 245: 241: 232: 227: 224: 221: 217: 213: 210: 203: 202: 201: 193: 191: 187: 183: 179: 174: 172: 168: 164: 160: 156: 152: 148: 144: 140: 136: 132: 128: 124: 113: 110: 102: 91: 88: 84: 81: 77: 74: 70: 67: 63: 60: –  59: 55: 54:Find sources: 48: 44: 38: 37: 32:This article 30: 26: 21: 20: 2881: 2849: 2843: 2647:is given by 2642: 2545: 1974: 1655: 1614:is given by 1609: 1593: 1387: 1191: 970: 962: 938: 930: 926: 922: 916: 867: 755: 518: 514: 511:coefficients 362: 358: 318: 313: 309: 305: 300: 296: 294: 199: 176:In general, 175: 146: 142: 138: 134: 130: 126: 120: 105: 96: 86: 79: 72: 65: 53: 41:Please help 36:verification 33: 2718:therefore, 1975:Therefore, 149:), is the 2903:Categories 2835:References 1600:hat matrix 572:; that is 531:error term 523:regressand 123:statistics 99:April 2013 69:newspapers 2751:− 2606:− 2600:¯ 2571:∑ 2472:− 2429:− 2375:− 2323:− 2317:¯ 2305:− 2289:− 2283:¯ 2248:∑ 2221:¯ 2203:¯ 2194:− 2178:− 2145:∑ 2103:− 2070:∑ 2034:− 2001:∑ 1938:− 1932:¯ 1903:∑ 1853:− 1847:¯ 1822:− 1816:¯ 1787:∑ 1694:¯ 1682:− 1676:¯ 1569:− 1526:− 1499:− 1459:− 1422:− 1366:‖ 1359:^ 1350:‖ 1341:^ 1323:^ 1269:− 1242:− 1230:^ 1227:β 1218:− 1206:^ 1156:− 1126:^ 1123:β 1096:⟺ 1073:^ 1070:β 1030:⟺ 1017:^ 1014:β 985:β 949:β 896:β 848:β 825:^ 820:β 796:α 773:^ 768:α 715:^ 710:β 697:^ 692:α 682:− 649:∑ 623:^ 618:ε 590:∑ 551:^ 546:ε 527:regressor 497:β 477:α 450:ε 433:β 427:α 387:^ 251:− 218:∑ 159:residuals 141:) or the 2868:27266095 2782:See also 1762:, where 525:and the 521:are the 469:, where 1598:is the 933:matrix 317:is the 304:is the 155:squares 153:of the 83:scholar 2888:  2866:  2856:  2546:where 1656:where 1594:where 969:is an 921:is an 917:where 756:where 295:where 125:, the 85:  78:  71:  64:  56:  961:is a 90:JSTOR 76:books 2886:ISBN 2864:OCLC 2854:ISBN 2643:The 1878:and 1709:and 1610:The 1390:norm 808:and 517:and 509:are 489:and 62:news 2726:RSS 1990:RSS 1403:RSS 1310:RSS 997:is 583:RSS 211:RSS 157:of 151:sum 147:SSE 139:SSR 131:RSS 121:In 45:by 2905:: 2862:. 929:× 860:. 513:, 406:, 192:. 180:= 173:. 2894:. 2870:. 2767:. 2764:) 2759:2 2755:r 2748:1 2745:( 2740:y 2737:y 2733:S 2729:= 2706:; 2698:y 2695:y 2691:S 2685:x 2682:x 2678:S 2671:y 2668:x 2664:S 2658:= 2655:r 2629:. 2624:2 2620:) 2614:i 2610:y 2597:y 2591:( 2586:n 2581:1 2578:= 2575:i 2567:= 2562:y 2559:y 2555:S 2526:) 2517:y 2514:y 2510:S 2504:x 2501:x 2497:S 2490:2 2485:y 2482:x 2478:S 2469:1 2465:( 2459:y 2456:y 2452:S 2448:= 2443:y 2440:x 2436:S 2432:a 2424:y 2421:y 2417:S 2413:= 2408:y 2405:y 2401:S 2397:+ 2392:y 2389:x 2385:S 2381:a 2378:2 2370:x 2367:x 2363:S 2357:2 2353:a 2349:= 2344:2 2340:) 2336:) 2331:i 2327:y 2314:y 2308:( 2302:) 2297:i 2293:x 2280:x 2274:( 2271:a 2268:( 2263:n 2258:1 2255:= 2252:i 2244:= 2232:2 2228:) 2218:x 2212:a 2209:+ 2200:y 2189:i 2185:x 2181:a 2173:i 2169:y 2165:( 2160:n 2155:1 2152:= 2149:i 2141:= 2136:2 2132:) 2128:) 2125:b 2122:+ 2117:i 2113:x 2109:a 2106:( 2098:i 2094:y 2090:( 2085:n 2080:1 2077:= 2074:i 2066:= 2061:2 2057:) 2053:) 2048:i 2044:x 2040:( 2037:f 2029:i 2025:y 2021:( 2016:n 2011:1 2008:= 2005:i 1997:= 1961:. 1956:2 1952:) 1946:i 1942:x 1929:x 1923:( 1918:n 1913:1 1910:= 1907:i 1899:= 1894:x 1891:x 1887:S 1866:) 1861:i 1857:y 1844:y 1838:( 1835:) 1830:i 1826:x 1813:x 1807:( 1802:n 1797:1 1794:= 1791:i 1783:= 1778:y 1775:x 1771:S 1746:x 1743:x 1739:S 1733:y 1730:x 1726:S 1720:= 1717:a 1691:x 1685:a 1673:y 1667:= 1664:b 1652:, 1640:b 1637:+ 1634:x 1631:a 1628:= 1625:y 1596:H 1590:, 1578:y 1575:] 1572:H 1566:I 1563:[ 1558:T 1554:y 1550:= 1547:y 1544:] 1539:T 1535:X 1529:1 1522:) 1518:X 1513:T 1509:X 1505:( 1502:X 1496:I 1493:[ 1488:T 1484:y 1480:= 1477:y 1472:T 1468:X 1462:1 1455:) 1451:X 1446:T 1442:X 1438:( 1435:X 1430:T 1426:y 1419:y 1414:T 1410:y 1406:= 1384:, 1370:2 1356:e 1347:= 1338:e 1330:T 1320:e 1313:= 1287:y 1282:T 1278:X 1272:1 1265:) 1261:X 1256:T 1252:X 1248:( 1245:X 1239:y 1236:= 1221:X 1215:y 1212:= 1203:e 1177:. 1174:y 1169:T 1165:X 1159:1 1152:) 1148:X 1143:T 1139:X 1135:( 1132:= 1092:y 1087:T 1083:X 1079:= 1064:X 1059:T 1055:X 1026:y 1023:= 1008:X 971:n 967:e 963:k 939:k 935:X 931:k 927:n 923:n 919:y 902:e 899:+ 893:X 890:= 887:y 874:k 870:n 739:2 735:) 731:) 726:i 722:x 703:+ 685:( 677:i 673:y 669:( 664:n 659:1 656:= 653:i 645:= 640:2 636:) 630:i 610:( 605:n 600:1 597:= 594:i 586:= 558:i 519:x 515:y 454:i 446:+ 441:i 437:x 430:+ 424:= 419:i 415:y 382:i 378:y 363:i 359:y 345:) 340:i 336:x 332:( 329:f 319:i 314:i 310:x 306:i 301:i 297:y 278:2 274:) 270:) 265:i 261:x 257:( 254:f 246:i 242:y 238:( 233:n 228:1 225:= 222:i 214:= 145:( 137:( 129:( 112:) 106:( 101:) 97:( 87:· 80:· 73:· 66:· 39:.

Index


verification
improve this article
adding citations to reliable sources
"Residual sum of squares"
news
newspapers
books
scholar
JSTOR
Learn how and when to remove this message
statistics
sum
squares
residuals
linear regression
optimality criterion
model selection
total sum of squares
explained sum of squares
ordinary least squares
partitioning in the general OLS model
regression model
coefficients
regressand
regressor
error term
ordinary least squares
norm
hat matrix

Text is available under the Creative Commons Attribution-ShareAlike License. Additional terms may apply.