Torkar mjukt program recensioner. Gratis WiperSoft recension. Vad gör WiperSoft

Minsta kvadratiska metod

Minsta kvadratmetod ( MNK, OLS, Vanliga minsta kvadrater) - en av grundläggande metoder regressionsanalys för att uppskatta okända parametrar för regressionsmodeller från provdata. Metoden bygger på att minimera summan av kvadrater av regressionsresidualer.

Det bör noteras att själva minsta kvadratmetoden kan kallas en metod för att lösa ett problem inom vilket område som helst om lösningen består av eller uppfyller ett visst kriterium för att minimera kvadratsumman av vissa funktioner av de okända variablerna. Därför kan minsta kvadratmetoden också användas för en ungefärlig representation (approximation) given funktion andra (enklare) funktioner, när man hittar en uppsättning kvantiteter som uppfyller ekvationer eller begränsningar, vars antal överstiger antalet av dessa kvantiteter, etc.

Kärnan i MNC

Låt någon (parametrisk) modell av probabilistiskt (regression) beroende mellan den (förklarade) variabeln y och många faktorer (förklarande variabler) x

var är vektorn för okända modellparametrar

- Slumpmässigt modellfel.

Låt det också finnas provobservationer av värdena för de angivna variablerna. Låt vara observationsnumret (). Sedan är värdena för variablerna i den -e observationen. Sedan, för givna värden för parametrarna b, är det möjligt att beräkna de teoretiska (modell)värdena för den förklarade variabeln y:

Värdet på residualerna beror på parametrarnas värden b.

Kärnan i LSM (vanlig, klassisk) är att hitta sådana parametrar b för vilka summan av kvadraterna av residualerna (eng. Restsumma av kvadrater) kommer att vara minimal:

I det allmänna fallet kan detta problem lösas med numeriska metoder för optimering (minimering). I det här fallet talar man om olinjära minsta kvadrater(NLS eller NLLS - engelska. Icke linjära minsta kvadrater). I många fall kan du få analytisk lösning. För att lösa minimeringsproblemet är det nödvändigt att hitta funktionens stationära punkter genom att differentiera den med avseende på okända parametrar b, likställa derivatorna till noll och lösa det resulterande ekvationssystemet:

Om modellens slumpmässiga fel är normalfördelade, har samma varians och inte är korrelerade med varandra, är minsta desamma som uppskattningarna av maximal sannolikhetsmetoden (MLM).

LSM vid linjär modell

Låt regressionsberoendet vara linjärt:

Låt vara y- kolumnvektor för observationer av den förklarade variabeln, och - matris av observationer av faktorer (rader i matrisen - vektorer av faktorvärden i en given observation, efter kolumner - vektor av värden för en given faktor i alla observationer) . Matrisrepresentationen av den linjära modellen har formen:

Då kommer uppskattningsvektorn för den förklarade variabeln och vektorn för regressionsresterna att vara lika med

följaktligen kommer summan av kvadraterna av regressionsresterna att vara lika med

Genom att differentiera denna funktion med avseende på parametervektorn och likställa derivatorna till noll, får vi ett ekvationssystem (i matrisform):

.

Lösningen av detta ekvationssystem ger allmän formel OLS-uppskattningar för en linjär modell:

För analytiska ändamål visar sig den sista representationen av denna formel vara användbar. Om uppgifterna i regressionsmodellen centrerad, i denna representation har den första matrisen betydelsen av en samvariationsmatris av faktorer, och den andra är vektorn av kovarianser av faktorer med en beroende variabel. Om dessutom uppgifterna också är normaliserats på SKO (det vill säga i slutändan standardiserad), då har den första matrisen betydelsen av provkorrelationsmatrisen av faktorer, den andra vektorn - vektorn av provkorrelationer av faktorer med den beroende variabeln.

En viktig egenskap hos LLS-uppskattningar för modeller med en konstant- linjen för den konstruerade regressionen passerar genom provdatas tyngdpunkt, det vill säga att likheten är uppfylld:

I synnerhet, i extremfallet, när den enda regressorn är en konstant, finner vi att OLS-estimatet för en enskild parameter (konstanten i sig) är lika med medelvärdet för variabeln som förklaras. Det vill säga det aritmetiska medelvärdet, känt för sitt bra egenskaper från lagarna för stora tal, är också en minsta kvadratuppskattning - den uppfyller kriteriet för den minsta summan av kvadrerade avvikelser från det.

Exempel: enkel (parvis) regression

När det gäller ett ångbad linjär regression beräkningsformler är förenklade (du kan klara dig utan matrisalgebra):

Egenskaper för OLS-uppskattningar

Först och främst noterar vi att för linjära modeller OLS-estimatorer är linjära estimatorer, enligt formeln ovan. För opartiska minsta kvadraters skattare är det nödvändigt och tillräckligt att väsentligt tillstånd regressionsanalys: beroende på faktorerna måste den matematiska förväntningen på ett slumpmässigt fel vara lika med noll. Detta tillstånd, i synnerhet, är nöjd om

  1. den matematiska förväntningen på slumpmässiga fel är noll, och
  2. faktorer och slumpmässiga fel är oberoende slumpvariabler.

Det andra villkoret - tillståndet för exogena faktorer - är grundläggande. Om denna egenskap inte är uppfylld kan vi anta att nästan alla uppskattningar kommer att vara extremt otillfredsställande: de kommer inte ens att vara konsekventa (det vill säga till och med mycket stor volym data inte tillåter att ta emot kvalitativa bedömningar I detta fall). I det klassiska fallet görs ett starkare antagande om faktorers determinism, till skillnad från ett slumpmässigt fel, vilket automatiskt innebär att det exogena villkoret är uppfyllt. I det allmänna fallet, för att uppskattningarna ska vara konsekventa, är det tillräckligt att uppfylla exogenitetsvillkoret tillsammans med konvergensen av matrisen till någon icke-singulär matris med en ökning av urvalsstorleken till oändlighet.

För att, förutom konsekvens och opartiskhet, uppskattningarna av de (vanliga) minsta kvadraterna också ska vara effektiva (de bästa i klassen av linjära opartiska skattningar), är det nödvändigt att utföra ytterligare fastigheter slumpmässigt fel:

Dessa antaganden kan formuleras för kovariansmatrisen för slumpfelsvektorn

En linjär modell som uppfyller dessa villkor kallas klassisk. OLS-uppskattningar för klassisk linjär regression är opartiska, konsekventa och mest effektiva uppskattningar i klassen av alla linjära opartiska uppskattningar (i engelsk litteratur används ibland förkortningen blå (Bästa linjära unbaised estimator) är den bästa linjära opartiska skattningen; i inhemsk litteratur citeras Gauss-Markovs sats oftare). Som det är lätt att visa kommer kovariansmatrisen för koefficientuppskattningsvektorn att vara lika med:

Generaliserade minsta kvadrater

Metoden med minsta kvadrater möjliggör en bred generalisering. Istället för att minimera summan av kvadraterna av residualerna, kan man minimera någon positiv bestämd kvadratisk form av restvektorn, där är någon symmetrisk positiv bestämd viktmatris. Vanliga minsta kvadrater är ett specialfall av detta tillvägagångssätt, när viktmatrisen är proportionell mot identitetsmatrisen. Som är känt från teorin om symmetriska matriser (eller operatorer), finns det en sönderdelning för sådana matriser. Därför kan den specificerade funktionen representeras enligt följande, det vill säga denna funktion kan representeras som summan av kvadraterna av några transformerade "rester". Således kan vi urskilja en klass av minsta kvadratmetoder - LS-metoder (Minsta kvadrater).

Det är bevisat (Aitkens teorem) att för en generaliserad linjär regressionsmodell (där inga restriktioner läggs på kovariansmatrisen av slumpmässiga fel), är de mest effektiva (i klassen linjära opartiska skattningar) uppskattningar av sk. generaliserad OLS (OMNK, GLS - Generalized Least Squares)- LS-metod med en viktmatris lika med den inversa kovariansmatrisen av slumpmässiga fel: .

Det kan visas att formeln för GLS-uppskattningarna av parametrarna för den linjära modellen har formen

Kovariansmatrisen för dessa uppskattningar kommer att vara lika med

Faktum är att kärnan i OLS ligger i en viss (linjär) transformation (P) av originaldata och tillämpningen av de vanliga minsta kvadraterna på de transformerade data. Syftet med denna transformation är att för de transformerade data, de slumpmässiga felen redan uppfyller de klassiska antagandena.

Viktade minsta rutor

När det gäller en diagonalviktsmatris (och därmed kovariansmatrisen av slumpmässiga fel) har vi de så kallade viktade minsta kvadraterna (WLS - Weighted Least Squares). I det här fallet den viktade kvadratsumman av modellens residualer minimeras, det vill säga varje observation får en "vikt" som är omvänt proportionell mot variansen av det slumpmässiga felet i denna observation: . Faktum är att data transformeras genom att vikta observationerna (dividering med ett belopp som är proportionellt mot den antagna standardavvikelsen för de slumpmässiga felen), och normala minsta kvadrater tillämpas på den viktade datan.

Några specialfall av tillämpning av LSM i praktiken

Linjär approximation

Tänk på fallet när, som ett resultat av att studera beroendet av en viss skalär kvantitet av en viss skalär kvantitet (Detta kan till exempel vara spänningens beroende av strömstyrkan: , där är ett konstant värde, ledarens resistans ), dessa kvantiteter mättes, som ett resultat av vilket värdena erhölls deras motsvarande värden. Mätdata bör registreras i en tabell.

Tabell. Mätresultat.

Mått nr.
1
2
3
4
5
6

Frågan är: vilket värde på koefficienten kan väljas så att det bästa sättet beskriva beroende? Enligt de minsta kvadraterna bör detta värde vara sådant att summan av de kvadrerade avvikelserna för värdena från värdena

var minimal

Summan av kvadrerade avvikelser har ett extremum - ett minimum, vilket gör att vi kan använda denna formel. Låt oss hitta värdet på koefficienten från denna formel. För att göra detta, låt oss omvandla det vänster sida på följande sätt:

Den sista formeln låter oss hitta värdet på koefficienten , som krävdes i problemet.

Historia

Fram till början av XIX-talet. vetenskapsmän hade inte vissa regler för att lösa ett ekvationssystem där antalet okända är mindre än antalet ekvationer; Fram till den tiden användes särskilda metoder, beroende på typen av ekvationer och på räknemaskinens uppfinningsrikedom, och därför kom olika räknemaskiner, utgående från samma observationsdata, till olika slutsatser. Gauss (1795) är krediterad för den första tillämpningen av metoden, och Legendre (1805) upptäckte och publicerade den självständigt under sitt moderna namn (fr. Methode des moindres quarres ) . Laplace relaterade metoden till sannolikhetsteorin, och den amerikanske matematikern Adrain (1808) övervägde dess sannolikhetstillämpningar. Metoden är utbredd och förbättrad genom ytterligare forskning av Encke, Bessel, Hansen m.fl.

Alternativ användning av multinationella företag

Idén med minsta kvadratmetoden kan också användas i andra fall som inte är direkt relaterade till regressionsanalys. Faktum är att summan av kvadrater är ett av de vanligaste närhetsmåtten för vektorer (den euklidiska metriken i finita dimensionella rum).

En av applikationerna är "lösning" av system linjära ekvationer, där antalet ekvationer är större än antalet variabler

där matrisen inte är kvadratisk, men rektangulär storlek.

Ett sådant ekvationssystem har i det allmänna fallet ingen lösning (om rangordningen faktiskt är större än antalet variabler). Därför kan detta system "lösas" endast i den meningen att man väljer en sådan vektor för att minimera "avståndet" mellan vektorerna och . För att göra detta kan du tillämpa kriteriet för att minimera summan av kvadratskillnader mellan vänster och rätt delar systemekvationer, det vill säga. Det är lätt att visa att lösningen av detta minimeringsproblem leder till lösningen av följande ekvationssystem

Det används ofta inom ekonometri i form av en tydlig ekonomisk tolkning av dess parametrar.

Linjär regression reduceras till att hitta en ekvation av formen

eller

Typ ekvation tillåter att ange värden parameter X har teoretiska värden för den effektiva funktionen, ersätter de faktiska värdena för faktorn i den X.

Att bygga en linjär regression handlar om att uppskatta dess parametrar − men Och i. Uppskattningar av linjära regressionsparameter kan hittas med olika metoder.

Den klassiska metoden för att uppskatta linjära regressionsparametrar är baserad på minst kvadrater(MNK).

LSM tillåter en att erhålla sådana parameteruppskattningar men Och i, under vilken summan av de kvadrerade avvikelserna för de faktiska värdena för den resulterande egenskapen (y) från beräknat (teoretiskt) minimiminimum:

För att hitta minimum av en funktion är det nödvändigt att beräkna de partiella derivatorna med avseende på var och en av parametrarna men Och b och likställ dem till noll.

Beteckna genom S, sedan:

Omformning av formeln, vi får nästa system normala ekvationer för parameteruppskattning men Och i:

Genom att lösa systemet med normala ekvationer (3.5) antingen genom metoden för successiv eliminering av variabler eller med metoden för determinanter, hittar vi de önskade parameteruppskattningarna men Och i.

Parameter i kallas regressionskoefficienten. Dess värde visar den genomsnittliga förändringen i resultatet med en förändring av faktorn med en enhet.

Regressionsekvationen kompletteras alltid med en indikator på förhållandets täthet. När linjär regression används fungerar den linjära korrelationskoefficienten som en sådan indikator. Existera olika modifieringar linjära korrelationskoefficientformler. Några av dem är listade nedan:

Som ni vet ligger den linjära korrelationskoefficienten inom gränserna: -1 1.

Att bedöma kvaliteten på urvalet linjär funktion kvadraten beräknas

En linjär korrelationskoefficient kallas bestämningskoefficient . Bestämningskoefficienten kännetecknar andelen av variansen för den effektiva egenskapen y, förklaras av regression, i den totala variansen av den resulterande egenskapen:

Följaktligen kännetecknar värdet 1 - spridningsandelen y, orsakas av påverkan av andra faktorer som inte tagits med i modellen.

Frågor för självkontroll

1. Kärnan i minsta kvadratmetoden?

2. Hur många variabler ger en parvis regression?

3. Vilken koefficient avgör tätheten i sambandet mellan förändringarna?

4. Inom vilka gränser bestäms bestämningskoefficienten?

5. Uppskattning av parameter b i korrelations-regressionsanalys?

1. Christopher Dougherty. Introduktion till ekonometri. - M.: INFRA - M, 2001 - 402 sid.

2. S.A. Borodich. Ekonometri. Minsk LLC "New Knowledge" 2001.


3. R.U. Rakhmetova Kort kurs i ekonometri. Handledning. Almaty. 2004. -78s.

4. I.I. Eliseeva Ekonometri. - M.: "Finans och statistik", 2002

5. Månadsinformation och analytisk tidning.

Icke-linjära ekonomiska modeller. Icke-linjära regressionsmodeller. Variabel konvertering.

Icke-linjär ekonomiska modeller..

Variabel konvertering.

elasticitetskoefficient.

Om det finns icke-linjära samband mellan ekonomiska fenomen, så uttrycks de med motsvarande icke-linjära funktioner: till exempel en liksidig hyperbel , andra gradens paraboler och så vidare.

Det finns två klasser av icke-linjära regressioner:

1. Regressioner som är icke-linjära med avseende på de förklarande variablerna som ingår i analysen, men linjära med avseende på de uppskattade parametrarna, till exempel:

Polynom av olika grader - , ;

Liksidig hyperbol - ;

Semilogaritmisk funktion - .

2. Regressioner som är icke-linjära i de uppskattade parametrarna, till exempel:

Kraft - ;

Demonstrerande -;

Exponentiell - .

Den totala summan av de kvadrerade avvikelserna för de individuella värdena för det resulterande attributet från medelvärdet orsakas av inverkan av många faktorer. Vi delar villkorligt upp hela uppsättningen av skäl i två grupper: studerade faktor x Och andra faktorer.

Om faktorn inte påverkar resultatet är regressionslinjen på grafen parallell med axeln Åh Och

Då beror hela spridningen av det effektiva attributet på inverkan av andra faktorer och totala summan kvadrerade avvikelser kommer att sammanfalla med restvärdet. Om andra faktorer inte påverkar resultatet, då du band från X funktionellt, och restsumman av kvadrater är noll. I detta fall är summan av kvadrerade avvikelser som förklaras av regressionen densamma som den totala summan av kvadrater.

Eftersom inte alla punkter i korrelationsfältet ligger på regressionslinjen, sker deras spridning alltid som på grund av faktorns inverkan X, dvs regression X, och orsakas av verkan av andra orsaker (oförklarad variation). Regressionslinjens lämplighet för prognosen beror på vilken del av egenskapens totala variation står för den förklarade variationen

Uppenbarligen, om summan av kvadrerade avvikelser på grund av regression är större än restsumman av kvadrater, så är regressionsekvationen statistiskt signifikant och faktorn X har en betydande inverkan på resultatet. y.

, d.v.s. med antalet frihet för oberoende variation av funktionen. Antalet frihetsgrader är relaterat till antalet enheter av populationen n och antalet konstanter som bestäms utifrån det. I förhållande till det undersökta problemet bör antalet frihetsgrader visa hur många oberoende avvikelser från P

Bedömningen av regressionsekvationens betydelse som helhet ges med hjälp av F- Fishers kriterium. I detta fall läggs en nollhypotes att regressionskoefficienten är lika med noll, d.v.s. b= 0, och därav faktorn X påverkar inte resultatet y.

Den direkta beräkningen av F-kriteriet föregås av en analys av variansen. Centralt för det är expansionen av den totala summan av kvadratiska avvikelser för variabeln från medelvärdet i två delar - "förklarat" och "oförklarat":

- total summa av kvadrerade avvikelser;

- summan av kvadrerade avvikelser förklarade av regression;

är restsumman av kvadraterna på avvikelsen.

Varje summa av kvadrerade avvikelser är relaterad till antalet frihetsgrader , d.v.s. med antalet frihet för oberoende variation av funktionen. Antalet frihetsgrader är relaterat till antalet befolkningsenheter n och med antalet konstanter bestämt från det. I förhållande till det undersökta problemet bör antalet frihetsgrader visa hur många oberoende avvikelser från P möjligt krävs för att bilda en given summa av kvadrater.

Spridning per frihetsgradD.

F-förhållanden (F-kriterium):

Om nollhypotesen är sann, då skiljer sig inte faktorn och restvarianserna från varandra. För H 0 är en vederläggning nödvändig så att faktorvariansen överstiger residualet med flera gånger. Den engelske statistikern Snedecor utvecklade tabeller kritiska värden F-relationer på olika nivåer av signifikans av nollhypotesen och olika nummer grader av frihet. Tabellvärde F-kriteriet är det maximala värdet av förhållandet mellan varianser, som kan äga rum vid deras slumpmässiga divergens för given nivå sannolikheten att ha en nollhypotes. Beräknat värde F-förhållandet erkänns som tillförlitligt om o är större än det tabellformade.

I det här fallet förkastas nollhypotesen om frånvaron av ett förhållande av egenskaper och en slutsats görs om betydelsen av detta förhållande: F fakta > F-tabell H 0 avvisas.

Om värdet är mindre än tabellen F faktum ‹, F-tabell, då är sannolikheten för nollhypotesen högre än en given nivå och den kan inte förkastas utan en allvarlig risk att dra fel slutsats om förekomsten av ett förhållande. I detta fall anses regressionsekvationen vara statistiskt insignifikant. N o avviker inte.

Standardfel för regressionskoefficienten

För att bedöma betydelsen av regressionskoefficienten jämförs dess värde med dess standard fel, dvs det verkliga värdet bestäms t-Elevens kriterium: som sedan jämförs med tabellvärde på en viss nivå av betydelse och antalet frihetsgrader ( n- 2).

Parameter Standardfel men:

Signifikansen av den linjära korrelationskoefficienten kontrolleras baserat på storleken på felet korrelationskoefficient r:

Total varians för en funktion X:

Multipel linjär regression

Modellbyggnad

Multipel regressionär en regression av den resulterande egenskapen med två och ett stort antal faktorer, det vill säga synmodellen

regression kan ge bra resultat vid modellering, om inverkan av andra faktorer som påverkar studieobjektet kan försummas. Beteendet hos enskilda ekonomiska variabler kan inte kontrolleras, det vill säga det är inte möjligt att säkerställa likvärdigheten mellan alla andra förutsättningar för att bedöma inverkan av en faktor som studeras. I det här fallet bör du försöka identifiera påverkan av andra faktorer genom att introducera dem i modellen, dvs bygga en multipel regressionsekvation: y = a+b 1 x 1 + b 2 +...+b p x p + .

Huvudmålet med multipel regression är att bygga en modell med ett stort antal faktorer, samtidigt som man bestämmer inflytandet av var och en av dem individuellt, såväl som deras kumulativa inverkan på den modellerade indikatorn. Specifikationen av modellen omfattar två frågeområden: valet av faktorer och valet av typ av regressionsekvation

Minsta kvadratiska metod används för att uppskatta parametrarna för regressionsekvationen.
Antal rader (initial data)

En av metoderna för att studera stokastiska samband mellan egenskaper är regressionsanalys.
Regressionsanalys representerar härledningen av regressionsekvationen, som används för att hitta medelvärdet för en slumpvariabel (funktionsresultat), om värdet av en annan (eller andra) variabler (funktionsfaktorer) är känt. Den innehåller följande steg:

  1. val av kopplingsform (typ av analytisk regressionsekvation);
  2. uppskattning av ekvationsparametrar;
  3. utvärdering av kvaliteten på den analytiska regressionsekvationen.
Det vanligaste för att beskriva det statistiska sambandet mellan funktioner är linjär form. Uppmärksamhet på det linjära sambandet förklaras av en tydlig ekonomisk tolkning av dess parametrar, begränsad av variationen av variabler och det faktum att de olinjära formerna av sambandet i de flesta fall omvandlas (genom att ta en logaritm eller ändra variabler) till en linjär form att utföra beräkningar.
I fallet med ett linjärt parsamband kommer regressionsekvationen att ha formen: y i =a+b·x i +u i. Parametrarna för denna ekvation a och b uppskattas från data statistisk observation x och y. Resultatet av en sådan bedömning är ekvationen: , där , - uppskattningar av parametrarna a och b , - värdet av den effektiva egenskapen (variabeln) som erhålls av regressionsekvationen (beräknat värde).

Den mest använda för parameteruppskattning är minsta kvadratmetoden (LSM).
Minsta kvadratmetoden ger bäst ( rik, effektiv och opartisk) uppskattningar av parametrarna för regressionsekvationen. Men bara om vissa antaganden är uppfyllda om den slumpmässiga termen (u) och den oberoende variabeln (x) (se nedan). OLS bakgrund).

Problemet med att uppskatta parametrarna för en linjär parekvation med minsta kvadratmetoden består av följande: för att erhålla sådana uppskattningar av parametrarna , , där summan av de kvadrerade avvikelserna av de faktiska värdena för den effektiva funktionen - y i från de beräknade värdena - är minimal.
Formellt OLS-kriterium kan skrivas så här: .

Klassificering av minsta kvadratmetoder

  1. Minsta kvadratiska metod.
  2. Maximal likelihood-metod (för en normal klassisk linjär regressionsmodell postuleras normaliteten för regressionsresterna).
  3. Den generaliserade minsta kvadratmetoden för GLSM används i fallet med autokorrelation av fel och i fallet med heteroskedasticitet.
  4. Viktad minsta kvadratmetod (ett specialfall av GLSM med heteroskedastiska residualer).

Illustrera essensen den klassiska metoden för minsta kvadrater grafiskt. För att göra detta kommer vi att bygga ett punktdiagram enligt observationsdata (xi , y i , i=1;n) i ett rektangulärt koordinatsystem (en sådan punktplot kallas ett korrelationsfält). Låt oss försöka hitta en rät linje som är närmast punkterna i korrelationsfältet. Enligt minsta kvadratmetoden väljs linjen så att summan av kvadratiska vertikala avstånd mellan punkterna i korrelationsfältet och denna linje skulle vara minimal.

Matematisk notering av detta problem: .
Värdena på y i och x i =1...n är kända för oss, dessa är observationsdata. I funktionen S är de konstanter. Variablerna i denna funktion är de nödvändiga uppskattningarna av parametrarna - , . För att hitta minimum av en funktion av 2 variabler är det nödvändigt att beräkna partiella derivator av denna funktion med avseende på var och en av parametrarna och likställa dem med noll, dvs. .
Som ett resultat får vi ett system med två normala linjära ekvationer:
Beslutar detta system, hittar vi de nödvändiga parameteruppskattningarna:

Korrektheten av beräkningen av parametrarna för regressionsekvationen kan kontrolleras genom att jämföra summorna (viss avvikelse är möjlig på grund av avrundning av beräkningarna).
För att beräkna parameteruppskattningar kan du bygga Tabell 1.
Tecknet för regressionskoefficienten b anger sambandets riktning (om b > 0 är sambandet direkt, om b<0, то связь обратная). Величина b показывает на сколько единиц изменится в среднем признак-результат -y при изменении признака-фактора - х на 1 единицу своего измерения.
Formellt är värdet på parametern a medelvärdet av y för x lika med noll. Om teckenfaktorn inte har och inte kan ha ett nollvärde, så är tolkningen ovan av parametern a inte meningsfull.

Bedömning av tätheten i förhållandet mellan funktioner genomförts genom linjär parkorrelationskoefficient-r x,y. Det kan beräknas med formeln: . Dessutom kan koefficienten för linjär parkorrelation bestämmas i termer av regressionskoefficienten b: .
Intervallet av tillåtna värden för den linjära koefficienten för parkorrelation är från –1 till +1. Korrelationskoefficientens tecken anger förhållandets riktning. Om r x, y >0, är ​​anslutningen direkt; om r x, y<0, то связь обратная.
Om denna koefficient är nära enhet i modul, så kan förhållandet mellan egenskaperna tolkas som ett ganska nära linjärt. Om dess modul är lika med en ê r x , y ê =1, så är förhållandet mellan egenskaperna funktionellt linjärt. Om egenskaperna x och y är linjärt oberoende, är r x,y nära 0.
Tabell 1 kan också användas för att beräkna r x,y.

bord 1

N observationerx iy ix i ∙ y i
1 x 1y 1x 1 y 1
2 x2y2x 2 y 2
...
nx ny nx n y n
Kolumn Summa∑x∑y∑x y
Betyda
För att bedöma kvaliteten på den resulterande regressionsekvationen, beräknas den teoretiska bestämningskoefficienten - R 2 yx:

,
där d 2 är variansen y som förklaras av regressionsekvationen;
e 2 - residual (oförklarad av regressionsekvationen) varians y ;
s 2 y - total (total) varians y .
Bestämningskoefficienten karakteriserar andelen variation (spridning) av det resulterande attributet y , förklaras av regressionen (och följaktligen av faktorn x), i den totala variationen (spridningen) y . Bestämningskoefficienten R 2 yx tar värden från 0 till 1. Följaktligen karakteriserar värdet 1-R 2 yx andelen varians y orsakad av påverkan av andra faktorer som inte beaktas i modellen och specifikationsfel.
Med parad linjär regression R 2 yx =r 2 yx .