Video: Lineær regression i Maple vha Gym-pakken 2025
Lineære regressionsmodeller bruges til at vise eller forudsige forholdet mellem to variabler eller faktorer. Den faktor, der forudsiges (den faktor, som ligningen løser til ) kaldes den afhængige variabel. De faktorer, der bruges til at forudsige værdien af den afhængige variabel, kaldes de uafhængige variabler.
Gode data fortæller ikke altid hele historien. Regressionsanalyse er almindeligt anvendt i forskning, da det fastslår, at der er en sammenhæng mellem variabler.
Men korrelation er ikke det samme som årsagssammenhæng. Selv en linje i en simpel lineær regression, der passer til datapunkterne, kan godt ikke sige noget definitivt om et årsag-og-effektforhold.
I simpel lineær regression består hver observation af to værdier. En værdi er for den afhængige variabel, og en værdi er for den uafhængige variabel.
- Enkel lineær regressionsanalyse Den enkleste form for en regressionsanalyse bruger på afhængig variabel og en uafhængig variabel. I denne enkle model nærmer en ret linje forholdet mellem den afhængige variabel og den uafhængige variabel.
- Multipel regressionsanalyse Når to eller flere uafhængige variabler anvendes i regressionsanalyse, er modellen ikke længere en simpel lineær.
y
= ( β 0 + β > 1 + Ε Ved matematisk konvention betegnes de to faktorer, der er involveret i en simpel lineær regressionsanalyse x
og y . Ligningen som beskriver hvordan y
er relateret til x kaldes regressionsmodellen . Den lineære regressionsmodel indeholder også et fejlbegreb, der er repræsenteret af Ε < eller det græske brev epsilon. Fejltermen bruges til at tage højde for variabiliteten i y , der ikke kan forklares ved det lineære forhold mellem x og y >. Der er også parametre, der repræsenterer befolkningen, der studeres. Disse parametre af modellen, der er repræsenteret af ( β 0+ β
1 x ) Simple Linear Regression Model Den simple lineære regressionsligning er repræsenteret som denne: Ε (
y
) = ( 0 + β 1 x ). Den simple lineære regressionsligning er graferet som en lige linje. 0 er y
afsnittet af regressionslinjen.
β 1 er hældningen. Ε ( y
) er den gennemsnitlige eller forventede værdi af y
for en given værdi på x . En regressionslinje kan vise et positivt lineært forhold, et negativt lineært forhold, eller intet forhold.Hvis den graferede linje i en simpel lineær regression er flad (ikke skrå), er der intet forhold mellem de to variabler. Hvis regressionslinjen skråner opad med den nedre ende af linjen ved grafens y intercept (akse), og den øvre ende af linien strækker sig opad i graffeltet væk fra x intercept (akse) eksisterer et positivt lineært forhold. Hvis regressionslinjen skråner nedad med den øverste ende af linjen ved grafens
y intercept (akse), og den nedre ende af linien strækker sig nedad i graffeltet mod x < intercept (akse) eksisterer et negativt lineært forhold. Estimeret lineær regressionsligning Hvis befolkningens parametre var kendt, kunne den simple lineære regressionsligning (vist nedenfor) bruges til at beregne middelværdien af y til en kendt værdi af < x . Ε
(
y ) = ( β 0 + β
1 x ). I praksis er parameterværdierne imidlertid ikke kendte, så de skal estimeres ved hjælp af data fra en stikprøve af befolkningen. Befolkningsparametrene anslås ved hjælp af stikprøvestatistikker. Prøvestatistikkerne er repræsenteret af b 0 + b 1. Når stikprøvestatistikkerne erstattes af populationsparametrene, dannes den estimerede regressionsligning. Den estimerede regressionsligning er vist nedenfor. (
ŷ ) = ( β 0 + β
1
x ( ŷ ) udtales < y hat . Grafen for den estimerede simple regressionsligning kaldes den estimerede regressionslinie. b
0 er y-interceptet. The b 1 er hældningen. Den
ŷ
) er den estimerede værdi på y for en given værdi på
x . Vigtig note:
Regressionsanalyse bruges ikke til at fortolke årsagssammenhæng mellem variabler. Regressionsanalyse kan dog angive, hvordan variabler er relaterede eller i hvilket omfang variabler er forbundet med hinanden. På denne måde har regressionsanalyser tendens til at skabe fremtrædende forhold, der berettiger en videnskabelig forsker at kigge nærmere. Også kendt som: bivariat regression, regressionsanalyse Eksempler: Mindste kvadratmetode
er en statistisk procedure til brug af prøvedata for at finde værdien af den estimerede regressionsligning . Den mindste kvadratmetode blev foreslået af Carl Friedrich Gauss, som blev født i år 1777 og døde i 1855. Den mindste kvadratmetode anvendes stadig meget. Kilder:
Anderson, D.R., Sweeney, D.J., og Williams, T. A. (2003). Essentials of Statistics for erhvervslivet og økonomi (3. ed.) Mason, Ohio: Southwestern, Thompson Learning.
______. (2010). Forklaret: Regressionsanalyse. MIT News. McIntyre, L. (1994). Brug af cigaretdata til en introduktion til flere regressioner.
Journal of Statistics Education, 2 (1). Mendenhall, W. og Sincich, T. (1992). Statistik for ingeniørvidenskab og videnskab (3. udg.), New York, NY: Dellen Publishing Co. Panchenko, D. 18. 443 Statistik for ansøgninger, efterår 2006, sektion 14, enkel lineær regression. (Massachusetts Institute of Technology: MIT OpenCourseWare)
Lær hvordan e-handel virker

Nogensinde spekulerer på, hvordan fungerer e-handel? Der er flere integrerede komponenter i en e-handelsvirksomhed. Lær mere om de bevægelige dele.
Lær hvordan tour merchandising virker

Lær hvordan tour merchandising fungerer og som musiker hvor meget en kunstner kan forvente at tjene fra band t-shirt salg.
Hvad er en simpel IRA?

En simpel IRA er en arbejdsgiver-sponsoreret pensionsplan, der tilbydes ansatte i små virksomheder. Find ud af, hvordan en simpel IRA fungerer, og hvor meget du kan bidrage til planen i år.