LSM lineaarse funktsiooni jaoks. Katseandmete lähendamine

Pärast joondamist saame funktsiooni järgmist tüüpi: g (x) = x + 1 3 + 1 .

Neid andmeid saame lähendada lineaarse seosega y = a x + b, arvutades vastavad parameetrid. Selleks peame rakendama nn meetodit vähimruudud. Samuti peate tegema joonise, et kontrollida, milline joon joondab katseandmeid kõige paremini.

Yandex.RTB R-A-339285-1

Mis täpselt on OLS (vähimruutude meetod)

Peamine asi, mida peame tegema, on leida sellised lineaarse sõltuvuse koefitsiendid, mille korral kahe muutuja funktsiooni väärtus F (a, b) = ∑ i = 1 n (y i - (a x i + b)) 2 on väikseim. Teisisõnu, teatud a ja b väärtuste korral on esitatud andmete ruudus hälbete summa saadud sirgjoonest minimaalne. See on vähimruutude meetodi tähendus. Näite lahendamiseks peame vaid leidma kahe muutuja funktsiooni ekstreemumi.

Kuidas tuletada koefitsientide arvutamise valemeid

Koefitsientide arvutamise valemite tuletamiseks on vaja koostada ja lahendada kahe muutujaga võrrandisüsteem. Selleks arvutame avaldise F (a , b) = ∑ i = 1 n (y i - (a x i + b)) 2 osatuletised a ja b suhtes ning võrdsustame need 0-ga.

δ F (a , b) δ a = 0 δ F (a , b) δ b = 0 ⇔ - 2 ∑ i = 1 n (y i - (a x i + b)) x i = 0 - 2 ∑ i = 1 n ( y i - (a x i + b)) = 0 ⇔ a ∑ i = 1 n x i 2 + b ∑ i = 1 n x i = ∑ i = 1 n x i y y a ∑ i = 1 n x i + ∑ i = 1 n b = ∑ i = 1 n y i ⇔ a ∑ i = 1 n x i 2 + b ∑ i = 1 n x i = ∑ i = 1 n x i y i a ∑ i = 1 n x i + n b = ∑ i = 1 n y i

Võrrandisüsteemi lahendamiseks võite kasutada mis tahes meetodeid, näiteks asendus- või Crameri meetodit. Selle tulemusena peaksime saama valemid, mis arvutavad koefitsiendid vähimruutude meetodil.

n ∑ i = 1 n x i y i - ∑ i = 1 n x i ∑ i = 1 n y i n i = 1 n - i i = 1 n x i 2 b = ∑ i = 1 n ∑ i = 1 n ∑ i

Oleme välja arvutanud muutujate väärtused, mille jaoks funktsioon on
F (a , b) = ∑ i = 1 n (y i - (a x i + b)) 2 võtab minimaalse väärtuse. Kolmandas lõigus tõestame, miks see nii on.

See on vähimruutude meetodi rakendamine praktikas. Tema valem, mida kasutatakse parameetri a leidmiseks, sisaldab ∑ i = 1 n x i, ∑ i = 1 n y i, ∑ i = 1 n x i y i, ∑ i = 1 n x i 2 ja parameetrit
n - see tähistab katseandmete hulka. Soovitame teil arvutada iga summa eraldi. Koefitsiendi väärtus b arvutatakse kohe pärast a .

Tuleme tagasi algse näite juurde.

Näide 1

Siin on meil n võrdne viiega. Koefitsientide valemitesse kuuluvate nõutavate summade arvutamise mugavamaks muutmiseks täidame tabeli.

i = 1 i = 2 i = 3 i = 4 i = 5 ∑ i = 1 5
x i 0 1 2 4 5 12
y i 2 , 1 2 , 4 2 , 6 2 , 8 3 12 , 9
x i y i 0 2 , 4 5 , 2 11 , 2 15 33 , 8
x i 2 0 1 4 16 25 46

Lahendus

Neljas rida sisaldab andmeid, mis on saadud teise rea väärtuste korrutamisel kolmanda väärtustega iga üksikisiku i kohta. Viies rida sisaldab teise ruudu andmeid. Viimane veerg näitab üksikute ridade väärtuste summasid.

Kasutame vajalike koefitsientide a ja b arvutamiseks vähimruutude meetodit. Selleks asendage soovitud väärtused viimasest veerust ja arvutage summad:

n ∑ i = 1 n x i y i - ∑ i = 1 n x i ∑ i = 1 n y i n i = 1 n - i i = 1 n x i 2 b = ∑ i = 1 a n i = 1 n ∑ i 5 33 , 8 - 12 12, 9 5 46 - 12 2 b = 12, 9 - a 12 5 ⇒ a ≈ 0, 165 b ≈ 2, 184

Saime, et soovitud ligikaudne sirge näeb välja selline y = 0, 165 x + 2, 184. Nüüd peame kindlaks määrama, milline rida on andmetele kõige paremini ligikaudne - g (x) = x + 1 3 + 1 või 0, 165 x + 2, 184. Teeme hinnangu vähimruutude meetodil.

Vea arvutamiseks peame leidma joontelt σ 1 = ∑ i = 1 n (y i - (a x i + b i)) 2 ja σ 2 = ∑ i = 1 n (y i -) andmete ruuduhälbete summad. g (x i)) 2, vastab miinimumväärtus sobivamale reale.

σ 1 = ∑ i = 1 n (y i - (a x i + b i)) 2 = = ∑ i = 1 5 (y i - (0 , 165 x i + 2 , 184)) 2 ≈ 0, 019 ψ 2 = ∑ i = ∑ i = 1 5 1 n (y i - g (x i)) 2 = = ∑ i = 1 5 (y i - (x i + 1 3 + 1)) 2 ≈ 0, 096

Vastus: alates σ 1< σ 2 , то прямой, наилучшим образом аппроксимирующей исходные данные, будет
y = 0, 165 x + 2, 184.

Vähimruutude meetod on graafilisel joonisel selgelt näidatud. Punane joon tähistab sirget g (x) = x + 1 3 + 1, sinine joon tähistab y = 0, 165 x + 2, 184. Algandmed on tähistatud roosade täppidega.

Selgitame, miks on vaja täpselt seda tüüpi lähendusi.

Neid saab kasutada nii probleemide puhul, mis nõuavad andmete silumist, kui ka nendes, kus andmeid on vaja interpoleerida või ekstrapoleerida. Näiteks eespool käsitletud ülesandes võiks leida vaadeldava suuruse y väärtuse x = 3 või x = 6 juures. Oleme sellistele näidetele pühendanud eraldi artikli.

LSM meetodi tõestus

Et funktsioon saaks a ja b arvutamisel minimaalse väärtuse, on vajalik, et antud punktis kujuga F (a, b) funktsiooni diferentsiaali ruutkuju maatriks = ∑ i = 1 n (y i - (a x i + b)) 2 olema positiivne kindel. Näitame teile, kuidas see peaks välja nägema.

Näide 2

Meil on teise järgu diferentsiaal järgmisel kujul:

d 2 F (a ; b) = δ 2 F (a ; b) δ a 2 d 2 a + 2 δ 2 F (a ; b) δ a δ b d a d b + δ 2 F (a ; b) δ b 2 d 2b

Lahendus

δ 2 F (a ; b) δ a 2 = δ δ F (a ; b) δ a δ a = = δ - 2 ∑ i = 1 n (y i - (a x i + b)) x i δ a = 2 ∑ i = 1 n (x i) 2 δ 2 F (a ; b) δ a δ b = δ δ F (a ; b) δ a δ b = = δ - 2 ∑ i = 1 n (y i - (a x i + b) ) x i δ b = 2 ∑ i = 1 n x i δ 2 F (a ; b) δ b 2 = δ δ F (a ; b) δ b δ b = δ - 2 ∑ i = 1 n (y i - (a x i + b)) δ b = 2 ∑ i = 1 n (1) = 2 n

Teisisõnu võib selle kirjutada järgmiselt: d 2 F (a ; b) = 2 ∑ i = 1 n (x i) 2 d 2 a + 2 2 ∑ x i i = 1 n d a d b + (2 n) d 2 b .

Oleme saanud maatriksi ruutkujuga M = 2 ∑ i = 1 n (x i) 2 2 ∑ i = 1 n x i 2 ∑ i = 1 n x i 2 n .

Sel juhul ei muutu üksikute elementide väärtused sõltuvalt a-st ja b-st. Kas see maatriks on positiivne? Sellele küsimusele vastamiseks kontrollime, kas selle nurgelised alaealised on positiivsed.

Arvutage esimest järku nurk-moll: 2 ∑ i = 1 n (x i) 2 > 0 . Kuna punktid x i ei lange kokku, on ebavõrdsus range. Peame seda edasistes arvutustes meeles.

Arvutame teist järku nurk-molli:

d e t (M) = 2 ∑ i = 1 n (x i) 2 2 ∑ i = 1 n x i 2 ∑ i = 1 n x i 2 n = 4 n ∑ i = 1 n (x i) 2 - 12 n i = i

Seejärel jätkame matemaatilist induktsiooni kasutades ebavõrdsuse n ∑ i = 1 n (x i) 2 - ∑ i = 1 n x i 2 > 0 tõestamist.

  1. Kontrollime, kas see võrratus kehtib suvalise n korral. Võtame 2 ja arvutame:

2 ∑ i = 1 2 (x i) 2 - ∑ i = 1 2 x i 2 = 2 x 1 2 + x 2 2 - x 1 + x 2 2 = = x 1 2 - 2 x 1 x 2 + x 2 2 = x 1 + x 2 2 > 0

Saime õige võrdsuse (kui väärtused x 1 ja x 2 ei ühti).

  1. Oletame, et see ebavõrdsus kehtib n , s.o. n ∑ i = 1 n (x i) 2 - ∑ i = 1 n x i 2 > 0 – tõene.
  2. Nüüd tõestame n + 1 kehtivust, s.o. et (n + 1) ∑ i = 1 n + 1 (x i) 2 - ∑ i = 1 n + 1 x i 2 > 0, kui n ∑ i = 1 n (x i) 2 - ∑ i = 1 n x i 2 > 0 .

Arvutame:

(n + 1) ∑ i = 1 n + 1 (x i) 2 - ∑ i = 1 n + 1 x i 2 = = (n + 1) ∑ i = 1 n (x i) 2 + x n + 1 2 - ∑ i = 1 n x i + x n + 1 2 = = n ∑ i = 1 n (x i) 2 + n x n + 1 2 + ∑ i = 1 n (x i) 2 + x n + 1 2 - - ∑ i = 1 n x 2 i 2 + x n + 1 ∑ i = 1 n x i + x n + 1 2 = = ∑ i = 1 n (x i) 2 - ∑ i = 1 n x i 2 + n x n + 1 2 - x n + 1 i + 1 i = 1 n x n (x i) 2 = = ∑ i = 1 n (x i) 2 - ∑ i = 1 n x i 2 + x n + 1 2 - 2 x n + 1 x 1 + x 1 2 + + x n + 1 2 - 2 x n + 1 x 2 + x 2 2 + . . . + x n + 1 2 - 2 x n + 1 x 1 + x n 2 = = n ∑ i = 1 n (x i) 2 - ∑ i = 1 n x i 2 + + (x n + 1 - x 1) 2 + (x n + 1) - x 2) 2 + . . . + (x n - 1 - x n) 2 > 0

Sulgudes sisalduv avaldis on suurem kui 0 (alusel, mida me 2. sammus eeldasime) ja ülejäänud terminid on suuremad kui 0, kuna need on kõik arvude ruudud. Oleme ebavõrdsust tõestanud.

Vastus: leitud a ja b sobivad väikseim väärtus funktsioonid F (a , b) \u003d ∑ i \u003d 1 n (y i - (a x i + b)) 2, mis tähendab, et need on vähimruutude meetodi (LSM) soovitud parameetrid.

Kui märkate tekstis viga, tõstke see esile ja vajutage Ctrl+Enter

Näide.

Eksperimentaalsed andmed muutujate väärtuste kohta X Ja juures on toodud tabelis.

Nende joondamise tulemusena funktsioon

Kasutades vähima ruudu meetod, lähendage neid andmeid lineaarse sõltuvusega y=kirves+b(leidke parameetrid A Ja b). Uurige, milline kahest joonest on parem (vähimruutude meetodi mõttes), mis joondab katseandmeid. Tee joonistus.

Vähimruutude meetodi (LSM) olemus.

Ülesanne on leida lineaarsed sõltuvuskoefitsiendid, mille puhul on kahe muutuja funktsioon A Ja b võtab väikseima väärtuse. St andmeid arvestades A Ja b katseandmete ruutude hälvete summa leitud sirgest on väikseim. See on kogu vähimruutude meetodi mõte.

Seega taandatakse näite lahendus kahe muutuja funktsiooni ekstreemumi leidmisele.

Valemite tuletamine koefitsientide leidmiseks.

Koostatakse ja lahendatakse kahest võrrandist koosnev süsteem kahe tundmatuga. Funktsioonide osatuletiste leidmine muutujate järgi A Ja b, võrdsustame need tuletised nulliga.

Lahendame saadud võrrandisüsteemi mis tahes meetodiga (näiteks asendusmeetod või Crameri meetod) ja saada valemid koefitsientide leidmiseks vähimruutude meetodi (LSM) abil.

Andmetega A Ja b funktsiooni võtab väikseima väärtuse. Selle fakti tõestus on esitatud lehe lõpus oleva teksti all.

See on kogu vähimruutude meetod. Valem parameetri leidmiseks a sisaldab summasid ,, ja parameetrit n- katseandmete hulk. Nende summade väärtused on soovitatav arvutada eraldi. Koefitsient b leitud pärast arvutamist a.

On aeg meenutada algset näidet.

Lahendus.

Meie näites n = 5. Nõutavate koefitsientide valemites sisalduvate summade arvutamise mugavuse huvides täidame tabeli.

Tabeli neljanda rea ​​väärtused saadakse, korrutades iga numbri 2. rea väärtused 3. rea väärtustega i.

Tabeli viienda rea ​​väärtused saadakse iga numbri 2. rea väärtuste ruudustamisel i.

Tabeli viimase veeru väärtused on ridade väärtuste summad.

Koefitsientide leidmiseks kasutame vähimruutude meetodi valemeid A Ja b. Asendame neis vastavad väärtused tabeli viimasest veerust:

Seega y=0,165x+2,184 on soovitud ligikaudne sirgjoon.

Jääb välja selgitada, milline ridadest y=0,165x+2,184 või lähendab paremini algandmeid, st teha hinnang vähimruutude meetodil.

Vähimruutude meetodi vea hindamine.

Selleks peate arvutama nendelt ridadelt algandmete ruuduhälbete summad Ja , vastab väiksem väärtus joonele, mis lähendab paremini algandmeid vähimruutude meetodil.

Alates , siis rida y=0,165x+2,184 läheneb paremini algandmetele.

Vähimruutude meetodi (LSM) graafiline illustratsioon.

Tabelites näeb kõik suurepärane välja. Punane joon on leitud joon y=0,165x+2,184, sinine joon on , on roosad täpid algandmed.

Praktikas kasutatakse mitmesuguste protsesside - eriti majanduslike, füüsiliste, tehniliste, sotsiaalsete - modelleerimisel laialdaselt üht või teist meetodit funktsioonide ligikaudsete väärtuste arvutamiseks nende teadaolevatest väärtustest teatud kindlates punktides.

Seda tüüpi funktsioonide lähendamisel tekivad sageli probleemid:

    ligikaudsete valemite koostamisel uuritava protsessi iseloomulike suuruste väärtuste arvutamiseks vastavalt katse tulemusel saadud tabeliandmetele;

    numbrilises integreerimises, eristamises, lahendamises diferentsiaalvõrrandid jne.;

    kui on vaja arvutada funktsioonide väärtused vaadeldava intervalli vahepunktides;

    protsessi iseloomulike suuruste väärtuste määramisel väljaspool vaadeldavat intervalli, eriti prognoosimisel.

Kui teatud tabeliga määratud protsessi modelleerimiseks konstrueeritakse funktsioon, mis seda protsessi ligikaudselt kirjeldab vähimruutude meetodil, nimetatakse seda lähendavaks funktsiooniks (regressioon) ja lähendavate funktsioonide konstrueerimise ülesanne ise olla ligikaudne probleem.

Selles artiklis käsitletakse MS Exceli paketi võimalusi selliste probleemide lahendamiseks, lisaks käsitletakse tabelite jaoks regressioonide koostamise (loomise) meetodeid ja tehnikaid. funktsioonide seadmine(mis on regressioonanalüüsi aluseks).

Excelis on regressioonide koostamiseks kaks võimalust.

    Valitud regressioonide (trendijoonte) lisamine uuritava protsessi tunnuse andmetabeli alusel koostatud diagrammile (saadaval ainult diagrammi koostamisel);

    Exceli töölehe sisseehitatud statistiliste funktsioonide kasutamine, mis võimaldab saada regressioone (trendijooni) otse lähteandmete tabelist.

Trendijoonte lisamine diagrammile

Teatud protsessi kirjeldava ja diagrammiga kujutatud andmetabeli jaoks on Excelil tõhus regressioonianalüüsi tööriist, mis võimaldab teil:

    ehitada vähimruutude meetodi alusel ja lisada diagrammile viis tüüpi regressiooni, mis modelleerivad uuritavat protsessi erineva täpsusastmega;

    lisada diagrammile konstrueeritud regressiooni võrrand;

    määrata valitud regressiooni vastavuse aste diagrammil kuvatavatele andmetele.

Diagrammi andmete põhjal võimaldab Excel saada lineaarseid, polünoomilisi, logaritmilisi, eksponentsiaalseid ja eksponentsiaalseid regressioonitüüpe, mis on antud võrrandiga:

y = y(x)

kus x on sõltumatu muutuja, mis võtab sageli naturaalarvude jada (1; 2; 3; ...) väärtused ja loob näiteks uuritava protsessi aja loenduse (karakteristikud) .

1 . Lineaarne regressioon on hea konstantse kiirusega suurenevate või vähenevate tunnuste modelleerimiseks. See on uuritava protsessi lihtsaim mudel. See on ehitatud vastavalt võrrandile:

y=mx+b

kus m on kalde puutuja lineaarne regressioon x-teljele; b - lineaarse regressiooni ja y-telje lõikepunkti koordinaat.

2 . Polünoomiline trendijoon on kasulik selliste omaduste kirjeldamiseks, millel on mitu erinevat äärmust (kõrgemad ja madalad). Polünoomi astme valiku määrab uuritava tunnuse äärmuste arv. Seega võib teise astme polünoom hästi kirjeldada protsessi, millel on ainult üks maksimum või miinimum; kolmanda astme polünoom - mitte rohkem kui kaks äärmust; neljanda astme polünoom - mitte rohkem kui kolm ekstreemi jne.

Sel juhul koostatakse trendijoon vastavalt võrrandile:

y = c0 + c1x + c2x2 + c3x3 + c4x4 + c5x5 + c6x6

kus koefitsiendid c0, c1, c2,...c6 on konstandid, mille väärtused määratakse ehituse käigus.

3 . Logaritmilist trendijoont kasutatakse edukalt karakteristikute modelleerimisel, mille väärtused muutuvad alguses kiiresti ja seejärel järk-järgult stabiliseeruvad.

y = c ln(x) + b

4 . Jõutrendi joon annab häid tulemusi, kui uuritud sõltuvuse väärtusi iseloomustab pidev kasvukiiruse muutus. Sellise sõltuvuse näide võib olla auto ühtlaselt kiirendatud liikumise graafik. Kui andmetes on null või negatiivsed väärtused, ei saa te võimsuse trendijoont kasutada.

See on ehitatud vastavalt võrrandile:

y = cxb

kus koefitsiendid b, c on konstandid.

5 . Kui andmete muutumise kiirus pidevalt kasvab, tuleks kasutada eksponentsiaalset trendijoont. Null- või negatiivseid väärtusi sisaldavate andmete puhul ei saa seda tüüpi lähendust samuti kasutada.

See on ehitatud vastavalt võrrandile:

y=cebx

kus koefitsiendid b, c on konstandid.

Trendijoone valimisel arvutab Excel automaatselt välja R2 väärtuse, mis iseloomustab lähenduse täpsust: mida lähemal on R2 väärtus ühele, seda usaldusväärsemalt läheneb trendijoon uuritavale protsessile. Vajadusel saab diagrammil alati kuvada R2 väärtuse.

Määratakse valemiga:

Andmeseeriale trendijoone lisamiseks tehke järgmist.

    aktiveerige andmeseeria põhjal koostatud diagramm, st klõpsake diagrammialal. Diagramm kuvatakse peamenüüs;

    peale sellel üksusel klõpsamist ilmub ekraanile menüü, kus tuleb valida käsk Lisa trendijoon.

Samad toimingud on hõlpsasti rakendatavad, kui hõljutate kursorit ühele andmeseeriale vastava graafiku kohal ja paremklõpsate; valige kuvatavas kontekstimenüüs käsk Lisa trendijoon. Ekraanile ilmub dialoogiboks Trendline, kus on avatud vahekaart Tüüp (joonis 1).

Pärast seda vajate:

Valige vahekaardil Tüüp soovitud trendijoone tüüp (vaikimisi on valitud Lineaarne). Polünoomi tüübi jaoks määrake väljal Degree valitud polünoomi aste.

1 . Väljal Built on Series on loetletud kõik kõnealuse diagrammi andmesarjad. Trendijoone lisamiseks kindlale andmeseeriale valige väljal Built on seeria selle nimi.

Vajadusel saate vahekaardile Parameetrid minnes (joonis 2) määrata trendijoonele järgmised parameetrid:

    muutke väljal Lähendava (silutud) kõvera nimi trendijoone nime.

    määrata väljale Prognoos prognoosi perioodide arv (edasi või tagasi);

    kuva diagrammialal trendijoone võrrandit, mille puhul tuleks lubada ruut näita võrrandit diagrammil;

    kuva diagrammi alas lähenduse usaldusväärsuse väärtus R2, mille jaoks tuleks lubada märkeruut pane diagrammile lähenduse usaldusväärsus (R^2);

    määrake trendijoone lõikepunkt Y-teljega, mille jaoks peaksite märkima linnukese Intersection of the curve with Y-telje punktis;

    dialoogiboksi sulgemiseks klõpsake nuppu OK.

Juba ehitatud trendijoone redigeerimise alustamiseks on kolm võimalust:

    pärast trendijoone valimist kasuta menüüst Vorming käsku Selected trend line;

    vali kontekstimenüüst käsk Format Trendline, mille kutsumiseks tehakse trendijoonel paremklõps;

    topeltklõpsuga trendijoonel.

Ekraanile ilmub Trendijoone vormindamise dialoogiboks (joonis 3), mis sisaldab kolme vahekaarti: Vaade, Tüüp, Parameetrid ja kahe viimase sisu kattub täielikult Trendline dialoogiboksi sarnaste vahekaartidega (joonis 1-2). ). Vahekaardil Vaade saate määrata joone tüübi, värvi ja paksuse.

Juba koostatud trendijoone kustutamiseks valige kustutatav trendijoon ja vajutage klahvi Kustuta.

Vaadeldava regressioonanalüüsi tööriista eelised on järgmised:

    trendijoone joonistamise suhteline lihtsus graafikutele ilma selle jaoks andmetabelit loomata;

    üsna lai nimekiri pakutud trendijoonte tüüpidest ja see loend sisaldab kõige sagedamini kasutatavaid regressioonitüüpe;

    võimalus ennustada uuritava protsessi käitumist meelevaldselt (sees terve mõistus) sammude arv nii edasi kui ka tagasi;

    trendijoone võrrandi saamise võimalus analüütilisel kujul;

    vajaduse korral võimalus saada hinnang lähenduse usaldusväärsuse kohta.

Puudused hõlmavad järgmisi punkte:

    trendijoone konstrueerimine toimub ainult siis, kui on olemas andmeseeriale üles ehitatud diagramm;

    uuritava karakteristiku andmeseeriate genereerimise protsess selle jaoks saadud trendijoone võrrandite põhjal on mõnevõrra segane: soovitud regressioonivõrrandeid värskendatakse iga algse andmerea väärtuste muutusega, kuid ainult diagrammi ala piires. , samas kui vana joonvõrrandi trendi alusel moodustatud andmeread jääb muutumatuks;

    Kui muudate diagrammivaadet või sellega seotud PivotTable-liigendtabeli aruannet, siis olemasolevaid trendijooni ei säilitata PivotCharti aruannetes, mistõttu peate enne trendijoonte joonistamist või muul viisil PivotChart-liigenddiagrammi aruande vormindamist veenduma, et aruande paigutus vastab teie nõuetele.

Trendijooni saab lisada andmeseeriatele, mis on esitatud diagrammidel, nagu graafik, histogramm, lamedad normaliseerimata aladiagrammid, tulp-, hajuvus-, mull- ja aktsiadiagrammid.

Trendijooni ei saa lisada andmeseeriatele 3D-, Standard-, radari-, sektor- ja sõõrikudiagrammidel.

Sisseehitatud Exceli funktsioonide kasutamine

Excel pakub ka regressioonianalüüsi tööriista trendijoonte joonistamiseks väljaspool diagrammiala. Sel eesmärgil saab kasutada mitmeid statistilise töölehe funktsioone, kuid kõik need võimaldavad koostada ainult lineaarseid või eksponentsiaalseid regressioone.

Excelil on lineaarse regressiooni loomiseks mitu funktsiooni, eelkõige:

    TREND;

  • KALVAD ja LÕIKAD.

Lisaks mitmed funktsioonid eksponentsiaalse trendijoone koostamiseks, eriti:

    LGRFPumbes.

Tuleb märkida, et TREND ja GROWTH funktsioonide abil regressioonide koostamise tehnikad on praktiliselt samad. Sama võib öelda ka funktsioonipaari LINEST ja LGRFPRIBL kohta. Nende nelja funktsiooni puhul kasutatakse väärtuste tabeli loomisel Exceli funktsioone, näiteks massiivi valemeid, mis segavad regressioonide koostamise protsessi mõnevõrra. Samuti märgime, et lineaarse regressiooni konstrueerimist on meie arvates kõige lihtsam teostada funktsioonide SLOPE ja INTERCEPT abil, kus esimene neist määrab lineaarse regressiooni kalde ja teine ​​regressiooniga ära lõigatud lõigu. y-teljel.

Regressioonanalüüsi sisseehitatud funktsioonide tööriista eelised on järgmised:

    üsna lihtne protsess uuritava tunnuse sama tüüpi andmeseeriate moodustamiseks kõigi trendijooni määravate sisseehitatud statistiliste funktsioonide jaoks;

    standardtehnika genereeritud andmeseeriate põhjal trendijoonte koostamiseks;

    võimalus ennustada uuritava protsessi käitumist nõutav summa sammud ette või taha.

Ja miinuste hulka kuulub asjaolu, et Excelil pole sisseehitatud funktsioone muud tüüpi (välja arvatud lineaarsed ja eksponentsiaalsed) trendijoonte loomiseks. See asjaolu ei võimalda sageli valida uuritava protsessi kohta piisavalt täpset mudelit, samuti saada reaalsusele lähedasi prognoose. Lisaks ei ole funktsioonide TREND ja GROW kasutamisel teada trendijoonte võrrandid.

Tuleb märkida, et autorid ei seadnud artikli eesmärgiks esitada regressioonanalüüsi käiku erineva täielikkuse astmega. Selle põhiülesanne on konkreetsete näidete abil näidata Exceli paketi võimalusi lähendusülesannete lahendamisel; demonstreerida, millised tõhusad tööriistad on Excelil regressioonide koostamiseks ja prognoosimiseks; illustreerida, kui suhteliselt lihtsalt saab selliseid probleeme lahendada isegi kasutaja, kes ei tunne sügavaid regressioonanalüüsi teadmisi.

Näited konkreetsete probleemide lahendamisest

Mõelge konkreetsete probleemide lahendamisele Exceli paketi loetletud tööriistade abil.

Ülesanne 1

Tabeliga autotranspordiettevõtte kasumi kohta aastatel 1995-2002. peate tegema järgmist.

    Koostage diagramm.

    Lisage diagrammile lineaarsed ja polünoomilised (ruut- ja kuup-) trendijooned.

    Trendijoone võrrandite abil hankige tabeliandmed ettevõtte kasumi kohta iga trendijoone kohta aastatel 1995–2004.

    Tehke ettevõtte kasumiprognoos aastateks 2003 ja 2004.

Probleemi lahendus

    Exceli töölehe lahtrite vahemikku A4:C11 sisestame joonisel fig. 4.

    Olles valinud lahtrite vahemiku B4:C11, koostame diagrammi.

    Aktiveerime konstrueeritud diagrammi ja ülalkirjeldatud meetodil peale trendijoone tüübi valimist Trend Line dialoogiaknas (vt joon. 1) lisame diagrammile vaheldumisi lineaarsed, ruut- ja kuuptrendijooned. Samas dialoogiboksis avage vahekaart Parameetrid (vt joonis 2), väljale Name of the lähendava (silutud) kõvera nimi sisestage lisatava trendi nimi ja määrake väljale Forecast forward for: periods. väärtus 2, kuna plaanitakse teha kasumiprognoos kaheks aastaks ette. Regressioonivõrrandi ja lähenduse usaldusväärsuse R2 väärtuse kuvamiseks diagrammialal lubage märkeruudud Kuva võrrand ekraanil ja asetage diagrammile lähenduse usaldusväärsuse väärtus (R^2). Parema visuaalse tajumise huvides muudame joonistatud trendijoonte tüüpi, värvi ja paksust, mille jaoks kasutame dialoogiboksi Trend Line Format vahekaarti Vaade (vt joonis 3). Saadud diagramm koos lisatud trendijoontega on näidatud joonisel fig. 5.

    Saada tabeliandmeid ettevõtte kasumi kohta iga trendijoone kohta aastatel 1995-2004. Kasutame joonisel fig. 5. Selleks sisestage vahemiku D3:F3 lahtritesse tekstiline teave valitud trendijoone tüübi kohta: Lineaarne trend, Ruuttrend, Kuubitrend. Järgmisena sisestage lahtrisse D4 lineaarse regressiooni valem ja kopeerige see valem täitemarkeri abil koos suhteliste viidetega lahtrite vahemikule D5:D13. Tuleb märkida, et igas lahtris, millel on lineaarse regressioonivalem lahtrite vahemikust D4:D13, on argumendina vastav lahter vahemikust A4:A13. Samamoodi täidetakse ruutregressiooni korral lahtrivahemik E4:E13 ja kuupregressiooni puhul lahtrivahemik F4:F13. Seega koostati ettevõtte kasumiprognoos 2003. ja 2004. aastaks. kolme trendiga. Saadud väärtuste tabel on näidatud joonisel fig. 6.

2. ülesanne

    Koostage diagramm.

    Lisage diagrammile logaritmilised, eksponentsiaalsed ja eksponentsiaalsed trendijooned.

    Tuletage saadud trendijoonte võrrandid, samuti nende kõigi jaoks lähenduskindluse R2 väärtused.

    Trendijoone võrrandite abil hankige tabeliandmed ettevõtte kasumi kohta iga trendijoone kohta aastatel 1995–2002.

    Tehke nende trendijoonte abil ettevõtte kasumiprognoos aastateks 2003 ja 2004.

Probleemi lahendus

Järgides ülesande 1 lahendamisel antud metoodikat, saame diagrammi, millele on lisatud logaritmilised, eksponentsiaalsed ja eksponentsiaalsed trendijooned (joonis 7). Lisaks täidame saadud trendijoone võrrandite abil ettevõtte kasumi väärtuste tabeli, sealhulgas prognoositud väärtused aastateks 2003 ja 2004. (joonis 8).

Joonisel fig. 5 ja fig. on näha, et logaritmilise trendiga mudel vastab lähenduse usaldusväärsuse madalaimale väärtusele

R2 = 0,8659

R2 suurimad väärtused vastavad polünoomilise trendiga mudelitele: ruut (R2 = 0,9263) ja kuup (R2 = 0,933).

3. ülesanne

Ülesandes 1 toodud autotranspordiettevõtte kasumi andmete tabeliga aastatel 1995-2002 peate tegema järgmised sammud.

    Hankige andmeseeriad lineaarsete ja eksponentsiaalsete trendijoonte jaoks, kasutades funktsioone TREND ja GROW.

    Tehke TREND ja GROWTH funktsioonide abil ettevõtte kasumiprognoos aastateks 2003 ja 2004.

    Algandmete ja vastuvõetud andmeseeriate jaoks koostage diagramm.

Probleemi lahendus

Kasutame ülesande 1 töölehte (vt joonis 4). Alustame funktsiooniga TREND:

    valige lahtrite vahemik D4:D11, mis tuleks täita funktsiooni TREND väärtustega, mis vastavad ettevõtte kasumi teadaolevatele andmetele;

    kutsuge menüüst Lisa käsk Funktsioon. Valige kuvatavas dialoogiboksis Funktsiooniviisard jaotisest Statistika funktsioon TREND ja seejärel klõpsake nuppu OK. Sama toimingu saab teha vajutades standardse tööriistariba nuppu (funktsioon Insert).

    Ilmuvas dialoogiboksis Funktsiooni argumendid sisestage väljale Known_values_y lahtrite vahemik C4:C11; väljal Known_values_x - lahtrite vahemik B4:B11;

    sisestatud valemi massiivivalemiks muutmiseks kasutage klahvikombinatsiooni + + .

Valemiribale sisestatud valem näeb välja selline: =(TREND(C4:C11;B4:B11)).

Selle tulemusena täidetakse lahtrite vahemik D4:D11 funktsiooni TREND vastavate väärtustega (joonis 9).

Teha ettevõtte 2003. ja 2004. aasta kasumiprognoos. vajalik:

    valige lahtrite vahemik D12:D13, kuhu sisestatakse funktsiooni TREND ennustatud väärtused.

    kutsuge välja funktsioon TREND ja ilmuvas dialoogiboksis Funktsiooni argumendid sisestage väljale Known_values_y - lahtrite vahemik C4:C11; väljal Known_values_x - lahtrite vahemik B4:B11; ja väljal Uued_väärtused_x - lahtrite vahemik B12:B13.

    muutke see valem massiivivalemiks, kasutades kiirklahvi Ctrl + Shift + Enter.

    Sisestatud valem näeb välja selline: =(TREND(C4:C11;B4:B11;B12:B13)) ja lahtrite vahemik D12:D13 täidetakse funktsiooni TREND prognoositud väärtustega (vt joonis 1). 9).

Samamoodi täidetakse andmeseeria funktsiooni GROWTH abil, mida kasutatakse mittelineaarsete sõltuvuste analüüsimisel ja mis toimib täpselt samamoodi nagu selle lineaarne vaste TREND.

Joonis 10 näitab tabelit valemi kuvamise režiimis.

Algandmete ja saadud andmeseeriate jaoks on joonisel fig. üksteist.

4. ülesanne

Mootorveoettevõtte dispetšerteenistuse teenusetaotluste laekumise andmete tabeliga perioodiks jooksva kuu 1. kuni 11. kuupäevani tuleb teha järgmised toimingud.

    Hankige andmeseeriad lineaarse regressiooni jaoks: funktsioonide SLOPE ja INTERCEPT abil; kasutades funktsiooni LINEST.

    Hankige andmeseeria eksponentsiaalse regressiooni jaoks funktsiooni LYFFPRIB abil.

    Kasutades ülaltoodud funktsioone, koosta prognoos taotluste laekumise kohta dispetšerteenistusse jooksva kuu 12.-14. kuupäevaks.

    Algse ja vastuvõetud andmeseeria jaoks koostage diagramm.

Probleemi lahendus

Pange tähele, et erinevalt funktsioonidest TREND ja GROW ei ole ükski ülaltoodud funktsioonidest (SLOPE, INTERCEPTION, LINEST, LGRFPRIB) regressioon. Need funktsioonid mängivad ainult abistavat rolli, määrates kindlaks vajalikud regressiooniparameetrid.

Funktsioonide SLOPE, INTERCEPT, LINEST, LGRFPRIB abil koostatud lineaarsete ja eksponentsiaalsete regressioonide puhul on nende võrrandite välimus alati teada, erinevalt funktsioonidele TREND ja GROWTH vastavatest lineaarsetest ja eksponentsiaalsetest regressioonidest.

1 . Koostame lineaarse regressiooni, millel on võrrand:

y=mx+b

kasutades funktsioone SLOPE ja INTERCEPT ning kalle regressiooni m määrab funktsioon SLOPE ja lõikepunkti b määrab funktsioon INTERCEPT.

Selleks teostame järgmised toimingud:

    sisestage lähtetabel lahtrite vahemikku A4:B14;

    parameetri m väärtus määratakse lahtris C19. Valige statistikakategooriast funktsioon Slope; sisestage lahtrite vahemik B4:B14 väljale teadaolevad_väärtused_y ja lahtrite vahemik A4:A14 väljale teadaolevad_väärtused_x. Valem sisestatakse lahtrisse C19: =SLOPE(B4:B14;A4:A14);

    sarnase meetodi abil määratakse parameetri b väärtus lahtris D19. Ja selle sisu näeb välja selline: = INTERCEPT(B4:B14;A4:A14). Seega salvestatakse lineaarse regressiooni koostamiseks vajalike parameetrite m ja b väärtused vastavalt lahtritesse C19, D19;

    siis sisestame lahtrisse C4 lineaarse regressiooni valemi kujul: = $ C * A4 + $ D. Selles valemis kirjutatakse lahtrid C19 ja D19 absoluutsete viidetega (lahtri aadress ei tohiks võimaliku kopeerimisega muutuda). Absoluutse viitemärgi $ saab sisestada kas klaviatuurilt või kasutades klahvi F4, pärast kursori asetamist lahtri aadressile. Täitepideme abil kopeerige see valem lahtrite vahemikku C4:C17. Saame soovitud andmeread (joonis 12). Kuna päringute arv on täisarv, peaksite lahtri vormingu akna vahekaardil Number määrama numbrivorminguks komakohtade arvuga 0.

2 . Nüüd koostame võrrandiga antud lineaarse regressiooni:

y=mx+b

kasutades funktsiooni LINEST.

Selle jaoks:

    sisestage funktsioon LINEST massiivivalemina lahtrite vahemikku C20:D20: =(LINEST(B4:B14;A4:A14)). Selle tulemusena saame parameetri m väärtuse lahtris C20 ja parameetri b väärtuse lahtris D20;

    sisesta lahtrisse D4 valem: =$C*A4+$D;

    kopeerige see valem täitemarkeri abil lahtrite vahemikku D4:D17 ja hankige soovitud andmeseeria.

3 . Koostame eksponentsiaalse regressiooni, millel on võrrand:

LGRFPRIBL funktsiooni abil teostatakse seda sarnaselt:

    lahtrite vahemikku C21:D21 sisestage massiivivalemina funktsioon LGRFPRIBL: =( LGRFPRIBL (B4:B14;A4:A14)). Sel juhul määratakse parameetri m väärtus lahtris C21 ja parameetri b väärtus lahtris D21;

    valem sisestatakse lahtrisse E4: =$D*$C^A4;

    täitemarkerit kasutades kopeeritakse see valem lahtrite vahemikku E4:E17, kus paiknevad eksponentsiaalse regressiooni andmeread (vt joonis 12).

Joonisel fig. 13 näitab tabelit, kus näeme funktsioone, mida kasutame koos vajalike lahtrivahemikega, ja ka valemeid.

Väärtus R 2 helistas määramiskoefitsient.

Regressioonisõltuvuse konstrueerimise ülesandeks on leida mudeli (1) koefitsientide m vektor, mille juures koefitsient R saab suurima väärtuse.

R-i olulisuse hindamiseks kasutatakse Fisheri F-testi, mis arvutatakse valemiga

Kus n- valimi suurus (katsete arv);

k on mudeli koefitsientide arv.

Kui F ületab mõne andmete kriitilise väärtuse n Ja k ja aktsepteeritud usaldusnivoo, siis loetakse R väärtus oluliseks. tabelid kriitilised väärtused F on toodud matemaatilise statistika teatmeteostes.

Seega määrab R olulisuse mitte ainult selle väärtus, vaid ka katsete arvu ja mudeli koefitsientide (parameetrite) arvu suhe. Tõepoolest, lihtsa lineaarse mudeli korrelatsioonisuhe n=2 on 1 (tasapinna kahe punkti kaudu saate alati tõmmata ühe sirge). Kui aga katseandmed on juhuslikud muutujad, tuleks sellist R väärtust väga hoolikalt usaldada. Tavaliselt on olulise R ja usaldusväärse regressiooni saamiseks suunatud sellele, et katsete arv ületaks oluliselt mudeli koefitsientide arvu (n>k).

Lineaarse regressioonimudeli koostamiseks peate:

1) koostage katseandmeid sisaldav n rea ja m veeru loend (väljundväärtust sisaldav veerg Y peab olema loendis esimene või viimane); Näiteks võtame eelmise ülesande andmed, lisades veeru nimega "perioodi number", nummerdades perioodide arvud vahemikus 1 kuni 12. (need on väärtused X)

2) minge menüüsse Data/Data Analysis/Regression

Kui menüüst "Tööriistad" on puudu "Andmete analüüs", siis tuleks minna sama menüü punkti "Lisandmoodulid" ja teha linnuke ruut "Analüüsipakett".

3) määrake dialoogiboksis "Regression":

sisestusintervall Y;

sisestusintervall X;

väljundi intervall - intervalli ülemine vasakpoolne lahter, kuhu arvutustulemused paigutatakse (soovitav on asetada see uuele töölehel);

4) klõpsake "Ok" ja analüüsige tulemusi.

Vähimruutude meetod (OLS, eng. Tavalised vähimruudud, OLS) - matemaatiline meetod, mida kasutatakse erinevate probleemide lahendamiseks, mis põhinevad teatud funktsioonide soovitud muutujatest kõrvalekallete ruudu summa minimeerimisel. Seda saab kasutada ülemääratud võrrandisüsteemide "lahendamiseks" (kui võrrandite arv ületab tundmatute arvu), lahenduse leidmiseks tavalise (mitte ülemäärase) korral mittelineaarsed süsteemid võrrandid mõne funktsiooni punktiväärtuste lähendamiseks. OLS on üks regressioonanalüüsi põhimeetodeid, mille abil saab hinnata regressioonimudelite tundmatuid parameetreid näidisandmete põhjal.

Entsüklopeediline YouTube

    1 / 5

    ✪ Vähimruutude meetod. Teema

    ✪ Mitin I. V. - Füüsilise tulemuste töötlemine. katse – Vähimruutude meetod (4. loeng)

    ✪ Vähimruudud, õppetund 1/2. Lineaarne funktsioon

    ✪ Ökonomeetria. Loeng 5. Vähimruutude meetod

    ✪ Vähimruutude meetod. Vastused

    Subtiitrid

Lugu

Kuni XIX sajandi alguseni. teadlastel puudusid kindlad reeglid sellise võrrandisüsteemi lahendamiseks, milles tundmatute arv on võrrandite arvust väiksem; Kuni selle ajani kasutati konkreetseid meetodeid, olenevalt võrrandite tüübist ja kalkulaatorite leidlikkusest ning seetõttu jõudsid erinevad kalkulaatorid samadest vaatlusandmetest lähtudes erinevatele järeldustele. Gaussile (1795) omistatakse meetodi esmarakendus ning Legendre (1805) avastas ja avaldas selle iseseisvalt selle tänapäevase nime all (fr. Methode des moindres quarres) . Laplace seostas meetodi tõenäosusteooriaga ja Ameerika matemaatik Adrain (1808) kaalus selle tõenäosuslikke rakendusi. Meetod on laialt levinud ja seda täiustavad Encke, Besseli, Hanseni jt edasised uuringud.

Vähimruutude meetodi olemus

Lase x (\displaystyle x)- komplekt n (\displaystyle n) tundmatud muutujad (parameetrid), f i (x) (\displaystyle f_(i)(x)), , m > n (\displaystyle m>n)- funktsioonide komplekt sellest muutujate komplektist. Probleem on selliste väärtuste valimisel x (\displaystyle x) nii, et nende funktsioonide väärtused oleksid mõnele väärtusele võimalikult lähedased y i (\displaystyle y_(i)). Sisuliselt me räägimeülemääratud võrrandisüsteemi "lahenduse" kohta f i (x) = y i (\displaystyle f_(i)(x)=y_(i)), i = 1 , … , m (\displaystyle i=1,\ldots ,m) näidatud tähenduses vasakpoolse maksimaalse läheduse ja õiged osad süsteemid. LSM-i olemus on valida "läheduse mõõdupuuks" vasak- ja parempoolsete osade ruudu hälvete summa. | f i (x) − y i | (\displaystyle |f_(i)(x)-y_(i)|). Seega saab LSM-i olemust väljendada järgmiselt:

∑ i e i 2 = ∑ i (y i − f i (x)) 2 → min x (\kuvastiil \sum _(i)e_(i)^(2)=\sum _(i)(y_(i)-f_( i)(x))^(2)\paremnool \min _(x)).

Kui võrrandisüsteemil on lahend, siis on ruutude summa miinimum võrdne nulliga ja võrrandisüsteemi täpsed lahendid on leitavad analüütiliselt või näiteks erinevate arvulise optimeerimise meetoditega. Kui süsteem on ülemääratletud, see tähendab vabalt öeldes sõltumatute võrrandite arv rohkem kogust tundmatute muutujate korral ei ole süsteemil täpset lahendust ja vähimruutude meetod võimaldab leida mingi "optimaalse" vektori x (\displaystyle x) vektorite maksimaalse läheduse mõttes y (\displaystyle y) Ja f (x) (\displaystyle f(x)) või hälbevektori maksimaalne lähedus e (\displaystyle e) nullini (lähedust mõistetakse eukleidilise kauguse tähenduses).

Näide – lineaarvõrrandisüsteem

Eelkõige saab süsteemi "lahendamiseks" kasutada vähimruutude meetodit lineaarvõrrandid

A x = b (\displaystyle Ax=b),

Kus A (\displaystyle A) ristkülikukujuline maatriks m × n , m > n (\displaystyle m\times n,m>n)(st maatriksi A ridade arv on suurem kui vajalike muutujate arv).

Selline võrrandisüsteem sisse üldine juhtum pole lahendust. Seetõttu saab seda süsteemi "lahendada" ainult sellise vektori valimise mõttes x (\displaystyle x) vektorite vahelise "kauguse" minimeerimiseks A x (\displaystyle Ax) Ja b (\displaystyle b). Selleks saate rakendada süsteemi võrrandite vasak- ja parempoolsete osade ruudu erinevuste summa minimeerimise kriteeriumi, st. (A x − b) T (A x − b) → min (\kuvastiil (Ax-b)^(T)(Ax-b)\paremnool \min ). Lihtne on näidata, et selle minimeerimisülesande lahendamine viib järgmise võrrandisüsteemi lahendamiseni

A T A x = A T b ⇒ x = (AT A) − 1 A T b (\displaystyle A^(T)Ax=A^(T)b\Paremnool x=(A^(T)A)^(-1)A^ (T)b).

OLS regressioonanalüüsis (andmete ligikaudne väärtus)

Las olla n (\displaystyle n) mõne muutuja väärtused y (\displaystyle y)(see võib olla vaatluste, katsete vms tulemused) ja vastavad muutujad x (\displaystyle x). Väljakutse on luua suhe y (\displaystyle y) Ja x (\displaystyle x) ligikaudne mõne tuntud funktsiooni järgi kuni mõne tundmatu parameetrini b (\displaystyle b) st tegelikult leidke parameetrite parimad väärtused b (\displaystyle b), mis on väärtustele maksimaalselt ligikaudne f (x, b) (\displaystyle f(x,b)) tegelikele väärtustele y (\displaystyle y). Tegelikult taandub see ülemääratud võrrandisüsteemi "lahenduseks" b (\displaystyle b):

F (x t , b) = y t, t = 1, …, n (\displaystyle f(x_(t),b)=y_(t),t=1,\ldots ,n).

Regressioonanalüüsis ja eriti ökonomeetrias kasutatakse muutujatevahelise seose tõenäosusmudeleid.

Y t = f (x t , b) + ε t (\displaystyle y_(t)=f(x_(t),b)+\varepsilon _(t)),

Kus ε t (\displaystyle \varepsilon _(t))- nn juhuslikud vead mudelid.

Vastavalt sellele vaadeldavate väärtuste kõrvalekalded y (\displaystyle y) mudelist f (x, b) (\displaystyle f(x,b)) mudelis endas juba eeldatud. LSM-i (tavaline, klassikaline) olemus on selliste parameetrite leidmine b (\displaystyle b), mille juures on hälvete ruudu summa (vead, regressioonimudelite puhul nimetatakse neid sageli regressioonijääkideks) e t (\displaystyle e_(t)) on minimaalne:

b ^ O L S = arg ⁡ min b R S S (b) (\displaystyle (\hat (b))_(OLS)=\arg \min _(b)RSS(b)),

Kus R S S (\displaystyle RSS)- Inglise. Ruudude jääksumma on määratletud järgmiselt:

R S S (b) = e T e = ∑ t = 1 n e t 2 = ∑ t = 1 n (y t − f (x t , b)) 2 (\displaystyle RSS(b)=e^(T)e=\sum _ (t=1)^(n)e_(t)^(2)=\summa _(t=1)^(n)(y_(t)-f(x_(t),b))^(2) ).

Üldjuhul saab seda probleemi lahendada arvuliste optimeerimise (minimeerimise) meetoditega. Sel juhul räägitakse mittelineaarsed vähimruudud(NLS või NLLS – eng. Non-linear Least Squares). Paljudel juhtudel on võimalik saada analüütiline lahendus. Minimeerimisülesande lahendamiseks on vaja leida funktsiooni statsionaarsed punktid R S S (b) (\displaystyle RSS(b)), eristades seda tundmatute parameetrite järgi b (\displaystyle b), võrdsustades tuletised nulliga ja lahendades saadud võrrandisüsteemi:

∑ t = 1 n (y t − f (x t , b)) ∂ f (x t , b) ∂ b = 0 (\kuvastiil \summa _(t=1)^(n)(y_(t)-f(x_ (t),b))(\frac (\partial f(x_(t),b))(\partial b))=0).

LSM lineaarse regressiooni korral

Olgu regressioonisõltuvus lineaarne:

y t = ∑ j = 1 k b j x t j + ε = x t T b + ε t (\displaystyle y_(t)=\sum _(j=1)^(k)b_(j)x_(tj)+\varepsilon =x_( t)^(T)b+\varepsilon _(t)).

Lase y on seletatava muutuja vaatluste veeruvektor ja X (\displaystyle X)- See (n × k) (\displaystyle ((n\ korda k)))- tegurite vaatluste maatriks (maatriksi read - selle vaatluse tegurite väärtuste vektorid, veergude kaupa - väärtuste vektor see tegur kõigis vaatlustes). Lineaarse mudeli maatriksesitus on järgmisel kujul:

y = Xb + ε (\displaystyle y=Xb+\varepsilon ).

Siis on seletatava muutuja hinnangute vektor ja regressioonijääkide vektor võrdne

y ^ = X b , e = y − y ^ = y − X b (\displaystyle (\hat (y))=Xb,\quad e=y-(\hat (y))=y-Xb).

vastavalt on regressioonijääkide ruutude summa võrdne

R S S = e T e = (y − X b) T (y − X b) (\displaystyle RSS=e^(T)e=(y-Xb)^(T)(y-Xb)).

Selle funktsiooni eristamine parameetri vektori suhtes b (\displaystyle b) ja võrdsustades tuletised nulliga, saame võrrandisüsteemi (maatriksi kujul):

(X T X) b = X T y (\displaystyle (X^(T)X)b=X^(T)y).

Dešifreeritud maatriksi kujul näeb see võrrandisüsteem välja järgmine:

(∑ x t 1 2 ∑ x t 1 x t 2 ∑ x t 1 x t 3 … ∑ x t 1 x t k ∑ x t 2 x t 1 ∑ x t 2 2 ∑ x x t 2 x t 3 k 3 x t 3 … ∑ 3 ∑ x t 3 x t 2 ∑ x t 3 2 … ∑ x t 3 x t k ⋮ ⋮ ⋮ ⋱ ⋮ ∑ x t k x t 1 ∑ x t k x t 2 ∑ x t k x t 3 … ∑ x t k 2 … ∑ x t k 2) (b 3 1 b) (b 3 1 b) t ∑ x t 2 y t ∑ x t 3 y t ⋮ ∑ x t k y t) , (\displaystyle (\begin(pmatrix)\sum x_(t1)^(2)&\sum x_(t1)x_(t2)&\sum x_(t1)x_(t3)&\ldots &\summa x_(t1)x_(tk)\\\summa x_(t2)x_(t1)&\summa x_(t2)^(2)&\summa x_(t2)x_(t3)&\lpunktid &\ summa x_(t2)x_(tk)\\\summa x_(t3)x_(t1)&\summa x_(t3)x_(t2)&\summa x_(t3)^(2)&\lpunktid &\summa x_ (t3)x_(tk)\\\vpunktid &\vpunktid &\vpunktid &\dpunktid &\vpunktid \\\summa x_(tk)x_(t1)&\summa x_(tk)x_(t2)&\sum x_ (tk)x_(t3)&\lpunktid &\summa x_(tk)^(2)\\\end(pmaatriks))(\begin(pmaatriks)b_(1)\\b_(2)\\b_(3 )\\\vdots \\b_(k)\\\end(pmaatriks))=(\begin(pmatrix)\sum x_(t1)y_(t)\\\sum x_(t2)y_(t)\\ \sum x_(t3)y_(t)\\\vdots \\\sum x_(tk)y_(t)\\\end(pmatrix))) kus kõik summad võetakse üle kõikidest lubatavatest väärtustest t (\displaystyle t).

Kui mudelis on konstant (nagu tavaliselt), siis x t 1 = 1 (\displaystyle x_(t1)=1) kõigi jaoks t (\displaystyle t), seetõttu on võrrandisüsteemi maatriksi ülemises vasakus nurgas vaatluste arv n (\displaystyle n), ning esimese rea ja esimese veeru ülejäänud elementides - ainult muutujate väärtuste summa: ∑ x t j (\kuvastiil \summa x_(tj)) ja süsteemi parema poole esimene element - ∑ y t (\displaystyle \sum y_(t)).

Selle võrrandisüsteemi lahendus annab lineaarse mudeli vähimruutude hinnangute üldvalemi:

b ^ O L S = (X T X) − 1 X T y = (1 n X T X) − 1 1 n X T y = V x − 1 C x y (\displaystyle (\hat (b))_(OLS)=(X^(T) )X)^(-1)X^(T)y=\left((\frac (1)(n))X^(T)X\right)^(-1)(\frac (1)(n ))X^(T)y=V_(x)^(-1)C_(xy)).

Analüütilistel eesmärkidel osutub kasulikuks selle valemi viimane esitus (võrrandisüsteemis n-ga jagamisel ilmuvad summade asemel aritmeetilised keskmised). Kui andmed regressioonimudelis tsentreeritud, siis selles esituses on esimene maatriks tegurite valimi kovariatsioonimaatriksi tähendus ja teine ​​on sõltuva muutujaga tegurite kovariatsioonide vektor. Kui lisaks andmed on ka normaliseeritud SKO-s (see tähendab lõpuks standarditud), siis esimesel maatriksil on tegurite valimi korrelatsioonimaatriksi tähendus, teisel vektoril - sõltuva muutujaga tegurite valimikorrelatsioonide vektor.

Mudelite LLS-i hinnangute oluline omadus konstandiga- konstrueeritud regressiooni joon läbib näidisandmete raskuskeskme, see tähendab, et võrdsus on täidetud:

y ¯ = b 1 ^ + ∑ j = 2 k b ^ j x ¯ j (\displaystyle (\bar (y))=(\hat (b_(1)))+\summa _(j=2)^(k) (\müts (b))_(j)(\bar (x))_(j)).

Eriti äärmuslikul juhul, kui ainsaks regressoriks on konstant, leiame, et ühe parameetri (konstandi enda) OLS-hinnang on võrdne seletatava muutuja keskmise väärtusega. See on aritmeetiline keskmine, mis on tuntud selle poolest head omadused suurte arvude seadustest, on ka vähimruutude hinnang - see täidab sellest kõrvalekaldumise miinimumruutsumma kriteeriumi.

Lihtsamad erijuhtumid

Paarilise lineaarse regressiooni korral y t = a + b x t + ε t (\kuvastiil y_(t)=a+bx_(t)+\varepsilon _(t)), kui ühe muutuja lineaarset sõltuvust teisest hinnatakse, on arvutusvalemid lihtsustatud (saate ilma maatriksalgebra). Võrrandisüsteemil on järgmine vorm:

(1 x ¯ x ¯ x 2 ¯) (a b) = (y ¯ x y ¯) (\displaystyle (\begin(pmatrix)1&(\bar (x))\\(\bar (x))&(\bar (x^(2)))\\\end(pmaatriks))(\begin(pmatrix)a\\b\\\end(pmaatriks))=(\begin(pmatrix)(\bar (y))\\ (\overline(xy))\\\end(pmatrix))).

Siit on lihtne leida koefitsientide hinnanguid:

( b ^ = Cov ⁡ (x , y) Var ⁡ (x) = x y ¯ − x ¯ y ¯ x 2 ¯ − x ¯ 2, a ^ = y ¯ − b x . (\displaystyle (\begin(cases) (\hat (b))=(\frac (\mathop (\textrm (Cov)) (x,y))(\mathop (\textrm (Var)) (x)))=(\frac ((\overline) (xy))-(\bar (x))(\bar (y)))((\overline (x^(2)))-(\overline (x))^(2))),\\( \hat (a))=(\bar (y))-b(\bar (x)).\lõpp(juhtumid)))

Vaatamata asjaolule, et üldiselt eelistatakse konstandiga mudeleid, on mõnel juhul teoreetilistest kaalutlustest teada, et konstant a (\displaystyle a) peaks olema võrdne nulliga. Näiteks füüsikas on pinge ja voolu suhtel vorm U = I ⋅ R (\displaystyle U=I\cdot R); pinge ja voolu mõõtmisel on vaja hinnata takistust. Sel juhul räägime mudelist y = b x (\displaystyle y=bx). Sel juhul on võrrandisüsteemi asemel üks võrrand

(∑ x t 2) b = ∑ x t y t (\displaystyle \left(\sum x_(t)^(2)\right)b=\sum x_(t)y_(t)).

Seetõttu on ühe koefitsiendi hindamise valemil selline vorm

B ^ = ∑ t = 1 n x t y t ∑ t = 1 n x t 2 = x y ¯ x 2 ¯ (\displaystyle (\hat (b))=(\frac (\sum _(t=1)^(n)x_(t )y_(t))(\sum _(t=1)^(n)x_(t)^(2)))=(\frac (\overline (xy))(\overline (x^(2)) ))).

Polünoomimudeli juhtum

Kui andmed on sobitatud ühe muutuja polünoomilise regressioonifunktsiooniga f (x) = b 0 + ∑ i = 1 k b i x i (\displaystyle f(x)=b_(0)+\sum \limits _(i=1)^(k)b_(i)x^(i)), siis kraadide tajumine x i (\displaystyle x^(i)) sõltumatute teguritena i (\displaystyle i) on võimalik hinnata mudeli parameetreid lineaarse mudeli parameetrite hindamise üldvalemi alusel. Selleks piisab, kui võtta üldvalemis arvesse, et sellise tõlgendusega x t i x t j = x t i x t j = x t i + j (\displaystyle x_(ti)x_(tj)=x_(t)^(i)x_(t)^(j)=x_(t)^(i+j)) Ja x t j y t = x t j y t (\displaystyle x_(tj)y_(t)=x_(t)^(j)y_(t)). Seega maatriksvõrrandid sel juhul on vorm:

(n ∑ n x t … ∑ n x t k ∑ n x t ∑ n x i 2 … ∑ m x i k + 1 ⋮ ⋮ ⋱ ⋮ ∑ n x t k ∑ n x t k ∑ n x t k + 1 n … ] = [ ∑ n y t ∑ n x t y t ⋮ ∑ n x t k y t ] . (\displaystyle (\begin(pmatrix)n&\sum \limits _(n)x_(t)&\ldots &\sum \limits _(n)x_(t)^(k)\\\summa \limits _( n)x_(t)&\summa \limits _(n)x_(i)^(2)&\lpunktid &\summa \limits _(m)x_(i)^(k+1)\\\vpunktid & \vdots &\ddots &\vdots \\\sum \limits _(n)x_(t)^(k)&\sum \limits _(n)x_(t)^(k+1)&\lpunktid &\ summa \limits _(n)x_(t)^(2k)\end(pmaatriks))(\begin(bmaatriks)b_(0)\\b_(1)\\\vdots \\b_(k)\end( bmatrix))=(\begin(bmatrix)\sum \limits _(n)y_(t)\\\sum \limits _(n)x_(t)y_(t)\\\vdots \\\sum \limits _(n)x_(t)^(k)y_(t)\end(bmaatriks)).

OLS-i hinnangute statistilised omadused

Kõigepealt märgime, et lineaarsete mudelite puhul on vähimruutude hinnangud lineaarsed hinnangud, nagu ülaltoodud valemist. Erapooletute vähimruutude hinnangute jaoks on vajalik ja piisav, et hädavajalik tingimus regressioonanalüüs: teguritest sõltudes peab juhusliku vea matemaatiline ootus olema võrdne nulliga. See tingimus on täidetud eelkõige juhul, kui

  1. juhuslike vigade matemaatiline ootus on null ja
  2. tegurid ja juhuslikud vead on sõltumatud juhuslikud  väärtused.

Teine tingimus - eksogeensete tegurite seisund - on fundamentaalne. Kui see omadus ei ole täidetud, siis võime eeldada, et peaaegu kõik hinnangud on äärmiselt ebarahuldavad: need pole isegi järjepidevad (st isegi väga suur hulk andmeid ei võimalda sel juhul kvalitatiivseid hinnanguid saada). Klassikalisel juhul tehakse tugevam eeldus tegurite determinismi kohta, vastupidiselt juhuslikule veale, mis tähendab automaatselt, et eksogeenne tingimus on täidetud. Üldjuhul piisab hinnangute järjepidevuse tagamiseks eksogeensuse tingimuse täitmisest koos maatriksi konvergentsiga V x (\displaystyle V_(x)) mõnele mittedegenereerunud maatriksile, kui valimi suurus suureneb lõpmatuseni.

Selleks, et lisaks järjepidevusele ja erapooletusele oleksid (tavaliste) vähimruutude hinnangud ka efektiivsed (parimad lineaarsete kallutamata hinnangute klassis), on vaja täita juhusliku vea lisaomadusi:

Neid eeldusi saab sõnastada juhuslike vigade vektori kovariatsioonimaatriksi jaoks V (ε) = σ 2 I (\displaystyle V(\varepsilon)=\sigma ^(2)I).

Neid tingimusi rahuldavat lineaarset mudelit nimetatakse klassikaline. Klassikalise lineaarse regressiooni OLS-i hinnangud on erapooletud, järjepidevad ja kõige tõhusamad hinnangud kõigi lineaarsete erapooletute hinnangute klassis (ingliskeelses kirjanduses kasutatakse mõnikord lühendit sinine (Parim lineaarne erapooletu hindaja) on parim lineaarne erapooletu hinnang; kodumaises kirjanduses tsiteeritakse sagedamini Gauss - Markovi teoreemi). Nagu on lihtne näidata, on koefitsientide hinnangute vektori kovariatsioonimaatriks võrdne:

V (b ^ O L S) = σ 2 (X T X) − 1 (\displaystyle V((\hat (b))_(OLS))=\sigma ^(2)(X^(T)X)^(-1 )).

Tõhusus tähendab, et see kovariatsioonimaatriks on "minimaalne" (mis tahes lineaarsel koefitsientide kombinatsioonil ja eriti koefitsientidel endil on minimaalne dispersioon), see tähendab, et lineaarsete erapooletute hinnangute klassis on OLS-i hinnangud parimad. Selle maatriksi diagonaalelemendid - koefitsientide hinnangute dispersioonid - olulised parameetrid saadud hinnangute kvaliteet. Kovariatsioonimaatriksit pole aga võimalik arvutada, kuna juhusliku vea dispersioon on teadmata. Võib tõestada, et juhuslike vigade dispersiooni erapooletu ja järjepidev (klassikalise lineaarse mudeli puhul) hinnang on väärtus:

S 2 = R S S / (n − k) (\displaystyle s^(2)=RSS/(n-k)).

Asendades selle väärtuse kovariatsioonimaatriksi valemis, saame kovariatsioonimaatriksi hinnangu. Saadud hinnangud on samuti erapooletud ja järjepidevad. Samuti on oluline, et vea dispersiooni hinnang (ja sellest tulenevalt ka koefitsientide dispersioonid) ja mudeli parameetrite hinnangud on sõltumatud juhuslikud suurused, mis võimaldab saada testistatistikat mudeli koefitsientide kohta püstitatud hüpoteeside kontrollimiseks.

Tuleb märkida, et kui klassikalised eeldused ei ole täidetud, ei ole vähimruutude parameetrite hinnangud kõige tõhusamad ja kus W (\displaystyle W) on mingi sümmeetriline positiivne kindla kaalu maatriks. Tavalised vähimruutud on selle lähenemisviisi erijuhtum, kui kaalumaatriks on proportsionaalne identiteedi maatriks. Nagu teada, toimub sümmeetriliste maatriksite (või operaatorite) puhul lagunemine W = P T P (\displaystyle W=P^(T)P). Seetõttu saab seda funktsiooni kujutada järgmiselt e T P T P e = (P e) T P e = e ∗ T e ∗ (\displaystyle e^(T)P^(T)Pe=(Pe)^(T)Pe=e_(*)^(T)e_( *)) st seda funktsionaalset saab esitada mõne teisendatud "jääkide" ruutude summana. Seega saame eristada vähimruutude meetodite klassi - LS-meetodid (Least Squares).

On tõestatud (Aitkeni teoreem), et üldistatud lineaarse regressioonimudeli puhul (milles juhuslike vigade kovariatsioonimaatriksile piiranguid ei seata) on kõige efektiivsemad (lineaarsete erapooletute hinnangute klassis) hinnangud nn. üldistatud OLS (OMNK, GLS – üldistatud vähimruudud)- LS-meetod kaalumaatriksiga, mis on võrdne juhuslike vigade pöördkovariatsioonimaatriksiga: W = V ε − 1 (\displaystyle W=V_(\varepsilon )^(-1)).

Võib näidata, et lineaarse mudeli parameetrite GLS-hinnangute valem on kujul

B ^ G L S = (X T V − 1 X) − 1 X T V − 1 y (\displaystyle (\hat (b))_(GLS)=(X^(T)V^(-1)X)^(-1) X^(T)V^(-1)y).

Nende hinnangute kovariatsioonimaatriks on vastavalt võrdne

V (b ^ G L S) = (X T V − 1 X) − 1 (\displaystyle V((\hat (b))_(GLS))=(X^(T)V^(-1)X)^(- 1)).

Tegelikult seisneb OLS-i olemus algandmete teatud (lineaarses) teisenduses (P) ja tavaliste vähimruutude rakendamises teisendatud andmetele. Selle teisenduse eesmärk on, et teisendatud andmete juhuslikud vead rahuldaksid juba klassikalisi eeldusi.

Kaalutud vähimruudud

Diagonaalse kaalumaatriksi (ja sellest ka juhuslike vigade kovariatsioonimaatriksi) puhul on meil nn kaalutud vähimruutud (WLS – Weighted Least Squares). Sel juhul minimeeritakse mudeli jääkide kaalutud ruutude summa, see tähendab, et iga vaatlus saab "kaalu", mis on pöördvõrdeline selle vaatluse juhusliku vea dispersiooniga: e T W e = ∑ t = 1 n e t 2 σ t 2 (\displaystyle e^(T)We=\sum _(t=1)^(n)(\frac (e_(t)^(2))(\ sigma _(t)^(2)))). Tegelikult teisendatakse andmed vaatluste kaalumise teel (jagades hinnanguga võrdelise summaga standardhälve juhuslikud vead), samas kui kaalutud andmetele rakendatakse tavalisi vähimruutusid.

ISBN 978-5-7749-0473-0.

  • Ökonomeetria. Õpik / Toim. Eliseeva I. I. – 2. väljaanne. - M. : Rahandus ja statistika, 2006. - 576 lk. - ISBN 5-279-02786-3.
  • Alexandrova N.V. Matemaatikaterminite, mõistete, tähistuste ajalugu: sõnastik-teatmik. - 3. väljaanne - M. : LKI, 2008. - 248 lk. - ISBN 978-5-382-00839-4. I.V. Mitin, Rusakov V.S. Katseandmete analüüs ja töötlemine - 5. trükk - 24p.
  • Vähimruutude meetod (LSM) võimaldab hinnata erinevaid suurusi, kasutades paljude juhuslikke vigu sisaldavate mõõtmiste tulemusi.

    Iseloomulik MNC

    Selle meetodi põhiidee seisneb selles, et ülesande lahenduse täpsuse kriteeriumiks peetakse vigade ruudu summat, mida püütakse minimeerida. Selle meetodi kasutamisel saab rakendada nii numbrilisi kui ka analüütilisi lähenemisviise.

    Eelkõige eeldab vähimruutude meetod arvulise teostusena võimalikult palju läbiviimist rohkem tundmatu mõõtmised juhuslik muutuja. Veelgi enam, mida rohkem arvutusi, seda täpsem on lahendus. Sellel arvutuskomplektil (algandmetel) saadakse veel üks pakutud lahenduste komplekt, millest seejärel valitakse välja parim. Kui lahenduste hulk on parametriseeritud, taandatakse vähimruutude meetod parameetrite optimaalse väärtuse leidmiseks.

    Analüütilise lähenemisena LSM-i rakendamisele lähteandmete (mõõtmiste) ja pakutud lahenduste kogumi kohta on määratletud mõned (funktsionaalsed), mida saab väljendada valemiga, mis on saadud teatud hüpoteesina, mis vajab kinnitamist. Sel juhul taandatakse vähimruutude meetod selle funktsionaalsuse miinimumi leidmiseks algandmete ruuduvigade hulgast.

    Pange tähele, et mitte vead ise, vaid vigade ruudud. Miks? Fakt on see, et sageli on mõõtmiste kõrvalekalded täpne väärtus on nii positiivsed kui ka negatiivsed. Keskmise määramisel võib lihtne liitmine viia hinnangu kvaliteedi kohta vale järelduseni, kuna positiivsete ja negatiivsete väärtuste vastastikune tühistamine vähendab mõõtmiskomplekti proovivõtuvõimsust. Ja sellest tulenevalt ka hinnangu täpsus.

    Et seda ei juhtuks, summeeritakse kõrvalekalded ruudus. Veelgi enam, mõõdetud väärtuse ja lõpliku hinnangu mõõtmete võrdsustamiseks kasutatakse väljavõtmiseks vigade ruudu summat.

    Mõned MNC-de rakendused

    MNC-d kasutatakse laialdaselt erinevates valdkondades. Näiteks tõenäosusteoorias ja matemaatilises statistikas kasutatakse meetodit juhusliku suuruse sellise tunnuse määramiseks nagu keskmine standardhälve, mis määrab juhusliku suuruse väärtusvahemiku laiuse.

    Kui mõned füüsiline kogus sõltub teisest suurusest, siis saab seda sõltuvust uurida mõõtes y at erinevad väärtused x . Mõõtmiste tulemusena saadakse rida väärtusi:

    x 1 , x 2 , ..., x i , ... , x n ;

    y 1 , y 2 , ..., y i , ... , y n .

    Sellise katse andmete põhjal on võimalik joonistada sõltuvus y = ƒ(x). Saadud kõver võimaldab hinnata funktsiooni ƒ(x) kuju. Kuid konstantsed koefitsiendid, mis sellesse funktsiooni kuuluvad, jäävad teadmata. Neid saab määrata vähimruutude meetodil. Katsepunktid ei asu reeglina täpselt kõveral. Vähimruutude meetod eeldab, et katsepunktide kõverast kõrvalekallete ruudu summa, s.o. 2 oli väikseim.

    Praktikas kasutatakse seda meetodit kõige sagedamini (ja kõige lihtsamalt) lineaarse seose korral, s.o. Millal

    y=kx või y = a + bx.

    Lineaarne sõltuvus füüsikas väga levinud. Ja isegi kui sõltuvus on mittelineaarne, püütakse tavaliselt graafikut koostada nii, et saadakse sirgjoon. Näiteks kui eeldada, et klaasi n murdumisnäitaja on seotud valguslaine lainepikkusega λ suhtega n = a + b/λ 2, siis n sõltuvus λ -2-st kantakse graafikule. .

    Mõelge sõltuvusele y=kx(orige, mis läbib alguspunkti). Koostame väärtuse φ meie punktide sirgest kõrvalekallete ruudu summa

    φ väärtus on alati positiivne ja osutub väiksemaks, seda lähemal on meie punktid sirgele. Vähimruutude meetod ütleb, et k jaoks tuleks valida selline väärtus, mille juures φ on miinimum


    või
    (19)

    Arvutus näitab, et k väärtuse määramise ruutkeskmise viga on võrdne

    , (20)
    kus n on mõõtmete arv.

    Vaatleme nüüd mõnevõrra raskemat juhtumit, kui punktid peavad valemile vastama y = a + bx(sirge, mis ei läbi alguspunkti).

    Ülesandeks on antud väärtuste hulgast x i , y i leida a ja b parimad väärtused.

    Jällegi koostame ruutkuju φ, mis võrdub punktide x i , y i sirgest kõrvalekallete ruudu summaga

    ja leida väärtused a ja b, mille jaoks φ on miinimum

    ;

    .

    .

    Nende võrrandite ühislahendus annab

    (21)

    A ja b määramise ruutkeskmised vead on võrdsed

    (23)

    .  (24)

    Mõõtmistulemuste töötlemisel sellel meetodil on mugav koondada kõik andmed tabelisse, milles on eelnevalt välja arvutatud kõik valemites (19)(24) sisalduvad summad. Nende tabelite vormid on näidatud allolevates näidetes.

    Näide 1 Uuriti pöörleva liikumise dünaamika põhivõrrandit ε = M/J (algopunkti läbiv sirgjoon). Momendi M erinevate väärtuste korral mõõdeti teatud keha nurkiirendust ε. On vaja kindlaks määrata selle keha inertsimoment. Jõumomendi ja nurkkiirenduse mõõtmise tulemused on loetletud teises ja kolmandas veerus tabelid 5.

    Tabel 5
    n M, N m e, s-1 M2 M ε ε - kM (ε - kM) 2
    1 1.44 0.52 2.0736 0.7488 0.039432 0.001555
    2 3.12 1.06 9.7344 3.3072 0.018768 0.000352
    3 4.59 1.45 21.0681 6.6555 -0.08181 0.006693
    4 5.90 1.92 34.81 11.328 -0.049 0.002401
    5 7.45 2.56 55.5025 19.072 0.073725 0.005435
    – – 123.1886 41.1115 – 0.016436

    Valemiga (19) määrame:

    .

    Ruutkeskmise vea määramiseks kasutame valemit (20)

    0.005775kg-1 · m -2 .

    Valemi (18) järgi on meil

    ; .

    SJ = (2,996 0,005775) / 0,3337 = 0,05185 kg m 2.

    Arvestades usaldusväärsust P = 0,95, leiame Studenti koefitsientide tabeli järgi n = 5 korral t = 2,78 ja määrame absoluutne vigaΔJ = 2,78 0,05185 = 0,1441 ≈ 0,2 kg m 2.

    Kirjutame tulemused kujul:

    J = (3,0 ± 0,2) kg m 2;


    Näide 2 Arvutame metalli temperatuuri takistuse koefitsiendi vähimruutude meetodil. Vastupidavus sõltub temperatuurist vastavalt lineaarsele seadusele

    R t \u003d R 0 (1 + α t °) \u003d R 0 + R 0 α t °.

    Vaba liige määrab takistuse R 0 temperatuuril 0 ° C ja nurkkoefitsient on temperatuuriteguri α ja takistuse R 0 korrutis.

    Mõõtmiste ja arvutuste tulemused on toodud tabelis ( vaata tabelit 6).

    Tabel 6
    n t°, s r, ohm t-¯t (t-¯t) 2 (t-¯t)r r-bt-a (r - bt - a) 2,10 -6
    1 23 1.242 -62.8333 3948.028 -78.039 0.007673 58.8722
    2 59 1.326 -26.8333 720.0278 -35.581 -0.00353 12.4959
    3 84 1.386 -1.83333 3.361111 -2.541 -0.00965 93.1506
    4 96 1.417 10.16667 103.3611 14.40617 -0.01039 107.898
    5 120 1.512 34.16667 1167.361 51.66 0.021141 446.932
    6 133 1.520 47.16667 2224.694 71.69333 -0.00524 27.4556
    515 8.403 – 8166.833 21.5985 – 746.804
    ∑/n 85.83333 1.4005 – – – – –

    Valemite (21), (22) abil määrame

    R 0 = ¯ R- α R 0 ¯ t = 1,4005 - 0,002645 85,83333 = 1,1735 Ohm.

    Leiame α definitsioonis vea. Kuna , siis valemiga (18) on meil:

    .

    Kasutades valemeid (23), (24) saame

    ;

    0.014126 Ohm.

    Arvestades usaldusväärsust P = 0,95, leiame Studenti koefitsientide tabeli järgi n = 6 korral t = 2,57 ja määrame absoluutvea Δα = 2,57 0,000132 = 0,000338 kraad -1.

    α = (23 ± 4) 10 -4 rahe-1 at P = 0,95.


    Näide 3 Newtoni rõngaste põhjal on vaja määrata läätse kõverusraadius. Mõõdeti Newtoni rõngaste raadiused r m ja määrati nende rõngaste m arvud. Newtoni rõngaste raadiused on võrrandi abil seotud läätse R kõverusraadiusega ja rõnga numbriga

    r 2 m = mλR - 2d 0 R,

    kus d 0 läätse ja tasapinnalise paralleelse plaadi vahelise pilu paksus (või läätse deformatsioon),

    λ on langeva valguse lainepikkus.

    λ = (600 ± 6) nm;
    r2 m = y;
    m = x;
    λR = b;
    -2d 0 R = a,

    siis võtab võrrand kuju y = a + bx.

    .

    Mõõtmiste ja arvutuste tulemused sisestatakse tabel 7.

    Tabel 7
    n x = m y \u003d r 2, 10 -2 mm 2 m-¯m (m-¯m) 2 (m-¯m) a y-bx-a, 10-4 (y - bx - a) 2, 10 -6
    1 1 6.101 -2.5 6.25 -0.152525 12.01 1.44229
    2 2 11.834 -1.5 2.25 -0.17751 -9.6 0.930766
    3 3 17.808 -0.5 0.25 -0.08904 -7.2 0.519086
    4 4 23.814 0.5 0.25 0.11907 -1.6 0.0243955
    5 5 29.812 1.5 2.25 0.44718 3.28 0.107646
    6 6 35.760 2.5 6.25 0.894 3.12 0.0975819
    21 125.129 – 17.5 1.041175 – 3.12176
    ∑/n 3.5 20.8548333 – – – – –

    Seotud väljaanded

    • Milline on bronhiidi pilt Milline on bronhiidi pilt

      on difuusne progresseeruv põletikuline protsess bronhides, mis viib bronhide seina morfoloogilise restruktureerimiseni ja ...

    • HIV-nakkuse lühikirjeldus HIV-nakkuse lühikirjeldus

      Inimese immuunpuudulikkuse sündroom - AIDS, Inimese immuunpuudulikkuse viirusinfektsioon - HIV-nakkus; omandatud immuunpuudulikkus...