Metoda najmanjših kvadratov: definicija, zgodovina in uporaba

Metoda najmanjših kvadratov: jasna definicija, zgodovina od Gaussa in Legendreja ter praktične uporabe v statistiki, linearnih modelih in natančnem napovedovanju.

Avtor: Leandro Alegsa

Najmanjši kvadrati je ime postopka v matematiki, s katerim se iz številnih opazovanih vrednosti konstruira funkcija. Osnovna zamisel je izbrati takšno funkcijo (ali model), da je vsota razlik med opazovanimi vrednostmi in vrednostmi, ki jih napoveduje model, čim manjša. Ker so razlike lahko pozitivne ali negativne, se običajno kvadrirajo in minimizira vsota kvadratov odstopkov (residualov): minimiziramo RSS = Σ (y_i − f(x_i))^2.

Matematično ozadje in osnovni primer

V najpogostejšem primeru linearne regresije z enim neodvisnim spremenljivkam x in odvisno y iščemo premico y = a + b x, ki minimizira vsoto kvadratov napak. Rešitvi za koeficiente sta:

  • b = Σ (x_i − x̄)(y_i − ȳ) / Σ (x_i − x̄)^2
  • a = ȳ − b x̄

V splošni vektorski obliki za linearni model y = Xβ + ε minimiziramo ||y − Xβ||^2. Normalne enačbe so X^T X β = X^T y in (če je X^T X obrnljiv) rešitev β̂ = (X^T X)^{-1} X^T y.

Variacije metode

  • Navadni najmanjši kvadrati (OLS): osnovni linearni model brez uteži.
  • Tehtani najmanjši kvadrati (WLS): minimiziramo Σ w_i (y_i − f(x_i))^2, uporabno pri heteroskedastičnosti ali ko imajo meritve različne natančnosti.
  • Nelinearni najmanjši kvadrati: ko je model nelinearen v parametrih (npr. eksponentna krivulja); reši se z iterativnimi metodami, kot sta Gauss–Newton ali Levenberg–Marquardt.
  • Robustne alternative: če so prisotni odstopki (outlierji), se uporabljajo metode kot so najmanjša absolutna deviacija, M-estimatorji ali RANSAC, ki manj občutljivo obravnavajo ekstremne vrednosti.

Zgodovina

Carl Friedrich Gauss je trdil, da je metodo najmanjših kvadratov razvil že leta 1795; metodo je uporabljal pri napovedovanju položaja izgubljenega asteroida 1 Ceres in jo je objavil leta 1807. Konzepte, ki so bili sorodni tej metodi, je predlagal tudi Pierra-Simona Laplacea. Neodvisno je metodo sistematično formaliziral tudi Adrien‑Marie Legendre, ki je o njej prvič javno poročal leta 1805. Skozi 19. in 20. stoletje so se matematični in statistični temelji metode nadalje razvijali v teorijo popravkov meritev, statistično ocenjevanje in numerične postopke.

Lastnosti in predpostavke

  • Gauss–Markovov izrek: če so napake ε imena ničelne pričakovane vrednosti, medsebojno nepovezane in z enako varianco (homoskedastičnost), potem je OLS ocenilec linearnosti in brez pristranskosti z najmanjšimi variancami med vsemi linearnimi nagnjenimi ocenilci (BLUE — best linear unbiased estimator).
  • Za standardno statistično sklepanje (intervali zaupanja, testi) se pogosto predpostavlja še normalnost napak; sicer so napake velikokrat obravnavane z asimptotičnimi rezultati ali bootstrap metodami.
  • Metoda je občutljiva na odstopanja in kolinearnost med napovedovalci (multikolinearnost), ki lahko močno poveča varianco ocen.

Praktična uporaba in računske metode

Najmanjše kvadrate uporabljajo v številnih znanstvenih disciplinah in aplikacijah: astronomija, geodezija, fizika, ekonomija, strojno učenje (linearna regresija), signalna obdelava, kalibracija instrumentov, tomografija in drugo. V podatkovni znanosti je to temeljni pristop za učenje linearnih modelov.

Računsko je reševanje normalnih enačb enostavno, vendar lahko numerično nezanesljivo, kadar je X^T X slabo pogojevano. Zato se v praksi pogosto uporabljata QR dekompozicija ali SVD (singular value decomposition), ki sta bolj stabilni numerični metodi. Za zelo velike ali redke matrike se uporabljajo iterativni algoritmi in metode za razpršene sisteme.

Ocena kakovosti prileganja in diagnostični postopki

  • RSS (residual sum of squares): Σ (y_i − ŷ_i)^2 — manjša vrednost pomeni boljše prileganje.
  • R^2: delež variance odvisne spremenljivke, ki ga pojasni model: R^2 = 1 − RSS/TSS. Pri primerjavi modelov z različnim številom parametrov raje uporabimo prilagojeni R^2 ali kriterije kot so AIC/BIC.
  • Preverjanje predpostavk: analiziramo ostanke (residuale) glede na napovedi ali vhodne spremenljivke, testiramo heteroskedastičnost, preverjamo normalnost residualov in vplivne točke (leverage, Cookov razmerje).

Priporočila in omejitve

Če pri podatkih opažamo heteroskedastičnost, uporabimo tehtane najmanjše kvadrate ali robustne standardne napake. Če so prisotni odstopki, uporabimo robustne metode. Pri nelinearnih modelih izberemo primeren iterativni algoritem in dobro začetno oceno parametrov. Vedno je priporočljivo analizirati residuale in preveriti občutljivost ocen na posamezne meritve.

Metoda najmanjših kvadratov je enostavna, široko uporabna in matematično dobro podprta, vendar je njena uspešnost odvisna od skladnosti podatkov s predpostavkami ter od upoštevanja numerične stabilnosti pri reševanju enačb.

Sorodne strani

  • Navadni najmanjši kvadrati





Iskati
AlegsaOnline.com - 2020 / 2025 - License CC3