Strojové učenie je odvetvie umelej inteligencie, ktoré sa zameriava na vývoj algoritmov a štatistických modelov, ktoré sa dokážu poučiť a predpovedať údaje. Lineárna regresia je tiež typ algoritmu strojového učenia, konkrétnejšie a algoritmus strojového učenia pod dohľadom ktorý sa učí z označených dátových súborov a mapuje dátové body k najoptimalizovanejším lineárnym funkciám. ktoré možno použiť na predikciu nových súborov údajov.
V prvom rade by sme mali vedieť, čo sú to supervidované algoritmy strojového učenia. Je to typ strojového učenia, kde sa algoritmus učí z označených údajov. Označené údaje znamenajú súbor údajov, ktorého príslušná cieľová hodnota je už známa. Učenie pod dohľadom má dva typy:
- Klasifikácia : Predpovedá triedu súboru údajov na základe nezávislej vstupnej premennej. Trieda je kategorické alebo diskrétne hodnoty. ako obraz zvieraťa je mačka alebo pes?
- Regresia : Predpovedá spojité výstupné premenné na základe nezávislej vstupnej premennej. ako je predikcia cien nehnuteľností na základe rôznych parametrov, ako je vek domu, vzdialenosť od hlavnej cesty, poloha, oblasť atď.
Tu budeme diskutovať o jednom z najjednoduchších typov regresie, t.j. Lineárna regresia.
Obsah
- Čo je lineárna regresia?
- Typy lineárnej regresie
- Aká je najlepšia Fit Line?
- Nákladová funkcia pre lineárnu regresiu
- Predpoklady jednoduchej lineárnej regresie
- Predpoklady viacnásobnej lineárnej regresie
- Metriky hodnotenia pre lineárnu regresiu
- Implementácia lineárnej regresie v Pythone
- Regularizačné techniky pre lineárne modely
- Aplikácie lineárnej regresie
- Výhody a nevýhody lineárnej regresie
- Lineárna regresia – často kladené otázky (FAQ)
Čo je lineárna regresia?
Lineárna regresia je typ strojové učenie pod dohľadom algoritmus, ktorý počíta lineárny vzťah medzi závislou premennou a jedným alebo viacerými nezávislými znakmi prispôsobením lineárnej rovnice pozorovaným údajom.
Ak existuje iba jeden nezávislý prvok, je známy ako Jednoduchá lineárna regresia , a ak existuje viac ako jedna funkcia, označuje sa ako Viacnásobná lineárna regresia .
Podobne, keď existuje iba jedna závislá premenná, berie sa do úvahy Jednorozmerná lineárna regresia , zatiaľ čo keď existuje viac ako jedna závislá premenná, je to známe ako Multivariačná regresia .
Prečo je lineárna regresia dôležitá?
Interpretovateľnosť lineárnej regresie je pozoruhodnou silnou stránkou. Rovnica modelu poskytuje jasné koeficienty, ktoré objasňujú vplyv každej nezávislej premennej na závislú premennú, čo uľahčuje hlbšie pochopenie základnej dynamiky. Jeho jednoduchosť je cnosť, pretože lineárna regresia je transparentná, ľahko implementovateľná a slúži ako základný koncept pre zložitejšie algoritmy.
Lineárna regresia nie je len prediktívny nástroj; tvorí základ pre rôzne pokročilé modely. Techniky ako regularizácia a podporné vektorové stroje čerpajú inšpiráciu z lineárnej regresie a rozširujú jej užitočnosť. Lineárna regresia je navyše základným kameňom testovania predpokladov, čo umožňuje výskumníkom overiť kľúčové predpoklady o údajoch.
Typy lineárnej regresie
Existujú dva hlavné typy lineárnej regresie:
Jednoduchá lineárna regresia
Toto je najjednoduchšia forma lineárnej regresie a zahŕňa iba jednu nezávislú premennú a jednu závislú premennú. Rovnica pre jednoduchú lineárnu regresiu je:
kde:
čo je základná zostava ubuntu
- Y je závislá premenná
- X je nezávislá premenná
- β0 je priesečník
- β1 je sklon
Viacnásobná lineárna regresia
To zahŕňa viac ako jednu nezávislú premennú a jednu závislú premennú. Rovnica pre viacnásobnú lineárnu regresiu je:
kde:
- Y je závislá premenná
- X1, X2, …, Xp sú nezávislé premenné
- β0 je priesečník
- β1, β2, …, βn sú sklony
Cieľom algoritmu je nájsť najlepšia Fit línia rovnica, ktorá dokáže predpovedať hodnoty na základe nezávislých premenných.
V regresii je prítomná množina záznamov s hodnotami X a Y a tieto hodnoty sa používajú na učenie funkcie, takže ak chcete predpovedať Y z neznámeho X, môžete použiť túto naučenú funkciu. V regresii musíme nájsť hodnotu Y, takže je potrebná funkcia, ktorá predpovedá spojité Y v prípade regresie, ak je X ako nezávislé znaky.
Aká je najlepšia Fit Line?
Naším hlavným cieľom pri používaní lineárnej regresie je nájsť najvhodnejšiu líniu, čo znamená, že chyba medzi predpokladanými a skutočnými hodnotami by mala byť minimálna. Najmenších chýb bude v rade, ktorá sa najlepšie hodí.
Najlepšia rovnica Fit Line poskytuje priamku, ktorá predstavuje vzťah medzi závislými a nezávislými premennými. Sklon čiary udáva, ako veľmi sa mení závislá premenná pri jednotkovej zmene v nezávislej premennej (premenných).

Lineárna regresia
Y sa tu nazýva závislá alebo cieľová premenná a X sa nazýva nezávislá premenná známa aj ako prediktor Y. Existuje mnoho typov funkcií alebo modulov, ktoré možno použiť na regresiu. Lineárna funkcia je najjednoduchší typ funkcie. Tu môže byť X jedna funkcia alebo viacero funkcií reprezentujúcich problém.
základný jazyk java
Lineárna regresia vykonáva úlohu predpovedať hodnotu závislej premennej (y) na základe danej nezávislej premennej (x). Preto je názov lineárna regresia. Na obrázku vyššie X (vstup) je pracovná skúsenosť a Y (výstup) je plat osoby. Regresná čiara je najvhodnejšia čiara pre náš model.
Na výpočet najlepších hodnôt používame funkciu nákladov, aby sme získali najvhodnejšiu čiaru, pretože rôzne hodnoty váh alebo koeficient čiar vedú k rôznym regresným čiaram.
Funkcia hypotézy v lineárnej regresii
Ako sme už skôr predpokladali, našou nezávislou črtou je skúsenosť, tj X a príslušný plat Y je závislá premenná. Predpokladajme, že medzi X a Y existuje lineárny vzťah, potom je možné predpovedať plat pomocou:
ALEBO
Tu,
y_i epsilon Y ;; (i= 1,2, cdots , n) sú označenia údajov (učenie pod dohľadom)x_i epsilon X ;; (i= 1,2, cdots , n) sú vstupné nezávislé tréningové dáta (jednorozmerné – jedna vstupná premenná (parameter))hat{y_i} epsilon hat{Y} ;; (i= 1,2, cdots , n) sú predpokladané hodnoty.
Model získa najlepšiu líniu regresnej zhody nájdením najlepšieho θ1a θ2hodnoty.
- i 1 : zachytiť
- i 2 : koeficient x
Akonáhle nájdeme to najlepšie θ1a θ2hodnoty, dostaneme najvhodnejšiu líniu. Takže keď konečne použijeme náš model na predikciu, predpovedá hodnotu y ako vstupnú hodnotu x.
Ako aktualizovať θ 1 a θ 2 hodnoty, aby ste získali najvhodnejšiu líniu?
Aby sa dosiahla najvhodnejšia regresná čiara, model sa zameriava na predpovedanie cieľovej hodnoty
Nákladová funkcia pre lineárnu regresiu
The nákladová funkcia alebo stratová funkcia nie je nič iné ako chyba alebo rozdiel medzi predpokladanou hodnotou
Pri lineárnej regresii je Stredná štvorcová chyba (MSE) používa sa nákladová funkcia, ktorá vypočítava priemer druhej mocniny chýb medzi predpokladanými hodnotami
Funkciu MSE možno vypočítať ako:
Pomocou funkcie MSE sa na aktualizáciu hodnôt
Tento proces zahŕňa nepretržité nastavovanie parametrov ( heta_1) a ( heta_2) na základe gradientov vypočítaných z MSE. Konečným výsledkom je lineárna regresná línia, ktorá minimalizuje celkové štvorcové rozdiely medzi predpokladanými a skutočnými hodnotami a poskytuje optimálne znázornenie základného vzťahu v údajoch.
Gradient Descent pre lineárnu regresiu
Lineárny regresný model je možné trénovať pomocou optimalizačného algoritmu gradientný zostup iteratívnym upravovaním parametrov modelu na zníženie stredná štvorcová chyba (MSE) modelu na tréningovom súbore údajov. Ak chcete aktualizovať θ1a θ2hodnoty, aby sa znížila funkcia Cost (minimalizácia hodnoty RMSE) a aby sa dosiahla najvhodnejšia línia, ktorú model používa Gradient Descent. Cieľom je začať s náhodným θ1a θ2hodnoty a potom ich opakovane aktualizujte, čím sa dosiahnu minimálne náklady.
Gradient nie je nič iné ako derivácia, ktorá definuje účinky na výstupy funkcie s malou variáciou vstupov.
Rozlišujme nákladovú funkciu (J) vzhľadom na
np.klip
Rozlišujme nákladovú funkciu (J) vzhľadom na
Cieľom lineárnej regresie je nájsť koeficienty lineárnej rovnice, ktoré najlepšie zodpovedajú tréningovým údajom. Pohybom v smere záporného gradientu strednej štvorcovej chyby vzhľadom na koeficienty je možné koeficienty meniť. A príslušný priesečník a koeficient X budú ak
Gradientný zostup
Predpoklady jednoduchej lineárnej regresie
Lineárna regresia je výkonný nástroj na pochopenie a predpovedanie správania premennej, avšak na to, aby boli presné a spoľahlivé riešenia, musí spĺňať niekoľko podmienok.
- Linearita : Nezávislé a závislé premenné majú navzájom lineárny vzťah. To znamená, že zmeny v závislej premennej nasledujú zmeny v nezávislej premennej (premenných) lineárnym spôsobom. To znamená, že by mala existovať priama čiara, ktorú je možné nakresliť cez dátové body. Ak vzťah nie je lineárny, potom lineárna regresia nebude presným modelom.

- Nezávislosť : Pozorovania v súbore údajov sú navzájom nezávislé. To znamená, že hodnota závislej premennej pre jedno pozorovanie nezávisí od hodnoty závislej premennej pre iné pozorovanie. Ak pozorovania nie sú nezávislé, potom lineárna regresia nebude presným modelom.
- homoskedasticita : Naprieč všetkými úrovňami nezávislej premennej (premenných) je rozptyl chýb konštantný. To naznačuje, že množstvo nezávislej premennej (premenných) nemá žiadny vplyv na rozptyl chýb. Ak rozptyl rezíduí nie je konštantný, potom lineárna regresia nebude presným modelom.

Homoscedasticita v lineárnej regresii
hodnota reťazca
- Normálnosť : Zvyšky by mali byť normálne rozdelené. To znamená, že zvyšky by mali sledovať krivku v tvare zvona. Ak rezíduá nie sú normálne rozdelené, potom lineárna regresia nebude presným modelom.
Predpoklady viacnásobnej lineárnej regresie
Pre viacnásobnú lineárnu regresiu platia všetky štyri predpoklady z jednoduchej lineárnej regresie. Okrem toho je nižšie uvedených niekoľko ďalších:
- Žiadna multikolinearita : Medzi nezávislými premennými neexistuje vysoká korelácia. To naznačuje, že medzi nezávislými premennými existuje malá alebo žiadna korelácia. Multikolinearita nastáva, keď dve alebo viac nezávislých premenných navzájom vysoko koreluje, čo môže sťažiť určenie individuálneho účinku každej premennej na závislú premennú. Ak existuje multikolinearita, potom viacnásobná lineárna regresia nebude presným modelom.
- Aditívnosť: Model predpokladá, že vplyv zmien v prediktorovej premennej na premennú odozvy je konzistentný bez ohľadu na hodnoty ostatných premenných. Tento predpoklad znamená, že medzi premennými neexistuje interakcia v ich účinkoch na závislú premennú.
- Výber funkcií: Pri viacnásobnej lineárnej regresii je nevyhnutné starostlivo vybrať nezávislé premenné, ktoré budú zahrnuté do modelu. Zahrnutie irelevantných alebo nadbytočných premenných môže viesť k nadmernému prispôsobeniu a skomplikovať interpretáciu modelu.
- Nadmerné vybavenie: Prepracovanie nastane, keď sa model prispôsobí tréningovým dátam príliš tesne, pričom zachytí šum alebo náhodné výkyvy, ktoré nereprezentujú skutočný základný vzťah medzi premennými. To môže viesť k slabému výkonu zovšeobecnenia na nových, neviditeľných údajoch.
Multikolinearita
Multikolinearita je štatistický jav, ktorý sa vyskytuje, keď dve alebo viac nezávislých premenných vo viacnásobnom regresnom modeli vysoko koreluje, čo sťažuje posúdenie individuálnych účinkov každej premennej na závislú premennú.
Detekcia multikolinearity zahŕňa dve techniky:
- Korelačná matica: Skúmanie korelačnej matice medzi nezávislými premennými je bežný spôsob detekcie multikolinearity. Vysoké korelácie (blízko 1 alebo -1) naznačujú potenciálnu multikolinearitu.
- VIF (inflačný faktor odchýlky): VIF je miera, ktorá kvantifikuje, o koľko sa zvýši rozptyl odhadovaného regresného koeficientu, ak sú vaše prediktory korelované. Vysoký VIF (zvyčajne nad 10) naznačuje multikolinearitu.
Metriky hodnotenia pre lineárnu regresiu
Rôzne hodnotiace opatrenia možno použiť na určenie sily akéhokoľvek lineárneho regresného modelu. Tieto hodnotiace metriky často naznačujú, ako dobre model vytvára pozorované výstupy.
Najbežnejšie merania sú:
Stredná štvorcová chyba (MSE)
Stredná štvorcová chyba (MSE) je hodnotiaca metrika, ktorá vypočítava priemer druhej mocniny rozdielov medzi skutočnými a predpokladanými hodnotami pre všetky dátové body. Rozdiel je umocnený, aby sa zabezpečilo, že negatívne a pozitívne rozdiely sa navzájom nezrušia.
Tu,
- n je počet dátových bodov.
- aije skutočná alebo pozorovaná hodnota pre ithdátový bod.
widehat{y_{i}} je predpokladaná hodnota pre ithdátový bod.
MSE je spôsob, ako kvantifikovať presnosť predpovedí modelu. MSE je citlivý na odľahlé hodnoty, pretože veľké chyby významne prispievajú k celkovému skóre.
Stredná absolútna chyba (MAE)
Stredná absolútna chyba je hodnotiaca metrika používaná na výpočet presnosti regresného modelu. MAE meria priemerný absolútny rozdiel medzi predpokladanými hodnotami a skutočnými hodnotami.
Matematicky je MAE vyjadrené ako:
Tu,
- n je počet pozorovaní
- Aipredstavuje skutočné hodnoty.
widehat{Y_i} predstavuje predpokladané hodnoty
Nižšia hodnota MAE indikuje lepší výkon modelu. Nie je citlivý na odľahlé hodnoty, keďže považujeme za absolútne rozdiely.
Root Mean Squared Error (RMSE)
Druhá odmocnina rozptylu zvyškov je Root Mean Squared Error . Popisuje, ako dobre sa pozorované údajové body zhodujú s očakávanými hodnotami alebo absolútna zhoda modelu s údajmi.
V matematickom zápise to možno vyjadriť takto:
Namiesto delenia celého počtu údajových bodov v modeli počtom stupňov voľnosti je potrebné rozdeliť súčet druhých mocnín rezíduí, aby sa získal nezaujatý odhad. Potom sa tento údaj označuje ako zvyšková štandardná chyba (RSE).
V matematickom zápise to možno vyjadriť takto:
RSME nie je taká dobrá metrika ako R-squared. Root Mean Squared Error môže kolísať, keď sa jednotky premenných menia, pretože jej hodnota závisí od jednotiek premenných (nie je to normalizovaná miera).
Koeficient determinácie (R-štvorec)
R-štvorcový je štatistika, ktorá udáva, koľko variácií dokáže vyvinutý model vysvetliť alebo zachytiť. Vždy je v rozsahu 0 až 1. Vo všeobecnosti platí, že čím lepšie sa model zhoduje s údajmi, tým väčšie je druhé druhé číslo.
V matematickom zápise to možno vyjadriť takto:
hrubá bodka
- Zvyškový súčet štvorcov (RSS): The súčet štvorcov rezídua pre každý údajový bod v grafe alebo údajoch je známy ako zvyškový súčet štvorcov alebo RSS. Je to meranie rozdielu medzi výstupom, ktorý bol pozorovaný, a tým, čo sa očakávalo.
RSS=sum_{i=2}^{n}(y_{i}-b_{0}-b_{1}x_{i})^{2} - Celkový súčet štvorcov (TSS): Súčet chýb dátových bodov z priemeru premennej odpovede je známy ako celkový súčet štvorcov alebo TSS.
TSS= sum_{}^{}(y-overline{y_{i}})^2
R-kvadratická metrika je mierou podielu rozptylu v závislej premennej, ktorá je vysvetlená ako nezávislé premenné v modeli.
Upravená R-Squared Error
Upravené R2meria podiel rozptylu v závislej premennej, ktorý je vysvetlený nezávislými premennými v regresnom modeli. Upravený R-štvorec zohľadňuje počet prediktorov v modeli a penalizuje model za zahrnutie irelevantných prediktorov, ktoré významne neprispievajú k vysvetleniu rozptylu v závislých premenných.
Matematicky upravené R2sa vyjadruje ako:
Tu,
- n je počet pozorovaní
- k je počet prediktorov v modeli
- R2je koeficient determinácie
Upravený R-štvorec pomáha predchádzať nadmernému namontovaniu. Penalizuje model ďalšími prediktormi, ktoré významne neprispievajú k vysvetleniu rozptylu v závislej premennej.
Implementácia lineárnej regresie v Pythone
Importujte potrebné knižnice:
Python3 import pandas as pd import numpy as np import matplotlib.pyplot as plt import matplotlib.axes as ax from matplotlib.animation import FuncAnimation> Načítajte množinu údajov a oddeľte vstupné a cieľové premenné
Tu je odkaz na súbor údajov: Odkaz na množinu údajov
Python3 url = 'https://media.techcodeview.com data = pd.read_csv(url) data # Drop the missing values data = data.dropna() # training dataset and labels train_input = np.array(data.x[0:500]).reshape(500, 1) train_output = np.array(data.y[0:500]).reshape(500, 1) # valid dataset and labels test_input = np.array(data.x[500:700]).reshape(199, 1) test_output = np.array(data.y[500:700]).reshape(199, 1)> Zostavte model lineárnej regresie a nakreslite regresnú čiaru
Kroky:
- Pri doprednom šírení sa lineárna regresná funkcia Y=mx+c aplikuje počiatočným priradením náhodnej hodnoty parametra (m & c).
- Napísali sme funkciu na nájdenie nákladovej funkcie, tj strednej hodnoty
class LinearRegression: def __init__(self): self.parameters = {} def forward_propagation(self, train_input): m = self.parameters['m'] c = self.parameters['c'] predictions = np.multiply(m, train_input) + c return predictions def cost_function(self, predictions, train_output): cost = np.mean((train_output - predictions) ** 2) return cost def backward_propagation(self, train_input, train_output, predictions): derivatives = {} df = (predictions-train_output) # dm= 2/n * mean of (predictions-actual) * input dm = 2 * np.mean(np.multiply(train_input, df)) # dc = 2/n * mean of (predictions-actual) dc = 2 * np.mean(df) derivatives['dm'] = dm derivatives['dc'] = dc return derivatives def update_parameters(self, derivatives, learning_rate): self.parameters['m'] = self.parameters['m'] - learning_rate * derivatives['dm'] self.parameters['c'] = self.parameters['c'] - learning_rate * derivatives['dc'] def train(self, train_input, train_output, learning_rate, iters): # Initialize random parameters self.parameters['m'] = np.random.uniform(0, 1) * -1 self.parameters['c'] = np.random.uniform(0, 1) * -1 # Initialize loss self.loss = [] # Initialize figure and axis for animation fig, ax = plt.subplots() x_vals = np.linspace(min(train_input), max(train_input), 100) line, = ax.plot(x_vals, self.parameters['m'] * x_vals + self.parameters['c'], color='red', label='Regression Line') ax.scatter(train_input, train_output, marker='o', color='green', label='Training Data') # Set y-axis limits to exclude negative values ax.set_ylim(0, max(train_output) + 1) def update(frame): # Forward propagation predictions = self.forward_propagation(train_input) # Cost function cost = self.cost_function(predictions, train_output) # Back propagation derivatives = self.backward_propagation( train_input, train_output, predictions) # Update parameters self.update_parameters(derivatives, learning_rate) # Update the regression line line.set_ydata(self.parameters['m'] * x_vals + self.parameters['c']) # Append loss and print self.loss.append(cost) print('Iteration = {}, Loss = {}'.format(frame + 1, cost)) return line, # Create animation ani = FuncAnimation(fig, update, frames=iters, interval=200, blit=True) # Save the animation as a video file (e.g., MP4) ani.save('linear_regression_A.webp'false'>Python3 #Príklad použitia linear_reg = LinearRegression() parametre, strata = linear_reg.train(vstup_vlaku, vystup_vlaku, 0,0001, 20) Výstup : Iterácia = 1, Strata = 9130,407560462196 Iterácia = 1108991 Strata = 120791 Strata s = 140,31580932842422 Iterácia = 1, Strata = 23,795780526084116 Iterácia = 2, Strata = 9,753848205147605 Iterácia = 3, Strata = 8,061641745006835 Iterácia = 4, Strata = 84,86 7,85 8331350515579015 Iterácia = 6, Strata = 7,830172502503967 Iterácia = 7, Strata = 7,829814681591015 Iterácia = 8 , Strata = 7,829770758846183 Iterácia = 9, Strata = 7,829764664327399 Iterácia = 10, Strata = 7,829763128602258 Iterácia = 11, Strata = 7,282 82 829 829761222379141 Iterácia = 13, Strata = 7,829760310486438 Iterácia = 14, Strata = 7,829759399646989 Iterácia = 15, Strata = 7,829758489015161 Iterácia = 16, Strata = 7,829757578489033 Iterácia = 17, Strata = 7,829756668056319 Iterácia = 18, Strata = 7,8757 Strata = 7,8757 Iter 29754847466484 Iterácia = 20, Strata = 7,829753937309139 Lineárna regresná čiara Lineárna regresná čiara poskytuje cenné informácie o vzťahu medzi dvoma premennými. Predstavuje najlepšie vyhovujúcu líniu, ktorá zachytáva celkový trend zmeny závislej premennej (Y) v reakcii na zmeny nezávislej premennej (X). Pozitívna lineárna regresná línia: Pozitívna lineárna regresná línia označuje priamy vzťah medzi nezávislou premennou (X) a závislou premennou (Y). To znamená, že so zvyšujúcou sa hodnotou X sa zvyšuje aj hodnota Y. Sklon pozitívnej lineárnej regresnej čiary je kladný, čo znamená, že čiara je naklonená nahor zľava doprava. Záporná lineárna regresná línia: Záporná lineárna regresná línia označuje inverzný vzťah medzi nezávislou premennou (X) a závislou premennou (Y). To znamená, že keď sa hodnota X zvyšuje, hodnota Y klesá. Sklon negatívnej lineárnej regresnej čiary je záporný, čo znamená, že čiara je naklonená nadol zľava doprava. Regulačné techniky pre lineárne modely Lasová regresia (regularizácia L1) Lasová regresia je technika používaná na regularizáciu lineárneho regresného modelu, pridáva penalizáciu k cieľovej funkcii lineárnej regresie na zabránenie nadmernému prispôsobeniu . Cieľová funkcia po aplikácii laso regresie je: prvý člen je strata najmenších štvorcov, ktorá predstavuje rozdiel na druhú medzi predpokladanými a skutočnými hodnotami. druhý člen je regularizačný člen L1, penalizuje súčet absolútnych hodnôt regresného koeficientu θj. Ridge regresia (L2 Regularizácia) Ridge regresia je technika lineárnej regresie, ktorá k štandardnému lineárnemu cieľu pridáva pojem regularizácie. Cieľom je opäť zabrániť nadmernému prispôsobeniu penalizáciou veľkého koeficientu v lineárnej regresnej rovnici. Je to užitočné, keď má množina údajov multikolinearitu, kde sú prediktorové premenné vysoko korelované. Objektívna funkcia po aplikácii hrebeňovej regresie je: prvý člen je strata najmenších štvorcov, ktorá predstavuje rozdiel na druhú medzi predpokladanými a skutočnými hodnotami. druhý člen je regularizačný člen L1, penalizuje súčet kvadrátov hodnôt regresného koeficientu θj. Elastická čistá regresia Elastická čistá regresia je hybridná regularizačná technika, ktorá kombinuje silu regulácie L1 aj L2 v rámci cieľa lineárnej regresie. prvý člen je strata najmenších štvorcov. druhý termín je regularizácia L1 a tretí je hrebeňová regresia.???? je celková sila regularizácie. α riadi zmes medzi regularizáciou L1 a L2. Aplikácie lineárnej regresieLineárna regresia sa používa v mnohých rôznych oblastiach, vrátane financií, ekonómie a psychológie, na pochopenie a predpovedanie správania konkrétnej premennej. Napríklad vo financiách možno lineárnu regresiu použiť na pochopenie vzťahu medzi cenou akcií spoločnosti a jej ziskom alebo na predpovedanie budúcej hodnoty meny na základe jej výkonnosti v minulosti. Výhody a nevýhody lineárnej regresie Výhody lineárnej regresieLineárna regresia je relatívne jednoduchý algoritmus, vďaka ktorému je ľahké ho pochopiť a implementovať. Koeficienty lineárneho regresného modelu možno interpretovať ako zmenu závislej premennej pre jednojednotkovú zmenu v nezávislej premennej, čo poskytuje pohľad na vzťahy medzi premennými. Lineárna regresia je výpočtovo efektívna a dokáže efektívne spracovať veľké súbory údajov. Dá sa rýchlo trénovať na veľkých súboroch údajov, vďaka čomu je vhodný pre aplikácie v reálnom čase. Lineárna regresia je relatívne odolná voči odľahlým hodnotám v porovnaní s inými algoritmami strojového učenia. Odľahlé hodnoty môžu mať menší vplyv na celkový výkon modelu. Lineárna regresia často slúži ako dobrý základný model na porovnanie so zložitejšími algoritmami strojového učenia. Lineárna regresia je dobre zavedený algoritmus s bohatou históriou a je široko dostupný v rôznych strojových učeniach knižnice a softvérové balíky. Nevýhody lineárnej regresieLineárna regresia predpokladá lineárny vzťah medzi závislými a nezávislými premennými. Ak vzťah nie je lineárny, model nemusí fungovať dobre. Lineárna regresia je citlivá na multikolinearitu, ku ktorej dochádza, keď existuje vysoká korelácia medzi nezávislými premennými. Multikolinearita môže zvýšiť rozptyl koeficientov a viesť k nestabilným predpovediam modelu. Lineárna regresia predpokladá, že vlastnosti sú už vo vhodnej forme pre model. Na transformáciu prvkov do formátu, ktorý môže model efektívne využívať, môže byť potrebné inžinierstvo prvkov. Lineárna regresia je náchylná na presadenie aj podsadenie. Prepracovanie nastane, keď sa model naučí tréningové údaje príliš dobre a nedokáže zovšeobecniť na neviditeľné údaje. K nedostatočnému prispôsobeniu dochádza, keď je model príliš jednoduchý na to, aby zachytil základné vzťahy v údajoch. Lineárna regresia poskytuje obmedzenú vysvetľovaciu schopnosť pre zložité vzťahy medzi premennými. Na hlbšie pochopenie môžu byť potrebné pokročilejšie techniky strojového učenia. ZáverLineárna regresia je základný algoritmus strojového učenia, ktorý sa vďaka svojej jednoduchosti, interpretovateľnosti a efektívnosti používa už mnoho rokov. Je to cenný nástroj na pochopenie vzťahov medzi premennými a vytváranie predpovedí v rôznych aplikáciách. Je však dôležité uvedomiť si jeho obmedzenia, ako je jeho predpoklad linearity a citlivosť na multikolinearitu. Keď sa tieto obmedzenia dôkladne zvážia, lineárna regresia môže byť silným nástrojom na analýzu a predikciu údajov. Lineárna regresia – často kladené otázky (FAQ)Čo jednoducho znamená lineárna regresia? Lineárna regresia je riadený algoritmus strojového učenia, ktorý predpovedá spojitú cieľovú premennú na základe jednej alebo viacerých nezávislých premenných. Predpokladá lineárny vzťah medzi závislými a nezávislými premennými a na modelovanie tohto vzťahu používa lineárnu rovnicu. Prečo používame lineárnu regresiu? Lineárna regresia sa bežne používa na: Predpovedanie číselných hodnôt na základe vstupných funkcií Predpovedanie budúcich trendov na základe historických údajov Identifikáciu korelácií medzi premennými Porozumenie vplyvu rôznych faktorov na konkrétny výsledokAko použiť lineárnu regresiu?Použite lineárnu regresiu preložením čiary na predpovedanie vzťahu medzi premennými , pochopenie koeficientov a vytváranie predpovedí na základe vstupných hodnôt pre informované rozhodovanie. Prečo sa to nazýva lineárna regresia? Lineárna regresia je pomenovaná pre použitie lineárnej rovnice na modelovanie vzťahu medzi premennými, ktoré predstavujú priamku prispôsobenú dátovým bodom. Čo sú príklady lineárnej regresie? Príkladmi aplikácií lineárnej regresie sú predpovedanie cien nehnuteľností na základe rozlohy, odhad skóre skúšok na základe študijných hodín a predpovedanie predaja pomocou výdavkov na reklamu.>

