logo

Zaujatosť a odchýlka v strojovom učení

Strojové učenie je odvetvie umelej inteligencie, ktoré umožňuje strojom vykonávať analýzu údajov a predpovedať. Ak však model strojového učenia nie je presný, môže spôsobiť chyby predpovedí a tieto chyby predikcie sú zvyčajne známe ako odchýlka a odchýlka. V strojovom učení budú tieto chyby vždy prítomné, pretože medzi predpovedami modelu a skutočnými predpoveďami je vždy malý rozdiel. Hlavným cieľom analytikov ML/data science je znížiť tieto chyby s cieľom získať presnejšie výsledky. V tejto téme budeme diskutovať o zaujatosti a rozptyle, kompromise medzi odchýlkami a odchýlkami, podvybavení a nadbytku. Ale skôr ako začneme, poďme najprv pochopiť, aké sú chyby strojového učenia?

Zaujatosť a odchýlka v strojovom učení

Chyby v strojovom učení?

V strojovom učení je chyba mierou toho, ako presne môže algoritmus predpovedať predtým neznámy súbor údajov. Na základe týchto chýb sa vyberie model strojového učenia, ktorý dokáže najlepšie fungovať na konkrétnom súbore údajov. V strojovom učení existujú hlavne dva typy chýb, ktorými sú:

    Redukovateľné chyby:Tieto chyby je možné znížiť, aby sa zlepšila presnosť modelu. Takéto chyby možno ďalej klasifikovať na zaujatosť a odchýlku.
    Zaujatosť a odchýlka v strojovom učení Neredukovateľné chyby:Tieto chyby budú v modeli vždy prítomné

bez ohľadu na to, aký algoritmus bol použitý. Príčinou týchto chýb sú neznáme premenné, ktorých hodnotu nie je možné znížiť.

Čo je Bias?

Vo všeobecnosti model strojového učenia analyzuje údaje, nachádza v nich vzory a robí predpovede. Počas tréningu sa model učí tieto vzory v súbore údajov a aplikuje ich na testovacie údaje na predikciu. Pri vytváraní predpovedí vzniká rozdiel medzi predikčnými hodnotami vytvorenými modelom a skutočnými hodnotami/očakávanými hodnotami , a tento rozdiel je známy ako chyby zaujatosti alebo chyby spôsobené zaujatosťou . Dá sa definovať ako neschopnosť algoritmov strojového učenia, ako je lineárna regresia, zachytiť skutočný vzťah medzi dátovými bodmi. Každý algoritmus začína s určitým skreslením, pretože skreslenie vzniká na základe predpokladov v modeli, vďaka čomu sa cieľová funkcia jednoducho učí. Model má buď:

dĺžka poľa java
    Nízka odchýlka:Model s nízkou odchýlkou ​​vytvorí menej predpokladov o forme cieľovej funkcie.Vysoká zaujatosť:Model s vysokou odchýlkou ​​vytvára viac predpokladov a model nie je schopný zachytiť dôležité vlastnosti nášho súboru údajov. Model s vysokou odchýlkou ​​tiež nemôže fungovať dobre na nových údajoch.

Vo všeobecnosti má lineárny algoritmus vysokú odchýlku, pretože umožňuje rýchle učenie. Čím jednoduchší je algoritmus, tým vyššia je pravdepodobnosť zavedenia skreslenia. Zatiaľ čo nelineárny algoritmus má často nízku odchýlku.

Niekoľko príkladov algoritmov strojového učenia s nízkou odchýlkou sú Rozhodovacie stromy, k-Nearest Neighbors a Support Vector Machines . Zároveň ide o algoritmus s vysokou odchýlkou Lineárna regresia, lineárna diskriminačná analýza a logistická regresia.

Spôsoby, ako znížiť vysokú zaujatosť:

Vysoká zaujatosť sa vyskytuje hlavne vďaka veľmi jednoduchému modelu. Nižšie uvádzame niekoľko spôsobov, ako znížiť vysokú zaujatosť:

  • Zvýšte vstupné vlastnosti, keď je model nedostatočne vybavený.
  • Znížte lehotu regularizácie.
  • Použite zložitejšie modely, ako napríklad zahrnutie niektorých polynomických prvkov.

Čo je to chyba odchýlky?

Odchýlka by špecifikovala množstvo variácií v predikcii, ak by sa použili rôzne tréningové dáta. jednoduchými slovami, rozptyl hovorí, ako veľmi sa náhodná premenná líši od jej očakávanej hodnoty. V ideálnom prípade by sa model nemal príliš líšiť od jedného trénovacieho súboru údajov k druhému, čo znamená, že algoritmus by mal dobre rozumieť skrytému mapovaniu medzi vstupnými a výstupnými premennými. Chyby rozptylu sú buď nízky rozptyl alebo vysoký rozptyl.

reťazec java zreťaziť

Nízky rozptyl znamená, že existuje malá odchýlka v predpovedi cieľovej funkcie so zmenami v súbore tréningových údajov. V rovnakom čase, Vysoký rozptyl ukazuje veľkú variáciu v predikcii cieľovej funkcie so zmenami v množine tréningových údajov.

Model, ktorý vykazuje vysoký rozptyl, sa veľa naučí a funguje dobre s tréningovým súborom údajov a nezovšeobecní dobre s neviditeľným súborom údajov. Výsledkom je, že takýto model poskytuje dobré výsledky s tréningovým súborom údajov, ale vykazuje vysokú chybovosť na testovacom súbore údajov.

Keďže pri vysokej odchýlke sa model príliš veľa učí zo súboru údajov, vedie to k preplneniu modelu. Model s veľkým rozptylom má nasledujúce problémy:

  • Model s vysokým rozptylom vedie k nadmernému vybaveniu.
  • Zvýšte zložitosť modelu.

Nelineárne algoritmy majú zvyčajne veľkú flexibilitu, aby sa prispôsobili modelu, majú vysoký rozptyl.

Zaujatosť a odchýlka v strojovom učení

Niektoré príklady algoritmov strojového učenia s nízkym rozptylom sú, Lineárna regresia, Logistická regresia a Lineárna diskriminačná analýza . Zároveň existujú algoritmy s vysokým rozptylom rozhodovací strom, Support Vector Machine a K-najbližší susedia.

základné otázky java interview

Spôsoby, ako znížiť vysokú odchýlku:

  • Znížte vstupné vlastnosti alebo počet parametrov, pretože model je nadmerne vybavený.
  • Nepoužívajte príliš zložitý model.
  • Zvýšte tréningové údaje.
  • Zvýšte lehotu Regularizácie.

Rôzne kombinácie odchýlky a odchýlky

Existujú štyri možné kombinácie odchýlky a odchýlky, ktoré sú znázornené nižšie uvedeným diagramom:

Zaujatosť a odchýlka v strojovom učení
    Nízka odchýlka, nízka odchýlka:
    Kombinácia nízkej odchýlky a nízkej odchýlky ukazuje ideálny model strojového učenia. Prakticky to však nie je možné.Nízka odchýlka, vysoká odchýlka:S nízkou odchýlkou ​​a vysokou odchýlkou ​​sú predpovede modelu v priemere nekonzistentné a presné. Tento prípad nastáva, keď sa model učí s veľkým počtom parametrov a teda vedie k an nadmerná montáž Vysoká odchýlka, nízka odchýlka:S vysokou odchýlkou ​​a nízkym rozptylom sú predpovede konzistentné, ale v priemere nepresné. Tento prípad nastane, keď sa model neučí dobre s tréningovým súborom údajov alebo používa málo čísel parametra. To vedie k podvybavenie problémy v modeli.Vysoká odchýlka, vysoká odchýlka:
    S vysokou odchýlkou ​​a veľkým rozptylom sú predpovede nekonzistentné a tiež v priemere nepresné.

Ako identifikovať vysokú odchýlku alebo vysokú odchýlku?

Vysoký rozptyl možno identifikovať, ak má model:

Zaujatosť a odchýlka v strojovom učení
  • Nízka chyba tréningu a vysoká chyba testu.

Vysoké skreslenie možno identifikovať, ak má model:

  • Vysoká chyba trénovania a chyba testu je takmer podobná cvičnej chybe.

Bias-Variance Trade-Off

Pri vytváraní modelu strojového učenia je skutočne dôležité postarať sa o zaujatosť a odchýlku, aby ste sa vyhli nadmernému alebo nedostatočnému prispôsobeniu modelu. Ak je model veľmi jednoduchý s menším počtom parametrov, môže mať nízky rozptyl a vysokú odchýlku. Zatiaľ čo, ak má model veľký počet parametrov, bude mať vysoký rozptyl a nízku odchýlku. Je teda potrebné dosiahnuť rovnováhu medzi chybami skreslenia a odchýlky a táto rovnováha medzi chybou odchýlky a chybou rozptylu je známa ako kompromis Bias-Variance.

Zaujatosť a odchýlka v strojovom učení

Pre presnú predikciu modelu potrebujú algoritmy nízky rozptyl a nízku odchýlku. Ale to nie je možné, pretože zaujatosť a rozptyl spolu súvisia:

  • Ak znížime rozptyl, zvýši sa zaujatosť.
  • Ak znížime zaujatosť, zvýši sa rozptyl.

Kompromis zaujatosti a odchýlky je ústrednou otázkou pri učení pod dohľadom. V ideálnom prípade potrebujeme model, ktorý presne zachytáva zákonitosti v tréningových údajoch a súčasne dobre zovšeobecňuje s neviditeľným súborom údajov. Bohužiaľ to nie je možné urobiť súčasne. Pretože algoritmus s vysokou odchýlkou ​​môže fungovať dobre s trénovacími údajmi, ale môže viesť k prepracovaniu na zašumené údaje. Zatiaľ čo algoritmus vysokej odchýlky generuje oveľa jednoduchý model, ktorý dokonca nemusí zachytiť dôležité zákonitosti v údajoch. Takže musíme nájsť sladké miesto medzi zaujatosťou a rozptylom, aby sme vytvorili optimálny model.

Preto, Kompromis zaujatosti a odchýlky je o nájdení vhodného miesta na dosiahnutie rovnováhy medzi chybami odchýlky a odchýlky.