Kérdés:
Mi a rendszeresítés egyszerű angol nyelven?
Meh
2010-11-27 22:24:54 UTC
view on stackexchange narkive permalink

Más cikkekkel ellentétben a matematika számára (például én) olvashatatlannak találtam a tantárgy wikipedia bejegyzését.

Megértettem az Ön által kedvelt alapötletet kevesebb szabályt tartalmazó modellek. Amit nem értek, az az, hogy hogyan juthat el egy szabályhalmazból egy „szabályosítási pontszámba”, amellyel a modelleket a legkevesebbtől a túlterhelésig lehet rendezni.

Leírna egy egyszerű szabályozási módszert ?

Érdekel a statisztikai kereskedési rendszerek elemzése. Nagyon jó lenne, ha leírnád, hogy alkalmazhatom-e a szabályozást a következő két prediktív modell elemzésére:

1. modell - az ár emelkedése, amikor:

  • exp_moving_avg ( ár, időszak = 50)> exp_moving_avg (ár, időszak = 200)

2. modell - az ár emelkedik, amikor:

  • ár [n] < ár [n-1] 10-szer egymás után
  • exp_moving_avg (ár, időszak = 200) felfelé

De inkább az érdekel, hogy megérezzem, hogyan rendszeresítést végez. Tehát, ha tud jobb modelleket a magyarázatához, kérjük, tegye meg.

Példaként említhetjük a gerincregressziót, amely OLS és a négyzetes együtthatók összegéhez kötött. Ez elfogultságot vezet be a modellbe, de csökkenti az együtthatók szórását, néha jelentősen. A LASSO egy másik kapcsolódó módszer, de L1 korlátot szab az együtthatók méretére. Előnye, hogy csökken az együttható. Ez hasznos p >> n helyzetekben. A rendszeresítés bizonyos értelemben a modell "zsugorítását" jelenti a túlillesztés elkerülése érdekében (és az együttható-szórás csökkentése érdekében), ami általában javítja a modell prediktív teljesítményét.
@HairyBeast Válaszként tegye meg kedves megjegyzését. Ha lehetséges, próbáljon meg egy szemléltető példát adni, hogy az OP kitalálja, hogyan fordítja az adott problémát.
@HairyBeast, tehát mondhatom, hogy a szabályozás csak egy módszer az * elfogultság-szórás kompromisszum * ötletének megvalósítására?
Nagyon hasznosnak találtam ezt a videót, különösen az Lp-rendszeresítés különböző formáinak megjelenítésében: https://www.youtube.com/watch?v=sO4ZirJh9ds
A szabályozás a megtanult modell túlterhelésének kezelésére szolgál.Megpróbálta egyszerű angolul és vizuálisan magyarázni.Az alábbi link a következő cikkre mutat: https://medium.com/@vamsi149/ regularization-in-machine-learning-connecting-the-dots-c6e030bfaddd
öt válaszokat:
Toby Kelsey
2011-11-22 18:49:44 UTC
view on stackexchange narkive permalink

Egyszerűbben fogalmazva, a legalizálás a modell komplexitás előnyben részesített szintjének beállítása vagy kiválasztása, így a modelljeid jobban képesek előrejelezni (általánosítani). Ha ezt nem teszi meg, akkor a modelljei lehetnek túl összetettek és túlterheltek, vagy túl egyszerűek és alulruházottak, akárhogy is, rossz előrejelzéseket adva.

Ha a legkisebb négyzetek egy komplex modellt illesztenek egy kis edzésadathoz valószínűleg túlfeszít, ez a leggyakoribb helyzet. A modell optimális bonyolultsága a modellezendő folyamat fajtájától és az adatok minőségétől függ, tehát a modellnek nincs eleve helyes összetettsége.

2 dologra van szükség:

  1. egy módja annak, hogy tesztelje, mennyire jóak a modelljei az előrejelzéshez, például keresztellenőrzéssel vagy érvényesítési adatokkal (nem használhatja a illesztési hibát ehhez).
  2. Olyan hangolási paraméter, amely lehetővé teszi a modell bonyolultságának vagy simaságának megváltoztatását, vagy a különböző összetettségű / simaságú modellek kiválasztását.
Alapvetően a bonyolultsági paramétert állíthatja be (vagy módosíthatja a modellt ), és keresse meg azt az értéket, amely a legjobb előrejelzést adja a modell számára.

Ne feledje, hogy az optimalizált szabályozási hiba nem lesz a teljes becslési hiba pontos becslése, így a szabályozás után végre egy további ellenőrzési adatkészletet kell használnia, vagy végezzen további statisztikai elemzéseket az elfogulatlan előrejelzési hiba megszerzéséhez.

A (kereszt) használat alternatívája Az érvényesítési teszt a Bayesian Priors vagy más módszerek alkalmazásával bonyolítja a bonyolultságot vagy a simaságot, de ezek nagyobb statisztikai kifinomultságot és a probléma és a modell jellemzőinek ismeretét igénylik.

+1 tőlem. Tetszik, hogy ez a válasz az elején kezdődik és olyan könnyen érthető ...
Valójában a legalizálást használják-e valaha az alulteljesítés csökkentésére?Tapasztalataim szerint a szabályozást egy komplex / érzékeny modellen alkalmazzák a komplexitás / érzékenység csökkentése érdekében, de soha egy egyszerű / érzéketlen modellen a komplexitás / érzékenység növelése érdekében.
Ez a válasz már meglehetősen régi, de feltételezem, hogy Toby arra hivatkozott, hogy a rendszeresítés elvi módszer a megfelelő bonyolultságú modell illesztésére, tekintettel az adatmennyiségre;alternatívát jelent mind a priori, mind a túl kevés (vagy rossz) paraméterű modell kiválasztása, valamint a túl összetett és túlterhelt modell kiválasztása között.
bijey
2010-11-29 16:32:30 UTC
view on stackexchange narkive permalink

Tegyük fel, hogy a tanulást empirikus kockázatminimalizálás útján hajtja végre.

Pontosabban:

  • megvan a nem negatív veszteségfüggvénye $ L (\ text {aktuális érték}, \ text {előrejelzett érték}) $, amely jellemzi, hogy rosszak az előrejelzései
  • úgy akarja illeszteni a modelljét, hogy az előrejelzései minimalizálják a veszteségfüggvény átlagát, amelyet csak az edzésadatok (az egyetlen adat) alapján számolnak.

Ezután a tanulási folyamat célja $ $ text {Model} = \ text {argmin} \ sum L (\ text {aktuális}, \ text {predicted} (\ text {Model})) $ (ez módszert empirikus kockázatminimalizálásnak hívják).

De ha nincs elegendő adatod, és a modelledben hatalmas mennyiségű változó található, nagyon valószínű, hogy találsz egy ilyen modellt, amely nemcsak a mintákat magyarázza hanem megmagyarázza az adatok véletlenszerű zaját is. Ezt a hatást túlillesztésnek nevezzük, és ez a modell általánosítási képességének romlásához vezet.

A túlillesztés elkerülése érdekében a célfüggvénybe bevezetünk egy szabályosítási kifejezést: $ \ text {Model} = \ text {argmin } \ összeg L (\ text {tényleges}, \ text {megjósolt} (\ text {modell})) + \ lambda R (\ text {modell}) $

Általában ez a $ R ( \ text {Model}) $ különleges büntetést szab ki az összetett modellekre. Például nagy együtthatójú modelleken (L2 szabályozás, $ R $ = együtthatók négyzetének összege) vagy sok, ha nem nulla együtthatóval (L1 szabályozás, $ R $ = az együtthatók abszolút értékeinek összege). Ha döntési fát képezünk, akkor a $ R $ lehet a mélysége.

Egy másik szempont, hogy a $ R $ bemutatja előzetes ismereteinket a legjobb modell egyik formájáról ("nincs is benne nagy együtthatók "," majdnem merőleges a $ \ bar a $ -ra ")

carlosdc
2010-11-28 18:51:06 UTC
view on stackexchange narkive permalink

Egyszerűbben fogalmazva: a rendszeresítés a várt megoldások előnyeinek kihasználása. Mint említette, például az "egyszerű" megoldások előnyeit élvezheti az egyszerűség bizonyos meghatározása érdekében. Ha a problémának vannak szabályai, akkor az egyik definíció kevesebb szabályt tartalmazhat. De ez problémától függ.

Azonban a megfelelő kérdést teszi fel. Például a Support Vector Machines-ben ez az "egyszerűség" a kapcsolatok megszakításából származik a "maximális margó" irányába. Ez a margó egyértelműen meghatározható a probléma szempontjából. Nagyon jó geometriai levezetés található a SVM cikkben a Wikipédiában. Kiderült, hogy a legalizálási kifejezés legalábbis vitathatatlanul az SVM-ek "titkos szósza".

Hogyan valósítja meg a szabályozást? Általában ez az Ön által használt módszerrel jár, ha SVM-eket használ, akkor L2-szabályozást végez, ha az LASSO-t használja, akkor L1-es szabályozást végez (lásd, mit mond a hairybeast). Ha azonban saját módszerét fejleszti, akkor tudnia kell, hogyan lehet megmondani a kívánatos megoldásokat a nem kívánatos megoldásoktól, és rendelkeznie kell egy funkcióval, amely ezt számszerűsíti. Végül meglesz egy költségtétel és egy szabályozási kifejezés, és optimalizálni szeretné mindkettő összegét.

Martin Thoma
2016-11-20 14:05:45 UTC
view on stackexchange narkive permalink

A szabályozási technikák olyan technikák, amelyeket a gépi tanulási modellekre alkalmaznak, amelyek simábbá teszik a döntési határt / az illesztett modellt.Ezek a technikák segítenek megakadályozni a túlterhelést.

Példák: L1, L2, Dropout, Súlycsökkenés a neurális hálózatokban.A $ C $ paraméter SVM-ekben.

sandip44
2018-04-05 14:44:51 UTC
view on stackexchange narkive permalink

Egyszerűbben kifejezve: a rendszeresítés a túlzott illeszkedés elkerülésére szolgáló technika, amikor gépi tanulási algoritmusokat oktatnak. Ha van elég algoritmusa elegendő szabad paraméterrel, akkor nagyon részletesen interpolálhatja a mintáját, de a mintán kívül eső példák nem biztos, hogy követik ezt a részleges interpolációt, mivel csak rögzítette a zajt, vagy véletlenszerű szabálytalanságok a mintában a valódi trend helyett.

A túlillesztést úgy lehet elkerülni, hogy korlátozzuk a modellben szereplő paraméterek abszolút értékét. Ezt úgy tehetjük meg, hogy a költségfüggvényhez hozzáadunk egy olyan kifejezést, amely büntetést szab ki a modell paramétereinek nagysága alapján. Ha a nagyságot L1 normában mérjük, akkor ezt "L1 szabályozásnak" nevezzük (és általában ritka modelleket eredményez), ha L2 normában mérjük, akkor ezt "L2 szabályozásnak" nevezzük, és így tovább.



Ezt a kérdést és választ automatikusan lefordították angol nyelvről.Az eredeti tartalom elérhető a stackexchange oldalon, amelyet köszönünk az cc by-sa 2.0 licencért, amely alatt terjesztik.
Loading...