Kérdés:
Hogyan lehet megtalálni a függő változók összegének átlagát?
Gh75m
2014-12-23 06:06:59 UTC
view on stackexchange narkive permalink

Tudom, hogy a független változók összegének átlaga az egyes független változók átlagainak összege. Ez vonatkozik a függő változókra is?

Az @feetwet, csak a "köszönet" eltávolítása nem igazán fontos ahhoz, hogy egy 18 hónappal ezelőtti szálat összeütközzön.FWIW, a szerkesztés elutasítására szavaztam (de további 2 ember jóváhagyta, így különben nem látta volna a megjegyzésemet).
@gung - Mindenféle dolog megzavarhatja az "Aktív" kérdés nézetet.Megfigyelését gyakran tették, és az AFAIK a Stack Exchange házirendje az, hogy ennek a hátránynak ellenére [az érvényes kisebb módosítások jó dolog] (http://meta.photo.stackexchange.com/a/4838/27832).
-1
@gung a [photo.se] bejegyzésben hivatkoztam egy jelentős és újabb [meta.se] [Q&A a témára] linkekre (http://meta.stackoverflow.com/questions/253326/too-minor-edits-better-Hagyni-rossz minőségű-helyszíni / 253512 # 253512).De ha Whuber 4 éves válasza továbbra is kanonikus a [stats.se] számára, akkor ezt tiszteletben tartom.
Kettő válaszokat:
Silverfish
2014-12-23 06:49:02 UTC
view on stackexchange narkive permalink

Az elvárás (az átlagot figyelembe véve) lineáris operátor.

Ez azt jelenti, hogy többek között a $ \ mathbb {E} (X + Y) = \ mathbb {E} (X) + \ mathbb {E} (Y) $ bármely két véletlen változóhoz $ X $ és $ Y $ (amelyekre az elvárások vonatkoznak), függetlenül attól, hogy függetlenek-e vagy sem.

Általánosíthatunk (pl. indukcióval) úgy, hogy $ \ mathbb {E} \ left (\ sum_ {i = 1} ^ n X_i \ right) = \ sum_ {i = 1} ^ n \ mathbb {E} (X_i) $ mindaddig, amíg az egyes elvárások $ \ mathbb {E} (X_i) $ span> létezik.

Tehát igen, az összeg átlaga akkor is megegyezik az átlag összegével, ha a változók függenek. De vegye figyelembe, hogy ez nem vonatkozik a szórásra! Tehát míg $ \ mathrm {Var} (X + Y) = \ mathrm {Var} (X) + \ mathrm {Var} (Y) $ független változók esetén, vagy akár olyan változók, amelyek függenek, de nincsenek korrelálva, az általános képlet $ \ mathrm {Var} (X + Y) = \ mathrm {Var} (X) + \ mathrm {Var} (Y) + 2 \ mathrm {Cov} (X, Y) $ ahol $ \ mathrm {Cov} $ A változók kovarianciája.

Alecos Papadopoulos
2014-12-23 07:01:42 UTC
view on stackexchange narkive permalink

TL; DR:
Feltételezve, hogy létezik, az átlag várható érték, a várható érték pedig integrál, és az integrálok lineáris tulajdonsággal rendelkeznek az összegek tekintetében.

TS; DR:
Mivel a véletlen változók $ Y_n = \ sum_ {i = 1} ^ n X_i $ összegével, vagyis sokuk függvényével foglalkozunk, az $ E összeg átlaga (Y_n) $ a közös eloszlásukra vonatkozik (feltételezzük, hogy minden eszköz létezik és véges) A ​​$ \ mathbf X $ jelölését a $ n $ rv többváltozós vektorának, az ízületek sűrűségének $ f _ {\ mathbf X} (\ mathbf x) = f_ {X_1, ..., X_n} (x_1, ..., x_n) $ és közös támogatásuk $ D = S_ {X_1} \ alkalommal írható ... \ szor S_ {X_n} $ Az öntudatlan statisztikus törvényének felhasználásával megkapjuk a többszörös integrált

$$ E [Y_n] = \ int_D Y_nf _ {\ mathbf X} (\ mathbf x) d \ mathbf x $$.

Bizonyos szabályszerűségi feltételek mellett a többszörös integrált bonthatjuk $ n $ -iteratív integrálra:

$$ E [Y_n] = \ int_ {S_ {X_n}} ... \ int_ {S_ {X_1}} \ Big [\ sum_ {i = 1} ^ n X_i \ Big] f_ {X_1, .. ., X_n} (x_1, ..., x_n) dx_1 ... dx_n $$

és az integrálok linearitása felhasználásával felbomlhatunk

$$ = \ int_ {S_ {X_n}} ... \ int_ {S_ {X_1}} x_1f_ {X_1, ..., X_n} (x_1, ..., x_n) dx_1 ... dx_n \; + ... \\ ... + \ int_ {S_ {X_n}} ... \ int_ {S_ {X_1}} x_nf_ {X_1, ..., X_n} (x_1, ..., x_n) dx_1. ..dx_n $$

Minden $ n $ -iteratív integrálra átrendezhetjük az integráció sorrendjét úgy, hogy mindegyikben a külső integráció az ízületi sűrűségen kívül eső változóhoz viszonyuljon. . Mégpedig

$$ \ int_ {S_ {X_n}} ... \ int_ {S_ {X_1}} x_1f_ {X_1, ..., X_n} (x_1, ..., x_n) dx_1 ... dx_n = \\\ int_ {S_ {X_1}} x_1 \ int_ {S_ {X_n}} ... \ int_ {S_ {X_2}} f_ {X_1, ..., X_n} (x_1, .. ., x_n) dx_2 ... dx_ndx_1 $$

és általában

$$ \ int_ {S_ {X_n}} ... \ int_ {S_ {X_j}}. .. \ int_ {S_ {X_1}} x_jf_ {X_1, ..., X_n} (x_1, ..., x_n) dx_1 ... dx_j ... dx_n = $$ $$ = \ int_ {S_ {X_j}} x_j \ int_ {S_ {X_n}} ... \ int_ {S_ {X_ {j-1}}} \ int_ {S_ {X_ {j + 1}}}. .. \ int_ {S_ {X_1}} f_ {X_1, ..., X_n} (x_1, ..., x_n) dx_1 ... dx_ {j-1} dx_ {j + 1} ..... .dx_ndx_j $$

Amint egyesével kiszámoljuk az egyes $ n $ -iteratív integrálok integrálját (belülről indulva), "integrálunk" egy változót, és minden lépésben megkapjuk a a többi változó "közös-marginális" eloszlása. Ezért minden $ n $ -iteratív integrál $ \ int_ {S_ {X_j}} x_jf_ {X_j} (x_j) dx_j $ néven fog végződni.

Ha mindet összehozzuk, akkor elérkezünk

$$ E [Y_n] = E [\ sum_ {i = 1} ^ n X_i] = \ int_ {S_ {X_1}} x_1f_ {X_1} (x_1) dx_1 + ... + \ int_ {S_ {X_n }} x_nf_ {X_n} (x_n) dx_n $$

De most minden egyszerű integrál az egyes véletlenszerű változók várható értéke külön-külön, ezért

$$ E [\ sum_ {i = 1} ^ n X_i] = E (X_1) + ... + E (X_n) $$$$ = \ sum_ {i = 1} ^ nE (X_i) $$

Ne feledje, hogy soha nem hivatkozott a véletlenszerű változók függetlenségére vagy függetlenségére, de kizárólag közös eloszlásukkal dolgoztunk.

@ssdecontrol Ez az egyik pozitív szavazat, amit nagyra értékelek, _valóban_.
Az iterált integrálokká és vissza történő kiterjesztés felesleges.Bonyolítja az egyszerű érvet.Helyettesítheti a "TS; DR" részt annak utolsó mondatával, és remekül válaszolhat.
@whuber Másfél évvel később még mindig megúsz engem (mármint a "várakozási operátor linearitása" tény felhasználása nélkül, amelyet a másik válasz már használt).Van valami tipp, hogy átdolgozzam a választ erre az egyszerű érvre?
Szerintem felesleges az érvelés.Az egész kulcsa az utolsó mondatban tett megfigyelése.


Ezt a kérdést és választ automatikusan lefordították angol nyelvről.Az eredeti tartalom elérhető a stackexchange oldalon, amelyet köszönünk az cc by-sa 3.0 licencért, amely alatt terjesztik.
Loading...