A Wikipédiából:
A $ s $ statisztika állítólag teljes az $ X $ eloszlásához, ha minden mérhető függvényhez $ g $ (ami független kell lennie a $ be $ paramétertől, a következő implikáció érvényes: $$ \ mathbb {E} _ \ theta [g (s (X))] = 0, \ forallθ \ text {arra utal, hogy} P_θ (g (s ( X)) = 0) = 1, \ forall θ. $$ A $ s $ statisztika állítólag korlátozottan teljes, ha a következtetés érvényes az összes korlátozott $ g $ függvényre.
I olvassa el és állapítsa meg Xi'an és phaneron véleményét, miszerint a teljes statisztika azt jelenti, hogy "ez alapján csak egy elfogulatlan becslő lehet".
-
De én nem értem, mit mond a Wikipedia ugyanezen cikk elején:
Lényegében ez (a teljesség egy statisztika tulajdonsága) olyan feltétel, amely biztosítja, hogy a valószínűségeloszlás paraméterei a modellt képviselő mind becsülhető a statisztika alapján: biztosítja, hogy a t-nek megfelelő eloszlások t o a paraméterek különböző értékei különböznek egymástól.
-
A teljesség milyen értelemben (és miért) "biztosítja, hogy a paraméterek különböző értékeinek megfelelő eloszlások megkülönböztessék" ? "az eloszlások" egy teljes statisztika eloszlása?
-
Milyen értelemben (és miért) teszi a teljesség "biztosítja, hogy a modellt reprezentáló valószínűségi eloszlás paraméterei mind elérhetőek legyenek a statisztika alapján becsüljük meg? "
-
-
[Opcionális: Mit jelent a" korlátozott teljesség "a teljességhez képest?]