Ez egy ismétlődő kérdés (lásd ezt a bejegyzést, ezt a bejegyzést és ezt a bejegyzést), de nekem más a pörgésem.
Tegyük fel, hogy van egy csomó mintám egy általános MCMC mintavevőből. Minden $ \ theta $ mintához ismerem a $ \ log f (\ textbf {x} | \ theta) $ napló valószínűségét és a $ \ log f (\ theta) $ előtti napló értékét. Ha ez segít, akkor tudom az adatpontonkénti napló valószínűségének értékét, $ \ log f (x_i | \ theta) $ (ezek az információk segítenek bizonyos módszereknél, például a WAIC és a PSIS-LOO).
Szeretnék egy (nyers) becslést kapni a marginális valószínűségről, csak a rendelkezésemre álló mintákkal, és esetleg néhány más függvény-értékeléssel (de anélkül, hogy egy ad hoc MCMC).
Először is tisztítsuk meg a táblázatot. Mindannyian tudjuk, hogy a harmonikus becslő a valaha volt legrosszabb becslő. Menjünk tovább. Ha Gibbs-mintavételt végez zárt formában a papokkal és az utódokkal, használhatja Chib módszerét; de nem vagyok biztos abban, hogyan lehetne általánosítani ezeken az eseteken kívül. Vannak olyan módszerek is, amelyek megkövetelik, hogy módosítsák a mintavételi eljárást (például edzett utastéren keresztül), de ez itt nem érdekel.
Az a megközelítés, amelyre gondolok az alapul szolgáló eloszlásnak egy $ g (\ theta) $ paraméteres (vagy nem paraméteres) alakkal való megközelítésével, majd a $ Z $ normalizálási állandó 1-D optimalizálási problémaként való kitalálását (azaz a $ Z $ -ot, amely minimalizálja a hibákat $ Z g (\ theta) $ és $ f (\ textbf {x} | \ theta) f (\ theta) $, a mintákon értékelve). Tegyük fel, hogy a legegyszerűbb esetben a hátsó rész nagyjából többváltozós normális, a $ g (\ theta) $ -t többváltozós normálnak tudom beilleszteni, és valami hasonlót kapok egy Laplace-közelítéshez (érdemes néhány további függvényértékelést felhasználnom a üzemmód helyzete). Használhatnék azonban $ g (\ theta) $ néven egy rugalmasabb családot, például egy többváltozós $ t $ eloszlás variációs keverékét.
Nagyra értékelem, hogy ez a módszer csak akkor működik, ha $ Z g (\ theta) $ ésszerű közelítés a $ f (\ textbf {x} | \ theta) f (\ theta) $ értékhez, de bármilyen ok vagy figyelmeztető mondat miért lenne nagyon oktalan megtenni? Van valami olvasnivaló, amelyet ajánlana?
A teljesen nem paraméteres megközelítés néhány nem paraméteres családot, például egy Gauss-folyamatot (GP) használ a $ \ log f (\ textbf {x} | \ theta) + \ közelítésére. log f (\ theta) $ (vagy annak valamilyen más nemlineáris transzformációja, például a négyzetgyök) és a Bayes-kvadrát, hogy implicit módon integrálódjon az alapul szolgáló cél fölé (lásd itt és itt). Ez érdekes alternatív megközelítésnek tűnik, de szellemében analóg (vegye figyelembe, hogy esetemben a háziorvosok nehézkesek lennének).