Počet záznamů: 1  

Approximate Bayesian recursive estimation

  1. 1.
    SYSNO ASEP0425539
    Druh ASEPJ - Článek v odborném periodiku
    Zařazení RIVJ - Článek v odborném periodiku
    Poddruh JČlánek ve WOS
    NázevApproximate Bayesian recursive estimation
    Tvůrce(i) Kárný, Miroslav (UTIA-B) RID
    Celkový počet autorů1
    Zdroj.dok.Information Sciences. - : Elsevier - ISSN 0020-0255
    Roč. 285, č. 1 (2014), s. 100-111
    Poč.str.12 s.
    Forma vydáníTištěná - P
    Jazyk dok.eng - angličtina
    Země vyd.US - Spojené státy americké
    Klíč. slovaApproximate parameter estimation ; Bayesian recursive estimation ; Kullback–Leibler divergence ; Forgetting
    Vědní obor RIVBB - Aplikovaná statistika, operační výzkum
    CEPGA13-13502S GA ČR - Grantová agentura ČR
    Institucionální podporaUTIA-B - RVO:67985556
    UT WOS000342540700007
    EID SCOPUS84894058260
    DOI10.1016/j.ins.2014.01.048
    AnotaceBayesian learning provides a firm theoretical basis of the design and exploitation of algorithms in data-streams processing (preprocessing, change detection, hypothesis testing, clustering, etc.). Primarily, it relies on a recursive parameter estimation of a firmly bounded complexity. As a rule, it has to approximate the exact posterior probability density (pd), which comprises unreduced information about the estimated parameter. In the recursive treatment of the data stream, the latest approximate pd is usually updated using the treated parametric model and the newest data and then approximated. The fact that approximation errors may accumulate over time course is mostly neglected in the estimator design and, at most, checked ex post. The paper inspects the estimator design with respect to the error accumulation and concludes that a sort of forgetting (pd flattening) is an indispensable part of a reliable approximate recursive estimation.
    PracovištěÚstav teorie informace a automatizace
    KontaktMarkéta Votavová, votavova@utia.cas.cz, Tel.: 266 052 201.
    Rok sběru2015