Počet záznamů: 1
Approximate Bayesian recursive estimation
- 1.
SYSNO ASEP 0425539 Druh ASEP J - Článek v odborném periodiku Zařazení RIV J - Článek v odborném periodiku Poddruh J Článek ve WOS Název Approximate Bayesian recursive estimation Tvůrce(i) Kárný, Miroslav (UTIA-B) RID, ORCID Celkový počet autorů 1 Zdroj.dok. Information Sciences. - : Elsevier - ISSN 0020-0255
Roč. 285, č. 1 (2014), s. 100-111Poč.str. 12 s. Forma vydání Tištěná - P Jazyk dok. eng - angličtina Země vyd. US - Spojené státy americké Klíč. slova Approximate parameter estimation ; Bayesian recursive estimation ; Kullback–Leibler divergence ; Forgetting Vědní obor RIV BB - Aplikovaná statistika, operační výzkum CEP GA13-13502S GA ČR - Grantová agentura ČR Institucionální podpora UTIA-B - RVO:67985556 UT WOS 000342540700007 EID SCOPUS 84894058260 DOI 10.1016/j.ins.2014.01.048 Anotace Bayesian learning provides a firm theoretical basis of the design and exploitation of algorithms in data-streams processing (preprocessing, change detection, hypothesis testing, clustering, etc.). Primarily, it relies on a recursive parameter estimation of a firmly bounded complexity. As a rule, it has to approximate the exact posterior probability density (pd), which comprises unreduced information about the estimated parameter. In the recursive treatment of the data stream, the latest approximate pd is usually updated using the treated parametric model and the newest data and then approximated. The fact that approximation errors may accumulate over time course is mostly neglected in the estimator design and, at most, checked ex post. The paper inspects the estimator design with respect to the error accumulation and concludes that a sort of forgetting (pd flattening) is an indispensable part of a reliable approximate recursive estimation. Pracoviště Ústav teorie informace a automatizace Kontakt Markéta Votavová, votavova@utia.cas.cz, Tel.: 266 052 201. Rok sběru 2015
Počet záznamů: 1