Number of the records: 1  

Risk Sensitive and Mean Variance Optimality in Markov Decision Processes

  1. 1.
    0313928 - ÚTIA 2009 RIV CZ eng K - Conference Paper (Czech conference)
    Sladký, Karel - Sitař, Milan
    Risk Sensitive and Mean Variance Optimality in Markov Decision Processes.
    [Optimalita za rizika a typu střední hodnota - rozptyl v markovskýách rozhodovacích procesech.]
    Proceedings of 26th International Conference Mathematical Methods in Economics 2008. Liberec: Technical University of Liberec, 2008 - (Řehořová, P.; Maršíková, K.), s. 452-461. ISBN 978-80-7372-387-3.
    [Mathematical Methods in Economics 2008. Liberec (CZ), 17.09.2008-19.09.2008]
    R&D Projects: GA ČR GA402/07/1113; GA ČR(CZ) GA402/08/0107
    Institutional research plan: CEZ:AV0Z10750506
    Keywords : Markov decision chains * exponential utility functions * certainty equivalent * expectation and variance of cumulative rewards * mean variance optimality * asymptotic behaviour
    Subject RIV: AH - Economics
    http://library.utia.cas.cz/separaty/2008/E/sladky-risk%20sensitive%20and%20mean%20variance%20optimality%20in%20markov%20decision%20processes.pdf

    In this note, we compare two aproaches for handling risk-variability features arising in discrete-time Markov decision processes: models with exponential utility function and mean variance optimality models. Computational approaches for finding optimal decision with respect to the optimality criteria mentioned above are presented and analytical results showing connections between the above optimality criteria are discussed.

    V příspěvku jsou porovnány dva přístupy pro hodnocení rizika v markovských rozhodovacích procesech: modely s exponenciální účelovou funci a modely typu střední hodnota - rozptyl. Jsou popsány výpočetní metody pro nalezení optimálních rozhodnutí pro výše zmíněná kriteria a diskutují se vzájemné souvislosti výše zmíněných kritérií optimality.
    Permanent Link: http://hdl.handle.net/11104/0164603

     
     
Number of the records: 1  

  This site uses cookies to make them easier to browse. Learn more about how we use cookies.