Počet záznamů: 1  

A Comparison of Regularization Techniques for Shallow Neural Networks Trained on Small Datasets

  1. 1.
    SYSNO ASEP0546161
    Druh ASEPC - Konferenční příspěvek (mezinárodní konf.)
    Zařazení RIVD - Článek ve sborníku
    NázevA Comparison of Regularization Techniques for Shallow Neural Networks Trained on Small Datasets
    Tvůrce(i) Tumpach, Jiří (UIVT-O) ORCID, SAI
    Kalina, Jan (UIVT-O) RID, SAI, ORCID
    Holeňa, Martin (UIVT-O) SAI, RID
    Celkový počet autorů3
    Zdroj.dok.Proceedings of the 21st Conference Information Technologies – Applications and Theory (ITAT 2021). - Aachen : Technical University & CreateSpace Independent Publishing, 2021 / Brejová B. ; Ciencialová L. ; Holeňa M. ; Mráz F. ; Pardubská D. ; Plátek M. ; Vinař T. - ISSN 1613-0073
    Rozsah strans. 94-103
    Poč.str.10 s.
    Forma vydáníOnline - E
    AkceITAT 2021: Information Technologies - Applications and Theory /21./
    Datum konání24.09.2021 - 28.09.2021
    Místo konáníHeľpa
    ZeměSK - Slovensko
    Typ akceEUR
    Jazyk dok.eng - angličtina
    Země vyd.DE - Německo
    Klíč. slovaartificial neural networks ; regularization ; robustness ; optimization
    Vědní obor RIVIN - Informatika
    Obor OECDComputer sciences, information science, bioinformathics (hardware development to be 2.2, social aspect to be 5.8)
    CEPGA18-18080S GA ČR - Grantová agentura ČR
    GA19-05704S GA ČR - Grantová agentura ČR
    Institucionální podporaUIVT-O - RVO:67985807
    EID SCOPUS85116716777
    AnotaceNeural networks are frequently used as regression models. Their training is usually difficult when the model is subject to a small training dataset with numerous outliers. This paper investigates the effects of various regularisation techniques that can help with this kind of problem. We analysed the effects of the model size, loss selection, L2 weight regularisation, L2 activity regularisation, Dropout, and Alpha Dropout. We collected 30 different datasets, each of which has been split by ten-fold cross-validation. As an evaluation metric, we used cumulative distribution functions (CDFs) of L1 and L2 losses to aggregate results from different datasets without a considerable amount of distortion. Distributions of the metrics are shown, and thorough statistical tests were conducted. Surprisingly, the results show that Dropout models are not suited for our objective. The most effective approach is the choice of model size and L2 types of regularisations.
    PracovištěÚstav informatiky
    KontaktTereza Šírová, sirova@cs.cas.cz, Tel.: 266 053 800
    Rok sběru2022
    Elektronická adresahttps://ics.upjs.sk/~antoni/ceur-ws.org/Vol-0000/paper38.pdf
Počet záznamů: 1  

  Tyto stránky využívají soubory cookies, které usnadňují jejich prohlížení. Další informace o tom jak používáme cookies.