Startseite UR

Taming numerical imprecision by adapting the KL divergence to negative probabilities

URN zum Zitieren dieses Dokuments:
urn:nbn:de:bvb:355-epub-580343
DOI zum Zitieren dieses Dokuments:
10.5283/epub.58034
Pfahler, Simon ; Georg, Peter ; Schill, Rudolf ; Klever, Maren ; Grasedyck, Lars ; Spang, Rainer ; Wettig, Tilo
[img]Lizenz: Creative Commons Namensnennung 4.0 International
PDF - Veröffentlichte Version
(690kB)
Veröffentlichungsdatum dieses Volltextes: 04 Apr 2024 04:21

Diese Publikation ist Teil des DEAL-Vertrags mit Springer.


Zusammenfassung

The Kullback-Leibler (KL) divergence is frequently used in data science. For discrete distributions on large state spaces, approximations of probability vectors may result in a few small negative entries, rendering the KL divergence undefined. We address this problem by introducing a parameterized family of substitute divergence measures, the shifted KL (sKL) divergence measures. Our approach is ...

plus


Nur für Besitzer und Autoren: Kontrollseite des Eintrags
  1. Universität

Universitätsbibliothek

Publikationsserver

Kontakt:

Publizieren: oa@ur.de
0941 943 -4239 oder -69394

Dissertationen: dissertationen@ur.de
0941 943 -3904

Forschungsdaten: datahub@ur.de
0941 943 -5707

Ansprechpartner