Startseite UR

Taming numerical imprecision by adapting the KL divergence to negative probabilities

Pfahler, Simon ; Georg, Peter ; Schill, Rudolf ; Klever, Maren ; Grasedyck, Lars ; Spang, Rainer ; Wettig, Tilo

Im Publikationsserver gibt es leider keinen Volltext zu diesem Eintrag.



Zusammenfassung

The Kullback-Leibler (KL) divergence is frequently used in data science. For discrete distributions on large state spaces, approximations of probability vectors may result in a few small negative entries, rendering the KL divergence undefined. We address this problem by introducing a parameterized family of substitute divergence measures, the shifted KL (sKL) divergence measures. Our approach is ...

plus


Nur für Besitzer und Autoren: Kontrollseite des Eintrags
  1. Universität

Universitätsbibliothek

Publikationsserver

Kontakt:

Publizieren: oa@ur.de
0941 943 -4239 oder -69394

Dissertationen: dissertationen@ur.de
0941 943 -3904

Forschungsdaten: datahub@ur.de
0941 943 -5707

Ansprechpartner