| Lizenz: Creative Commons Namensnennung 4.0 International PDF - Veröffentlichte Version (690kB) |
- URN zum Zitieren dieses Dokuments:
- urn:nbn:de:bvb:355-epub-580343
- DOI zum Zitieren dieses Dokuments:
- 10.5283/epub.58034
Alternative Links zum Volltext:DOI
Diese Publikation ist Teil des DEAL-Vertrags mit Springer.
Zusammenfassung
The Kullback-Leibler (KL) divergence is frequently used in data science. For discrete distributions on large state spaces, approximations of probability vectors may result in a few small negative entries, rendering the KL divergence undefined. We address this problem by introducing a parameterized family of substitute divergence measures, the shifted KL (sKL) divergence measures. Our approach is ...

Nur für Besitzer und Autoren: Kontrollseite des Eintrags

Downloadstatistik