Was ist die Shannon-Entropie?

storabird16. Februar um 23:54

Was ist die Shannon-Entropie?

 

Antworten

DaLu17. Februar um 08:081x hilfreich

Die Shannon - Entropie ist ein Maß für die Unsicherheit oder den Informationsgehalt einer Zufallsvariable und beschreibt, wie viel „Information“ im Durchschnitt in einer Nachricht enthalten ist.

69wolle17. Februar um 00:300x hilfreich

Die Shannon-Entropie ist ein Maß für die Informationsmenge oder Ungewissheit in einer Nachricht oder einem Informationssystem. Entwickelt von Claude Shannon 1948, quantifiziert sie, wie viel Information im Durchschnitt in einer Quelle steckt. Mathematisch wird die Entropie HH für eine Wahrscheinlichkeitsverteilung p1,p2,…,pnp1​,p2​,…,pn​ über mögliche Ereignisse berechnet als

H=−∑i=1npilog⁡2piH=−i=1∑n​pi​log2​pi​

Dabei steht pipi​ für die Wahrscheinlichkeit des Ereignisses ii. Ist die Verteilung gleichmäßig, ist die Entropie hoch, da die Ereignisse unvorhersehbar sind. Bei sicherem Ausgang (Wahrscheinlichkeit 1) ist die Entropie null, da keine neue Information entsteht. Die Shannon-Entropie ist grundlegend für die Informationstheorie, da sie etwa die theoretische Grenze der Datenkompression angibt und in Bereichen wie Kryptographie und Kommunikationstechnik Anwendung findet. Sie beschreibt, wie viel Überraschung oder Unsicherheit in einer Informationsquelle steckt.

 

Frage stellen

 
 
Suchbegriff