Understanding "Rechnerstrukturen"
2004-07-09 13:09
Viciarg
Okay, kaum 20 Seiten in dem Werk gelesen, schon verwirrt:
Erst ist Informationsmenge/-maß eines Zeichens [img]http://mokrates.de/cgi-bin/texstring?I(a_i)%20=%20-log(p_i)[/img].
Später dann wird die Entropie H definiert, und zwar mit
[img]http://mokrates.de/cgi-bin/texstring?-%5Csum_%7Bi=0%7D%5Enp_i*log(p_i)%20[/img].
Noch später heißt es, wenn alle Zeichen die gleiche Auftrittswahrscheinlichkeit haben, gilt [img]http://mokrates.de/cgi-bin/texstring?H%20=%20H_0%20=%20ld(n)[/img].
Der Informationsgehalt eines Wortes ist die Summe aus den Informationsmaßen [img]http://mokrates.de/cgi-bin/texstring?I(a_i)[/img] der einzelnen Zeichen.
Gut, jetzt kommt das verwirrende:
Redundanz ist die Differenz zwischen maximal möglichem Informationsgehalt [img]http://mokrates.de/cgi-bin/texstring?H_0[/img] und dem tatsächlichen Informationsgehalt H mit [img]http://mokrates.de/cgi-bin/texstring?R%20=%20H_0%20+%20%5Csum_%7Bi=0%7D%5Enp_i*ld(p_i)[/img].
Warum zum Teufel ist H erst die Entropie und [img]http://mokrates.de/cgi-bin/texstring?I(a_i)[/img] der Informationsgehalt/das -maß/die -menge und später ist H der Informationsgehalt?
Naja, es werden garantiert noch mehr Verständnisfragen auftauchen…[img]http://www.fb18.de/gfx/8.gif[/img]
Erst ist Informationsmenge/-maß eines Zeichens [img]http://mokrates.de/cgi-bin/texstring?I(a_i)%20=%20-log(p_i)[/img].
Später dann wird die Entropie H definiert, und zwar mit
[img]http://mokrates.de/cgi-bin/texstring?-%5Csum_%7Bi=0%7D%5Enp_i*log(p_i)%20[/img].
Noch später heißt es, wenn alle Zeichen die gleiche Auftrittswahrscheinlichkeit haben, gilt [img]http://mokrates.de/cgi-bin/texstring?H%20=%20H_0%20=%20ld(n)[/img].
Der Informationsgehalt eines Wortes ist die Summe aus den Informationsmaßen [img]http://mokrates.de/cgi-bin/texstring?I(a_i)[/img] der einzelnen Zeichen.
Gut, jetzt kommt das verwirrende:
Redundanz ist die Differenz zwischen maximal möglichem Informationsgehalt [img]http://mokrates.de/cgi-bin/texstring?H_0[/img] und dem tatsächlichen Informationsgehalt H mit [img]http://mokrates.de/cgi-bin/texstring?R%20=%20H_0%20+%20%5Csum_%7Bi=0%7D%5Enp_i*ld(p_i)[/img].
Warum zum Teufel ist H erst die Entropie und [img]http://mokrates.de/cgi-bin/texstring?I(a_i)[/img] der Informationsgehalt/das -maß/die -menge und später ist H der Informationsgehalt?
Naja, es werden garantiert noch mehr Verständnisfragen auftauchen…[img]http://www.fb18.de/gfx/8.gif[/img]