![]() |
Informationsgehalt
Schon wieder muss ich nerven...
folgendes: Fussballmannschaft 2Siege, 4 Unentschieden, 28 Verloren - Wie groß ist der Informationsgehalt von Sieg? - Wie groß ist die Enthropie? das kann ich doch irgendwie berechnen muss ich da 2/34 machen oder was? oder da gabs doch ne formel mit dem ln oder sowas??? bin planlos auch google hilft mir nicht wirklich weiter |
I(p(x))=log3(1/p(x)) = -log3(p(x))
naja und dann p(Sieg)=2/34 steht auf wikipedia:[Link nur für registrierte und freigeschaltete Mitglieder sichtbar. Jetzt registrieren...] Entropie : H=x*I(p(x)) Erwartungswert des Informationsgehaltes. Auch Wikipedia. [Link nur für registrierte und freigeschaltete Mitglieder sichtbar. Jetzt registrieren...]) |
Die Lösung ist dann also:
Sieg: -lg3(2/34)? Und bei der Entropie... Was ist "x" und was setz ich für I(p(x)) ein? Weil ich will ja nicht die Entropie von Sieg wissen sondern die "gesamt" Entropie oder? |
ja für sieg wäre richtig
Achso die Entropie: Dann musst du für Sieg, Veroren und unentschieden die einzelnen Informationsgehalte I(p(x)) ausrechnen Dann H=Sieg*I(Sieg)+Unentschieden*I(Unentschieden)+Verl oren*I(Verloren) |
Alle Zeitangaben in WEZ +1. Es ist jetzt 22:42 Uhr. |
Powered by vBulletin® (Deutsch)
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.