Wie schreibt man Synentropie?
Wie schreibt man Synentropie?
Wie ist die englische Übersetzung für Synentropie?
Beispielsätze für Synentropie?
Anderes Wort für Synentropie?
Synonym für Synentropie?
Ähnliche Wörter für Synentropie?
Antonym / Gegensätzlich für Synentropie?
Zitate mit Synentropie?
Erklärung für Synentropie?
Synentropie teilen?
Synentropie {f} [comp.]
Das Wort vorlesen lassen:DE - EN / Deutsch-Englisch für Synentropie
🇩🇪 Synentropie
🇺🇸
Synentropy
Übersetzung für 'Synentropie' von Deutsch nach Englisch.
German-English translation for Synentropie.
Synentropie English translation.
Translation of "Synentropie" in English.
Scrabble Wert von Synentropie: 21
Dabei können Sie von folgender Bepunktung der Buchstaben ausgehen: 1 Punkt - A, D, E, I, N, R, S, T, U; 2 Punkte - G, H, L, O;
3 Punkte - B, M, W, Z; 4 Punkte - C, F, K, P; 6 Punkte - Ä, J, Ü, V; 8 Punkte - Ö, X; 10 Punkte - Q, Y.
Das „ß“ gibt es beim Scrabble nicht und muss durch zwei „s“ ersetzt werden.
SCRABBLE® is a registered trademark of J.W. Spear & Sons Limited
Beispielsätze für bzw. mit Synentropie
🙁 Es wurden keine Beispielsätze für Synentropie gefunden.
Anderes Wort bzw. Synonyme für Synentropie
🙁 Es wurden keine Synonyme für Synentropie gefunden.
Ähnliche Wörter für Synentropie
🙁 Es wurden keine ähnlichen Wörter für Synentropie gefunden.
Antonym bzw. Gegensätzlich für Synentropie
🙁 Es wurde kein Antonym für Synentropie gefunden.
Zitate mit Synentropie
🙁 Es wurden keine Zitate mit Synentropie gefunden.
Erklärung für Synentropie
Transinformation oder gegenseitige Information (engl. mutual information) ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt. Die Transinformation wird auch als Synentropie bezeichnet. Im Gegensatz zur Synentropie einer Markov-Quelle erster Ordnung, welche die Redundanz einer Quelle zum Ausdruck bringt und somit minimal sein soll, stellt die Synentropie eines Kanals den mittleren Informationsgehalt dar, der vom Sender zum Empfänger gelangt und somit maximal sein soll.
Gelegentlich wird auch die Bezeichnung relative Entropie verwendet, diese entspricht jedoch der Kullback-Leibler-Divergenz.
Die Transinformation steht in einem engen Zusammenhang zur Entropie und zur bedingten Entropie. So berechnet sich die Transinformation
I
(
X
;
Y
)
{\displaystyle I(X;Y)}
folgendermaßen:
Definition über die Differenz von Quell-Entropie und Äquivokation bzw. Empfangs-Entropie und Fehlinformation:
I
(
X
;
Y
)
=
H
(
X
)
−
H
(
X
|
Y
)
=
H
(
Y
)
−
H
(
Y
|
X
)
.
{\displaystyle I(X;Y)=H(X)-H(X\vert Y)=H(Y)-H(Y\vert X).}
Definition über Wahrscheinlichkeiten:
I
(
X
;
Y
)
=
∑
x
∑
y
p
(
x
,
y
)
⋅
log
2
(
p
(
x
,
y
)
p
(
x
)
p
(
y
)
)
.
{\displaystyle I(X;Y)=\sum _{x}{}\sum _{y}{}p(x,y)\cdot \log _{2}\left({\frac {p(x,y)}{p(x)p(y)}}\right).}
Definition über die Kullback-Leibler-Divergenz:
I
(
X
;
Y
)
=
D
(
p
(
x
,
y
)
‖
p
(
x
)
p
(
y
)
)
.
{\displaystyle I(X;Y)=D(p(x,y)\|p(x)p(y)).}
Definition über den Erwartungswert:
I
(
X
;
Y
)
=
E
{
log
2
(
p
(
x
,
y
)
p
(
x
)
p
(
y
)
)
}
.
{\displaystyle I(X;Y)=E\left\{\log _{2}\left({\frac {p(x,y)}{p(x)p(y)}}\right)\right\}.}
Verschwindet die Transinformation, so spricht man von statistischer Unabhängigkeit der beiden Zufallsgrößen. Die Transinformation wird maximal, wenn sich eine Zufallsgröße vollkommen aus der anderen berechnen lässt.
Die Transinformation beruht auf der von Claude Shannon eingeführten Definition der Information mit Hilfe der Entropie (Unsicherheit, mittlerer Informationsgehalt). Nimmt die Transinformation zu, so verringert sich die Unsicherheit über eine Zufallsgröße unter der Voraussetzung, dass die andere bekannt ist. Ist die Transinformation maximal, verschwindet die Unsicherheit folglich. Wie aus der formalen Definition zu sehen ist, wird die Ungewissheit einer Zufallsvariable durch Kenntnis einer anderen reduziert. Dies drückt sich in der Transinformation aus.
Die Transinformation spielt beispielsweise bei der Datenübertragung eine Rolle. Mit ihr lässt sich die Kanalkapazität eines Kanals bestimmen.
Entsprechend kann auch eine Entropie H(Z) von zwei verschiedenen, wiederum voneinander abhängigen, Entropien abhängen:
In der Fachliteratur werden verschiedene Begriffe verwendet. Die Äquivokation wird auch als „Verlustentropie“ und die Fehlinformation auch als „Irrelevanz“ bezeichnet. Die Transinformation wird auch als „Transmission“ oder „mittlerer Transinformationsgehalt“ bezeichnet.
Quelle: wikipedia.org
Synentropie als Bild teilen
Du möchtest andere auf die richtige Schreibweise von Synentropie hinweisen? Hier kannst du passende Bilder zu "Synentropie" direkt auf Social Media teilen. Klicke dazu einfach bei dem jeweiligen Bild auf und wähle die gewünschte Variante bzw. Social Media Plattform aus.
Das deutsche und das englische Wörterbuch basieren auf der Wortliste von Frank Richter welche unter GPL Version 2 or later; GNU General Public License verfügbar ist. Wie schreibt man was, verschiedene Schreibweisen und Beispielsätze sind Daten von wie-schreibt-man.com. Die Zitate stammen von Wikiquote, mit der Lizenz CC-BY-SA. Deutsche Morphologie-Daten, basierend auf Morphy (Link,Original source, Lizenz). Wir können keine Garantie und keine Haftung für die Richtigkeit und Vollständigkeit dieser Seite übernehmen.