"Transinformation"@de . . . . . "254613"^^ . . . . . . . . "Transinformation oder gegenseitige Information ist eine Gr\u00F6\u00DFe aus der Informationstheorie, die die St\u00E4rke des statistischen Zusammenhangs zweier Zufallsgr\u00F6\u00DFen angibt. Die Transinformation wird auch als Synentropie bezeichnet. Im Gegensatz zur Synentropie einer Markov-Quelle erster Ordnung, welche die Redundanz einer Quelle zum Ausdruck bringt und somit minimal sein soll, stellt die Synentropie eines Kanals den mittleren Informationsgehalt dar, der vom Sender zum Empf\u00E4nger gelangt und soll somit maximal sein. folgenderma\u00DFen: Definition \u00FCber Wahrscheinlichkeiten:"@de . . "Transinformation oder gegenseitige Information ist eine Gr\u00F6\u00DFe aus der Informationstheorie, die die St\u00E4rke des statistischen Zusammenhangs zweier Zufallsgr\u00F6\u00DFen angibt. Die Transinformation wird auch als Synentropie bezeichnet. Im Gegensatz zur Synentropie einer Markov-Quelle erster Ordnung, welche die Redundanz einer Quelle zum Ausdruck bringt und somit minimal sein soll, stellt die Synentropie eines Kanals den mittleren Informationsgehalt dar, der vom Sender zum Empf\u00E4nger gelangt und soll somit maximal sein. Gelegentlich wird auch die Bezeichnung relative Entropie verwendet, diese entspricht jedoch der Kullback-Leibler-Divergenz. Die Transinformation steht in einem engen Zusammenhang zur Entropie und zur bedingten Entropie. So berechnet sich die Transinformation folgenderma\u00DFen: Definition \u00FCber die Differenz von Quell-Entropie und \u00C4quivokation bzw. Empfangs-Entropie und Fehlinformation: Definition \u00FCber Wahrscheinlichkeiten: Definition \u00FCber die Kullback-Leibler-Divergenz: Definition \u00FCber den Erwartungswert: Verschwindet die Transinformation, so spricht man von statistischer Unabh\u00E4ngigkeit der beiden Zufallsgr\u00F6\u00DFen. Die Transinformation wird maximal, wenn sich eine Zufallsgr\u00F6\u00DFe vollkommen aus der anderen berechnen l\u00E4sst. Die Transinformation beruht auf der von Claude Shannon eingef\u00FChrten Definition der Information mit Hilfe der Entropie (Unsicherheit, mittlerer Informationsgehalt). Nimmt die Transinformation zu, so verringert sich die Unsicherheit \u00FCber eine Zufallsgr\u00F6\u00DFe unter der Voraussetzung, dass die andere bekannt ist. Ist die Transinformation maximal, verschwindet die Unsicherheit folglich. Wie aus der formalen Definition zu sehen ist, wird die Ungewissheit einer Zufallsvariable durch Kenntnis einer anderen reduziert. Dies dr\u00FCckt sich in der Transinformation aus. Die Transinformation spielt beispielsweise bei der Daten\u00FCbertragung eine Rolle. Mit ihr l\u00E4sst sich die Kanalkapazit\u00E4t eines Kanals bestimmen. Entsprechend kann auch eine Entropie H(Z) von zwei verschiedenen, wiederum voneinander abh\u00E4ngigen, Entropien abh\u00E4ngen: In der Fachliteratur werden verschiedene Begriffe verwendet. Die \u00C4quivokation wird auch als \u201EVerlustentropie\u201C und die Fehlinformation auch als \u201EIrrelevanz\u201C bezeichnet. Die Transinformation wird auch als \u201ETransmission\u201C oder \u201Emittlerer Transinformationsgehalt\u201C bezeichnet."@de . . . . "154386835"^^ . .