Property |
Value |
dbo:abstract
|
- Entropie (nach dem Kunstwort εντροπία) ist in der Informationstheorie ein Maß für den mittleren Informationsgehalt einer Nachricht. Der Begriff ist eng verwandt mit der Entropie in der Thermodynamik und Statistischen Mechanik. Das informationstheoretische Verständnis des Begriffes Entropie geht auf Claude E. Shannon zurück und existiert seit etwa 1948. In diesem Jahr veröffentlichte Shannon seine fundamentale Arbeit A Mathematical Theory of Communication und prägte damit die moderne Informationstheorie. Die Entropie wird üblicherweise mit einem großen Eta () bezeichnet. (de)
- Entropie (nach dem Kunstwort εντροπία) ist in der Informationstheorie ein Maß für den mittleren Informationsgehalt einer Nachricht. Der Begriff ist eng verwandt mit der Entropie in der Thermodynamik und Statistischen Mechanik. Das informationstheoretische Verständnis des Begriffes Entropie geht auf Claude E. Shannon zurück und existiert seit etwa 1948. In diesem Jahr veröffentlichte Shannon seine fundamentale Arbeit A Mathematical Theory of Communication und prägte damit die moderne Informationstheorie. Die Entropie wird üblicherweise mit einem großen Eta () bezeichnet. (de)
|
dbo:thumbnail
| |
dbo:wikiPageExternalLink
| |
dbo:wikiPageID
| |
dbo:wikiPageRevisionID
| |
dct:subject
| |
rdfs:comment
|
- Entropie (nach dem Kunstwort εντροπία) ist in der Informationstheorie ein Maß für den mittleren Informationsgehalt einer Nachricht. Der Begriff ist eng verwandt mit der Entropie in der Thermodynamik und Statistischen Mechanik. Das informationstheoretische Verständnis des Begriffes Entropie geht auf Claude E. Shannon zurück und existiert seit etwa 1948. In diesem Jahr veröffentlichte Shannon seine fundamentale Arbeit A Mathematical Theory of Communication und prägte damit die moderne Informationstheorie. Die Entropie wird üblicherweise mit einem großen Eta () bezeichnet. (de)
- Entropie (nach dem Kunstwort εντροπία) ist in der Informationstheorie ein Maß für den mittleren Informationsgehalt einer Nachricht. Der Begriff ist eng verwandt mit der Entropie in der Thermodynamik und Statistischen Mechanik. Das informationstheoretische Verständnis des Begriffes Entropie geht auf Claude E. Shannon zurück und existiert seit etwa 1948. In diesem Jahr veröffentlichte Shannon seine fundamentale Arbeit A Mathematical Theory of Communication und prägte damit die moderne Informationstheorie. Die Entropie wird üblicherweise mit einem großen Eta () bezeichnet. (de)
|
rdfs:label
|
- Entropie (Informationstheorie) (de)
- Entropie (Informationstheorie) (de)
|
owl:sameAs
| |
prov:wasDerivedFrom
| |
foaf:depiction
| |
foaf:isPrimaryTopicOf
| |
is dbo:wikiPageDisambiguates
of | |
is dbo:wikiPageRedirects
of | |
is foaf:primaryTopic
of | |