A Mathematical Theory of Communication
|
Diagrama de Shannon de um sistema geral de comunicações, mostrando o processo pelo qual uma mensagem enviada se torna a mensagem recebida (possivelmente corrompida por ruído).
|
Data
|
julho de 1948
|
Tipo de documento
|
obra escrita, artigo científico
|
Autor(es)
|
Claude Shannon
|
|
A Mathematical Theory of Communication ("Uma teoria matemática de comunicação") é um artigo do matemático Claude E. Shannon publicado no Bell System Technical Journal em 1948.[1][2][3][4] Foi renomeado para The Mathematical Theory of Communication no livro de 1949 de o mesmo nome,[5] uma pequena mas significativa mudança de título depois de perceber a generalidade deste trabalho. Tornou-se um dos artigos científicos mais citados e deu origem ao campo da teoria da informação.[6]
Publicação
O artigo foi o trabalho fundador do campo da teoria da informação. Mais tarde, foi publicado em 1949 como um livro intitulado The Mathematical Theory of Communication (ISBN 0-252-72546-8), que foi publicado como brochura em 1963 (ISBN 0-252-72548-4). O livro contém um artigo adicional de Warren Weaver, fornecendo uma visão geral da teoria para um público mais geral.
Conteúdo
O artigo de Shannon estabeleceu os elementos básicos da comunicação:
- Uma fonte de informação que produz uma mensagem;
- Um transmissor que opera na mensagem para criar um sinal que pode ser enviado através de um canal;
- Um canal, que é o meio pelo qual o sinal, transportando a informação que compõe a mensagem, é enviado;
- Um receptor, que transforma o sinal de volta na mensagem destinada à entrega;
- Um destino, que pode ser uma pessoa ou uma máquina, para quem ou para qual a mensagem se destina.
Também desenvolveu os conceitos de entropia e redundância de informação, e introduziu o termo bit (que Shannon creditou a John Tukey) como uma unidade de informação. Foi também neste artigo que foi proposta a técnica de codificação Shannon-Fano – uma técnica desenvolvida em conjunto com Robert Fano.
Referências
- ↑ Shannon, Claude Elwood (1948). «A Mathematical Theory of Communication» (PDF). Bell System Technical Journal. 27 (3): 379–423. doi:10.1002/j.1538-7305.1948.tb01338.x. hdl:11858/00-001M-0000-002C-4314-2. Cópia arquivada (PDF) em 15 de julho de 1998.
The choice of a logarithmic base corresponds to the choice of a unit for measuring information. If the base 2 is used the resulting units may be called binary digits, or more briefly bits, a word suggested by J. W. Tukey.
- ↑ Shannon, Claude Elwood (1948). «A Mathematical Theory of Communication». Bell System Technical Journal. 27 (4): 623–666. doi:10.1002/j.1538-7305.1948.tb00917.x. hdl:11858/00-001M-0000-002C-4314-2
- ↑ Ash, Robert B. (1966). Information Theory: Tracts in Pure & Applied Mathematics. New York: John Wiley & Sons Inc. ISBN 0-470-03445-9
- ↑ Yeung, Raymond W. (2008). «The Science of Information». Information Theory and Network Coding. [S.l.]: Springer. pp. 1–4. ISBN 978-0-387-79233-0. doi:10.1007/978-0-387-79234-7_1
- ↑ Shannon, Claude Elwood; Weaver, Warren (1949). The Mathematical Theory of Communication (PDF). [S.l.]: University of Illinois Press. ISBN 0-252-72548-4. Cópia arquivada (PDF) em 15 de julho de 1998
- ↑ Van Noorden, Richard; Maher, Brendan; Nuzzo, Regina (2014). «The top 100 papers». Nature. 514 (7524): 550–553. PMID 25355343. doi:10.1038/514550a
Ligações externas