A Mathematical Theory of Communication

A Mathematical Theory of Communication

Diagrama de Shannon de um sistema geral de comunicações, mostrando o processo pelo qual uma mensagem enviada se torna a mensagem recebida (possivelmente corrompida por ruído).
Data julho de 1948
Tipo de documento obra escrita, artigo científico
Autor(es) Claude Shannon

A Mathematical Theory of Communication ("Uma teoria matemática de comunicação") é um artigo do matemático Claude E. Shannon publicado no Bell System Technical Journal em 1948.[1][2][3][4] Foi renomeado para The Mathematical Theory of Communication no livro de 1949 de o mesmo nome,[5] uma pequena mas significativa mudança de título depois de perceber a generalidade deste trabalho. Tornou-se um dos artigos científicos mais citados e deu origem ao campo da teoria da informação.[6]

Publicação

O artigo foi o trabalho fundador do campo da teoria da informação. Mais tarde, foi publicado em 1949 como um livro intitulado The Mathematical Theory of Communication (ISBN 0-252-72546-8), que foi publicado como brochura em 1963 (ISBN 0-252-72548-4). O livro contém um artigo adicional de Warren Weaver, fornecendo uma visão geral da teoria para um público mais geral.

Conteúdo

O artigo de Shannon estabeleceu os elementos básicos da comunicação:

  • Uma fonte de informação que produz uma mensagem;
  • Um transmissor que opera na mensagem para criar um sinal que pode ser enviado através de um canal;
  • Um canal, que é o meio pelo qual o sinal, transportando a informação que compõe a mensagem, é enviado;
  • Um receptor, que transforma o sinal de volta na mensagem destinada à entrega;
  • Um destino, que pode ser uma pessoa ou uma máquina, para quem ou para qual a mensagem se destina.

Também desenvolveu os conceitos de entropia e redundância de informação, e introduziu o termo bit (que Shannon creditou a John Tukey) como uma unidade de informação. Foi também neste artigo que foi proposta a técnica de codificação Shannon-Fano – uma técnica desenvolvida em conjunto com Robert Fano.

Referências

  1. Shannon, Claude Elwood (1948). «A Mathematical Theory of Communication» (PDF). Bell System Technical Journal. 27 (3): 379–423. doi:10.1002/j.1538-7305.1948.tb01338.x. hdl:11858/00-001M-0000-002C-4314-2Acessível livremente. Cópia arquivada (PDF) em 15 de julho de 1998. The choice of a logarithmic base corresponds to the choice of a unit for measuring information. If the base 2 is used the resulting units may be called binary digits, or more briefly bits, a word suggested by J. W. Tukey. 
  2. Shannon, Claude Elwood (1948). «A Mathematical Theory of Communication». Bell System Technical Journal. 27 (4): 623–666. doi:10.1002/j.1538-7305.1948.tb00917.x. hdl:11858/00-001M-0000-002C-4314-2Acessível livremente 
  3. Ash, Robert B. (1966). Information Theory: Tracts in Pure & Applied Mathematics. New York: John Wiley & Sons Inc. ISBN 0-470-03445-9 
  4. Yeung, Raymond W. (2008). «The Science of Information». Information Theory and Network Coding. [S.l.]: Springer. pp. 1–4. ISBN 978-0-387-79233-0. doi:10.1007/978-0-387-79234-7_1 
  5. Shannon, Claude Elwood; Weaver, Warren (1949). The Mathematical Theory of Communication (PDF). [S.l.]: University of Illinois Press. ISBN 0-252-72548-4. Cópia arquivada (PDF) em 15 de julho de 1998 
  6. Van Noorden, Richard; Maher, Brendan; Nuzzo, Regina (2014). «The top 100 papers». Nature. 514 (7524): 550–553. PMID 25355343. doi:10.1038/514550aAcessível livremente 

Ligações externas