Claude Shannon

Claude Shannon
Claude Shannon
Claude Shannon (c. 1963)
Conhecido(a) por Codificação de Shannon-Fano, Número de Shannon, Índice de Shannon
Nascimento 30 de abril de 1916
Petoskey, Michigan
Morte 24 de fevereiro de 2001 (84 anos)
Medford, Massachusetts
Residência Estados Unidos
Nacionalidade Americano
Alma mater Universidade de Michigan, Instituto de Tecnologia de Massachusetts
Prêmios Medalha Stuart Ballantine (1955)
Gibbs Lecture (1963)
Medalha Nacional de Ciências (1966)
Medalha de Honra IEEE (1966)
Prémio Harvey (1972)
Prêmio Claude E. Shannon (1972)
Medalha John Fritz (1983)[1]
Prêmio Kyoto (1985)
National Inventors Hall of Fame (2004)
Orientador(es)(as) Frank Lauren Hitchcock
Orientado(a)(s) William Daniel Hillis, Ivan Sutherland, Bert Sutherland
Instituições Bell Labs, Instituto de Tecnologia de Massachusetts, Instituto de Estudos Avançados de Princeton
Campo(s) matemática, engenharia elétrica
Tese 1940: An Algebra for Theoretical Genetics

Claude Elwood Shannon (30 de abril de 191624 de fevereiro de 2001) foi um matemático, engenheiro eletrônico e criptógrafo estadunidense, conhecido como "o pai da teoria da informação".[2][3]

De 1932 a 1936, estudou matemática e engenharia elétrica na Universidade de Michigan.

Em 1948, publicou o importante artigo científico intitulado A Mathematical Theory of Communication enfocando o problema de qual é a melhor forma para codificar a informação que um emissor queira transmitir para um receptor. Neste artigo, trabalhando inclusive com as ferramentas teóricas utilizadas por Norbert Wiener, Claude Shannon propôs com sucesso uma medida de informação própria para medir incerteza sobre espaços desordenados (mais tarde complementada por Ronald Fisher, que criou uma medida alternativa de informação apropriada para medir incerteza sobre espaços ordenados).

Em 1949, em coautoria com o também matemático estadunidense Warren Weaver (1894-1978), publicou o livro Teoria Matemática da Comunicação (The Mathematical Theory of Communication),[4] contendo reimpressões do seu artigo científico de 1948 de forma acessível também a não-especialistas - isto popularizou seus conceitos.

Entre 1946 e 1953, Claude Shannon integrou temporariamente o grupo reunido sob o nome de Macy Conferences, contribuindo para a consolidação da teoria cibernética junto com outros cientistas renomados: Arturo Rosenblueth, Gregory Bateson, Heinz von Foerster, John von Neumann, Julian Bigelow, Kurt Lewin, Lawrence Kubie, Lawrence K. Frank, Leonard Jimmie Savage, Margaret Mead, Molly Harrower, Norbert Wiener, Paul Lazarsfeld, Ralph Waldo Gerard , Walter Pitts, Warren McCulloch e William Ross Ashby; além de Erik Erikson e Max Delbrück.

Shannon é famoso por ter fundado a teoria da informação com um artigo publicado em 1948. Mas a ele também é creditada a fundação tanto do computador digital quanto do projeto de circuito digital em 1937, quando, com 21 anos de idade e mestrando no MIT, escreveu uma tese demonstrando que uma aplicação elétrica utilizando álgebra booleana poderia resolver qualquer problema de lógica. Tem-se dito que foi a tese de mestrado de mais importância de todos os tempos.[5] Shannon contribuiu para o campo da criptoanálise durante a Segunda Guerra Mundial.

Biografia

Shannon nasceu em Petoskey, Michigan. Seu pai, Claude Sr (1862–1934), um descendente dos primeiros colonos de Nova Jérsia, foi um empresário bem-sucedido e foi juiz por um certo tempo. Sua mãe, Mabel Wolf Shannon (1890–1945), filha de imigrantes alemães, era uma professora de línguas. Os primeiros 16 anos de Shannon foram em Gaylord, Michigan, onde ele frequentou o ensino público, graduando-se no Gaylord High School em 1932. Shannon mostrou uma inclinação para coisas mecânicas, seus melhores talentos eram para a ciência e matemática. Em casa construiu dispositivos tais como modelos de aviões, um modelo de um barco controlado por rádio e um sistema de telégrafo. Enquanto crescia, trabalhava como mensageiro da Western Union. Seu herói de infância era Thomas Edison, que descobriu depois ser um primo distante. Ambos eram descendentes de John Ogden, um líder colonial e um ancestral de muitas pessoas ilustres.[6][7]

Teoria booleana

Em 1932 Shannon começou a cursar a Universidade de Michigan, formando em 1936 com duas graduações de bacharelado em engenharia elétrica e matemática. Posteriormente, começou seus estudos de pós-graduação no Instituto de Tecnologia de Massachusetts (MIT), onde trabalhou com o analisador diferencial de Vannevar Bush, um computador lógico.[8]

Ao estudar os complexos circuitos ad hoc do analisador diferencial, Shannon viu que os conceitos de George Boole, inventor da álgebra booleana, poderiam ser úteis para várias coisas. Um documento elaborado a partir da sua tese de mestrado em 1937, A Symbolic Analysis of Relay and Switching Circuits,[9] foi publicado na edição de 1938 da Transactions of the American Institute of Electrical Engineers. Howard Gardner, da universidade de Harvard, chamou a tese de Shannon como "possivelmente a mais importante e também a mais famosa tese de mestrado do século".[10]

Neste trabalho, Shannon provou que a álgebra booleana e a aritmética binária poderiam ser utilizadas para simplificar o arranjo dos relés eletromecânicos e então utilizados em comutadores para roteamento telefônico. Expandindo o conceito ele também mostrou que deveria ser possível a utilização de arranjos de relés para resolver problemas de álgebra booleana. A exploração dessa propriedade de interruptores elétricos criou a lógica e os conceitos mais básicos dos computadores digitais. O trabalho de Shannon tornou-se o principal na área de circuitos digitais quando se tornou amplamente conhecido entre a comunidade de engenharia elétrica durante e após a segunda guerra mundial. O trabalho teórico rigoroso de Shannon substituiu completamente os métodos ad hoc que haviam prevalecido anteriormente.

Em 1940, Shannon se tornou pesquisador do Instituto nacional de Estudos Avançados em Princeton, Nova Jérsia. Em Princeton, Shannon teve a oportunidade de discutir suas ideias com cientistas e matemáticos influentes como Hermann Weyl e John von Neumann, além de um encontro ocasional com Albert Einstein. Shannon trabalhou livremente em todas as áreas, e começou a moldar as ideias que se tornariam a teoria da informação.[11]

Pesquisa em tempo de guerra

Shannon em seguida juntou-se à Bell Labs para trabalhar em sistemas de controle de fogo e criptografia durante a Segunda Guerra Mundial, sob um contrato com a seção D-2 (Seção de Controle de Sistemas) do Comitê Nacional de Pesquisa em Defesa.

Conheceu sua esposa quando era um analista numérico na Bell Labs. Casaram-se em 1949.[12]

Durante dois meses no início de 1943, Shannon entrou em contato como o criptoanalista líder e matemático britânico Alan Turing. Turing havia sido enviado para Washington para compartilhar com o serviço de criptoanálise da marinha dos EUA os métodos utilizados pela escola de códigos e cifras do governo britânico em Bletchley Park para quebrar as cifras utilizadas pelos submarinos alemães no Atlântico Norte.[13] Ele também ficou interessado em cifragem de fala e para isso ficou um tempo no Bell Labs. Shannon e Turing se encontraram na hora do lanche em uma cafeteria [13] e Turing mostrou a Shannon seu artigo que definiu o que hoje é conhecido como a "Máquina Universal de Turing".[14][15] Em 1945, quando a guerra estava chegando ao fim, O NDRC estava emitindo um resumo dos relatórios técnicos como sua última atividade antes de seu eventual fechamento. Dentro do volume de controle de fogo um documento especial intitulado "Suavização de Dados e Previsão em Sistemas de Controle de Fogo", coautoria de Shannon, Ralph Beebe Blackman, e Hendrik Wade Bode, formalmente tratava do problema de suavização dos dados no controle de incêndio por analogia com "o problema de separar um sinal de um ruído interferindo no sistema de comunicação".[16] Em outras palavras foi modelado o problema em termos de dados e processamento de sinal, e assim se anunciava o início da era da informação.

Seu trabalho em criptografia foi mais estreitamente relacionado com suas publicações posteriores sobre a teoria da informação.[17] No final da guerra, ele preparou um memorando para a Bell Telephone Labs intitulado "Uma Teoria Matemática da Criptografia," datada de setembro de 1945. Uma versão desclassificada deste trabalho foi posteriormente publicada em 1949 como "Teoria da Comunicação de Sistemas Secretos" no Bell System Technical Journal. Este trabalho incorporou muitos dos conceitos e formulações matemáticas que também apareceram em seu "Uma Teoria Matemática da Comunicação". Shannon disse que suas ideias em teoria da comunicação e criptografia durante a guerra haviam sido desenvolvidas simultaneamente e " elas estavam tão juntas que você não podia separá-las".[18] Em nota de rodapé perto do início do relatório classificado, Shannon anunciou sua intenção de "desenvolver estes estudos... em um memorando sobre a transmissão de informações".[19]

Enquanto na Bell Labs, ele provou que a one-time pad era inquebrável em sua pesquisa que mais tarde foi publicada em outubro de 1949. Ele também provou que qualquer sistema inquebrável deve ter essencialmente as mesmas características do one-time pad: A chave deve ser verdadeiramente aleatória, tão grande quanto o texto original, nunca reutilizada e mantida em segredo.[20]

Contribuições pós-guerra

Em 1948, o memorando prometido apareceu como "A Mathematical Theory of Communication", um artigo com duas partes nas edições de julho e outubro do Bell System Technical Journal. Este trabalho enfoca no problema da melhor forma de codificar uma informação que um remetente deseja transmitir. Neste trabalho fundamental ele usou ferramentas da teoria da probabilidade, desenvolvidas por Norbert Wiener, que estavam em seus estágios iniciais de serem aplicadas a teoria das comunicações na época. Shannon desenvolveu a entropia da informação como uma medida de incerteza em uma mensagem.

Contribuição fundamental da teoria da informação para processamento de linguagem natural e linguística computacional foi ainda estabelecida em 1951, em seu artigo "Previsão e Entropia de Impresso Inglês", mostrando limites superior e inferior da entropia nas estatísticas de Inglês - dando uma base estatística para análise da linguagem.

Outro papel notável publicado em 1949 é a "Communication Theory of Secrecy Systems", uma versão desclassificada do seu trabalho em tempo de guerra sobre a teoria matemática de criptografia, no qual ele provou que todas as cifras teoricamente inquebráveis devem ter os mesmos requisitos que a one-time pad. A ele também é creditado a introdução da teoria da amostragem, que se preocupa com o que representa um sinal de tempo contínuo a partir de um conjunto (uniforme) discreto de amostras. Essa teoria foi essencial para permitir a passagem das telecomunicações dos sistemas analógicos para sistemas digitais no ano de 1960 e posteriores.

Hobbies e Invenções

Fora de suas pesquisas acadêmicas, Shannon estava interessado em malabarismo, monociclos e xadrez. Inventou também diversos dispositivos. Um dos seus dispositivos mais engraçados era uma caixa mantida em sua mesa chamada de "Máquina definitiva", baseada em uma ideia de Marvin Minsky. Além disso, ele construiu um dispositivo que poderia resolver o Cubo de Rubik.

Também é considerado coinventor do primeiro computador portátil, juntamente com Edward O. Thorp. O dispositivo foi utilizado para melhorar as chances quando se joga roleta.

Legado e homenagens

Shannon chegou ao MIT em 1956, para se juntar ao corpo docente e para realizar um trabalho no Laboratório de Pesquisa de Eletrônica (RLE). Ele continuou a servir no corpo docente do MIT até 1978. Para comemorar suas conquistas, houve celebrações de seu trabalho em 2001, e atualmente há seis estátuas de Shannon esculpido por Eugene L. Daub: um na Universidade de Michigan, uma no MIT no Laboratório de Sistemas de Informação e Decisão, um em Gaylord, Michigan, um na Universidade da Califórnia, San Diego, uma no Bell Labs, e outro no Labs Shannon AT&T. Após o rompimento na Bell, a parte do Bell Labs que ficou com a AT&T foi nomeado Shannon Labs em sua honra.

De acordo com Neil Sloane, a perspectiva introduzida por Shannon da teoria da comunicação (agora chamada de teoria da informação) é a base da revolução digital, e cada dispositivo que contém um microprocessador ou microcontrolador é um descendente conceitual da publicação de Shannon. "... Ele é um dos grandes homens do século, sem ele, nenhuma das coisas que conhecemos hoje existiria. Toda a revolução digital começou com ele".

Shannon desenvolveu a doença de Alzheimer, e passou seus últimos anos em um asilo de Massachusetts. Ele foi auxiliado por sua esposa, Mary Elizabeth Moore Shannon, o filho, Andrew Moore Shannon; a filha, Shannon Margarita, uma irmã, Catherine S. Kay e suas duas netas.

Publicações selecionadas

  • Claude E. Shannon: A Symbolic Analysis of Relay and Switching Circuits, master's thesis, MIT, 1937.
  • Claude E. Shannon: "A Mathematical Theory of Communication", Bell System Technical Journal, Vol. 27, pp. 379–423, 623–656, 1948 (abstract).
  • Claude E. Shannon e Warren Weaver: The Mathematical Theory of Communication. The University of Illinois Press, Urbana, Illinois, 1949. ISBN 0-252-72548-4

Ver também

Referências

  1. «John Fritz Medal Past Recipients» (em inglês). American Association of Engineering Societies. Consultado em 30 de junho de 2015. Cópia arquivada em 30 de junho de 2015 
  2. James, I. (1 de janeiro de 2009). «Claude Elwood Shannon 30 April 1916 -- 24 February 2001». Biographical Memoirs of Fellows of the Royal Society. 55 (0). doi:10.1098/rsbm.2009.0015 
  3. «Bell Labs website: "For example, Claude Shannon, the father of Information Theory, had a passion..."». Consultado em 25 de junho de 2012. Arquivado do original em 5 de junho de 2011 
  4. Shannon, Claude E.; Weaver, Warren (1949). The Mathematical Theory of Communication (em inglês). Illinois: Illini Books. 117 páginas. Library of Congress Catalog Card nº 49-11922  !CS1 manut: Nomes múltiplos: lista de autores (link)
  5. Poundstone, William: Fortune's Formula : The Untold Story of the Scientific Betting System That Beat the Casinos and Wall Street
  6. MIT Professor Claude Shannon dies; was founder of digital communications, MIT — News office, Cambridge, Massachusetts, February 27, 2001
  7. CLAUDE ELWOOD SHANNON, Collected Papers, Edited by N.J.A Sloane and Aaron D. Wyner, IEEE press, ISBN 0-7803-0434-9
  8. Robert Price (1982). «Claude E. Shannon, an oral history». IEEE Global History Network. IEEE. Consultado em 14 de julho de 2011 
  9. Claude Shannon, "A Symbolic Analysis of Relay and Switching Circuits," Arquivado em 16 de setembro de 2012, no Wayback Machine. unpublished MS Thesis, Massachusetts Institute of Technology, Aug. 10, 1937.
  10. Gardner, Howard (1985). The mind's new science : a history of the cognitive revolution. Internet Archive. [S.l.]: New York : Basic Books 
  11. Erico Marui Guizzo, “The Essential Message: Claude Shannon and the Making of Information Theory” (M.S. Thesis, Massachusetts Institute of Technology, Dept. of Humanities, Program in Writing and Humanistic Studies, 2003), 14.
  12. Shannon, Claude Elwood (1916-2001)
  13. a b Hodges, Andrew (1992), Alan Turing: The Enigma, ISBN 978-0-09-911641-7, London: Vintage, pp. 243–252 
  14. Turing, A.M. (1936), «On Computable Numbers, with an Application to the Entscheidungsproblem» (publicado em 1937), Proceedings of the London Mathematical Society, 2, 42, pp. 230–65, doi:10.1112/plms/s2-42.1.230 
  15. Turing, A.M. (1938), «On Computable Numbers, with an Application to the Entscheidungsproblem: A correction» (publicado em 1937), Proceedings of the London Mathematical Society, 2, 43 (6), pp. 544–6, doi:10.1112/plms/s2-43.6.544 
  16. David A. Mindell, Between Human and Machine: Feedback, Control, and Computing Before Cybernetics, (Baltimore: Johns Hopkins University Press), 2004, pp. 319-320. ISBN 0-8018-8057-2.
  17. David Kahn, The Codebreakers, rev. ed., (New York: Simon and Schuster), 1996, pp. 743-751. ISBN 0-684-83130-9.
  18. quoted in Kahn, The Codebreakers, p. 744.
  19. quoted in Erico Marui Guizzo, "The Essential Message: Claude Shannon and the Making of Information Theory," Arquivado em 28 de maio de 2008, no Wayback Machine. unpublished MS thesis, Massachusetts Institute of Technology, 2003, p. 21.
  20. Shannon, Claude (1949). "Communication Theory of Secrecy Systems". Bell System Technical Journal 28 (4): 656–715.

Ligações externas

O Commons possui uma categoria com imagens e outros ficheiros sobre Claude Shannon
  • John J. O’Connor, Edmund F. RobertsonClaude Shannon. In: MacTutor History of Mathematics archive.
  • Claude Shannon (em inglês) no Mathematics Genealogy Project
  • A Mathematical Theory of Communication (em inglês)
  • Communication Theory of Secrecy Systems
  • Communication in the Presence of Noise
  • Summary of Shannon's life and career
  • Color photo of Shannon at home by Stanley Rowin - not for reproduction without permission
  • Biographical summary from Shannon's collected papers
  • Video documentary: "Claude Shannon - Father of the Information Age"
  • Mathematical Theory of Claude Shannon In-depth MIT class paper on the development of Shannon's work to 1948.
  • Obituary at MIT
  • Obituary Royal Netherlands Academy of Sciences (in Dutch)
  • Retrospective at the University of Michigan
  • Shannon's Michigan Profile
  • Notes on Computer-Generated Text
  • Shannonizer An example of his work
  • Shannon's Juggling Theorem and Juggling Robots
  • Shannon's paper on computer chess, text
  • Shannon's paper on computer chess (PDF)
  • Shannon's paper on computer chess, text, alternate source
  • Photos
  • A Bibliography of His Collected Papers
  • A Register of His Papers in the Library of Congress

Precedido por
Harold Alden Wheeler
Medalha de Honra IEEE
1966
Sucedido por
Charles Hard Townes
  • v
  • d
  • e
1917–1925

1917: Edwin Armstrong  · 1919: Ernst Alexanderson  · 1920: Guglielmo Marconi  · 1921: Reginald Fessenden  · 1922: Lee De Forest  · 1923: John Stone Stone  · 1924: Michael Pupin

1926–1950
1951–1975

1951: Vladimir Zworykin  · 1952: Walter Ransom Gail Baker  · 1953: John Milton Miller  · 1954: William Littell Everitt  · 1955: Harald Trap Friis  · 1956: John Vincent Lawless Hogan  · 1957: Julius Adams Stratton  · 1958: Albert Hull  · 1959: Emory Leon Chaffee  · 1960: Harry Nyquist  · 1961: Ernst Guillemin  · 1962: Edward Appleton  · 1963: George Clark Southworth  · 1964: Harold Alden Wheeler  · 1966: Claude Shannon  · 1967: Charles Hard Townes  · 1968: Gordon Kidd Teal  · 1969: Edward Ginzton  · 1970: Dennis Gabor  · 1971: John Bardeen  · 1972: Jay Wright Forrester  · 1973: Rudolf Kompfner  · 1974: Rudolf Kalman  · 1975: John Robinson Pierce

1976–2000

1977: Henry Earle Vaughan  · 1978: Robert Noyce  · 1979: Richard Bellman  · 1980: William Bradford Shockley  · 1981: Sidney Darlington  · 1982: John Tukey  · 1983: Nicolaas Bloembergen  · 1984: Norman Foster Ramsey  · 1985: John Roy Whinnery  · 1986: Jack Kilby  · 1987: Paul Christian Lauterbur  · 1988: Calvin Quate  · 1989: Chandra Kumar Patel  · 1990: Robert Gray Gallager  · 1991: Leo Esaki  · 1992: Amos Edward Joel  · 1993: Karl Johan Åström  · 1994: Alfred Yi Cho  · 1995: Lotfali Askar-Zadeh  · 1996: Robert Metcalfe  · 1997: George Heilmeier  · 1998: Donald Pederson  · 1999: Charles Concordia  · 2000: Andrew Grove

2001–atualidade

2001: Herwig Kogelnik  · 2002: Herbert Kroemer  · 2003: Nick Holonyak  · 2004: Tadahiro Sekimoto  · 2005: James Flanagan  · 2006: James Meindl  · 2007: Thomas Kailath  · 2008: Gordon Moore  · 2009: Robert Heath Dennard  · 2010: Andrew Viterbi  · 2011: Morris Chang  · 2012: John LeRoy Hennessy  · 2013: Irwin Mark Jacobs  · 2014: Jayant Baliga  · 2015: Mildred Dresselhaus  · 2016: Dave Forney  · 2017: Kees Schouhamer Immink  · 2018: Bradford Parkinson  · 2019: Kurt Petersen  · 2020: Chenming Hu  · 2021: Jacob Ziv

  • v
  • d
  • e
Ciência do Comportamento e Social
Década de 1960
Década de 1980
Década de 1990
1990: Leonid Hurwicz e Patrick Suppes · 1991: George A. Miller · 1992: Eleanor J. Gibson · 1994: Robert Merton · 1995: Roger Shepard · 1996: Paul Samuelson · 1997: William Estes · 1998: William Julius Wilson · 1999: Robert Solow
Década de 2000
2000: Gary Stanley Becker · 2003: R. Duncan Luce · 2004: Kenneth Arrow · 2005: Gordon Bower · 2008: Michael Posner · 2009: Mortimer Mishkin
Década de 2010
2011: Anne Treisman · 2012: Robert Axelrod · 2014: Albert Bandura
Ciências Biológicas
Década de 1960
Década de 1970
1970: Barbara McClintock e Albert Sabin · 1973: Daniel Arnon e Earl Sutherland · 1974: Britton Chance, Erwin Chargaff, James Neel e James Hannon · 1975: Hallowell Davis, Paul Gyorgy, Sterling Hendricks e Orville Vogel · 1976: Roger Guillemin, Keith Roberts Porter, Efraim Racker e Edward Osborne Wilson · 1979: Robert H. Burris, Elizabeth C. Crosby, Arthur Kornberg, Severo Ochoa, Earl Stadtman, George Ledyard Stebbins e Paul Weiss
Década de 1980
Década de 1990
Década de 2000
Década de 2010
Química
Década de 1960
Década de 1980
Década de 1990
Década de 2000
Década de 2010
Ciências da Engenharia
Década de 1960
Década de 1970
Década de 1980
Década de 1990
Década de 2000
2000: Yuan-Cheng Fung · 2001: Andreas Acrivos · 2002: Leo Beranek · 2003: John Prausnitz · 2004: Edwin Lightfoot · 2005: Jan Achenbach e Tobin Marks · 2006: Robert Langer · 2007: David Wineland · 2008: Rudolf Kalman · 2009: Amnon Yariv
Década de 2010
Ciências Matemáticas, Estatísticas e Computacionais
Década de 1960
1963: Norbert Wiener · 1964: Solomon Lefschetz e Marston Morse · 1965: Oscar Zariski · 1966: John Milnor · 1967: Paul Cohen · 1968: Jerzy Neyman · 1969: William Feller
Década de 1970
Década de 1980
Década de 1990
Década de 2000
Década de 2010
Ciências Físicas
Década de 1960
Década de 1970
Década de 1980
Década de 1990
Década de 2000
Década de 2010
  • v
  • d
  • e
Campos
Categorias
  • Sistemas conceituais
  • Sistemas físicos
  • Sistemas sociais
Sistemas
Anatomia
Medição
Cientistas
Wikiquote
Wikiquote
O Wikiquote possui citações de ou sobre: Claude Elwood Shannon
Ícone de esboço Este artigo sobre um(a) matemático(a) é um esboço. Você pode ajudar a Wikipédia expandindo-o.
  • v
  • d
  • e
Controle de autoridade