Incerteza em entropia

Autores

  • José Carlos Magossi Universidade Estadual de Campinas (UNICAMP)
  • José Renato Paviotti Universidade Estadual de Campinas (UNICAMP)

DOI:

https://doi.org/10.53727/rbhc.v12i1.47

Palavras-chave:

Comunicação, entropia, Shannon, informação

Resumo

Claude E. Shannon, em seu artigo seminal de 1948, inicia a Teoria da Informação, precursora da era da informação, cujos impactos e ramificações se multiplicam, desde então, em ritmo acelerado. Entre os conceitos da Teoria Matemática da Comunicação de Shannon, o de entropia comporta a diferentes interpretações. Desse modo, objetiva-se neste texto expor algumas considerações históricas acerca do conceito de entropia, sem pretensões de completude, ao considerar a “incerteza” existente em sua definição. O trocadilho é proposital, pois estima-se que inovações científicas ou tecnológicas, em Teoria da Informação, se encontram no amplo escopo, e na descrição precisa, do conceito de entropia.

Downloads

Não há dados estatísticos.

Biografia do Autor

José Carlos Magossi, Universidade Estadual de Campinas (UNICAMP)

Doutor em Engenharia Elétrica e professor da Faculdade de Tecnologia da Universidade Estadual de Campinas FT/UNICAMP, Limeira/SP.

José Renato Paviotti, Universidade Estadual de Campinas (UNICAMP)

Mestrando do programa de pós-graduação da Faculdade de Tecnologia da UNICAMP FT/UNICAMP, Limeira/SP e servidor técnico-administrativo do Instituto Federal de Educação, Ciência e Tecnologia de São Paulo (IFSP), que aproveita para agradecer o apoio recebido do IFSP por meio dos programas
de autocapacitação e incentivo educacional.

Downloads

Publicado

15-06-2019

Edição

Seção

Artigos