samedi 29 janvier 2022

théorie de l'information de Shannon

 théorie de l'information de Shannon

 


 

Cher lecteur, ce ne sera pas le principe de Heisenberg, mais la théorie de l'information de Shannon, un peu moins complexe tout de même et donc plus adaptée pour le moment.
 
Passionnante moitié de nuit donc, passée à me renseigner sur ce sujet qui m'intriguait pas mal. Je le rapprochais d'"Enigma" (je vous en parlerai une autre fois) et je voulais en savoir plus.
Théorie intéressante s'il en est, car elle part du postulat que l'information n'est pas quelque chose d'abstrait mais une réelle donné mesurable répondant à des critères identifiants précis. Elle a été ébauchée par Claude Shannon (d'où le nom...) en 1948, publiée comme souvent dans un journal scientifique (a mathematical theory of communication), et complétée ensuite par un autre scientifique américain : Warren Weaver. Informaticien et statisticien de génie, celui-ci est aussi le père de la biologie moléculaire. Quelqu'un qui avait donc plusieurs cordes à son arc.
 
Alors la théorie de l'information, c'est quoi en gros ? En (très très) gros, elle dit qu'on peut, à partir d'un message donné (cet article pourquoi pas), avoir une idée très précise de la quantité (et non de la qualité...) des informations qui y sont. 
 
L'objectif initial, en temps d'après guerre, était de faire en sorte d'avoir une analyse rapide et pratique des moyens de communication militaires notamment. Il fallait pouvoir extraire de façon pertinente, en faisant abstraction du "bruit", des parties chiffrées dans un message envoyé par l'ennemi. Le code était alors décortiqué afin d'en extraire le message.
 
Comment faire passer un message avec le plus d'informations possible, de la façon la plus claire et la moins coûteuse ? Cela pourrait être également un problème sous-tendu par les moyens de communications actuels, où certains messages sont de plus en plus courts, voire sans mots, avec juste des "émoticônes". 
 
Qu'en penserait Shannon ?
Aucune idée en fait, si ce n'est que la quantité de messages échangés chaque seconde actuellement dans le monde n'est sans doute pas corrélée avec la quantité d'information circulante, mais c'est une interprétation toute personnelle.
 
Mais revenons à cette théorie de l'information. Elle est aussi utilisée en psychologie, avec comme base le modèle communicatif de Shannon et Weaver, qui schématise la communication ainsi : Une source émet un message, qui passe dans un canal une fois encodé. Du bruit est alors présent, ou non. Une fois extrait du canal, le signal est décodé et interprété par un récepteur pour arriver au destinataire. Le code typique à l'être humain est le langage (langue, langage corporel). Pour deux humains parlant la même langue, le codage et le décodage est aisé. Entre deux personnes parlant deux langues radicalement différentes, cela devient plus complexe puisque le code n'est pas le même. 
 
Quoique pour le modèle du langage, différentes fonctions existent et le modèle de Jakobson (1960) me semble plus pertinent. Celui-ci intègre en effet 6 fonctions dans la notion de langage : référentielle, expressive, conative, métalinguistique, poétique (ma préférée) et phatique. Je vous laisse faire des recherches sur ce thème tout aussi passionnant si le cœur vous en dit.
 
Et même pas une seule formule mathématiques avec tout ça...