Description

Avant d'être définie comme un "produit" ou un "fait", l'information est d'abord définie comme une action (un "faire") :
- Action de donner ou de recevoir une forme.
- Action d'une personne qui fait savoir à d'autres quelque chose sur... quelque chose ou quelqu'un.
- Action de s'informer, de recueillir des renseignements sur...
Par extension l'information devient "l'ensemble des activités de collecte, de traitement et de diffusion de "nouvelles"... qu'on appelle récursivement des informations !
L'action devient alors "produit", connaissances concernant un sujet déterminé, lesquelles sont susceptibles d'être re-présentées à l'aide de conventions (qui sont à leur tour des connaissances !) afin d'être conservées, traitées ou communiquées.
Cette définition complexe et pourtant familière conduit à caractériser l'information entendue dans sa généralité par un schéma ternaire, une forme (physique ou syntaxique) qui, émise intentionnellement par au moins un émetteur qui lui attribue une signification (sémantique) est susceptible de transformer la représentation du contexte donc dispose son récepteur (pragmatique). G. Bateson, dans une formule succincte devenue célèbre, dira "l'information est une différence qui engendre une différence" (signe physique, objet qui transforme, pragmatique, une connaissance représentée, sémantique, le modèle mental du receveur).
Ces trois composantes sont distinguables mais ne sont pas séparables. Le récepteur peut privilégier telle ou telle d'entre elles, il ne peut éliminer les autres. C'est ainsi que le même objet perçu forme (signe physique) (par exemple une commande client) sera tenu pour une banale "donnée" (ou data) sans intérêt par ce directeur général, pour une connaissance (ou savoir) intéressante par tel collaborateur, et pour une information décisive ("feed back informationnel") appelant une action immédiate par tel autre.
On ne peut donc déterminer a priori à laquelle de ces trois composantes telle information doit être exclusivement attachée.
La théorie mathématique de la communication de C. Shannon a permis en outre de mettre en valeur le fait que le mode de transmission de l'information (le canal) affectait sa forme physique et par là concernait potentiellement sa signification et son interprétation : l'introduction de W. Weaver qui met cet argument en valeur est perçu si important qu'on désigne depuis 1948 cette théorie sous les noms conjoints de "Shannon et Weaver".
Cette complexité du concept d'information est devenue plus intelligible par les développements récents des théories de l'organisation et de la complexité (E. Morin...) :
"L'organisation, informée, devient informante" (autrement dit engendre des informations qui potentiellement la trans-formeront) ;
"L'information forme l'organisation qui la forme".
Interprétations qui incitent à privilégier la production et l'action de l'information plutôt que son état (et qui a connu d'importantes généralisations analogiques dans le domaine de la biologie génétique).
Les travaux sur la mesure de la quantité et de la valeur de l'information (pour la plupart dérivés des interprétations thermodynamiques suggérées par C. Shannon puis L. Brilloin), n'ont à ce jour suscité que des illustrations métaphoriques n'autorisant pas de mesure quantitative opérationnelle. En revanche, bien sûr, on a su très vite mesurer le "poids" de la composante physique (le nombre de bits), mais cette indication, précieuse pour traiter des questions de débits de transmission et de volumes de mémorisation, ne dit rien quant à la "quantité" ou la valeur de l'information entendue dans sa complexité.

Ressources associées (illustrations, références ou actes)
Catégorie(s)