"/>

Qu'est-ce que l'information ?

Dec 16 / Gaëlle DAGNET
Bien souvent, dans mes formations, je vous dis que lorsque l’on donne un cours, il ne suffit pas de transmettre une information. Il faut toujours chercher à aller bien au-delà.
Dans ce contenu, je vais donc vous parler de l’information en elle-même : qu’est-ce qu’elle est ?
Dans une deuxième partie (que je publierai dans mon prochain contenu), je parlerai de la connaissance. Et nous allons voir ensemble quelle différence il existe entre une simple information et une réelle connaissance.
Commençons donc cette étude avec l’information.

Mais déjà, qu’est-ce que l’information ?

La notion d’information n’est pas simple à expliquer car il s’agit d’un concept assez complexe et multiforme impliqué dans de nombreux domaines.
D’après Rafael Capurro et Birger Hjorland, « s’il existe une confusion autour de la définition de l’information, c’est précisément parce que le concept provient à la fois des sciences exactes et des sciences humaines et sociales. Les unes et les autres ne s’accordent pas au sujet de la relation qu’entretient l’information avec le sens. »

Plusieurs définitions nous sont proposées :

- « Tout événement, tout fait, tout jugement porté à la connaissance d'un public plus ou moins large, sous forme d'images, de textes, de discours, de sons »

- « Élément de connaissance susceptible d'être représenté à l'aide de conventions pour être conservé, traité ou communiqué. (Informatique) »

- « L’information est l’ensemble organisé de données, qui constitue un message sur un phénomène ou un évènement donné. L’information permet de résoudre des problèmes et de prendre des décisions, étant donné que son usage rationnel est la base de la connaissance. »

- « Est un phénomène qui donne un sens aux choses puisqu’elle forme les modèles de la pensée humaine moyennant des codes et des ensembles de données. »

- « Action de donner connaissance d’un fait. »

Pour aller plus loin, une définition de la théorie de l’information nous est donnée : « Qui étudie les divers modes d’émission, de réception, de traitement des informations que comporte tout message. »

La théorie de l’information est née par suite des travaux de Ronald Aylmer Fisher qui définit l’information comme égale à la valeur moyenne du carré de la dérivée du logarithme de la loi de probabilité étudiée. En d’autres termes, moins une observation est probable, plus son observation est porteuse d’informations.
Pour illustrer ces propos, l’exemple d’une rencontre entre deux amis peut être parlant : lorsque le premier ami en voyant son ami commence par lui dire « Bonjour », il n’apporte que peu d’informations car le mot Bonjour présentait une forte probabilité. Si, la première phrase de ce dernier avait été « Il s’est passé quelque chose de fou », son ami aurait été plus à l’écoute car il aurait su que quelque chose s’était passé à cause de la faible probabilité de cette phrase.

Depuis ces travaux, d’autres modèles mathématiques ont complété et étendue cette définition :

- The Mathematical Theory of Communication de Claude SHANNON et de Warren WEAVER (1949) qui cherche à quantifier l’information en utilisant une unité de mesure : le bit sans prendre en compte le sens véhiculé par l’information. Afin d’illustrer ses propos Shannon a proposé le schéma suivant :

- Les travaux de Jacques MELESE (1979) qui place l’information entre l’individu, l’organisation et son environnement. L’individu va donner du sens, ses moyens de perception sont liés à sa personnalité, ses connaissances et le lien qui existe entre les deux. - Le modèle de l’alignement stratégique de Ramakrishnan Venkatraman (1994) qui affirme que l’addition de l’information et d’une décision définit la stratégie d’une entreprise.
 
- Semantic conceptions of information de Luciano Floridi (2005) qui définit l’information en partant de la notion de « donnée » et de signifiance. - L’approche par patterns de Marcia BATES (2005) qui concilie la perspective subjective propre aux sciences humaines et la perspective objective propre aux sciences positives. Le but étant de proposer une définition de l’information commune à la physique, la biologie et les sciences humaines et sociales. - La méthode générale de conceptualisation relativisée (2006) de Mioara MugurSchächter qui met en avant l’importance de la structure de réception de l’individu dans le processus de construction du sens. Elle affirme qu’à partir d’une même donnée il est possible d’obtenir des informations différentes.
Dans Information economics, Adrian Mc Donough décrit l’information comme la rencontre d’une donnée et d’un problème. Elle sert donc à répondre à un besoin et attend une réponse, elle n’a de valeur que lorsqu’elle est consommée et est imparfaite car elle nécessite des corrections permanentes. L’information n’étant pas parfaite n’a de valeur qu’à l’instant T. L’information est donc une ressource stratégique mais se suffisant à elle-même, elle peut être très pauvre. C’est pourquoi, il est important de faire des connaissances de ces informations.

La suite au prochain épisode...

Created with