Quelques jalons de l’histoire de l’informatique

I. Un puissant moteur : le progrès scientifique

Au 17ème siècle, l’essor des sciences, et particulièrement de l’astronomie, buttait sur la difficulté des calculs fastidieux. La période entre 1623 et 1673 a connu une foison de projets de développement de machines à calculer : la machine de Sickard en 1623, la Machine de Pascal en 1645, et la machine de Liebniz en 1673. Cette dernière était parvenu à automatiser l’ensemble des calculs arithmétiques : addition, soustraction, multiplication et division.

L’essor technologique et scientifique du 19ème siècle nécessitait des calculateurs encore plus complexes, capables d’effectuer des successions d’opérations. Ce fut l’objet de la machine de Thomas en 1821, des machines, différentielle en 1853 et analytique, de Charles Babbage, cette dernière ayant été construite par son fils en 1906.

Ces machines mettent en œuvre le concept d’algorithme qui devient prépondérant dès lors qu’on utilise des nombres qui ne sont plus représentés par une valeur nominale comme les entiers, mais un symbole calculable comme PI, e, les logarithmes, et d’autres. L’anecdote rapporte que le mot « Algorithme » fut formé dans sa version moderne par Ada Lovelace assistante de Charles Babbage à partir du moyenâgeux « algorisme ».

Cependant, le progrès scientifique ne reposait pas uniquement sur une plus grande capacité de calcul, il exigeait une transformation radicale de notre perception du monde : à cette époque, la Physique avait établi le modèle des ondes électromagnétiques au moyen des équations « de Maxwell », la théorie de la thermodynamique et de l’énergie, avec Fourier et Boltzmann, mais aussi les lois de la Physique atomique qui ont mené à la découverte de la quantification des niveaux d’énergie et ultérieurement à la Physique quantique.

L’ensemble de ces travaux déboucha en 1905 sur les publications d’Einstein concernant la relativité restreinte. Cette théorie modifia radicalement ce qui constituait un des fondements de la Physique depuis 2 siècles, le principe de relativité de Galilée. L’extension de cette théorie aboutit à la théorie de la relativité générale qui consacra non seulement une nouvelle formulation des lois de la Physique mais également une nouvelle vision du monde et de l’Univers.

On peut également citer Richard Dedekind (1831 – 1916) qui travailla sur l’irrationalité et le concept de nombre réel, Henri Poincaré (1854 – 1912) qui travailla sur la théorie des variétés topologiques, utilisés dans la formulation de la Relativité Générale et Louis Bachelier qui appliqua le mouvement brownien, utilisé par la thermodynamique, à la finance, jetant les bases théoriques de la finance moderne.

Ces transformations de nos connaissances et de nos technologies ont nécessité non seulement de puissants moyens de calculs mais également la mise au point de méthodes radicalement différentes pour traiter les passages incessant entre le continu et le discret.

II. La contribution des mathématiques

Outre les avancées dans le champ de la géométrie, la réflexion sur le continu et le discret, ouvre la discussion sur l’infini et sur le concept de nombre. La théorie des ensembles, établie par Georges Cantor (1845 – 1918) non seulement éclaire la notion de nombre sous un jour nouveau, mais également étend la calculabilité au-delà des nombres. Bénéficiant des travaux de Georges Boole (1805-1845), elle ouvre des perspectives sur les notions d’ordre, de classements, d’entités dénombrables et sur un calcul ensembliste qui traite des propositions d’appartenance et de non appartenance.

Cependant, cette théorie est mise en défaut par les paradoxes qu’elle provoque, comme celui exposé par Bertrand Russel (1901) : « soit M, l’ensemble des ensembles qui ne sont pas éléments d’eux-mêmes. A est un élément de M si et seulement si A n’est pas un élément de lui-même. Le paradoxe apparaît en faisant l’hypothèse que M est un élément de M, alors par définition M ne devrait pas appartenir à M. De même si M n’appartient à M, alors M devrait être un élément de M ».

Pour réduire le paradoxe, Russel va créer la théorie des types. De cette théorie initiale va déboucher une théorie moderne selon laquelle : « les expressions mathématiques sont construites à l’aide de fonctions, où chaque fonction a un type qui décrit le type de ses arguments et le type de la valeur retournée. Les expressions sont bien formées lorsque les fonctions sont bien appliquées à des fonctions ayant le bon type ». C’est exactement le concept de fonction telle qu’elle est mise en oeuvre dans les langages modernes informatiques.

La voie ouverte par Cantor sur la dimension propositionnelle des nombres va déboucher sur les travaux de Kurt Gödel (1929) qui prouvent que tout système axiomatique basé sur un nombre fini d’axiomes ne peut être à la fois cohérent et complet. Cette proposition est un théorème connu sous le nom de Théorème d’incomplétude.

Si le système est complet, c’est à dire si l’on peut prouver que chaque proposition déduite des axiomes est vraie ou fausse, alors on est dans l’impossibilité de prouver que le système est cohérent, c’est-à-dire qu’il ne contient pas des contradictions.

Si l’on prouve que le système est cohérent, alors il existe des propositions du système qui sont indécidables, c’est-à-dire pour lesquelles on ne peut prouver si elles sont vraies ou fausses.

Ces travaux fondent les recherches sur la décidabilité et les systèmes formels.

III. L’informatique, une branche des mathématiques

Dans les années 1930, Alonzo Church invente un langage de programmation théorique, le ?-calcul (lambda-calcul) qui a l’ambition de pouvoir réaliser toute opération mathématique représentée par un algorithme.

C’est son élève Alan Turing qui le démontrera. Celui-ci définit une machine abstraite nommée machine de Turing et démontre que sa machine est capable d’accomplir n’importe quelle opération mathématique représentée par un algorithme. Cette proposition est appelée « thèse de Church-Turing ».

Il démontre que sa machine peut simuler la normalisation des ?-termes et que des ?-termes peuvent simuler une machine de Turing. Ces deux représentations étant équivalentes, on considère que ? –calcul est le premier langage de programmation. Il est à l’origine des langages de programmation fonctionnels comme Lisp ou Caml pour lesquels la théorie des types apporte une sémantique forte et sûre.

Les machines de Turing sont un instrument fondamental de la théorie informatique. Elles permettent de travailler sur la calculabilité : la décidabilité ou l’indécidabilité de certains problèmes. Elle permettent également de démontrer qu’il n’existe pas d’algorithme permettant de définir si un algorithme est décidable ou pas.

Pour l’anecdote, A. Turing participa de manière décisive à la cryptanalyse de la machine Enigma utilisée par les Nazis. Ceci donna un net avantage aux alliés pour la poursuite de la guerre.

Un autre personnage central de la théorie informatique est J Von Neumann (1903-1957). Outre d’être l’inventeur de la théorie des jeux avec O Morgenstern, il définit l’architecture des ordinateurs modernes, et travaille également sur une théorie axiomatique de refondation des mathématiques avec Gödel et Bernays dite NBG.

Le modèle NBG (Neumann-Gödel-Bernays) est basé sur le concept d’univers et de classes dont certaines, sous des conditions précises, peuvent être des ensembles. On retrouve la mise en œuvre de cette approche dans les langages dits « objets » comme java, mais également Simula, Smalltalk et Effeil en leur temps.

L’architecture de Von Neumann avait la particularité d’utiliser la mémoire pour stocker à la fois les programmes et les données. Cette architecture, décrite ci-après, sera utilisée jusque dans les années 1990 :

L’unité arithmétique et logique (UAL) ou unité de traitement : son rôle est d’effectuer les opérations de base ;

L’unité de contrôle, chargée du séquençage des opérations ;

La mémoire qui contient à la fois les données et le programme qui dira à l’unité de contrôle quels calculs faire sur ces données. La mémoire se divise entre mémoire volatile (programmes et données en cours de fonctionnement) et mémoire permanente (programmes et données de base de la machine).

Les dispositifs d’entrée-sortie, qui permettent de communiquer avec le monde extérieur.

Les recherches sur la Logique et les fondations des mathématiques amènent la communauté mathématique à s’accorder sur la théorie axiomatique ZFC (Zermelo Fraenkel Skolem) qui réduit l’ensemble des paradoxes identifiés.

A cette vision peu opératoire pour la théorie de l’informatique, s’opposent les classiques et les intuitionnistes ou constructivistes. Ces derniers rejettent l’axiome du tiers exclus qui affirme qu’une proposition est soit vraie, soit fausse. Cet axiome fonde la méthode de démonstration par l’absurde qui permet d’établir la vérité d’une proposition sans en expliciter la totalité des connexions logiques.

Parmi les intuitionnistes on trouve les partisans de la théorie des catégories formalisée par Eilenberg & Mac Lane (1945) qui, découlant de la théorie des types, fonde les mathématiques sur des abstractions englobant les ensembles : les topos.

La branche de cette théorie traitant de la logique trouve des applications dans la théorie de l’informatique, notamment dans la théorie des langages et dans la théorie des domaines qui traite de la notion d’ordre et apporte le cadre théorique nécessaire à la définition d’une sémantique dénotationnelle (formelle) du ?-calcul.

La théorie de l’informatique ne s’attache pas seulement aux techniques de calculs. Au moyen de l’Algorithmique, de la Logique et de la Sémantique, elle tente de fournir une représentation du monde, qui soit calculable dans le sens moderne, c’est-à-dire vraie et totalement définie.

Ces théories poursuivent leur évolution et sont, pour certaines, au cœur des questions scientifiques actuelles. Les plans d’évolutions concernent non seulement les techniques de calcul, l’étude des algorithmes, mais également la Logique et la Sémantique, puisque tous ces aspects sont liés et représentent des concepts équivalents.

Elles soutiennent et étayent les avancées technologiques qui ont caractérisé l’informatique au cours des 30 dernières années. On peut citer à titre d’exemple :

sur ces bases, Codd [20] a défini le modèle théorique des bases de données relationnelles,

la théorie de la preuve et de la décidabilité permet de maîtriser la fiabilité des programmes très complexes,

les progrès en algorithmique permettent de gérer la répartition et la synchronisation des opérations nécessaires la mise en œuvre de l’informatique répartie.

IV. La théorie de l’information

Le concept d’information est un concept abstrait. Les statisticiens et les ingénieurs le traitent sous un angle quantitatif, ce qui élude la nécessité d’en donner une définition.
Les économistes traitant de la théorie des jeux, des organisations, de la théorie de la décision, de la gestion des connaissances, suivent une démarche qualitative et proposent une définition plus formelle de ce concept.

L’information n’est pas une donnée, n’est pas un élément de savoir, n’est pas objective car transmise, elle perd sa propriété d’information et redevient un ensemble de données.
Pour les cogniticiens, l’information surgit du fait de la communication entre deux êtres. Elle est basée sur des signes physiques, l’information est un processus qui transforme une connaissance représentée (la sémantique) et qui constitue le modèle mental du receveur.

A. Information quantitative

En 1922, Fisher définissait la quantité d’information contenue dans une statistique. A partir de cette définition, Rao formule le théorème de Cramer-Rao qui explicite la relation entre la variance de la statistique et la quantité d’information I, tel que ci-dessous :
Soit T=?(X1,X2,..,Xn) une statistique. T est un estimateur qui, à partir de la suite d’observations ou d’épreuves X1,X2,..,Xn, estime sans biais la fonction ?(?) d’un paramètre ?, alors,

Ceci est le cas général. Si la fonction ?(?)=?, alors ?’(?)=1 et la relation devient :
Plus la variance de l’estimateur est grande, plus l’information sur ? est faible. Les 2 quantités sont inversement proportionnelles.
La variance est un indicateur de la précision de l’estimation. Plus la variance est grande, plus le rayon de l’intervalle de confiance sera grand, et, par conséquent moindre la précision, et moindre l’information.

L’inégalité de Cramer-Rao devient une égalité lorsque l’estimateur est efficace. Elle est alors utilisée comme relation permettant de calculer cet estimateur.
CE Shannon et WE Weaver développent une approche mathématique de la quantité d’information.

Modèle de système de communication selon Shannon

Le canal de communication est modélisé comme pouvant prendre un ensemble d’états. A chaque instant, il est dans un état (ei)t. Une suite d’états e compose un message. Dans un modèle probabiliste, un canal peut être représenté par une suite de variables aléatoires Xt, appelé processus aléatoire. Shannon défini la mesure H de l’information comme dépendant des probabilités de chaque état composant le message.

Par exemple, dans le cas de la figure ci-dessous la quantité d’information du message est H(1/2, 1/3, 1/6).

décomposition de la quantité d’information

Pour Shannon, cette fonction H(p1,p2,p3,…,pn) doit avoir les propriétés suivantes :

1. être continue sur l’ensemble des (p1,p2,p3,…,pn)

2. si chaque état a la même probabilité, alors p=1/n, avec m le nombre d’états. H(p1,p2,p3,…,pn) est alors une fonction croissante de monotone de n.

3. La fonction H peut être décomposée : H(1/2, 1/3, 1/6) = H(1/2, 1/2) + 1/2 H(2/3, 1/3)
Shannon démontre que la seule fonction H vérifiant ces propriétés est :

Pour Shannon, cette mesure représente l’incertitude attachée au canal. Pour l’anecdote, c’est cette formule utilisée avec une fonction log2 qui a entraîné l’utilisation du bit comme unité d’information.

vision d’une communication au travers d’un Canal

A chaque instant t1,t2,t3 le canal prend un état parmi les états possibles

, c’est une épreuve représentée par une variable aléatoire Xt. La quantité d’information H(X) dépend de la probabilité de chaque état que peut prendre la variable aléatoire X.
La quantité H(X,Y) est la quantité d’information de 2 canaux de communication simultanés. transmettant l’événement X et l’événement Y. Elle est reliée à H(X) et H(Y) par la relation suivante : H(X,Y) ? H(X) + H(Y)

Diagramme des quantités d’information au sein du modèle de communication de Shannon.

On définit la quantité d’information Hx(Y) comme la quantité d’information de l’événement Y connaissant l’information X, c’est la quantité d’information conditionnelle. Hx(Y) = H(X,Y) – H(X)

De même, on définit T(X,Y) comme l’information mutuelle donnée par l’événement X sur l’événement Y et inversement.
T(X,Y) = H(Y) – Hx(Y) = H(X) – Hy(X)= H(X) + H(Y)-H(X,Y)

Ces travaux permettent également de définir la capacité d’un canal de communication C comme : C = Max (T(X,Y)) = Max (H(X) – Hy(X))

Shannon étend et généralise cette approche au cas continue et fonde la théorie mathématique des télécommunications. Brillouin étend la notion d’entropie informationnelle, il crée le concept de néguentropie à partir d’une idée du physicien Schrödinger et essaie de reformuler un certain nombre de loi de la physique.
Si l’on définit l’entropie d’un système comme la résultante de la possibilité de chacune des composantes individuelles de ce système de prendre un état parmi un nombre d’états possibles, un système désorganisé va utiliser l’ensemble de ses possibilités, l’entropie sera maximale.

Soit un canal à 2 états. Inorganisé, l’entropie du canal serait : H(1/2, 1/2) = – 1/2.log (1/2)-1/2.log(1/2) = -log(1/2) = 0,693

Du fait d’une information, la probabilité du premier état devient 0,8 et celle du deuxième état de 0,2. l’entropie du canall devient :
H(0,8, 0,2) = – 0,8.log (0,8)-0,2.log(0,2) = 0,179 + 0,322 = 0,501

La diminution d’entropie due à l’information est appelée par Brillouin néguentropie :
H(1/2, 1/2)- H(0,8, 0,2) = 0,693-0,501 = 0,192

L’information a un effet organisateur, cet effet est caractérisé par la baisse de l’entropie du système.

En étendant l’idée d’information mutuelle entre un événement X et un événement Y, on peut définir le concept d’entropie relative :
I(X ;Y)= H(X) – Hy(X)

L’entropie relative est également appelée distance de Kullback-Lieber. Elle peut être utilisée pour mesurer l’écart entre une prévision et une réalisation et traiter la question des paris dans le cadre de la théorie des jeux.

B. Information qualitative

Lorsqu’elle doit modéliser le comportement de l’investisseur face à un choix dans un contexte d’avenir incertain, les sciences économiques s’appuient sur le concept de structure de l’information.
Pour J. Marschak et R Radner, l’information donne une description partielle de l’état du monde.
Soit un ensemble d’états que peut prendre l’environnement de l’investisseur. Soit un ensemble de signaux, tel que chaque signal soit en relation avec une partie de X.

Diagramme de la relation entre les signaux et les états

Le signal yn permet de distinguer l’état xn , le signal y1 permet de détecter les états x1 et x2 sans pouvoir les distinguer entre eux, enfin y… permet de distinguer les états x… et x2 sans pouvoir les distinguer entre eux.
L’ensemble des parties de X définissent une structure d’information sur X.
Soit deux structures d’information sur X : S, S’. Chaque partie de X composant la structure S’ est incluse dans une des partie composant la structure S. On dit que la structure S’ est plus fine que la structure S.

La structure S’ est plus fine que la structure S

D’autre part, un signal y est souvent le fruit d’un nombre répété d’observations ?i.
Ainsi pour une partie p de la structure S, .
Si les observations suivent des lois indépendantes :

Enfin, le modèle possède une fonction de décision telle que a=?(y) permet de définir l’action à accomplir lorsque le signal y est détecté.

Lorsqu’une action ai est réalisée alors que l’environnement est dans l’état xj, elle produit un résultat ?(xj, ai). Plus l’action est adaptée à l’état, plus le résultat est significatif. L’importance du résultat est appréciée différemment suivant les préférences de l’entreprise.

La fonction d’utilité u de Von Neumann et Morgentsen permet de prendre en compte les préférences de l’entreprise : u(?(xj, ai)), notamment son comportement vis-à-vis du risque (aversion, propension) ou des opportunités.

Comme l’action est le résultat d’une fonction décision, alors cette fonction-ci devient u(?(xj, ?i(y)))

Si l’on pose que la fonction s attachée à la structure d’information S qui renvoie le signal permettant de détecter la partie à laquelle appartient l’état x tel que s(x)=y. La fonction d’utilité devient u(?(xj, ?i(s(xj)))).

Il est alors possible de calculer l’utilité moyenne : avec ?(xj) la probabilité attachée à l’état x.

On peut alors calculer la fonction ?*() qui maximise l’utilité U et qui permette de définir la meilleure stratégie d’action en fonction de l’information possédée.
Ce modèle se préoccupe également du coût et de la valeur de l’information.

La valeur de l’information résulte d’une combinaison entre les résultats atteints et le coût d’opportunité, c’est-à-dire les renonciations auxquelles on a du consentir pour obtenir cette information.

L’utilité de cette combinaison n’est, en général, pas représentée par la différence entre l’utilité des résultats et l’utilité des renonciations. Elle n’est pas linéaire.
Cependant, les complications du cas général poussent Marschak et Radner définir les hypothèses qui permettent de considérer les résultats et les renonciations comme des variables indépendantes et séparées :

1. La variable de résultat est numérique (ex : le profit)

2. La fonction résultat net est la différence du résultat brut et du coût de l’information

3. Le coût de l’information ne dépend que de la structure de l’information

4. La fonction utilité U est continue et strictement croissante

La valeur V(s) d’une structure d’information est définie comme solution de l’équation :

Cela revient à dire que le maximum de l’utilité espérée du résultat, diminuée du coût de l’information, doit être égal au maximum de l’utilité espérée du résultat atteint sans l’usage de l’information.

La théorie financière utilise le concept de structure d’information associé à une variable aléatoire. Elle définie des suites de variables aléatoires Xt, indicées par le temps, les processus aléatoire, et les associe à une suite de structures d’information St, telle que St est plus fine que St-1. Ces processus sont appelés filtrations et permettent de modéliser le comportement des anticipations rationnelles, les causes des bulles financière, l’équilibre des marchés en information parfaite et imparfaite.

Bien que très importante au niveau théorique, la fonction d’utilité est difficile à manier. S’agissant du comportement du consommateur, on utilise le concept d’utilité relative mesuré par questionnaire. On comprend la difficulté de la mesure de l’utilité dans le cadre d’une entreprise.

C. Conclusion

L’information n’est pas un concept clos. C’est un processus. Il transforme les représentations qu’un système organisé se fait de son environnement. Pour l’anthropologue britannique G. Bateson, l’information est le moteur de l’évolution, elle « est une différence qui engendre une différence ». JL Lemoigne [49] voit l’information comme un processus où « signifiant » et « signifié » sont en interaction récursivement l’un sur l’autre.

Processus complexe, l’information est difficilement saisissable autrement qu’à travers des représentations, telle les ombres de la grotte de Platon éclairée par le monde des idées.

Bien que les théories actuelles soient puissantes, le champ du futur reste ouvert à l’imagination des chercheurs pour découvrir de nouvelles représentations opératoires qui auront probablement un impact significatif sur les technologies de traitement de l’information et sur l’évolution des Systèmes d’information.

V. Théorie des systèmes d’information

Les systèmes d’information effectuent, au sein des entreprises, le traitement de l’information et facilitent l’usage de cette information dans les processus de décision.

Les travaux d’Herbert A Simon, prix Nobel d’économie en 1978, combinent la psychologie, l’informatique, le management des organisations et la philosophie des sciences. Ils traitent des processus de résolution de problème, des processus de décision et des organisations considérées comme des systèmes complexes. En ce sens, ils sont fondateurs de la théorie moderne des systèmes d’information.

Le processus classique de la décision rationnelle est basé sur l’hypothèse que l’agent économique cherche continuellement à maximiser l’utilité du choix qu’il effectue. HA Simon observe :

que la mesure de l’utilité de chaque option est difficile à réaliser,

que le processus nécessite de disposer de la totalité de l’information sur les alternatives afin d’être en mesure de déterminer l’utilité maximale,

que l’ensemble des utilités doit être totalement ordonné afin de choisir l’utilité maximale

Il doute de la praticabilité d’un tel processus et de l’efficacité de son application à la résolution des problèmes. Il étudie les processus mentaux des joueurs d’échecs.

Il propose un processus de décision en trois étapes :

Intelligence : c’est l’action de mettre en relation le réel perçu et le réel projeté

Conception : c’est l’action de concevoir les solutions comme alternatives

Sélection : c’est l’action d’évoluer et de choisir une alternative raisonnable.

Il propose des fonctions d’évaluation simples en lieu et place de la fonction d’utilité. L’objectif n’est plus de choisir l’alternative qui maximise l’utilité, mais une alternative qui ait un niveau d’utilité raisonnable.

La collecte de l’information est réalisée au fur et à mesure du déroulement du processus de décision itératif qui part du général vers le particulier. Elle est limitée non seulement par l’information disponible, mais également par les capacités de l’agent à la collecter.

A la différence du processus classique, on a, dans ce cas, nul besoin d’avoir la totalité de l’information mais uniquement l’information utile au processus.

Enfin, l’utilité peut avoir plusieurs dimensions et prendre plusieurs valeurs. La décision est déterminée sur la base de la composition de ces valeurs. C’est le modèle de la rationalité limitée.

H.A Simon contribue également au développement de la théorie des systèmes complexes, la systémique [49] qui développe l’analogie entre systèmes complexes et systèmes vivants.

Cette théorie propose une approche transversale des systèmes et prend en compte :

La forme, qui constitue et délimite le système. C’est le domaine du Structuralisme (Saussure, Levy-Strauss, Piaget,…).

La logique de fonctionnement. C’est le domaine de la théorie générale des systèmes développée par le biologiste Bertalanffy

Les échanges. C’est le domaine de la cybernétique inventée par le mathématicien Norbert Wiener, mais également de l’informatique (H A Simon)

La systémique se distingue car elle développe une approche holistique. Les systèmes complexes ne sont plus considérés comme la somme des parties qui les composent, comme avec la méthode analytique : ils forment un tout indissociable.

niveau d’organisation d’un système complexe (d’après JL Lemoigne)

Un système complexe est finalisé, il est perçu comme réalisant des actions intelligibles. Les actions qu’il accomplit, le transforment lui-même de manière irréversible. Les effets de ses actions ne peuvent être dissociés des processus qui les occasionnent comme l’observateur et l’observation, l’information et le processus de communication.

Selon cette démarche, un corps humain n’est pas appréhendé sur le fait qu’il a 2 bras et 2 jambes, mais d’une manière dynamique au moyen des systèmes qui le composent : le système circulatoire, le système de digestion, le système nerveux,…

La complexité peut émerger d’un réseau formé d’une multitude d’organismes ayant chacun un fonctionnement simple : la fourmilière, le jeu de la vie de J Conway. Certains voient dans Internet un réseau permettant de faire émerger une intelligence collective sur le modèle de la Noosphère de T de Chardin.

La complexité peut également émerger d’un organisme isolé, au niveau d’organisation élevé comme sur la figure ci-dessus. Un système complexe met en oeuvre un processus de décision à rationalité limitée. H.A Simon, soucieux de la capacité des processus de décision à être calculables, a défini un modèle de machine abstraite de traitement de l’information supportant les activités de tels processus : .le système de traitement de l’information (STI). Les composantes de cette machine représentent en quelque sorte l’architecture du système d’information du système complexe.

Système de traitement de l’information d’après HA Simon

Les concepts de la systémique sont employés en écologie, en économie, et dans la science des organisations. Elle est de plus en plus utilisée en microéconomie pour modéliser le comportement des entreprises.

L’information permet à une organisation de prendre des décisions qui l’amènent à réaliser des actions. Le système d’information permet d’effectuer la collecte de l’information et de l’utiliser dans le processus de décision.

La rationalité du processus de décision est limitée. Le processus de décision est itératif et aboutit au choix d’une alternative raisonnable au lieu de celle qui maximise la fonction d’utilité.

Les organisations fonctionnement comme des organismes vivants et possèdent plusieurs niveaux d’organisation. L’architecture du système de traitement de l’information se découpe en 3 modules, le couplage, la computation, la mémorisation.

Références :

Brillouin Leon -Scientific uncertainty and information, New York [u.a.]: Academic Press, 1964

CANTOR G -Traduction et introd. H. Sinacœur Sur une question élémentaire de la théorie des ensembles, in Logique et fondements des mathématiques, Anthologie (1850-1914), Paris, Payot, p. 97-203.

Church Alonzo -Introduction to mathematical logic 1956 ISBN 0691029067

Demange G , Rochet JC -Méthodes mathématiques de la Finance Economica 1997

Einstein Albert – La théorie de la relativité restreinte et générale Dunod (2005) ISBN 2100487167

Fisher RA -Contributions to Mathematical Statistics; Wiley 1950

Gödel Kurt -Collected works, vol 1 (la thèse sur la complétude du calcul logique 1929, La complétude des axiomes du calcul des fonctions 1930,…) ISBN 0195039645

Lemoigne Jean- Louis – La Modélisation des systèmes complexes – BORDAS Paris 1990

Mac Lane S -Categories for the Working Mathematician. 2nd ed. (1998). Springer-Verlag.

Marschak J. , Radner R -Economic Theory of Teams 1972 Yales University Press New Heaven DC.

Rosnay (de) J. -Le macroscope Seuil 1975

RUSSEL B -The Principles of Mathematics, 1903, Cambridge: At the University Press.

Shannon CE et Weaver WE -Théorie Mathématique de la communication Traduction Cosnier et alii, RETZ, CEPL 1976

Simon HA – Making Processes in Administrative Organization. -Administrative Behavior: A Study of Decision (1947)- . New York: Macmillan.

Simon, H. A. -The architecture of complexity. (1969) In The Sciences of the Artificial (pp. 192-229). Cambridge, MA: MIT Press

Simon H A -Models of Man (1957) John Wiley

Tanenbaum A.S. -Architecture de l’ordinateur (3ième édition). Paris InterEdition, 1991

Turing A M – On Computable Numbers, with an Application to the Entscheidungsproblem Poceedings of the London Mathematical Society (Vol 42 : p 230-265) 1936-1937, (Vol 43 : p 544-546) 1937

Von Neuman J , O Morgenstern. 1967 -Theory of Games and Economic Behavior Princeton, NJ: Princeton University Press.

Print Friendly, PDF & Email

One thought on “Jalons théoriques sur les systèmes d’information

Leave a Reply

Your email address will not be published. Required fields are marked *