ADA : Femmes et nouvelles technologies  - Femmes et  IT - Femmes et TIC
:: accueil :: plan du site ::
:: in het Nederlands ::
 
   
Vous êtes ici : Accueil S’orienter vers l’IT L’IT et ses métiers Une brève histoire de l’informatique

Une brève histoire de l’informatique

Les prémices

Il est difficile de mettre un point de départ à une histoire de l’informatique. Quelle que soit la “machine” à laquelle on fera référence, on arrivera toujours à trouver un automate qui lui aura précédé. Ce qu’il faut en tout cas retenir, c’est que l’ordinateur n’est pas sorti un beau jour d’un garage californien ou d’un laboratoire militaire. Il a été pensé depuis le XVIIe siècle et rêvé depuis bien plus longtemps encore. En allant très vite, nous pouvons dire que l’humanité cherchait à atteindre trois buts : posséder une mémoire infaillible, augmenter ses possibilités en calcul et créer un être artificiel.

La mémoire

Philippe Breton(1). fait remonter le rêve d’ordinateur à la Grèce du Ve siècle avant JC, dans un environnement de traditions orales où les poètes déclament des mythes en les modifiant à chaque nouvelle inspiration(2).

Simonide de Céos avait la réputation de déclamer des odes toujours de la même manière. Convié à la table d’un puissant, il commet l’erreur de dédier son poème à Castor et Pollux et non au maître des lieux. Vexé, celui-ci le chasse. Simonide s’en va et le plafond s’écroule sur les convives. Rappelé en hâte, pour reconnaître les corps, il identifie chacun grâce à la place qu’il avait à table. Les ‘Arts de la mémoire’ naissent ainsi, en identifiant les corps des morts pour permettre un souvenir éternel.


De Mechanische eend van Vaucanson

Les Grecs avaient inventé une technique mnémotechnique qui consistait à associer à chacune des idées une image mentale située dans un espace architectural imaginaire.

A Rome, avec la construction métaphorique de la maison, de la rue puis de la ville, Cicéron affirmait retenir plusieurs milliers de phrases dans son agglomération mentale.

Au Moyen Age, la mémoire va devenir une véritable discipline mentale. Moins risquée que l’écriture, la mnémotechnique va permettre de conserver ce qu’on n’ose pas écrire ou diffuser. Léonard de Vinci, Galilée, Pascal et bien d’autres auront recours à l’art de la mémoire pour faire avancer leurs travaux.

Les chiffres

Si l’humanité n’a pas toujours écrit, elle a eu besoin très tôt de dénombrer, de mesurer et enfin de calculer. Très vite les possibilités humaines ont été battues en brèche par les besoins en calcul. Et l’humanité n’a eu de cesse de tenter de seconder ses propres capacités en inventant des techniques opératoires, des outils et finalement des machines.

Vers 1623, Wilhem Schickard (1592-1635) de l’université de Tübingen construit l’horloge à calcul : une machine à roues dentées qui « calcule à partir de nombres donnés d’une manière instantanée et automatique, car elle ajoute et retranche, multiplie et divise » (3). Malheureusement, la machine de Schickard est détruite dans un incendie. Il est donc probable que Blaise Pascal (1623-1662) n’en ait pas entendu parler quand il passe pour l’inventeur de la première machine à calculer avec la Pascaline en 1641. Prudent et préoccupé par des problèmes de religion, il prendra de grandes précautions en décrivant les possibilités de sa machine : « La machine arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux : mais elle ne fait rien qui puisse faire dire qu’elle a de la volonté, comme les animaux. »

Gottfried Wilhem Leibnitz (1646-1716) perfectionna cette machine en 1673. S’il a agi par conviction scientifique, il était aussi animé d’un souci économique : « Il est indigne d’hommes éminents de perdre des heures comme esclaves dans le travail de calcul qui pourrait sûrement être confié à n’importe qui, si des machines étaient utilisées »(4).


Ada Lovelace

A partir de 1840, en s’inspirant du métier à tisser Jacquard (1752-1834), Charles Babbage (1792-1871), un grand mathématicien anglais, inventa la machine à différences qu’on peut considérer être le premier ordinateur mécanique. Il fut rejoint par Ada Lovelace pour la mise au point de l’étape suivante, la machine analytique qui n’a malheureusement jamais fonctionné. Pour sa part, Ada Lovelace (1815-1852) a écrit une suite d’instructions permettant à cette machine de calculer les nombres de la suite de Bernoulli. Ce canevas est considéré aujourd’hui comme le premier algorithme.

L’être artificiel

Les mythes concernant les créatures artificielles sont nombreux et se retrouvent dans de nombreuses cultures : statues animées par les Dieux, Golem dans la mystique juive, etc.

On apprend dans les Confessions de St Augustin que le philosophe scolastique Bavarois Magnus (1204-1282) aurait travaillé pendant 30 ans sur une “tête parlante” qui pouvait répondre à des questions et résoudre des problèmes.

La nouvelle conception des êtres humains développée au XVIIe et XVIIIe siècle en France par Descartes (1596-1650) et surtout La Mettrie (1709-1751) permet de décrire les êtres humains comme des automates. Descartes avait d’ailleurs construit un lui-même qu’il appelait sa fille Francine, en souvenir de la fille qu’il avait perdue.

En 1738, le joueur de flûte de Vaucanson rencontre un immense succès. D’autres automates, parmi lesquels le Canard Digérateur, vont confirmer sa renommée comme bio-mécanicien, c’est-à-dire quelqu’un capable de simuler les fonctions vitales à l’aide de mécaniques. En effet, le canard était capable de manger et de déféquer : le public était émerveillé par cette machine capable de digérer, principe universel que l’alchimie supposait être à l’origine de nombreux phénomènes naturels et vivants.


L’informatique moderne

En 1936, le mathématicien anglais Alan Turing (1912-1954) démontre la faisabilité d’un automate programmable capable d’évaluer toute fonction calculable. Aujourd’hui tous les ordinateurs sont des Machines de Turing.

Dans les années 1940, Norbert Wiener (1894-1964) invente la cybernétique : c’est une approche logicomathématique traitant des processus de communication et de régulation chez les animaux et les machines. Cette science sera un fondement théorique pour l’ordinateur.

Durant la seconde guerre mondiale, le besoin en calculs balistiques motiva le développement de l’ordinateur électronique, d’abord avec une machine peu connue, le Z3, construite en 1941 par un ingénieur allemand, Conrad Zuse. Isolé dans ses recherches avant et pendant la guerre, il ne connaît pas les travaux des cybernéticiens. En 1944, à Harvard, Howard Aiken (1900-1973) construisit le calculateur électromécanique Mark I, subventionné par IBM. En 1947, Aiken se rend célèbre pour sa phrase malheureuse : « Seuls six ordinateurs numériques seront nécessaires pour assurer les besoins en calcul de la totalité des Etats-Unis. » (5). . En 1944, John von Neumann (1903-1957) publie un texte : “First draft for a report on the EDVAC” qui décrit l’architecture de l’ordinateur tel que nous le connaissons aujourd’hui. Mauchly (1907-1980) et Eckert (1919-1995) reprirent ces idées pour construire l’UNIVAC.


Univac - Grace Hopper

A cette époque, le logiciel était considéré comme accessoire et n’intéressait personne. Grace Hopper (1906-1992) y effectuera une avancée décisive avec l’invention du compilateur. Grâce à cette technique, elle a permis la diffusion et la large utilisation d’un langage simple à comprendre (le COBOL) et a ainsi ouvert la porte de la programmation à tous, et non plus à une petite poignée de mathématiciens. Hopper prophétisa que le logiciel finirait par coûter plus cher que le matériel et qu’un langage de programmation convivial permettrait à tous d’utiliser les ordinateurs…

L’invention du transistor en 1947 par Bardeen, Brattain et Shockley permit la révolution du microprocesseur. Dans les années 1960, l’informatique devint une discipline à part entière. Le premier département d’informatique fut créé en 1962 à l’Université de Purdue.

La compagnie française Bull sort son premier ordinateur en 1960 et grâce à la position anti-OTAN du Général de Gaulle, elle est la seule société européenne à tenir tête aux géants américains.

En 1969, le système d’exploitation Unix fut développé par Thompson et Ritchie, contre l’avis de leur employeur, le Bell Lab d’AT&T. Puis, Kernighan et Ritchie développèrent le langage C en 1972.

Métiers

L’informatique a beau être une discipline jeune, elle a aussi ses vieux métiers. Les perforatrices faisaient des trous dans des cartes perforées avant l’invention des supports de stockage magnétiques. Disparus aussi, les pupitreurs qui tapaient les lignes de code écrites par les programmeurs ou effectuaient des opérations de maintenance de base. Le métier d’analyste-programmeur s’est répandu à partir des années 1970 avec la démocratisation de l’informatique de gestion. Si le métier de programmeur ne représente plus que 20% des effectifs, il reste prestigieux dans l’industrie de pointe. Avec la généralisation du micro-ordinateur, des métiers nécessitant des qualifications moins poussées sont apparus, comme les assembleurs (qui construisent les PC) ou les fonctions de helpdesk, qui consiste à faire du dépannage premier niveau, souvent par téléphone.

En 1971 arrivent les micro-processeurs et la société DEC (Digital Equipment Corporation) invente le mini-ordinateur (qui est malgrés tout gros comme plusieurs armoires). A la fin des années 70, arrive le micro-ordinateur, diffusé par Steve Jobs et Steve Wozniak, les fondateurs d’Apple. Wozniak invente le lecteur de disquette, bien plus pratique que la cassette, pour charger des programmes. Avec le langage Basic intégré, tous le monde peut s’amuser à programmer simplement, sans être informaticien. Et bien sûr, on peut jouer.

En 1979, trois étudiants de Caroline du Nord développèrent un serveur d’informations distribué qui finalement devint Usenet. IBM se réveille très tard sur le marché du micro-ordinateur en lançant le PC (Personal Computer) en 1982. Mais la société n’y croit pas et abandonne le système d’exploitation (MS-DOS) à une petite société appelée Micro-Soft, crée en 1975. IBM est convaincu qu’on ne pourra jamais valoriser quelque chose d’aussi impalpable que du logiciel.

En 1984, avec le Macintosh, Apple fait une nouvelle percée en diffusant la souris et l’interface graphique. L’ordinateur n’est plus un outil de spécialiste mais un ordinateur pour tous. Microsoft Windows sort en 1985, c’est un environnement graphique mais il faut attendre sa version 3 en 1990 pour qu’il rencontre un réel succès. Un jeune étudiant finlandais nommé Linus Torvalds crée un système d’exploitation appelé Linux en 1991. Le noyau est disponible de nos jours sur PC comme sur Mac, Sun, Silicon Graphics et autres, accompagné de logiciels libres de droits de copie. Il est considéré comme une alternative aux systèmes propriétaires, en particulier à Microsoft Windows.

Internet

Le premier pas fut fait en 1969 avec le projet ARPANET lancé par l’Advanced Research Projects Agency (ARPA) une des agences du département de la défense américaine. L’idée est de permettre à l’armée et aux organismes de recherche de mettre en commun leurs informations. La structure d’ARPANET est volontairement distribuée (plusieurs serveurs en différents endroits qui gèrent chacun une partie de la distribution de l’information). Dans le contexte de guerre froide, l’idée est de garantir l’échange d’information, même en cas de destruction d’un ou plusieurs nœuds du réseau.

En 1973, la Defense Advanced Project Agency lance un nouveau projet dénommé Internetting Project. Le principe est d’étudier les modalités de connexion de plusieurs réseaux. Mais pour que l’interconnexion soit efficace, il faut disposer d’un protocole d’échange standardisé d’informations. En 1974, l’élaboration du TCP/IP (Transmission Control Protocol/Internet Protocol) constitue une étape fondamentale qui peut être considérée comme la véritable naissance d’Internet tel que nous le connaissons aujourd’hui. Il a été mis au point par Robert Kahn et Vinton Cerf. TCP/IP est toujours utilisé et permet l’échange d’informations quel que soit le format du fichier et quel que soit l’ordinateur impliqué dans le transfert.

En 1985, la National Science Foundation (NSF) crée son propre réseau, NSFNET, permettant aux universités américaines de se connecter à distance à cinq super-calculateurs. De plus, NSFNET est interconnecté avec ARPANET. Cette date est doublement significative. D’abord elle marque la prise en compte par l’administration américaine de l’intérêt que peut représenter pour l’enseignement et la recherche une interconnexion d’ordinateurs. Ensuite, elle correspond à une appropriation du concept d’Internet par les universitaires.

Métiers

L’industrie du multimédia, les CD-Rom et Internet ont provoqué l’émergence de nouveaux métiers et donc de nouvelles formations. Il s’agit parfois de métiers qui se transforment mais aussi de métiers directement liée à cette nouvelle technologie. Infographiste, Designer 3D, Intégrateur html, Administrateur Web… Ces métiers sont encore souvent mal définis et il n’est pas rare qu’une même personne occupe plusieurs fonctions. Par ailleurs, les métiers des télécom et du réseau ont pris une très grande importance, se séparant de l’électronique et de l’informatique pour devenir une filière à part entière.

Au CERN (Centre d’Etudes et de Recherche Nucléaire) de Genève, Tim Berners-Lee conçoit en 1990 un protocole permettant de naviguer sur des serveurs d’information en hypertexte (technique qui existait déjà dans l’univers Macintosh). C’est la naissance du concept de World Wide Web, un chaînage d’informations présentes sur différents serveurs n’importe où dans le monde.

Jusque là, Internet est encore un outil pour spécialistes, scientifiques, professionnels. Il manquait une application conviviale pour qu’il puisse faire la conquête du grand public. Elle fut mise au point en 1993 par Marc Andreessen et s’appelle Mosaic. C’est un logiciel particulièrement convivial permettant de naviguer sur le Web (et d’accéder aux autres fonctionnalités d’Internet). Il est possible, pour la première fois dans l’histoire d’Internet, d’afficher sur une même page du texte et des images. Peu de temps après, Marc Andreessen et Jim Clark reprennent les principes de Mosaic et développent un meilleur logiciel de navigation au sein d’une nouvelle société : Netscape Communications.

L’explosion d’Internet a véritablement eu lieu en 1995 grâce à une forte médiatisation et à la sophistication accrue des logiciels d’interface. En juin de cette année, il y avait plus de 35 000 serveurs Web dans le monde. Et c’est en 1997 que le nombre de noms de domaine déposés auprès de l’InterNIC passe le million.

En mai 2003, Insites Consulting montre que la population belge connectée à Internet atteint les 3,7 millions de personnes soit 36 % de l’ensemble de la population, avec 51,7 % de femmes.

L’intégration des dix nouveaux pays dans l’Union n’a pas eu beaucoup d’influence dans le tableau Internet européen avec un taux de pénétration d’environ 30% en 2003.

Notes & liens
(1) Breton Philippe, Une histoire de l’informatique, 1990, Seuil
(2) L’expression est de Francis Yates : L’art de la mémoire, trad. 1987, Gallimard
(3) Correspondance de Schickard à Kepler.
(4) "Il est indigne d’hommes éminents de perdre des heures comme esclaves dans le travail de calcul qui pourrait sûrement être confié à n’importe qui, si des machines étaient utilisées", citaat in Collectif, Revue SAGA, "2000 ans d’informatique" [ndvdr : eigen vertaling].
(5) "Only six electronic digital computers would be required to satisfy the computing needs of the entire United States", traduit par nous.

 
Attribution-NonCommercial 2.0 Belgium