Histoire informatique

  • Alan Turing, père de l’informatique, naissait il y a 100 ans…

    Né le 23 juin 1912 (sous le signe du Cancer comme beaucoup de destins atypiques tels Jean Cocteau, Françoise Sagan, Saint-Exupéry, Jean-Jacques Rousseau, George Sand, ou encore l’astrophysicien Hubert Reeves et Zinedine Zidane…), le scientifique britannique Alan Mathison Turing est celui que l’on considère généralement comme le « père de l’informatique » ! Il passe son enfance en Angleterre, mais en famille d’accueil puis en internat, son père étant fonctionnaire en poste en Inde, où déjà il exprime ce caractère atypique. Il entre au King’s College de l’université de Cambridge en 1931 pour y étudier les mathématiques avant de se spécialiser dans le calcul des probabilités.

    L’atypisme intellectuel d’Alan Turing émulsionne une richesse de pensée qui le pousse, à partir des mathématiques, sur des chemins scientifiques aussi  éclectiques que la calculabilité, la cryptographie, la morphogénèse des formes biologiques, puis la calculabilité de l’intelligence… La première étape de ce parcours hors norme se situe  en 1936, quelques 10 ans avant les débuts de l’informatique, quand il rédige un article intitulé « Théorie des nombres calculables, suivie d’une application au problème de la décision ». Dans ce texte, Turing donne sa propre définition de la calculabilité : « On peut définir sommairement les nombres calculables comme étant les réels dont l’expression décimale est calculable avec des moyens finis. […] Selon ma définition, un nombre est calculable si sa représentation décimale peut être décrite par une machine ». Dans cet article, il décrit du même coup ce qui deviendra, une décennie plus tard, l’ordinateur. Il part du principe qu’une machine peut calculer diverses tâches pourvu qu’elles soient suffisamment bien formulées.  Concrètement, cet article décrit le premier modèle mathématique d’un algorithme, en précise les potentiels et les limites. C’est ainsi que nait « la Machine de Turing » ! 

  • Histoire des noms de domaines

    Le nom de domaine est la première « vitrine numérique » de l’entreprise, de la marque, voire d’une personne ! Avant toute autre image accessible sur le web, il est porteur de son identité. A la différence d’une adresse physique, « avenue de Messine », qui ne véhicule pas d’information identitaire autre que le choix (plus ou moins aléatoire) d’une résidence géographique, le nom de domaine est non seulement choisi par son porteur, mais également personnalisé. « histoire-cigref.org » ou « cigref.fr » ne laissent place à aucune ambigüité sur une carte de visite papier ou numérique.

    Quelle est l’histoire du nom de domaine internet ?

    Si le web a un peu plus de 40 ans, le premier nom de domaine est apparu quinze ans plus tard, en janvier 1985. Ce premier nom de domaine est « nordu.net », demandé par un réseau universitaire et de recherche nordique.

  • Histoire des premiers écrans aux écrans tactiles

    Un écran !  Aujourd’hui, sans doute faudrait-il être Robinson Crusoé pour n’en avoir jamais vu… Mais qui connait vraiment l’histoire de cet objet présent partout et sous bien des formes différentes, de la télévision aux tablettes numériques en passant par les ordinateurs et les smartphones !  Périphériques de sortie vidéo d’un ordinateur, ou son ainé : l’écran de télévision, et maintenant tactile, obéissant au doigt et à l’œil…  remontons à leur source cathodique !

    La naissance des premiers écrans

    Dès 1880, ce sont plusieurs chercheurs : Constantin Senlecq en France, Adriano de Paiva à Porto George R. Carey à Boston, qui, à peu près dans le même temps, découvrent que l’on pourrait diffuser une image en la projetant sur une surface photosensible composée de points de sélénium du fait des propriétés photoélectriques de ce matériau. Ce principe sera la base de tout système de transmission d’images animées.

  • Système d’exploitation, retour aux fondamentaux…

    A quelques jours du lancement de la version beta de Windows 8, nommée « Consumer Preview » annoncé par Microsoft pour le 29 février à Barcelone, à l’occasion du Mobile World Congress, retour sur l’histoire des systèmes d’exploitation… D’autant que Microsoft lui-même déclare que son Windows 8 est « une réinvention complète du système d’exploitation Windows ». Son nouveau logo qui vient juste d’être officialisé, se veut également porteur de cette symbolique, être un retour «  à sa signification d’origine pour ramener Windows à ses racines ».

    Aujourd’hui, quand les tablettes numériques « piaffent » aux portes des entreprises dont elles bousculent les usages, qui se souvient de la naissance des systèmes d’exploitation ? Et pourtant, ils furent le premier sentier ouvert sur le monde numérique !
    Longtemps avant les systèmes d’exploitation « mobiles », iOS et Android, qui sont entre presque toutes les mains aujourd’hui, les UNIX, Vista et OS X connectés à chaque souris de la planète numérique, il y eut… des cartes perforées ! C’était dans les années 60.

  • 1983, du nom de domaine au DNS

    Si tous ne s’accordent pas sur la naissance du tout premier nom de domaine, comme c’est souvent le cas pour identifier un précurseur ! il semble que les premiers aient été enregistrés au cours du premier trimestre de 1983. Xerox, quant à lui enregistra le sien le 6 janvier 1986, suivi par Hewlett Packard. Mais au fait…

    Qu’est-ce qu’un nom de domaine ?

    Comme chacun le sait, le chiffre est la langue maternelle de l’informatique. C’est ainsi que chaque appareil relié à un réseau informatique porte un nom défini par des combinaisons de chiffres. C’est une adresse IP (Internet Protocol). Or, il est moins difficile, pour la majorité de nos cerveaux humains, de mémoriser des noms plutôt que des combinaisons de chiffres, surtout quand elles sont représentées (en version 4 par exemple) par une association de 4 nombres compris entre 0 et 255 séparés par des points. Le nom de domaine est une sorte de « masque » qui se substitue à l’adresse IP pour permettre à nos cerveaux humains de le lire et le mémoriser plus facilement.

  • Goldman et Krim, 2 pionniers de l’informatique s’en sont allé…

    Norman B. Krim, parfois appelé « Monsieur Transistor », et Jacob E. Goldman, fondateur du centre de recherche Xerox PARC de Palo Alto (centre qui a fait germer tant d’innovations informatiques dont certaines ont nourri les géants Apple et Microsoft), ces deux pionniers de l’informatique s’en sont allé en cette fin décembre. Tous deux avaient très fortement influencé l’histoire de l’informatique, et de leurs 90 ans révolus, avaient pu en observer les premières évolutions vers le monde numérique !

  • Histoire de la mécanisation des calculs au logiciel

    Après nous avoir fait voyager « de l’algorithme à la notion de programme » ce qui nous a fait rencontrer « Monsieur Algorithme », de son vrai nom Abou-Jafar Al-Khuwārizmī, puis Ada Lovelace, le documentaire-fiction réalisé par l’INRIA nous invite maintenant à retracer l’histoire « de la mécanisation des calculs au logiciel ».

    Dans ce nouvel épisode, Gérard Berry explique : « L’informatique s’incarne dans des machines. L’homme sait d’abord fabriquer des outils, c’est-à-dire des objets simples à utiliser. Puis, il a fabriqué des machines, c’est-à-dire des outils qui utilisent une force autre que la sienne et qui peuvent exécuter, de manière autonome, certaines opérations, même complexes et programmées, comme pour le métier à tisser Jacquard. Mais la machine mécanique ne sait pas se modifier elle-même. Au contraire, l’ordinateur, qui est une machine à information, sait modifier son propre programme et devient ainsi une machine véritablement universelle. Turing a montré que toutes les machines universelles connues sont équivalentes. Elles permettent toutes de maitriser l’intelligence mécanique… ».

  • Les débuts de l’EDI en France à travers Edifrance

    L’Échange de données informatisées (EDI), autrement dit « la transmission de données structurées entre organisations par des moyens électroniques », cet échange semble aujourd’hui naturel…  Mais à l’instar de la découverte de la marche pour le très jeune enfant, le transfert de documents électroniques ou de données d’entreprise d’un système informatique à un autre fut une des problématiques des premiers pas de l’informatique !

    Contribution d’Yves Sarrot
    Consultant pendant 11 ans avant de rejoindre Rhône Poulenc
    pour diverses missions de direction de services ou de projets.
    Dans les années 90, il a assuré la représentation de Rhône-Poulenc auprès de divers organismes  (CIGREF, Cefic, UIC, EEMA, ..).
    Plus récemment, il a dirigé le déploiement mondial du nouvel ERP  de Rhodia  basé sur SAP.
    Il est actuellement consultant indépendant.

    Il est toujours intéressant de se trouver au début  d’une histoire, ou d’un mouvement qui se crée.  J’ai eu la chance de participer dès 1989 aux discussions préliminaires à la création d’Edifrance, puis  à son fonctionnement pendant quelques années.  Mon rôle a été certes plus modeste que celui des grands fondateurs, mais la participation au Bureau et la présidence de la Commission Intersectorielle m’ont donné un point d’observation intéressant sur la vague EDI qui se formait.

  • Algorithme, ou la différence entre penser et calculer…

    Alors que l’informatique et les sciences numériques devraient arriver au programme des lycées pour la rentrée 2012, l’INRIA a réalisé un documentaire-fiction pour faire découvrir à la « génération y » en herbe, l’histoire de l’informatique et éveiller sa curiosité pour les sciences numérique…

    Scénarisé autour de la rencontre d’un élève et de son professeur avec des personnages qui incarnent les étapes clés de l’histoire des Sciences de l’informatique et Sciences numériques, il nous permet de retrouver, en chair et en os, Ada Lovelace, Alan Turing, Grace Hopper… des pionniers de l’informatique, fondateurs de notre ère numérique.

    Gérard Berry, à la fois membre de l’équipe scientifique chargée de la réalisation  de ce film, et son narrateur, explique : « Notre monde a été bouleversé par l’arrivée de l’informatique et il est devenu numérique. Pour ne pas subir ce nouveau monde, il faut le comprendre et ne pas se restreindre seulement aux usages. En bref, il faut piger pourquoi on clique ! ».

    De l’algorithme à la notion de programme…

  • Quand l’An 2000 a fait trembler l’informatique

    S’il est un événement « marquant » de 40 ans d’histoire de l’informatique, et de l’informatisation des grandes entreprises en particulier, c’est bien le fameux « passage à l’An 2000 », autrement dit l’histoire d’un « big bug annoncé » !

    Il faut dire que lorsque l’informatique a fait ses premiers pas, elle était comme nombre de jeunes humains, un peu insouciante de son avenir ! Quel avenir d’ailleurs ? Dans les années 60 – 70, qui croyait vraiment à l’avenir de l’informatique, à part peut-être Pierre Lhermitte qui, peu avant de créer le CIGREF, écrivait, dans son livre « le Pari Informatique » : « Une circulation aisée des informations mettra un service meilleur, des décisions plus sûres, une adaptation plus rapide aux incitations et exigences du marché, à ce titre, l’informatique est une condition de croissance de l’entreprise, et, là encore l’enjeu est considérable d’autant plus qu’il se place dans un climat de concurrence plus âpre. L’informatique constituera la nouvelle frontière des économies développées dans les années à venir. La refuser, c’est accepter une décadence rapide. D’autres peuples nous dépasseront, les jeunes élites s’expatrieront, notre économie sera dominée ».

    Bill Gates, lui-même aurait déclaré, pourtant dix ans plus tard, en 1981 : « 640 Ko est suffisant pour tout le monde »… Alors, concevoir des programmes en anticipant un format de dates compatible avec le changement de millénaire qui surviendrait quelques décennies plus tard…

    De plus, dans les années 60, les capacités techniques comme la mémoire et l’entreposage des données coutaient cher et la plupart des traitements se faisaient sur des cartes perforées. De même, les langages de programmation comme le COBOL et le RPG, traitaient initialement les nombres à partir de leur représentation ASCII ou EBCDIC. Ce contexte explique aussi pourquoi les programmeurs ont codé les années sur deux chiffres seulement ! Et qu’au fil du temps, quand l’informatique a commencé à grandir, on n’a pas pensé réellement pensé à l’An 2000 !