Clovis Darrigan est maître de conférences en chimie et chargé de mission culture scientifique et technique à l’Université de Pau et des Pays de l’Adour et un habitué des actions de vulgarisation, notamment à travers son site scienceamusante.net et l’association Anima-Science. Le passage à l’année 2010 lui a inspiré quelques réflexions, qu’il se propose de partager avec nous.
2010. À la vue de ce nombre, les amateurs de science-fiction pourraient, pourquoi pas, penser à l’œuvre d’Arthur C. Clarke, la tétralogie de l’Odyssée de l’espace : 2001: A Space Odyssey (1968) ; 2010: Odyssey Two (1982); 2061: Odyssey Three (1988) ; 3001: The Final Odyssey (1997).
Vous vous souvenez sûrement de 2001 Odyssée de l’espace, le film de Stanley Kubrick, à l’ambiance étrange et expérimentale, parfois même hermétique. Sa bande originale a fait que l’on ne peut plus écouter Ainsi parlait Zarathoustra (écouter) sans avoir en tête des images d’Hommes préhistoriques découvrant le feu et l’outil, ou Le Beau Danube bleu (écouter) sans imaginer un astronome en scaphandre évoluant dans l’espace, relié par un maigre cordon ombilical à son vaisseau mère… 2010 l’Année du premier contact est la suite de 2001.
Dans 2001, on se souvient aussi de l’ordinateur de bord, HAL 9000, doté d’une intelligence artificielle, de mémoires holographiques, d’une voix calme et douce, des sens (vision, audition), capable de lire sur les lèvres grâce à son œil rouge, sombre et rond, intrigant et pesant. Il gère l’ensemble du vaisseau, prend des décisions et… se trompe.
Alors en 2001, dans le monde réel, a-t-on pu construire un tel ordinateur ? Non, mais on s’y approche.
- En 2001, les mémoires holographiques n’étaient encore que des prototypes dans les laboratoires d’optique, des curiosités de l’optique non-linéaire où le laser imprime dans le support transparent une variation locale de l’indice de réfraction, laquelle peut ensuite être lu par un autre laser. En 2010 ces mémoires sont commercialisées et peuvent stocker jusqu’à 1,6 téraoctets sur une cartouche, soit l’équivalent de 240 DVD.
- En 2001, les ordinateurs étaient capables de battre des champions de jeu d’échecs. À cette époque les plus puissants ordinateurs calculent un milliard d’opérations par seconde (cadence de 1 GHz). La « loi de Moore » reste valable mais, à partir de 2004, on butte sur un mur technologique : la miniaturisation des processeurs atteint une limite. La photolithographie ne permet pas de « graver » plus finement le silicium. Une autre limite pointe son nez : le comportement quantique de la matière à l’approche des dimensions atomiques, qui risquerait d’induire un bruit parasite dépassant le signal électronique. En 2010, la barre des 5 GHz est surtout atteinte grâce aux ordinateurs à architecture parallèle, où les calculs sont répartis sur plusieurs processeurs et ordinateurs en réseau. On annonce aussi une révolution informatique : l’ordinateur quantique, justement, dont les bits ne seraient plus des 0 ou 1, mais des 0 et 1 mélangés (les qbits).
- En 2001, on savait faire de la synthèse vocale, un peu hachée, pas d’une qualité exceptionnelle ; en 2010, cela devient proche de la réalité, et en plusieurs langues. Le moindre Nabaztag transforme un texte en parole. Les algorithmes de synthèse vocale ont bien évolués, mais pas encore au point d’obtenir la voix fluide, posée et nuancée de HAL 9000.
- En 2001 la reconnaissance vocale et la reconnaissance d’image étaient acceptables. En 2010, les appareils photographiques numériques vous proposent de reconnaître les personnes pour une mise au point automatique, et même prendre la photo si le sujet a une bouche souriante… Les systèmes de surveillances sont aujourd’hui capable de détecter des mouvements « anormaux » pour un contexte déterminé. L’intelligence artificielle, les réseaux de neurones, la démarche bayesienne y sont aussi pour quelque chose. Le premier logiciel de lecture labiale multilingue devrait bientôt sortir. On serait donc théoriquement capable de suivre simultanément plusieurs conversations en même temps en filmant les visages, même de loin… Les sourds font cela : outre la gestuelle des mains, du corps et l’expression du visage, la lecture labiale est très pratiquée entre sourds et entendants. Les archéologues du futur décrypteront-ils un jour les dialogues des films muets pour reconstruire les phonèmes d’une langue oubliée ?
Ainsi, ce que Clarke et Kubrick avaient imaginé pour l’année 2001 (le roman et le film datant respectivement de 1968 et 1984), a pris 10 ans de retard. Sauf que pour l’instant, toutes les avancées technologiques listées ci-dessus n’ont pas encore été rassemblées dans un même ordinateur, ce qui laisse un peu de marge avant de passer le test de Turing.
Faut-il alors penser que la science-fiction, qui nous donne des imaginaires de la science et des technologies, vues par des artistes, des romanciers ou des scientifiques, aura finalement raison ? Ou sont-ce les scientifiques qui s’en inspirent pour orienter leurs recherches ? Corrélation ou causalité ? Causalité dans quel sens ?
Fabriquerons-nous des ordinateurs autonomes capables de décisions et de dérision ? Des technologies miniaturisées invisibles et perfides ? L’Homme sera-t-il dépassé par ses propres outils ? L’est-il déjà dans certains domaines ? On pense évidemment au climat, aux nanotechnologies, aux puces RFID, aux « usines à gaz » que nous fabriquons pour réparer nos erreurs, passées, présentes et encore futures pour un moment, à l’emballement des bourses, aux recherches sur les cellules souches, les OGM, etc. La science et la technologie, hélas, sont souvent vue comme génératrices de catastrophes, de peurs, comme en témoignent les nombreux débats actuels de société, dans lesquels les « pro » et « anti » s’affrontent sans s’écouter, s’écoutent sans s’entendre.
On oublie trop que « Science sans conscience n’est que ruine de l’âme » (1532, Rabelais). Dans nos formations universitaires scientifiques, on oublie trop souvent l’historique des événements, des découvertes, l’enchaînement des idées, le fonctionnement de la Science elle-même, l’épistémologie. Heureusement certains nous y aident. Le scientifique ne prend plus assez de recul, la tête dans son guidon, à qui sera le maillot jaune de l’indice H, quitte à se doper d’auto-citations indirectes, en équipe. Quel prochain indice, encore plus complexe et réducteur, viendra remplacer celui-ci ? Quelles astuces malsaines trouvera-t-on pour optimiser son indice ?
On aime le réductionnisme, le côté simple et pratique de ses résultats : l’évaluation d’un chercheur se résume à un nombre ; le réchauffement du climat se réduit (de plus en plus dans l’inconscient collectif) à la concentration de CO2 dans l’atmosphère ; l’intelligence des gens se résume à un QI et l’aspect relationnel à un QR ; le monde économique va bien ou mal en fonction de quelque indice boursier ; le thermomètre économique d’un état se mesure avec son PIB ; sur les réseaux sociaux du web, certains pensent encore que leur nombre de contacts/amis/followers fera d’eux des personnes reconnues/appréciées/plébiscitées… (Et le fait est que ça marche pas trop mal : à partir d’une masse critique, le nombre engendre le nombre.)
Mais le réel démontre chaque jour sa complexité et l’aberration du modèle réductionniste.
Aussi, le scientifique a toujours du mal à reconnaître et assumer sa part de créativité, de démarche non-linéaire, irrationnelle, artistique, sensible, d’erreur, alors que c’est justement cela qui nous distingue d’un ordinateur (pour le moment…).
Bonjour et merci pour ce billet inédit pour le c@fé des sciences.
J’aime beaucoup la question « Fabriquerons-nous des ordinateurs autonomes capables de décisions et de dérision ? ».
Les ordinateurs sont aujourd’hui capables de prendre des décisions pour remplacer l’homme (tous les systèmes de contrôle dans les avions, fusées, centrales nucléaires, etc.). Les choix de l’ordinateur sont généralement basés sur une connaissance à priori issue de l’homme mais peut aussi provenir d’un apprentissage par l’ordinateur lui même (réseau de neurone). Ses erreurs l’aideront ainsi à mieux appréhender ses choix futurs (un peu comme les hommes en fait !).
Quant à la dérision, nous ne maitrisons pas aujourd’hui de technologies capables de créer des dérisions je pense (dérisions inventées par la machine).
En somme, les machines d’aujourd’hui sont capables de « réfléchir » dans le sens où des observations de choix et de conséquences peuvent amener des algorithmes à prendre des décisions mais les machines ont un énorme handicap sur l’homme : elles n’ont pas d’humour !
Comme c’est amusant, se comparer aux machines. Voilà bien la schizophrénie humaine en place (à moins que ce soit qu’un vanité mal placée), se comparer à sa création la machine. La machine nous questionne sur notre humanité. Quelle histoire, l’homme se questionne sur son humanité depuis si longtemps.
En ces temps où l’animalité de l’humain ne fait plus aucun doute, alors que c’était pourtant cette absence d’animalité qui posait avant l’homme comme différent … En ces temps ou la notion de culture animale voit le jour, et questionne le positionnement d’un homme dont la différence est du à la création de la société … Rendre l’humain différent … du reste, voici une saine occupation. L’opposer pour mieux le positionner.
Jusqu’à présent, cette quête de différenciation mégalomane régulait les rapports de l’homme (ou plutôt de l’intellectuel) avec le monde qui l’entoure. définir l’homme, le cadrer, et éventuellement lui donner le beau rôle si c’est possible (je sais, ce n’est pas facile parfois). L’avancée de l’informatique et de la robotique permet d’ouvrir un nouveau questionnement : suis-je différent de ma création ? A ce questionnement mégalomane s’ajoute donc bien une dimension schizophrène qui vise à projeter dans la machine les qualités dont on se pare, quitte à les créer ainsi, pour mieux ensuite en critiquer la forme imparfaite.
Ne t’en fais pas Clovis, on est tous comme ça …
Benjamin, parcourir un arbre de décision pré-établi, est-ce bien la même chose que prendre une décision ? Voilà qui pourrait paraître réductionniste…
Comparer une reflexion humaine à un arbre de decision serait en effet ultra reductioniste mais les techniques modernes d’ « intelligence » artificielle sont tout de meme plus elaborées qu’un simple arbre de décision : cette comparaison est également réductioniste!
Cependant, même si ces programmes informatiques sont de plus en plus efficaces, ils n’aurons jamais la puissance de reflexion d’un humain et peuvent difficilement avoir le meme ‘regard’ qu’un expert, je suis tout a fait d’accord avec cela.