Les pays où Internet dort

81170.gif
81170.gif Internet serait-il comme une gigantesque colonie de créatures vivantes, dont certaines dormiraient et d’autres pas ? C’est en tout cas l’impression générée par une toute nouvelle carte du “sommeil de l’Internet” dont les premiers éléments viennent d’être rendus publics par une équipe de chercheurs de l’école d’ingénieurs en sciences de l’information de l’université de Californie du Sud (ISI). Bien entendu, l’analogie avec un être vivant est une simple image, mais comme Internet est utilisé par des créatures de chair et de sang (vous et moi), il est intéressant d’étudier ce “cycle de sommeil”. Dans certains pays, comme aux Etats-Unis ou en Europe de l’Ouest, Internet ne dort jamais, alors que dans d’autres régions du monde comme l’Asie, l’Amérique du Sud ou l’Europe de l’Est, l’activité des ordinateurs connectés peut être rapprochée du cycle jour-nuit. Cela veut-il dire que l’Occident est composé d’accros à Internet qui ne dorment jamais ? Evidemment non, mais cela donne des informations sur la nature des connexions et le développement des réseaux. Ainsi, ceux qui ont des accès permanents à des réseaux à haut débit laisseront leurs appareils connectés jour et nuit. A l’inverse, ceux qui sont toujours dépendants d’accès ponctuels ne se connecteront que lorsqu’ils utilisent vraiment la connexion, donc généralement pas au beau milieu de la nuit.

A quoi ça sert ? 

Mais l’étude n’est pas focalisée sur le cycle du sommeil des utilisateurs d’Internet. Le but est de fournir des outils pour mesurer et identifier les coupures d’Internet, par exemple : connaître les “cycles de sommeil” du réseau permet ainsi d’éviter de confondre une période d’inactivité régulière avec un gros incident réseau privant d’accès une zone géographique. “Internet est important dans nos vies et pour nos entreprises, des films en streaming aux achats en ligne”, explique John Heidemann, professeur à l’ISI et l’un des chercheurs de l’étude. “Mesurer les coupures réseau est un premier pas pour améliorer la fiabilité d’Internet”. Pour lui, “Ces données servent à établir une base de l’Internet, à comprendre comment il fonctionne, pour que nous ayons une meilleure idée de sa résistance globale, et que nous puissions détecter les problèmes plus rapidement”. L’étude permet aussi de comprendre le fonctionnement du réseau à plusieurs niveaux :
  • Les politiques de développement par pays, tout d’abord : aux USA, par exemple, la connexion haut débit permanente est un objectif gouvernemental.
  • Il y a également un rapport entre le niveau de vie et l’accès nocturne : plus un pays est riche, plus il y a de chances que son Internet soit en fonction 24 heures sur 24. L’étude montre une corrélation entre le PIB et l’activité Internet, ainsi qu’avec l’utilisation électrique par personne. “La corrélation entre l’activité du réseau et l’économie nous aide à mieux comprendre notre monde”, affirment les chercheurs. En fonction du “rythme de sommeil” de votre réseau, ils peuvent prédire dans quelle région du globe vous êtes situé…
  • Des mesures de la taille et de la croissance d’Internet. Le “sommeil” permet de mieux estimer la taille globale du réseau, que l’on a tendance à considérer en fonction du nombre d’adresses, qu’elles soient actives ou non. Prendre en compte leur activité réelle est un élément important.
  • Comprendre pourquoi les réseaux “dorment” : en pratique, pourquoi les gens éteignent leur ordinateur la nuit. Que le trafic change en fonction des activités humaines, cela semble normal, mais que le réseau soit éteint dans certains endroits répond à des causes qui touchent à la sociologie autant qu’à l’informatique. Les entreprises éteignent-elles leurs ordinateurs à la fin de la journée de travail ?  Les particuliers coupent-ils toutes leurs connexions lorsqu’ils vont se coucher ? Et pourquoi le font-ils ? Quand il s’agit de cybercafés fermant la nuit, ou de pays où la connexion s’effectue par modem et ligne téléphonique, on comprend la cause de la coupure, mais qu’en est-il des endroits à connexion haut débit illimitée ? La politique d’un pays encourage-t-elle les déconnexions ? Le manque d’adresses IP disponibles pour un fournisseur d’accès l’incite-t-il à limiter les temps de connexion de ses clients ?
On le voit, cette étude offre de nombreuses directions de recherche…

Comment ils ont procédé

Rappelons que les ordinateurs connectés à Internet se voient attribuer une adresse réseau, l’IP, qui correspond peu ou prou à une sorte de numéro de téléphone pour votre connexion. La différence, c’est que selon votre mode de connexion, ce numéro peut changer régulièrement sans que vous le sachiez, et sans que cela affecte votre utilisation d’Internet (votre fournisseur d’accès possède ces adresses et vous les attribue en fonction de ses possibilités…ou de votre type de contrat). Il y a dans le monde 4 milliards d’adresses Internet au standard IPv4 (un autre standard, IPv6, qui permettra d’avoir encore plus d’adresses, est en cours de mise en place). Sur ces 4 milliards, l’équipe de l’ISI a pu monitorer 3,7 millions de blocs d’adresses, qui représentent environ 950 millions d’adresses individuelles. En les testant toutes les 11 minutes pendant 2 mois, ils ont pu ainsi observer les tendances d’activité et d’inactivité de ces réseaux. Ces données ne représentent que le début d’une étude en cours, et elles seront présentées officiellement le 5 novembre lors d’une conférence de l’ACM (association mondiale de professionnels de l’informatique). En attendant, l’équipe continue ses recherches. “Nous avons étendu notre couverture à 4 millions de blocs (plus de 1 milliard d’adresses), explique John Heidemann, qui espère que les mesures à long terme aideront à guider le fonctionnement d’Internet.   Crédit image : Un gif animé des données recueillies. Les carrés du rose pâle au rouge indiquent des activités Internet supérieures à la moyenne mondiale, ceux allant vers le bleu, des activités inférieures à la moyenne (Courtesy of John Heidemann / USC Viterbi ISI) Continue reading

Ménage à trois

Quelle est la place des chercheurs dans notre monde actuel ? Notre société capitaliste, qui repose sur le progrès technique et scientifique, se trouve à un tournant. Les modifications climatiques, les profonds bouleversements des écosystèmes, l’explosion récente des outils numériques modèlent une société qui, d’une […]

Continue reading

Pourquoi Pluton est (toujours) une planète

all_dwarfs-lrg.en.png
(Note : ce post reflète les opinions de l’auteur)
 all_dwarfs-lrg.en.pngEn août 2006, l’Union Astronomique Internationale, association d’astronomes professionnels qui a le privilège de pouvoir nommer les objets célestes, adoptait une résolution (texte du communiqué en anglais ici) qui n’en finit pas de faire des vagues : celle de la nouvelle définition d’une planète, qui excluait de fait Pluton. Certes, une nouvelle catégorie était créée, celle de “planète naine”, qui représente plus ou moins les objets embarrassants dont on ne veut plus vraiment faire des planètes, mais que l’on ne peut pas faire entrer dans la liste des corps célestes déjà existants. Pluton, mais aussi d’autres objets lointains comme Makémaké, l’ovoïde Hauméa,  Eris, qui serait plus grosse que Pluton, ce qui en aurait fait théoriquement la 10ème planète de notre système solaire, ou encore Cérès, le plus gros objet de la ceinture d’astéroïdes. La décision de l’UAI n’a pas fait que des heureux dans une communauté d’astronomes divisée sur le sujet, mais également parmi un grand public interrogatif, voir sceptique quant à cette décision. Passer de 9 planètes à 8, c’est plus difficile à admettre que d’en accueillir une nouvelle dans le club.

Une planète, c’est quoi, selon l’UAI?

La nouvelle définition des planètes selon l’UAI prend en compte trois critères. Pour être une planète, un objet doit :
  • Etre en orbite autour du Soleil
  • Avoir une masse suffisante pour parvenir à un équilibre hydrostatique (donc avoir une forme sphérique)
  • Avoir nettoyé le voisinage de son orbite
C’est sur le troisième élément que Pluton a été “disqualifiée”, du fait de la présence d’autres objets dans la ceinture de Kuiper, vaste ceinture d’astéroïdes au-delà de l’orbite de Neptune.

Les raisons du changement

Derrière la définition scientifique se cache une problématique pratique. Les nouvelles informations sur Pluton ramenées par les sondes spatiales montrent une planète beaucoup plus petite qu’on le pensait, qui ne se distingue pas vraiment d’autres gros objets de la ceinture de Kuiper. Cela laissait penser à certains astronomes que l’on allait devoir appeler “planètes” de plus en plus d’objets, jusqu’à en faire une liste sans fin. D’où une motivation de redéfinir le statut de planète pour limiter le nombre d’entrants dans ce club fermé.

Le “vote populaire” de Harvard

La semaine dernière, le Harvard Smithsonian Center for Astrophysics (CfA) a organisé une soirée-débat sur le sujet, invitant l’assistance à voter en fin de conférence. L’occasion pour l’un des intervenants de rappeler les arguments qui ont présidé à la nouvelle définition, et pour un autre de pointer du doigt les problèmes que cela pose… En introduction, il était mis en avant le processus de vote en lui-même : 400 membres de l’UAI sur les 6000 qu’elle comporte ont voté la nouvelle définition, ce qui pose un problème de représentativité…  Et l’animateur jouait aussi sur les mots : “un hamster nain est toujours un petit hamster”, affirmait-il, en réaction à l’appellation “planète naine”. Pour lui, une planète naine est toujours une planète… D’autres arguments des “contre” touchent à l’existence d’autres planètes autour d’autres soleils. La définition de “planète” telle qu’adoptée par l’UAI ne concerne en effet que notre propre système solaire, ce qui peut apparaître restrictif à l’heure où l’on découvre des milliers d’exoplanètes grâce aux télescopes spatiaux. Le Dr Dimitar Sasselov, professeur d’astronomie à Harvard, brossait un portrait très divers de ces planètes d’ailleurs, dont certaines ne rentreraient pas dans la définition de l’UAI… Qui précisons-le n’a jamais affirmé qu’elle s’appliquerait en-dehors du système solaire. Le Dr Sasselov proposait alors une nouvelle définition : “Le plus petit morceau de matière sphérique qui se forme autour d’une étoile ou de restes d’étoile”. Une définition large, selon laquelle, bien sûr, Pluton (et quelques autres) serait bien une planète.
Le vote du public qui s’ensuivit montra de manière indiscutable l’attachement de l’audience à la notion selon laquelle Pluton est une planète. Ce vote n’est évidemment pas représentatif, mais c’était aussi l’un des buts perceptibles des organisateurs : contester la représentativité du vote de l’UAI en 2006…

Revenir au statu quo?

Ce qui semble certain, c’est que l’UAI n’a pas vraiment pris en compte l’attachement populaire à Pluton dans sa décision, et a principalement voulu établir un “principe” pour prévenir l’augmentation croissante de planètes potentielles, comme si celles-ci devaient être un club aussi fermé que l’UAI elle-même. Et quand on veut parvenir à un résultat, on peut toujours trouver une définition qui “colle”. Est-ce vraiment une démarche scientifique rigoureuse? La solution d’apaisement serait de revenir à la situation antérieure à 2006… et d’attendre. Après tout, on peut considérer Pluton comme une exception temporaire. Les autres “planètes naines”? Cérès est un astéroïde, cela ne change pas. Quant à Eris, Hauméa, Makémaké et ceux qui vont suivre, ce sont des objets de la ceinture de Kuiper, on peut leur maintenir cette définition. Avec les progrès de la science des exoplanètes, nul doute que dans les années à venir on trouvera une véritable définition de ce qu’est une planète, que ce soit autour du Soleil ou d’une autre étoile, et, à ce moment-là, on pourra reconsidérer le “cas Pluton”. Ne réécrivons pas les manuels scolaires ou notre histoire récente de l’astronomie. Pluton est notre neuvième planète, c’est inscrit dans le coeur de très nombreux amateurs d’astronomie, qu’ils soient ou non professionnels ou membres de l’UAI.   Vidéo du débat qui a eu lieu au Harvard-Smithsonian Center for Astrophysics (en anglais)    Crédit photo : les tailles des nouvelles “planètes naines” comparées à la Terre (NASA) Continue reading

Peut-on prédire scientifiquement les lieux propices aux crimes grâce aux données téléphoniques ?

Day_144_-_West_Midlands_Police_-_Facewatch_App_(8801960454).jpg
Un groupe de chercheurs affirme avoir trouvé une nouvelle méthode de prévision de la criminalité, avec un taux de réussite de 70% lors d’une expérience menée à Londres   Day_144_-_West_Midlands_Police_-_Facewatch_App_(8801960454).jpgCe n’est pas encore Minority Report, mais ça s’en approche à grands pas : on pourrait prédire les lieux les plus propices au crime à un moment donné, et ce en utilisant les données générales des opérateurs téléphoniques. C’est en tout cas la thèse défendue par un groupe de chercheurs (informatique, sciences sociales…) qui doit présenter les résultats de ses études lors de la conférence internationale de l’interaction multimodale, en novembre à Ankara (Turquie), et dont le texte est disponible sur le serveur d’articles scientifiques arXiv. Cette très sérieuse étude se veut “une approche innovante de la prévision de crimes dans une aire géographique en utilisant de multiples sources de données, en particulier celles des téléphones mobiles et des données démographiques”. Ils ont tout particulièrement centré leur étude sur les “points chauds”, à l’échelle d’une rue, par exemple, plutôt que de cartographier un quartier en particulier en fonction de ses données socio-économiques : pas question de stigmatiser des “zones de non-droit”, comme on dirait en France. Au contraire, ils mettent en avant que certaines rues dans des “beaux quartiers” attirent tout particulièrement la délinquance, alors que des endroits considérés comme des “mauvais quartiers” n’ont qu’un faible taux de criminalité. Comment, alors, détecter les “points chauds”? Les chercheurs ont pris une approche particulière, agrégeant des informations de comportement anonymisées en provenance à la fois de l’activité sur les réseaux téléphoniques et des données démographiques. Ils ont ainsi essayé de modéliser les flux de mobilité des citadins, en utilisant les données de téléphones portables comme des sortes de “capteurs d’agrégation d’activité humaine”. Ils ont divisé Londres en une grille de plus de 124 000 unités définies par leur surface, leur latitude et leur longitude. Pour chacune de ces cellules de base, ils ont utilisé des données démographiques (anonymes) en provenance de Telefonica (société propriétaire de l’opérateur O2), ainsi que des données disponibles en Open Data :
  • nombre de personnes par heure, dérivé du nombre horaire de coups de fils passés dans une zone géographique donnée
  • la tranche d’âge, le sexe et la nature des personnes concernées : le pourcentage de ceux qui travaillent dans le secteur, de ceux qui y résident, et des simples visiteurs…
  • les données géolocalisées Open Data, notamment les crimes enregistrés et leur nature, les ventes de propriétés, les flux de transports, la météo, ainsi que les profils des quartiers de Londres concernant les sans-abri, les habitations résidentielles, les populations migrantes, les espaces verts, le marché de l’immobilier, l’espérance de survie d’un commerce, les subventions municipales, le vote, l’espérance de vie, les grossesses d’adolescents, le bien-être social… En tout 68 données.
En agglomérant ces données et en les comparant aux crimes commis les mois précédents, ils ont établi un algorithme complexe devant prédire dans quelles cellules des crimes seraient susceptibles de se produire le mois suivant… ou pas. Ils y sont parvenus, avec un taux de réussite de 70%. Il faut dire qu’ils avaient déjà de la pratique en la matière  : trois des auteurs avaient en effet publié une autre étude en 2013, également en utilisant des données de téléphonie mobile, mais relative celle-ci … au bonheur quotidien des individus. Prédire les zones de crime, cela peut donc être un élément potentiellement bénéfique, notamment pour les victimes : avoir des forces de l’ordre plus sensibilisées aux zones à risque, après tout, c’est une meilleure répartition des effectifs et une efficacité accrue de ceux-ci. En théorie. Car cela ne va pas sans générer des inquiétudes. La protection de la vie privée, pour commencer, même si les données téléphoniques sont théoriquement anonymes. Bien sûr, à l’époque de Facebook et des photos privées sur le Cloud, la notion en elle-même peut sembler un peu galvaudée. Mais ce n’est pas tout. Le site Medium.com souligne le fait que des données “anonymisées” peuvent quand même servir à révéler les identités des personnes, mais, plus encore, que même si cette approche est centrée sur des lieux, “il n’est pas difficile d’imaginer que les autorités puissent pousser ce raisonnement plus loin en appliquant les techniques de prévision des crimes au comportement des individus”. Inquiétant, en effet.   Crédit photo :  Le téléphone mobile contre le crime? (Image d’illustration : La police des West Midlands (Royaume-Uni) a lancé en 2013 une application mobile nommée Face Watch sur laquelle le public peut voir les portraits de personnes recherchées / via Wikimedia Commons)
Continue reading

De Pierre Boulle à Roy Lewis, la science (ne) fait (pas) le bonheur

Featured

ede13608aab8d1101f1bb2d185a08a65
Dans son livre intitulé Les Jeux de l’esprit (1971), Boulle imagine ce que Saint-Simon avait proposé un siècle auparavant dans ses Lettres d’un citoyen de Genève (1802) : un monde gouverné par un groupe de savants, le “conseil de Newton”, et une humanité vouée à la production et à la science. Chez Boulle, le conseil de Newton a seulement été renommé le Gouvernement scientifique mondial (GSM). Oh que cela plairait à tous les scientistes d’aujourd’hui ! En effet, écrit Pierre Boulle,
les savants étaient arrivés à considérer qu’ils formaient de par le monde la véritable internationale, la seule valable, celle de la connaissance et de l’intelligence. La science était pour eux à la fois l’âme du monde et la seule puissance en mesure de réaliser les grands destins de celui-ci, après l’avoir arraché aux préoccupations triviales et infantiles de politiciens ignares et bavards. Alors, au cours de nombreux entretiens amicaux, presque fraternels, était peu à peu apparue la vision d’un avenir triomphant, d’une planète unie, enfin gouvernée par le savoir et la sagesse.
Car une seule chose animait la communauté des savants :
l’idéal connaissance était le pôle commun à tous les esprits scientifiques de cette époque. Pour les physiciens, il s’agissait d’une véritable religion ; pour les biologistes, d’une sorte d’éthique, un acte gratuit dont il sentaient confusément la nécessité impérieuse pour échapper au désespoir du néant. Les uns et les autres estimaient que cette connaissance totale ne serait atteinte que par les efforts conjugués de l’humanité toute entière.
Or les savants sont partageurs. Comment pourraient-ils garder pour eux un tel idéal de connaissance et de sagesse ? Les voici donc lancés dans un programme de prise de conscience scientifique du monde. Car ils ne veulent plus refaire les mêmes erreurs et tiennent à éviter l’écueil dangereux, autrefois sarcastiquement signalé par les romanciers d’anticipation : le partage de l’humanité en deux classes, les savants et les autres, ceux-ci condamnés aux travaux grossiers et utilitaires, ceux-là enfermés dans une tour d’ivoire, bien trop exiguë pour permettre l’épanouissement total de l’esprit. C’est là que Boulle fait une description visionnaire, qui rejoint tellement le rêve de certains vulgarisateurs et popularisateurs des sciences :
Un immense réseau de culture scientifique enserrait le monde. Un peu partout, des établissements grandioses s’étaient élevés, avec des amphithéâtres assez nombreux et assez vastes pour que, par un roulement savamment organisé, la population entière des villes et des campagnes pût y prendre place en une journée, avec des bibliothèques contenant en milliers d’exemplaires tout ce que l’homme devait apprendre pour s’élever l’esprit, depuis les rudiments des sciences jusqu’aux théories les plus modernes et les plus complexes. Ces centres étaient également pourvus d’un nombre considérable de salles d’étude, avec microfilms, appareils de projection, télévision, permettant à chacun de se familiariser avec les aspects infinis de l’Univers. Dans des laboratoires équipés des instruments les plus modernes, tout étudiant pouvait faire des expériences personnelles sur les atomes, provoquer lui-même des désintégrations, suivre le tourbillon magique des particules à travers bêtatrons et cyclotrons, mesurer avec des appareils d’une délicatesse extrême les durées de quelques milliardièmes de seconde séparant la naissance et la mort de certains mésons.
Tout va bien dans le meilleur des mondes ? Non, parce que Boulle est un adepte du “renversement ironique”, comme le nota si bien le critique Jacques Goimard. Très souvent, il s’est attelé à faire ressortir les paradoxes de l’esprit humain et le côté dérisoire de nos aspirations utopiques. Car rapidement, le GSM ne peut que constater les échecs essuyés en matière d’instruction mondiale :
Chaque famille voulait avoir sa maison particulière avec piscine. Cette soif de bien-être, ce désir du monde de s’approprier les acquisitions de la science et de la technique sans en comprendre l’esprit et sans avoir participé à l’effort intellectuel de découverte, ne se limitaient pas aux habitations. (…) Des savants, des cerveaux précieux devaient interrompre ou ralentir leurs travaux de recherche fondamentale, dirigés vers le vrai progrès, pour se mettre au service du monde et satisfaire ses besoins immodérés de confort, de luxe et de raffinement matériels.
Eh oui ! La chute est d’autant plus rude que le rêve était grand : rien à faire, l’Homme restera l’être paradoxal qu’il est, autant capable de pensées absolues que de désirs de confort matériel. Ce que Roy Lewis (à qui l’on doit le célèbre Pourquoi j’ai mangé mon père) décrit également dans son uchronie mordante La Véritable Histoire du dernier roi socialiste (1990). Sa prémisse, c’est celle d’une civilisation “socialiste” qui a mis la science et les savants sous la protection de l’Inpatco (International Patent Convention), allant au bout de quatre grands courants de pensée en vogue en 1848 :
  • les craintes prémonitoires des romantiques selon lesquelles la science et la technologie allaient séparer l’homme de la nature et de Dieu
  • le luddisme, ce mouvement ouvrier qui démolit les métiers à tisser pour sauvegarder le gagne-pain des drapiers et tisserands
  • le socialisme, conçu en réaction contre le capitalisme et le système industriel
  • la théorie darwinienne de l’évolution, qui fit entrevoir l’accession des machines à la faculté de penser et, par conséquent, la réduction de la fonction humaine au service des machines et au développement de leurs capacités.
Dans cette uchronie, une version alternative de l’Histoire telle qu’elle aurait pu être si les révolutions de 1848 avait tourné différemment, l’Inpatco n’est rien d’autre qu’un “trust universel” auquel est confié la propriété, au nom de l’humanité, de toutes les nouvelles inventions, à charge de ne les mettre en circulation que lorsqu’elles produiraient des emplois et des améliorations des conditions d’existence sans entraîner désastres ni chômage, ni destruction de la nature. Pas question par exemple d’introduire l’électricité, qui mettrait à mal les travailleurs du gaz. La bicyclette, elle, fut mise en circulation avec un grand succès, alors que une suggestion de doter les villes de vélos-taxis efficaces ou de voitures à pédalier a été repoussée avec violence par les cochers de fiacre. Résultat :
Vers le milieu des années 1860, les gouvernements et les populations laïques avaient perdu le contact avec les travaux et les objectifs des savants et des techniciens. Vers 1880, ils n’étaient plus au courant de ce qui se passait dans les réserves [laboratoires de l’Inpatco]. Le XXe siècle était déjà bien entamé qu’on sous-estimait encore largement les progrès réalisés par l’Inpatco dans les domaines scientifique et technique. Les réserves furent fermées au public. Les publications spécialisées de l’Inpatco étaient protégées et interdites de vente dans les librairies coopératives. De toutes façons, le citoyen socialiste profane n’aurait pu les comprendre.
À défaut, les peuples d’Europe et d’Amérique s’ennuient et se droguent à l’opium, distribué légalement : à eux les paysages exotiques et érotiques, bien qu’illusoires et destructeurs de cellules grises, de l’empire du pavot… Alors que chez Pierre Boulle le gouvernement scientifique produisait une humanité vautrée dans le confort, chez Roy Lewis ce luxe est inaccessible et seule la griserie de la drogue permet d’échapper à un morne quotidien. Deux extrêmes donc, mais un point commun à vingt ans d’écart : ces deux contes servent surtout à illustrer le côté dérisoire de nos aspirations modernes, et l’impossibilité pour notre société de devenir aussi savante que ses savants. Ce point de vue est intéressant, et bien traité dans les deux cas. Mais ce qui m’étonne, c’est que ces auteurs interrogent nullement les motivations des savants, lesquels ne font que ce que les gouvernements leur demande. Je fais l’hypothèse qu’aujourd’hui, avec l’essor de la sociologie des sciences, la littérature s’intéressera de plus en plus à ce qui meut les savants collectivement et individuellement. C’est le cas de quelques (grands) romans que j’ai lu récemment et que je vous recommande : Intuition d’Allegra Goodman (2006), thriller psychologique sur une suspicion de fraude dans un laboratoire de biologie ; Des éclairs de Jean Echenoz (2010), biographie romancé de Nikola Tesla ; et Solaire de Ian McEwan (2010), roman cynique sur un prix Nobel de physique en prise avec sa vie et sa carrière. N.B. : La partie sur Les Jeux de l’esprit est tirée de mon article “Retour sur le colloque Pari d’avenir : pourquoi changer les pratiques de la culture scientifique ?” (août 2008). Continue reading

Étienne Klein, le philosophe que les chercheurs aimaient

Featured

9782081270664_h430
Pour le grand physicien et vulgarisateur Richard Feynman, “la philosophie des sciences est aussi utile aux scientifiques que l’ornithologie aux oiseaux”. Les scientifiques n’ont donc pas besoin de philosopher… et pourtant ils ont une “philosophie spontanée” comme l’appelle le philosophe Louis Althusser : la croyance en la réalité objective de contenus de la connaissances ; la croyance dans la capacité de la connaissance à maîtriser objectivement ces contenus ; la croyance en l’efficacité de la méthode qui produit les contenus scientifiques. Je suis convaincu que s’il y a un philosophe que lisent les scientifiques, c’est Étienne Klein. D’une part parce qu’il est un peu comme eux : ingénieur centralien avant d’être philosophe, directeur d’un laboratoire de physique dans un institut de recherches expérimentales (le CEA). D’autre part, parce que ses livres confortent le scientisme et le matérialisme du chercheur au lieu de les questionner. Sauf dans son dernier ouvrage, “Allons-nous liquider la science ?”, qui lui vaut une épiphanie. L’auteur commence par une anecdote parisienne : invité à un dîner avec cinq chefs indiens d’Amazonie, Étienne Klein les écoute fasciner se révolter devant la menace que fait peser notre monde occidental et technologique sur le leur. Naïf (c’est lui qu’il le dit), il s’étonne que des peuples reculés tiennent un discours raisonné, logique, argumenté, précis… et constate que ce discours sur la finitude du monde rappelle celui de nos contrées. Naïf toujours (c’est moi qui le dit), il se met alors à lire les ethnologues Claude Lévi-Strauss et Philippe Descola. Surprise ! Ces peuples qui ne sont pas du tout primitifs mettent en œuvre une pensée qui est aussi la nôtre dès lors que nous cessons de penser comme des scientifiques, et se révèlent bien plus proches de la nature que le chercheur dont le métier consiste pourtant à étudier la nature. Quel coup dur ! Klein comprend alors que les problèmes posés par la puissance de la (techno)science étaient en germe dans le geste qui a fondé la science moderne : la proclamation par Galilée que la nature est écrite en langue mathématique. Cette épiphanie a ses limites : Klein refuse d’admettre que l’abstraction de l’univers apparent au profit d’un univers mathématique nous ont fait sombrer dans un objectivisme tous azimuts qui aurait totalement dévitalisé notre rapport au monde, à la nature : une certaine technoscience est devenue inquiétante, mais je n’en conclurai pas pour autant que la science moderne serait, par essence, barbare et inhumaine. Ainsi, si la physique nucléaire a rendu possible la bombe atomique, il ne lui a jamais prescrit ce but et l’homme reste l’unique responsable de ce projet de mort. Pour Klein, la science n’a jamais dit un mot à l’homme de ce qu’il doit faire… mais on risquerait de marginaliser la science en proclamant trop fort qu’elle nous dit ce qui est mais pas du tout ce qui devrait être. Klein préfère une posture de surplomb qui fait de la science une autorité pour indiquer ce que nous ne pouvons plus croire, et comment agir sur certains phénomènes. À l’inverse par exemple d’un Stephen Jay Gould, autre scientifique à penchant “philosophe”, pour qui :
les chercheurs, spécialement depuis qu’ils ont acquis la puissance et l’autorité en tant que membres d’une institution désormais bien établie, se sont aventurés au-delà de leurs domaines d’expertise personnels et ont pris part à des débats éthiques en arguant — ce qui est illogique — de la supériorité de leur savoir factuel. (Ma connaissance technique de la génétique du clonage ne me confère aucun droit d’influencer des décisions légales ou morales de créer, par exemple, une copie génétique d’un enfant mort.)
Jusqu’où les chercheurs qui avaient une inclinaison naturelle pour Étienne Klein le suivront-ils ? J’aimerais bien le savoir… Continue reading

Pourquoi la recherche est-elle inégalitaire ?

Featured

Evaluation_de_la_recherche-YGingras
Yves Gingras était de passage hier au Centre Emile Durkheim de Bordeaux, pour un séminaire consacré aux dérives de l’évaluation de la recherche, et au mauvais usage de la bibliométrie (d’après le titre de son dernier ouvrage). Je vous épargne son argumentation, que vous retrouverez en bref sur le site de l’UQÀM ou en plus long dans une note de recherche ; mais le livre ne fait que 122 pages et coûte 8 €, je vous conseille donc fortement sa lecture ! Ce qui m’intéresse, c’est la réaction de la discutante apprenant que toutes les distributions bibliométriques sont de “type Pareto” et suivent une loi dite “80-20” : ainsi, 20% des chercheurs reçoivent 80% des citations et des financements. Quel choc ! Cette anthropologue, directrice de recherche au CNRS, n’arrivait pas à s’en remettre : ainsi, la science serait fondamentalement inégalitaire ? Où est passée la république des savants ? Le monde académique a-t-il besoin de cette structure pyramidale pour produire des énoncés scientifiquement pertinents ? Yves Gingras entra alors dans l’explication due à Derek J. de Solla Price de la “distribution des avantages cumulés”. Celle-ci correspond au phénomène sociologique qui veut que la richesse entraîne la richesse, ce que constate la sagesse populaire qui affirme qu’on ne prête qu’aux riches ; phénomène portant le joli nom d’effet Matthieu (d’après l’évangile selon St Matthieu 25-29 : “Car on donnera à celui qui a et il sera dans l’abondance, mais à celui qui n’a pas, même ce qu’il a lui sera retiré”). Ainsi, même si nous partons à peu près tous égaux en terme de capital scientifique, de faibles différences au démarrage vont s’amplifier par effet Matthieu et provoquer une importante stratification sociale. Je fis alors remarquer qu’on pourrait voir la masse anonyme des 80% de chercheurs comme des chercheurs besogneux, produisant de la “science normale” (dans le sens de Thomas Kuhn), consolidant le socle des connaissances, utiles sans faire de vagues. Yves Gingras reconnut dans ma proposition l’hypothèse Ortega. D’après Wikipédia :
The Ortega hypothesis holds that average or mediocre scientists contribute substantially to the advancement of science. According to this hypothesis, scientific progress occurs mainly by the accumulation of a mass of modest, narrowly specialized intellectual contributions. On this view, major breakthroughs draw heavily upon a large body of minor and little-known work, without which the major advances could not happen.
Pourquoi “l’hypothèse Ortega” ? Parce que le philosophe Jose Ortega y Gasset écrivait dans son livre La rebelión de las masas (trad. anglaise The Revolt of the Masses, 1932) (je souligne) :
For it is necessary to insist upon this extraordinary but undeniable fact: experimental science has progressed thanks in great part to the work of men astoundingly mediocre, and even less than mediocre. That is to say, modern science, the root and symbol of our actual civilization, finds a place for the intellectually commonplace man and allows him to work therein with success. In this way the majority of scientists help the general advance of science while shut up in the narrow cell of their laboratory, like the bee in the cell of its hive, or the turnspit of its wheel.
Les auteurs de l’ouvrage “Social Stratification Science”, qui avait justement inspiré Derek J. de Solla Price, se sont notamment intéressé à l’hypothèse Ortega. Ils ont démontré en 1972 que celle-ci était fausse (mais leur démonstration, à base de calcul de citations, est discutable selon moi). Les implications politiques sont potentiellement énormes : les auteurs suggèrent qu’on pourrait réduire le nombre d’étudiants en doctorat et supprimer les formations doctorales des plus mauvaises universités sans que ça n’altère l’avancement des connaissances ! Mais en 1985, l’un des deux auteurs publia un article avec un économiste pour montrer que le nombre de chercheurs qui auront une contribution scientifique significative est directement proportionnel au nombre de personnes qui entament une carrière de chercheur. Dans ce cas, mieux vaut ne pas diminuer le nombre de doctorants et de chercheurs ! On pourrait poursuivre cette exégèse de l’hypothèse Ortega jusqu’à épuisement du sujet. Google Scholar recense seulement 17 articles qui lui sont consacrés : qui veut se lancer dans une review complète ? Continue reading

Lecture printanière : “La science pour qui ?” sous la direction de Janine Guespin-Michel et Annick Jacq

Featured

La science pour qui?
Coordonné par deux chercheuses en biologie et microbiologie mais co-écrit avec cinq autres, ce petit livre paru fin 2013 s’inscrit dans la collection “Enjeux et débats” de l’association Espaces Marx et des Éditions du Croquant. Il synthétise des années de débat et d’analyse au sein d’Espaces Marx (en lien avec d’autres mobilisations) visant à replacer les difficultés de la recherche publique à la fois dans le cadre d’un capitalisme financiarisé en mal d’innovation et dans celui du déficit démocratique marquant les relations entre la science et la société (p. 13). On sent les auteurs passionnés par ces questions, convoquant tour à tour des travaux académiques de philosophie des sciences ou des ouvrages plus « grand public », le programme de certains partis politiques ou les conclusions d’un Conseil européen récent. Les auteurs structurent leur ouvrage de façon thématique, avec quatre parties encadrées d’une introduction et d’une conclusion. Je vais essayer ici de rendre compte plutôt de la progression logique de leur argumentation. 9782365120357FS.gif La première partie du livre s’attache à un état des lieux de la recherche française et occidentale. Revenant au tiraillement historique des sciences entre une autonomie nécessaire et une dépendance à l’égard des financeurs et des attentes de la société, ils traitent d’abord de cette question délicate de l’autonomie : la revendication du retour à l’autonomie imprègne une partie de la communauté scientifique (p. 20). Elle trouve des relais dans les mouvements de chercheurs comme “Sauvons la recherche”, qui s’opposent aux normes externes de rentabilité et d’efficacité imposées par le “nouveau management public” (p. 22). Mais comment faire abstraction de l’intrication très forte entre sciences et technique (à visée économique) ? Les auteurs nous amènent alors à étudier les rapports entre sciences et technique. La technique, écrivent-ils, est consubstantielle à l’humanité en ce qu’elle est partout présente dans nos actes quotidiens, tout ce qu’on sait faire, ce qu’ont transfère à des outils, et le rapport qu’on établit avec eux (p. 23) — au-delà même des activités de production. Vers 1820, les grandes écoles d’ingénieurs ont développé le concept des sciences appliquées pour désigner les techniques mises en œuvre dans l’industrie naissante (p. 25). C’est là qu’est née l’idée de techniques de productions rationnelles — comme directement issues des sciences —, devenue un des thèmes centraux du libéralisme puis de l’esprit républicain. Aujourd’hui, le terme de « technologie », plus noble, a remplacé chez les élites celui de « technique », d’où sont exclues les sciences humaines et sociales. Et dans la guerre économique mondiale, la technologie est devenue la base de la compétitivité avec le mot-clé « innovation ». Les auteurs s’attaquent alors à cette notion d’innovation, qui apparaît au sein du vocable « recherche et innovation » comme l’alpha et oméga des relations entre science et société. L’occasion de rappeler la stratégie de Lisbonne lancée en 2000 par le Conseil européen, pour faire de l’Europe la première « économie de la connaissance » du monde. De fait, l’innovation se retrouve placée au cœur de l’économie, et la recherche devient un maillon essentiel de la prospérité économique. Toute la recherche publique s’oriente alors dans le but de produire des innovations, la recherche fondamentale étant même réduite à des champs disciplinaires susceptibles de produire de l’innovation à très court terme, et la R&D privée reportée sur le public avec des dispositifs comme le Crédit d’impôt recherche (CIR). L’imprévisibilité et le hasard heureux (sérendipité), qui seuls peuvent déboucher sur du vraiment neuf, n’existent plus. Le champ libre est laissé à une économie de la promesse, basée sur la promesse de bienfaits sans précédent pour l’humanité, tellement spéculative qu’elle contribue à générer des bulles technologiques qui finissent forcément par éclater (p. 34). Alors qu’une innovation doit rencontrer un imaginaire social pour trouver son marché, les politiques d’innovation actuelles échouent à la fois à engager le consommateur pour définir des valeurs d’usage définies collectivement, et à trouver dans le citoyen un soutien acceptant les risques engendrés par les innovations. C’est alors que les auteurs abordent la question des publics de la science (au sens de John Dewey) : comment peuvent-ils investir les questions posées par la science et ses effets qui les concernent ? (p. 50). Sur le plan de l’éducation, la culture technique reste une « culture du pauvre » distinguant les filières professionnelles et techniques des filières générales, alors même que toute culture générale devrait inclure une réflexion sur la technique. Les actions de culture scientifique, technique et industrielle (CSTI) vont dans ce sens mais elles restent notoirement insuffisantes (en quantité ou en qualité, les auteurs ne le précisent pas). Sur le plan de l’intervention citoyenne, le débat sur les choix scientifiques et techniques reste confisqué ou exclut les profanes, laissant dans la course les seules associations dont les membres, professionnellement ou socialement, sont très proches des producteurs de science et de technologies (p. 54). L’expert est valorisé voire sacralisé, quand bien même la spécialisation des formations scientifique et la césure entre sciences de la nature et sciences humaines revient à faire des scientifiques des êtres quasiment incultes dans tous les domaines dont ils ne sont pas spécialistes, des ingénieurs formatés, (…) ou des décideurs sans formation scientifique (p. 55). Après cet état des lieux de la recherche scientifique, les auteurs reviennent sur les mobilisations et les luttes des quinze dernières années. Qui se souvient que l’European Research Council, destiné à soutenir la recherche fondamentale, fut un cadeau de l’Union européenne aux chercheurs en colère (p. 40) ? Que l’Unesco publia en 1998 une Déclaration mondiale sur l’enseignement supérieur pour le XXIe siècle, si humaniste et opposée à l’éthique néo-libérale (p. 106) ? Que le syndicat de l’enseignement supérieur SNESUP a participé en 1998 à la création de l’association Attac, puis en 2000-2011au lancement du Forum social mondial (avec le syndicat de la recherche SNCS) ? Les luttes décrites par les auteurs, dont les mouvements Sauvons la recherche (2004) et Sauvons l’université (2009), sont mues par l’idée que la recherche est un bien commun universel, qui ne peut être défendu que dans le cadre d’un service publics (p. 61). Malheureusement, elles n’ont pas toujours été couronnées de succès : les recommandations des états généraux de la recherche conclus à Grenoble en octobre 2004 ont été perverties par les équipes ministérielles successives en charge de la recherche (…) au bénéfice de la stratégie de Lisbonne (p. 64) et si les mesures portant atteinte à l’indépendance statutaire des enseignants-chercheurs ont été retirées, aucun des autres aspects de la loi Pécresse n’a été modifié. Quant aux Assises de l’enseignement supérieur et de la recherche organisées à l’automne 2012, des promesses ont été faites à la communauté scientifique dont il ne reste à peu près rien (p. 65). Enfin, les auteurs énoncent un ensemble de propositions qui sont autant de pistes pour redéfinir l’entreprise scientifique. Admettant avec humilité que leur réflexion les a conduits à faire face à de nombreuses contradictions, tensions, difficultés (p. 16), et à défaut de pouvoir en donner des résolutions définitives, ils proposent des leviers pour avancer, dans un esprit de pluralisme et de diversité. Ainsi, ils recommandent d’abord de recontextualiser la recherche, les chercheurs se devant d’être impartiaux mais pas d’être neutres : à eux de tenir compte de tout le contexte d’actions, de valeurs, de représentations, d’expériences (p. 86) dans lesquels s’insère le phénomène qu’ils étudient — une notion empruntée au philosophe Hugh Lacey, mais aussi à la philosophie féministe des sciences. Ils décrivent également la recherche participative, tout en pointant ses limites. Ils proposent de redonner du sens à la notion de science comme bien commun (l’une des co-auteurs du livre, Danièle Bourcier, est responsable scientifique des licences Creative Commons pour la France). Ils défendent l’importance d’un débat citoyen pour définir les priorités de recherche (et pas seulement trancher les choix techniques), qu’ils ne veulent pas confier aux seuls scientifiques. Ils invitent les travailleurs scientifiques et les citoyens à se rencontrer pour inventer une démocratie scientifique, et convoquent les militants des mouvements sociaux et des partis de gauche pour qu’ils s’emparent des questions scientifiques au lieu de les déléguer aux seuls scientifiques — et, ce faisant, aux détenteurs du capital (p. 103). Le cri central de l’ouvrage est un appel à la vigilance citoyenne pour résister contre les risques et les dérives de la technoscience, et pour le développement de recherches “libres” (p. 49). Mais tout en se revendiquant de gauche, les auteurs n’hésitent pas à égratigner le gouvernement actuel et sa ministre de l’enseignement supérieur et de la recherche, Geneviève Fioraso, quand elle soutient l’Opération d’intérêt national (OIN) du plateau de Saclay lancée par la droite ou qu’elle poursuit avec la loi Fioraso la même vision du rôle de la recherche que dans la loi Pécresse. Ce travail synthétique donne des armes pour comprendre la politique contemporaine de la recherche. Bien qu’émaillé d’exemples concrets, ses formules définitives manquent parfois d’illustrations concrètes. Par exemple, quand les auteurs regrettent la réduction des champs disciplinaires à ceux qui paraissent susceptibles de produire de l’innovation à très court terme (p. 31) : comment expliquer alors que l’Inra s’éloigne de la recherche appliquée à l’agriculture pour aller vers une recherche d’apparence plus fondamentale en génomique, biologie des systèmes etc. ? Ceci s’explique par le mouvement concomitant de mondialisation de la recherche qui nécessité de publier dans des revues à fort facteur d’impact. Les auteurs concluent leur propos en regrettant que la science [soit] détournée au seul service de la rentabilité d’un capital concentré aux mains d’une oligarchie financière de plus en plus réduite et puissante (p. 121). Ce langage connoté politiquement ne doit pas éloigner le lecteur curieux des transformations actuelles de la recherche, qui trouvera dans cet ouvrage un vade-mecum utile à la réflexion et l’action. Continue reading