Avez-vous le dégoût de gauche ou de droite ?

leftrightbrain.jpg
leftrightbrain.jpgLa manière dont vous réagissez aux images de vers grouillants, de carcasses pourrissantes ou de toilettes sales révélerait si vous êtes de tendance libérale ou conservatrice, les équivalents américains du clivage gauche/droite. C’est en tout cas ce que prétend une étude menée par une équipe internationale, sous la houlette d’un professeur de l’institut polytechnique de Virginie (VirginiaTech), et publiée aujourd’hui dans la revue Current Biology. Pour les chercheurs, des éléments idéologiques comme la manière dont une personne se comporte en public ou en privé, ses attitudes envers le sexe, la famille, l’éducation, l’autonomie personnelle, ou encore sur des sujets clivants comme l’avortement ou le contrôle des armes (un sujet chaud aux Etats-Unis), seraient “profondément connectés à des mécanismes biologiques de base”. L’expérience menée par ces scientifiques a consisté à étudier les données recueillies par imagerie par résonance magnétique fonctionnelle, une technologie qui permet de visualiser le fonctionnement du cerveau, lors de la projection d’images politiquement neutres, par exemple de la nourriture avariée ou des menaces physiques, en alternance avec des images paisibles de natures ou de bébés. Ces mêmes sujets ont passé également un test sur leurs positions en matière de sujets de société permettant de déterminer leur orientation politique. La comparaison des réactions avec les opinions politiques des participants est marquée lors de la projection d’images provoquant le dégoût. Cela va même plus loin : les réactions inconscientes de dégoût ne sont pas forcément en accord avec la notation consciente attribuée par les sujets aux images en question… “De manière remarquable, nous avons trouvé que la réponse du cerveau à une seule image dégoûtante était suffisante pour prédire l’idéologie politique d’un individu”, affirme le professeur Read Montague, de VirginiaTech. Selon l’étude, les réponses cérébrales aux images dégoûtantes a permis de prédire avec une exactitude de 95 à 98% la manière dont une personne répondrait au questionnaire politique. Les personnes conservatrices auraient en effet une réponse plus grande aux images dégoûtantes, mais les scientifiques ne savent pas vraiment pourquoi.

Nous ne sommes pas conçus pour réagir seulement à l’instinct

“Ces résultats suggèrent que les idéologies politiques sont calquées sur des réponses neuronales qui peuvent avoir servi à protéger nos ancêtres contre les menaces issues de leur environnement”, explique le professeur Montague. “Ces réponses neuronales peuvent avoir été transmises aux lignées familiales : il est probable que les réactions au dégoût soient héréditaires”. “Nous avons mené cette recherche parce que des précédents travaux dans un domaine voisin montraient que l’idéologie politique (plus précisément le degré auquel quelqu’un est libéral ou conservateur) était hautement héréditaire, presque autant que la taille”, assure-t-il. Reste à savoir pourquoi. “Les réponses pourraient être un rappel de réactions profondes et négatives dont nos ancêtres primitifs avaient besoin pour éviter la contamination et la maladie” Nos opinions politiques et philosophiques ne seraient donc qu’instinctives, selon ces scientifiques ? Ils y mettent toutefois un bémol : nous ne serions pas conçus pour réagir seulement à l’instinct. “La génétique détermine la taille, mais pas entièrement”, détaille Read Montague, “la nourriture, le sommeil, la malnutrition, des blessures, peuvent changer la taille finale de quelqu’un. Mais les enfants de personnes grandes ont tendance à être grands, et c’est une sorte de point de départ. Si nous pouvons commencer à comprendre que des réactions automatiques à des sujets politiques peuvent être simplement cela, des réactions, alors nous pourrions faire baisser la température de la chaudière du discours politique”. L’être humain aurait donc une “tendance politique instinctive”, qu’il serait capable de mettre de côté par sa réflexion, sa pensée raisonnée. Et lorsqu’il s’agit de sujets qui jouent sur nos instincts, ce serait une bonne raison pour ne pas les écouter et se concentrer sur notre raisonnement. En gros, même si ces chercheurs avaient raison et que l’on avait un cerveau “de droite” ou “de gauche”, cela ne devrait pas nous empêcher de faire nos propres choix basés sur des opinions raisonnées. C’est ce qui fait théoriquement l’humain, non ? Crédit photo : mix utilisant l’image IRM de Ranveig et les drapeaux de Wereon, via Wikimedia Commons) Continue reading

Les pays où Internet dort

81170.gif
81170.gif Internet serait-il comme une gigantesque colonie de créatures vivantes, dont certaines dormiraient et d’autres pas ? C’est en tout cas l’impression générée par une toute nouvelle carte du “sommeil de l’Internet” dont les premiers éléments viennent d’être rendus publics par une équipe de chercheurs de l’école d’ingénieurs en sciences de l’information de l’université de Californie du Sud (ISI). Bien entendu, l’analogie avec un être vivant est une simple image, mais comme Internet est utilisé par des créatures de chair et de sang (vous et moi), il est intéressant d’étudier ce “cycle de sommeil”. Dans certains pays, comme aux Etats-Unis ou en Europe de l’Ouest, Internet ne dort jamais, alors que dans d’autres régions du monde comme l’Asie, l’Amérique du Sud ou l’Europe de l’Est, l’activité des ordinateurs connectés peut être rapprochée du cycle jour-nuit. Cela veut-il dire que l’Occident est composé d’accros à Internet qui ne dorment jamais ? Evidemment non, mais cela donne des informations sur la nature des connexions et le développement des réseaux. Ainsi, ceux qui ont des accès permanents à des réseaux à haut débit laisseront leurs appareils connectés jour et nuit. A l’inverse, ceux qui sont toujours dépendants d’accès ponctuels ne se connecteront que lorsqu’ils utilisent vraiment la connexion, donc généralement pas au beau milieu de la nuit.

A quoi ça sert ? 

Mais l’étude n’est pas focalisée sur le cycle du sommeil des utilisateurs d’Internet. Le but est de fournir des outils pour mesurer et identifier les coupures d’Internet, par exemple : connaître les “cycles de sommeil” du réseau permet ainsi d’éviter de confondre une période d’inactivité régulière avec un gros incident réseau privant d’accès une zone géographique. “Internet est important dans nos vies et pour nos entreprises, des films en streaming aux achats en ligne”, explique John Heidemann, professeur à l’ISI et l’un des chercheurs de l’étude. “Mesurer les coupures réseau est un premier pas pour améliorer la fiabilité d’Internet”. Pour lui, “Ces données servent à établir une base de l’Internet, à comprendre comment il fonctionne, pour que nous ayons une meilleure idée de sa résistance globale, et que nous puissions détecter les problèmes plus rapidement”. L’étude permet aussi de comprendre le fonctionnement du réseau à plusieurs niveaux :
  • Les politiques de développement par pays, tout d’abord : aux USA, par exemple, la connexion haut débit permanente est un objectif gouvernemental.
  • Il y a également un rapport entre le niveau de vie et l’accès nocturne : plus un pays est riche, plus il y a de chances que son Internet soit en fonction 24 heures sur 24. L’étude montre une corrélation entre le PIB et l’activité Internet, ainsi qu’avec l’utilisation électrique par personne. “La corrélation entre l’activité du réseau et l’économie nous aide à mieux comprendre notre monde”, affirment les chercheurs. En fonction du “rythme de sommeil” de votre réseau, ils peuvent prédire dans quelle région du globe vous êtes situé…
  • Des mesures de la taille et de la croissance d’Internet. Le “sommeil” permet de mieux estimer la taille globale du réseau, que l’on a tendance à considérer en fonction du nombre d’adresses, qu’elles soient actives ou non. Prendre en compte leur activité réelle est un élément important.
  • Comprendre pourquoi les réseaux “dorment” : en pratique, pourquoi les gens éteignent leur ordinateur la nuit. Que le trafic change en fonction des activités humaines, cela semble normal, mais que le réseau soit éteint dans certains endroits répond à des causes qui touchent à la sociologie autant qu’à l’informatique. Les entreprises éteignent-elles leurs ordinateurs à la fin de la journée de travail ?  Les particuliers coupent-ils toutes leurs connexions lorsqu’ils vont se coucher ? Et pourquoi le font-ils ? Quand il s’agit de cybercafés fermant la nuit, ou de pays où la connexion s’effectue par modem et ligne téléphonique, on comprend la cause de la coupure, mais qu’en est-il des endroits à connexion haut débit illimitée ? La politique d’un pays encourage-t-elle les déconnexions ? Le manque d’adresses IP disponibles pour un fournisseur d’accès l’incite-t-il à limiter les temps de connexion de ses clients ?
On le voit, cette étude offre de nombreuses directions de recherche…

Comment ils ont procédé

Rappelons que les ordinateurs connectés à Internet se voient attribuer une adresse réseau, l’IP, qui correspond peu ou prou à une sorte de numéro de téléphone pour votre connexion. La différence, c’est que selon votre mode de connexion, ce numéro peut changer régulièrement sans que vous le sachiez, et sans que cela affecte votre utilisation d’Internet (votre fournisseur d’accès possède ces adresses et vous les attribue en fonction de ses possibilités…ou de votre type de contrat). Il y a dans le monde 4 milliards d’adresses Internet au standard IPv4 (un autre standard, IPv6, qui permettra d’avoir encore plus d’adresses, est en cours de mise en place). Sur ces 4 milliards, l’équipe de l’ISI a pu monitorer 3,7 millions de blocs d’adresses, qui représentent environ 950 millions d’adresses individuelles. En les testant toutes les 11 minutes pendant 2 mois, ils ont pu ainsi observer les tendances d’activité et d’inactivité de ces réseaux. Ces données ne représentent que le début d’une étude en cours, et elles seront présentées officiellement le 5 novembre lors d’une conférence de l’ACM (association mondiale de professionnels de l’informatique). En attendant, l’équipe continue ses recherches. “Nous avons étendu notre couverture à 4 millions de blocs (plus de 1 milliard d’adresses), explique John Heidemann, qui espère que les mesures à long terme aideront à guider le fonctionnement d’Internet.   Crédit image : Un gif animé des données recueillies. Les carrés du rose pâle au rouge indiquent des activités Internet supérieures à la moyenne mondiale, ceux allant vers le bleu, des activités inférieures à la moyenne (Courtesy of John Heidemann / USC Viterbi ISI) Continue reading

Ménage à trois

Quelle est la place des chercheurs dans notre monde actuel ? Notre société capitaliste, qui repose sur le progrès technique et scientifique, se trouve à un tournant. Les modifications climatiques, les profonds bouleversements des écosystèmes, l’explosion récente des outils numériques modèlent une société qui, d’une […]

Continue reading

Pourquoi Pluton est (toujours) une planète

all_dwarfs-lrg.en.png
(Note : ce post reflète les opinions de l’auteur)
 all_dwarfs-lrg.en.pngEn août 2006, l’Union Astronomique Internationale, association d’astronomes professionnels qui a le privilège de pouvoir nommer les objets célestes, adoptait une résolution (texte du communiqué en anglais ici) qui n’en finit pas de faire des vagues : celle de la nouvelle définition d’une planète, qui excluait de fait Pluton. Certes, une nouvelle catégorie était créée, celle de “planète naine”, qui représente plus ou moins les objets embarrassants dont on ne veut plus vraiment faire des planètes, mais que l’on ne peut pas faire entrer dans la liste des corps célestes déjà existants. Pluton, mais aussi d’autres objets lointains comme Makémaké, l’ovoïde Hauméa,  Eris, qui serait plus grosse que Pluton, ce qui en aurait fait théoriquement la 10ème planète de notre système solaire, ou encore Cérès, le plus gros objet de la ceinture d’astéroïdes. La décision de l’UAI n’a pas fait que des heureux dans une communauté d’astronomes divisée sur le sujet, mais également parmi un grand public interrogatif, voir sceptique quant à cette décision. Passer de 9 planètes à 8, c’est plus difficile à admettre que d’en accueillir une nouvelle dans le club.

Une planète, c’est quoi, selon l’UAI?

La nouvelle définition des planètes selon l’UAI prend en compte trois critères. Pour être une planète, un objet doit :
  • Etre en orbite autour du Soleil
  • Avoir une masse suffisante pour parvenir à un équilibre hydrostatique (donc avoir une forme sphérique)
  • Avoir nettoyé le voisinage de son orbite
C’est sur le troisième élément que Pluton a été “disqualifiée”, du fait de la présence d’autres objets dans la ceinture de Kuiper, vaste ceinture d’astéroïdes au-delà de l’orbite de Neptune.

Les raisons du changement

Derrière la définition scientifique se cache une problématique pratique. Les nouvelles informations sur Pluton ramenées par les sondes spatiales montrent une planète beaucoup plus petite qu’on le pensait, qui ne se distingue pas vraiment d’autres gros objets de la ceinture de Kuiper. Cela laissait penser à certains astronomes que l’on allait devoir appeler “planètes” de plus en plus d’objets, jusqu’à en faire une liste sans fin. D’où une motivation de redéfinir le statut de planète pour limiter le nombre d’entrants dans ce club fermé.

Le “vote populaire” de Harvard

La semaine dernière, le Harvard Smithsonian Center for Astrophysics (CfA) a organisé une soirée-débat sur le sujet, invitant l’assistance à voter en fin de conférence. L’occasion pour l’un des intervenants de rappeler les arguments qui ont présidé à la nouvelle définition, et pour un autre de pointer du doigt les problèmes que cela pose… En introduction, il était mis en avant le processus de vote en lui-même : 400 membres de l’UAI sur les 6000 qu’elle comporte ont voté la nouvelle définition, ce qui pose un problème de représentativité…  Et l’animateur jouait aussi sur les mots : “un hamster nain est toujours un petit hamster”, affirmait-il, en réaction à l’appellation “planète naine”. Pour lui, une planète naine est toujours une planète… D’autres arguments des “contre” touchent à l’existence d’autres planètes autour d’autres soleils. La définition de “planète” telle qu’adoptée par l’UAI ne concerne en effet que notre propre système solaire, ce qui peut apparaître restrictif à l’heure où l’on découvre des milliers d’exoplanètes grâce aux télescopes spatiaux. Le Dr Dimitar Sasselov, professeur d’astronomie à Harvard, brossait un portrait très divers de ces planètes d’ailleurs, dont certaines ne rentreraient pas dans la définition de l’UAI… Qui précisons-le n’a jamais affirmé qu’elle s’appliquerait en-dehors du système solaire. Le Dr Sasselov proposait alors une nouvelle définition : “Le plus petit morceau de matière sphérique qui se forme autour d’une étoile ou de restes d’étoile”. Une définition large, selon laquelle, bien sûr, Pluton (et quelques autres) serait bien une planète.
Le vote du public qui s’ensuivit montra de manière indiscutable l’attachement de l’audience à la notion selon laquelle Pluton est une planète. Ce vote n’est évidemment pas représentatif, mais c’était aussi l’un des buts perceptibles des organisateurs : contester la représentativité du vote de l’UAI en 2006…

Revenir au statu quo?

Ce qui semble certain, c’est que l’UAI n’a pas vraiment pris en compte l’attachement populaire à Pluton dans sa décision, et a principalement voulu établir un “principe” pour prévenir l’augmentation croissante de planètes potentielles, comme si celles-ci devaient être un club aussi fermé que l’UAI elle-même. Et quand on veut parvenir à un résultat, on peut toujours trouver une définition qui “colle”. Est-ce vraiment une démarche scientifique rigoureuse? La solution d’apaisement serait de revenir à la situation antérieure à 2006… et d’attendre. Après tout, on peut considérer Pluton comme une exception temporaire. Les autres “planètes naines”? Cérès est un astéroïde, cela ne change pas. Quant à Eris, Hauméa, Makémaké et ceux qui vont suivre, ce sont des objets de la ceinture de Kuiper, on peut leur maintenir cette définition. Avec les progrès de la science des exoplanètes, nul doute que dans les années à venir on trouvera une véritable définition de ce qu’est une planète, que ce soit autour du Soleil ou d’une autre étoile, et, à ce moment-là, on pourra reconsidérer le “cas Pluton”. Ne réécrivons pas les manuels scolaires ou notre histoire récente de l’astronomie. Pluton est notre neuvième planète, c’est inscrit dans le coeur de très nombreux amateurs d’astronomie, qu’ils soient ou non professionnels ou membres de l’UAI.   Vidéo du débat qui a eu lieu au Harvard-Smithsonian Center for Astrophysics (en anglais)    Crédit photo : les tailles des nouvelles “planètes naines” comparées à la Terre (NASA) Continue reading

Peut-on prédire scientifiquement les lieux propices aux crimes grâce aux données téléphoniques ?

Day_144_-_West_Midlands_Police_-_Facewatch_App_(8801960454).jpg
Un groupe de chercheurs affirme avoir trouvé une nouvelle méthode de prévision de la criminalité, avec un taux de réussite de 70% lors d’une expérience menée à Londres   Day_144_-_West_Midlands_Police_-_Facewatch_App_(8801960454).jpgCe n’est pas encore Minority Report, mais ça s’en approche à grands pas : on pourrait prédire les lieux les plus propices au crime à un moment donné, et ce en utilisant les données générales des opérateurs téléphoniques. C’est en tout cas la thèse défendue par un groupe de chercheurs (informatique, sciences sociales…) qui doit présenter les résultats de ses études lors de la conférence internationale de l’interaction multimodale, en novembre à Ankara (Turquie), et dont le texte est disponible sur le serveur d’articles scientifiques arXiv. Cette très sérieuse étude se veut “une approche innovante de la prévision de crimes dans une aire géographique en utilisant de multiples sources de données, en particulier celles des téléphones mobiles et des données démographiques”. Ils ont tout particulièrement centré leur étude sur les “points chauds”, à l’échelle d’une rue, par exemple, plutôt que de cartographier un quartier en particulier en fonction de ses données socio-économiques : pas question de stigmatiser des “zones de non-droit”, comme on dirait en France. Au contraire, ils mettent en avant que certaines rues dans des “beaux quartiers” attirent tout particulièrement la délinquance, alors que des endroits considérés comme des “mauvais quartiers” n’ont qu’un faible taux de criminalité. Comment, alors, détecter les “points chauds”? Les chercheurs ont pris une approche particulière, agrégeant des informations de comportement anonymisées en provenance à la fois de l’activité sur les réseaux téléphoniques et des données démographiques. Ils ont ainsi essayé de modéliser les flux de mobilité des citadins, en utilisant les données de téléphones portables comme des sortes de “capteurs d’agrégation d’activité humaine”. Ils ont divisé Londres en une grille de plus de 124 000 unités définies par leur surface, leur latitude et leur longitude. Pour chacune de ces cellules de base, ils ont utilisé des données démographiques (anonymes) en provenance de Telefonica (société propriétaire de l’opérateur O2), ainsi que des données disponibles en Open Data :
  • nombre de personnes par heure, dérivé du nombre horaire de coups de fils passés dans une zone géographique donnée
  • la tranche d’âge, le sexe et la nature des personnes concernées : le pourcentage de ceux qui travaillent dans le secteur, de ceux qui y résident, et des simples visiteurs…
  • les données géolocalisées Open Data, notamment les crimes enregistrés et leur nature, les ventes de propriétés, les flux de transports, la météo, ainsi que les profils des quartiers de Londres concernant les sans-abri, les habitations résidentielles, les populations migrantes, les espaces verts, le marché de l’immobilier, l’espérance de survie d’un commerce, les subventions municipales, le vote, l’espérance de vie, les grossesses d’adolescents, le bien-être social… En tout 68 données.
En agglomérant ces données et en les comparant aux crimes commis les mois précédents, ils ont établi un algorithme complexe devant prédire dans quelles cellules des crimes seraient susceptibles de se produire le mois suivant… ou pas. Ils y sont parvenus, avec un taux de réussite de 70%. Il faut dire qu’ils avaient déjà de la pratique en la matière  : trois des auteurs avaient en effet publié une autre étude en 2013, également en utilisant des données de téléphonie mobile, mais relative celle-ci … au bonheur quotidien des individus. Prédire les zones de crime, cela peut donc être un élément potentiellement bénéfique, notamment pour les victimes : avoir des forces de l’ordre plus sensibilisées aux zones à risque, après tout, c’est une meilleure répartition des effectifs et une efficacité accrue de ceux-ci. En théorie. Car cela ne va pas sans générer des inquiétudes. La protection de la vie privée, pour commencer, même si les données téléphoniques sont théoriquement anonymes. Bien sûr, à l’époque de Facebook et des photos privées sur le Cloud, la notion en elle-même peut sembler un peu galvaudée. Mais ce n’est pas tout. Le site Medium.com souligne le fait que des données “anonymisées” peuvent quand même servir à révéler les identités des personnes, mais, plus encore, que même si cette approche est centrée sur des lieux, “il n’est pas difficile d’imaginer que les autorités puissent pousser ce raisonnement plus loin en appliquant les techniques de prévision des crimes au comportement des individus”. Inquiétant, en effet.   Crédit photo :  Le téléphone mobile contre le crime? (Image d’illustration : La police des West Midlands (Royaume-Uni) a lancé en 2013 une application mobile nommée Face Watch sur laquelle le public peut voir les portraits de personnes recherchées / via Wikimedia Commons)
Continue reading

De Pierre Boulle à Roy Lewis, la science (ne) fait (pas) le bonheur

Featured

ede13608aab8d1101f1bb2d185a08a65
Dans son livre intitulé Les Jeux de l’esprit (1971), Boulle imagine ce que Saint-Simon avait proposé un siècle auparavant dans ses Lettres d’un citoyen de Genève (1802) : un monde gouverné par un groupe de savants, le “conseil de Newton”, et une humanité vouée à la production et à la science. Chez Boulle, le conseil de Newton a seulement été renommé le Gouvernement scientifique mondial (GSM). Oh que cela plairait à tous les scientistes d’aujourd’hui ! En effet, écrit Pierre Boulle,
les savants étaient arrivés à considérer qu’ils formaient de par le monde la véritable internationale, la seule valable, celle de la connaissance et de l’intelligence. La science était pour eux à la fois l’âme du monde et la seule puissance en mesure de réaliser les grands destins de celui-ci, après l’avoir arraché aux préoccupations triviales et infantiles de politiciens ignares et bavards. Alors, au cours de nombreux entretiens amicaux, presque fraternels, était peu à peu apparue la vision d’un avenir triomphant, d’une planète unie, enfin gouvernée par le savoir et la sagesse.
Car une seule chose animait la communauté des savants :
l’idéal connaissance était le pôle commun à tous les esprits scientifiques de cette époque. Pour les physiciens, il s’agissait d’une véritable religion ; pour les biologistes, d’une sorte d’éthique, un acte gratuit dont il sentaient confusément la nécessité impérieuse pour échapper au désespoir du néant. Les uns et les autres estimaient que cette connaissance totale ne serait atteinte que par les efforts conjugués de l’humanité toute entière.
Or les savants sont partageurs. Comment pourraient-ils garder pour eux un tel idéal de connaissance et de sagesse ? Les voici donc lancés dans un programme de prise de conscience scientifique du monde. Car ils ne veulent plus refaire les mêmes erreurs et tiennent à éviter l’écueil dangereux, autrefois sarcastiquement signalé par les romanciers d’anticipation : le partage de l’humanité en deux classes, les savants et les autres, ceux-ci condamnés aux travaux grossiers et utilitaires, ceux-là enfermés dans une tour d’ivoire, bien trop exiguë pour permettre l’épanouissement total de l’esprit. C’est là que Boulle fait une description visionnaire, qui rejoint tellement le rêve de certains vulgarisateurs et popularisateurs des sciences :
Un immense réseau de culture scientifique enserrait le monde. Un peu partout, des établissements grandioses s’étaient élevés, avec des amphithéâtres assez nombreux et assez vastes pour que, par un roulement savamment organisé, la population entière des villes et des campagnes pût y prendre place en une journée, avec des bibliothèques contenant en milliers d’exemplaires tout ce que l’homme devait apprendre pour s’élever l’esprit, depuis les rudiments des sciences jusqu’aux théories les plus modernes et les plus complexes. Ces centres étaient également pourvus d’un nombre considérable de salles d’étude, avec microfilms, appareils de projection, télévision, permettant à chacun de se familiariser avec les aspects infinis de l’Univers. Dans des laboratoires équipés des instruments les plus modernes, tout étudiant pouvait faire des expériences personnelles sur les atomes, provoquer lui-même des désintégrations, suivre le tourbillon magique des particules à travers bêtatrons et cyclotrons, mesurer avec des appareils d’une délicatesse extrême les durées de quelques milliardièmes de seconde séparant la naissance et la mort de certains mésons.
Tout va bien dans le meilleur des mondes ? Non, parce que Boulle est un adepte du “renversement ironique”, comme le nota si bien le critique Jacques Goimard. Très souvent, il s’est attelé à faire ressortir les paradoxes de l’esprit humain et le côté dérisoire de nos aspirations utopiques. Car rapidement, le GSM ne peut que constater les échecs essuyés en matière d’instruction mondiale :
Chaque famille voulait avoir sa maison particulière avec piscine. Cette soif de bien-être, ce désir du monde de s’approprier les acquisitions de la science et de la technique sans en comprendre l’esprit et sans avoir participé à l’effort intellectuel de découverte, ne se limitaient pas aux habitations. (…) Des savants, des cerveaux précieux devaient interrompre ou ralentir leurs travaux de recherche fondamentale, dirigés vers le vrai progrès, pour se mettre au service du monde et satisfaire ses besoins immodérés de confort, de luxe et de raffinement matériels.
Eh oui ! La chute est d’autant plus rude que le rêve était grand : rien à faire, l’Homme restera l’être paradoxal qu’il est, autant capable de pensées absolues que de désirs de confort matériel. Ce que Roy Lewis (à qui l’on doit le célèbre Pourquoi j’ai mangé mon père) décrit également dans son uchronie mordante La Véritable Histoire du dernier roi socialiste (1990). Sa prémisse, c’est celle d’une civilisation “socialiste” qui a mis la science et les savants sous la protection de l’Inpatco (International Patent Convention), allant au bout de quatre grands courants de pensée en vogue en 1848 :
  • les craintes prémonitoires des romantiques selon lesquelles la science et la technologie allaient séparer l’homme de la nature et de Dieu
  • le luddisme, ce mouvement ouvrier qui démolit les métiers à tisser pour sauvegarder le gagne-pain des drapiers et tisserands
  • le socialisme, conçu en réaction contre le capitalisme et le système industriel
  • la théorie darwinienne de l’évolution, qui fit entrevoir l’accession des machines à la faculté de penser et, par conséquent, la réduction de la fonction humaine au service des machines et au développement de leurs capacités.
Dans cette uchronie, une version alternative de l’Histoire telle qu’elle aurait pu être si les révolutions de 1848 avait tourné différemment, l’Inpatco n’est rien d’autre qu’un “trust universel” auquel est confié la propriété, au nom de l’humanité, de toutes les nouvelles inventions, à charge de ne les mettre en circulation que lorsqu’elles produiraient des emplois et des améliorations des conditions d’existence sans entraîner désastres ni chômage, ni destruction de la nature. Pas question par exemple d’introduire l’électricité, qui mettrait à mal les travailleurs du gaz. La bicyclette, elle, fut mise en circulation avec un grand succès, alors que une suggestion de doter les villes de vélos-taxis efficaces ou de voitures à pédalier a été repoussée avec violence par les cochers de fiacre. Résultat :
Vers le milieu des années 1860, les gouvernements et les populations laïques avaient perdu le contact avec les travaux et les objectifs des savants et des techniciens. Vers 1880, ils n’étaient plus au courant de ce qui se passait dans les réserves [laboratoires de l’Inpatco]. Le XXe siècle était déjà bien entamé qu’on sous-estimait encore largement les progrès réalisés par l’Inpatco dans les domaines scientifique et technique. Les réserves furent fermées au public. Les publications spécialisées de l’Inpatco étaient protégées et interdites de vente dans les librairies coopératives. De toutes façons, le citoyen socialiste profane n’aurait pu les comprendre.
À défaut, les peuples d’Europe et d’Amérique s’ennuient et se droguent à l’opium, distribué légalement : à eux les paysages exotiques et érotiques, bien qu’illusoires et destructeurs de cellules grises, de l’empire du pavot… Alors que chez Pierre Boulle le gouvernement scientifique produisait une humanité vautrée dans le confort, chez Roy Lewis ce luxe est inaccessible et seule la griserie de la drogue permet d’échapper à un morne quotidien. Deux extrêmes donc, mais un point commun à vingt ans d’écart : ces deux contes servent surtout à illustrer le côté dérisoire de nos aspirations modernes, et l’impossibilité pour notre société de devenir aussi savante que ses savants. Ce point de vue est intéressant, et bien traité dans les deux cas. Mais ce qui m’étonne, c’est que ces auteurs interrogent nullement les motivations des savants, lesquels ne font que ce que les gouvernements leur demande. Je fais l’hypothèse qu’aujourd’hui, avec l’essor de la sociologie des sciences, la littérature s’intéressera de plus en plus à ce qui meut les savants collectivement et individuellement. C’est le cas de quelques (grands) romans que j’ai lu récemment et que je vous recommande : Intuition d’Allegra Goodman (2006), thriller psychologique sur une suspicion de fraude dans un laboratoire de biologie ; Des éclairs de Jean Echenoz (2010), biographie romancé de Nikola Tesla ; et Solaire de Ian McEwan (2010), roman cynique sur un prix Nobel de physique en prise avec sa vie et sa carrière. N.B. : La partie sur Les Jeux de l’esprit est tirée de mon article “Retour sur le colloque Pari d’avenir : pourquoi changer les pratiques de la culture scientifique ?” (août 2008). Continue reading

Étienne Klein, le philosophe que les chercheurs aimaient

Featured

9782081270664_h430
Pour le grand physicien et vulgarisateur Richard Feynman, “la philosophie des sciences est aussi utile aux scientifiques que l’ornithologie aux oiseaux”. Les scientifiques n’ont donc pas besoin de philosopher… et pourtant ils ont une “philosophie spontanée” comme l’appelle le philosophe Louis Althusser : la croyance en la réalité objective de contenus de la connaissances ; la croyance dans la capacité de la connaissance à maîtriser objectivement ces contenus ; la croyance en l’efficacité de la méthode qui produit les contenus scientifiques. Je suis convaincu que s’il y a un philosophe que lisent les scientifiques, c’est Étienne Klein. D’une part parce qu’il est un peu comme eux : ingénieur centralien avant d’être philosophe, directeur d’un laboratoire de physique dans un institut de recherches expérimentales (le CEA). D’autre part, parce que ses livres confortent le scientisme et le matérialisme du chercheur au lieu de les questionner. Sauf dans son dernier ouvrage, “Allons-nous liquider la science ?”, qui lui vaut une épiphanie. L’auteur commence par une anecdote parisienne : invité à un dîner avec cinq chefs indiens d’Amazonie, Étienne Klein les écoute fasciner se révolter devant la menace que fait peser notre monde occidental et technologique sur le leur. Naïf (c’est lui qu’il le dit), il s’étonne que des peuples reculés tiennent un discours raisonné, logique, argumenté, précis… et constate que ce discours sur la finitude du monde rappelle celui de nos contrées. Naïf toujours (c’est moi qui le dit), il se met alors à lire les ethnologues Claude Lévi-Strauss et Philippe Descola. Surprise ! Ces peuples qui ne sont pas du tout primitifs mettent en œuvre une pensée qui est aussi la nôtre dès lors que nous cessons de penser comme des scientifiques, et se révèlent bien plus proches de la nature que le chercheur dont le métier consiste pourtant à étudier la nature. Quel coup dur ! Klein comprend alors que les problèmes posés par la puissance de la (techno)science étaient en germe dans le geste qui a fondé la science moderne : la proclamation par Galilée que la nature est écrite en langue mathématique. Cette épiphanie a ses limites : Klein refuse d’admettre que l’abstraction de l’univers apparent au profit d’un univers mathématique nous ont fait sombrer dans un objectivisme tous azimuts qui aurait totalement dévitalisé notre rapport au monde, à la nature : une certaine technoscience est devenue inquiétante, mais je n’en conclurai pas pour autant que la science moderne serait, par essence, barbare et inhumaine. Ainsi, si la physique nucléaire a rendu possible la bombe atomique, il ne lui a jamais prescrit ce but et l’homme reste l’unique responsable de ce projet de mort. Pour Klein, la science n’a jamais dit un mot à l’homme de ce qu’il doit faire… mais on risquerait de marginaliser la science en proclamant trop fort qu’elle nous dit ce qui est mais pas du tout ce qui devrait être. Klein préfère une posture de surplomb qui fait de la science une autorité pour indiquer ce que nous ne pouvons plus croire, et comment agir sur certains phénomènes. À l’inverse par exemple d’un Stephen Jay Gould, autre scientifique à penchant “philosophe”, pour qui :
les chercheurs, spécialement depuis qu’ils ont acquis la puissance et l’autorité en tant que membres d’une institution désormais bien établie, se sont aventurés au-delà de leurs domaines d’expertise personnels et ont pris part à des débats éthiques en arguant — ce qui est illogique — de la supériorité de leur savoir factuel. (Ma connaissance technique de la génétique du clonage ne me confère aucun droit d’influencer des décisions légales ou morales de créer, par exemple, une copie génétique d’un enfant mort.)
Jusqu’où les chercheurs qui avaient une inclinaison naturelle pour Étienne Klein le suivront-ils ? J’aimerais bien le savoir… Continue reading

Pourquoi la recherche est-elle inégalitaire ?

Featured

Evaluation_de_la_recherche-YGingras
Yves Gingras était de passage hier au Centre Emile Durkheim de Bordeaux, pour un séminaire consacré aux dérives de l’évaluation de la recherche, et au mauvais usage de la bibliométrie (d’après le titre de son dernier ouvrage). Je vous épargne son argumentation, que vous retrouverez en bref sur le site de l’UQÀM ou en plus long dans une note de recherche ; mais le livre ne fait que 122 pages et coûte 8 €, je vous conseille donc fortement sa lecture ! Ce qui m’intéresse, c’est la réaction de la discutante apprenant que toutes les distributions bibliométriques sont de “type Pareto” et suivent une loi dite “80-20” : ainsi, 20% des chercheurs reçoivent 80% des citations et des financements. Quel choc ! Cette anthropologue, directrice de recherche au CNRS, n’arrivait pas à s’en remettre : ainsi, la science serait fondamentalement inégalitaire ? Où est passée la république des savants ? Le monde académique a-t-il besoin de cette structure pyramidale pour produire des énoncés scientifiquement pertinents ? Yves Gingras entra alors dans l’explication due à Derek J. de Solla Price de la “distribution des avantages cumulés”. Celle-ci correspond au phénomène sociologique qui veut que la richesse entraîne la richesse, ce que constate la sagesse populaire qui affirme qu’on ne prête qu’aux riches ; phénomène portant le joli nom d’effet Matthieu (d’après l’évangile selon St Matthieu 25-29 : “Car on donnera à celui qui a et il sera dans l’abondance, mais à celui qui n’a pas, même ce qu’il a lui sera retiré”). Ainsi, même si nous partons à peu près tous égaux en terme de capital scientifique, de faibles différences au démarrage vont s’amplifier par effet Matthieu et provoquer une importante stratification sociale. Je fis alors remarquer qu’on pourrait voir la masse anonyme des 80% de chercheurs comme des chercheurs besogneux, produisant de la “science normale” (dans le sens de Thomas Kuhn), consolidant le socle des connaissances, utiles sans faire de vagues. Yves Gingras reconnut dans ma proposition l’hypothèse Ortega. D’après Wikipédia :
The Ortega hypothesis holds that average or mediocre scientists contribute substantially to the advancement of science. According to this hypothesis, scientific progress occurs mainly by the accumulation of a mass of modest, narrowly specialized intellectual contributions. On this view, major breakthroughs draw heavily upon a large body of minor and little-known work, without which the major advances could not happen.
Pourquoi “l’hypothèse Ortega” ? Parce que le philosophe Jose Ortega y Gasset écrivait dans son livre La rebelión de las masas (trad. anglaise The Revolt of the Masses, 1932) (je souligne) :
For it is necessary to insist upon this extraordinary but undeniable fact: experimental science has progressed thanks in great part to the work of men astoundingly mediocre, and even less than mediocre. That is to say, modern science, the root and symbol of our actual civilization, finds a place for the intellectually commonplace man and allows him to work therein with success. In this way the majority of scientists help the general advance of science while shut up in the narrow cell of their laboratory, like the bee in the cell of its hive, or the turnspit of its wheel.
Les auteurs de l’ouvrage “Social Stratification Science”, qui avait justement inspiré Derek J. de Solla Price, se sont notamment intéressé à l’hypothèse Ortega. Ils ont démontré en 1972 que celle-ci était fausse (mais leur démonstration, à base de calcul de citations, est discutable selon moi). Les implications politiques sont potentiellement énormes : les auteurs suggèrent qu’on pourrait réduire le nombre d’étudiants en doctorat et supprimer les formations doctorales des plus mauvaises universités sans que ça n’altère l’avancement des connaissances ! Mais en 1985, l’un des deux auteurs publia un article avec un économiste pour montrer que le nombre de chercheurs qui auront une contribution scientifique significative est directement proportionnel au nombre de personnes qui entament une carrière de chercheur. Dans ce cas, mieux vaut ne pas diminuer le nombre de doctorants et de chercheurs ! On pourrait poursuivre cette exégèse de l’hypothèse Ortega jusqu’à épuisement du sujet. Google Scholar recense seulement 17 articles qui lui sont consacrés : qui veut se lancer dans une review complète ? Continue reading