Overblog
Suivre ce blog Administration + Créer mon blog
26 mars 2013 2 26 /03 /mars /2013 17:18

 

La nébuleuse de la tête de cheval


La nébuleuse de la tête de cheval

 

 

S

 

ur son blog, Sylvestre Huet rapporte la surconsommation de médicaments contenant de l’iode par les français lors du pic de sensibilisation à l’accident de Fukushima.

Ce genre de comportement, alors même que l’absorption d’iode n’est pas sans danger et que les retombées de Fukushima sur le sol de la métropole n’étaient même pas mesurables, démontre le difficile rapport entre les scientifiques et le grand public.

Il faut dire que le précédent du fiasco de communication lors de l’accident de Tchernobyl pouvait justifier une certaine méfiance envers les autorités.

Dans la relation du grand public avec la science, Etienne Klein rappelle aussi combien la science est souvent contre-intuitive. Il y voit une des raisons de cet illettrisme scientifique des français. On se souvient de l’expérience de Galilée à Pise pour démontrer la loi de la gravitation universelle aujourd’hui reconnue sans difficulté mais qui allait à l’encontre de l’idée intuitive que la durée de chute des corps dépendait de leur poids.

On peut aussi citer la difficulté de faire la part des choses lorsque, souvent pour des questions d’intérêts, certains se plaisent à manipuler la science pour semer le doute face à un consensus gênant.

On se rappelle de l’attitude des fabricants de cigarettes face à l’évidence du lien entre la consommation de tabac et le cancer du poumon ou encore plus récemment l’offensive des climatosceptiques niant l’évidence d’un lien entre le réchauffement climatique et les émissions de gaz à effet de serre dues à l’activité humaine.

Mais l’illettrisme scientifique c'est aussi et peut-être d’abord une question de vocabulaire.

Pour comprendre il faut à la fois partager un vocabulaire et des règles grammaticales apprises depuis la plus jeune enfance.

Si les règles grammaticales semblent en général respectées par les scientifiques, il n’en est pas de même du vocabulaire utilisé qui manipule des objets dont la représentation même pose problème puisqu’elle échappe généralement à nos sens. Essayez donc de vous représenter par exemple un boson de Higgs.

Comment dès lors comprendre les interventions des scientifiques qui parlent dans leur jargon d’autant que la difficulté se corse encore du fait de certaines "inférences implicites", absolument obscures pour le vulgum pecus mais évidentes pour les têtes pensantes de ces "savants".

Albert Einstein disait "si vous ne pouvez expliquer un concept à un enfant de six ans, c'est que vous ne le comprenez pas complètement".

A lire certains écrits à vocation vulgarisatrice on peut parfois douter que leurs auteurs aient vraiment compris les concepts qu’ils exposent.

Je ne suis cependant pas sûr qu’Albert Einstein se soit appliqué à lui-même son précepte pour expliquer sa théorie de la relativité générale.

Je mets au défi un non-spécialiste (dont je suis) de comprendre l’objet même du prix Abel qui récompense le mathématicien belge Pierre Deligne "pour ses contributions fondamentales à la géométrie algébrique et pour leur impact continu sur la théorie des nombres, la théorie des représentations et les domaines connexes".

Le travail fait par les journalistes scientifiques pour rendre accessible les résultats de la science au commun des mortels est à la fois essentiel et considérable mais il faudrait plus encore.

Alors que la science et la technologie bouleversent littéralement notre mode de vie voire notre mode de pensée, le désintérêt général pour la science commence dès la plus tendre enfance.

Nos gamins manipulent avec une agilité impressionnante et de plus en plus jeunes, smartphones, tablettes et autres consoles de jeux et pourtant le corps enseignant n’est absolument pas armé pour alimenter chez eux cette sensibilité et cette curiosité pour la science et la technologie qui sont pourtant les fondements même de tout apprentissage.

De plus, l’école française fait preuve d’une sorte de manichéisme archaïque en opposant les filières dites littéraires des filières scientifiques et technologiques. La bosse des maths est encore trop souvent mise en avant pour justifier un désert éducatif.

La tâche est donc rude pour désenclaver la connaissance scientifique de son ghetto.

La première des priorités n’est-elle pas de ne pas désespérer la curiosité naturelle des plus jeunes au prétexte qu’"ils ne peuvent pas comprendre" alors que le problème c’est qu’on ne fait rien pour que les professeurs des écoles puissent simplement "expliquer" et surtout donner le goût de la science à nos bambins ?


Patrice Leterrier

26 mars 2013

Fichier PDF

Partager cet article
Repost0
18 mars 2013 1 18 /03 /mars /2013 14:01

 

 Computer Science and Artificial Intelligence Lab (CSAIL)


 

M

 

ichel Alberganti sur Slate.fr nous fait découvrir un programme de traitement de vidéo mise au point par le MIT permettant de déceler des changements de couleurs ou des mouvements imperceptibles à l’œil nu.

Il passe ensuite en revue les applications médicales, de surveillance pour la sécurité (par exemple observation amplifiée des mouvements d’une grue) mais aussi policières (détecteur de mensonge) qu’un tel outil pourrait permettre.

On est impressionné par les nouvelles possibilités de monitoring médical non invasif de cet outil notamment pour la surveillance de nouveaux nés prématurés mais aussi pour déceler des anomalies comme le risque d’anévrisme.

On peut être plus réservé sur les applications visant à capter les sentiments de prévenus par exemple.

La chose devient carrément terrifiante quand on envisage l’usage que pourrait en faire des employeurs pour déceler des réactions cachées de candidats en entretien d'embauche.

Il y a un véritable problème déontologique à utiliser unilatéralement et à l'insu d'une personne des instruments pouvant révéler des choses de son intimité.

D'une manière plus globale, le problème que pose tous ces outils de "réalité augmentée" c'est celui d'une "fracture technologique" entre ceux qui les maîtriseront et ceux qui, pour des raisons économiques ou d'inégalités face au pouvoir social ou économique, n'en disposeront pas.

La réalité augmentée qui se confond avec le virtuel pose aussi un problème d'adaptation des apprentissages voire même de "câblage" neuronal chez les plus jeunes sujets.

On sait qu’ils sont déjà confrontés de plus en plus jeunes à cet environnement hybride avec les jeux vidéos, les téléphones et les tablettes.

On a déjà constaté que les addictions aux jeux électroniques n’étaient pas sans conséquence sur la « circuiterie » des adolescents avec notamment un risque de désensibilisation à la violence.

Nous passons d’un "Homo télévisuel" qui change déjà considérablement d’un "Homo Gutenbergois" à une sorte d’"Homo cybernétique" de plus en plus dépendant de "prothèses" de toutes sortes et en particulier communicantes et mnésiques et pour lequel la frontière entre le réel et le virtuel devient de plus en plus ténue.

Nous sommes et serons de plus en plus confortés à un bain informationnel inédit dans l’histoire de l’évolution, une sorte d'"exosoi" venant s'ajouter, sans le filtre dont nos sens "naturels" disposent et qui a pris des millénaires à se construire, à notre "appréhension" du monde et des autres.

On voit bien déjà comment les outils de communication modernes qui ont envahi notre vie de tous les jours modifient les comportements dans nos relations avec les autres et dans ce qui n'est aujourd'hui qu'une augmentation à la fois encyclopédique et fractale de nos mémoires.

Mais les applications, aujourd’hui réservées au monde médical et à celui des assurances (ex. IBM Watson) se généraliseront sans aucun doute.

Nous disposerons bientôt de possibilités d'augmentation de nos capacités cognitives, des sortes de béquille de "l'intelligence".

Rien ne pourra empêcher ce couplage de plus en plus important entre nos capacités à la fois sensitives et cognitives issues de la lente et fabuleuse histoire de l’évolution et les outils technologiques qui deviennent nos béquilles d’une réalité augmentée, voire l’invasion du virtuel dans notre vision du monde et des autres.

Certains y voient déjà le signe d’une évolution vers ce qu’ils appellent une "transhumanité".

Ce qu’il semble hélas évident c’est que ces formidables évolutions (on parle aussi un peu rapidement de progrès) ne s’accompagnent pas d’une réflexion collective sur les conséquences éthiques et sociologiques à la hauteur des enjeux qu'elles soulèvent.


Patrice Leterrier

18 mars 2013

Fichier PDF

Partager cet article
Repost0
17 mars 2013 7 17 /03 /mars /2013 12:42

 

Awash_river.jpg


 

L

 

a rivière Awash coule dans la vallée du grand Rift avant d’aller se jeter dans le lac salé Abbé dans le pays Afar de Djibouti dont les rives sont bordées de cristaux de sel et sur lequel on peut admirer des colonies de flamants roses.

En fin d’après midi le spectacle devient lunaire et c'est sans doute pour cela que le lac Abbé a inspiré le réalisateur de "La planète des singes".

Mais c’est dans la région de Hadar, au nord-est de l’Éthiopie au bord de la rivière Awash que le premier fragment du fossile de Lucy fût repéré par Donald Johanson le samedi 30 novembre 1974.

Yves Coppens a consacré une partie de sa vie à l’étude des restes de cette jeune Australopithecus afarensis datés de 3,4 millions d’années qui révolutionna notre vision de l’origine de l’homme en révélant déjà une marche bipède.

Depuis l’aventure de l’homme moderne, bien que faisant encore aujourd’hui l’objet de conjectures chez les anthropologues, semblait apparaître comme une série d’évolution linéaire depuis l’Homo Habilis, celui qui semble notre plus vieil ancêtre avec ses 3 millions d’années, en passant par l’Homo Erectus a qui l’on doit la découverte du feu et de la cuisson des aliments qui ont joué un si grand rôle dans le développement du cerveau.

Il émigra de son berceau africain une première fois vers l’Asie il y a 2 millions d’années puis vers l’Europe un million d’années plus tard.

Ce n’est qu’en 2005 que les deux crânes, découverts en 1967 dans la vallée de l’Omo le long du rift éthiopien, ont permis de prétendre que l’homme moderne serait apparu il y a environ 200 000 ans.

L’histoire paraissait celle de l’émergence d’une espèce bénie des Dieux qui allait se rependre sur la terre à partir de cette origine commune africaine comme l’homme de Cro-Magnon qui vivait il y a 40 000 ans en Dordogne.

Depuis la génétique moderne a permis de rechercher le plus récent ancêtre patrilinéaire commun c’est à dire l'homme de qui tous les chromosomes Y des hommes vivants descendent.

En 2011, l’équipe de généticiens des populations dirigée par Fulvio Cruciani a calculé que le plus récent ancêtre patrilinéaire commun daterait d'environ 140 000 années.

L’histoire rejoignait en quelque sorte la bible en nous faisant tous descendre d’un Adam génétique unique. Il existe aussi une Eve mitochondriale.

La chose paraissait entendue jusqu’à ce qu’on analyse l’ADN d’un certain Albert Perry, citoyen américain décédé d’origine africaine, et que l’on découvre qu’il descendait d’une lignée qu’il fallait faire remonter jusqu’à 338 000 ans pour découvrir un ancêtre commun avec notre Adam génétique.

Les recherches ont permis d’identifier qu’Albert Percy partageait le même héritage génétique que les Mbo, un peuple bantou d’Afrique centrale, vivant dans le sud-ouest du Cameroun.

Mais, il y a 338 000 ans, l’homme moderne n’existait pas !

La belle histoire de l’homme moderne, évolution ultime d’une sélection naturelle linéaire, semble bien devoir être abandonnée pour un roman plus passionnant et plus touffu fait de croisements successifs, résultats du hasard de rencontres entre des espèces proches vivant dans les mêmes niches écologiques.

Ces frasques paléontologiques auraient finalement donné Homo Sapiens triomphateur de ces infidélités multiples.

Cette hypothèse est corroborée par le fait qu’on trouve aussi dans notre patrimoine génétique des traces de l’Homme de Neandertal.

Nous voilà donc avec une aventure plus complexe où l’homme moderne aurait cohabité avec d’autres espèces d’hominidés dont la disparition reste aujourd’hui un mystère même si des chercheurs de l'Institut d'anthropologie cognitive et évolutive à l'Université d'Oxford supposent que les gros yeux du Néandertalien auraient laissé moins de place au développement des fonctions cognitives et précipitaient ainsi leur disparition.

Comme quoi il vaut mieux ne pas avoir les yeux plus grands que son cerveau…


Patrice Leterrier

17 mars 2013

Fichier PDF

Partager cet article
Repost0
5 mars 2013 2 05 /03 /mars /2013 17:45

cerveau-décision


E

n 1983 Benjamin Libet avait défrayé la chronique en révélant l’existence d’une activité cérébrale précédant la conscience d’une décision de 350 millisecondes.

Il remettait en cause la notion de libre arbitre puisque la volonté consciente, assimilée à la liberté de décider et d’agir, ne serait pas le déclencheur de l’action.

Cette étude a fait l’objet de nombreuses crtiques méthodologiques mais, en 2008, l’équipe de Chun Siong Soon mettait en évidence un retard de 7 à 10 secondes entre l’activité neuronale de préparation de l’action et la prise de décision consciente.

Les neurologues avaient alors proposé que le seul moyen pour la conscience d’interférer sur une décision prise en amont puisse être de bloquer l’action avant qu’elle ne soit exécutée.

Des travaux récents du docteur Patrick Haggard et de ses collègues de l’Institut des neurosciences cognitives de Londres contredisent cette hypothèse.

Ils viennent en effet d’observer que même lorsque nous décidons de bloquer une décision prise par les neurones au niveau pré-conscient, un autre signal cérébral est détectable quelques dizaines de millisecondes en amont.

Donc quand nous décidons de bloquer une action décidée par le cerveau, cette décision semble, elle aussi, déterminée de façon non consciente.

Mais tous ces résultats d’expériences sur le pré-conscient qui précéderait la conscience dans l’activation de nos actions ne seraient-ils pas une sorte de "mirage" parce que nous avons une conception erronée de la conscience comme un processus séquentiel dont le centre de décision unique se trouverait être la conscience que nous avons de nos "prises de décision" ?

Si vous vous êtes fiés au compte à rebours diffusé par les chaines télévision pour inaugurer le premier de l’an, vous avez en fait embrassé votre chéri(e) au moins une seconde après le passage décisif d’une année à l’autre ?

En effet le temps de recevoir le signal sur votre récepteur TNT par réseau hertzien ou sur votre box ADSL par fil téléphonique et le moment ou l’image s’affiche sur votre écran, il y a des algorithmes de décompression et de conversion digital analogique qui interviennent pour fabriquer l’image et le son que vous recevez "en direct".

Il semble bien qu’un décalage temporel soit aussi nécessaire au cerveau pour "fabriquer" l’image mentale qui monte dans l’espace neuronal de travail conscient décrit par Jean-Pierre Changeux et Stanislas Dehaene.

Ce délai inhérent à la nature physique de la conscience qui met en œuvre la diffusion de flux nerveux à travers des millions voire des milliards de synapses pourrait peut-être expliquer simplement les résultats des expériences mentionnées ci-dessus.

Si nous suivons les dernières recherches sur le fonctionnement bayésien du cerveau nous devons supposer qu’une prise de décision est une évaluation statistique de l’adéquation de celle-ci sélectionnée dans un ensemble de décisions possibles.

Il n’y a donc rien de particulièrement étonnant que la décision sélectionnée par ce type de fonctionnement statistique se trouve représentée dans le cortex avant même qu’elle ait eu le temps d’atteindre c'est-à-dire d’"activer" l’espace neuronal de travail conscient.

La conscience de nos décisions ne serait que l’ultime étape d’un processus complexe mettant en œuvre les capacités statistiques de "décider" en fonction des données pertinentes à la situation mettant en jeu des mécanismes qui dépassent largement une apparition ultime à la conscience.

Notre libre arbitre est-il une illusion ou intervient-il déjà à un niveau pré-conscient comme une sorte de "régulateur" des mécanismes de décision ?

Il pourrait être aussi une solution trouvée par l’évolution pour régler élégamment les problèmes indécidables tout en nous rendant pleinement "responsable" des décisions prises.


Patrice Leterrier

5 mars 2013

Fichier PDF

Partager cet article
Repost0
25 février 2013 1 25 /02 /février /2013 14:10

 

mirroir-1.jpg


 

L

 

a conscience de soi c'est-à-dire cette capacité à se concevoir comme une entité distincte de l’environnement et des autres est l’un des processus les plus mystérieux et les plus fascinants de l’esprit humain.

A l’occasion de la sortie de son dernier livre L’autre moi-même le neuroscientifique Antonio Damasio nous apprend que "contrairement à l’idée répandue selon laquelle la conscience est produite par le cortex cérébral en tant que structure la plus récemment apparue dans notre histoire évolutive", des structures du tronc cérébral seraient "fondatrices du protosoi" une sorte de conscience qu’"il y a un corps qui est là, et qui vit"

La conscience ne serait donc pas le privilège de l’homme et remonterait à un stade d’évolution que nous partageons sûrement avec les primates mais aussi avec beaucoup d’espèces dont les reptiles et les mammifères.

Dans ce voyage à travers le temps il poursuit en ajoutant que, plus récemment, "la musique, langage, peinture, justice, morale sont autant de productions collectives qui, depuis une échelle de temps de l’ordre de 100 000 ans, régulent la vie des groupes".

Il ajoute que "l’émergence de nouvelles cultures, celle de nouveaux systèmes de représentation ou de régulation sociale, peuvent agir en retour sur le fonctionnement de l’esprit humain et sur les structures du cerveau".

La maturation du cerveau est un processus lent qui ne se finalise guère qu’après 25 ans.

L’espérance de vie de nos ancêtres ne dépassait guère cette échéance et donc la culture de l’ancêtre devait être prépondérante puisqu’il était le seul porteur des traditions et de la sagesse.

La culture était essentiellement locale, principalement orale (si on exclut les peintures et le culte des morts), faite de rituels construits dans une vision magique de l’univers. C’est encore clairement le cas dans les sociétés primitives.

Selon le psychologue Julian Jaymes ce n’est que vers 3000 avant notre ère qu’une évolution culturelle majeure aurait favorisé l’essor de l’introspection qui a permis de "faire évoluer vers des formes de soi autobiographique plus intégrées, portant la conscience de soi à des niveaux plus avancés."

Ce soi autobiographique culturel et propre à l’homme, se nourrit de l’existence de cette forme ancestrale de conscience et inscrit l’évolution de la conscience humaine dans un cursus d’abord biologique long puis dans un temps culturel récent infiniment plus court.

Depuis à peine un demi-siècle l’environnement de l’homme s’est transformé de manière drastique.

D’un monde où les hommes ne quittaient guère leurs régions natales, ne recevaient qu’une éducation formatée à l’école obligatoire et laïque, n’échangeaient qu’avec ses proches et son voisinage et à travers le courrier postal, ne disposaient que des livres et des journaux pour ouvrir une fenêtre sur le monde, la démocratisation des transports, la révolution médiatique puis l’explosion du numérique ont fait voler en éclats tous les schémas classiques de la communication et de la transmission de la culture et de l’éducation.

Aujourd’hui l’ère de l’ordinateur personnel et peut-être celle du web ouvert se terminent.

Ils sont de plus en plus enfouis dans des appareils mobiles et nous voyons apparaître une nouvelle grammaire gestuelle commune avec des applications communicantes accessibles à tous en permanence grâce à la généralisation des smartphones et des tablettes qui rend l’usage de ces prothèses communicantes immédiat et naturel tout au moins pour les générations digitales natives.

L’univers des utilisateurs s’élargit à une communauté libérée de toute contrainte non seulement spatiale mais aussi temporelle avec généralisation de l’usage de l’asynchronisme sur les courriels, les réseaux sociaux, les tweets, les SMS.

Nous sommes à la veille d’une extension de cet univers avec l’apparition de l’internet des objets, c'est-à-dire la connexion généralisée d’objets de notre vie quotidienne et l’apparition progressive de sondes captant en temps réel les paramètres de notre corps comme une sorte d’"exosoi" complétant notre rapport à nous même et à l’environnement.

La généralisation de ces actimètres pour suivre en temps réels les paramètres de notre équilibre physique, de ces sondes pour réguler par exemple le diabète, de ces capteurs pour mesurer l’oxygène du sang et prévenir des apnées du sommeil et d’autres objets encore permettra de contrôler bientôt notre corps.

Elle pourra également compléter nos sens en les augmentant (vision de nuit déjà opérationnelle dans l’armée) ou notre comportement en régulant notre activité cérébrale (par exemple pour prévenir des crises d’épilepsie ou des crises cardiaques).

Nous vivrons bientôt sur le contrôle permanent d’objets communicants avec nous, soit à travers nos smartphones, soit même directement reliés à certaines de nos aires cérébrales.

Et ces outils, comme ceux qui truffent déjà nos automobiles et nos télévisions et qui équiperont bientôt aussi nos objets domestiques, communiqueront aussi avec des tiers pour mettre notre sécurité et notre état de santé sous contrôle.

Une sorte de délégation à l’objet qui modifiera radicalement notre rapport à nous-mêmes et à l’environnement.

Sommes-nous à la veille d’une profonde évolution de l’espèce humaine qui ne serait due ni à l’évolution darwinienne ni à la l’éducation et la culture mais à la technologie ?

De nos jours les ancêtres deviennent plus nombreux donc plus communs. Ils ne sont plus ou rarement le relai naturel de la culture et de la connaissance.

La culture n’est plus seulement rare, orale et locale.

Avec l’extension de l’imprimerie elle était devenue le privilège d’une élite dont l’apogée fut atteint au siècle des lumières.

Avec la révolution médiatique, elle devint généralisée, visuelle et sonore mais linguistiquement et politiquement contrôlée. Le mode de transmission passait par une diffusion identique pour tous les utilisateurs (one to any).

Depuis l’explosion du numérique elle échappe à tout contrôle. Elle est éclatée, distribuée (any to any), mondiale, polymorphe et fractale.

Nous assistons à un changement radical de la socialisation, à une désynchronisation du temps biologique des émotions par nature inscrit dans la durée et du temps de l’information et de la connaissance qui devient instantanée.

Nous baignons aussi dans l’émergence d’un monde virtuel peuplé d’avatars aussi réaliste voire parfois plus que la réalité.

La perspective d’une réalité augmentée est imminente non seulement grâce à l’immense mémoire collective de la toile et la multiplication des moyens de communication, non seulement avec l’apparition prochaine de prothèses cognitives mais aussi du fait de la multiplicité des objets connectés à nous d’abord via nos tablettes et nos téléphones portables mais bientôt par un couplage direct entre le cerveau et des capteurs élargissant notre champs sensoriel à des espaces aujourd’hui inaccessibles.

Ce nouveau paradigme du rapport intime entre l’homme et ses outils changera radicalement le parcours d’apprentissage des enfants, les plongeant à la fois dans un monde virtuel réaliste et dans une réalité augmentée leur permettant une nouvelle forme d’interaction avec l’environnement.

Après la révélation du protosoi faite par Antonio Damiaso, marque évolutionnisme de la construction d’une conscience, ne sommes-nous pas en train de vivre l’ère du "cybersoi" avec cette époque où les sollicitations sensorielles sont décuplées par un tsunami informationnel qui risque de s’aggraver avec l’arrivée de l’internet des objets.

Nul ne peut prédire l’effet final de ces changements considérables dans un temps infiniment court par rapport au temps évolutionniste sur ce cerveau humain dont la plasticité a fait le succès mais qui l’expose au risque de perdre sa cohérence face à cette agression technologique.

Patrice Leterrier

25 février 2013

Fichier PDF

Partager cet article
Repost0
18 février 2013 1 18 /02 /février /2013 13:56

 

souris-1.jpg


 

S

 

ur le site slate.fr, Michel Alberganti fait référence à une étude publiée de Miguel Nicolelis sur des rats "augmentés" auxquels on a connecté des capteurs de lumière infrarouge sur une zone du cerveau de l’animal "correspondant aux perceptions du toucher provenant des moustaches".

Après apprentissage, ils réagissent indifféremment à l’excitation de leurs moustaches ou à la perception de lumière infrarouge aussi invisible pour eux que pour nous.

Même si nous descendons du même ancêtre, le rat n'est pas tout à fait l'homme.

Je sais ! L'homme et la souris possèdent "99% de gènes homologues (c'est-à-dire identiques ou proches)" mais en matière de génétique il faut se méfier de statistiques trompeuses car 1% d'écart peut avoir à l'arrivée énormément d'effets.

D'ailleurs je n'ai pas vraiment peur des...chats.

Pour revenir au sujet de cet article assez décoiffant, les perspectives sont à mettre en relation avec le projet "Human Brain Project" car le couplage de capteurs sensoriels avec le cerveau sera d'autant plus facile à tester et à comprendre que les chercheurs auront réussi à créer des "modèles" du fonctionnement du cerveau.

Comme toujours le "problème" n'est pas (et il ne pourra jamais être) un problème scientifique.

La science n'a pas à se préoccuper des applications de ses découvertes et les tentatives pour bloquer ici ou là les recherches sont illusoires parce qu’il se trouvera toujours des "paradis expérimentaux" où des savants pourront étudier tous les méandres de la science et des hommes capables de faire la pire des choses avec ses applications.

On se souvient du débat sur les recherches sur le virus H5N1 mutant et la fin du moratoire décidé le mois dernier.

Les raisons invoquées pour la reprise de ces recherches étaient que "le virus continue à circuler et à évoluer dans la nature" et que poursuivre les recherches "est essentiel pour se préparer à faire face à une nouvelle pandémie".

Concernant "l’homme augmenté" ne devons-nous pas d’abord nous réjouir des perspectives de l’"homme réparé" avant de nous inquiéter de celles de l’homme augmenté ?

D’autant que c’est déjà singulièrement une réalité dans le domaine des communications, de la mémoire et bientôt aussi de la cognition.

Entre les recherches des médecins de l'université d'Indiana sur un programme d’intelligence artificielle de diagnostic médical, les applications pour tablettes annoncées par IBM dans la foulée du succès du supercalculateur Watson, une "à destination des médecins pour la lutte contre le cancer du poumon et une autre pour aider les assurances à gérer les engagements de dépenses" (business is business !), nous voyons bien que le mouvement vers des "prothèses cognitives" est en marche.

Au passage IBM a indiqué que depuis sa victoire au jeu Jeopardize, les performances de Watson avaient été améliorées de 240%.

L’assistance au raisonnement déductif va s’amplifier.

Elle va sortir du pur domaine des mathématiques (dernier exemple le plus grand nombre premier), de la physique théorique (boson de Higgs), de la cosmologie (exoplanètes) ou encore de la météorologie dont les développements sont aujourd’hui totalement dépendants des ordinateurs (pour ne citer que ces exemples).

Les découvertes de la science, les progrès des neurosciences, les perspectives incroyables des nanotechnologies, l’accélération spectaculaire des applications de la technologie ne vont pas s’arrêter.

Les dérives sont déjà là et sont inévitables.

Mais n’est-ce pas une des vertus indispensables de la politique au sens noble que de faire comprendre au grand public les enjeux, de définir et d’imposer des limites acceptables pour éviter de sombrer dans une société sans éthique et sans morale ?

Aurons-nous les hommes et les femmes capables de porter cette ambition pour nos sociétés ?


Patrice Leterrier

18 février 2013

Fichier PDF

Partager cet article
Repost0
10 février 2013 7 10 /02 /février /2013 15:49

cloud_brain.jpg

 


L

a vraie question n’est pas de savoir ce que seront les téléphones, les tablettes, les ordinateurs et les réseaux en 2050 mais bien ce que sera la place de l’homme à cet horizon.

Aujourd’hui plus personne n’effectue le moindre calcul un peu sophistiqué sans l’aide de l’ordinateur.

Jamais un homme seul n’aurait pu découvrir un nombre premier comportant 17 425 170 chiffres.

Il n’aurait pas plus pu décoder le génome humain ou encore prouver avec une règle à calcul et un crayon l’existence d’une particule ayant la "saveur" du Boson de Higgs.

Plus simplement aucun avion ne pourrait voler aujourd’hui sans l’aide des technologies dont il est littéralement truffé, la course à la puissance des superordinateurs recule sans cesse la précision des prévisions météorologiques et les exploits des concurrents du Vendée Globe Challenge auraient été totalement impossibles sans l’aide des ordinateurs.

Curiosity creuse la surface de Mars à la recherche de trace de vie, des chirurgiens opèrent le cerveau grâce à des robots qu’ils guident avec une précision incroyable, des sourds entendent, des aveugles commencent à voir avec des rétines artificielles, des paraplégiques remarchent avec des jambes cybernétiques, des amputés peuvent piloter des mains d’aciers rien qu’avec la pensée, des armes sont guidées vers leurs cibles par le simple regard d’un pilote,…

Nous baignons dans un monde technologique où la frontière entre l’outil et l’homme devient de plus en plus ténue.

Mais l’outil semble ne permettre aujourd’hui que de remplacer des fonctions motrices, visuelles, auditives ou d’augmenter nos interactions avec l’environnement et nos semblables.

N’est-il pas en train de changer de nature lorsqu’il gagne contre des hommes au jeu Jeopardize ou lorsque, comme le prévoit à court terme le grand manitou de la connaissance universelle Google, il adaptera son "comportement" à son interlocuteur de sorte que celui-ci sera naturellement guidé vers les réponses qui collent le mieux avec son profil, assassinant ainsi le délicieux plaisir de la surprise ?

D’autres fossoyeurs de notre autonomie ne songent-ils pas à choisir nos partenaires en fonction de nos supposées préférences brisant ainsi la magie du caractère intraduisible en terme de raison d’une rencontre ?

L’outil "prothésise" aujourd’hui notre communication, notre mémoire, nos capacités de calcul.

Il complétera bientôt notre conscience, nos capacités cognitives en les augmentant artificiellement de plus en plus.

L’Europe a décidé de financer à hauteur d’un milliard d’euros le projet "Human Brain project" qui ambitionne de "révolutionner non seulement les neurosciences, la médecine et les sciences sociales, mais aussi l’informatique et la robotique".  

La mesure du QI seul face à la feuille de questions risque de n’avoir probablement plus grand sens dès lors que dans la vie courante la cognition augmentée sera accessible à tous.

L’ainé sera ainsi défavorisé par rapport à son cadet qui disposera des progrès de la technologie qui n’ont que faire du rythme lent de l’évolution biologique et qui permettront d’apporter de plus en plus d’aide à nos capacités cognitives limitées par la lente évolution biologique.

Il pourrait d’ailleurs se faire que, paradoxalement, ces capacités qui se construisent principalement grâce à des facteurs culturels et éducatifs diminuent du fait de cette interaction envahissante avec une "metacognition universelle" disponible sur des prothèses de plus en plus intimement liées à nos sens.

L’homme, être de raison mais aussi de sentiment et de morale, résistera-t-il à ce déferlement ou sombrerons-nous dans une posthumanité que certains prévoient ?

La réponse dépend sans doute de la capacité de nos sociétés à remettre la liberté individuelle, l’éthique et l’humanisme, comme il a été parfaitement définit à la renaissance, au centre de sa réflexion.

Notre société ne manque pas de raison, elle manque cruellement de sagesse.


Patrice Leterrier 

10 février 2013

Fichier PDF

Partager cet article
Repost0
8 février 2013 5 08 /02 /février /2013 19:23

 

sablier


 

J

 

’étais enfermé dans le présent comme les héros, comme les ivrognes ; momentanément éclipsé, mon passé ne projetait plus devant moi cette ombre de lui-même que nous appelons notre avenir ; plaçant le but de ma vie, non plus dans la réalisation des rêves de ce passé, mais dans la félicité de la minute présente, je ne voyais pas plus loin qu’elle"(*).

La seconde des scientifiques est définie comme les 9 192 631 770 périodes de la radiation  correspondant à la transition entre les deux niveaux hyperfins de l'état fondamental de l'atome de césium 133.

Elle cadence ce temps cosmique dont nous avons une sorte d’intuition et qui rythme le déroulement de notre vie en s’échappant inexorablement.

Le temps ressenti, celui dont parle avec talent Marcel Proust, est celui dont les neurologues nous apprennent qu’il est rythmé par nos horloges internes sensibles à la dopamine dont le taux régule aussi nos émotions.

Ainsi notre horloge se met à l’unisson de nos états émotionnels en nous rendant le mauvais service de rendre les instants les plus pénibles comme étant aussi les plus longs.

Mais c’est oublier un peu vite que cette accélération de notre vigilance est une des adaptations de l’homme pour le rendre plus rapidement prêt à fuir ou à se défendre face à un danger.

Nul n’est besoin aussi de souligner combien le temps peut nous sembler interminable lors de certains discours inaugurant un départ à la retraite d’un employé modèle et combien furent trop courts ces instants magiques de bonheur fugace qui restent indélébilement gravés dans notre mémoire.

Certains se remémorent peut-être aussi ces moments interminables de silence dans un ascenseur avec un inconnu, chacun guettant le moment où l’autre prendra l’initiative de rompre le silence.

Saint Augustin disait du temps "Si personne ne me le demande, je le sais. Si je veux l’expliquer à qui me le demande, je ne le sais plus".

Le philosophe Jacques Bouveresse résume ce rapport ambigu que nous avons avec ce temps dont nous disons qu’il coule comme l’eau des rivières sous les ponts :

"L’étonnement et la perplexité nous viennent non pas quand nous considérons le temps, mais quand nous croyons être en train de le considérer lui-même alors que ce que nous considérons est en réalité ce que nous disons de lui".

Mais ce sage penseur ne tient pas compte du fait que plus nous prêtons attention au temps qui passe plus celui-ci nous paraît long de sorte que plus nous le considérons plus il prend de l’importance.

Le temps serait en quelque sorte l’eau d’une rivière qui ralentirait par le simple fait qu’on la regarde s’écouler.

Mais notre horloge interne est aussi fonction du temps de l’autre.

Des chercheurs ont démontré que celle d’un individu jeune ralentit lorsqu’il se trouve face à une personne âgée comme si n nous éprouvions le besoin de nous synchroniser pour mieux communiquer.

Et ce temps partagé n’est-il pas en train de changer avec cette intrusion massive des "temps des autres", multiples et beaucoup plus intrusifs auxquels nous soumettent ces prothèses communicantes que sont les téléphones portables, les tablettes ou même les vieux ordinateurs personnels que d’aucuns destinent au même cimetière que celui peuplé aujourd’hui par nos vieux combinés téléphoniques ou nos vieilles télévisions cathodiques ?

Nous voici donc plongés dans le cadencement d’un flot continu d’appels, de SMS, de courriels, de messages vocaux, de vidéos, de clips, de musiques imposant leurs rythmes.

Notre cerveau est depuis toujours une machine à traiter le temps qui passe et le voilà soumis à ce déferlement d’une nuée d’événements dont il est bien difficile de faire le tri.

Nicholas Carr écrit "Is there a psychological cost to this “unnatural” rhythm, this new and contagious setting for our internal clocks?"

Blaise Pascal écrivait en son temps :"Le présent n'est jamais notre fin : le passé et le présent sont nos moyens ; le seul avenir est notre fin. Ainsi nous ne vivons jamais, mais nous espérons de vivre ; et, nous disposant toujours à être heureux, il est inévitable que nous ne le soyons jamais."

Puissions-nous reprendre possession pleine et entière de ce temps présent qui nous appartient et que nous laissons s’échapper futilement.


Patrice Leterrier

8 février 2013

Fichier PDF

 


(*) Marcel Proust, A la recherche du temps perdu, A l’ombre des jeunes filles en fleurs

Partager cet article
Repost0
30 janvier 2013 3 30 /01 /janvier /2013 16:09

 

graphene_sheet1.jpg


 

L

 

a commission européenne a retenu le 28 Janvier le projet Graphène de l’université technologique Chalmers, à Göteborg en Suède, comme Future Emerging Technology doté d’un budget d’un milliard d’euros sur 10 ans.

La découverte de ce matériau est l’œuvre conjointe d’Andre Geim et de Konstantin Novoselov qui ont obtenu le prix Nobel de physique en 2010.

Le graphène est constitué d’un réseau hexagonal à 6 atomes de carbone parfaitement pur et ordonné. Il forme ainsi un grillage d’une épaisseur de la taille d’un atome de carbone.

Il est à la fois d’une résistance mécanique exceptionnelle, souple, transparent et le meilleur conducteur électrique si on exclut les supraconducteurs.

S’il existe à l’état naturel dans les cristaux de graphite, sa "fabrication" est due à la rencontre fortuite d’un ruban adhésif sur lequel nos chercheurs facétieux eurent l’idée "stupide" de coller les débris de graphite qui se trouvaient sur leur paillasse.

Ce qu'il y a souvent de commun dans les grandes découvertes c'est qu'elles n'auraient pas vu le jour sans accident mais surtout sans le regard curieux de chercheurs qui, au lieu d'ignorer l'accident qu'ils viennent de constater, en cherchent la cause : Archimède, Isaac Newton, Pierre & Marie Curie, Alexander Pfleming et Albert Einstein et d’autres n'ont-ils pas été au delà d'un tel constat? 

La vie sur terre s'appuie sur le carbone. En sera-t-il de même de notre futur technologique ?

On a du mal à imaginer les limites des applications technologiques tant le temps entre une découverte fondamentale et la généralisation de son utilisation mondiale devient de plus en plus court.

Il n'y a qu'à voir l'explosion des téléphones portables et d'Internet et maintenant celle des smartphones et bientôt des tablettes appelées à supplanter presque totalement les ordinateurs personnels.

Rien de tel n’aurait été possible sans une baisse drastique des coûts mais aussi sans les progrès de la recherche notamment dans le domaine des transmissions de signaux.

Rappelons qu’Ethernet a été inventé en 1973 par Robert Metcalfe, que le premier téléphone GSM date de 1983 et que le Wifi n’existe que depuis 1999.

Sans les progrès théoriques sur la transmission de signaux sur de vulgaires fils de cuivre qui ont permis l’explosion des débits, l’usage d’Internet n’aurait guère dépasser les limites du minitel.

On s'extasiera sans doute sur les nouveautés présentées au prochain Cebit début Mars à Hanovre.

Pourtant il ne s'agira pour l'essentiel que de raffinements de technologies maîtrisées.

Peut-être dans un coin sombre et peu passant de cette manifestation passera inaperçue une application appelée à révolutionner notre environnement.

Certains se souviennent peut-être que la décision d'IBM de confier en 1980 à Bill Lowe le développement de ce qui allait devenir le PC, qui domine encore le marché, était assortie de la condition de ne pas "déranger" les gens sérieux qui travaillaient sur les logiciels systèmes des gros ordinateurs de la firme aussi appelés Mainframe.

On connait la suite et l'accord avec une minuscule firme appelée Microsoft pour développer le système d'exploitation du PC que Bill Gates bâtit à partir de l'achat pour 50 000 $ du Quick and Dirty Operating System à la petite firme Seattle Computer Products.

Ce système deviendra le MS-DOS puis Windows dont on connait l'histoire et qui a fait la fortune de son créateur.

Parfaite illustration de la difficulté des géants établis sur un marché de rester des firmes innovantes même quand elles dépensent des fortunes dans la recherche et collectionnent les prix Nobel comme IBM.

Depuis cet incroyable rendez-vous manqué avec l'histoire, Big Blue a rebondi, mais malgré de spectaculaires démonstrations comme celle faite par l'IBM Watson au jeu Jeopardize, elle n'apparait pas comme une firme aussi innovante que l'Apple du temps de Steve Jobs.

La plupart des géants de l’Internet n’existaient pas il y a moins de vingt ans. Ils doivent tous leurs immenses succès à des innovations technologiques dont ils ne sont pas à l’origine mais dont ils ont su sentir avant les autres les applications possibles.

Si le graphène révolutionne, comme on peut le prévoir, la conception même de l’interaction de l’homme avec son environnement en autorisant un saut quantique en matière de miniaturisation, il est aussi probable qu’une bonne partie des firmes qui domineront le nouveau marché créé par les technologies s’appuyant sur le graphène n’existent pas encore. 


Patrice Leterrier

30 janvier 2013

Fichier PDF

Partager cet article
Repost0
27 janvier 2013 7 27 /01 /janvier /2013 14:08

collegien-copie-1.jpg


S

ur son blog Michel Alberganti commente une étude réalisée par Pia Rosander, une thésarde de l’université de Lund en Suède, analysant la corrélation entre cinq grands traits de caractère (Big Five) et la réussite scolaire de jeunes élèves âgés de 16 ans.

Les critères retenus (ouvert, consciencieux, extraverti, agréable et inquiet) suscitent des critiques portant sur leur complétude, une certaine redondance et leurs caractères subjectifs.

Par exemple on peut soupçonner une forte corrélation entre ouverture et extraversion.

On peut aussi constater qu’il s’agit d’une photographie à un stade déterminé du cursus scolaire.

Ceci étant et pour autant que des résultats sur un panel de 200 élèves soient significatifs d'une tendance générale, les résultats contrastés révélés par cette étude sont assez inquiétants.

Ils mettent en lumière que la réussite dans le système scolaire suédois serait plus le fait de personnalités consciencieuses et inquiètes que d’élèves ouverts et curieux.

La compétitivité de nos pays du vieux continent - et donc la survie de l’emploi et de nos conditions de vie si durement obtenues par nos prédécesseurs - dépend énormément pour ne pas dire uniquement de la capacité de notre système éducatif à promouvoir ceux qui ont des réelles capacités d'innovation et un goût certain de la prise de risque.

On a besoin d’entrepreneurs qui acceptent le changement permanent comme une chance et non comme un risque.

La survie de nos sociétés occidentales suppose l’éclosion de talents ayant une grande capacité à s’adapter en permanence à ce qu’Hubert Vedrine appelle une compétition multipolaire instable qui n’a rien à voir avec une crise qui sous-entendrait un retour à une situation antérieure.

Il est assez catastrophique de penser que le système éducatif ne favorise pas la curiosité, la créativité, une forme d'"anticonformisme", bref les traits de caractères qui paraissent les mieux corrélés avec la capacité d'innovation et le gout du risque.

Le système éducatif du 19ème siècle et du début du 20ème avait besoin de "délivrer" des citoyens dociles, consciencieux, peu friands du risque, cherchant un emploi stable avant tout pour fournir le "matériel" nécessaire pour faire tourner les "chaines standardisées" des usines toutes converties à la religion du Taylorisme.

La robotisation de l’industrie et l’utilisation des technologies de l’information et de la communication ont définitivement balayé ce paysage.

La mondialisation de l’économie et du marché du travail a redistribué les rôles en laissant sur le carreau ces milliers d’emplois qu’il est impossible, même par forte volonté politique, de conserver dans nos pays.

L’éducation est la clé de l’adaptation d’une société à son environnement socio-économique et notre société ne peut se satisfaire d’un statu quo dont le coût est exorbitant au regard des résultats obtenus.

Comment ne pas prendre notamment la vraie mesure du fait que l’environnement de communication est totalement bouleversé par l’explosion d’internet et la généralisation des smartphones et bientôt des tablettes et assistants personnels en tout genre ?

Ce nouveau paradigme de communication devient le mode "naturel" pour les nouvelles générations et le décalage avec les méthodes éducatives encore trop centrées sur l’accumulation massif de connaissance dans un mode standard et normalisé devient insupportable.

Dans le même temps, le fait qu’"un jeune de moins de dix-huit ans passe en moyenne sept heures et demie par jour devant des écrans ou smartphones, et seulement 15 à 25 minutes dans des jeux en extérieur", pose un véritable problème de la place de l’attention diffuse tellement nécessaire pour la consolidation des connaissances acquises.

On est tout de même atterré de voir que le grand débat aujourd’hui est celui de la semaine de 4 jours ½ à laquelle les enseignants - ou du moins leurs syndicats - s’opposent alors qu’ils avaient combattu avec la même énergie le passage à la semaine de 4 jours en 2008 !

Quand sortira-t-on d’un système éducatif fossilisé alors que l’enjeu est la survie même de notre civilisation ?


Patrice Leterrier 

27 janvier 2013

Fichier PDF

Partager cet article
Repost0