vendredi 26 août 2011

Sur-efficience : pour un nouveau modèle heuristique...

à l'écoute :Maureen de Joy Denalane.

Dans Surdoué, HPI, de l'a-normalité à l'heuristique, j'ai relié un certain nombre de notions qui sont peut-être passés inaperçues à l'époque (juin 2010) et pourtant cet article a formalisé ma réflexion jusque aujourd'hui. L'heuristique dont je parlais étant in fine en cours d'élaboration... Or, que décrit précisément cet article ?

1) l'invariant que relève N. Lygéros est que la relation qu'entretient la société avec les dé- comme avec les sur- efficients crée de facto une objectivation, - une construction sociale - , similaire. Le traitement social appliqué aux uns comme aux autres est le même, unique selon cet auteur et fonde, pour ne point dire génère, le sentiment d'échec dans ces deux populations. Dit autrement, le rapport à la norme sociale chez un individu lambda de ces deux populations est identique/analogue et décrit exactement un ou des écarts mesurables par chacun : écart entre ce qu'il faudrait être (selon la norme) et ce qu'on pourrait être (selon ses désirs, rêves, intentions...). J'ajouterais ici que l'écart peut être mesuré à la fois de l'intérieur (mode comparatif externalisé des ressentis de la personne) que par l'extérieur (mode comparatif des signes cliniques/psychologiques relevés par un psychothérapeute) aussi bien chez le sur-efficient que chez le dé-ficient et je postule ici, en suivant N. Lygéros, que si la "norme" (au sens mathématique) de l'écart à la norme sociale est "identique", son "sens" , sa "valorisation" sociale est inversée.
Selon Lygéros, en effet, cet invariant isole/unie ces deux populations par un diplet d'antagonismes, en l'espèce une relation inversée à la norme. Cette relation parle d'attention et d'intention, de mouvement vers l'autre par la société et de mouvement vers la société par "l'autre" :
"Le paradoxe général, c'est que la société d'une part néglige globalement les enfants surdoués alors que localement tout le monde désire leur reconnaissance et d'autre part elle s'intéresse globalement aux enfants qui ont une déficience alors que localement tout le monde évite leur reconnaissance." 
Nous posons ici clairement trois diplets en relation : (global, local) x (sur-efficient, dé-ficient) x (re-connaissance, ignorance), leurs relations définit la norme sociale en vigueur.
Cette norme conduit la société, selon l'auteur, à de la mal-voyance puis à de la mal-traitance envers les dé- comme les sur- efficients.
Partant d'une vue constructionniste, j'aboutis finalement à une vue relationnelle qu'il est presque aisé de formaliser par une fonctionnelle (mathématique) : les deux groupes de population ici décrits sont isomorphes par leur traitement social.

Je me suis demandé alors s'il existait également un isomorphisme entre les mêmes populations sur le plan neurobiologique, la relation entretenue avec la norme ad hoc ici étant aussi inversée et l'asymétrie constatée permettant alors de discriminer les dé- des sur- efficients...

2) Les travaux de B. Gepner (voir sur ce site) sur le concept de constellation autistique implémentent un continuum entre la personne "normale" (donc "sur" ou "dans" la "norme" sociale concernant l'autisme) et la personne a-normale (donc "malade", atteinte de Troubles Autistiques (TSA)). S. Baron-Cohen (voir sur ce site) a proposé un Quotient du Spectre Autistique (AQ) qui permet de situer les personnes sur un continuum analogue en fonction de leurs potentialités d'atteinte par la même maladie. Les deux démarches reposent de toutes manières sur la même triade symptomatologique caractéristique des TSA (L.Wing) :

  • troubles de la communication verbale et non-verbale
  • troubles des relations sociales
  • centres d'intérêt restreints et/ou des conduites répétitives.
 Les travaux de B. Gepner aboutissent à un modèle ("malvoyance de l'é-motion"), lui même plongé dans le concept binaire de "dissociation psychisme/cerveau". Mais ce modèle reste analogue à un modèle mécanique de physique macroscopique, le dernier concept, plus large, issue des travaux de J. Eccles, même s'il expose des notions de quantique ne déroge pas in fine à cette analogie macroscopique, du moins selon la vue lupascienne qui conceptualise l'isomorphisme entre le quantique/psychique et le tiers inclus. Il en ressort donc que ce modèle définit un "axe", une direction, qui est susceptible d'emprunter deux "sens" tant il est vrai que les troubles définis peuvent être "par excès" ou bien "par défaut" d'une certaine quantité d'une variable donnée.

Je me suis donc demandé dans quelle mesure peut il exister un modèle analogue explicatif du fonctionnement de la "sur-efficience" intellectuelle qui viendrait se coupler/croiser avec le modèle de B. Gepner sur les TSA ?
Le chemin proposé serait le suivant : définir une constellation de la sur-efficience, grâce à une heuristique rassemblant des données issus de trois voies : subjective (expériences racontées par des sur-efficients), intersubjective (expériences cliniques racontés par des proches et/ou des soignants) et objective (expériences scientifiques et statistiques). Le point d'accroche pourrait être analogue à la triade de Lorna Wing pour les TSA et en ce cas, existe t il une telle triade générique définissant la sur-efficience ?

à suivre...

jeudi 31 mars 2011

La Théorie de Galois : un paradigme de méta-analyse ?

A l'écoute : Air Hadouk de Hadouk Trio


Evariste Galois fut un jeune homme doué mais sa courte existence (1811-1832) ne lui laissa pas la possibilité d'une reconnaissance digne de son intelligence. Il s'intéressa aux mathématiques lorsqu'il rencontra cette discipline au Lycée Louis le Grand de Paris, et notamment à la théorie des équations de JL Lagrange (Traité de Résolution des équations numériques et notes sur Théorie des équations algébriques ) ainsi qu'aux Elements de Géométrie de AM Legendre (essais de formalisation de cette discipline).
Mais les travaux de E Galois ne furent pas reconnus par ses contemporains de son vivant, il fut recalé deux fois à l'entrée de Polytechnique et fut  renvoyé de l'Ecole Normale pour ses opinions politiques.

Sa pensée fut pourtant non seulement originale, mais audacieuse et très en avance pour son époque. Ses formalisations sur la résolution des équations algébriques ont fini par porter le nom de "Théorie de Galois" et selon A Connes " l'influence de ses idées n'a jamais faibli, de Sophus Lie à Grothendieck en passant par Emile Picard, la pensée de Galois se reflète indéfiniment chez les mathématiciens et brille, hors du temps, d'un éclat et d'une vigueur difficiles à égaler."






Il n'est pas dans mon propos ici de détailler ces "reflets" et ces influences en mathématiques. Je laisse le soin au lecteur curieux d'introduire ce sujet par la lecture attentive du texte de A. Connes sur "La Pensée d'Evariste Galois et le Formalisme Moderne".

Je souhaite juste, en revanche, faire partager la portée méta-mathématique de la théorie de Galois, car cette dernière peut aussi bien s'appréhender dans les sciences non mathématiques (par la notion de symétrie et de brisure de symétrie utilisée en physique ou en biologie) qu'en philosophie et en épistémologie. C'est, une fois de plus, N. Lygéros, qui m'inspire ici, avec son court mais dense texte sur "l'Esprit Galoisien".

Pour NL, E Galois "affirme l’inexistence d’un algorithme général de résolution." Mais la curiosité du jeune homme ne s'arrête pas là et "Il adopte donc un autre point de vue qui consiste à explorer le possible et non le général. Ainsi il ne recherche pas une méthode générale mais une méta-méthode générale."
C. Ehrhardt dans son article E Galois : un candidat à l'école préparatoire en 1829,souligne d'ailleurs, avec moins d'emphase peut-être mais plus longuement, que "la concision de la démarche [mathématique] de Galois consiste à prévoir les transformations algébriques au lieu de les effectuer.". Et puis, plus loin, relate : "En outre, la doctrine qu'il baptise « l'analyse de l'analyse » relève également de la dialectique théorie-applications, mais en se plaçant à un degré d'abstraction supérieur : il s'agit, finalement, d'appliquer des résultats théoriques généraux pour obtenir des résultats théoriques plus particuliers."

L'analyse de l'analyse est une méta-méthode qui déplace l'invariant étudié. En l'espèce, la résolution des équations algébriques passe par le calcul des racines qui, au fur et à mesure de l'ordre atteint, devient un algorithme compliqué. Les équations du second degré sont résolubles depuis l'antiquité, celles du troisième et quatrième degré depuis G Cardano en 1545. Mais s'impose alors une méthode efficace : celle de la résolution par radicaux qui consiste en une permutation de variables et qui considère in fine que le problème inconnu peut être décomposé en plusieurs problèmes connus : ainsi pour résoudre une équation du quatrième degré on résout une équation du troisième avec des variables ad hoc et résoudre cette dernière revient également à résoudre une ou des  équations du second degré. On voit ici, l'élaboration sur un temps assez long, par des mathématiciens successifs, d'une méthodologie dont l'objectif est clairement la résolution, c'est à dire l'obtention des racines d'une équation polynomiale. On voit ici que cette méthodologie fait découvrir des cas particuliers (nommées "résolvantes"): ainsi Lagrange utilise une certaine forme de permutation quand Descartes en utilise une autre. Ces résolvantes fournissent cependant, comme l'écrit A Connes dans Symétries (très bel article de vulgarisation) "la clef de toutes les résolutions générales par radicaux".
Généraliser cette méthodologie revient à envisager, pour le même objectif, de s'intéresser à un polynôme de degré n quelconque et donc de découvrir le cas général de résolution par radicaux. Ce travail s'est révélé être une impasse.

La deuxième voie, alors, qui s'offre au mathématicien est, analogue à la démarche abductive de Grothendieck, de trouver d'autres méthodes de résolution des équations algébriques d'ordre n, plus générales et qui contiendraient comme cas particulier le cas général de résolution par radicaux. Mais, comme nous l'avons déjà vu dans de l'Ouvert à la Systémique, la démarche heuristique de Grothendieck, rapportée par N Lygéros, ne permet pas toujours d'obtenir une "solution" générale à un problème général. Cette voie, pour la résolution des équations algébriques, n'a rien donné. C'est NH Abel, contemporain de E Galois, qui prouve l'impossibilité de résolution par radicaux d'une équation de cinquième degré et qui amorce le cas général.

La "troisième" voie est alors trouvée par E Galois lorsque ce dernier, par un raisonnement non uniforme, déplace l'invariant de ses recherches en intégrant une abstraction différente. Sa position heuristique est dite en "méta" car il change d'objectif : ce n'est plus la résolution des équations qu'il cible mais la résolution des méthodologies de résolution des équations algébriques : il change de niveau ! Dit autrement, les mathématiciens d'alors s'intéressaient in fine aux relations entre les "structures" (les monômes composant les équations polynomiales) quand E Galois change de niveau et se concentre sur les relations aux relations entre les "structures". Ainsi, en l'espèce, il pose sa théorie de manière simple et lumineuse en cherchant à définir les bijections pouvant exister entre les fonctionnelles des racines d'une équation générique : il s'agit bien ici de définir les relations (bijections) pouvant exister entre les relations (fonctionnelles) des "structures" (racines des équations polynômiales). Ce faisant, E Galois définit un groupe contenant l'ensemble des transformations laissant les relations entre les racines invariantes (groupe de permutations). Sa définition étant très générale, il prouve que le groupe est indépendant des fonctionnelles choisies au préalable pour le construire : ainsi son heuristique est générique. Le jeune mathématicien a ouvert une voie qui restera à la postérité car il a formalisé un changement de niveau, en implémentant une discontinuité dans son heuristique, il a de fait ouvert un espace considérable, de "haut" niveau d'abstraction. Cette démarche a créé une complexité, elle a fait émerger une entité, un concept qui ne pouvait se déduire de la somme des parties préexistantes. Le plus "drôle" dans sa démarche est que E Galois a prouvé par sa théorie l'inexistence d'un algorithme général de résolution des équations algébriques : il a ainsi "fermé" à jamais un champ d'études, tout en en ouvrant un autre, plus abstrait, plus général, plus vaste, plus prometteur.

Cette troisième "voie" dont je parle ici n'est pas à confondre avec une voie "médiane" ou une sorte de synthèse (au sens de Hegel) qui dissout le problème traité, d'autant plus qu'en l'espèce E Galois conclue à une impossibilité, or impossibilité n'est pas dissolution ! Cette troisième voie serait  en revanche à rapprocher du concept de niveau de réalité de B Nicolescu (voir Tiers-Inclus : Logique, Ontologique..) voire au  niveau II de G Bateson (méta-communication et méta-apprentissage : le sujet entretient une relation avec le contexte et non plus seulement avec l'objet ou l'expérience).
Cette troisième voie est bien une recherche (une heuristique) incluant un raisonnement non uniforme, donc une discontinuité, sur une relation de relation générique (définissant ainsi une position méta^n, en toute généralité, comme le niveau de réalité de B Nicolescu définit par itération l'objet et le sujet transdisciplinaires isomorphes entre eux). Ainsi, comme l'écrit N Lygéros, cette approche exploite l'existence du théorème d'incomplétude de Gödel en réalisant une holistique. La position "méta"  serait une position ouverte indéfiniment.
Mais, ici, par rapport à la théorie de Galois, je vais un pas trop loin car le jeune mathématicien a défini un type de groupe en rapport avec l'étude de son problème sans avoir le temps (gageons que sa vie aurait été plus longue, il aurait pu étudier plus en avant les mathématiques...) de généraliser cette notion. (la notion d'automorphisme généralise le concept de Groupe de Galois, par exemple.).

Cette position "méta" permet ainsi, en toute généricité, en changeant de niveau de compréhension d'un problème donné, d'échafauder un espace contenant le contexte du problème et ainsi d'espérer le résoudre. Pour exister, la position méta nécessite une itération dans un espace indéfectiblement ouvert : la positon méta est donc en toute logique isomorphe à une position générique méta^n, selon un principe de relativité ad hoc....
Il est essentiel selon moi, de comprendre cette dernière assertion sur la notion de position "méta" car expérimenter le méta dans un cas particulier est un apprentissage, certes, mais qui ne doit jamais faire oublier que cet expérientiel n'est QU'UN cas particulier de la position méta isomorphe au concept "méta^n", c'est à dire, dit autrement, que la position méta ne peut être, par ce principe de relativité, que générique et indéfiniment générique. En gros, celui qui prétend faire l'expérience de la position méta a t il saisi l'infiniment ouvert de sa démarche ou bien se contente t il du premier ou du deuxième ou même du troisième changement de niveau atteint ? Sa démarche, sa posture, son heuristique, est elle réellement indéfectiblement ouverte, i.e. contient elle en substance le principe d'incomplétude ou bien est elle, en toute "innocence" certainement, en réalité "fermée" à un référentiel qui se voudrait "cadre ouvert" ? Car nous voyons bien la différence essentielle entre "être ouvert" et "être fermé dans un cadre dit ouvert" !

En tout état de cause, E Galois fut un mathématicien très "éclairé" et très éclairant par sa démarche !

mercredi 30 mars 2011

HPI : intérieur vs extérieur : vers une complexité ?

A l'écoute :  Winter in Venice de Esbjörn Svensson Trio 

C'est Catherine Besnard-Péron qui m'a transmis le livre de Cécile Bost : Différence et Souffrance de l'Adulte Surdoué.  Il fait partie des rares ouvrages en français qui traitent de ce sujet : j'ai déjà présenté ici l'ouvrage de JSF sur l'adulte surdoué (voir Réveil de la source). D'après CBP, qui par son activité accompagne un grand nombre de personnes "surdoués", du moins concernés par le modèle HQI, HPI , ce que ce "livre apporte est infiniment plus fin et précis que les rares qui le précèdent (hors la production anglophone...)". La principale différence est que son auteure, concernée par le sujet elle même, a écris ici un récit, appuyés par nombre de témoignages, vu de l'intérieur. Car C Bost n'est pas une professionnelle de l'accompagnement, contrairement à JSF, et son livre ne se veut pas un recueil d'une symptomatomatologie clinique, vue de l'extérieur.

Il ne s'agit pas ici de chercher une hyperstructure, au sens de N Lygéros, par une construction d'échafaudages en périphérie mais bien de regarder en son cœur et de ressentir soi même les ressentis exposés. C'est donc en ce sens un voyage exploratoire par l'intérieur que l'auteure propose. Ainsi il n'y a pas vraiment de grille de lecture approprié bien que la rigueur soit de mise aussi bien pour la recherche d'informations (essentiellement en anglais) que pour sa sélection, mais j'oserais écrire que c'est plus un ouvrage "cerveau droit" que "cerveau gauche" : les résonances sont plus essentielles semble t il que les formalismes au sens strict. De ce point de vue, il va certainement plus au cœur de l'heuristique déployée et laisse entrevoir à chacun une complexité singulière : la sienne !

C'est en ce sens, me semble t il, que CBP écrit : "Autant beaucoup peuvent se reconnaitre dans le livre très populaire de Jeanne-Siaud-Facchin, autant celui-ci ne laisse passer dans ses mailles que les profils qui résonnent vraiment sur le même vibrato." Car, autant la lumière (et médiatique également) peut venir éclairer l'ouvrage de JSF, autant c'est la vibration (la "lumière" au sens large) émise par le lecteur qui confère à la lecture du livre de C Bost, son expérience validante ou non pour le modèle décrit : le surdon, la douance.

Réseau de neurones  ©anae-revue.over-blog.com


Il y a un aspect plus intime pour le lecteur concerné, dans ces pages: cela dérange, cela remue, cela peut tordre, car il s'agit d'expériences rapportées, parfois banales, quotidiennes mais rarement anodines. Il m'a permis pour ma part de prendre avec moi, concomitamment à des expériences nouvelles, les concepts d'hypersensibilité et hyperstimulabilité, alors qu'auparavant ces notions n'étaient pas raccordées à des sensations kinesthésiques. D'une certaine manière, là encore, une accumulation d'informations "nouvelles" qui à partir d'un seuil, engendrent un saut de pertinence, pour le système de la psyché (conscience+inconscience) ET du corps (en conférant ici à une métaphysique dualiste et informationnelle). Car il ne s'agit pas seulement d'expériences ni de réception d'informations mais d'intégration, vue ici comme une émergence, une tension ouverte et non, selon Hegel, comme une dissolution. Le paramètre essentiel à prendre en compte ici est le temps, ou plus exactement le flux d'informations issu des états d'un système, c'est à dire le temps psychique, perçu, ressenti par le lecteur-observateur-expérienceur. L'intégration, par rapport au temps, est concomitante lorsque la dissolution décrit une séquence linéaire.
Les deux "mouvements" contiennent chacun une discontinuité informationnelle mais en opposition : elle est "verticale" pour l'intégration quand elle est "horizontale" pour la dissolution. L'intégration, ici, suppose un modèle non "systémique" (qui reste "horizontal") de Lupasco-Nicolescu (Tiers Inclus ET Niveau de Réalité), modèle ou plutôt méta-modèle infiniment ouvert. Ainsi, et tout un chacun peut le percevoir, l'intégration peut être un "voyage" infini sur l'ontologie de l'être, voire même selon N Lygéros, sa téléologie, quand la dissolution semble proposer une fermeture plus binaire ! 

Ici, j'oppose donc un chemin ouvert par l'intérieur et un chemin fermé par l'extérieur : les deux vues sont évidemment complémentaires, tout ouvert étant séparé d'un autre par un fermé !
Les deux livres ici proposés sont deux vues complémentaires d'un concept en train de se construire, et notamment au sujet des adultes.

Il existe un dernier point qui semble discriminant entre les deux ouvrages : la complexité explorée et ressentie par le lecteur sur le concept-modèle du HPI. Elle dérive de mes considérations exposées plus haut : tout concept de  complexité étant par nature (voir Edgar Morin par exemple) assis ou plongé dans une métaphysique "ouverte" et non "fermée". La notion de complexité est ici vue comme un invariant c'est à dire qu'elle s'adapte à toute structure "ouverte" : elle serait peut être en fait un invariant structurel car reposant en réalité entièrement sur du "relationnel".

La question se pose alors : l'ouvrage de C Bost expose t il un concept de HPI plus complexe que celui échafaudé par le livre de JSF ?

dimanche 27 mars 2011

Mort cellulaire et Logique du Tiers Inclus.

 A l'écoute : Johannes-Passion de Johann Sebastian BACH (BWV 245, Nikolaus Harnoncourt et Arnold Schoenboerg Chor - Concentus Musicus Wien, 1995)

J'ai croisé la voix chaude et grave de Jean Claude Ameisen un jour de janvier 2010 sur France Inter. A l'instar de JSF (voir Réveil de la source) dont quelques mots m'avaient transpercé, les paroles de JC Ameisen m'ont littéralement soulevées ce jour là, et ouverts à des espaces qu'aujourd'hui encore je ne fais qu'explorer.

Jean Claude Ameisen (JCA) est Docteur en Immunologie et Professeur à l'Inserm et a écris en 1999 La Scuplture du Vivant paru au Seuil. Ce livre parle du concept de "mort cellulaire" en biologie et de ses liens avec l'embryogenèse et l'oncogenèse notamment, avant d'aborder les questions éthiques induites par ce concept fondamental et transversal peu à peu élaboré par de nombreux chercheurs.

Dans ce premier billet sur la question, je souhaite présenter une image sur le système immunitaire qui m'a stupéfait. Mais d'abord le concept de mort cellulaire. Là encore, les concepts déployés ici sur la logique de l'antagonisme de S. Lupasco nous aident à prendre avec nous plus facilement cette complexité.

"Aujourd'hui, nous savons que toutes nos cellules possèdent le pouvoir, à tout moment, de s'auto-détruire en quelques heures. C'est à partir d'informations contenues dans leurs gènes que nos cellules fabriquent en permanence les "exécuteurs" capables de précipiter leur fin et les "protecteurs" capables de les neutraliser. Et la survie de chacune de nos cellules dépend, jour après jour, de sa capacité à percevoir dans l'environnement de notre corps les signaux émis par d'autres cellules, qui, seuls, lui permettent de réprimer le déclenchement de son autodestruction."
Ainsi JCA pose avec ces trois phrases emblématiques toute la beauté et la pureté du concept de "mort cellulaire" : il apparait ainsi un système complexe (et nous le verrons par la suite infiniment complexe) où co-existent ensemble deux états antagonistes et opposés reliés indéfectiblement à leur environnement ouvert. Exécuteurs et protecteurs cellulaires co-existent ensemble dans un "équilibre" tendu à l'extrême, ouvert sur l'extérieur.

Le concept de vie est ici co-existant à celui de mort. Le concept de vie co-résulte de la "négation" du concept de mort comme ce dernier co-résulte de la négation du concept de vie. A ce jour, seule cette dernière partie de l'assertion nous parait "naturelle" et de bon sens. Et pourtant, la vie ne "triomphe" pas de la mort, elle en est humblement seulement sa co-partenaire.
Le concept de vie/mort dépend également de la présence continuelle de l'environnement, du même, comme du différent (non-même). Le concept de vie/mort ne se conçoit plus comme une entité solitaire mais indéfiniment solidaire. Une cellule ne peut vivre/mourir QUE si son environnement lui permet de réprimer son auto-destruction (et donc d'activer son auto-construction).

En langage lupascien, nous pourrions poser qu'au niveau cellulaire, la vie qui s'actualise (en réprimant les exécuteurs) potentialise en même temps la mort (par répression des protecteurs) et à la fois, la mort qui s'actualise (en activant les exécuteurs) potentialise en même temps la vie (par activation des protecteurs). Ce doublet d'antagonistes opposés s'ouvre et s'oppose à la fois dans le Tiers Inclus logique : l'interdépendance comme unique alternative à la vie/mort. Cette interdépendance absolue (au sens d'une contradiction entre vie et mort) fait émerger une co-dépendance relative (au sens d'une non-contradiction entre vie et mort) qui donne in fine à la vie/mort l'image "d'un sculpteur, au cœur du vivant, à l'œuvre, jour après jour, dans l'émergence de sa forme et de sa complexité"


"Rien n'a de sens en biologie, a écrit le biologiste Dobzhansky, si ce n'est à la lumière de l'évolution." (« Nothing in biology makes sense except in the light of evolution. ») Ainsi pour "appréhender véritablement la "raison d'être" d'une propriété apparemment mystérieuse de nos cellules", il faut "partir à la recherche de ses origines."
Anne Fagot-Largeault dans ses cours au Collège de France en 2009 sur "l'Ontologie du devenir" souligne bien qu'en épistémologie des sciences biologiques et médicales, le philosophe comme le "praticien-chercheur" oublie fréquemment de considérer l'ontologie des concepts élaborés. Pour comprendre cela, JC Ameisen est parti à la recherche des origines du concept de mort cellulaire, dans les espèces les plus anciennes existant encore sur Terre : les bactéries, et a poursuivi sa quête tout au long de l'évolution du vivant jusqu'à l'homme.
L'ontologie retracée du concept de mort cellulaire aboutit ainsi à sa force et à consistance, à sa transversalité, sa transcendance. Nous reviendrons ultérieurement sur l'ensemble des retombées systémiques de ce concept dans diverses sciences...


Au chapitre 3 du livre vient l'analyse "de la mémoire et de l'identité" ou comment le concept de mort cellulaire vient ré-interpréter le système immunitaire. Dans ce système co-existent les trois notions d'identité, d'adaptation et de mémoire.
"La notion d'identité pré-suppose la capacité de distinguer entre des informations qui sont émises par notre corps (le soi) et des informations dont l'origine nous est étrangère (le non-soi). La notion de mémoire pré-suppose la capacité de distinguer entre des informations nouvelles, auxquelles nous n'avons jamais été confrontés auparavant, et des informations que nous avons déjà rencontrées. Se souvenir, c'est reconnaître; et reconnaître, c'est répondre différemment la deuxième fois de la première."

Cette dernière phrase résonne curieusement dans le contexte d'un traumatisme psychique : pour se souvenir, le sujet doit pouvoir répondre différemment par rapport à la première fois que l'évènement a surgi et a provoqué le "trauma". Ainsi, la réponse différente est la re-connaissance de cet évènement. Pour les théoriciens de l'EMDR par exemple, il existe une opposition entre principe de survie et principe de traitement de l'information : tant que l'information n'est pas "traitée" par la mémoire, au sens de sa signifiance pour le sujet, la survie seulement s'impose à lui (avec la cohorte symptomatologique qui y est liée : hyper-excitation somatique, syndrome de répétition, dissociation, évitement...etc).

Au niveau du corps humain, les notions d'identité et de mémoire ont une nature matérielle et concrète : "elles s'élaborent, s'inscrivent et s'incarnent dans des réseaux de cellules qui communiquent entre elles" ajoute JC Ameisen. Ce réseau de cellules forme un système de système et possède donc un état informationnel d'où émergent ces notions d'identité et de mémoire.

Dans le système immunitaire humain existent deux grandes familles cellulaires distinctes : les "sentinelles" et les lymphocytes, notamment les T, dont la "maturation" se produit dans le thymus pendant la vie embryonnaire.
Les cellules sentinelles circulent dans tout le corps et "fragmentent, découpent sans cesse une petite partie de toutes les protéines qu'elles contiennent". Ces fragments sont exposés à la surface de la cellule sur des présentoirs, tous identiques entre eux. L'information contenue dans ces présentoirs et dans les fragments de protéines récoltées dans tout le corps, en l'absence d'infection, constitue le "soi", l'identité immunitaire de la personne. Dès qu'une nouvelle infection a lieu, des fragments de protéines étrangères au corps sont, par le travail des "sentinelles", exposées sur leurs présentoirs. L'assemblage hétérogène composé du présentoir du "soi" et du fragment de protéine du "non-soi" est capturé par un des récepteurs d'un lymphocyte T qui se transforme en combattant pour lutter contre l'infection.
Comment le lymphocyte T "sait il" que cet assemblage est hétérogène, sachant qu'il n'a jamais rencontré auparavant aucune protéine issue d'un nouveau microbe ? En fait, il ne s'agit pas d'une reconnaissance suite à un apprentissage du non-soi (l'infinie variété des protéines étrangères à l'unicité de notre corps dont l'énumération exhaustive est impossible) mais bien d'un apprentissage de la nature de notre "identité" au moment où notre corps n'est qu'un embryon.

Les concepts de vie/mort vont se mettre à l'œuvre ici : la vie d'abord, dans l'exploration systématique du champ des possibles.
Le scientifique baigné dans la logique "classique" exclusive convoque ici le "hasard" pour expliquer l'élaboration d'un très grand nombre de combinaisons possibles d'un "jeu" combinatoire fini, en l'espèce la fabrication par l'embryon humain d'un nombre gigantesque de récepteurs tous uniques mais tous différents de pré-lymphocytes T, qui comme "par hasard", vont par la suite définir parfaitement le "soi". La notion de "hasard", darwinienne, est pratique pour cacher le flou d'un mécanisme encore ignoré.
Mais il est possible aussi de voir ici un déploiement d'une systématique au sein d'une logique "inclusive", accompagné de manière concomitante d'une destruction d'une partie de ce qui a été préalablement déployé.
Je renvoie le lecteur tout d'abord à l'article "Echelles, Nombres et Perception.." pour illustrer le principe d'une combinatoire systématique : combinatoire signifiant un calcul (addition et multiplication) et systématique signifiant que tout est compté. JC Ameisen donne comme exemple un récepteur protidique composé de 4 protéines différentes codées par 600 gènes environ chacune. Si l'on admet une "fabrication" systématique de tous les récepteurs uniques possibles (différents d'au moins 1 protéine sur quatre), le possible devient vertigineux (environ 130x10^9 combinaisons possibles). Au sein d'une logique inclusive, ce possible définit un potentiel. Ce potentiel n'existe en réalité que dans un tout petit organe au sein de l'embryon (le thymus) et pendant un laps de temps très court : cet organe est en fait comme un simulateur de vie ...et de mort potentielles.

Au sein du thymus de l'embryon sont "entreposés" tous les récepteurs des cellules sentinelles définissant le soi. Les récepteurs des pré-lymphocytes T vont durant trois jours circuler au sein de ces cellules et être "baignés" de ces informations, les cellules interagissant entre elles.
Comme nous l'avons vu plus haut, la survie du futur lymphocyte T dépend des interactions de son environnement. Ici s'opère l'étrange mais fascinante complexité de la construction de notre identité biologique. Il est possible, selon JC Ameisen, de simplifier les interactions complexes entre cellules selon deux groupes de réponses : les réponses qui vont permettrent la vie et celles qui vont donner la mort. Quantitativement, on constate que les réponses de mort seront beaucoup plus nombreuses que celles de vie et cela aboutit à la destruction par l'organisme lui même de près de 99% du potentiel de vie précédemment créé ! Les "raisons"  de mort sont assez "binaires" : ainsi si les récepteurs du lymphocyte T interagissent trop fortement avec les récepteurs du soi, ils sont détruits (évitant ainsi les futures maladies auto-immunes); de même si les récepteurs n'interagissent pas du tout ou très faiblement, ils sont détruit également (évitant l'inutilité future du lymphocyte "tueur" !). En fait, seuls les récepteurs dont l'interaction est "modérée" vont permettre d'engendrer un signal "faible" de survie pour les lymphocytes T : ainsi la vie apparait ici comme la réponse "modérée" et "faible" : unique complexité située entre des réponses trop "franches", trop intenses, dans un sens comme dans l'autre.
Pendant trois jours, au sein du thymus, se joue ainsi l'actualisation du potentiel créé de manière systématique auparavant. Cette actualisation va garder environ 1% du potentiel et définir ainsi l'unicité singulière de l'embryon donc de l'individu en train de se former : singularité qui signera in fine sa "réponse" immunitaire.



Je vois pour ma part, ici, une complexité se mettre en place, au sein des relations (dynamiques) entre cellules de l'immunité. Je conjecture ici également un système de systèmes dont il est possible de comprendre l'ontologie si on s'empare de la logique lupascienne.
Posons que l'ensemble des interactions entre cellules sentinelles et pré- lymphocytes T dans le thymus embryonnaire définisse un ensemble de couples dont chacun est composé de deux informations : la combinaison du récepteur de la sentinelle et la combinaison du récepteur du lymphocyte T. Nommons pour simplifier notre propos chaque couple générique (S,T). Nous avons alors :
1) Si S est "trop proche" (interaction trop intense) de T, alors c'est la destruction de T
2) Si S est "trop éloigné" (interaction trop faible) de T, alors c'est la destruction de T
3) Si S n'est "ni trop proche ET ni trop éloigné" (interaction modérée) de T, alors c'est la survie de T.
Ce système axiomatique fait penser à une matrice ternaire où 1) serait "l'égalité" (axiome d'identité) (A est A), 2) serait la non égalité (axiome de non contradiction) (A n'est pas non-A) et 3) serait le tiers inclus (axiome du tiers inclus) (il existe un tiers entre A et non-A).
Pourquoi le tiers inclus ici et non l'axiome classique du tiers exclus  ? Tout simplement car la réponse donne la "vie", c'est à dire actualise le potentiel existant en le gardant "visible", tandis que les autres réponses donnant la "mort" actualisent le potentiel existant en le faisant disparaître ! Le tiers inclus, ici dans cette systémogénèse immunitaire, définit la vie même tandis que les opposés contradictoires engendrent la mort. Il est bien entendu qu'ici, je parle des interactions entre cellules, donc de leurs relations dynamiques, c'est à dire in fine de systèmes informationnels et non des structures cellulaires au sens strict.

Que peut signifier ici un rapprochement entre le concept lupascien du tiers inclus et l'identité immunitaire du "soi" ? Je vois pour ma part l'irréductible contradictoire et l'inversion de sens (vu avec Van Gennep).
Selon JC Ameisein, la re-connaissance est une présentation à nouveau avec une réponse différente. En effet, il écrit : "Aussi étrange que cela puisse paraître, le lymphocyte qui répond pour la première fois à un fragment d'une des protéines du virus de la grippe [...] n'y répond pas parce qu'il le "reconnait" [au sens de connaitre] : il y répond au contraire pour la seule raison qu'il ne l'a jamais rencontré." Et cette réponse sera intense et cela déclenchera, pour la première fois, un signal intense qui engendrera la destruction de la protéine du "non-soi". Le "soi" est ici définit par des informations ( des combinaisons de protéines) "contradictoires" essentiellement, une réponse originelle modérée, singulière et rare, tandis que le "non-soi" se définit par des informations non contradictoires essentiellement, une réponse originelle très forte ou très faible, commune et courante (statistiquement du moins).
C'est bien l'inclusion originelle d'informations contradictoires, pendant la vie embryonnaire, qui permet de construire la complexité de notre système immunitaire.

Le concept de mort cellulaire apparaît ainsi très bien adapté à sa ré-interprétation au sein d'une métaphysique lupascienne de logique inclusive ou logique du tiers inclus. La complexité entrevue alors prend tout son sens et "se simplifie".

Ce concept de mort cellulaire, rend ainsi au concept de vie, toute sa beauté et sa complexité grâce à l'introduction du contradictoire au sein du couple (vie,mort). Immergé au sein d'une logique lupascienne, ce couple fait à son tour émerger peut-être Le véritable concept de ce que nous nommons la "vie" : en réalité, son "tiers inclus", issu d'une tension irréductible et contradictoire entre vie et mort, et dont la manifestation "visible" reste si rare et si singulière !

vendredi 11 février 2011

Théorie de l'Information : la singularité de l' approche théorético-informationnelle de la théorie quantique


Je dois à Olivier Penelaud (blog cité ci-contre) ma rencontre avec la thèse d'Alexis Grinbaum (AG) sur Le Rôle de l'Information dans la Théorie Quantique.(2004).
Il s'agit en fait d'une approche théorético-informationnelle qui à partir de quelques concepts (système, fait, information) et deux pré-supposés fondamentaux élabore une axiomatique informationelle (7 axiomes) dont la dérivation permet de retrouver le formalisme de la théorie quantique, voire d'introduire certains résultats génériques en physique et en mathématiques.

L'approche de AG n'est pas au sens strict une théorie de la mesure, dont les problèmes restent entiers ici, car il prend soin de se placer "après". Il pose, d'après Wheeler, que "l’ensemble de toutes les théories est décrit sous forme cyclique comme une boucle." Ensuite, il pose que "chaque description théorique particulière peut être obtenue à partir de la boucle par une opération consistant en sa coupure.(...) Une fois la coupure donnée, certains éléments de la boucle deviennent l’objet d’étude de la théorie, d’autres restent dans la méta-théorie de cette théorie." Ce concept de coupure séparant objet et sujet rejoint Martin et sa citation de Von Neumann qui précisait que l'endroit de la séparation entre objet et sujet n'a aucune espèce d'importance quant à la validité des axiomes retenus (pour la théorie quantique vue ici comme une théorie particulière de l'information). Ces deux pré-supposés (boucle et coupure) de AG dissolvent selon lui le problème de la mesure car ce dernier (le problème du choix in fine rappelons le) aboutit à une erreur logique.
D'une certaine manière, ces deux pré-supposés de Alexis Grinbaum dans sa thèse se rapprochent d'une double vue complémentaire : une interdépendance absolue ET une co-dépendance relative de toute entité entre elles, le ET est bien inclusif, au sens de la logique de Stéphane Lupasco par exemple. L'absolu est ici représenté par la boucle des descriptions, dont on ne peut sortir de manière logique, et le relatif est représenté par la coupure qui définit ainsi de facto un triplet : explanans, explanandum et bien sûr l'interface qu'il est possible de voir soit comme un fermé (exclusif), soit comme un ouvert (inclusif), selon la logique métaphysique exposée.
Enfin, pour AG, l'information est sur la boucle diamétralement opposée à la théorie physique que l'on souhaite étudier et fait partie ainsi des concepts méta-théoriques (avec système et fait). Précisons ici qu'un fait est un résultat de mesure, c'est donc une information particulière, liée à la notion de temps. Ici, AG relie Observateur/Agent Informationnel/Information/Méta-Théorie d'un côté de la coupure et Objet Observé/Système Physique/Théorie de l'autre côté. AG introduit même, sans s'y référer explicitement la notion de complémentarité vue au sens de Bohr/Lupasco, c'est à dire qu'il expose clairement que d'un côté de la coupure existe une actualisation et de l'autre côté une potentialisation, des mêmes entités ! Ainsi, chaque système potentialise une information comme cette dernière actualise de fait un système et réciproquement. AG nomme ce processus logique pour sa part la "contextualité méta-théorique" des 2 premiers axiomes. Je l'interprète pour ma part comme un schéma plongé dans une logique lupascienne.

Les deux premiers axiomes informationnels de la thèse d'AG sont les suivants :

1. Il existe une quantité maximale de l’information pertinente qui peut être extraite d’un système.
2. Il est toujours possible d’acquérir une information nouvelle à propos d’un système.

Ces 2 premiers axiomes permettent la reconstruction du formalisme de la théorie quantique.

Il est très intéressant de noter ici que l'axiome 2 décrit une continuité, un flux, une possibilité inconditionnelle de mesurer, d'acquérir une information non encore acquise. Quand l'axiome 1 décrit la possibilité (méta-théorique) d'acquérir une pertinence informationnelle, suite à un état maximal d'informations obtenu d'un système. L'axiome 1 décrit ici une discontinuité, un effet de seuil, une rupture informationnelle par rapport à l'axiome 2 et les deux ne sont pas contradictoires dans la mesure où la nouveauté peut déconstruire la pertinence précédente.

Ces deux premiers axiomes sont très puissants et très généraux puisque à l'origine d'une théorie de l'information générale dont la singularité ne viendra par construction que des axiomes suivants (3 à 7) pour aboutir à la théorie quantique.

Ils donnent un sens et donc une pertinence très précise dans sa construction à la notion même de pertinence et donc de sens à l'information en général !


à suivre...