Résumé de la méthode MCR

Cette méthode est une discipline nouvelle : une représentation des processus de conceptualisation enracinée directement dans la factualité physique a-conceptuelle — bien en-dessous des langages — et dont le caractère est résolument méthodologique et formalisant. Toute l’essence qualitative de la stratégie de description de microétats, de laquelle la microphysique actuelle tire ses forces remarquables, s’y trouve incorporée. Les processus de conceptualisation y sont représentés par des algorithmes qualitatifs de construction qui excluent a priori tout flou ou problème illusoire.

Advertisements

http://video.google.com/googleplayer.swf?docid=8766991904046897581&hl=fr

Introduction générale de l’auteur

Cet ouvrage concerne les processus de conceptualisation, depuis leur genèse et jusqu‘à leurs limites. Il expose une méthode générale de conceptualisation relativisée.

Il s’agit d’une problématique d’un type nouveau qui aboutit à une nouvelle discipline : une représentation des processus de conceptualisation enracinée directement dans la factualité physique a-conceptuelle – bien en dessous des langages – et dont le caractère est résolument méthodologique et formalisant. Les processus de conceptualisation y sont représentés par des algorithmes qualitatifs de « description » qui, par construction, excluent tout flou, paradoxe ou problème illusoire. Toutefois les directions et les contenus des processus de conceptualisation ne sont pas restreints par ces algorithmes. Chacun peut les choisir librement selon ses propres buts. En cela la méthode de conceptualisation relativisée s’apparente en une certaine mesure à la logique et même aux mathématiques. Mais en même temps elle possède une spécificité qui la distingue foncièrement de tout système formel : elle débute à des zéros locaux de conceptualisation, en y représentant la capture de fragments de substance physique purement factuelle, encore a-conceptuelle, qui par la suite sont traités comme une matière première pour des sémantisations progressives. Ces sémantisations constituent le cœur même de l’entière démarche, au lieu de vouloir les en expulser.

La méthode de conceptualisation relativisée introduit un système d’ ‘algorithmes qualitatifs’ de création et de développement indéfinis de sens communicables, à partir de fragments de substance physique a-conceptuelle.

Tout au long du processus de construction de la méthode de conceptualisation relativisée, l’alliance inamovible entre sémantique et formel, qu’on a tant travaillé à occulter dans les systèmes formels, est l’objet d’une attention privilégiée. On guette ses apparitions. On la stabilise. L’on protège ses développements. C’est la genèse et le fonctionnement de cette alliance entre contenu à exprimer et forme d’expression, que l’on scrute et l’on organise.

Par cela la méthode de conceptualisation relativisée s’apparente à l’Ingénierie qui, avec des fragments extraits du réel physique, construit des formes utiles nouvelles, “artificielles”, bien que soumises aux lois qui régissent les phénomènes physiques naturels ; cependant qu’elle s’apparente aussi en un certain sens à l’Art, car l’artiste, lorsqu’il est grand, extrait des profondeurs de sa factualité psychique individuelle, des fragments encore in-formes d‘émotion et d’impression auxquels il donne des formes publiquement sensibles en se conformant aux contraintes matérielles qu’imposent l’utilisation architectonique de matériaux, ou l’utilisation de couleurs, ou de sons, ou de gestes.

Les algorithmes définis dans la méthode de conceptualisation relativisée reflètent pas à pas l‘élaboration des relations cognitives entre l’homme et “le réel”, tout en normant ces relations. Et finalement, comme une fleur inattendue, ils produisent une réponse construite et tranchée à la question de savoir ce que la rationalité déductive, et notamment scientifique, peut régler, et ce qui reste définitivement en dessous d’elle, dans les plaines phosphorescentes de l’intuition et des croyances, ou au delà de sa portée, dans les construits métaphysiques.

D’un point de vue plus pragmatique, la méthode de conceptualisation relativisée met en évidence que l’attitude ouverte à l‘être humain pour conceptualiser le réel dont il fait partie, est foncièrement active, créative, téléologique. Et la méthode établit d’une manière explicite les normes adéquates pour utiliser à fond l’existence de cette ouverture, librement, et sans stagnations ni errements. Elle dote d’instruments pour conceptualiser ce qu’on veut, aussi loin qu’on veut, à l’abri d’ambiguïtés, de paradoxes ou de faux problèmes.

L’exposé est organisé en deux parties.

La première partie est réservée à la construction du noyau de la méthode générale de conceptualisation relativisée. Ce noyau a déjà été exposé dans toutes ses phases successives . Mais une variante inédite en est donnée ici, considérablement clarifiée et enrichie.

La deuxième partie contient quelques applications majeures de la méthode de conceptualisation relativisée.

On y re-construit d’abord selon les exigences de la méthode, les démarches logique et probabiliste. En conséquence des relativisations descriptionnelles, ces deux approches fondamentales de la pensée s’approfondissent, se précisent et s‘élargissent sous les yeux du lecteur, en s’unissant en un seul tout organique.

La relativisation de la représentation des probabilités permet notamment de dissoudre une aporie peu ébruitée mais tout à fait fondamentale qui, depuis plus de deux décennies, semblait reléguer la théorie abstraite des probabilités dans le domaine des mathématiques pures, en la coupant de toute applicabilité.

A son tour, la dissolution de cette aporie conduit à l’identification claire de l’existence d’une certaine classe de “sens” qui interviennent d’une manière centrale dans toutes les étapes de la syntaxe de transmission de messages de Shannon, dont on affirme souvent qu’elle ne comporterait aucune espèce de sens.

Et cette identification du lieu où se loge du sens dans la théorie de Shannon, associée aux exigences générales de la méthode de conceptualisation relativisée, ouvre la voie vers des estimations numériques de complexités relativisées aptes à préserver les contenus sémantiques.

Enfin, le concept de temps est lui aussi reconstruit sous les guidages de la méthode. La représentation qui émerge réserve une surprise : elle est bi-dimensionnelle et elle distingue radicalement entre les temps psychiques individuels et “le” temps collectif consensuel, tout en les reliant d’une manière définie, sur un niveau descriptionnel d’ordre supérieur.

Les résultats mentionnés illustrent les modalités de fonctionnement de la méthode de conceptualisation relativisée et ils démontrent sa puissance d’organisation, de clarification, et d’unification.

C’est peut-être la communauté des informaticiens qui – dans ses tentatives de construire des “intelligences” artificielles et des “sens virtuels” – pourrait en faire l’usage le plus immédiat. C’est en tout cas la communauté des sciences de l’information et de la communication qui, j’espère, trouvera là un saut épistémologique utile.

Mioara Mugur-Schächter

print-gallery

Résumé de la méthode MCR

C’est sur la base du nouveau regard sur le monde proposé par la physique quantique et pour le rendre applicable à l’ensemble des connaissances que Mioara Mugur-Schächter a voulu construire MCR (Méthode de Conceptualisation Relativisée) de façon systématique. Elle était particulièrement légitime à faire ce travail, ayant conduit elle-même des recherches brillantes en physique et travaillé, jeune, avec les plus grands scientifiques de la génération précédente.

Le nouveau regard apporté par la physique quantique, tout le monde le sait désormais, a signé, tout en moins dans cette discipline, la mort du « réalisme des essences», selon lequel il existerait une réalité indépendante de l’observateur, composée d‘« objets » que l’observateur pouvait décrire « objectivement », en s’en approchant de plus en plus grâce à des instruments de plus en plus perfectionnés. Les physiciens de la grande époque de l’Ecole de Copenhague s‘étaient aperçus qu’ils ne pouvaient absolument pas rendre compte de ce que montraient leurs instruments s’ils continuaient à faire appel au réalisme. Mais s’ils ont jeté les bases d’une nouvelle méthode, ils n’en ont pas tiré toutes les applications épistémologiques. Beaucoup de leurs successeurs ne l’ont d’ailleurs pas encore fait. Mioara Mugur-Schächter fut véritablement la première à proposer de généraliser cette méthode à l’ensemble des sciences. Son mérite est au moins aussi grand que celui de ses prédécesseurs.

Nous pouvons observer que c’est en premier lieu le perfectionnement des instruments d’observations appliqués aux phénomènes de l‘électromagnétisme et de la radioactivité qui a obligé les physiciens utilisateurs de ces instruments à regarder autrement des phénomènes qu’ils ne s’expliquaient pas dans le cadre des anciens paradigmes, les contraignant par exemple à ne pas choisir entre le caractère ondulatoire et le caractère corpusculaire de la lumière. Or ces instruments étaient apparus, sur le « marché des instruments de laboratoires », si l’on peut dire, non pas du fait de « géniaux inventeurs » convaincus qu’ils abordaient de nouveaux rivages de la connaissance, mais du fait de modestes techniciens. Ceci correspond à l’intuition selon laquelle les super-organismes technologiques se développent selon des modes de vie propres, proches de la mémétique, et que c’est leur évolution quasi biologique qui entraîne celle des conceptualisations et connaissances organisées en grands systèmes dans les sociétés humaines.

Mais l‘évolution technologique n’aurait pas suffi à provoquer seule la révolution conceptuelle. Il a fallu aussi que des mutations dans les modes de représentation du monde hébergées par les cerveaux de quelques précurseurs de grand talent les obligent à voir les incohérences, plutôt que continuer à buter contre elles pendant encore des décennies. Nous estimons pour notre part que Mioara Mugur-Schächter a fait preuve d’un génie précurseur aussi grand, en sachant passer d’une pratique mal formulée et mal systématisée, inutilisable ailleurs qu’en physique, à une méthodologie rigoureuse applicable par toutes les sciences.

Evoquons ici en quelques lignes les grandes étapes indispensables à la construction des connaissances selon MCR. Il s’agit en fait d’une méthodologie pour la production des descriptions, car il n’y a de science que de descriptions, les « phénomènes en soi » étant réputés non-existants.

– Le Fonctionnement-conscience. On postule au départ l’existence d’un observateur humain, doté d’un cerveau lui-même capable de faits de conscience. Ce cerveau est tel qu’il peut afficher des buts au service desquels mettre une stratégie. Mioara Mugur-Shächter considère que l’organisme vivant, ceci à plus forte raison s’il est doté de conscience, est capable de téléonomie. Nous pensons pour notre part que le concept de Fonctionnement-conscience peut être étendu au fonctionnement de tous les êtres vivants, et peut-être même à celui de précurseurs matériels de la vie biologique, aux prises avec la Réalité telle que définie ci-dessous. Le terme de conscience ne peut donc alors être conservé que sous forme de métaphore. Les concepteurs de robots véritablement autonomes espèrent que ces robots pourront procéder de même afin de se doter de représentations ayant du sens pour eux.

– La Réalité. On postule qu’il existe quelque chose au-delà des constructions par lesquelles nous nous représentons le monde, mais (pour éviter les pièges du réalisme), qu’il est impossible – et sera à jamais impossible – de décrire objectivement cette réalité. Peut-être pourrait-on (la suggestion est de nous) assimiler cette réalité à ce que la physique contemporaine appelle le Vide quantique ou l‘énergie de point-zéro, à condition d’admettre que ce Vide est et demeurera indescriptible, d’autant plus qu’il ne s’inscrit ni dans le temps ni dans l’espace propres à notre univers. Seules pourront en être connues les fluctuations quantiques en émanant, si elles donnent naissance à des particules qui se matérialiseraient par décohérence au contact avec notre matière. Ces diverses entités d’ailleurs n’acquerront de « réalité » que dans les conditions de formalisation des connaissances proposées par la méthode.

– Le Générateur d’Entité-objet et l’Entité-objet ainsi générée. Il s’agit d’un mécanisme permettant au Fonctionnement conscience, dans le cadre de ses stratégies téléonomiques, de créer quelque chose (un observable) à partir de quoi il pourra procéder à des mesures. Il n’y aurait pas de science sans ce mécanisme. Nous procédons de cette façon en permanence dans la vie courante. Nous construisons des « objets » d‘étude, qui n’existaient pas avant notre intervention.

– Les Qualificateurs. Il s’agit des différents points de vue par lesquels nous décrivons d’une façon utilisable par nous les Entités-objets que nous avons créées. Ces Qualificateurs sont les moyens d’observation et de mesure, biologiques ou instrumentaux, dont nous disposons. Il n’y a qu’une qualification par mesure et celle-ci n’est pas répétable car généralement l’Entité-objet a changé. Mais la multiplication des qualifications donne ce que MCR appelle des Vues-aspects proposant des grilles de qualifications effectives et intersubjectives. L’opération peut conduire à la constatation de l’inexistence relative de l’Entité-objet créée aux fins d’observation (inexistence relative car il serait contraire à MCR de parler de faux absolu). Cela montre que l’on ne peut pas inventer n’importe quelle Entité-objet et construire des connaissances solides à son propos. Il faut qu’elle corresponde à quelque chose dans la Réalité telle que définie plus haut et qu’elle puisse être mise en relation avec les grilles de qualification déjà produites. Ainsi les connaissances construites s’ajoutent-elles les unes aux autres.

– Le Principe-cadre. Il s’agit du cadre d’espace-temps dans lequel on décide d’observer l’Entité-objet afin de la situer.

Tout cela permet d’obtenir un canon général de description, utilisable dans n’importe quel domaine. Il repose sur le postulat de la non-possibilité de confronter la description avec un réel en soi ou réel métaphysique quelconque. Il débouche par contre sur une « description relativisée », individuelle ou probabiliste, à vocation inter-subjective, c’est-à-dire partageable par d’autres Fonctionnements-consciences, à travers ce que MCR appelle des Descriptions relativisées de base Transférées. La somme de celles-ci devrait correspondre à la somme des connaissances scientifiques relativisées que grâce à MCR nous pouvons obtenir sur le monde.
Mioara Mugur-Shächter, depuis les premières années passées à élaborer la méthode, lui a donné plusieurs applications d’un intérêt méthodologique considérable. Elles apportent la preuve de l’intérêt de la révolution épistémologique qui découle de la généralisation de MCR à d’autres domaines de la représentation des connaissances. On y voit en effet remis en cause, d’une façon qui sera certainement fructueuse, l’essentiel de ce que l’on considérait jusqu’ici comme les bases de la conceptualisation dans les disciplines évoquées. Il ne devrait plus jamais être possible, dans ces disciplines, de continuer à raisonner selon les précédentes méthodes, sauf à le faire intentionnellement dans le cadre de recherches limitées.

Nous ne pouvons ici résumer l’argumentaire des démonstrations proposées par Mioara Mugur-Shächter. Elles concernent la logique, les probabilités, le concept de transmission des messages chez Shannon, la complexité et finalement le temps, vu sous l’angle des changements identité-différence qui peuvent s’y produire.
Bornons-nous à dire que, dans chacun de ces cas, on retrouve le postulat de MCR selon lequel on ne peut pas imaginer et moins encore rechercher une prétendue réalité ontologique ou en soi de phénomènes qui sont en fait des constructions du Fonctionnement-conscience et du Générateur d’Entité-objet tels que définis dans la première partie du livre. Prenons l’exemple de la logique. Si celle-ci était considérée comme un instrument du même type que les mathématiques (dont la plupart des mathématiciens n’affirment pas qu’elles existent en soi), on pourrait lui trouver quelque utilité, mais seulement pour donner de la rigueur aux raisonnements abstraits. Elle ne servirait pas à obtenir de descriptions du monde. Or la logique prétend au contraire décrire des classes d’objets, auxquelles elle applique des prédicats. Mais ces objets et ces prédicats sont présentés comme existant dans la réalité ou traduisant des relations réelles entre éléments de la réalité. La logique ne se pose donc pas la question du processus de construction par lequel on les obtient. Elle suspend dont quasiment dans le vide l’ensemble de ses raisonnements. Faire appel à ceux-ci risque alors d‘être inutile, voire dangereux, en égarant l’entendement dans des cercles vicieux (comme le montre le paradoxe du menteur). La logique ne retrouvera de bases saines qu’en utilisant MCR pour spécifier les objets de ses discours.

Il en est de même du concept de probabilités tel que défini notamment par le mathématicien Kolmogorov. L’espace de probabilité proposé par ce dernier ne devrait pas être utilisé dans les sciences, sauf à très petite échelle. Il ne peut que conduire à des impasses. Si l’on pose en principe qu’il existe des objets en soi difficilement descriptibles par les sciences exactes, dont la connaissance impose des approches probabilistes, le calcul des probabilités est un outil indispensable. Ainsi on dira que la probabilité de survenue d’un cyclone dans certaines conditions de température et de pression est de tant. Mais si, pour analyser plus en profondeur les phénomènes de la thermodynamique atmosphérique et océanique, on admettait que le cyclone n’existe pas dans la réalité, pas plus que l‘électron ou le photon, mais qu’il est la construction ad hoc unique d’un processus d‘élaboration de qualification selon MCR, le concept de probabilité changera du tout au tout. On retrouverait, à une échelle différente, l’indétermination caractéristique de la physique quantique et la nécessité de faire appel à des vecteurs d‘état et à la mathématique des grands nombres pour représenter concrètement de tels phénomènes.
La mesure de la complexité oblige aux mêmes restrictions. Pour la science « classique » de la complexité, il existe des entités réelles (en soi) dont les instruments classiques de mesure ne peuvent pas donner, du fait de leur imperfection, de descriptions détaillées et déterministes. D’où une impression de complexité. Il faut donc tenter de mesurer les systèmes ainsi prétendus complexes par des méthodes détournées. Mais si l’on admettait que l’objet, complexe ou pas, est une création du Fonctionnement-conscience et relève dont de MCR dans la totalité de son étude, les choses se simplifieraient. On cesserait en fait de parler de complexité. On se bornerait à dire que l’on a créé une Entité-objet accessible aux opérations de qualifications, qui n’aurait pas d’intérêt en soi, mais seulement comme élément d’un processus plus général de construction de connaissances.

Mioara Mugur-Shächter ne le dit pas, mais ce qui précède pourrait selon nous s’appliquer au concept de système. La science des systèmes s‘évertue à identifier ceux-ci dans la nature et se noie évidemment dans le nombre immense des candidats-systèmes qu’elle peut identifier. Mieux vaudrait admettre d’emblée que le système en général, tels systèmes en particulier, n’existent pas en soi, mais doivent être spécifiés en tant qu’Entités-objets créées par un Générateur ad hoc.

Le même type de raisonnement s’appliquera à la théorie de Shannon et au concept de temps, tels que présentés dans l’ouvrage.

Extrait du livre Pour un principe matérialiste fort.

Approfondir : Automates intelligents