Le site de la distanciation

Activités d'enseignement
Passions

Ecrire à
Jean-Luc Michel

Le mémoire de recherche en information-communication

 

EXTRAIT

Le positionnement épistémologique

Les grands concepts scientifiques du XXème siècle

Il n’y a pas de recettes pour parvenir à une découverte scientifique, et comme en art, il ne saurait être question d’enseigner comment créer de la connaissance. Cependant, depuis que la science existe, beaucoup de chercheurs ont réfléchi sur les méthodes et l’état d’esprit nécessaires pour progresser. C’est le plus souvent en combinant intimement plusieurs techniques que l’on y parvient et c’est pourquoi nous allons survoler les principales. À vous ensuite de choisir les vôtres et d’assurer ainsi votre positionnement épistémologique personnel.


A. L’hypothético-déductivité et les méthodes quantitatives


Les méthodes les plus nombreuses se regroupent autour de l’hypothético-déductivité, elle même basée sur des règles cartésiennes dont les sciences dures traditionnelles font le plus large usage. Seules les approches les plus modernes basées sur d’autres formes de causalité en physique ou sur des raisonnements systémiques en biologie s’en affranchissent sans complexes, mais les SHS (sciences humaines et sociales) n’intègrent que très lentement les dernières évolutions épistémologiques. C’est pourquoi le chercheur ne peut guère compter que sur les méthodes déductives : on émet des hypothèses et on cherche à les vérifier. Comme la validation la plus ancienne, la moins contestable et la plus facile est la voie quantitative, beaucoup de SHS recourent aux mesures pour afficher leur rigueur. D’où la forte présence de quelques outils plus ou moins connus : questionnaires et exploitations statistiques, observations quantifiées, analyses de contenu ou de contexte, lexicométrie, tris croisés, analyses factorielles, variances et coefficients de corrélation, notion de chemin critique ou de point de rebroussement.


B. Les apports de la logique du 20e siècle


Certaines branches des sciences dures ont ouvert des brèches que nous ne pouvons plus ignorer. En 1925, le physicien Werner Heisenberg a présenté la notion fondamentale de principe d’incertitude : sous forme mathématique, on peut dire que le produit des incertitudes sur une mesure est toujours une constante, ce qui en termes logiques signifie que plus on réunit d’informations sur une variable régissant un phénomène, moins on en possède sur les autres. Autrement dit encore, on ne peut tout connaître simultanément puisque la mesure du phénomène modifie le phénomène. Et cette incertitude fondamentale doit nous permettre de mieux analyser les problèmes des sciences douces : ne sont-ils pas eux aussi, et à une échelle plus proche de nous que celle dont traitait Heisenberg, influencés par toute tentative de mesure ? Ou en d’autres termes, l’approche positiviste et déterministe ne connaît-elle pas une limite absolue et intangible encore plus vite atteinte dans les SHS, ce qui replacerait celles ci dans la complexité, au sens d’Edgar Morin.
Et ce n’est pas tout, car à ce principe de Heisenberg, il faudrait ajouter celui de Gödel pour l’incomplétude (en 1931) et celui de Church pour l’indécidabilité (en 1936). En 1985, dans un ouvrage fondamental, le chercheur en intelligence artificielle Douglas Hofstadter donne une illustration du théorème d’incomplétude de Kurt Gödel dans un dialogue entre « Achille et la tortue » (personnages empruntés à Lewis Carroll) . Toute la saynète est basée sur un phonographe qui ne peut jamais être vraiment parfait car pour être « parfait », il doit savoir reproduire toutes les fréquences d’un disque, y compris celles qui sont capables de le détruire, ce qui signifie que plus il est « parfait » dans la restitution, plus il est « imparfait » puisqu’il s’autodétruit.
Enfin, la théorie générale des systèmes, fondée par Ludwig von Bertalanffy entre 1932 et 1968 a modifié radicalement la théorie de la connaissance en montrant que dans un système, la causalité linéaire connue depuis l’Antiquité n’était qu’un cas particulier d’une causalité plus complexe appelée causalité circulaire dans laquelle toute conséquence pouvait devenir cause. La systémique établit de nombreuses autres règles susceptibles d’intéresser le chercheur en SHS : intercausalité, notion d’émergence, homéostasie, rétroaction (ou « feed back »), etc.
Ainsi, on ne peut plus être sûr aujourd’hui que les méthodes traditionnelles sont toujours les plus appropriées pour rendre compte des phénomènes complexes abordés par les SHS, d’où notre ouverture vers ces nouvelles approches, sans pour autant rejeter ce qui a fonctionné et peut, dans les cas où la mesure est possible, fournir encore des résultats valides. Mais le débat épistémologique ne s’arrête pas à ce point car il existe de nombreuses autres méthodes, fort anciennes elles, qui ne demandent qu’à reprendre du service sitôt que l’on s’attaque à des sujet ambigus ou imprécis (au sens d’Abraham Moles).


C. L’intuition


L’intuition arrive au premier rang et notre intention n’est pas de la cacher comme une maladie honteuse : bien que sans statut, car difficile à étudier scientifiquement, elle joue un rôle fondamental que l’on ne peut ignorer au motif que l’on ne sait comment elle agit ni que l’on doute de sa répartition égalitaire entre les chercheurs… C’est un fait qui semble acquis, nous ne sommes pas tous égaux sous le rapport de l’intuition : certains « voient » tout de suite une issue, d’autres tournent en rond sans jamais trouver… et changent de sujet.
Dans le chapitre consacré à la modélisation nous essaierons de montrer que la connaissance de l’activation de nos réseaux sémantiques associée à un bon entraînement à la pensée graphique peut, dans certaines circonstances, permettre de fortifier notre capacité d’intuition. Pour y parvenir, il faut savoir se placer à bonne distance de son sujet, ni trop près pour ne pas s’y perdre, ni trop loin pour ne pas le survoler. Dans Le Hasard et la nécessité, ouvrage célèbre en son temps (1970), le biologiste Jacques Monod, prix Nobel, a montré le rôle qu'un scienti¬fique pouvait assigner à l'identification simulante, notamment en s'identi¬fiant à une protéine : « Je me suis moi-même surpris, n'ayant à force d'attention centrée sur l'expérience ima¬ginaire plus rien d'autre dans le champ de la conscience, à m'identifier à une molécule de protéine. »

D. L’induction


Ce terme, aux origines anciennes, notamment en rhétorique où il signifiait l’action sur autrui est réapparu dans les années 80 dans le champ des recherches en sciences cognitives sous le nom d’inférence logique comme symétrique de la déduction : il s’agit de remonter des conséquences aux causes, à l’inverse de la déduction qui va des causes aux conséquences. La science occidentale a mis des siècles pour s’affranchir des démarches exclusivement inductives, souvent qualifiées d’empiriques (induction et empirie sont souvent confondues) ; cependant, des épistémologues comme Gaston Bachelard considèrent que l’induction n’est pas inutile au début d’une recherche, au moins comme un « activateur cognitif ».
L’induction se rencontre à l’amorce d’une recherche, généralement pour trouver des pistes de travail : elle peut conduire à la découverte de corrélations fécondes ou de régularités significatives (dépassant le hasard) ; elle réapparaît parfois à la fin d’une recherche dans la partie prospective et agit alors comme réactivateur de la réflexion pour proposer de nouveaux travaux sur une base validée. Son seul danger sérieux consisterait à croire qu’elle peut tout. Le meilleur remède que nous connaissions consiste à « graver » dans la mémoire des étudiants l’histoire de la puce et du chercheur (ceux qui la connaissent peuvent rire tout seuls et passer directement au paragraphe suivant) :

… Une petite histoire de puces…


Un chercheur choisit de travailler sur le comportement des puces. Il commence par explorer toute la littérature disponible sur le sujet et découvre qu’on les a peu étudiées sous l’angle comportemental. Après de longues réflexions, enrichies d’entretiens et de lectures diverses, il arrive à mettre au point une esquisse de sa problématique : les puces possèdent-elles des facultés de modifier leur comportement en fonction de modifications apportées à leur environnement ? Il se met en quête d’un directeur de recherche avec lequel il définit rapidement une série d’hypothèses complémentaires ainsi que sa méthodologie : dressage de familles de puces selon le schéma Stimulus/Réponse (S/R) et réactivation régulière du réflexe conditionnel, modifications graduelles de l’environnement, observation des résultats, induction et inférences de nouvelles hypothèses, nouveau cycle d’expérience et conclusions. Sa méthodologie validée par son directeur et assortie de divers conseils bibliographiques, il prépare ses corpus de puces et passe au conditionnement : un grand nombre de puces (plusieurs centaines) sont entraînées à réagir à un stimulus sonore : à chaque fois qu’elle entendent un son particulier (1000 Hertz à 75 dB pendant 0,5 seconde), elles sautent et reçoivent une récompense. Lorsque toutes ses puces sont dressées selon le schéma pavlovien classique, les expériences peuvent commencer. La première étape consiste à réaliser l’ablation d’une patte à une série de puces puis à envoyer le stimulus sonore tout en observant le résultat : les puces continuent de sauter comme si de rien n’était. Un peu inquiet, il rend compte à son directeur de recherche qui lui dit de continuer le protocole comme prévu (on ne change pas de méthode comme de chemise !) et de bien observer s’il n’y a pas des variations infimes des variables du saut qu’il conviendrait de quantifier plus précisément (longueur, hauteur, type de trajectoire, etc.). Les expériences reprennent, non sans avoir vérifié que les puces témoins ont elles aussi conservé le même réflexe conditionnel et qu’un phénomène parasite n’est pas venu perturber les travaux.
Ce n’est qu’avec l’ablation de la troisième patte qu’il se passe quelque chose : les puces sautent toujours, mais certaines semblent sauter moins loin. D’où une nouvelle hypothèse émergente : y aurait il un lien inversement proportionnel entre la distance de saut et le nombre de pattes supprimées ? À ce stade, son directeur le félicite et lui annonce qu’il va publier et signer un « paper » dans le bulletin interne du labo, et qu’en remerciement, il lui offrira une gentille dédicace… À la fois heureux et dubitatif, notre chercheur poursuit ses travaux. Ce n’est qu’assez longtemps après qu’il découvre son erreur : il n’y a pas de proportionnalité, mais des phénomènes de palier, puisqu’il faut retirer encore trois pattes pour que la distance de saut chute, cette fois très fortement. Un nouveau « paper » est publié. Enfin, au bout de plusieurs semaines de travail intense, il arrive au terme de sa recherche. Un lot résiduel de puces n’a plus qu’une patte (naturellement il a prudemment conservé des spécimens dans toutes les configurations antérieures au cas où il faudrait recommencer une des étapes). Avec une patte, les puces sautent encore en recevant le stimulus, mais la distance de saut est devenue très petite, de même que la trajectoire qui n’est plus une parabole mais peut-être un segment d’hyperbole ou de conique (ce point devra être éclairci sur les puces restantes…). Il ne lui reste plus que l’ultime étape, celle qui validera sa problématique : faire l’ablation de la dernière patte, ce qu’il opère avec une grande excitation, l’excitation des découvreurs d’horizons nouveaux, celle qu’ont du connaître avant lui Archimède, Newton, Maxwell, Einstein ou Plank. Lorsque les puces sans pattes reçoivent le stimulus, il ne se passe rien, rigoureusement rien : elles ne sautent plus.
Dans l’article que son directeur co-signe avec lui (quelle consécration !) dans une revue scientifique avec comité de lecture international (selon les procédures aujourd’hui en vigueur pour tenter de réduire le népotisme), ils déclarent en conclusion que non seulement leur problématique a été éclairante puisqu’elle a initié une méthodologie féconde mais qu’en plus elle s’est révélée opératoire puisque sans contestation possible, il ont pu induire que lorsque l’on coupe toutes les pattes d’une puce, celle ci devient sourde…


E. L’empirie et la spéculation


L’histoire qui précède introduit bien le passage des dangers relativement mineurs de l’induction à ceux, autrement plus coriaces, de l’empirie que beaucoup utilisent plus ou moins, volontairement ou non, consciemment ou non mais que personne ne veut reconnaître. L’histoire du terme est très mouvementée puisque selon les époques ou les cultures elle fut conseillée ou rejetée comme a-scientifique. L’étymologie est claire, une démarche est empirique quand elle s’appuie exclusivement sur l’expérience. Philosophiquement, l’empirisme (primat à l’expérience) s’oppose parfois dans un combat acharné au rationalisme (primat absolu à la raison) en s’épaulant de l’associationnisme (Hume et Stuar Mill). Aujourd’hui, le statut de l’empirisme est ambigu : rejeté comme doctrine car trop proche du discours et de la fausse science, il est néanmoins reconnu comme utile, au moins dans certaines phases de recherche et à condition d’être tenu à distance.
Quant à la spéculation, on lui adresse les mêmes reproches augmentés du fait qu’au contraire de l’empirie, elle est le plus souvent tautologique. Spéculer est perçu comme une activité honteuse, au mieux gratuite, sans importance et au pire comme franchement nocive parce que stérile et remplie de préjugés, à l’opposé de la science : « On ne peut rien fonder sur l'opinion : il faut d'abord la détruire. » disait Bachelard . Là encore, ce qui compte, c’est le positionnement de la spéculation dans la démarche. Si par spéculation, on entend germination bachelardienne, pas d’hésitation : spéculez ! Et s’il fallait se rassurer encore plus, on pourrait faire appel à deux personnalités au dessus de tout soupçon : « Popper (contrairement aux néopositivistes) ne récuse nullement la spéculation, fut-elle de caractère métaphysique ou mythologique, comme source possible de progrès dans la connaissance. La spéculation est à l'origine de “conjonctures” éventuellement réfutables, qui constituent la richesse même à quoi s'alimente la connaissance, dont l'édifice s'accroît par une succession d'essais, de tentatives dont la vocation n'est pas d'établir une impossible “vérité” empirique, mais d'éliminer l'erreur. »


En conclusion, le chercheur doit garder l’esprit ouvert à la fois sur les faits qu’il va étudier mais aussi sur les cadres conceptuels généraux qu’il va mettre en œuvre, consciemment ou non. C’est pourquoi, nous conseillons, avant de se lancer dans toute recherche, de se livrer à un examen de conscience approfondi des méthodes dans le cadre desquelles on compte travailler. Un crible épistémologique devrait initier cette interrogation personnelle. L’idéal serait de disposer d’une Carte de Tendre de la Recherche, inspirée de celle de Mlle de Scudéry (1654) dans laquelle figureraient la mer de la spéculation, le lac de l’empirie, les villages du cartésianisme et de la phénoménologie, ainsi que des indications d’itinéraires menant le chercheur à la découverte en contournant tous les obstacles ou en les utilisant pour progresser dans sa quête. Nous avons tenté l’aventure, à vous de vous l’approprier et de la perfectionner.


F. La formalisation


Plusieurs outils ont été forgés pour sortir de la Guerre de Cent ans entre l’empirie, le positivisme et leurs alliés ou mercenaires : la formalisation, née dans l’univers des sciences dures, essentiellement mathématique et physique est le plus important d’entre eux. On notera que la formalisation et sa désinence proche qui sera abordée simultanément, le formalisme, possèdent deux grandes familles d'acceptions : une positive, liée à des méthodes de créa¬tion (ou d'ingénierie) de la connaissance, l'autre négative, attachée à l'esprit de système, au systématisme. La formalisation est une méthode déjà classique consistant à trouver, à partir des régu¬larités observées (ou déduites d'un échelon inférieur) une représentation abstraite permettant de mieux expli¬quer, décrire ou com¬prendre la réalité, et parfois de prévoir ses évolu¬tions. Dans les sciences dures, la formalisation corres¬pond évidemment à la mathématisation du phénomène observé - sa mise en formule - éventuellement probabiliste, voire quantique et non déterministe (principe d’incertitude). Le travail des scientifiques consiste ensuite à confirmer la formule ou à l'infirmer avant de proposer une nouvelle formalisation plus proche de la réalité ou plus générale, selon qu'il s'agit d'une recherche locale ou globale. Dans les sciences douces, il est rare¬ment possible de proposer une formalisation unidimensionnelle (avec une seule variable déterminante) ; on observe plutôt des formalisations multidimensionnelles, avec tous les inconvénients mathématiques afférents (difficulté de traitement, indépendance incertaine ou difficile à examiner des variables), ce qui entraîne des calculs plus lourds et moins faciles à effectuer et vérifier. D'où les simplifications, les approximations abusives et les idées fausses qui ont pu faire croire que les sciences de l'imprécis étaient elles-mêmes imprécises. Si la formalisation est bien menée, la recherche peut comporter d'autres outils, comme des équations symboliques (Moles), des organigrammes, des sociogrammes, des matrices à deux, trois ou n dimensions, ou de nombreuses autres techniques combinables les unes avec les autres.
S'il s'agit d'employer les ressources des systèmes formels, de la pensée logique, de l'hypothético-déductivité, de l'inférence, de l'abstrac¬tion, de la recherche de variables pertinentes, de la modélisation, de la simulation, bref de tous les moyens, classiques et modernes de théoriser le réel, soyez formalistes ! N’hésitez pas ! Les recherches en SHS ne peuvent se contenter de la simple observation, d'autant plus qu'un bon nombre de leurs objets de recherche s'apparentent aux interactions faibles que l'on ne peut comprendre qu'avec des outils modé¬lisateurs.


V. L’épistémologie des sciences humaines et sociales


À la fin de la lecture de ce chapitre, le chercheur en SHS devrait s’être libéré de ses complexes (s’il en avait) ou être protégé contre leur éventuelle apparition. Les sciences douces (qui ne sont pas molles) n’ont pas à s’introspecter en permanence quant à leur statut scientifique par rapport aux sciences dures. Comme elles, mais avec des méthodes différentes et sur des terrains différents, elles participent à la construction de ce que Moles nommait le « grand logos universel de la nature. »
Le débat entre sciences dures et douces devrait être clos au sens ou les secondes, pour gagner en crédibilité et en légitimité devraient cesser de regarder systématiquement les vieilles méthodes des premières. Les sciences douces seraient bien inspirées de regarder les évolutions les plus récentes en cours, par exemple du côté du traitement automatique de la connaissance plutôt que de se focaliser sur des approches quantitatives ou positivistes certes utiles mais de peu de secours pour des questions complexes dans lesquelles il n’est plus question de prédictibilité mais de probabilité d’occurrence de scénarios. Ceux qui douteraient du caractère inéluctable des progrès en matière d’intelligence artificielle ou de traitement de la connaissance n’ont qu’à se souvenir comme on se moquait il n’y a qu’une petite dizaine d’années des programmes d’échecs en déclarant que jamais ces machines ne battraient le meilleur joueur mondial. Aujourd’hui, on connaît le résultat.


Le plus gros avantage de ces nouvelles approches est qu’il n’y a plus besoin d’une propédeutique mathématicologique compliquée pour les pratiquer : elles sont faciles à apprendre et tout chercheur en SHS, à condition qu’il soit logique et cohérent (ce qui est bien le moins !) peut se les approprier rapidement. Sur ce plan, nous sommes à égalité avec les chercheurs des sciences dures, d’où le fait que les années qui viennent vont voir apparaître cette nouvelle épistémologie des sciences de l’imprécis, de l’ambiguïté ou du flou que l’on pourrait bien renommer sciences de l’homme. Ce repositionnement permettrait aussi de sortir du complexe positiviste selon lequel une science n’est scientifique que si elle calcule et prédit des phénomènes. Il est des sciences dures comme l’astronomie qui ne sont ni expérimentales ni prédictives sans qu’on leur conteste leur scientificité. Alors pourquoi n’en serait-il pas de même des sciences de l’homme dès lors qu’elles auraient conquis une épistémologie spécifique et féconde ?
En sciences dures, on calcule, on n’explique pas le comment des choses. La gravitation universelle constitue un bon exemple : on sait calculer à peu près tout ce qui en dépend, mais on est incapable d’expliquer en détail le phénomène. C’est ce que le mathématicien René Thom, auteur de la théorie des catastrophes a exprimé dans une formule percutante : « Descartes […] expliquait tout et ne calculait rien, Newton […] calculait tout et n’expliquait rien… » . En sciences humaines et sociales, on ne calcule pratiquement jamais rien, en tout cas pas dans une orientation prédictive, ce qui fait que nous serions cartésiens et pas newtoniens : agréable paradoxe nous obligeant à relire attentivement le Discours de la méthode (1637) sous un angle systémiste pour être parmi les premiers à rendre compte du comment en recourant à la puissance heuristique de la modélisation.

 

© JLM

Page "Le Mémoire de recherche"