Le site de la distanciation

Activités d'enseignement
Passions

Ecrire à
Jean-Luc Michel

Réflexions sur les nouvelles technologies d'enseignement

Informatique et audiovisuel : avant le dégel

 

Le plan 10 000 micros a été gelé par le nouveau ministre de l'Éducation nationale, pour examen approfondi.

A l'heure de prendre des décisions importantes, il n'est peut-être pas inutile de se livrer a une comparaison entre l'introduction de l'informatique dans l'enseignement et la tentative précédente qui concernait l'audiovisuel. Comparaison d'au tant plus éclairante que les deux technologies sont complémentaires et que leurs modalités d'implantation (formation de personnels, "culture/outil" ou discipline, incompati bilité des matériels...) renferment de nombreuses similitudes, même si des différences essentielles, pédagogiques, institutionnelles et relationnelles) (appréhension globale suivie d'une analyse pour l'audiovisuel, et construction analytique suivie d'une généralisa tion pour l'informatique...) demeurent très marquées. La tentative d'introduction de l'audiovisuel dans l'enseignement apparaît un peu comme un brouillon, une répétition générale de celle de l'informatique. Cette dernière technologie reposant avec encore plus de force des questions non résolues, tout en présentant de nouvelles peut être plus ardues.

Il était une fois deux technologies nou velles, la première née, baptisée audiovisuelle fit grand bruit autour d'elle, mais se trouva fort dépourvue de crédits lorsque la crise fut venue : la seconde fut appelée in formatique, mais après plusieurs mues successives, on la nomma télématique. Pour l'aînée, la langueur, pour la ca dette, la pleine croissance. tout juste codi fiée dans un plan général dit "d'informati sation de la société". En 5 ans, 1250 lycées devaient être équipés de 8 micro-ordinateurs, pour un budget de 200 mil lions de francs, auxquels auraient dû s'ajouter, si personne ne les oubliait, d'au tres investissements dans la recherche et la formation (c'était le plan "10 000 micros"). Malgré de grandes différences, il appa raît de nettes similitudes entre l'audiovi suel et l'informatique, tout au moins du point de vue de leur intégration dans l'en seignement, ce sont les unes et les autres que nous allons essayer de montrer.

L'audiovisuel à la dérive

Pour les fabricants de matériel ou les éditeurs de programmes, les "moyens au diovisuels" et leur emploi en milieu scolaire sont encore ressentis comme un échec cuisant. Ils s'attendaient à voir s'ouvrir un immense marché dans lequel chacun trouverait son compte. Malheureusement, de manques permanents de crédits en hésitations politiques, d'exubérances béates en atermoiements sournois, les carnets de commande ne se remplirent jamais. Pour ceux des enseignants qui voulaient voir s'étendre l'utilisation de l'audiovisuel, que ce soit dans le but d'accroître l'effica cité de leur action de transmission des connaissances ou dans l'espoir de chan ger grâce à une technologie nouvelle.

Les relations entre enseignants et enseignés Ce fut la déception ou le repli sur soi, en se disant (pour les moins pessimistes) qu'un jour viendrait enfin... où le rôle "salva teur des moyens audiovisuels" serait reconnu et utilisé. Pour la majorité, ce fut très vite le retour à l'indifférence, en se disant qu'une fois de plus, on avait placé trop d'espoirs dans une technique peu adaptée, déjà dépassée, et que de toutes façons ce ne serait pas une technologie qui changerait l'école. Pour une toute petite minorité enfin, l'audiovisuel reste bien vivant et se trouve régulièrement pratiqué, ce qui hélas ne change que très peu le tableau que nous venons de dresser

Les raisons d'un échec

L'audiovisuel coûte cher, les appareils sont fragiles et encombrants, leur manie ment souvent difficile, la compatibilité en tre les différents systèmes n'est jamais as surée... Ce qui frappe le plus dans ces cri tiques tous azimuts, c'est qu'elles ne sont nullement spécifiques à l'audiovisuel, on peut en dire tout autant de l'informatique et plus précisément de la micro- informatique. .. La raison fondamentale est plutôt que l'on n'a pas su quoi faire d'outils demeurés mal connus. Quelles productions utiliser, à quel moment de l'action éducative, quelle stratégie d'ensemble faut il employer (in tégration dans toutes les disciplines, tra vail indépendant, individuel ou collectif...). L'audiovisuel a souffert tout à la fois des craintes qu'il a suscitées et des espoirs qu'il a fait naître. Deux situations illustrent assez bien cet état de fait : Dans l'établissement "riche", on a pu acquérir des matériels, on a déchiffré les modes d'emploi, et après quelques essais à vide, sur des diapositives ou des films qui se trouvaient là par hasard, ou bien après que l'on se soit livré à quelques enregistrements ponctués de bruits divers, on s'est demandé quel rôle pédagogique confier à ces beaux appareils... Comme les stages de formation ne venaient pas, seul un petit nombre de passionnés a pu s'en gager résolument dans des expériences, au prix de sacrifices personnels non négli geables et rarement reconnus, pendant que les collègues moins motivés retour naient à un détachement poli dont la cu riosité les avait un instant sortis. Dans l'établissement "pauvre" (genre beaucoup plus répandu que le précé dent...), pas de matériel bien sûr, mais par fois des stagiaires fraîchement formés à l'emploi des techniques et des moyens audiovisuels. On eût pu croire qu'il ne leur resterait plus qu'à expérimenter en classe, c'est à dire en vraie grandeur, toutes les méthodes ou interrogations étudiées pendant leur stage, malheureusement les crédits d'équipement ou de fonctionne ment (en France, ces deux lignes budgétai res jouent souvent à cache cache...) avaient oublié de suivre. Ces deux exemples, bien que caricatu raux, reflètent assez fidèlement hélas, les principales incohérences de l'introduction de l'audiovisuel. D'un côté, des établisse ments (peu nombreux il est vrai) dotés en équipement, mais dans lesquels aucun en seignant n'a été familiarisé à l'emploi des techniques et des méthodes. de l'autre des stagiaires en quête de matériel.

Pendant ce temps, pour la grande masse des écoles, des collèges et des lycées, il n'était pas question de vivre l'un de ces dilemmes puisqu'il n'y avait ni enseignants formés, ni bons de commande et d'entre tien d'appareils. On doit toutefois signaler. pour être juste que dans cet "océan attentiste", quelques îlots accueillants (établissement expéri mentaux, ou à "statut particulier, etc.) permettaient à des oiseaux migrateurs étrangers (de préférence ministres ou hauts fonctionnaires de l'éducation) de se poser le temps d'une visite organisée (pour admirer quelques vitrines d'innovation pé dagogique). Naturellement, la survie de la population de ces îlots dépendait entière ment des crédits de recherche ou de la cagnotte personnelle, ou de la débrouille. Au total, un grand gâchis dont l'audiovi suel scolaire a bien du mal à se relever. Un gâchis d'autant plus regrettable qu'il aurait suffit d'articuler la politique d'équipements et de stages sur les expériences déjà an ciennes de ceux qui s'étaient lancés dans l'expérimentation. En analysant les succès, les échecs et les incertitudes chaque académie aurait pu créer son propre dossier sur l'audiovisuel et la pédagogie quoti dienne. Des rencontres régulières auraient permis de faire le point et de centraliser ce qui pouvait l'être (achats de matériels, recommandations en matière d'édition, ré daction de cahiers des charges, etc.) tout en laissant le plus d'initiatives à la base, et au début surtout, en ne décourageant pas ceux qui voulaient faire quelque chose. En matière de documentation au diovisuelle il eût fallu associer les besoins des utilisateurs (enseignants sur le ter rain) à la production des documents. Malheureusement, aucun plan géné ral de formation aux moyens audiovi suels ne fut lancé malgré de nombreuses éudes et propositions qui toutes ont avorté.

La croissance informatique

Parler il y a dix ans de l'introduction de l'informatique faisait sourire ou parfois rire jaune ceux qui prédisaient que l'on al lait remplacer le maître par une machine A part un petit nombre d'expériences nord-américaines très ponctuelles, on voyait mal une convergence éventuelle entre l'informatique et l'enseignement encore moins une quelconque intégration. Cependant, certaines considérations ayant préside au renouvellement de l'enseignement des mathématiques, (les fameuses mathématiques modernes) n'étaient peut être pas étrangères à l'informatique. On voulait alors habituer les élèves à une certaine forme d'abstraction, ce qui n'est qu'un prélude à la formalisation exigée par l'analyse informatique (on verra par la suite les critiques qu'il convient de porter à cette idée). Mais il ne s'agissait que d'une orientation générale n'ayant rien de commun avec les perspectives qui ont guidé le "plan d'informatisation de la société', faisant suite au fameux rapport NORA MINC et à ses annexes. Depuis 1970, les établissements d'enseignements américains, en étroite collaboration avec les universités, ont mis sur pied des machines ou des programmes susceptibles d'être utilisés directement par les élèves. Pendant qu'en France nous en étions aux Q.C.M (1) dans lesquels le rôle de l'ordinateur est réduit à effectuer le décompte des réponses justes ou fausses c'est à dire conformes aux modèles préétablis, les Américains créaient des programmes conversationnels et inter actifs capables d'intégrer toutes les réponses de l'étudiant afin de lui adapter la présentation des exercices ainsi que leur progression et leur évaluation. Ces toutes nouvelles technologies éducatives (NTE) menaçant de déborder d'outre Atlantique, il était plus que temps de réagir avant de subir le raz de marée industriel et culturel le plus total qu'on ait pu imaginer. Pour s'en convaincre, il suffit de constater que l'audiovisuel de formation américaine a déjà gagné le monde entier. L'émission 1 rue Sésame, diffusée par T.F.1 n'étant que l'adaptation française d'une des plus célèbres séries américaines Sesame Street. Série dans laquelle la découverte du vocabulaire va de pair avec l'acquisition des meilleurs sentiments made in U.S.A. bien entendu. Il risque d'en être de même de l'informatique d'enseignement... On peut être sûr que pendant que l'on débattra d'elles, les technologies progresseront.

L'intérêt proclamé du précèdent gouvernement pour l'informatique dans l'enseignement tenait parait il autant au souhait (fort légitime) de préserver notre indépendance culturelle, mesuré en capacité d'extension des innovations, qu'à celui de promouvoir le développement d'une branche économique en plein essor, éventuellement créatrice d'emplois nouveaux (de haute qualification) et surtout dispensatrice de devises étrangères grâce à de fortes exportations. Si l'on veut comparer l'audiovisuel et l'informatique, on doit se rappeler que le péril de "l'innovation culturelle par les médias" (principalement les mass media nord américains) est parallèle à celui de la domination des banques de données des micro composants et des logiciels nord-américains (eux aussi). Face à un même danger, on aurait pu imaginer une stratégie commune, avec d'un côté la promotion d'un "audiovisuel créatif" en réponse au déferlement de produits "made in U.S.A." et de l'autre un développement important de l'informatique, élargie à la télématique. Il apparaît d'emblée que l'effort envisagé pour l'implantation de l'informatique dans l'enseignement fut très nettement supérieur à celui consenti pour l'audiovisuel. C'est alors le moment de se souvenir de la seconde motivation que nous citions plus haut : Si l'essor de l'audiovisuel avait été aussi prometteur du point de vue du commerce extérieur nous laissons de côté le "prestige comparé" des nouvelles technologies, on peut parier que l'empressement à le développer eut été bien plus grand. Dès lors, il est permis de se demander s'il s'agissait vraiment de défendre "une certaine idée de la culture française", puisque dans le cas où celle ci était liée à des considérations économiques de grande ampleur (cas de l'informatique) la balance pencha en faveur d'un effort considérable tandis que si elle ne pouvait garantir des retombées financières ou socio-économiques importantes (cas de l'audiovisuel), on s'engagea dans la stagnation. Une critique plus serrée montrerait que même l'argument technologico financier selon lequel il valait mieux développer l'informatique "rapporteuse de devises" et "garante de l'indépendance technologique française" que l'audiovisuel coûteux et "fortement importateur de matériels" tient devant les faits : L'informatique française, pour les matériels (le hardware dépend entièrement des micro-composants conçus et réalisés dans la Silicon Valley en Californie (2). Il n'existe que quelques types de microprocesseurs (3) à partir desquels on construit tous les micro ordinateurs. En l'état actuel, on ne peut qu'assembler des machines dont le centre névralgique (le micro processeur) est toujours importé. Parler d'indépendance technologique dans ces conditions peut faire sourire En revanche, pour les logiciels (le software), l'industrie française est très correctement placée (deux entreprises françaises de S.S.C.I. (4) se situent aux premiers rangs dans le monde...). Malheureusement pour nous, et heureusement pour leurs finances, ces entreprises ne travaillent pas du tout pour le marché de l'enseignement (qu'il vaudrait mieux appeler celui de la didactique). C'est peut être, sur ce créneau, encore peu occupé que pourrait se conquérir une indépendance culturelle véritable. A condition que des choix politiques clairs soient effectués. N'ayant nullement l'intention de nous livrer à une réflexion complète sur la télématique, nous nous contenterons de rappeler brièvement quelques idées simples, parfois un peu oubliées dans l'abondante littérature produite sur ce sujet.

Réflexion sur l'enseignement des médias

Le constat de base est que l'information, prise dans son sens le plus large, c'est à-dire l'ensemble de tous les "objets communicables" (paroles, écrits, images...) peut être transmise à distance, et traitée électroniquement, que ce soit par les réseaux existants (téléphone, télex, etc.) ou à créer (fibres optiques, satellites). D'où le terme "télématique" forge par Simon NORA et Alain MINC, dans leur célèbre rapport, unissant l'audiovisuel, l'informatique et les télécommunications Le premier corollaire stipule que l'information est alors conçue comme une marchandise, et la communication comme un service. Ce qui implique que l'usage des réseaux, des circuits et des banques de données (sur n'importe quel sujet) devient nécessairement payant. C'est là que réside une grande et géniale nouveauté. Dans cette société du futur on aura la liberté d'accès instantanée à toutes les informations imaginables, mais ne serait ce que pour obtenir la plus simple d'entre elles, il faudra payer (il a été question de taxer chaque demande de renseignement dans les futurs annuaires électroniques, alors qu'aujourd'hui l'annuaire papier est gratuit... mais moins rapide). Dans ce projet, la communication la plus élémentaire, a partir du moment où elle devenait médiatisée, c'est à dire passait par l'entremise d'une technologie, devenait payante. Il est vrai que si l'on prévoit les deux tiers d'une population active, occupée dans des tâches d'information et/ou de communication (société post industrielle...), il faut bien trouver l'argent pour payer tous ces emplois... Un second corollaire, fondamental lorsque l'on parle de décentralisation est la possibilité de communication point à point. Le prix d'une communication ne dépendra plus du tout de la distance, mais de la durée. Les régions éloignées des grandes métropoles ne seront plus défavorisées. De ce point de vue, l'isolement géographique sera supprimé. L'explication est toute simple : une ligne téléphonique classique relie deux points par un câble (un faisceau hertzien au sol ne change rien, il faut installer des séries de réémetteurs) tandis qu'avec un satellite géostationnaire se trouvant à 40 000 km d'altitude au-dessus de l'Équateur, le chemin parcouru par les ondes radio n'est que très peu affecté par la distance entre les lieux d'émission et de réception. Comparativement aux 80 000 km d'aller retour entre la Terre et le satellite, les 1 000 ou 2 000 km terrestres ne comptent plus (5). Le troisième corollaire réside dans la diversification des informations en fonction des publics concernés. Au contraire, des mass media qui envoient un nombre limité de messages à un nombre très élevé de spectateurs (un pays entier par exemple), la télématique devrait permettre le découpage (la segmentation) des contenus d'information pour les adapter aux préoccupations, aux habitudes, au niveau socio culturel du public à qui on les destine. A terme, chacun en utilisant correctement les machines pourrait ne recevoir que ce qu'il est sûr de bien comprendre et de bien admettre... La société de Big Brother (6) ne serait pas loin si tous les systèmes mondiaux (ou nationaux) étaient centralisés et interconnectés. On se trouve là au cÏur du "débat .. récent et très à la mode entre télématique centralisee et telématique répartie, informatique collective ou privatique (23), systèmes centraux, ou systèmes autocentrés.

Le quatrième corollaire est en même temps une idée force connue : Grâce aux micro processeurs, tout va être informatisé d'ici l'an 2000. N'importe quel appareil, depuis la caméra vidéo jusqu'à l'aspirateur, ou machine (robotique pour les secteurs primaire et secondaire, bureautique pour le tertiaire) deviendra "intelligent", c'est à dire saura retenir les ordres donnés (vocalement, sans perdre son temps devant un clavier), les appliquer, en rendre compte : et sur certains systèmes "apprendre" des comportements et savoir les adapter aux modifications de l'environnement Utopies ?... Certes non, ou alors il faut admettre que l'utopie existe bel et bien : calculettes, machines à écrire électroniques, conception assistée par ordinateur, robotique industrielle... La liste est déjà longue et ne cesse de croître.

S'il est impossible de prévoir comment l'informatique va bouleverser les modes de vie, on peut être sûr qu'elle va les bouleverser (au moins pour les sociétés occidentales. Les technologies de l'informatique ne polluent pas, ne dépensent que très peu d'énergie (un "gros" micro-ordinateur ne dépasse pas 50 watts, pas plus qu'une ampoule de moyenne puissance...) et ne coûtent presque rien en matières premières !... Comme le dit très joliment Jean Jacques Servan Schreiber dans le Défi mondial, "le micro processeur, c'est du sable..." (14) c'est à dire du silicium photosensible... avec beaucoup de matière grise...

Les technologies progressent à une vitesse fulgurante, c'est un lieu commun, mais il faut bien se persuader que bon nombre d'appareils aujourd'hui proposés ou imaginés ne sont que de magnifiques jouets dont personne (surtout pas leurs concepteurs) ne sait trop quoi faire (une proportion non négligeable de ces géniales trouvailles finira à la casse, parce que trop vite démodées, trop chères, ou trop en avance sur les mÏurs...) (7). Pour se donner bonne conscience, et dans l'espoir sincère que leurs inventions vont servir à quelque chose, les innovateurs s'étendent sur l'élargissement des besoins sociaux que de nouveaux services vont susciter, ou sur leur meilleure satisfaction. En fait, dans ce domaine, on l'aura compris, il est assez rare qu'une innovation coïncide avec un besoin bien délimité ou clairement défini, et même si cela était, on ne pourrait préjuger des effets secondaires avant de disposer de l'objet pour pouvoir le tester valablement. Comme il est périlleux de planifier l'innovation (on connaît les arguments habituels : spontanéité de la recherche, coup de hasard en prélude à une découverte géniale, etc.) on invente, et on "voit venir". Seulement, L'informatique est une science carrefour à la croisée des sciences exactes, expérimentales et humaines, dans laquelle toute innovation requiert une grande interdisciplinarité. Le malheur est que l'on a un peu oublié de consulter les chercheurs en sciences sociales (notamment les sociologues qui pourtant utilisent déjà eux-mêmes l'ordinateur !...) M. Jacques Dondoux, nouveau directeur général des Télécommunications n'a t il pas récemment déclaré qu'il faudrait désormais "faire appel aux sociologues" (8). Quand on sait qu'une forte implantation informatique a pour premier effet de provoquer un chômage plus ou moins important selon les secteurs et les niveaux de qualification on doit dire qu'il faut un culot certain pour oser affirmer tranquillement que l'informatique correspond à ces fameux besoins sociaux. Que l'on songe à ce qui va se passer (ou à ce qui se passerait... si l'on en retarde l'arrivée...) lorsque seront opérationnelles des machines à écrire automatiques, avec circuit de reconnaissance de la parole (décennie 1990...), tapant elles mêmes ce qu'elles "entendront" le gardant en mémoire et le mettant en page à la demande (9). Les seuls besoins sociaux ui nous semblent dignes d'intérêt sont ceux qui touchent à la maîtrise de ces machines qui vont exister ou qui existent déjà. Comme il ne saurait être question d'abandonner la formation des utilisateurs (c'est à dire les citoyens...) aux fabricants de matériels ou de programmes sous peine d'asservir l'homme à la machine (aliénation déjà ancienne pour laquelle des parades existent...) ou à une forme de pensée qui lui serait totalement extérieure (aliénation bien plus subtile, sans réponse pour l'instant) ; il importe que l'école familiarise, démythifie et forme les jeunes aux techniques informatiques, en leur faisant acquérir une culture informatique.

L'informatique à l'école

"L'ordinateur remplace le professeur", "c'est la fin des enseignants" Nous n'allons pas rouvrir un débat qui ne mérite plus de l'être, tant il a été tenu, le plus souvent dans une grande confusion. On peut simplement remarquer que ces critiques rappellent étrangement celles portées à l'encontre de l'audiovisuel. La discussion demeurera stérile tant que l'on confondra en France la pédagogie et la didactique : parce que trop complexe pour être formalisée, la pédagogie ne saurait s'informatiser, elle touche trop aux sciences humaines, trop peu aux sciences expérimentales, encore moins aux sciences exactes. En revanche, informatiser (ou "médiatiser") la didactique apparaît tout à fait possible. La didactique étant définie comme la science qui traite des mécanismes et des techniques d'acquisition des connaissances. Lorsque l'on a implanté le tableau noir et le bâton de craie dans l'enseignement, s'est on interrogé sur le rôle du maître qui changeait, sur le fait qu'il ne serait plus seulement celui qui a le pouvoir de parler, s'est on suffisamment rendu compte qu'en écrivant, il quitterait les élèves des yeux (gare aux boulettes de papier !...) A propos : est on sûr qu'il n'y a pas encore des enseignants (ou des conférenciers...) qui parlent sans rien écrire... Cette première série d'interrogations se situe dans le droit fil des états d'âme sur l'implantation de l'informatique dans l'enseignement, considéré seulement comme un acte pédagogique, une relation entre enseignants et enseignés. Cette réduction ne nous semble guère féconde. Pour en revenir à l'implantation du tableau noir, et après plusieurs siècles d'utilisation, s'est on assez interrogé sur son emploi, sur la disposition de ce que l'on y écrit, sur l'utilisation des couleurs, des changements de caractères, bref de la mise en page, sur le temps moyen pendant lequel on doit laisser une information avant de l'effacer, sur une disposition logique allant toujours de la gauche vers la droite, le rectangle horizontal découpé en plusieurs rectangles verticaux successifs ponctuant les séquences d'une analyse, d'un raisonnement...

En se livrant à ces quelques réflexions et aux expérimentations statistiques qu'elles sous tendent, on serait intéressé à la didactique, on aurait pu contrôler l'efficacité du tableau et naturellement découvrir quelques propriétés simples de la perception audiovisuelle.. Si nous avons choisi cet exemple un peu trivial, c'est naturellement pour insister sur la précision de langage qui s'impose à chaque fois que l'on parle d'informatique à l'école. Si l'ordinateur doit aider à améliorer la didactique (comme l'avait fait le tableau noir !...), la question de l'admettre ou de le rejeter ne se pose même plus, il vaut mieux s'attaquer sans tarder à la recherche de ses meilleures utilisations... Mais il existe deux ricochets : le premier apparaît évident, la pédagogie générale va devoir s'adapter à une amélioration qualitative de la didactique, les finalités devront changer et le discours pédagogique aussi, sous peine de sembler désadapté ou sclérosé... En second lieu on peut considérer que l'informatique va obliger la pédagogie à mieux définir son champ d'action. Tout en restant "un art" pour ceux qui le souhaitent on pourra peut être enfin baser la formation des enseignants sur des contenus plus scientifiques. Naturellement, il n'est nullement dans notre intention de réduire l'école à une simple dispensatrice de savoirs (ce n'est pas au moment ou l'Éducation a récupéré son épithète de "nationale" qu'il faudrait préconiser une sorte de retour à l'Instruction publique !) Mais si l'on s'accorde à reconnaître qu'en amont des savoir faire, des savoir être et des savoir apprendre, il est indispensable d'acquérir des savoirs minimaux, des "savoirs noyaux", autant trouver les meilleures méthodes pour faire assimiler ces dernières. C'est justement dans cette tâche que l'ordinateur excelle. Il met en sécurité, ne donne pas de complexe d'infériorité (parce qu'il reste tout de même une machine que l'on peut détruire... ou débrancher). Il peut s'occuper individuellement de l'enseigné, sans jamais manifester la moindre humeur (sauf si on le programme pour !) tout en se permettant de se livrer à des évaluations sûres, sans cesse modulées par les nouveaux cas qu'il traite.

Que peut faire l'informatique a l'école ?

L'intégration de l'informatique dans l'enseignement peut être abordée d'un triple point de vue : auxiliaire didactique, initiation a une "nouvelle culture" ou discipline à part entière. Nous commencerons par l'outil informatique qui nous semble réclamer à la fois le plus de réflexion et de crédits... tout en offrant déjà un nombre non négligeable de résultats crédibles... S'il est bon de rappeler en préambule que l'informatique (comme l'audiovisuel) ne va pas tout remplacer, que le tableau (au besoin avec un rétro projecteur) et la parole vont subsister, le cahier et le livre aussi (fussent ils électroniques), il faut néanmoins bien se convaincre que les technologies éducatives vont assurer une meilleure efficacité à l'action pédagogique en déchargeant le maître des apprentissages de base, tout en les assurant peut être mieux que lui (tant pis pour notre vanitéÉ). On peut en profiter pour signaler au passage une des principales différences entre l'utilisation de l'audiovisuel et celle de l'informatique : l'ordinateur permet d'évaluer continuellement l'assimilation des contenus qu'il délivre. Et si on le programme astucieusement, il peut adapter la succession ou présentation de ces questions au profil d'apprentissage des enseignés. L'audiovisuel au contraire a toujours achoppé sur ce point. Voici en vrac quelques uns des attraits les plus prometteurs de l'implantation de l'EAO :

La culture informatique

La culture technologique est toujours apparue comme une parente éloignée et un peu pauvre de la culture générale et singulièrement de la culture acquise à l'école. La meilleure preuve en étant le traitement infligé aux cursus techniques comparativement aux filières générales, considérées comme plus nobles. Mais l'informatique fascine, elle est a la fois science, technologie, méthode de pensée : c'est pourquoi maints bons esprits, pressentant son pouvoir social, politique économique, idéologique, préconisent de l'intégrer dans la "culture générale". Certains allant même jusqu'à imaginer une culture informatique autonome, homogène et cohérente. Quiconque posséderait cette culture serait "armé" pour l'existence. . . On peut évidemment trouver d'autres motifs plus pressants tels l'environnement informatique dans lequel vivront les habitants des pays développés (et ceux des pays sous développés aussi, si l'utopie de Servan Schreiber (14) était entendue) et la necessaire parade à l'état de dépendance dans lequel tous les êtres humains risquent de se retrouver malgré de beaux discours. Mais tout d'abord, qu'est ce que la culture informatique ? Si l'on voulait dans un clin d'oeil donner une définition cybernétique de la culture, on pourrait déclarer qu'il s'agit d'une banque de données individuelle et collective, à temps d'accès très court, dans laquelle chaque élément se trouve en inter relation avec tous les autres. C'est justement lorsque la culture n'est pas un assemblage hétéroclite et stérile de données brutes, mais un ensemble cohérent de faits et de pratiques liés par un ciment commun (faisant que l'on se reconnaît comme appartenant à la même culture) qu'elle devient opératoire et permet de comprendre, d'expliquer puis d'agir sur le monde. Dans cette hypothèse la culture devient outil, et la culture informatique correspond assez bien à cette définition (pour répondre à la phrase célèbre d'Herriot, peu importe que l'on ait tout oublié s'il reste justement les outils pour reconstruireÉ).

Il importe naturellement de ne pas dériver vers une culture mécanique, une culture presse bouton et de bien faire comprendre aux partisans d'une culture humaniste ou classique, que la culture informatique n'est par un vernis moderniste, tendant à remplacer une forme de domination par une autre. L'informatique étant à la fois science et technique des informations, ceux qui la maîtrisent détiennent donc le pouvoir de communiquer ou de ne pas communiquer (ou plus insidieusement de filtrer, de présenter, d'adapter, de vulgariser, de médiatiser) ces informations. Mais réduire une culture à l'acquisition d'un certain bagage (en l'occurrence informatique) permettant de dialoguer avec une machine, ou à la limite d'apprendre les rudiments d'un langage artificiel et savoir taper sur un clavier, serait une profonde erreur. La culture informatique doit s'intégrer dans une culture totale, au sein de laquelle la philosophie devrait occuper une place prépondérante (pourquoi commence t on l'enseignement de la philosophie si tard, et pourquoi tant d'élèves en sont ils privés ?) La place nous manque pour développer ces idées, aussi nous attacherons nous à citer quelques uns des traits les plus saillants d'une culture informatique indispensable, en insistant encore sur le fait qu'elle ne va pas se substituer à d'autres formes de culture, car l'informatique ne doit pas être une culture impérialiste écrasant les autres, mais s'y intégrer en les revalorisant toutes. Avant toutes choses il est urgent de familiariser les enfants avec la"pensée informatique".

On apprend à poser le problème de manière précise, on cherche les solutions, onprogrammeÉ on vérifie et on examine tous les cas possibles. A ce niveau, l'informatique est féconde et tolérante (on trouve des résultats, mais on doit examiner toutes les hypothèses). Naturellement, cette démarche s'applique différemment selon le contenu disciplinaire : pour l'enseignement scientifique et technique, son emploi est clair : on cherche des lois, on les vérifie. Pour l'enseignement littéraire on utilisera de préférence la simulation (qu'est ce qui se passerait si on mettait tel mot à la place de tel autre dans tel texte si la population mondiale, continuait d'augmenter à son rythme actuel., etc.). Pour les enseignements plus créatifs (à propos, pourquoi ne le sont ils pas tous. ?) le système Logo prendrait le relais (15). Les enfants devraient sentir la fonctionnalité du formalisme et ses avantages sur le traitement d'informations (objectives ou brutes, et ses limites technocratiques, évacuant ou réduisant ce qui constitue la vie. Quand un élève ou un adulte a compris qu'il est définitivement plus malin que le plus gros ordinateur parce qu'il a la liberté d'interrompre ou de modifier une action pour l'améliorer de manière inattendue (c'est ce que l'on appelle le génie humain), il n'a plus peur de l'informatique et ne s'en laissera plus compter. Cette formation semble interdisciplinaire et passe nécessairement par l'apprentissage de la découverte et de la construction d'algorithmes (méfions nous des organigrammes, bien présentés, trop beaux pour être construits directement, en n'oubliant jamais que pour un informaticien, l'organigramme est une manière plus ou moins commode de résumer, d'expliquer ou de synthétiser les algorithmes trouvés. On découvre l'algorithme d'abord, on dessine l'organigramme ensuite.) Pour faire référence à l'audiovisuel, il faut rappeler que la recherche des algorithmes, comme la rédaction des scénarios procèdent de la même démarche intellectuelle. La mise en forme du problème est comparable à la mise en forme du message avant sa communication par les médias. Dans les deux cas, on doit passer du potentiel au fonctionnel. Avec l'E.A.O. l'enseigné consomme du logiciel, même si le programme est suffisamment interactif et arborescent (16). En l'initiant à la culture informatique, on fait appel à ses facultés créatrices, trop souvent oubliées. De ce point de vue (et pour sacrifier à la mode des néologismes) on pourrait dire que l'informatique devrait permettre de mieux résoudre l'équation fondamentale de l'enseignement: pédagogie = didactique + créatique !... (ce que certains maîtres pratiquent déjà... sans ordinateur ni matériel audiovisuel).

L'informatique discipline

Partant du postulat que la télématique va supprimer beaucoup d'emplois peu qualifiés et offrent beaucoup(?) d'emplois très qualifiés, il apparaît logique que le service public d'enseignement se préoccupe de former des informaticiens de différents niveaux, d'où l'idée d'introduire l'informatique dans les programmes comme une discipline à part entière avec ses enseignants, ses examens, ses diplômes (17). Dans l'état actuel, et sachant que l'informatique peut s'apprendre assez vite, il nous semble suffisant de ne l'envisager qu'à partir du Second cycle (ce qui se fait déjà, mais dans un nombre réduit d'établissements et sous forme d'option). On peut difficilement peut être rendre l'informatique obligatoire, mais il serait possible de lui réserver une place importante dans une formation à l'histoire des sciences et des techniques qui continue de faire cruellement défaut. Cette formation à l'informatique ne devrait pas être aussi fortement basée sur les mathématiques, comme c'est souvent le cas actuellement. On peut être moyen en math et brillant en informatique, et réciproquement, l'important étant de disposer d'une bonne logique. Comme on l'a déjà souligné, un des soucis qui avaient prévalu à l'instauration des mathématiques dites modernes) était d'entraîner les élèves à une certaine pratique de formalisation. Malheureusement pour la réforme et les élèves (!...) et heureusement pour les futures générations, on commence à se rendre compte, principalement dans l'enseignement supérieur et notamment dans le secteur de la recherche, que cette formalisation peut être hâtivement imposée dans le Second cycle, se révèle stérilisante, même (et surtout !) pour ceux qui ont franchi tous les obstacles de la course aux diplômes... En effet, une proportion non négligeable d'enseignés a été conduite, pour réussir ses examens, à apprendre par cÏur (ou presque) des raisonnements certes élégants, mais sans les maîtriser et sans être toujours capable d'en assurer une fonctionnalité sur des exemples autres que ceux déjà étudiés. Les facultés d'imagination, d'intuition, de bon sens ou de logique, de progression planifiée dans la résolution des problèmes n'ont pas été suffisamment cultivées malgré de louables intentions. Hilbert ou le groupe Bourbaki ne sont pas évidemment en cause, leurs recherches sont fécondes (ne travaille t on pas à la démonstration automatique par ordinateur des théorèmes a partir de certains de leurs travaux...), mais on ne peut jouir de cette fécondité qu'après avoir atteint un haut niveau d'abstraction en s'étant entraîné sur des contenus plus accessibles. En cherchant à réduire la complexité d'approche de la formalisation mathématique pour tenter de l'enseigner à des élèves de Second cycle, on en a supprimé la richesse et occulté la finalité. De ce point de vue, la mathématique a eu à souffrir d'apparaître comme une rhétorique et de là comme un instrument de sélection arbitraire(18).

Contrairement à l'audiovisuel pour lequel aucun plan de formation des enseignants n'a jamais vu le jour (bien que de nombreux rapports et volumineux projets aient maintes fois été rassemblés sur la question, malheureusement sans suite et surtout sans crédits...) l'informatique a davantage mobilisé l'attention. L'opération dite des 58 lycées lancée en 1974 (elle même précédée d'autres opérations plus ponctuelles) a permis de donner une formation lourde à 550 enseignants pendant un an. Ceux ci devaient ensuite former leurs collègues dans leurs établissement d'origine, dotés pour la circonstance d'ordinateurs multipostes (en général 8 terminaux et 1 imprimante). L'expérimentation ne s'est guère étendue, on s'est contenté d'attendre que les missionnaires ainsi formés évangélisent (c.à.d informatisent) leurs collègues. Un calcul simple (à faire sur une calculette) montre qu'à ce rythme, il aurait fallu quelques siècles pour faire (un peu) bouger l'ensemble du "système éducatif" (terminologie déjà ancienne). Ensuite, on a essayé par le fameux plan "10 000 micros" de doter 1 250 établissements du Second degré de 8 micro-ordinateurs tout en se contentant d'assurer une formation légère (on dit pudiquement une "sensibilisation", mais tous les formateurs savent bien qu'une sensibilisation est une action de formation ratée... ou avortée). Naturellement, on comptait beaucoup sur le volontariat, la passion et les loisirs des enseignants. Enfin, quelques crédits furent attribués a la réalisation de logiciels didactiques, des didacticiels, écrits dans un langage informatique français, le L.S.E., version améliorée du BASIC (19). Comme on avait pu déjà le constater avec l'audiovisuel, il ne fallait pas s'attendre, avec une telle politique, a un succès rapide, d'autant que des facteurs aggravants se firent jour très vite :

1) Absence complète de standardisation des matériels, bien plus grave qu'en audiovisuel. On vit en informatique la situation dans laquelle on se trouverait en projection si deux projecteurs de marques différentes ne pouvaient passer plusieurs diapositives parce que celles ci seraient de dimensions extérieures différentes !...

2) Coût élevé des matériels interdisant même aux enseignants passionnés de posséder chez eux leur micro ordinateur, pour travailler (ou s'amuser...) avec pendant leurs loisirs (cas des appareils de photo, des magnétoscopes, etc.).

3) Plus grande difficulté d'apprentissage personnel que pour les techniques audiovisuelles. Avant de proposer un quelconque plan de formation, il importe d'être bien convaincu de deux principes.

Quant à l'organisation et aux contenus d'une formation nous ne pouvons nous y étendre ici. C'est pourquoi nous nous contenterons de rappeler quelques principes de base (20) :

1) La formation aux technologies didactiques doit être intégrée à la formation pédagogique initiale et continue.

2) Les procédures d'évaluation utilisées dans le cadre des programmes d'E.A.O. devraient être systématiquement réinvesties dans le champ psycho pédagogique (afin de lui assurer des bases scientifiques et statistiques plus solides). On peut certes regretter que l'on cherche ainsi à évaluer le"rendement" de ce que beaucoup de praticiens considèrent comme un "Art". On peut leur répondre qu'une Ïuvre artistique n'est pas autre chose qu'un compromis heureux (en général) entre une multitude de possibilités. Face à cette multitude, l'usage de l'informatique peut être créateur (C.A.O.) (21). On l'a déjà tenté en composition musicale, pourquoi pas en pédagogie.

3) La formation doit assurer la maîtrise des principaux matériels, la gestion des fichiers magnétiques, quelques applications graphiques et la pratique d'au moins un langage informatique.

4) Il faut acquérir un bon entraînement à la manipulation des banques de données.

5) Différents niveaux de formation pourraient être envisagés, selon le degré d'implication de chaque enseignant vis à vis de l'informatique (utilisateur d'E.A.O., concepteur de programmes...).

6) Formation de spécialistes en informatique de haut niveau (selon le voeu de J. C. Simon) (17) chargés d'enseigner dans le Second cycle et de former les enseignants.

7) Naturellement, cet effort de formation devrait faire d'une pierre deux (ou trois) coups en s'intéressant à l'audiovisuel et aux autres techniques modernes d'enseignement.

8) La formation pédagogique globale devrait être fortement allongée, en l'organisant sur deux axes complémentaires : la psychosociologie de l'apprentissage (auto apprentissage, évaluation, tests...) et la technologie didactique (du tableau noir à l'ordinateur...).

Les matériels Si un plan de formation de grande ampleur devait voir le jour, un marché porteur immense s'ouvrirait pour les fabricants de micro informatique. On pourrait alors leur fixer des critères de qualité et de compatibilité, et développer une industrie informatique française compétitive sur les marchés extérieurs (compte non tenu de la question des micro composants américains et maintenant japonais...). Mais comme l'a déclaré François Mitterrand, pourquoi ne pas fabriquer un microprocesseur français ?

Les logiciels

Le software se vend bien, rapporte beaucoup et les S.S.C.I. françaises (4) sont bien placées dans la compétition mondiale, mais aucune ne produit du didacticiel. Puisque nous avons cette chance assez extraordinaire (une fois n'est pas coutume...) de disposer d'entreprises très en pointe, pourquoi ne pas leur passer commande de logiciels didactiques (qui seront très performants, mais qu'il ne faudra pas hésiter à payer très cher...) afin de les aider à accroître leur leadership mondial, et exporter du logiciel français (ou des services et conseils français), ce qui compenserait au moins en partie les importations de matériels étrangers. Pour ce qui concerne les programmes fondamentaux d'E.A.O., et au risque de froisser des susceptibilités, nous pensons qu'il serait plus sage de demander leur concours à des spécialistes de l'analyse et de la programmation de haut niveau (programmation interactive ou dynamique, programmes arborescents par exemple) pour qu'ils mettent au point des didacticiels fiables et performants, répondant à des cahiers des charges précis établis par des pédagogues (contenus, progressions interaction élève/machine, évaluation par Q.C.M. ou Q.L.R..) plutôt que de bricoler quelques logiciels mal adaptés. On s'est trouvé devant un problème similaire avec l'audiovisuel : production centralisée de documents pédagogiques ou libre expérimentation des techniques débouchant parfois sur des réalisations de groupes. La première solution l'emporta, la seconde ne disparaissant pas grâce à la seule ténacité d'enseignants passionnés. Il existe toutefois une différence essentielle entre l'audiovisuel et l'informatique. Quand on a cherché à implanter le premier on ne connaissait aucun des langages de l'image, fixe ou mobile, et encore moins les lois de la perception audiovisuelle, mais on a voulu faire du film pédagogique en croyant maîtriser à fond la pédagogie et sans bien connaître le cinéma, (on connaît la suite...). Au contraire, avec l'informatique, le terrain est déjà balisé, il suffit de faire appel à des informaticiens qui possèdent des connaissances sûres et stables dont leurs prédécesseurs, spécialistes en audiovisuel ne pouvaient disposer en raison de la complexité de la sémiologie de l'image. De ce point de vue, l'informatique apparaît comme beaucoup plus facile à utiliser que l'audiovisuel, elle ne provoque pas de rupture de signification (la lecture d'un texte sur un terminal ou sur une imprimante ne semble pas jouer sur son degré de polysémie !...). Naturellement, la conception de ces programmes d'E.A.O. devrait être confiée à des équipes de pédagogues connaissant parfaitement l'informatique, la pratiquant eux mêmes régulièrement... Ceci pour ne pas renouveler l'erreur trop souvent commise avec des productions audiovisuelles dans lesquelles le conseiller technique, c'est à dire le spécialiste de la question, se trouvait dans l'ignorance complète des modalités de la communication audiovisuelle. Le rôle des informaticiens serait de réaliser les programmes correspondants au moindre coût et avec la meilleure fiabilité.

Une informatique scolaire décentralisée Notre appel à des informaticiens spécialisés rédigeant des didacticiels professionnels n'est absolument pas une condamnation ou une mise à l'écart d'une informatique partagée, ou d'une informatique de création, face à une informatique standardisée, centralisée (et desséchée). La complémentarité doit être de règle et s'il se trouve des enseignés et des enseignants désireux de réaliser leurs propres programmes, ils doivent être puissamment aidés. Outre l'intérêt d'une démarche créatrice spontanée et l'initiation pratique à la culture informatique, il apparaît évident qu'il ne saurait être question de commanditer des logiciels sur tous les contenus scolaires... Certaines disciplines, en particulier dans les L.E.P. ne concernent qu'un nombre réduit d'élèves. Dans ce cas et dans le cadre de la réforme de décentralisation, des initiatives locales, visant à produire des programmes adaptés aux formations dispensées, seraient les bienvenues. Elles devraient être accompagnées de nécessaires décharges de service, crédits d'heures, crédits d'achat de matériel, autorisations de vente des programmes dans le secteur scolaire, et dans certains cas limités, dans le secteur industriel ou commercial (22).

Les choix politiques

Informatique centralisée ou informatique répartie, télématique ou privatique (23), tels sont les termes d'un débat opposant les partisans d'une informatique basée sur de gros ordinateurs interconnectés avec des quantités de terminaux et des tenants de la dissémination d'ordinateurs domestiques ou institutionnels. On peut observer que les deux systèmes se développent parallèlement, chacun d'eux répondant à une série de besoins précis. Quand il s'agit de données à caractère scientifique, économique, médical, il semble judicieux d'avoir recours à des banques centrales totalement informatisées. Pour se rapprocher des utilisateurs ces systèmes vont devenir de plus en plus interactifs, et permettre de dialoguer avec eux (pour l'instant à l'aide d'un clavier, mais très vite grâce à la parole... (9). En médecine par exemple, l'avantage est évident : des banques de données bibliographiques rassemblent déjà des centaines de milliers d'articles, de communications ou de thèses. Les renseignements sont fournis dans des durées très courtes (pratiquement en temps réel) sur une simple ligne téléphonique. En thérapeutique, des systèmes conversationnels pourraient fournir une aide au diagnostic ou transmettre des dossiers médicaux d'un hôpital à un autre (à condition que toute personne étrangère au service ne puisse en profiter pour puiser des renseignements, comme un agent d'assurance vie ou un organisme de crédit de longue durée par exemple). Pour des usages du type "échange de données brutes", il apparaît manifeste que la consultation depuis son téléphone (associé à un écran et à un clavier de terminal intelligent va permettre une extraordinaire fluidité de l'information et une mise à jour permanente. En revanche, mettre à disposition du grand public des banques de renseignements divers (horaires de toutes sortes pages d'annuaire, etc.) ne nous semble guère répondre à des besoins sociaux véritables. De plus, les technologies employées dans certaines expériences risquent d'être rapidement obsolètes... Pourquoi stresser une bonne partie du public (comme on comptait le faire en Ile et Vilaine avant que la nouvelle équipe des télécommunications ne s'oriente plutôt vers le volontariat) avec un clavier alphabétique très peu pratique alors qu'il sera possible dans quelques années de parler à l'ordinateur. Celui ci étant d'ores et déjà capable de comprendre des mots et de répondre par des phrases. La prospective en informatique est très risquée. Les calculs des années 60 sur des ordinateurs centraux desservant des réseaux hiérarchisés irriguant eux mêmes des milliers de terminaux se sont avérés complètement faux. Les spécialistes n'avaient pas imaginé l'invasion du micro processeur. A quoi bon centraliser et se raccorder à une machine, alors que l'on peut en disposer chez soi aussi facilement qu'à son bureau ou que dans son atelier ? L'informatique privée ou institutionnelle et la télématique (réseaux existants, fibres de verre, satellites) vont se développer parallèlement, et pourvu que des précautions sérieuses soient prises pour empêcher l'interconnexion des banques de données (24), il nous semble qu'elles doivent aider toutes deux à réussir une décentralisation économique, scientifique et culturelle. La télématique réduisant de nombreux effets de l'isolement géographique (par les communications point à point taxées à la durée et non à la distance, par l'interrogation de fichiers et l'échange de données) et la privatique permettant de disposer sur place des outils de décision et de traitement des informations.

Réflexion sur l'enseignement des médias

Dans le monde de demain, on doit espérer qu'il restera possible de rencontrer une infinie variété de comportements face à l'informatique et à la télématique :

Les choix culturels

Les effets des mass media ont été suffisamment dénoncés pour que nous n'y revenions pas. En opposition les "self-media ", c'est à dire les moyens de communication que l'on peut utiliser soi même (cinéma d'intervention opposé au cinéma commercial, vidéo opposée à la T.V.) ont été parés de toutes les vertus. C'est d'ailleurs ce schéma qui a été actualisé dans certaines des critiques contre la télématique et la société informatisée, les systèmes centraux représentant l'oppression, les systèmes individuels (les mauvaises langues diront auto centrés) illustrant une "stratégie de résistance" ou de détournement face au conditionnement massif. C'est une des raisons pour lesquelles les promoteurs de la télématique (entendons ici les défenseurs des réseaux téléphoniques informatisés) ont depuis le début proposé des systèmes à légère interactivité. On n'est plus entièrement captif devant son poste de T.V., on peut choisir sa série de messages (ANTIOPE) ou interroger à distance (TELETEL). De fait, depuis qu'il y a trois chaînes, le téléspectateur moyen disposait de trois degrés de liberté ; avec la télématique, le citoyen va pouvoir de chez lui avoir accès à toutes sortes de documents ou d'informations. Il est donc libre et n'est plus assujetti à "l'écrasement idéologique des mass media".. L'argumentation (que nous caricaturons un peu) apparaît séduisante, mais on peut objecter que si avec trois chaînes, on n'avait guère que trois tentations de regarder son écran, avec ce que proposent certains partisans de la télématique, on en aura une infinité. Qu'aurait fait Saint-Antoine devant un terminal ? Mais ce n'est pas tout, l'impression de liberté et de maîtrise sur l'information peut amener l'utilisateur, au moins dans un premier temps à se gaver de tous les messages qui lui sont offerts (et dont un bon nombre, étaient prévus comme payants) Enfin, last but not least, il ne faut pas oublier qu'outre des renseignements d'ordre général ressortissant à l'annuaire et aux services actuels des P.T.T., le projet télématique laisse la place à des annonces privées, c'est à dire à de la publicité. Et le marché est immense... Lorsque l'on sait que l'une des plus grosses difficultés pour un publicitaire est de segmenter son message pour le présenter à des catégories bien définies de public afin de réduire les coûts de diffusion et d'augmenter le rendement de l'annonce, on imagine de suite l'intérêt du projet. La segmentation est automatique puisque c'est le public qui demande le contenu d'une annonce, autrement la cible se déplace d'elle même pour que la flèche l'atteigne plus sûrement...

Mais il n'y a pas que la publicité et il convient d'être très circonspect quant à certains des aspects culturels du projet télématique. En effet, les banques de données ne seraient pas directement mises en relation avec l'usager (pour des raisons pratiques et économiques), on ferait appel à des "médiateurs" des données, et ceux ci exploitant à plein les ressources de la technologie découperaient (segmenteraient) les contenus qu'ils auraient à diffuser en fonction des thèmes, des genres, mais aussi pourquoi pas, des niveaux d'accès. De sorte qu'il deviendrait envisageable de donner à chacun selon son niveau intellectuel supposé l'information lui demandant le moins d'efforts (nous caricaturons put être, mais pas tant que cela). On aboutirait ainsi à un retournement pour le moins paradoxal : la liberté offerte par la consultation personnelle serait une forme de domination plus pernicieuse encore que celle imposée par les mass media, les self media perfectionnant cette emprise en l'individualisant davantage (25). Pour poursuivre la caricature, pourquoi ne pas reconnaître que certains soirs la T.V. nationale a exigé de ses téléspectateurs un effort de compréhension supérieur à ceux habituellement exigés par leur milieu sociaux culturel et craindre dès lors qu'en étant libres de tout choisir, ils n'aillent irrémédiablement vers le plus facile et le moins dérangeant ou le plus médiocre. On peut naturellement répondre que tout dépendra des programmes offerts. S'ils sont fermés et conçus selon les recettes de la pire publicité, c'est à dire ne réclamant aucun effort du public, l'aliénation culturelle pourra se développer de plus belle. S'ils sont ouverts et suscitent la curiosité, le désir d'en savoir plus, en bref, s'ils sont conçus pédagogiquement (à condition de donner des preuves qu'un film pédagogique n'est pas nécessairement un film ennuyeux), ils joueront un rôle éducatif non négligeable. Tout ceci est affaire de contenus certes, mais à condition que les techniques laissent le choix, que l'on ne densifie pas trop les réseaux centralisés, qu'il soit laisse le maximum de communications point à point et d'interactivité, et que l'on n'oublie pas de développer l'informatique répartie et l'informatique privée (dont le vidéo disque...).

Les choix éducatifs

Nous avons déjà décrit les trois axes d'implantation de l'informatique dans l'enseignement : auxiliaire didactique, instrument de découverte et de maîtrise d'une culture et formation disciplinaire. A l'heure des choix, il nous semble utile de rappeler que les deux premiers sont prioritaires et vont dans le même sens. L'ordinateur et ses périphériques répondent essentiellement à la partie didactique de l'acte pédagogique en déchargeant les maîtres de la partie mécanique de transmission et de contrôle des connaissances. Si cette partie là est assurée (et bien assurée) par des machines, il est évident qu'il restera à dispenser tout le reste... de la formation intellectuelle et manuelle. On se doit de conserver une pluralité d'approches et bien se convaincre que l'introduction de l'informatique (comme en son temps de l'audiovisuel) doit être accompagnée de transformations importantes dans l'organisation générale du système éducatif. Concevoir l'ordinateur comme un témoignage de modernité greffé sur une structure archaïque serait la pire des erreurs.

L'informatique peut individualiser une partie de l'enseignement et répondre avec souplesse aux sollicitations de chaque élève, mais à quoi bon si la "classe" en tant qu'unité pédagogique, administrative et géographique est maintenue telle quelle. Outre le coût économique prohibitif interdisant pour l'instant de doter chaque élève de son terminal (ce qui n'engage pas l'avenir car les prix baissent si vite), il est nécessaire que les élèves puissent aller travailler à l'ordinateur quand ils en ont besoin. S'adaptant à chacun selon son niveau, ses compétences, et pourquoi pas son goût, en se jouant de l'hétérogénéité des groupes, il serait mal utilisé s'il fallait régulièrement s'y présenter à heure fixe et impérative. La répartition en classes avec passage obligé en fin d'année scolaire dans le niveau supérieur apparaîtrait totalement anachronique. Un élève pourrait fort bien être allé fort loin dans une discipline et resté plus faible dans une autre. On aura reconnu les fameux "groupes de niveau" dont on parle beaucoup sans jamais (ou presque) les voir. Pour rêver un peu, pourquoi ne pas imaginer des établissements (on n'en est pas encore à l'apprentissage sans effort à domicile, et heureusement du point de vue de la socialisation) dans lesquels existerait un complet étalement du travail, autrement dit des horaires flexibles. Chaque élève saurait qu'il devrait atteindre un niveau de référence, attesté par des évaluations précises. Il travaillerait à son rythme propre et sortirait du système quand il serait prêt (dans une fourchette d'âges). Pendant sa scolarité il s'absenterait (et ses parents aussi...) à tout moment qui lui conviendrait. Pendant ses absences, d'autres élèves continueraient de travailler par roulement. A son retour, il n'aurait qu'à se remettre à niveau : avec la machine, en reprenant à son point d'arrêt. Avec ses professeurs, en passant dans un autre groupe de niveau.

Nous n'ignorons pas les problèmes de toutes sortes posés par cette utopie. Nous nous y sommes livrés pour rappeler que l'informatique dans l'enseignement, pour réussir vraiment, doit s'accompagner d'un regard neuf et sans Ïillères. Le rôle de l'enseignement sera de toutes façons modifié (il faudrait en tenir le plus grand compte, car on forme des enseignants qui seront en poste en l'an 2000). Sera t il judicieux de continuer de corriger ses copies (sauf ceux qui aiment cela...), alors que la machine évaluera plus vite et plus précisément le niveau et les progrès (sauf notre respectÉ). Naturellement les professeurs de philosophie ou de lettres (au moins pour les dissertations) ne verront que très peu la différenceÉ Le temps ainsi récupéré par l'enseignant pourrait être réinvesti en animation scolaire ou extra scolaire, en dépistage et en correction des handicaps socio culturels, et surtout en activités de création que l'ordinateur ne pourra jamais vraiment traiter (même par simulation) (21). Le microprocesseur est une double merveille du genre humain. Merveille technologique, on l'a vu (3) et merveille philosophique. Comme la pierre philosophale, il permet d'accomplir un grand Ïuvre, mais un grand Ïuvre d'un genre nouveau, puisqu'il "rend intelligent celui qui l'utilise" (14). Il force à organiser son activité et libère ses utilisateurs du contingent, il requiert la précision des raisonnements, cultive l'assimilation et suscite la ténacité... Mais le microprocesseur ne peut rien faire (ou presque...) pour l'émotion, le rayonnement, l'intuition, les associations d'idées, qui restent le privilège de l'être humain et de ses milliards de neurones. En donnant un coup de fouet à la didactique, en forçant à changer beaucoup d'habitudes, il va peut être (si la Société décide d'y consacrer beaucoup d'efforts et d'argent) permettre dès cette décennie à l'Éducation redevenue nationale de s'occuper enfin d'éducation.

 

Retour Haut de page

Articles de vulgarisation

Commentaire

L'article ci dessous est paru en février 1982 dans les colonnes de l'École libératrice, qui était la revue du Syndicat National des Instituteurs et des Professeurs d'enseignement général de collège (SNI-Pegc-Fédération de l'Éducation nationale), tirant à l'époque à 350 000 exemplaires).

Comment dire que je regrette que ces propos, datant de 1982 ne soient pas périmés.

S'ils sont aussi "modernes", c'est que l'Éducation nationale demeure résolument hostile à toute évolution importante, ou qu'en d'autres termes, elle développe tellement d'inertie qu'elle se comporte comme un trou noir vis-à-vis de toute innovation.

Dans ce long article, je devais présenter une analyse complète des "Nouvelles technologie d'enseignement" dans une perspective scientifique, pédagogique, économique et politique, en m'adressant directement au nouveau ministre de l'époque René Savary et à toute l'équipe du premier septennat de François Mitterrand.

C'est d'ailleurs partiellement en raison de cet article et d'une série d'autres qui suivirent que je fus nommé Chargé de mission et Conseiller technique pour ce qui devint le plan "Informatique pour tous".

 

Chapitre "Articles"