Les précurseurs
Pourtant, le concept sous-jacent aux applications multimedia, l'hypertexte, est
apparu dès les débuts de l'informatique lorsque Vannevar
Bush, conseiller du Président Roosevelt, conçut en 1945 le
système MEMEX (MEMory EXtender), sorte de gigantesque base de
données textuelles et graphiques où chacun pouvait puiser des
informations et stocker ses notes personnelles (2). MEMEX était loin des
possibilités technologiques de l'époque et sans lien direct
d'ailleurs avec les travaux sur les premières générations
d'ordinateurs naissants. Ce n'est qu'à la fin des années 80 que
le rêve put devenir réalité à des coûts
raisonnables. Il n'est pas difficile d'imaginer les perspectives qui s'ouvrent aux
chercheurs et aux enseignants. Comme le dit Théodore Nelson (3),
l'inventeur du terme hypertexte : "... fournir à l'étudiant un
environnement stimulant, lui laisser le choix de son objet d'étude, lui
offrir une bonne variété de matériels
intéressants... Il se trouvera motivé, intéressé
à en faire un peu plus que dans le cadre de l'enseignement
traditionnel". Les sceptiques souriront à ces "lendemains qui chantent"
où la technologie (à venir) résoudra les
problèmes que la pédagogie rencontre depuis des
décennies. Que n'a-t-on pas écrit lors de l'introduction des
premiers ordinateurs dans les lycées ? Néanmoins, le projet
semble séduisant et les "Technologies de l'Intelligence", pour reprendre
le titre d'un livre de Pierre Lévy (4), méritent un examen plus
approfondi. L'état de l'art que nous allons entreprendre va nous
montrer que beaucoup de problèmes restent à résoudre
si l'on veut passer du prototype de laboratoire à une utilisation en
situation de formation réelle, même dans le contexte
"simplificateur" que représente la formation permanente dans les
entreprises.
Le premier qui tenta d'implanter un hypertexte est Douglas Engelbart qui
créa une base de données textuelles (System Augment
appelé à l'origine NLS) utilisable dans un environnement
réseau multi-utilisateur contenant plus de cent mille articles.
Théodore Nelson ne vise ni plus ni moins qu'à concevoir une
bibliothèque électronique donnant accès à
toutes les oeuvres littéraires du monde entier reliées et
chaînées entre elles par des liens multiples. Le projet Xanadu, tel
est son nom, est planétaire et démesuré et bien dans le
caractère visionnaire de T. Nelson.
Quelques rappels sur la notion d'hypertexte sont peut-être ici
nécessaires. Les hypertextes diffèrent fondamentalement des
bases de données classiques des systèmes informatiques par le
mode d'accès à l'information. La mémoire humaine
fonctionne par association d'idées. Dans un hypertexte, les informations
sous forme de textes, graphiques, images numériques sont
stockées dans des "noeuds" reliés entre eux par des liens
multiples. Le "lecteur" doit avoir le sentiment qu'il peut "naviguer" librement
dans l'information enregistrée sans contrainte excessive mais d'une
façon organisée par l'auteur.
L'apport de ces pionniers auxquels on peut ajouter Jef Raskin, Franz Halasz et
Andy Van Dam est d'avoir cru une telle démarche possible alors qu'elle
était très difficile, voire impossible à réaliser
avec la technique de l'époque. Aujourd'hui, il en est tout autrement :
tout propriétaire d'un Macintosh peut, grâce au logiciel Hypercard
fourni gratuitement avec la machine, jusqu'à une période
récente, concevoir un logiciel hypertexte.
Applications
Les hypermedia se sont introduits dans tous les domaines liés à
l'informatique et à la manipulation de grandes quantités
d'informations. En dehors de l'enseignement, citons les dictionnaires et les
encyclopédies électroniques (Le Robert, Oxford English
Dictionnary, Dynamical Medical Handbook), les catalogues de production
(Apple), la documentation technique : les constructeurs informatiques (DEC, HP,
Apple) et les sociétés de logiciels comme Microsoft tendant
à remplacer de plus en plus les dizaines de volumes de documentation
décrivant leur système par une application sur CD-ROM facile
à mettre à jour et à faire évoluer et d'un
moindre coût en petite série.
Dans le domaine qui nous préoccupe, les réalisations effectives
sont souvent hybrides et couplent des approches multimedia avec des logiciels
de simulation ou des systèmes "intelligents". Simul fournit un
environnement d'enseignement en gestion d'entreprises (5),
créé pour les besoins de l'Ecole supérieure de Commerce
et d'Administration des entreprises d'Amiens. Il est composé de deux
parties : l'une où l'étudiant est confronté à des
études de cas sous forme de cours vidéo, l'autre où il
assume les fonctions de chef d'entreprise sous la surveillance d'un "tuteur
intelligent". Une boîte à outils (traitement de texte, tableur, base
de données financières...) est à la disposition de
l'étudiant.
L'enseignement des futurs médecins car l'imagerie (radiographie,
échographie) y est très présente, est également
un domaine riche en possibilités pour l'enseignement
multimédia. F. Kollier et O. Bodenreider de la Faculté de
médecine de Nancy mettent à la disposition des
étudiants en médecine une "Petite Encyclopédie de
Radio-Pneumologie" (6), qui comporte une partie tutorielle classique de
rappels des bases anatomiques et radiologiques et une structure
hypermédia qui permet de naviguer dans une base d'images
radiologiques. Chaque vue est accompagnée d'un texte et donne
accès à des photos du même phénomène
pathologique ou de lésions qui sont généralement
confondues avec le précédent.
Dans une formation à la CAO avec des logiciels de dessin professionnel,
le recours à des hyperdocuments est une aide à l'apprenant
pour réaliser des exercices ou des mini-projets. En milieu scolaire, un
retour aux sources de l'hypertexte se concrétise par des banques de
données textuelles comme aide à l'étude des textes
littéraires pour les classes de terminale ou comme spécialisation
en anglais technique pour celles de technicien supérieur.
De l'art de la navigation
Tout nouveau media possède un revers qu'il est parfois difficile de
mettre en évidence à partir de tests menés sur des
maquettes de l'application définitive par des gens motivés, sous
le charme de la performance technologique. La première
difficulté dans un Hypersystème est la simplicité
même de déplacement dans cette structure. En effet qui dit
navigation dit orientation. Comment s'orienter dans un graphe ayant plusieurs
centaines de noeuds, chacun centré sur une information pas
nécessairement pertinente pour le "lecteur" ? Le danger d'une
disparition dans l'hyperespace, comme le souligne A.Moreira (7) d'une
manière imagée, guette celui-ci, particulièrement le
néophyte qui ne possède pas de points de repère dans
la discipline concernée. Par contre, le chercheur chevronné
accédera plus facilement à l'information qu'il cherche que dans
un media classique. Un apprentissage de l'hypermedia est donc
nécessaire. Il est vrai que les écoliers peinent beaucoup quand
ils doivent recourir à l'usage d'un dictionnaire ou d'une
encyclopédie.
Des réponses partielles à ce problème existent. Comme
dans toute navigation, on peut utiliser des cartes et des boussoles. On propose
donc au lecteur perdu des plans globaux de la base de données ou des
cartes locales centrées sur le noeud où il est arrivé.
Evidemment, cela peut ne pas suffire. Des techniques de filtrage permanent, ou
par requête, peuvent limiter les recherches à un certain type
d'information. Une aide visuelle, en associant à certaines
propriétés des couleurs, des formes
géométriques, voire des textures peut être d'un grand
secours. L'aspect media (image fixe ou animée, sons) apporte alors une
dimension supplémentaire au concept initial d'hypertexte. Il reste
néanmoins que ce problème d'orientation n'est guère
soluble par ces techniques quand le système possède un grand
nombre de noeuds ou de liens de chaînage et que des changements
fréquents sont apportés à leur arrangement.
A la difficulté de navigation s'ajoute le morcellement du savoir,
inhérent à de telles organisations. Le lecteur risque alors de ne
tirer qu'une connaissance superficielle du sujet traité, alliée
à une image embrouillée de sa complexité. On peut y
ajouter un autre phénomène remarqué par des
chercheurs, celui de la surcharge intellectuelle où l'effort de
concentration pour s'orienter diminue la capacité d'attention du sujet
quant au fond de la question étudiée. Si cette remarque
s'avère fondée, et je dois dire qu'elle recoupe les quelques
expériences que j'ai menées avec des hyperdocuments,
l'automatisation de la formation ne sera pas la panacée dont
rêvent certains.
L'Hyper-écriture
La conception d'un hyperdocument demande la définition de
l'ensemble des noeuds et des liens qui les relient. Selon les systèmes, la
réalisation est plus ou moins simple. Par exemple, sous Hypercard,
chaque noeud est une carte sur laquelle le concepteur peut, à l'aide
d'une palette d'outils, afficher différents types d'information. Dans
d'autres systèmes comme, NoteCards, Textnet, des types de noeuds
prédéfinis existent. Il n'en reste pas moins que la
création de chacun d'eux, la mise à jour de toutes les
références, demandent un travail considérable qui ne
peut être réalisé que par une équipe. Mais
rapidement surgit la question de l'intégrité du réseau
créé : existence de noeuds isolés, de liens sans
destination...
Peut-on raisonnablement automatiser ce processus ? Dans de nombreuses
applications, l'auteur se contente d'ajouter des "marques" ou des "commandes"
au texte source, qui seront "compilées" pour générer
automatiquement les liens et les noeuds. D'autres tentatives ont recours aux
techniques de traitement du langage naturel, aux méthodes
statistiques, voire à l'Intelligence Artificielle, pour construire tous les
liens possibles à partir d'un corpus de textes donné. La
création des liens doit refléter la sémantique des
sources, et donc la structure profonde des connaissances exposées. Dans
le cas d'applications d'EAO, c'est toute la démarche pédagogique
qui sera inscrite dans les liens entre les blocs d'information : elle peut
difficilement, dans l'état actuel de nos connaissances faire l'objet d'une
génération automatique sans tomber dans la caricature.
Quel avenir pour la formation hypermédia ?
Deux grands courants de recherche se partagent ce que l'on peut appeler
"l'informatique éducative" (8). L'un, assez ancien s'appuie sur
l'Intelligence Artificielle pour imaginer des modèles d'apprentissage et
de représentation des connaissances. Des tuteurs "intelligents", capables
de s'adapter au profil des étudiants et d'analyser leurs réponses
grâce à l'expertise des pédagogues et des didacticiens,
existent dans les laboratoires mais leur expérimentation en classe est
encore à faire. L'autre vient de la tradition de l'EAO, donc d'une vision
plus "behavioriste et comportementale" de l'apprentissage et espère
trouver dans les hypermedia un remède aux carences les plus
importantes des logiciels éducatifs actuels, qui ont largement
contribuées au discrédit de l'EAO.
Face à la montée des effectifs, l'EAO traîne
derrière lui, depuis le début le soupçon de
l'industrialisation de la formation confiée à des machines
encadrées par quelques animateurs. Or, comme le montre Victor
Scardigli (9), "l'innovation sociale peut naître autour de la technique et
non par la technique", à condition qu'elle soit en phase avec le contexte
socio-politique de la société globale. La technique seule ne
recrée pas le social. Dans les années 80, on a introduit des
ordinateurs dans les lycées et les écoles sans changer en quoi
que ce soit l'organisation de l'enseignement et du système
éducatif. A propos de l'audio-visuel et de son insertion à
l'école, Jean Marie Albertini (10) souligne que "le système
éducatif français veut d'abord faire des mass media un
système pour diffuser plus aisément des auxiliaires à
l'animation de la classe et non une manière de relativiser ou de
changer son rôle... On alourdit les activités de l'enseignant et les
coûts de fonctionnement du système sans accroître son
efficacité". Cette remarque s'applique encore plus à
l'informatique pédagogique qui demande aux professeurs même
dans les disciplines scientifiques un fort investissement personnel. Aucun des
acteurs dans l'Education Nationale, les enseignants mais aussi les parents et
l'administration ne sont prêts sauf quelques minorités à
changer les règles du jeu. Le conservatisme des enseignants et de
l'administration est connu. On aurait pu penser que les parents poussent au
changement. Dans leur majorité, ils ont bien accueilli l'entrée
des machines dans les établissements. Mais veulent-ils bouleverser
l'organisation scolaire ? Sûrement pas. Leur motivation profonde reste la
réussite scolaire de leurs enfants au sens étroit du terme :
obtenir de bons diplômes en franchissant toutes les barrières que
la sélection dresse devant eux. L'école française n'est
donc pas prête au changement, aucun des acteurs n'en ayant
réellement la volonté. L'informatique pédagogique
risque de prendre le même chemin que l'audiovisuel quelques
années auparavant. Seuls quelques irréductibles tenteront de
maintenir la flamme.
Un autre scénario est possible. La formation permanente et continue
prend une place de plus en plus importante sur le plan social,
alimentée par les nombreuses demandes de stages professionnels de
reconversion ou de remise à niveau des chômeurs de toute
catégorie. Les entreprises et les services sociaux sont disposés
à commanditer des produits de formation qui diminueraient les
coûts globaux de la prise en charge des stagiaires et des
sociétés de service et des éditeurs prêts à
prendre en charge leur réalisation s'ils sentent l'amorce d'un
marché potentiel. Quant aux formés, n'ayant pas vraiment le
choix, ils ne peuvent souvent qu'accepter ce qu'on leur offre,
complétant par un travail personnel accru ce que des logiciels
expérimentaux et des animateurs pleins de bonne volonté ne
peuvent leur apporter. L'industrialisation de la formation, avec ses exigences
de rentabilité rentre en contradiction avec l'idée de
l'école telle que le corps enseignant la vit. Pour l'instant, les
expériences menées avec les logiciels hypermédias
restent souvent dans un cadre expérimental, du sur mesure en quelque
sorte pour valider une démarche. Ce n'est qu'à l'étape
de production à grande échelle qu'on peut espérer
rentabiliser de tels travaux, donc faire naître de véritables
standards.
Les logiciels éducatifs jusqu'à une date récente
étaient l'oeuvre de pédagogues devenus informaticiens pour les
besoins de la cause, comme les manuels scolaires sont écrits par des
enseignants. Les logiciels hypermedia, de par leur complexité, ne
peuvent être réalisés qu'au sein d'une équipe dans
un laboratoire universitaire ou dans une société de services ou
d'ingénierie. En formation initiale, en tous cas, l'accord des enseignants
sera fondamental. Sans leur adhésion, tout changement est
condamné à plus ou moins long terme. Mais comme je
l'écrivais au début de cet article, l'échec de l'EAO
provient avant tout de la mauvaise qualité des logiciels accompagnant
les machines livrées et d'une informatisation se limitant à une
opération visant à donner un coup de pouce aux industries
informatiques françaises en difficulté (en particulier Thomson)
sans démarche pédagogique préalable. Les
potentialités des logiciels hypertexte et multimedia sont telles qu'une
intégration de ceux-ci dans la formation initiale est possible et
souhaitable. Non pour prendre la place des enseignants, mais pour leur
apporter des outils qui facilitent leur travail. Leur coopération avec les
chercheurs et les sociétés productrices sera alors indispensable.
Références bibliographiques