Avec ou sans bruits parasites

"Un réseau de plus en plus serré de distractions et d’occupations vaines"

Étiquette : Digital literacy

Pourquoi il est urgent d’apprendre l’informatique à l’école

Facebooktwitterredditpinterestlinkedintumblrmail

Après avoir proposé, dans un billet précédent, un rapide aperçu de deux positions qui me semblent caractéristiques du débat sur le sujet, venons-en à notre propos.

Les mauvaises raisons pour apprendre l’informatique aux enfants

Éliminons d’abord les arguments censés justifier l’apprentissage du code mais qui se révèlent spécieux :

  • Premier argument spécieux (qu’on trouve par exemple ici) : il faut apprendre à coder pour ne plus être passif sur internet (et face au numérique en général), pour pouvoir exprimer sa créativité.
    Certes, l’écriture de programmes est un moyen de se montrer créatif, mais elle est loin d’être la seule, on peut aussi créer des vidéos, faire des photos, du dessin, de la musique, écrire des textes… pour ne citer que les activités les plus évidentes. Et, il faut le préciser, ces activités, même si elle se font avec un ordinateur, ne nécessitent en rien de savoir programmer. Bien plus, cette volonté hégémonique du code de s’arroger en seul espoir de créativité numérique tend à entretenir une confusion assez répandue dans le grand public au sujet de l’informatique : toute personne qui travaille avec un ordinateur devient « informaticien » et se trouve du même coup capable de répondre à n’importe quelle question liée au numérique (choix d’un appareil photo numérique, utilisation de tel ou tel logiciel, configuration de tel périphérique, voire réparation de matériel défectueux…). Cette confusion disparaît peu à peu, puisque de plus en plus de personnes utilisent un ordinateur à titre professionnel et se rendent compte qu’elles ne sont pas devenues informaticien pour autant ; il me semble que la moindre des choses est que ce ne soient pas les informaticiens eux-mêmes qui contribuent à la faire persister (à moins que ce ne soit pour préserver leur aura de toute-puissance 😉 ).
  • Second argument spécieux (défendu ici par exemple) : il faut former des informaticiens, parce que la France en manque.
    Quelle que soit la validité de ce constat (et certains le contestent), l’enseignement du code dès le collège, voire l’école primaire, ne peut pas être une solution, il n’est pas sensé de vouloir répondre aux problèmes du marché de l’emploi d’aujourd’hui avec des personnes qui n’entreront dans la vie active que dans 10 ou 15 ans. Surtout, il est absurde de lancer un programme d’éducation généralisé pour répondre aux besoins d’un seul secteur : peut-on justifier de former tous les jeunes à un métier pour n’en conserver qu’une toute petite minorité (parce que même si beaucoup d’emplois sont à pourvoir dans ce domaine, il n’y aura pas des millions de postes créés pour accueillir tous les enfants de France qu’on aura convaincus de devenir développeurs) ? J’ai entendu une variante de cet argument à la radio au sujet des data analysts qui manquent en France : la formation pour posséder les compétences requises pour exercer ce métier est longue, il n’est donc pas possible de reconvertir des professionnels d’un secteur proche, mais il faut commencer à former les jeunes très tôt… On croit rêver ! Dans le même ordre d’idées, j’ai une proposition : il est connu que les zones rurales de France manquent de médecins, je propose donc d’initier les enfants de ces régions à la médecine dès la maternelle, pour résoudre ce problème au plus tôt.
  • Troisième argument spécieux, auquel je n’avais pas pensé tout de suite : il faut former les élèves au code pour renouveler la pédagogie.
    Cet argument est évoqué (et contesté) par Hubert Guillaud dans un article sur le site Internet Actu. J’avoue que cet argument me semble tellement saugrenu que je n’y avais pas pensé, mais, à la lumière de l’article d’Hubert Guillaud, j’ai reconsidéré certaines positions exprimées ici ou là qui en relèvent probablement. Cet argument résulte purement et simplement d’une confusion qui vient probablement de l’exemple d’écoles comme 42 ou web@cadémie. En effet, ces établissements proposent de former des développeurs en utilisant des pédagogies innovantes : travail de groupe, projets, enseignants jouant un rôle de tuteurs et non de transmetteurs de savoir etc. Par une confusion assez naturelle entre le fond et la forme, certains observateurs sont amenés à proposer ce modèle pour l’école publique, en apportant l’eau du bain avec le bébé, si j’ose dire. Autrement dit, puisque ces écoles enseignent efficacement le code (contenu) avec des pédagogies actives (méthode), il faut enseigner le code avec des pédagogies actives dans l’enseignement scolaire. On voit bien ce que cette confusion a de ridicule : s’il est probablement justifié de s’inspirer des méthodes de ces écoles pour d’autres enseignements, cela ne veut évidemment pas dire qu’il faut en même temps importer le contenu enseigné.

Pourquoi il faut apprendre l’informatique

Je voudrais raconter quelques anecdotes pour illustrer pourquoi, selon moi, il est nécessaire que tout le monde soit formé à l’informatique.

Communiquer à propos du numérique

Une utilisation évidente d’une meilleure connaissance de ce qui concerne l’informatique serait simplement la communication au sujet de l’informatique… Ainsi je constate que l’usage de mots dans un sens vague (voir à contresens), usage qu’affectionne particulièrement le marketing, induit une sorte de fluidité, de labilité du sens. Par exemple, il est toujours amusant de voir des gens parler d’applications en hésitant sur les mots : « logiciel, application, programme… » alors que ces termes sont peu ou prou synonymes dans beaucoup de cas. « Ce que l’on conçoit bien s’énonce clairement » et réciproquement…

Il y a des exemples plus pernicieux : on parle depuis quelques années de « cloud computing ». Cette logique consiste à distribuer dynamiquement des ressources informatiques entre différents matériels : ces ressources peuvent être de la puissance de calcul, de la mémoire vive, de l’espace de stockage, de la bande passante etc. L’avantage est qu’ainsi l’utilisation des ressources peut être optimisé selon les besoins particuliers d’un certain moment. L’exemple fréquent de ce type d’usage est celui des sites de grandes compétitions sportives, qui sont assez peu consultés en temps normal, mais sont au contraire extrêmement sollicités pendant le déroulement de ces manifestations et en particulier pendant leurs temps forts. Une architecture traditionnelle obligerait soit à avoir de très gros serveurs et une grande bande passante pour faire face à la demande des pics d’affluence, et qui resteraient très sous-utilisés en temps normal, soit avoir des serveurs proportionnés à l’activité majoritaire de l’année et qui s’effondreraient pendant les périodes de pics. Le cloud computing permet de mobiliser automatiquement les ressources nécessaires pour faire face aux pics, tout en utilisant ces ressources pour un autre usage le reste du temps (par exemple pour héberger les sites d’autres compétitions sportives dont les temps forts sont à un autre moment). Le terme « cloud » signifie que le serveur qui héberge (dans notre exemple) n’est pas une machine physiquement identifiable, mais que ce peut être plusieurs machines, si nécessaire, dispersées sur internet, souvent représenté sous la forme d’un nuage (sans doute pour montrer qu’il n’existe pas de routes prédéfinies sur internet et que les données suivent un cheminement qui reste opaque à l’utilisateur).

Or, peu après le début du cloud computing, certains ont commencé à parler de données « in the cloud » comme synonyme de « online », c’est-à-dire de données sur internet, même si elles étaient stockées précisément sur un serveur physique bien défini et donc absolument pas dans le nuage. On voit bien à qui cela peut profiter : des commerciaux peu scrupuleux profitent de la vague du cloud computing et de son côté « tendance » pour vendre leur produit, même s’il n’y a aucun rapport objectif. En se généralisant, cette approximation entre dans le langage courant, et l’expression perd de son sens, rendant la communication plus difficile. (Et je ne parle même pas du fait que 51% des Américains croient que la météo affectent le fonctionnement du cloud computing)

Une initiation à quelques notions de base du fonctionnement de l’informatique éviterait ces incompréhensions.

Et cette question se pose de façon encore plus quotidienne : par exemple, quand un organisme quelconque (public ou privé) a besoin de faire appel à un prestataire informatique : réalisation d’un site web, développement d’une application… L’imprécision du vocabulaire pour décrire ne serait-ce que l’interface attendue amène parfois à des incompréhensions improductives.

Mais il est un domaine où ces incompréhensions sont encore beaucoup plus préjudiciables : les questions liées à l’assistance à l’utilisateur. Je donnais l’exemple de la voiture dans mon premier billet sur ce sujet et en y réflechissant davantage, cette analogie me semble plus intéressante que je ne l’avais cru d’abord. Lorsque ma voiture est en panne, je peux aller voir un garagiste et lui expliquer mon problème. N’importe quel automobiliste est capable de décrire son problème assez précisément et en particulier sans se tromper sur les éléments de l’interface utilisateur du véhicule : personne n’appelle ‘pédale’ le levier de vitesse ou ‘volant’ le frein à main. Pourtant, dans la pratique, on pourrait se passer de ces informations : je pourrais montrer une pédale en disant « quand j’appuie ici et qu’en même temps je bouge ça », en montrant le levier de vitesses, « il se passe ceci ou cela ». Je n’ai jamais rencontré de situation où je n’étais pas avec le garagiste auprès de la voiture. Bien sûr, je ne comprends toujours rien à ce qui se passe sous le capot de ma voiture : quand, après avoir changé l’embrayage, un mécanicien m’a expliqué que les dégâts étaient plus importants que prévu et qu’il avait dû démonter le volant moteur, j’ai pris l’air étonné et vaguement consterné qu’il semblait attendre, mais je n’ai aucune idée de ce que peut être ce volant et, à vrai dire, je n’en ai cure…

Revenons à notre sujet : d’après l’Observatoire du numérique, 49% des salariés utilisent régulièrement internet dans leur travail et 66% des particuliers l’utilisent fréquemment (tous les jours ou presque). Et cela ne prend pas en compte, naturellement, tous ceux qui utilisent un ordinateur sans accéder à internet. Parmi eux, je ne pense pas exagérer en disant, que ceux qui peuvent faire directement appel à un technicien à qui ils peuvent montrer leur problème sans avoir le décrire, sont un petit groupe de privilégiés. Beaucoup vont avoir à se faire assister à distance, par courriel ou par téléphone. Or il est toujours étonnant de voir la difficulté de beaucoup à décrire le problème qu’ils rencontrent : on ne peut pas savoir quelle est la réalité que recouvre le terme « onglet » ou « bouton », quand ils ne se contentent pas de dire « ça ne marche pas ». Du coup les plateformes d’assistance, adoptent un protocole très contraignant et abêtissant, qui présuppose d’emblée que toute information apportée spontanément par le demandeur est nulle et non avenue. Je suis sûr que vous voyez de quoi je parle : le technicien, à qui vous venez d’expliquer que vous avez redémarré trois fois votre box sans résultat, qui vous annonce : « Tout d’abord, nous allons essayer de redémarrer votre box »… Si les utilisateurs d’informatique (c’est-à-dire tout le monde) étaient capables de désigner les éléments d’une interface graphique, que de temps gagné dans l’univers ! que de frustration évitée !

Ce qui manque : des notions de base pour comprendre et donc décrire les aspects les plus superficiels du fonctionnement d’un programme informatique et son interface.

Pour savoir communiquer avec un ordinateur

Il y a quelques années, une de mes missions consistait à créer des comptes sur un ENT pour les élèves de collèges des Pyrénées-Atlantiques. Naturellement, j’avais écrit un petit programme qui, à partir d’un fichier de tableur, générait l’identifiant de l’élève sur l’ENT, puis créait son compte, et l’inscrivait dans un groupe qui correspondait à sa classe. Les établissements devaient donc me fournir un fichier de tableur, organisé selon quelques colonnes, avec un élève par ligne :

Classe, nom, prénom

Mon programme lisait ces fichiers, ligne par ligne, générait, à chaque ligne, l’identifiant de l’élève (par exemple en prenant la première lettre du prénom et les 8 première lettres du nom), créait le compte, ajoutait l’élève au groupe déterminé par sa classe.

Or beaucoup d’établissements me transmettaient des fichiers qui ne respectaient pas ce modèle. Par exemple, leur fichier comportait une première ligne qui ne comprenait que la classe, suivi de la liste des 30 élèves de cette classe, sans mentionner leur classe, puis une ligne correspondant à la classe suivante etc. Ou alors, ils m’envoyaient un fichier dans lequel les prénoms et les noms étaient dans une même cellule.

En somme, ces fichiers étaient parfaitement compréhensibles pour un humain, mais inutilisables pour un ordinateur. Heureusement, je servais d’interface entre les personnes qui créaient ces fichiers et la machine, et je disposais des outils pour régler ces problèmes. Si cette interface n’avait pas existé, ces utilisateurs auraient été confrontés à des messages d’erreur ou des fonctionnements imprévus, sans forcément comprendre d’où venait le problème.

Ce qui leur manquait était la connaissance de base pour pouvoir se faire comprendre d’un ordinateur : structurer ses données.

Un autre exemple : presque personne n’utilise les styles dans un traitement de textes. Cela me frappe particulièrement avec les stagiaires avec lesquels je suis amené à travailler. Un étudiant de 2014 a pourtant déjà eu l’occasion de produire souvent des documents numériques relativement longs : dossiers de TPE au lycée, mémoires, notes et travaux de recherche variés, rapports de stages… Les styles sont pourtant extrêmement utiles pour produire un tel document : ils permettent d’avoir une vision du plan d’un document, d’en manipuler le plan sans avoir à se préoccuper du contenu des différentes parties, de générer automatiquement un sommaire, d’uniformiser la présentation (et la modifier rapidement) etc. Qu’une personne de mon âge ne connaisse pas cette fonction, cela peut se concevoir, puisque nous n’avons jamais appris à utiliser ce genre d’outils, mais qu’un jeune, qui a le B2i (l’utilisation des styles dans un traitement de textes fait pourtant partie des items de ce brevet), ne l’utilise pas, cela dépasse mon entendement…

Ce qui manque à ces utilisateurs de traitements de texte est encore une connaissance de base (à peu près la même que dans l’exemple précédent) : savoir structurer ses données sémantiquement, c’est-à-dire selon leur sens, pour qu’un ordinateur puisse comprendre ce sens (« cette partie de texte est un titre, cette autre partie est un paragraphe »).

Troisième exemple : dans le cadre de mon activité professionnelle, je suis souvent amené à consulter des feuilles de calcul (Excel en général) créés par différentes personnes. L’avantage d’un tableur est de pouvoir appliquer des traitements variées aux données saisies : calcul, tri, comparaison… Bien souvent, il n’est pas possible d’utiliser ces outils dans ces feuilles de calcul, car les données n’y sont pas représentées de la bonne façon : cellules mélangeant à la fois du texte et des chiffres, ensembles de cellules (ligne et colonnes par exemple) correspondant à des données hétérogènes etc.

Quel est le problème ? Il faut choisir un outil qui correspond aux traitements qu’on a besoin d’appliquer aux données et structurer les données de façon à ce qu’elles puissent être traitées par l’outil choisi. Une présentation tabulaire peut souvent avoir du sens, par exemple pour donner une vision synoptique de plusieurs phénomènes (un exemple presque au hasard où une telle vision synoptique a un sens : tableau synoptique des évangiles) mais l’utilisation d’un tableau ne justifie pas nécessairement celle d’un tableur.

Un dernier exemple, un peu différent, dans cette catégorie : j’ai souvent été amené à parler d’IFTTT à des personnes variées (documentalistes d’établissements scolaires, chargés de communication d’organismes variés etc.). Pour mes lecteurs qui ne le connaitraient pas, IFTTT (pour IF This Then That) est un service en ligne très pratique qui permet de lancer une certaine opération lorsque un certain événement se produit : par exemple, lorsque je publie une image sur Facebook, le service la publie sur Twitter. On le voit, cela n’a rien de « technique », « algorithmique » ou compliqué ; c’est un outil qui peut être utile pour n’importe qui qui est amené à publier des choses sur Internet (et pas seulement à publier, puisque je peux l’appliquer à des opérations « privées » : ajout d’une ligne dans une feuille de calcul Google, d’une note dans Evernote etc.) Je me suis rendu compte que pour beaucoup, l’utilisation de ce service ne paraissait pas intuitive, sauf… pour les développeurs. Pourquoi ? Parce que la notion d’événement leur est familière (je me souviens de mon émerveillement un peu déçu quand j’ai compris que l’algorithme de n’importe quelle interface graphique n’est rien d’autre qu’une boucle sans fin qui attend des actions de l’utilisateur, comme cliquer sur un bouton ou saisir du texte, pour déclencher une opération), de même qu’une structure comme « si… alors… ». Est-ce qu’IFTTT est un outil pour les développeurs ? Pas du tout ! Un développeur pourra facilement écrire quelques lignes de codes qui permettront de faire la même chose en beaucoup mieux !

Lutter contre l’effet magique

C’est entendu, tout le monde utilise le numérique, plus ou moins, d’une façon ou d’une autre. On est souvent étonné par la vision merveilleuse qu’en ont beaucoup d’utilisateurs. Quand je dis « vision merveilleuse », je parle aussi bien d’émerveillement béat que de terreur superstitieuse.

Quelques exemples de comportements de ce genre.

Il y a quelques mois, lors d’une présentation sur l’identité numérique, l’intervenante présentait un des nombreux sites qui permettent de voir les « traces » qu’on laisse sur internet. Une des enseignantes présentes a demandé : « Si je mets mon nom et que mon mari fréquente des sites pornographiques, ça va s’afficher ? » Internet pose des problèmes pour la vie privée, mais s’il suffisait de mettre le nom d’une personne dans un formulaire pour savoir comment elle occupe ses soirées, je crois que ça se saurait…

Ce qu’elle ne savait pas : le fonctionnement élémentaire du web et des transferts de données qu’il permet.

Plus généralement, je constate, chez beaucoup de personnes avec qui je suis en contact au plan professionnel ou personnel, une sorte de résignation, de renoncement : le numérique est une boîte noire et ne peut pas être autre chose. Qu’on n’essaie pas d’entrer dans le détail du fonctionnement d’une application par exemple, c’est normal, mais qu’on renonce à en comprendre le fonctionnement le plus superficiel, c’est une logique qui m’échappe…

Ce qui manque : le désir d’aller comprendre un tout petit peu quelques notions de base des outils que l’on utilise tous les jours.

Autre exemple, assez différent, mais qui entre dans la même logique de compréhension : beaucoup de forums, même ceux qui ne sont en rien des forums de geeks, utilisent pour mettre en forme les messages un petit langage de balisage, souvent spécifique, plus ou moins librement inspiré du HTML ou des ce qu’on appelle parfois la syntaxe wiki. Bien sûr, ces sites proposent une interface permettant de ne pas avoir à ajouter ces balises à la main, mais lors du clic sur un bouton, très souvent, les balises apparaissent dans le texte. La première réaction du néophyte est de se dire en relisant son message : « Tiens des caractères incohérents ont été ajoutés à mon texte, j’ai dû faire une mauvaise manipulation », et de supprimer les caractères en question… Pour les non-néophytes que nous sommes vous et moi, cette réaction semble absurde, mais je l’ai vue de mes propres yeux !

Bien sûr, pour l’utilisateur normal, il est vite évident qu’il ne faut pas les supprimer, mais à cause de l’incompréhension, il arrive souvent qu’une modification du texte déconnectée de la modification adéquate des balises provoque un affichage qui n’est pas celui qu’on veut.

Là encore, le fonctionnement élémentaire d’un langage de balises lèverait facilement ce problème.

A la lumière de toutes ces observations, et de beaucoup d’autres du même ordre, j’en suis venu à considérer qu’il devient nécessaire d’apprendre des notions d’informatique : à la fois quelques rudiments de « science informatique » et quelques notions de base de « technique informatique ». Cela ne recouvre ni l’usage de l’informatique en lui-même (par exemple écrire un texte avec un traitement de textes), ni l’apprentissage de l’écriture de code (on peut écrire du code sans pour autant rien comprendre de plus à ces enjeux et à ces questions de haut niveau). Il faut une « culture générale numérique », comme il faut une « culture générale littéraire » ou une « culture générale scientifique ».

Facebooktwitterredditpinterestlinkedintumblrmail

Apprendre à coder ? Apprendre l’informatique ? Apprendre le numérique ?

Facebooktwitterredditpinterestlinkedintumblrmail

Code python dans vim, photo sous licence CC de moleculea

Photo : Vim + NERDTree + Taglist par moleculea

J’ai participé samedi dernier à une conversation sur Twitter sur la question de l’utilité d’apprendre à coder au collège ou au lycée :

On peut distinguer deux grands pôles dans les débats sur ce sujet :

  • Le pôle « pratiques » selon lequel il suffit d’apprendre aux élèves à utiliser le numérique sans leur demander d’entrer dans la technique informatique sous-jacente.
  • Le pôle « techniques » qui considère que pour bien utiliser le numérique il faut savoir comment il fonctionne et donc apprendre à programmer.

Étrangement, il semble qu’il y ait peu de positions intermédiaires entre ces deux pôles. A priori et depuis longtemps, je suis plutôt du côté des « pratiques » : je ne connais rien au fonctionnement de ma voiture et ça ne m’empêche pas de faire 50000 km par an. Toutefois, avec le temps, j’en suis venu à nuancer cette position et à me dire qu’un apprentissage de certaines notions d’informatique serait utile.

Voici donc quelques réflexions à ce sujet (en plus de 140 caractères 😉 ) sur lesquelles je vous invite à réagir (en commentaires ici même par exemple, ou sur Twitter).

Questions de vocabulaire

Mes lecteurs fidèles savent que j’aime bien préciser le vocabulaire avant de discuter une question. C’est souvent un préalable indispensable sur ce qui touche au numérique où les buzzwords et les petits-mots-pour-avoir-l’air-savant-ou-à-la-mode-ou-les-deux-en-même-temps sont souvent très répandus, sans que personne ne comprenne vraiment ce qu’ils signifient (précisément parce qu’ils n’ont pas le même sens pour tout le monde).

Il faut donc s’entendre sur ce qu’on appelle ‘coder’. Dès ce point, un problème va se poser : classiquement, le verbe ‘coder’ (qui provient de l’anglais ‘to code’), pour le sens qui nous intéresse, signifie écrire du code informatique, c’est-à-dire du code exécutable. Il est un synonyme de programmer, c’est-à-dire ‘produire un programme informatique’. Ainsi, coder, c’est écrire dans des langages de programmation, comme C, C++, Java, Python, Ruby, Lisp, Cobol, Basic, Javascript, PHP… (et beaucoup d’autres) pour fournir des instructions à un ordinateur : « affiche une fenêtre », « écris telle phrase à l’écran », « fais tel calcul », « trouve telle information dans tel fichier » etc.

Par un glissement de sens subtil, ce verbe en est venu à signifier « écrire des choses incompréhensibles pour le commun des mortels mais qui fait sens pour un ordinateur ». C’est ainsi qu’on en arrive à parler de coder pour « écrire du HTML ». Le HTML n’est pas un langage de programmation, mais un langage de description de page. Il ne permet pas de dire à l’ordinateur de faire un calcul, par exemple, il se contente de lui dire que tel mot doit apparaître dans telle couleur, à telle position, dans telle taille de caractères. En fait, j’aurai l’occasion de parler plus tard de ces questions.

Si je me permets cette (trop) longue digression sur les sens du mot ‘coder’, ceux qu’il a réellement et ceux qu’on lui attribue un peu trop généreusement, c’est que, je crois, par une sorte d’admirable mise en abyme, la question de « pourquoi apprendre à coder » se trouve posée dans cette expression même. Il me semble en effet que si nous avions tous une expérience plus concrète de ce qu’est l’informatique, ces glissements de sens n’existeraient pas, non plus que les incroyables dialogues de sourds auxquels ils donnent parfois lieu. J’y reviendrai.

Deux autres définitions pourront être utiles. Comme je suis épuisé par la première (et que, je l’avoue, j’ai peur de lasser mes lecteurs avec mes définitions approximatives), je vais emprunter celles-là à l’Académie des Sciences (avouez qu’entre une de mes définitions et une autre écrite par des académiciens, vous ne perdez pas au change) :

  • Le mot « informatique » désignera spécifiquement la science et la technique du traitement de l’information, et, par extension, l’industrie directement dédiée à ces sujets.
  • L’adjectif « numérique » peut être accolé à toute activité fondée sur la numérisation et le traitement de l’information : photographie numérique, son numérique, édition numérique, sciences numériques, art numérique, etc.

On parle ainsi de « monde numérique » pour exprimer le passage d’un nombre toujours croissant d’activités à la numérisation de l’information et « d’économie numérique » pour toutes les activités économiques liées au monde numérique, le raccourci « le numérique » rassemblant toutes les activités auxquelles on peut accoler l’adjectif numérique. Puisque toute information numérisée ne peut être traitée que grâce à l’informatique, l’informatique est le moteur conceptuel et technique du monde numérique.

(Rapport de l’Académie des sciences. L’enseignement de l’informatique en France. Il est urgent de ne plus attendre., p. 8)

Les deux pôles du débat

Comme je le disais plus haut, il me semble que sur cette question on peut distinguer deux pôles. Deux textes me semblent emblématiques de chacun de ces deux pôles :

Le pôle « technique » : rapport de l’Académie des sciences

Les auteurs du rapport partent du constat suivant :

  • Le développement du numérique est intimement lié aux progrès de l’informatique, qui est devenue une science autonome avec ses formes de pensée spécifiques. Si les objets et applications numériques évoluent à allure soutenue, la science informatique reste fondée sur un ensemble stable et homogène de concepts et de savoirs.
  • Nombre des progrès technologiques les plus marquantes de ces dernières années sont des produits directs de l’informatique : moteurs de recherche et traitement de très grandes masses de données, réseaux à très large échelle, informatique sûre embarquée dans les objets, etc.
  • De par l’universalité de son objet, la science informatique interagit de façon étroite avec pratiquement toutes les autres sciences. Elle ne sert plus seulement d’auxiliaire de calcul, mais apporte des façons de penser nouvelles.

(Rapport de l’Académie des sciences. L’enseignement de l’informatique en France. Il est urgent de ne plus attendre., p. 3)

Ils estiment donc nécessaire d’enseigner la science informatique dès l’école primaire, en proposant une progression jusqu’au lycée (et même au-delà):

  1. La sensibilisation, principalement au primaire, qui peut se faire de façon complémentaire en utilisant des ordinateurs ou de façon « débranchée » ; un matériau didactique abondant et de qualité est d’ores et déjà disponible.
  2. L’acquisition de l’autonomie, qui doit commencer au collège et approfondir la structuration de données et l’algorithmique. Une initiation à la programmation est un point de passage obligé d’activités créatrices, et donc d’autonomie.
  3. Le perfectionnement, qui doit se faire principalement au lycée, avec un approfondissement accru des notions de base et des expérimentations les plus variées possibles.

(Rapport de l’Académie des sciences. L’enseignement de l’informatique en France. Il est urgent de ne plus attendre., p. 4)

Cet enseignement passe la création d’une nouvelle discipline, qui doit être enseignée à tous les jeunes, en adaptant les exercices et les objectifs au niveau d’enseignement et (au lycée) aux options et aux filières choisies. Le rapport prévoit aussi la formation des enseignants qui seraient amenés à enseigner cette nouvelle matière : formation des enseignants de premier degré pour qu’ils puissent enseigner cette matière comme ils enseignent déjà les autres, création de concours CAPES/Agrégation pour former les nouveaux enseignants d’informatique du secondaire.

Les finalités de cet enseignement sont les suivantes (p. 13 sq.):

– « Former les professionnel-le-s de tous les métiers » : puisque de plus en plus de métiers utilisent l’informatique ou ont à traiter de questions qui sont liées à ce domaine, les professionnels qui les pratiquent doivent pouvoir le comprendre d’une façon satisfaisante. Un exemple est particulièrement éclairant à cet égard :

Par exemple, les juristes sont de plus en plus souvent amenés à écrire et appliquer des lois qui concernent des questions liées à l’informatique. L’expérience récente montre que leur difficulté à comprendre et suivre le sujet mène à des retards permanents dans l’action, voire à des contresens, comme on en a vus sur questions d’identification, de vote électronique ou de protection de la vie privée : croyance répandue mais erronée qu’une adresse IP (dans sa version 4 actuelle) identifie un ordinateur, confiance a priori dans le vote électronique certainement pas partagée par les spécialistes de la sécurité informatique, etc. »

(Rapport de l’Académie des sciences. L’enseignement de l’informatique en France. Il est urgent de ne plus attendre., p. 14)

– « L’alphabétisation numérique pour tous » : les auteurs insistent, à juste titre à mon avis, sur le fait que la fracture numérique n’est pas tant entre ceux qui sont équipés de matériel informatique et ceux qui n’en sont pas équipés qu’entre ceux qui savent s’en servir efficacement et ceux qui ne savent pas. Le numérique est porteur de beaucoup de promesses pour améliorer la société : plus de transparence, plus grande liberté d’expression, accès facilité à l’information et à l’éducation etc. mais aussi de certaines menaces. Il importe que les citoyens puissent à la fois tirer profit de ces avantages et contrôler le développement du numérique dans la société. Pour cela il est nécessaire de les former à mieux comprendre ces questions par une éducation à l’informatique.

(Je passe sur la finalité suivante « Réduire les fractures numériques de genre et de catégorie sociale » qui n’est pas autre chose, à mon avis, qu’une petite glose politiquement correcte pour faire bonne mesure, puisque rien d’autre de sérieux n’est dit à ce sujet dans le rapport).

Ce sur quoi le rapport insiste à plusieurs reprises, c’est sur la nécessité d’apprendre aux élèves des concepts et non des procédures : « Il faut donc systématiquement rechercher l’enseignement des fondements et des concepts, au lieu de former les élèves aux détails d’outils vite périmés, faute de quoi les élèves se périmeront aussi vite que les objets enseignés » (p.17).

Le pôle « pratiques » : article de Michel Guillou « Apprendre à exercer sa liberté d’expression ou apprendre à coder »

(NB : je choisis cet article parce qu’il me semble assez caractéristique de ce que j’ai appelé le pôle « pratiques », même si je dois à la vérité de préciser qu’il ne résume pas toute le pensée de Michel Guillou sur ce sujet. En somme, je le prends comme exemple d’une position sur la question dont je parle, non comme exemple des réflexions de son auteur, par ailleurs plus subtiles et plus complexes que cela.)

Michel Guillou considère cette proposition de créer une nouvelle matière d’enseignement « pitoyable et dérisoire » et estime que les arguments avancés sont fallacieux :

Je cite Benoît Thieulin, président du CNN qui s’est maladroitement engouffré dans l’espace ouvert par l’EPI, les informaticiens de l’Académie des Sciences et la Société informatique de France, qui disait dans L’Express : « Une nouvelle culture numérique émerge pour laquelle les gens ne sont pas formés. Il faut donc enseigner un minimum de culture générale dans ce domaine dès le primaire. Tout le monde doit savoir ce qu’est un logiciel et comment il est conçu, par des couches de codes de langages informatiques ». Vous l’avez compris, c’est le syllogisme habituel : une nouvelle culture numérique est nécessaire, l’informatique en est le cœur donc il faut enseigner l’informatique et le code !

Il récuse ensuite l’idée que l’informatique soit absente des enseignements actuels :

Quant à l’idée que l’informatique serait absente des enseignements d’aujourd’hui, c’est une idée fausse bien sûr. La maîtrise des techniques usuelles de l’information et de la communication fait partie de la quatrième compétence exigible pour le socle commun et pour le B2i, aussi imparfait soit-il, les items de laquelle compétence pouvant être validés dans n’importe quelle discipline, des mathématiques à la technologie en passant par la documentation, souvent pionnière en la matière. Par ailleurs, et s’il faut absolument parler des programmes disciplinaires, faut-il rappeler qu’il existe déjà un enseignement optionnel de l’informatique et des sciences du numérique qui devrait être proposé bientôt, si on trouve les professeurs pour les encadrer, à toutes les classes de terminale ? Faut-il rappeler aussi que les programmes de technologie, au premier degré comme dans les collèges, contiennent de très nombreuses références à l’enseignement de l’informatique, dont la compréhension du code ?

Je dois avouer que cette partie de l’article me rend un peu perplexe : en ce qui concerne l’enseignement optionnel de l’informatique et des sciences du numérique, précisément, il est optionnel et ne peut donc pas être considéré comme susceptible de fournir une culture générale de base sur l’informatique. Dans le programme de technologie, je ne vois pas les « très nombreuses références à l’enseignement de l’informatique, dont la compréhension du code ». Je vois quelques références à l’informatique, qui me semble plutôt vue selon une perspective très technique et procédurale, je vois aussi que la seule mention du code est négative : « La programmation d’un support automatique ne demande pas l’écriture de lignes de code. » (Programmes de l’enseignement de technologie, Bulletin officiel de l’Education nationale spécial n° 6 du 28 août 2008, p. 22)

Sur la question du socle commun et du B2i, je n’ai aucun doute ; ce passage est de toute évidence une facétie de Michel Guillou, qui écrivait naguère au sujet du B2i, qu’il qualifiait d' »échec monumental » :

Au moment où il convient maintenant, compte tenu de l’urgence, d’enseigner le numérique et de prendre à ce sujet des décisions, la seule chose sensée à faire est d’annoncer la suppression de ce machin, par ailleurs particulièrement mal nommé.

Définitive, la suppression, de préférence..

Comme de décider de la suppression de la compétence 4 dont les items intègrent aisément l’ensemble des autres compétences, comme j’ai déjà eu l’occasion de le démontrer. Pour y revenir et n’évoquer, par exemple, que les compétences 6 et 7, comment travailler sur « les droits et les devoirs du citoyen » ou « les notions de responsabilité et de liberté et le lien qui existe entre elles » hors de toute référence au numérique qui imprègne les pratiques ordinaires de ces jeunes citoyens ?

(Avoir parfois le courage de renoncer)

Il sait très bien, comme tout le monde, que les items du B2i sont très peu enseignés, en particulier les plus « théoriques », qui sont ceux qui nous intéressent en ce moment.

Mais cela n’est pas l’essentiel de cet article. Le cœur du propos de son auteur est de dire que la vraie priorité pour maîtriser le numérique, plutôt qu’une éducation à l’informatique, est d’apprendre à exercer sa liberté d’expression par le numérique, à publier : « Je suis donc persuadé que l’exercice de ce droit s’apprend, dans le cadre d’une éducation aux médias rénovée, et doit faire partie des nouvelles compétences auxquelles il faut former le jeune citoyen ».

Deux positions irréconciliables ?

On le voit, ces deux pôles correspondent à deux positions très tranchées : création d’une discipline supplémentaire « informatique » comprenant l’apprentissage du code dans un cas, éducation aux médias rénovée dispensée de façon pluridisciplinaire dans l’autre cas.

Il semble difficile de mettre d’accord les tenants de ces deux positions. Pourtant, il faut reconnaître que les deux textes se proposent des objectifs communs : dans les deux cas, il s’agit de former des citoyens conscients, capables de faire des choix éclairés et d’exercer leur liberté d’expression.

Ils ont aussi, me semble-t-il, un autre point commun (et j’espère que ni les uns ni les autres ne prendront ombrage de cette remarque) : une rhétorique prédéterminée par certaines conceptions préalables.

Le vice logique du rapport de l’Académie des sciences est dans une certaine mesure mis en lumière par Michel Guillou dans la citation que j’ai faite plus haut : le numérique induit un changement du monde dans lequel nous vivons, la science informatique est à la base du numérique, donc il faut apprendre la science informatique et la programmation. Si on peut suivre le raisonnement jusqu’à apprendre la science informatique (c’est-à-dire une théorie du traitement de l’information), on ne voit pas très bien pourquoi la technique informatique (le code) arrive ici. C’est ce que j’appellerais la « logique du blop » : un élément arrive dans le discours par la seule raison de sa contiguïté avec un autre qui a été amené logiquement (il apparaît comme une bulle qui éclate sans qu’on s’y attende à la surface du porridge, en faisant « blop »).

Quant au raisonnement de Michel Guillou, je le qualifierais de « logique gaullienne » : le numérique pose des questions sur la société auxquelles il appartient au citoyen de répondre, il faut donc une éducation à la citoyenneté, les questions techniques étant des détails. Par conséquent, je forme un citoyen et l’intendance (numérique) suivra (d’où le nom de cette logique 😉 ). Je crois que depuis la création du B2I en 2000, l’intendance n’a pas toujours suivi comme on l’aurait voulu…

[A suivre… Dans un prochain billet, je dirai ce que je pense de l’enseignement de l’informatique]

Facebooktwitterredditpinterestlinkedintumblrmail

L’âge du péta-octet…

Facebooktwitterredditpinterestlinkedintumblrmail

Mon fils de bientôt cinq ans, qui, comme beaucoup de ses semblables, n’est pas chiche d’hyperboles, m’a demandé pendant l’été ce qu’il y a après « méga » (parce que mieux que superbien, c’est mégabien), puis ce qu’il y a après « giga »… Lorsque, quelques jours plus tard, il m’a demandé ce qu’il y a après « téra », je dois avouer que j’ai séché et ce n’est qu’après une recherche sur le web que j’ai pu lui répondre « péta » (mais en tant que parent responsable, j’ai néanmoins pris la peine de lui expliquer que le terme « pétabien » risquait de ne pas être intelligible pour tous).

Aussi ai-je particulièrement prêté l’oreille (devrais-je dire l’oeil ?) quand j’ai découvert, par l’intermédiaire d’Olivier Ertzscheid, l’article de Chris Anderson traitant de l’impact de l’Age du Pétaoctet sur la méthode scientifique. Depuis, Hubert Guillaud a écrit un article de synthèse très intéressant sur la fin de la science, dans lequel il évoque cet article : Est-ce que le déluge de données va rendre la méthode scientifique obsolète ?. Mais ce n’est pas de cet impact sur la science que je veux parler ici ; cet article m’a inspiré quelques réflexions, qui rencontrent des préoccupations que j’ai depuis longtemps.

D’abord cette idée d’un déluge de données dans lequel des logiciels pourraient trouver un sens automatiquement (l’exemple le plus saisissant est celui de la traduction : « à corpus de données égal, Google peut traduire du klingon en persan aussi facilement qu’il peut traduire du français en allemand », dit Anderson) me semble mettre en évidence une tendance importante et durable de l’internet actuel : la domination d’un système fonctionnant avec des données peu structurées, au détriment d’un système plus rigoureux et plus structuré. En somme, il s’agit d’une victoire du web 2.0 (ou 3.0, je ne compte plus) sur le web sémantique. C’est ce principe qui s’applique pour le moteur de recherche de Google ou les sites de signets collaboratifs comme del.icio.us : on ne demande pas au fournisseur de contenu (pages web ou liens dans ces exemples) de faire une description exhaustive de son contenu ; à la rigueur, on lui demande quelques mots clés (tags), mais cela ne va guère au-delà. Il me semble que cette tendance se confirme d’une façon très nette et que la mise en place d’un formalisme imposant de taxinomies et d’ontologies qu’on nous promet parfois n’aura pas lieu, en tout cas pas dans les dix ans qui viennent. A la place, le web continuera à être une sorte de vrac dans lequel les ordinateurs devront se débrouiller pour trouver un sens (quel qu’il soit), et non un objet bien propre spécialement fabriqué pour qu’ils le comprennent.

A cet égard, le billet de Jean Véronis sur la nouvelle fonctionnalité de Google de détection de pièce jointes oubliées, dans lequel il explique la méthode qu’il utiliserait pour implémenter cette fonction est un témoignage éloquent. Cette méthode donne véritablement le vertige : il s’agit d’ « extraire à l’aide d’outils statistiques les n-grammes qui apparaissent fréquemment dans les mails avec attachement et pas dans les mails sans attachement », puis « pour chaque nouveau mail, regarder si un de ces n-grammes magiques est présent dans le texte, et si oui déclencher une alerte ».

D’ailleurs, je crois que l’époque est au refus d’un formalisme excessif. Le succès d’une méthode comme GTD n’est sans doute pas étranger à ce refus : un projet, tel que le décrit David Allen, n’est pas un ensemble complexe de systèmes et de sous-systèmes, qui peut être représenté de diverses façons (diagramme de Gantt, de PERT…) ; c’est plutôt un ensemble d’actions qui peut être consigné sur le dos d’une enveloppe et dont la représentation essentielle est la Next action, c’est-à-dire « Et maintenant qu’est-ce qu’on fait ? »

En somme, le principe directeur, connu depuis toujours, est que « le Mieux est l’ennemi du Bien » et plutôt que d’avoir un modèle qui prévoit tout, il vaut mieux avoir un modèle facile à adapter quand on aura besoin de lui faire faire quelque chose d’imprévu… Les méthodes de programmation dites « agiles » ne reposent pas sur autre chose.

Mais aussi cette situation a un impact sur l’informatique en général : d’abord parce qu’elle peut contribuer à populariser l’idée qu’un ordinateur doit travailler à la place d’un humain et non lui donner du travail… Truisme… mais qui ne paraît pas si évident pour tous nos semblables : l’ami qui m’a dit il y a quelques années « Pourquoi as-tu 2 (ou 3 ou 6…) ordinateurs, tu ne peux pas être assis devant tous en même temps ? », sans savoir qu’un bon ordinateur est précisément celui que j’utilise sans être assis devant lui, ou bien ceux qui ne veulent pas utiliser l’informatique parce qu’ils n’ont pas le temps…

Je crois que cette tendance a aussi une conséquence sur le métier d’informaticien. En effet, de nos jours, il est possible de programmer facilement, sans avoir de compétences théoriques importantes. C’est un raisonnement que je me fais depuis longtemps à mon propre sujet : je passe une partie importante de mon temps de travail à écrire du code et pourtant, je n’ai jamais étudié l’informatique et je n’ai pas de connaissances approfondies en algorithmique. Un exemple parmi beaucoup d’autres : tout ce que j’ai pu apprendre sur les algorithmes de tri (que je n’ai appris que par curiosité et jamais par besoin) ne m’a jamais été directement utile, parce que toutes les fois où j’ai eu à trier des données, il était plus simple et plus efficace d’utiliser une fonction native ou fournie par une bibliothèque du langage que j’utilisais (le plus souvent python).

J’ai longtemps pensé que cette approche était caractéristique d’un autodidacte de la programmation, professeur de lettres de formation, mais j’ai constaté au contact de ‘vrais’ informaticiens, ou de stagiaires qui finissaient des études (de type BTS ou DUT) en programmation que beaucoup n’ont pas de notions théoriques plus approfondies et que ces connaissances ne sont guère utiles dans la pratique quotidienne de beaucoup de programmeurs.

Or l’âge du péta-octet exige une vraie réflexion sur les algorithmes : le volume gigantesque de données nécessite des traitements optimisés pour être réalisables dans des conditions acceptables, les opérations à mettre en oeuvre impliquent des notions sur les statistiques que tous ne possèdent pas. La conséquence de cela va être l’élargissement du fossé entre l’élite des programmeurs, très compétents, détenteurs de connaissances très pointues dans des disciplines scientifiques, et la piétaille des scripteurs, qui sera de moins en moins distincte des power users, de plus en plus nombreuse. Bien sûr, cette fracture existe déjà, mais il y a fort à parier qu’elle va aller en s’accentuant.

Facebooktwitterredditpinterestlinkedintumblrmail

Le catalogue de ma bibliothèque…

Facebooktwitterredditpinterestlinkedintumblrmail

J’adore les livres, les vrais livres, ceux en papier. J’ai envie d’en lire, j’ai envie d’en posséder, j’ai envie d’en toucher et j’ai envie de passer du temps dans ma bibliothèque, en particulier en ce moment.

Cela m’amène à fréquenter beaucoup le site d’Amazon, à lire des dizaines de blogs qui parlent de livres, de bibliophilie ou de lecture, mais aussi à vouloir faire un catalogue de mes livres. J’avais, naguère, évoqué sur ce blog le site LibraryThing pour cela, sans suffisamment prêter attention au fait que le compte gratuit ne permet pas d’insérer plus de 200 livres, autant dire rien…

[Entre le moment où ce billet a été écrit sur mon moleskine et le moment où il est dactylographié (n’est-ce pas un mot exquis ?), il s’est écoulé plusieurs semaines le contenu de ce billet a changé. Dans sa première version, il continuait ainsi : “et pour le dire comme je le pense, je ne suis pas disposé, au moins pour le moment, à payer ce service (je ne conteste pas qu’il soit légitime pour le créateur de ce site d’être rémunéré, je dis simplement que s’il n’est pas possible de profiter gratuitement d’un tel service, je préfère m’en passer, dans l’état actuel des choses”.

La nouvelle version est la suivante :]

J’expliquais dans ce billet pourquoi je n’étais pas disposé à payer pour ce service et comment j’en étais venu à tester d’autres services, dont la plupart ne m’avaient pas satisfait, et à choisir d’utiliser Listal. Je détaillais ensuite la procédure que j’envisageais d’adopter pour cataloguer mes livres avec Listal, que je peux résumer ainsi :

– Lecture des codes barres des livres ;

– Recherche du livre dans la base d’Amazon ;

– Importation des informations concernant le livre dans Listal.

Le code barre des livres (pour ceux qui en ont un) correspond à leur ISBN et permet donc de les identifier de façon assez précise.

J’ai fait quelques tests avec une petite application en Flash qui permet de lire des codes barres avec une webcam, avec l’API d’Amazon (ces derniers tests m’ont permis de comprendre pourquoi Listal ne recherche des livres que sur amazon.com et amazon.co.uk : la recherche par ISBN n’est pas possible, dans la version actuelle de l’API, sur les autres sites d’Amazon et notamment sur amazon.fr, même si cette possibilité existe avec des versions plus anciennes), avec les fonctionnalités d’importation de Listal…

Au final, ces tests ont révélé que cette solution serait trop compliquée : la lecture des codes barres, outre quelques petits bugs qui se sont révélés, est difficile et longue. L’utilisation de l’API d’Amazon ne permet pas de rechercher les ISBN sur le site français et l’importation dans Listal est malaisée (il n’est possible d’importer que des fichiers XML produits par l’application Mac de gestion de bibliothèque personnelle Delicious library, format qui n’est documenté nulle part).

Je suis donc retourné voir LibraryThing (d’ailleurs en partie pour préciser le nombre maximal de livres qu’on peut ajouter avec le compte gratuit) et, sur un coup de tête, j’ai pris un abonnement payant pour ce service (25 $ pour un abonnement à vie et, je l’ignorais, 25 $ représentent beaucoup moins que 25 € par les temps qui courent). Ici, l’importation est beaucoup plus simple : je peux téléverser un fichier texte contenant des ISBN, qui sont ajoutés automatiquement à ma bibliothèque (en utilisant amazon.fr qui reste une base à peu près inépuisable pour les livres en français).

J’avais aussi envisagé d’écrire quelques lignes de PHP pour saisir rapidement les ISBN et les inscrire dans un fichier texte, mais j’ai soudain songé que l’application qui permet de saisir un ISBN, puis de presser la touche “Entrée” avant d’en saisir un autre et finalement d’enregistrer tout cela dans un fichier texte, cette application, dis-je, existe déjà et elle s’appelle un éditeur de textes…

Je vais donc occuper une partie de mes congés (qui commencent demain soir) à saisir les livres de ma bibliothèque dans Notepad++ avant de les embougler dans LibraryThing… ce qui est assez différent du scénario initial. Je ne donne pas, pour le moment, l’adresse de ma bibliothèque sur LT, j’attends qu’elle soit plus à jour, mais les petits malins réussiront bien à la trouver.

En outre, je viens de découvrir chez Virginie Clayssen un autre service du même genre qui s’appelle Babelio et qui est nativement francophone, semble-t-il (LT est traduit en français, entre autres langues). Cependant, comme ce service repose sur le même business model que LT, je n’ai pas l’intention de reprendre un autre abonnement à vie (surtout que sur Babelio, il est à 30 €, soit presque le double de ce qu’il est sur LT). Cependant, je le testerai et, toujours fidèle à ma mission d’information de mes lecteurs, je vous dirai ce que j’en pense. ;-)

tags technorati: , , , ,
Facebooktwitterredditpinterestlinkedintumblrmail

Et si le problème, c’était Word ?

Facebooktwitterredditpinterestlinkedintumblrmail

Dans le cadre de diverses activités, telles que la formation d’enseignants, l’assistance aux utilisateurs, mais aussi dans le cadre de ma vie quotidienne de professionnel de l’informatique à qui tous les amis demandent de l’aide ou des conseils (vous savez : “Quoi ? tu es informaticien et tu ne connais pas par coeur tous les détails de fonctionnement de tous les scanners / tous les appareils photo numériques / toutes les cartes sons etc. !” ou bien ces questions énigmatiques que vous ne commencez à comprendre que quand vous avez saisi qu’elles portent sur l’utilisation de MS Word, parce que, pour votre interlocuteur, l’informatique, c’est Word. Tu sais de quoi je parle, hypocrite lecteur, mon semblable, mon frère), j’ai souvent été confronté à la question de ce qui est un frein à l’acquisition de techniques informatiques par des débutants, à celle de la bonne méthode pour apprendre de nouveaux savoir-faire à des utilisateurs néophytes.

Je me suis ainsi rendu compte qu’il existe une sorte de socle de connaissances, de repère universel qui est le traitement de texte. Tout le monde a, peu ou prou, utilisé un traitement de texte ; comme je l’ai dit plus haut, certains considèrent que l’informatique, c’est Word et beaucoup estiment que la maîtrise ou non d’un traitement de texte est un bon étalon de la compétence en informatique : “j’arrive à me débrouiller avec Word, mais c’est tout”, “je passe beaucoup de temps pour écrire un texte”, “tel ou tel logiciel est plus facile / plus difficile à utiliser qu’un traitement de texte”…

Je crois que l’ensemble de ce raisonnement est faux. Tout simplement parce que les traitements de texte, quels qu’ils soient, ne sont pas des logiciels de débutants :

  • D’abord, ne serait-ce que dans leur interface : ils proposent en général une multitude d’options et de fonctionnalités, beaucoup plus que la moyenne des applications, une sorte de surabondance baroque qui convainc l’utilisateur néophyte que les outils informatiques sont complexes. D’ailleurs, il est évident qu’apprendre à utiliser un traitement de texte, c’est en réalité apprendre à ignorer la plupart de ses options.
  • Ensuite, les traitements de texte essaient presque toujours de tout faire : être à la fois un éditeur de texte, une application de PAO, un outil de traitement d’images, voire un navigateur web dans une certaine mesure… Cela a pour effet de varier terriblement les termes utilisés, en empruntant à droite et à gauche dans les différents domaines concernés, d’où un vocabulaire hétérogène, abscons et simplement incompréhensible.
  • Une autre complexité vient de tous les gadgets que les éditeurs de traitements de texte ajoutent libéralement à leurs produits pour aider les utilisateurs. Toutes ces petites choses qui modifient les marges de votre document si vous commencez un paragraphe par un tiret, qui vous imposent une numérotation dont vous n’avez que faire si vous avez le malheur de le commencer par un chiffre… Cette autre fonctionnalité qui vous apprend qu’il est inapproprié d’écrire un mot qui commence par deux majuscules, ou ces autres si pratiques qui font que créer un tableau ou insérer une image peut devenir un véritable cauchemar si vous ne voulez pas procéder exactement comme le Logiciel l’a décidé ! Ne souriez pas ainsi, ce sont ces petites choses que vous avez appris à combattre quotidiennement. En somme, pour éviter aux utilisateurs d’avoir à apprendre le logiciel, on les oblige à apprendre à s’en protéger…
  • Une dernière (?) tribulation du traitement de texte vient du fait que, le plus souvent, il sert à imprimer. Ce petit point de contact avec la réalité, s’il est souvent ce qui amène le débutant à utiliser un traitement de texte, est aussi la source de nombreux soucis : bourrages de l’imprimante, impressions incohérentes, difficultés pour définir la zone à imprimer, l’orientation des feuilles etc.

Il me semble donc qu’il faudrait rétablir la vérité : le traitement de texte est un logiciel complexe dont la maîtrise n’est jamais un prérequis et qu’il est bon de ne pas utiliser. La plupart des autres outils informatiques dont on peut avoir besoin sont infiniment plus simples à maîtriser.

Tags: , , ,

Facebooktwitterredditpinterestlinkedintumblrmail