Auteur/autrice : Eric Fourcaud

  • Utiliser les potentialités du multimédia interactif

    Les outils de communication tels que les blogs ou les forums de discussion trouvent leur utilité et semblent exploités dans leurs possibilités techniques. Mais ces fonctionnalités ne doivent pas en faire oublier d’autres – plus complexes peut-être à mettre en œuvre d’un point de vue technique – présentant d’autres richesses qu’il serait dommage d’ignorer.

    Nous allons présenter ici des potentialités offertes par les capacités multimédia et interactives d’internet qui ont un réel intérêt pour l’enseignement et que les sites d’accompagnement scolaires auraient tout intérêt à développer. Les exemples que nous présenterons seront tirés de logiciels ludo-éducatifs actuellement disponibles sur cédéroms mais qui devraient pouvoir inspirer des concepteurs du web 2.0, qu’ils soient professionnels du multimédia ou de l’enseignement. Nous allons à la fois présenter des exemples intéressants et représentatifs des possibles à exploiter mais aussi des situations mal conçues qui empêchent une utilisation efficace d’un point de vue pédagogique.

    Des profils pédagogiques différents
    Comme un certain nombre de chercheurs en sciences de l’éducation, qui prônent la prise en compte des différences individuelles au-delà d’un simple respect du rythme de chacun, Antoine de la Garanderie met en évidence le fait que les individus ont des « profils pédagogiques » différents (1982). Certains, en effet, ont plus de facilités à interpréter et mémoriser une information s’ils la perçoivent par le canal auditif plutôt que par le canal visuel. Ou vice-versa. Bien sûr, chacun utilise les deux canaux à la fois mais il y en a généralement un qui est plus efficace que l’autre. A moins de capacités particulières ou d’entraînement à développer l’usage de l’autre canal, il sera donc plus facile pour quelqu’un qui a un profil pédagogique plutôt visuel de percevoir, de traiter et de garder en mémoire de l’information lorsque celle-ci se présente sous une forme visuelle (dessin, graphique, schéma ou texte écrit…).

    Un autre individu avec un profil plutôt auditif sera plus sensible, par exemple, à une explication orale. Le but n’est pas ici de créer des catégories fixes, réductrices voire normalisantes mais, au contraire, de tenter de mieux comprendre le fonctionnement de chacun pour mieux adapter le message au destinataire.

    Avec la pluralité des médias et des représentations, les concepteurs de produits multimédias ont la possibilité de s’adresser à une pluralité de destinataires. En effet, en prévoyant plusieurs modes sensoriels d’accès à l’information, les concepteurs envisagent qu’il y a des interprétants différents dans leurs profils pédagogiques respectifs. Le choix que fera ensuite l’utilisateur ne sera pas forcément conscient : il pourra aller naturellement vers le type de média le mieux adapté à son profil.

    Des enfants ayant des profils pédagogiques différents vont, par la médiation d’un seul et même support – et c’est bien cela qui est intéressant – percevoir et comprendre des données identiques, mais de nature différente. Pour comprendre mieux comment le concepteur d’un contenu multimédia peut prendre en compte ces différences, observons des situations existantes qui ont été proposées à des enfants (Kellner, 2000).

    La pluralité des médias
    Dans le cédérom « Voyage interactif au pays des maths » (TLC Edusoft, 1997), on retrouve différents exemples illustrant cette pluralité des médias.
    Une des premières activités que peut rencontrer l’enfant en naviguant dans ce produit est une activité dite Aventure. La consigne est présentée sous forme de vers :
    image : Activité Aventure de « Voyage interactif au Pays des Maths ».

    On retrouve cette consigne (en haut et à gauche de l’écran ci-dessus) également de manière orale puisqu’un des personnages du cédérom la lit. Un élément graphique intervient en même temps : la ligne qui est en train d’être lue est surlignée en jaune. L’intérêt de cette association réside dans l’accès au texte écrit facilité pour l’enfant qui ne maîtrise pas encore bien la lecture. Une situation similaire peut-elle se présenter sans le support multimédia interactif ? Si en classe, l’enseignant lit un texte écrit au tableau, tout en montrant du doigt les termes au fur et à mesure de leur lecture, il diffuse bien un message selon deux modalités sensorielles différentes. Mais, à moins d’un enseignant pour chaque élève qui lirait le mot montré par l’élève, il ne s’agit pas d’une réelle individualisation de l’enseignement. Ici, en revanche, en cliquant sur chacune des lignes, l’enfant peut avoir accès à la lecture de ce qui y est écrit, et ce autant de fois qu’il le souhaite, à la demande, en fonction de son besoin.

    Cette fonctionnalité de l’outil est néanmoins à utiliser avec circonspection. Le rythme de lecture doit être adapté, ce qui n’est pas le cas dans l’exemple cité où il est trop rapide par rapport à la complexité du texte. Si lecture et surlignage sont trop rapides, non seulement, ils ne constituent pas une aide pour l’utilisateur mais deviennent au contraire une gêne : les enfants ont différentes informations de diverses sources à gérer et ils ne peuvent pas le faire au même rythme. Il y a un vrai risque de « surcharge cognitive » (Jacquinot, 1996). Alors que l’association simultanée des médias pourrait permettre une meilleure adaptation à chaque utilisateur, l’inadaptation de la mise en surbrillance au rythme de lecture peut en compromettre l’efficacité, ce qui est particulièrement dommage…

    Précisons que ce n’est pas de façon exclusive que les enfants traitent un type d’information mais de manière prioritaire. La simultanéité d’informations de différentes natures est donc très utile dans la mesure où les sources non prioritaires peuvent avoir une fonction de confirmation. Ainsi, Gauthier, 6 ans, explique comment il procède dans l’activité Exploration du Pays 2 : Additions et soustractions du cédérom « Voyage interactif au pays des maths » : « Moi je compte et puis je sais que c’est 5 et puis quand ils le disent, je sais encore mieux que c’est 5 ». L’observation confirme cette auto-analyse. Le fait de pouvoir vérifier son hypothèse lui permet certainement de traiter plus rapidement l’information visuelle en sachant que si son estimation n’est pas exacte, l’information auditive lui permettra de le savoir.

    L’importance de l’interface
    On voit bien ici que la manière dont les informations vont être mises à disposition des enfants va être fondamentale dans ce qu’ils vont pouvoir en faire. Cette question concerne directement ce que les ergonomes appellent l’interface.

    Il s’agit en fait d’un dispositif de médiation technique entre le programme et l’utilisateur qui est défini par le guide pratique de conception et d’évaluation ergonomique de sites Web du Centre de recherche informatique de Montréal comme « un dispositif (matériel et logiciel) grâce auquel s’effectuent les échanges d’informations entre deux systèmes » (Millerand, Martial, 2001). La définition indique que « concrètement, une interface peut être définie comme tout ce qui aide l’humain à comprendre et à manipuler la machine ; le point central des échanges entre la personne et la machine ; une couche composée d’une partie matérielle (écran, clavier, souris, etc.) et d’une partie logicielle qui vient s’interposer entre les concepts de la machine et l’utilisateur » (ibid.). L’interface est donc immanquablement liée à la navigation, autrement dit à la manière dont l’utilisateur se déplace dans le produit, puisque c’est elle qui donne accès aux liens et aux zones actives. Le parcours, résultat de cette navigation, ne dépend donc pas seulement de la volonté de l’utilisateur, mais est aussi en partie induit par l’interface.

    Face à l’importance d’une interface bien construite, on peut s’étonner du fait que la littérature, que ce soit en sciences de l’information et de la communication, en sciences cognitives ou en sciences de l’éducation, ne soit pas très fournie. Différentes raisons peuvent être avancées et en particulier le fait qu’on ne peut aborder cette question sans se confronter au délicat problème des usages (Le Marec, 2001). Les recherches, comme celles que mènent Annette Béguin et Bénédicte Amougou (2001) sur le rôle des dispositifs sémiotiques dans l’appropriation des savoirs, ne sont pas très nombreuses. Et pourtant, la question est fondamentale. En effet, une interface claire et lisible est un élément indispensable pour tout produit numérique, en particulier pour un produit à destination d’un enfant-apprenant. Face à un logiciel d’apprentissage, l’utilisateur a la lourde tâche d’accéder à de l’information et de la transformer en savoir. S’il doit dépenser une grande partie de son énergie cognitive à accéder au contenu même du produit, c’est comme s’il devait tourner des pages d’un livre pesant chacune plusieurs kilos.

    Observer un enfant en train d’utiliser un produit multimédia interactif permet aussi de s’apercevoir que, même si l’activité paraît bien conçue et articule des informations de nature différente, cela n’est pas pour autant qu’elles seront utilisées. En effet, il peut suffire d’un grain de sable pour que l’engrenage reste bloqué.

    D’abord, une information, bien que disponible, peut ne pas être perçue par les utilisateurs. Un simple clic peut interrompre une consigne orale. Une consigne donnée trop tôt après une séquence réussie qui déclenche la joie des enfants et altère durant quelques secondes leur concentration ne sera pas entendue non plus. Si cette information n’est plus accessible ensuite, on passe carrément à côté. La difficulté de l’information auditive, c’est qu’elle s’inscrit dans le flux du temps alors que l’image fixe peut rester affichée et être accessible à tout moment.

    Ensuite, une interface visuelle qui ne met pas assez en évidence des éléments essentiels à percevoir est également problématique. Les éléments qui doivent servir au raisonnement de l’enfant doivent être mis en valeur de façon à ne pas lui échapper. Cela paraît la moindre des choses mais cela n’est pas toujours le cas, comme le montre le cas suivant :
    image : Activité Exploration de « Voyage interactif Au Pays des Maths », les éléments importants sont encadrés ici par nos soins

    Ici, les éléments importants pour la construction du raisonnement sont les différentes écritures (les pattes des insectes au centre de la scène qui forment des collections, l’écriture additive et l’écriture multiplicative). Or, les enfants observés dans la pratique de cette activité ne perçoivent pas les écritures additives et multiplicatives. C’est un vrai problème car l’objectif est bien de faire établir le lien entre les 3 écritures !

    Enfin, les problèmes d’interface dans les produits pour enfants sont souvent liés à la maladresse dont font preuve certains concepteurs dans la scénarisation. A trop vouloir cacher l’exercice derrière le ludique, ils recourent à la fictionnalisation qui, dans certains cas, alourdit les situations pédagogiques, voire, les entravent.

    La fictionnalisation, un obstacle à la compréhension ?
    L’exemple suivant, issu du cédérom « Lapin Malin Maternelle » (Mindscape, 2003), montre lui aussi comment des consignes qui cherchent trop à s’inscrire dans une fiction peuvent poser des problèmes de compréhension.

    image : Activité les lettres de la rivieramots de « Lapin Malin Maternelle 2 »,   les saupoudreuses sont entourées ici par nos soins

    Lorsqu’il est face à cet écran, l’utilisateur entend « Choisis la saupoudreuse qui porte la 1ère lettre du nom de l’objet placé sur le radeau. Secoue là au-dessus de l’objet pour le recouvrir de poudre d’étoile ». Se posent ici à la fois des problèmes de compréhension du vocabulaire – il n’est pas sûr qu’un enfant de CP connaisse le mot « saupoudreuse » –, de formulation de la consigne – la phrase est bien trop complexe – et d’identification des éléments visuels – reconnaître la saupoudreuse est loin d’être évident, même pour un adulte… Néanmoins, le vaste problème de la consigne est, évidemment, loin d’être propre au cédérom, à la nuance près qu’ici la fictionnalisation trop élaborée complique encore la situation.

    Le fait qu’une consigne soit donnée par un personnage de la fiction peut aussi poser problème. Les enfants risquent de ne pas attribuer ce statut de consigne à un énoncé qui n’en aurait pas suffisamment les signes. Dans beaucoup de produits, la fictionnalisation semble être utilisée pour masquer un caractère trop contraignant de l’activité. Or, ceci renvoie à une représentation d’adulte. Quoi de plus ludique qu’une règle qui rend le jeu possible ?

    Enfin, à trop fixer leur attention sur la fictionnalisation, certains concepteurs en négligent des paramètres d’exactitude, fondamentaux aux yeux des enseignants. Dans l’activité suivante de « Voyage interactif au Pays des Maths », l’enfant doit placer deux « paquets » de cannes à sucre sur deux plateaux. La somme des deux doit correspondre au nombre en chiffres indiqué entre les deux plateaux. D’un point de vue pédagogique, cette interface pose problème car la ressemblance avec une balance laisse penser faussement à une équivalence entre les deux côtés :

    L’intérêt pour l’apprentissage de la lecture
    L’intérêt de multiplier les modalités sensorielles sur un même support est peut-être plus évident encore dans les activités de français. En effet, un des enjeux de l’école primaire est de permettre aux enfants d’acquérir une bonne maîtrise de la lecture. Il ne s’agit évidemment pas de déchiffrage pur et simple mais de construction de sens. A des signes arbitraires (des lettres associées entre elles), il s’agit d’associer des référents. Dans leurs apprentissages précédents, les enfants ont été face à des signes analogiques. Le code était assez simple : le dessin d’un oiseau avait quelque chose de ressemblant avec la réalité que ce signe représentait. Il s’agit maintenant pour eux de maîtriser un code dont le rapport entre le signifiant et le signifié est basé uniquement sur des conventions : le signe « oiseau » n’a aucune ressemblance avec l’animal qu’il désigne. On voit donc l’importance de passer par un code analogique pour appréhender ce nouveau code conventionnel.

    L’apprentissage de la lecture peut passer par ce recours à ce code analogique. Cela permet à l’enfant d’associer un signe arbitraire (le mot « oiseau ») à un référent (le concept d’oiseau) grâce à l’intermédiaire d’un autre signe visuel (le dessin d’un oiseau). Ici, le multimédia présente un atout de taille puisqu’il peut ajouter un autre niveau de codage par le mot prononcé à l’oral.
    Le cédérom « Le Cours Préparatoire » (2006, Génération 5) utilise cette possibilité de façon intéressante. En outre, il est riche dans la manière dont il se présente : ce n’est pas un exerciseur  mais un terrain d’expérience. En effet, le nombre de tentatives n’est presque jamais limité. Dans une des activités, l’enfant peut découvrir les mots prononcés dans l’ordre dans lequel il les a mis, que cet ordre soit celui attendu ou non.

    image : Activité méli mélo de « Le Cours Préparatoire ».

    Dans cette activité, l’enfant peut, autant de fois qu’il le souhaite, déplacer les étiquettes de manière à modifier l’ordre des mots. Le groupe de mots ainsi composé sera lu, et ce à volonté, et donnera accès à du sens.

    La crainte que l’on pourrait avoir, c’est que les enfants se servent toujours de l’information la plus facilement accessible pour eux et ne progressent pas. Pour éviter que l’utilisateur finisse par toujours utiliser la méthode la plus économique pour lui et ne cherche pas, de fait, d’autres stratégies qui lui sembleraient plus difficiles, il faudrait que l’enseignant puisse paramétrer les différentes sources d’information. Selon les enfants et leur stade d’apprentissage, il pourrait ajouter ou supprimer certaines sources d’information de manière à les obliger à utiliser des stratégies qui vont vers plus de formalisation. Le choix des médias par le pédagogue deviendrait alors une variable didactique  qu’il pourrait maîtriser.

    Mais, revers de la médaille, devant cette pluralité d’informations, l’enfant risque aussi d’avoir à gérer en même temps trop d’information, ce qui entraînerait une surcharge cognitive. Certains enfants expriment cela très clairement en disant par exemple : « Des fois ça nous aide et des fois ça nous aide pas parce que ça me déconcentre ». Tout est donc une affaire de dosage et d’adaptation précise aux besoins. Il ne s’agit pas de multiplier systématiquement les sources mais de cibler celles que l’on va utiliser en fonction des situations et des apprentissages souhaités.

    On voit bien ici comment le multimédia peut être riche en possibilités. Mais malheureusement, trop de produits se contentent souvent de juxtaposer des informations de nature différente sans chercher à voir le profit qu’il y aurait à les articuler réellement. Dans certains cas, l’ordinateur paraît alors un outil « bien luxueux pour faire tourner les pages d’un livre » (Bossuet, 1982 : 70). Des collaborations plus rapprochées entre pédagogues et concepteurs pourraient permettre d’éviter au cédérom de rencontrer les mêmes écueils que la télévision scolaire des années 1980. Elle s’est en effet heurtée à « l’incapacité de la pédagogie à produire de nouveaux modèles de relation au savoir, en exploitant les potentialités propres de l’image et du son… » (Jacquinot, 1985 : 72).

    Si, comme on l’a vu, les différentes modalités sensorielles sont bien pensées, on facilite l’accès à l’information des individus aux profils pédagogiques distincts. Mais on peut aussi favoriser les situations expérimentales – dont l’intérêt pédagogique est aujourd’hui incontesté – en utilisant en particulier une caractéristique du multimédia interactif : l’animation.

    L’intérêt de l’animation

    De nouvelles variables didactiques
    En effet, le fait que l’image puisse s’animer sous les yeux de l’utilisateur suite à son action présente un véritable intérêt. Cette caractéristique permet d’introduire une variable didactique nouvelle, possible uniquement grâce à la dynamicité du support.

    Le cédérom « J’apprends à calculer » (collection Nathan Premiers apprentissages, 5-7 ans, Havas Interactive, 1998) propose ainsi une situation qui utilise le fait que l’image puisse s’animer comme variable didactique. Dans l’activité Apprendre à soustraire, l’utilisateur est face à un écran qui présente une collection d’objets. Une voix-off indique qu’il doit en rester un certain nombre et l’enfant est censé faire une soustraction pour en enlever le nombre exact. On veut donc l’amener à recréer le processus de soustraction.

    Le raisonnement mené par deux enfants de 6 ans que nous avons eu l’occasion d’observer lors de la manipulation de ce produit, Nicolas et Lucile, semble riche d’enseignement. Alors qu’il y a 15 biscuits représentés à l’écran, une voix annonce qu’il y a 15 biscuits et qu’il faut en garder 6. L’enfant doit cliquer sur les biscuits qu’il veut voir disparaître.
    Nicolas clique sur quelques biscuits puis compte combien il en reste. Il continue ainsi à en supprimer, à compter ce qu’il reste, jusqu’à ce qu’il n’y en ait plus que 6.
    A son tour, Lucile prend la souris et procède de la même manière que Nicolas pour laisser le bon nombre d’objets.

    Lorsqu’on leur demande combien ils ont enlevé d’objets, ils ne le savent pas : ils n’ont donc pas réalisé de soustraction mais simplement effectué des dénombrements successifs.

    A la situation suivante, il y a 20 fleurs représentées à l’écran et le personnage de l’ours dit : « Il y a 20 fleurs, il faut en garder 10 ».
    Nicolas :    – Aïe, aïe, aïe !…Il faut que j’enlève la moitié.
    Lucile :    – Ouais, c’est tout facile.
    Nicolas repère visuellement la moitié des fleurs et clique pour enlever la première. A partir du moment où il a cliqué, les fleurs se mettent à bouger dans la case.


    Ecran de l’activité Apprendre à soustraire de « J’apprends à calculer ». 

    Nicolas :    – Ouah, ça arrête pas de bouger maintenant ! Ah, ben maintenant, je sais pas où j’en suis.
    Il essaie de compter les fleurs qui bougent et se superposent parfois mais il ne parvient pas à en laisser le bon nombre.
    Lors de l’essai suivant, il essaie d’aller très vite pour que les objets n’aient encore pas trop bougé. Cela ne lui permet toujours pas de trouver la bonne réponse.
    Lucile :    – T’en enlèves 10.
    Nicolas :    – Combien j’en ai là ?
    Lucile :    – Ben… Tu dois en enlever 10.
    Lucile, ayant compris qu’il était très difficile de donner la bonne réponse comme ils le faisaient jusque là en dénombrant les objets qui restaient visibles à l’écran, a changé de stratégie et a calculé combien elle devait en enlever.

    Elle a donc, en fait, calculé mentalement le résultat de la soustraction et utilise à nouveau cette stratégie lors de la situation suivante.
    Nicolas, lui, procède toujours selon la première démarche jusqu’au moment où il cherche une stratégie plus adaptée : tant que les objets n’ont pas commencé à bouger, il dénombre ceux qu’il faut garder, les cache et repère visuellement les objets qu’il faut enlever. Mais il se trouve devant la même difficulté : dès qu’il clique sur un objet, ils changent de place, il ne peut plus les retrouver.
    Il se voit donc contraint de procéder autrement : il dénombre les objets qu’il faut garder, les cache et compte le nombre d’objets qui restent visibles. Il sait ainsi combien il faut en enlever. Le fait que les objets se mettent à bouger au premier clic n’est donc plus un obstacle.

    Deux stratégies finales et efficaces ont donc été mises en place par les enfants. Chacun a adopté sa propre méthode : Nicolas a dénombré les objets à enlever alors que Lucile a fait directement la soustraction mentalement, processus opératoire qu’elle dominait déjà certainement avant l’utilisation du cédérom.

    On voit ici de façon claire comment Nicolas, en particulier, a construit progressivement sa stratégie et a fini par réaliser ce qui n’est pas encore une soustraction mais une étape pour y arriver : une addition à trous. Le processus qui lui a permis d’y arriver a été rendu possible grâce à deux aspects du multimédia.
    D’abord, le nombre d’objets total est annoncé oralement et le nombre qui doit rester est dit et écrit : l’enfant n’a donc pas besoin de dénombrer toute la collection et il peut envisager directement une démarche opératoire comme celle de Lucile.

    Ensuite, le fait que les objets se mettent à bouger est une variable didactique nouvelle et construit une configuration où l’enfant ne peut plus faire fonctionner les stratégies qui fonctionnaient précédemment et qui lui permettaient de trouver les bonnes réponses en contournant l’objectif voulu par les concepteurs. A partir du moment où les objets se mettent à bouger ces stratégies ne sont plus opérantes et il est finalement forcé à en mettre en place d’autres qui lui permettront d’intégrer progressivement le principe opératoire de la soustraction.

    Un certain nombre des enfants observés ont le même type de raisonnement que Lucile et Nicolas. Quelques autres, cependant, continuent à répondre correctement même lorsque les objets se mettent à bouger. En fait, pour ceux qui dominent bien la manipulation de la souris, les objets ne se déplacent pas suffisamment vite ; ils peuvent continuer à utiliser leur stratégie initiale et réussissent à contourner cette variable didactique. Pour constituer une variable didactique qui pousse tous les enfants à trouver la stratégie qui les amène à la soustraction, les objets devraient se déplacer suffisamment vite pour rendre inefficace le dénombrement de ceux qui restent et les obliger à dénombrer ceux qui sont à enlever.

    Cette activité, en tout cas, crée bien une situation d’apprentissage car elle place les enfants face à ce manque qui est à l’origine de tout apprentissage. Sans situation qui oblige l’enfant à trouver une nouvelle façon de résoudre le problème posé, il ne se crée pas le manque nécessaire à la mise en place d’une démarche adaptée et aboutissant à la construction d’une notion. C’est le défaut de beaucoup d’activités multimédia : il manque une véritable intention des auteurs sur la variable didactique mise en place.

    Des stratégies d’économie cognitive
    Néanmoins, si les variables didactiques ne sont pas bien pensées, les démarches adoptées par les enfants ne sont pas forcément celles que l’on imagine. De manière générale, s’ils en ont la possibilité, les enfants choisiront la stratégie qui leur permettra de répondre de la manière la plus économique possible.

    Mais on rencontre aussi d’autres stratégies qui semblent guidées par des logiques auxquelles on ne s’attend pas forcément. Dans l’activité Exploration du Pays 3 : addition et soustraction de « Voyage interactif au Pays des Maths », les enfants doivent « fabriquer » des desserts en utilisant des pots de sucre. L’objectif est d’amener à effectuer des soustractions au fur et à mesure qu’ils utilisent les pots de sucre. Les concepteurs ont certainement imaginé que les utilisateurs varieraient les desserts choisis et seraient donc amenés à effectuer des soustractions différentes. En fait, certains enfants veulent réaliser le plus de desserts possibles. Ils vont donc répéter systématiquement une opération très simple qui revient à enlever systématiquement une unité, comme dans cet exemple où l’élève a fabriqué 8 desserts nécessitant chacun 1 pot de sucre :

    D’un point de vue pédagogique, l’intérêt de l’activité, telle qu’elle est menée par les enfants, est donc très limité…

    Conclusion

    Malgré les différents problèmes qui peuvent en limiter l’efficacité, les exemples cités montrent bien comment la multimodalité des informations est bien une spécificité du support multimédia interactif qui présente de réels intérêts pédagogiques. Passer par des activités comme celles-ci permet une approche spécifique dans la mesure où on est face à des situations d’apprentissage intégrant de nouvelles formes d’accès au savoir, qu’il s’agisse de procédures manipulatoires qui aident l’apprenant à prendre conscience des règles du monde réel ou de variables didactiques impossibles à créer autrement et qui le forcent à reconstruire ces règles.

    Néanmoins, on rencontre sue le web notamment beaucoup d’activités qui se contentent bien souvent de reproduire des situations présentes sur des supports papier. Construire des outils réellement riches et pertinents nécessite un certain nombre de compétences que n’ont pas forcément les auteurs qui aliment le web 2.0. Si cet outil est riche en termes de collaboration, il risque peut-être aussi de réduite les qualités multimédias et interactives des outils numériques. Le web 2.0., par essence, ne développe pas les mêmes qualités que les produits éditoriaux bien pensés. Il doit développer ses qualités propres et être complémentaire des produits plus construits, plus professionnels qui, souhaitons-le devraient continuer à garder leur place et à la conforter grâce à une qualité grandissante.

    Communication scientifique LUDOVIA 2008 par Catherine KELLNER
    CREM (Centre de REcherche sur les Médiations)
    Université Paul Verlaine-Metz

  • Entre visible et invisible : un dispositif mobile d’observation des usages du multimédia à l’école.

    L’évolution récente des matériels de capture numérique de l’image et du son autorise pourtant aujourd’hui la mise au point de configurations qui permettent de s’affranchir de nombreuses contraintes ayant pu, jusqu’ici, limiter le recours aux traces filmées. Libéré de ces limitations liées aux techniques, matériels et supports de prises de vues autant que de diffusion — des métrages de pellicules nécessairement courts du cinéma argentique aux supports de stockage numériques de trop faible capacité — l’enregistrement audio-visuel à caractère ethnographique permet à présent d’envisager de nouvelles perspective méthodologiques en sciences humaines. La diffusion des « observations filmiques pertinentes »  autrefois inaccessibles, rendue à présent possible grâce, par exemple, aux capacités d’hébergement en ligne, au téléchargement des fichiers, voire aux connexions IP à distance, autorise, par la diffusion large des données, une observation en direct ou différée partagée, pour des analyses descriptives et des interprétations d’autant plus riches. C’est aussi grâce à ces évolutions que sont rendues possibles des utilisations différenciées de l’audio-visuel dans le recueil de données empiriques ou expérimentales en sciences humaines, faisant dire à M. Izard  :

    « La spécificité de l’investigation ethnographique doit être cherchée dans le dispositif de l’enquête, qui donne son originalié à ce qu’il est convenu d’appeler aujourd’hui « l’approche anthropologique » des phénomènes sociaux et culturels. »

    Pour illustrer notre propos, nous nous appuyons sur les travaux que nous menons en sciences de l’information et de la communication, lorsque l’interdisciplinarité amène à fréquenter l’anthropologie visuelle , les sciences de l’éducation et la psychologie cognitive, du côté de ce « peuple enfant » dont Alain aimait à dire qu’il reste à décrire .

    De la récolte des données à leur mise en lisibilité, nous présentons à travers ces lignes un « kit » d’observation, ici dédié aux TICE, du ludo-éducatif à la recherche documentaire sur internet, mais extensible à d’autres champs d’investigation des pratiques situées, assez compact pour être dit « mobile », et suffisamment facile à utiliser pour être mis en œuvre sans le concours de techniciens. Son caractère discret, autonome et paramétrable via internet, donne en outre à ce système la particularité de mieux maîtriser le biais relatif à la participation de l’observateur sur le terrain d’observation. Par la « présence invisible » de ce dernier, ce dispositif de prise de vues robotisé constitue un modèle original d’observation « télé-participante » sur lequel s’appuie une étude des usages, de l’école à l’université, mise en place par l’Équipe de Recherche en Technologies Éducatives (ERTé) « Culture informationnelle et curriculum documentaire ».

    Ici, technique et méthodologie ne positionnent plus la caméra comme un outil potentiel d’expression visuelle, limitant de facto la tentation pour le chercheur de devenir « metteur en scène » d’une production visuelle de recherche à mettre en adéquation avec un produit de communication scientifique scénarisé par avance. Au contraire, la forme désincarnée de participation qu’elles engendrent devient-elle l’occasion d’une distanciation qui, à travers une forme de garantie de moindre familiarité avec le terrain peut aider, pour le chercheur impliqué, à améliorer la transcription objective du cours d’action.

    Ce qui fonde notre démarche, au plan de l’instrumentation technique, est originairement le fait de préoccupations pragmatiques en SIC, dans un cadre où l’immersion en contexte d’usage des TICE, répétitive et pluri-localisée, a nécessité la mise au point d’un dispositif « volant ». Et si l’intérêt qu’il peut y avoir à abstraire l’observateur du contexte d’observation a été conçu parallèlement à cette volonté initiale de répondre à un besoin d’adaptation au terrain, notre propos ne sera pas, dans le présent article, de traiter de l’influence de ce modèle méthodologique plutôt nouveau sur le comportement du sujet ou de l’observateur. Les conséquences, sur nos recherches, du recours à ce dispositif, font l’objet d’un autre article.
    Il s’agit ici de présenter un matériel numérique de recueil de données ainsi que sa mise en œuvre, en faisant état du type spécifique de traces d’usages qu’elle permet de constituer, et en laissant au lecteur le soin de trouver en quoi un tel dispositif peut profiter à sa propre démarche.

    Contexte de l’élaboration du dispositif
    Ce système a été conçu dans le but de saisir les différentes composantes — comportementales, verbales, non-verbales — d’une pratique située de l’informatique en milieu scolaire, notamment en pratiques multimédia et recherches documentaires sur internet. Enseignants, aides à l’enseignement, stagiaires professeurs des écoles, sont, avec les élèves de classes de maternelle et d’élémentaire concernés par cette étude test, les figurants de ces enregistrements qui se déroulent dans une salle dédiée à l’informatique (fig. 2). Cette pièce est contigüe à une salle de bibliothèque — BCD — devant être, elle aussi, observée (fig. 3). L’une des préoccupations de notre ERTé étant de dresser un état des lieux des pratiques informationnelles, de l’école à l’université, il s’agit ici de rendre compte des stratégies de recherche d’information et de documentation mises en œuvre par les élèves et enseignées par les maîtres, entre salle informatique et bibliothèque traditionnelle, entre écran d’ordinateur et support papier, entre support multimédia ludo-éducatif et web sémantique.

    L’objectif est donc, au cours de séances d’enseignement d’une cinquantaine de minute, menées deux fois par semaine durant plusieurs mois, et figurant sur un planning régulièrement bouleversé pour des questions de transversalité de projets, de voir, entendre et tracer :
    – Les faits d’écran témoignant des processus cognitifs mis en œuvre dans la virtualité informatique et les documents hypermédias
    – Les discours-comportements de type verbal, non-verbal, para-verbal, kinésthésique de l’élève devant l’écran
    – Les comportements de voisinage et les déplacements des élèves dans la salle informatique
    – Les migrations salle informatique / BCD
    – Les discours-comportements de type verbal / non-verbal / para-verbal du professeur en situation d’enseignement

    Cahier des charges
    L’axe méthodologique principal reposant sur le fait que les sujets-élèves ne sont pas informés de la présence de caméras — après accord/contrat écrit passé avec les parents — l’essentiel des contraintes techniques s’est exercé sur l’aspect « invisibilité » du système, et en conséquence prioritairement sur la dimension des composants techniques, mais aussi sur la possibilité de leur mise à distance. Au plan de l’utilisabilité, ce « kit » étant voué à circuler géographiquement et à être mise à la disposition de tous les membres de l’équipe, les qualités assurant une mise en œuvre aisée et une exploitation facile et confortable des données récoltées ont été privilégiées.

    Globalement, la mise en contexte spécifique de ce dispositif a demandé que notre modèle d’observation réponde à l’ensemble des critères suivant :
    – Discrétion : l’ensemble du matériel doit être, sinon totalement invisible, au moins très rapidement « oublié » par le sujet
    – Adaptabilité : en cas d’impossibilité d’installation du matériel à proximité du poste observé, l’enregistrement doit pouvoir être fait à bonne distance de la capture audio-visuelle, par voie HF (sans fil)
    – Portabilité : ce système ayant une vocation nomade, il doit être facilement transportable par une seule personne
    – Gestion à distance : le contrôle des fonctionnalités — re-programmation, paramétrage… — doit pouvoir être réalisé à travers un réseau internet ou intranet
    – Facilité d’installation : le matériel doit pouvoir être installé et utilisé par chaque membre de l’équipe, sans nécessiter le recours à un technicien audiovisuel
    – Ergonomie : le paramétrage de l’installation doit être accessible à l’utilisateur accoutumé à la programmation d’un matériel vidéo de salon
    – Qualité d’image : la définition des images produites doit permettre une description fine, en particulier concernant les captures d’écran
    – Autonomie : le matériel doit pouvoir être programmé et fonctionner sur de longues périodes sans nécessiter d’intervention
    – Accessibilité directe aux données : édité sur un support standard facile à échanger et à partager, l’enregistrement doit être directement et immédiatement visualisable, sans nécessiter de traitement de post production
    – Coût réaliste : le financement de l’équipement doit pouvoir correspondre aux possibilités budgétaires d’un laboratoire de recherche

    Quelles données, sous quelle forme ?
    Notre kit d’observation nous a permis de rassembler un corpus de données conséquent, échelonné sur plusieurs mois : une quarantaine d’heures de vidéo ont ainsi été enregistrées entre début mars et fin décembre 2007. Douze heures se sont révélées être exploitables en termes de richesse de comportements observables.
    Plusieurs situations-type se sont présentées et ont été enregistrées. Représentatives des thématiques les plus courantes justifiant le recours à l’outil informatique à l’école, elles témoignent de la conduite de séances mettant l’enfant en situation de découverte de cédéroms et de sites web ludo-éducatifs, d’initiation à l’utilisation de l’ordinateur, de travail sur logiciel de traitement de texte, de visionnage de photos, et de recherche documentaire sur internet. Elles ont été, pour la plupart, le prétexte à une observation à but inductif, qui a eu pour objet de permettre que soient dégagées des pistes pour un travail de réflexion à mener avec les enseignants dans la perspective d’un ajustement des pratiques pédagogiques.

    Les données vidéo recueillies ont pris la forme de plusieurs DVD sur lesquels ont été gravées les vidéos des séances retenues montées en incrustation ou en mosaïque, suivant l’intérêt de l’observation, en sortie directe du DVR. Deux axes d’observation principaux ont été dégagés dans le cadre de notre étude : les comportements sémio-cognitifs à l’écran et les déplacements entre poste informatique et BCD. Les points suivants présentent un éventail d’images obtenues avec ce dispositif en guise de corpus.

    Vers quels résultats
    Les analyses actuellement en cours permettent déjà de tracer quelques lignes directrices susceptibles d’alimenter une réflexion didactique. Elles tournent pour la plupart autour de la métaphore constitutive de l’univers virtuel présenté à l’écran, tant au niveau des interfaces ludo-éducatives consacrées aux apprentissages autonomes qu’au sein des pages web consultées dans un cadre documentaire. De nombreuses observations pointent le lien à établir entre réalité et virtualité modélisée à partir de ce réel. Ainsi, il apparaît que la faculté de dessiner à l’écran à l’aide d’outils virtuels, pour les élèves observés et aux dires des enseignants interviewés, se développe à l’image exacte de l’avènement des capacités à mener à bien les mêmes tâches « manuellement » sur support traditionnel papier. Les pratiques modélisées à l’écran semblent n’être envisageables pour l’enfant qu’après qu’il en soit passé par les pratiques manuelles correspondantes.

    On verra par ailleurs que, pour l’élève, le choix des documents référents pour un recueil d’information sur internet peut sembler privilégié en fonction de ce qu’il adopte une forme plus proche — mise en page, couleurs, images… — de la page du document papier de même vocation en bibliothèque — encyclopédie, dictionnaire… — et peut conditionner, en élémentaire, une nécessité à entretenir un lien kinésthésique avec l’objet-livre.

    Se manifestent également avec insistance les collisions sémantiques qui témoignent des différences de représentations en jeu dans l’univers métaphorique de l’écran, selon qu’il est vu par l’un ou l’autre enseignant et imposé à l’élève. Ainsi, l’icône figurant sur le « bureau » de l’ordinateur pouvant passer du « petit endroit privé où je mets mes affaires à l’abri des autres » au « dossier à mon nom où je vais classer et trier mes documents » ; ainsi également, lorsqu’il s’agit de nommer le dossier, et qu’il faut « taper », « écrire »,  « inscrire », « copier » son nom dans la « fenêtre », « l’étiquette bleue », la « case », le « rectangle », en appuyant sur les « touches » ou les « boutons »… Les mines déconfites des utilisateurs novices filmés en situation d’initiation nous montrent l’intérêt qu’il peut y avoir à interroger les représentations de chacun relativement à la métaphore de l’interface homme-machine, comme préalable à tout projet d’apprentissage— fût-ce à l’autonomie ! — afin de stabiliser une terminologie trop souvent mouvante.

    Plusieurs autres pistes, restent à encore développer, qui sont en cours d’évaluation par l’équipe de recherche.

    De la maternelle à l’université
    Au delà du terrain de l’apprentissage chez les plus jeunes, les possibilités offertes par ce dispositif nous permettent également, dans une optique curriculaire et moyennant une adaptation du protocole à des sujets plus âgés — eu égard, par exemple, au droit à l’image — de poursuivre nos observations en milieu universitaire, ainsi qu’en collège et en lycée. La mise en œuvre prévue dans le cadre de cette étude devra permettre d’apporter, là aussi, un éclairage fin sur les pratiques situées de navigations, apprentissages et recherches documentaires sur le web, en bibliothèque universitaire ainsi qu’en centre de documentation et d’information.

    Conclusion
    La présentation de ce kit mobile d’observation des usages ne représente bien entendu qu’un « instantané » technologique, tant les progrès des outils multimédia sont rapides et rendent rapidement obsolètes les performances de tout matériel vidéo ou informatique à l’instant même de sa mise sur le marché. Néanmoins, il apparaît que, dans son principe technique et méthodologique, ce dispositif peut répondre, en l’état, à un vrai besoin de la recherche en sciences humaines, là où parfois ces dernières prêtent le flanc à la critique épistémologique, par insuffisance de corpus ou de rigueur empirique, par exemple. Notre objectif sera atteint si cet article éveille en l’un ou l’autre chercheur, ici soucieux de mieux rendre compte de ses observations déductives, là de solliciter dans de meilleures conditions une inductivité créative, l’envie de dépasser l’un ou l’autre a priori sur l’utilisation de tels dispositifs, hier encore très complexes à mettre en œuvre, aujourd’hui rendus réellement accessibles.

    Communication Scientifique LUDOVIA 2008 par Louis-François Claro  (extraits)
    Laboratoire GERIICO
    Université Lille 3
    EA 4073

  • Approche critique du « do it yourself » : pour un e-learning qui ne sacrifie pas la présence pédagogique

    Approche critique du « do it yourself » : pour un e-learning qui ne sacrifie pas la présence pédagogique

    do it yourself
    Comme cela est légitimement répété, le support numérique de l’apprentissage a été conçu par un didacticien et l’élève peut s’inscrire dans une communauté numérique d’apprentissage. Ce ne sont pas les seules limites de l’apparente solitude de l’apprenant. Il faut à l’élève une communauté physique, un échange oral, une présence pédagogique humaine à ses côtés pour qu’il puisse apprendre. C’est là un fondement nécessaire de l’apprentissage, qu’il convient, nous semble-t-il, de ne jamais oublier, quand nous concevons des instruments pédagogiques numériques.  Le slogan nous semble devoir être critiqué dans cette perspective. Nous ne prétendons pas ici réfuter le « do it yourself » ou le « e-learning », au contraire. La thèse que nous défendons est plutôt celle-ci : la prise en compte du fondement communautaire et présentiel de l’apprentissage est nécessaire à la construction d’outils pédagogiques numériques adaptés.

     “Do it yourself”: de l’Education nouvelle à l’e-learning
    Il y a un siècle, les différents acteurs du mouvement de l’Education nouvelle condamnaient ce qu’ils appelaient la « pédagogie traditionnelle ». Dans la description qu’ils en font, celle-ci se caractérise, en particulier, par l’attitude passive dans laquelle elle fige l’élève. Les partisans d’une éducation nouvelle proposent alors des alternatives à ce modèle.  Ils mettent en évidence différentes pratiques d’apprentissage actif, appuyées sur l’utilisation de matériels innovants (chez Maria Montessori, par exemple), ou sur le recours à des formes de travail apparues hors les murs de l’école. Durant l’entre-deux-guerres, Célestin Freinet (1994) met ainsi en place l’imprimerie à l’école.  Alors, comme aujourd’hui, on peut voir un enfant apprendre apparemment seul, en manipulant le matériel de motricité fine de Montessori, les caractères d’imprimerie, chez Freinet, ou différents outils informatiques aujourd’hui.

    Nous cherchons à expliquer cette évidence, à en rendre raison, en balayant les explications possibles. Le chercheur en sciences de l’éducation suit alors le modèle de la problématisation scientifique, tel qu’il a été défini par le didacticien Christian Orange (2002). Une des hypothèses que nous voudrions faire valoir, dans cette perspective, est déjà présente chez les penseurs de l’Education nouvelle. Pour expliquer l’efficacité de leur pédagogie, Freinet et Montessori font appel au concept d’élan vital. C’est lui qui fonde la soif d’apprentissage de l’enfant et sa soif d’autonomie. Proposons-lui des apprentissages actifs, par lesquels cette soif sera libérée des lenteurs de la forme scolaire lassalienne , et par lesquels cette aspiration à l’autonomie pourra être satisfaite. Si l’enfant n’a plus à se soumettre aux rituels étouffants de l’école lassalienne, à cette rigidité qui, pour reprendre la rhétorique de Freinet, transforme l’école en prison, l’élan vital, la capacité naturelle au tâtonnement expérimental se trouve affranchie. Freinet définit cet élan en le comparant au mouvement du torrent. Il écrit ceci, par exemple :

    «Qu’arrive-t-il, en effet, si devant l’enfant se dresse un obstacle qui est pour lui  insurmontable ?
    Exactement ce qui se passe pour l’eau du torrent qui heurte un rocher qu’elle ne parvient pas à dépasser. Il y a choc, arrêt plus ou moins bruyant et déchiquetant de l’élan ; puis, après un moment d’inquiétude et d’indécision, le flot refoulé reflue sur lui-même dans un remous tourbillonnant.
    Il se produit alors, en même temps que le retour sur soi, une sorte de vide, de creux, que le courant met plus ou moins longtemps à combler selon la hauteur de l’obstacle.»

    (FREINET, 1994, vol.2, p.383)

    Ce paradigme hydraulique est la matrice de la théorisation, chez Freinet, de l’élan naturel et du tâtonnement expérimental. Si, avec le pédagogue, nous filons cette métaphore, il apparaît qu’il convient avant tout de libérer une aspiration à un apprentissage actif, un désir de se dépasser et de s’adapter, qui trouve, dans le dynamisme du sujet, les moyens suffisants à sa satisfaction. L’outil informatique est en mesure d’opérer un tel affranchissement. C’est une expérience que nous avons tous faite. L’ordinateur est un artifice qui rejoint étonnamment la nature. Face à lui, l’enfant est bien souvent comme le cours d’eau de Freinet, tâtonnant audacieusement, voire témérairement, et apprenant beaucoup par ce tâtonnement, bien mieux souvent que tous ceux qui n’ont pas actualisé cette disposition naturelle, qui l’ont bridée sous l’effet d’un surmoi d’origine scolaire. Il y a là un espace pédagogique moderne retrouvant certains aspects essentiels des  procédures imaginées par Freinet et l’Education nouvelle.

    Le support numérique ouvre à la pédagogie active de nouveaux territoires. Le slogan « do it yourself » ne nous semble pas pour autant pleinement légitimé.

     « Do it yourself » et pédagogie : de la solitude à la communauté d’apprentissage

    Du « do it yourself » à la communauté numérique

    L’élan naturel ne peut se passer d’un apport culturel. C’est la valeur instrumentale du langage qui fonde l’apprentissage de la langue. L’enfant apprend le vocabulaire, les structures grammaticales… dont il sent qu’elles vont pouvoir lui fournir des moyens de communication ou des instruments pour répondre aux problèmes qu’il rencontre. De manière générale, le savoir prend sens au sein d’une culture, d’une communauté (BRUNER, 1996). Celle-ci favorise la reconnaissance de chacun, l’apparition de conflits socio-cognitifs, l’imitation. Ces critiques, fondées sur les conceptions de  Vygotsky (VERGNAUD, 2000) et de Bruner (1996) permettent de justifier le passage d’un strict « do it yourself » à la construction de communautés éducatives numériques. Alain Bentolila, dans un récit exemplaire qui semble inspiré par l’exemple de la tradition des yeshivas, écrit ceci :

    «Une table, quelques chaises. Trois fronts penchés sur un même livre, qu’il soit profane ou bien sacré. De temps à autre, une tête se redresse, s’ouvre une bouche qui dit son intime conviction, son intime interprétation. Discutée, pesée, confrontée au texte présent, mais aussi éclairée par tous les autres textes, cette proposition prend place dans la construction collective du sens qui, d’âge en âge, de texte en texte, nous prolonge et nous unit. Nul n’en est exclu qui accepte la règle de la transmission : ni servilité ni trahison.»
    (BENTOLILA, 2000, pp. 207-208)

    Nous retrouvons, dans cette description, l’image ancestrale de la problématisation du texte, des controverses qu’elle entraîne au sein de communautés interprétatives. Le sens y est construit collectivement à partir de l’héritage patrimonial d’une tradition.

    Ce dialogue est, en outre, l’espace pédagogique favorable au développement d’une aptitude individuelle au dialogue intérieur. Celui-ci, comme l’a souligné Alain (1934), constitue la pensée elle-même : contrôle de soi par soi. Le géomètre, balayant les possibles, les hypothèses d’explications des évidences, dialogue avec lui-même, comme il peut dialoguer avec d’autres. Bachelard voyait dans le maître un surveillant de l’élève qui le prépare à se surveiller lui-même, à se diviser en deux instances : le maître intérieur et le disciple intérieur. Nous voyons dans la communauté d’apprentissage une initation à l’apprentissage autonome. Nous ne prétendons donc pas réfuter le « do it yourself », mais nous voulons rappeler que celui-ci se fonde nécessairement sur un apprentissage qui dépasse le champ individuel.
    Le travail individuel peut aussi apparaître comme un complément à l’apprentissage communautaire.

    Freinet faisait des exercices autocorrectifs un complément indispensable aux projets collectifs. Un passage par le systématique, un pas de côté métacognitif est indispensable à la finalisation des projets communautaires eux-mêmes. Mais ces pratiques individuelles prennent alors place dans la continuité de l’élan individuel et culturel initié au sein du groupe coopératif. L’apprentissage systématique des tableaux de conjugaisons n’est pas un préalable massif à la situation de communication. Il devient un complément essentiel au développement d’une écriture de la dédicace, un instrument de la communication, de l’expression, de l’élan poétique… Dès lors, il change de forme. A l’ensemble massif du tableau général des conjugaisons succèdent des exercices ponctuels correspondant à des besoins différents. Le numérique est particulièrement pertinent dans cette perspective. Les possibilités très variées de classifications différentes et simultanées des ressources permettent d’éviter l’apprentissage systématique assommant en lui substituant la possibilité d’accéder rapidement à une ressource précise. Je peux alors satisfaire un besoin particulier sans avoir nécessairement à me confronter à la masse de tout ce que je ne maîtrise pas.

    Du « do it yourself » à la présence pédagogique

    Cette communauté numérique, complétée par des techniques individuelles, ne peut cependant suffire à satisfaire le pédagogue.  Il y manque la présence du maître et des autres membres de la communauté.  Si la pédagogie est la théorie-pratique qui se fonde sur une « éthique de la relation » (FABRE, 2003), deux possibilités s’offrent au slogan « do it yourself ». Soit il s’agit d’assumer une dangereuse élimination du pédagogique au profit du seul didactique, soit le « do it yourself » est une formule interprétée comme une parole du maître ou du camarade de classe, une parole pédagogique, sécurisant, mettant au défit, reconnaissant une valeur, fondée sur un possible transfert. Ce « do it yourself » contiendrait donc en lui-même sa propre critique. Il renouerait avec le fameux slogan de la pédagogie Montessori : « apprendre à faire soi-même ».  Dans les deux cas, l’autonomie se fonde sur l’hétéronomie, sur une parole vibrante, réelle, humaine, chargée d’affects, jusque dans ses silences, sur les postures instinctives du corps et les expressions du visage.  Alors, le « do it yourself » rejoint l’éthique pédagogique de la relation. Il se fonde sur le moment pédagogique et l’indignation fondatrice du pédagogue qu’a identifiés Meirieu (2007). Le pédagogue est celui qui commence, généalogiquement, par s’indigner de la réalité de l’école-prison, du traitement indigne accordé à l’élève… Il est celui qui s’appuie sur ce repoussoir pour proposer une relation à l’enfant respectueuse de son absolue altérité, de son irréductible liberté, de sa singularité tenace.

    « Do it yourself » et didactique du français

    Le slogan « do it yourself » se heurte enfin à un dernier obstacle, dans le domaine spécifique de la didactique du français.  Après Jack Goody (1977) et Jacques Derrida (1967), il n’est plus nécessaire de revenir sur l’existence d’un bond entre l’oral et l’écrit. L’écrit autorise, en particulier, une distance critique et un soutien à la mémoire, que l’oral ne permet pas.  Le seul déchiffrage ne permet pas d’accéder à ces richesses propres à l’écrit. Il importe donc que l’élève accède au statut de lecteur et non à la seule compétence de déchiffrage.  Cependant, cela ne doit pas nous conduire à rejoindre ceux qui, dans les années 1970  et 1980, ont cru pouvoir imaginer un enseignement de l’écrit coupé de tout déchiffrage, comme s’il y avait deux langues autonomes : la langue écrite et la langue orale. C’est là une illusion qui conduit à des impasses pédagogiques. Trois limites apparaissent bientôt clairement.

    L’indispensable maîtrise de la parole

    Un enfant qui ne maîtrise pas l’oral n’est pas en mesure d’accéder à l’écrit – idée qui nous est aujourd’hui familière. Il importe de dépasser le scriptocentrisme de la forme scolaire. S’appuyant sur l’héritage de Célestin Freinet, Louis Legrand écrit ceci :

    «L’absence de communication vraie condamne les élèves issus des classes ouvrières à une exclusion mentale de fait d’un univers langagier qui leur est totalement étranger. De là les échecs scolaires et les abandons, de là surtout le fonctionnement antidémocratique de l’école. Ici encore, Freinet a été précurseur dans la mesure où sa pédagogie populaire de la langue était une pédagogie de la communication vraie, c’est-à-dire de l’expression personnelle et de l’écoute.»

    (LEGRAND, 1993)

    Seule une pédagogie de l’oral peut contribuer à éviter des situations d’échec scolaire dues à des inégalités sociales dans la maîtrise de langue orale. 

    La lecture comme lien social 

    Contrairement à ce que laissent entendre certains discours naïfs, il ne suffit pas de donner de beaux livres à un enfant pour qu’il les lisent. Le désir de lire se développe au sein d’une communauté culturelle, communauté d’apprentissage, pour l’enfant comme pour l’adulte. Les livres que je lis sont ceux dont je vais pouvoir parler, ceux dont on m’a parlé, etc.

    Quand l’écrit mime l’oralité 
    Beaucoup des grands écrits patrimoniaux français, comme l’ont montré les travaux de Fumaroli (1994), relèvent d’une esthétique classique du naturel. L’écrit y apparaît comme marqué par une forte oralité. Le style des contes de Perrault mime une langue orale simple. Les lettres de Mme de Sévigné retrouvent une fluidité aux allures d’oralité, etc. Comment comprendre ces textes, si l’on est pris dans une perspective bilinguiste, une représentation de l’écrit comme coupé de l’oral.

    Dès lors, il nous faut rechercher une méthode qui permette d’accéder à la lecture sans ignorer le passage par l’oral. Le philosophe Alain a proposé une piste. Il écrit ceci :

    «Au temps des concours de récitation, celui qui n’était pas sûr de sa mémoire trichait un peu, non pas pour conquérir une bonne place, mais pour éviter la punition ; le voisin complice approchait un peu son livre, ouvert au bon endroit ; un seul regard alors, soutenu par la mémoire déjà préparée, recueillait une masse de ces précieux signes, qui n’étaient pourtant pas à distance de vue ; mais chacun sait qu’on lit de fort loin, quand on sait à peu près de quoi il s’agit. Exercice excellent. Je ne vois pas pourquoi l’enfant ne lirait pas quelquefois des textes qu’il sait à peu près par cœur. Et peut-être pourrait-on lui montrer le texte par éclipses, comme se montrent ou se déroulent les enseignes lumineuses.»
    (ALAIN, 1934, pp.100-101)

    Il s’agit, pour Alain, de proposer un passage du déchiffrage des syllabes à la lecture visuelle, qui permet de tenir à distance le texte, d’en avoir une approche critique. C’est l’oralité qui est proposé comme un moyen de dépasser le déchiffrage. Il s’agit de retrouver une pratique ancestrale : celle de l’éclipse. Parce qu’il ne peut pas voir le texte en continu, l’élève est conduit à accorder moins d’importance à chaque syllabe et plus d’importance au regard global. Alors, il ne marmonnera plus, comme les curés dont se moque le philosophe.  Il lira véritablement. Les richesses de l’oralité n’auront cependant pas été oubliées. La saveur orale du texte poétique musical aura été l’objet d’une expérience scolaire. Le texte écrit demeurera, aux yeux du lecteur, hanté par l’oralité première, même si celle-ci a été dépassée.

    Les ateliers « voix haute »

    Les ateliers « voix haute » que nous proposons  renouent avec la tradition ancestrale de la lecture collective et des exercices de mémoire. Mais ils la renouvellent aussi, en privilégiant l’utilisation du vidéoprojecteur. Parmi les activités que nous proposons, il n’en est aucune qui ne puisse être réalisée aussi bien sur support papier. Nous préconisons néanmoins la lecture collective sur grand écran parce qu’elle permet de contrôler de façon précise les « éclipses » du texte.  Le grand écran offre, en outre, un moyen inédit d’échapper à la posture angoissante et scriptocentriste classique de l’étude, où l’élève est assis seul devant son texte. Ce point nous paraît d’une importance capitale. Aussi souvent que possible, dans notre conduite des ateliers, nous faisons en sorte que les élèves se tiennent debout devant le texte. Nous partons de l’idée qu’ils ne sont pas encore des érudits, que le moment est encore loin où ils seront capables de nouer un rapport intime avec le texte. Que, pour l’heure, ils ont à éprouver le fait qu’une œuvre littéraire s’adresse à une multiplicité d’individus.

    Qu’ensemble ils peuvent s’y mesurer. Le maître est là pour stimuler une confrontation physique qui consiste à déclamer ce qui s’affiche plus grand que soi, à toucher l’écran pour y désigner des mots ou, au contraire, les masquer. Là où le texte montre des vides, là où le mot ou la phrase sont éclipsés, chacun est en droit de risquer des hypothèses que les autres autour de lui auront à discuter, en s’appuyant sur des explications grammaticales, prosodiques, lexicales…

    Cet exercice est une proposition, pensée comme non exclusive, visant à prendre en compte le caractère porteur du  slogan « do it yourself » en même temps que ses limites.  Un apprentissage actif est proposé grâce à l’outil informatique. Celui-ci permet de privilégier ce que Jean Houssaye (1988) a appelé la relation apprendre, la relation directe entre l’élève et le savoir, plutôt que celle entre l’élève et le maître ou celle du maître et du savoir. Dans cette perspective, l’élève est placé dans une posture active. Cependant, ni le maître ni la communauté éducative ne disparaissent. Leur présence argumentative et sensible ne cesse de se manifester et de contribuer à l’intérêt de l’élève.

    Conclusion
    La recherche en sciences de l’éducation peut contribuer à isoler les problématiques dans lesquelles le maître est pris, souvent malgré lui. Il s’agit de répondre aux différents aspects de l’inconscient pédagogique par une psychanalyse de la connaissance propre à éclairer la pratique. C’est dans cette perspective que nous avons cherché ici à isoler différentes problématiques qui ne sont pas exclusives. Philippe Meirieu, dans sa thèse, a distingué trois types de groupes d’élèves : le groupe festif, qui permet de souder le groupe-classe, le groupe d’apprentissage, dans lequel chacun travaille à ce qu’il ne maîtrise pas encore, le groupe productif, dans lequel on confie au meilleur dessinateur les dessins et au meilleur angliciste les traductions en anglais pour obtenir un produit finalisé aussi parfait que possible. Il n’y a aucune raison d’abolir une de ces trois problématiques. Mais il est nécessaire de prendre en compte leurs différences pour ne pas les confondre et chercher à en faire un usage pédagogique adapté. De même, nous ne prétendons pas qu’un « do it yourself » strict doit être banni. Il a vocation à coexister et à se fonder sur d’autres problématiques pédagogiques, qui le justifient, lui donnent sens, le nuancent. Non seulement les problématiques ne s’excluent pas, mais elles entrent en complémentarité. C’est à cette lecture critique sans être polémique du « do it yourself » dans l’e-learning que nous espérons avoir contribué.

    Communication scientifique LUDOVIA 2008 par Baptiste JACOMINO
    CREN (Université de Nantes)
    Association Voix Haute
    Sciences de l’éducation

  • Comprendre les différentes formes du « faire soi-même » dans les jeux vidéo

    S’il est permis de rapprocher cet acte fondateur de l’acte de jeu, c’est qu’il y avait quelque chose d’intrinsèquement « ludique » dans les expérimentations de ces jeunes ingénieurs. À ce titre, le verbe « to hack » peut se définir par le fait d’ « interagir avec un ordinateur d’une façon ludique et exploratoire plutôt que d’une façon orientée par un but » . L’industrie du jeu vidéo n’a par la suite eu de cesse d’intégrer les expérimentations des joueurs dans ses logiques de développement, afin de prolonger la pérennité de ses productions, les utilisateurs étant ainsi considérés comme producteurs potentiels de contenus.

    Doom est à ce titre le jeu ayant démontré l’intérêt et la viabilité économique de ce système de production, en réunissant les joueurs autour d’une pratique commune de conception et de diffusion de niveaux. Néanmoins, à la différence de Spacewar, les productions des joueurs ont ici été rationnalisées et les possibilités de création encadrées en amont par les développeurs (il ne s’agit plus d’un détournement d’usage).

    Il apparaît dès lors qu’entre la modification non prévue originellement du jeu de science fiction Half-life en un match entre terroriste et contre-terroriste (Counter Strike) et la possibilité laissée aux utilisateurs de World of warcraft de paramétrer et concevoir leurs propres interfaces, les modalités de production dévolues au joueur ne s’expriment pas à la même échelle. Il faut aussi remarquer que dans un jeu à univers  persistant comme le titre de Blizzard précédemment cité, l’intérêt d’une bonne partie des mécanismes de jeu repose justement sur le principe de faire soi-même une aventure à partir d’un personnage que l’on aura personnalisé. Ces multiples éléments de réflexion incitent alors à proposer une typologie rendant compte des différents degrés et des différentes façons du faire soi-même dans le domaine vidéoludique, tout en plaçant au centre du questionnement l’une des problématiques centrales du colloque : « Pourquoi le monde numérique est-il si enclin à favoriser l’acte de l’utilisateur ? ».

    D’une culture participative au faire soi-même
    Dans un article intitulé Computer games as participatory media culture (2005), Joost Raessens propose un cadre théorique visant à mettre en évidence les singularités du jeu vidéo comme culture participative et les implications idéologico-politiques de cette forme particulière de culture. Il fonde notamment son analyse sur trois concepts clés : l’interprétation, la reconfiguration et la construction. Nous verrons que la présentation de ces réflexions nous permettra de fournir des outils d’analyse pour les différentes degrés du faire soi-même dans un jeu vidéo. Nous verrons par la suite que le propos de cet auteur nécessite d’être complété par une interrogation sur la nature spécifiquement ludique de ces actes, qui est à mettre en relation avec les différentes façons de faire soi-même.

    Relation interprétative du public à l’objet
    Joost Raessens souligne que toutes formes de pratiques participatives (auxquelles on peut affilier celles de faire soi-même) gagnent à être analysées en premier lieu à travers l’interprétation conférée par « le public » à ses actes, car selon l’auteur l’interprétation est un des facteurs essentiels de la participation. En référence à une analyse de Sherry Turkle, trois catégories de relations interprétatives entre l’objet et l’individu sont alors distinguées : une relation dominante, négociée, ou d’opposition. Dans le premier type de relation, la participation du public relève davantage d’une forme de séduction où l’individu va adhérer aux valeurs véhiculées par le produit. Ses différentes participations viendront renforcer les représentations et pratiques dominantes véhiculées par l’industrie culturelle qui conçoit et diffuse les produits. Turkle se réfère notamment ici à la culture développée par les fans.

    À l’inverse de cette attitude, se trouve une relation d’opposition, où les actions sont davantage interprétées comme des actes de résistance allant à l’encontre de l’industrie, le hacker étant considéré par Turkle comme l’une des figures emblématiques de ce type de relation. Entre ces deux extrêmes se trouve la figure de « l’utilisateur », dont la relation négociée à la machine peut tout de même conduire à une forme de critique sociale. C’est notamment le cas dans le cadre du jeu vidéo  lorsque la participation consiste à mettre en évidence les logiques sous-jacentes au système de simulation, qui apparaît alors comme un système issu d’une certaine construction idéologique, au même titre que tout autre « texte ».

    Particularités de la culture participative vidéoludique

    Si ces trois types de relations interprétatives peuvent être trouvées dans d’autres médias, Joost Raessens relève néanmoins que deux autres notions clés doivent être mobilisées pour mettre en évidence la singularité des formes de participation dans le jeu vidéo : la reconfiguration et la construction. La reconfiguration serait à comprendre comme « l’actualisation de quelque chose qui est virtuelle, dans le sens de potentiel, et déjà disponible comme une des options, créées par les développeurs du jeu vidéo »  (Raessens, 2005 : 381).

    La reconfiguration permet dans ce cadre d’aborder deux grandes catégories d’actions de l’utilisateur sur le système, celles de l’exploration d’une base de donnée pré-existante, comme ce peut être le cas lorsque le joueur découvre les différentes arborescences d’une histoire dans un jeu d’aventure. L’autre cas de figure est celui d’une forme de création qui repose sur la sélection d’actions et d’objets à partir d’un système de possibilités internes préprogrammées. Le jeu Spore de Will Wright (2008) se fonde en grande partie sur ce principe, en proposant au joueur un éditeur de créatures (de la simple cellule moléculaire à un organisme vivant complexe) permettant de construire sa propre forme de vie à partir de différents paramètres et choix (qui augmentent au fur et à mesure de l’évolution de l’organisme).

    La construction serait davantage à comprendre comme l’addition de nouveaux éléments et se retrouve « dans la création de nouveaux jeux – ou de façon plus commune – dans la modification de jeux existants » (ibid. : 381). Selon nous, le joueur apporte ici un élément au jeu qui n’était pas potentiellement actualisable dans la façon dont les développeurs avaient conçu la structure de jeu. À la différence de l’éditeur de créature dans Spore, les éditeurs de niveaux fournis avec des logiciels tels que Quake permettent à l’utilisateur de façonner un environnement architectural et un terrain de jeu qui n’étaient aucunement actualisables à partir de choix et d’actions menées sur le système en tant que tel (il s’agit bien d’ajouter des éléments extérieurs au système de jeu). Il y a bien sûr une gradation entre reconfiguration et construction, c’est pour cette raison que nous avançons qu’il y a différents degrés de faire soi-même entre ces deux pôles.

    Enjeux idéologiques et politiques
    Pour Joost Raessens, la description de ces différentes caractéristiques de la culture participative telle qu’elle s’exprime dans les jeux vidéo incite alors à prendre en considération les possibles effets culturels de ce type de pratique. Comme le souligne Janique Laudouar au sujet des pratiques de production fictionnelles provenant des joueurs du jeu The Sims, «  les principes de l’écriture interactive et le principe commercial de l’empowerment (“donner du pouvoir au consommateur”), deviennent un seul et même ressort de la fiction interactive » (Ladouar, 2006 : 162). En premier lieu se pose la question des processus d’homogénéisation face aux processus d’hétérogénéisation. Joost Raessens relève en effet que la multiplication des actes de participation n’implique pas forcément une relation d’opposition face à l’industrie qui encourage ces pratiques, l’individu n’étant pas alors tant dans un contrôle de production de la culture, mais plutôt dans un contrôle de consommation.

    Ici, le processus de participation s’apparenterait à un processus « top-down », où les multinationales dirigeant l’industrie diffuseraient certaines valeurs en direction d’un public qui collaborerait à la diffusion de cette culture. L’auteur souligne néanmoins qu’il ne fait pas sous-estimer l’importance des processus de type « bottom–up », où « tous les types de minorités et de sous-cultures ont saisi l’opportunité d’exprimer leur point de vue dans le relatif chaos des médias contemporains » (Raessens, 2005 : 383). Face à l’uniformité, une variété d’expressions trouverait alors place. Et pour Joost Raessens, c’est plutôt à une prolifération de points de vue et à un certain chaos que les générations actuelles doivent faire face, la pratique du jeu vidéo permettant dans cette perspective d’acquérir les compétences cognitives nécessaires pour survivre dans le monde actuel. À travers ses diverses formes particulières de participation, les jeux vidéo mettraient en avant que le réel est une forme actualisée de possibles à disposition, une version de la façon dont le monde fonctionne, et jamais la seule et unique vision.

    Bien que les réflexions de Joost Raessens permettent de cerner les différents degrés du faire-soi même et ses effets culturels, elles ne nous semblent pas en revanche interroger la raison pour laquelle ces modes singuliers de participation se développent et prennent de l’ampleur dans les pratiques vidéoludiques. En d’autres termes, pour reprendre l’une des problématiques centrales du colloque, « pourquoi le monde numérique est-il si enclin à favoriser l’acte de l’utilisateur ? ». Pour apporter des éléments de réponse, nous verrons en premier lieu qu’il est important de questionner la dimension interculturelle des processus de médiation  qu’engage cette industrie puis la dimension spécifiquement ludique de l’acte, ces deux aspects venant renforcer la nécessité d’impliquer l’utilisateur dans la production du message.

    Un impératif ludique
    Faire soi-même dans le cadre du jeu est un acte fréquent et naturel. Comme l’a relevé D.W. Winnicott, le jeu pour pouvoir exister doit permettre l’expression de la créativité de l’individu, ce terme étant à comprendre comme « la coloration de toute une attitude face à la réalité extérieure » (Winnicott, 1971 : 91). Les enfants ont à titre d’exemple l’habitude d’inventer leurs propres règles de jeu, voire de modifier avec beaucoup d’aisance les règles de jeu établies, adaptant de la sorte l’activité à leur représentation mentale de ce qui est ludique. Comme l’ont montré les études anthropologiques du jeu, les peuples et cultures possèdent en effet des conceptions particulières du jeu, qui sont en grande partie transmises par la tradition. Les jeux vidéo modifient néanmoins le rapport de l’individu à l’activité car ils développent une culture fondée non pas sur une tradition mais sur une industrie globalisée et ils proposent des modalités de participation spécifiques du fait de leur support informatique – les règles sont moins aisément modifiables – ce qui n’est pas sans incidences sur les différentes façons de faire soi-même un jeu.

    Le jeu vidéo : de la culture-tradition à la culture-industrie
    Comme le souligne Joost Raessens, les jeux vidéo diffusent une forme particulière de culture entre les individus. Pour en comprendre les fondements, il faut tout d’abord définir ce à quoi peut renvoyer ici le terme de culture. Selon Jean-Pierre Warnier, la culture est « une capacité à mettre en œuvre des références, des schèmes d’action, et de communication. C’est un capital d’habitudes incorporées qui structure les activités de ceux qui le possèdent » (2004 : 11). Il ne faut pas cependant voir à travers cette définition une conception déterministe de la culture, qui placerait les actions de l’individu sous influence.

    Pour Jean-Pierre Warnier, la culture remplirait plutôt le rôle d’une boussole qui permet de s’orienter en fonction des répertoires d’actions et des représentations proposées, « qui permettent aux sujets d’agir conformément aux normes du groupe » (ibid., 2004 : 10). Dans ce cadre, les cultures sont pour Jean-Pierre Warnier historiquement et géographiquement situées et se caractérisent par leur mode de transmission, la tradition. Jean-Pierre Warnier définit ce terme en reprenant la définition que propose Jean Pouillon, « ce qui d’un passé persiste dans le présent où elle est transmise et demeure agissante et acceptée par ceux qui la reçoivent et qui, à leur tour, au fil des générations, la transmettent » (ibid. : 6). Les « cultures-traditions » ne sont toutefois pas figées, elles doivent au contraire pouvoir intégrer le changement pour assurer leur fonction d’orientation.

    Cependant, si les cultures ont toujours été en contact les unes avec les autres, Jean-Pierre Warnier (2004 : 14-15) souligne qu’une « situation historique toute nouvelle est apparue à partir du moment où les révolutions industrielles successives ont doté les pays dits “développés” de machines à fabriquer des produits culturels et de moyens de diffusion à grande puissance. Ces pays peuvent maintenant déverser partout dans le monde, en masse, les éléments de leur propre culture ou de celle des autres ».
    À la suite de cette réflexion, force est de constater l’intérêt d’interroger le possible rôle de l’industrie vidéoludique en tant que forme particulière de culture.  Cela permet en premier lieu de mettre en évidence les logiques de globalisation de la production prégnantes au sein de toute industrie, sans pour autant en nier certaines origines historiques et localisées : « l’industrie, en effet est elle aussi une tradition, enracinée dans une histoire locale, mais qui par le biais de la technologie, des investissements et du marché, a vocation mondiale » (ibid. : 17).

    Dès lors, il y a une véritable nécessité à prendre en compte « l’intrusion » de cultures-industries au sein des cultures-traditions : « L’industrie fait intrusion dans les cultures-traditions, les transforme et parfois les détruit. Cette intrusion est l’occasion de conflits. Elle prête à controverse. Elle doit être posée au centre de l’analyse de la mondialisation culturelle » (ibid. : 6). L’augmentation des coûts de production encouragée par la course à l’innovation technologique et les lois du marché génèrent une forte concentration de ces industries, au risque de ne s’aligner que sur un seul et même modèle. Et dans ce cadre, les productions de l’industrie véhiculent un ensemble de représentations dominantes du jeu, telles que celles identifiée par Stephen Kline sous le terme de « masculinité militarisée » (2003).

    La question des processus de diffusion et d’appropriation des représentations se pose alors de façon accrue, comme le suggère l’analyse de Joost Raessens. Comment impliquer des individus de cultures diverses avec une même œuvre, alors que les différents peuples ont leurs propres conceptions de ce qui est ou non ludique ? Car comme le souligne Michel Espagne (1999 : 141), « les cultures ne se laissent pas dissoudre par les tentatives aussi radicales soient-elles, de les investir, mais elles restent dotées d’un fort pouvoir de capture et de remodelage qui remet en cause les représentations d’un rayonnement unilatéral, les explications diffusionnistes ». Les débats entourant l’objet « jeu vidéo » montrent que son développement ne s’est pas fait sans rencontrer une certaine « résistance » dans les différentes sociétés, celles-ci véhiculant elles aussi leurs propres représentations sociales sur l’activité, qui rentrent parfois en conflit avec la diffusion de ces produits. Dans ce cadre, au sein d’un domaine globalisé reposant essentiellement sur des processus de médiation interculturelle, une perméabilité sémiotique accrue en faveur de l’utilisateur est un facilitateur permettant à chacun de mettre en scène son propre imaginaire du jeu .

    Faire soi-même dans le cadre du jeu est une des pratiques permettant cette perméabilité.

    Ludus et paidia, deux pôles qui traduisent des façons différentes de faire soi-même 
    Néanmoins, à la différence de l’enfant qui invente ou modifie avec facilité des règles de jeu, le support informatique ne met pas les modifications du système de jeu à la portée de tous. Il doit cependant répondre à cet impératif ludique de créativité souligné par Winnicott pour que la pratique puisse relever du jeu. Pour ce faire, nous avons relevé que les jeux vidéo pouvaient favoriser l’acte créatif de l’utilisateur à différents degrés (de la construction à la reconfiguration), mais il nous semble aussi nécessaire de souligner qu’ils le font selon deux modalités différentes, constitutives de toute activité ludique.

    Comme l’a montré Roger Caillois, l’attitude ludique oscille entre deux pôles, deux « manières de jouer », d’un côté la paidia, « principe de turbulence » (qui peut être rapproché du terme play), et de l’autre le ludus, qui discipline l’exubérance de la paidia par des contraintes, de règles (il peut être rapproché du terme game). Cette opposition de la turbulence à la règle, entre liberté et adoption de règles strictes, est fondamentale dans le jeu. Elle a été relevée par d’autres auteurs comme D.W. Winnicott, pour qui le mot game renverrait à un jeu organisé qui serait une tentative de tenir à distance l’aspect « effrayant » du jeu play, qui serait alors désorganisant. Un lien peut être fait ici sur l’oscillation relevée par Raessens entre l’acceptation des valeurs véhiculées par ces jeux ou au contraire une certaine prise de distance par une déconstruction (entre le fan et le hacker).

    Au regard des réflexions de Caillois, il apparaît que ces prises de position soit suscitées par la nature ludique de la situation qui encourage l’individu à se situer d’un extrême à l’autre de ces pôles. Et dans ce cadre, même si le jeu sur support informatique rend moins aisé la modification de son système (c’est un impératif qu’il faut accepter comme toute règle du jeu), il n’en empêche pas pour le moins l’adoption de deux façons de jouer, et donc de faire soi-même lorsque cette action est constitutive de la dynamique de jeu.

    Etudes de cas
    Plusieurs exemples que nous avons relevé peuvent servir de « cas d’école » des différentes configurations possibles entre les degrés et les façons de faire soi-même, au sens où ils peuvent être considérés comme des paradigmes de diverses pratiques du faire soi-même dans les jeux vidéo, et qu’ils sont régulièrement présentés de la sorte.

    Spacewar : Paidia et construction
    Le premier cas à considérer est celui qui a historiquement donné naissance à l’industrie : Spacewar. Issu du détournement de l’usage d’un supercalculateur du MIT (un PDP1), la création de Steve Russel est emblématique du couple Paidia et construction. Comme nous l’avons relevé en introduction, Russel faisait partie d’un groupe d’étudiants se faisant appeler hacker et dont l’ambition était d’explorer de façon ludique les possibilités offertes par un système informatique. Ainsi, Spacewar ne résulte t’il pas d’un programme de recherche « officiel » de l’institut californien, sa création s’écartant des usages initialement envisagés par les concepteurs du PDP1. De plus, ce jeu a avant tout vocation à être diffusé gratuitement au travers des campus universitaires, selon l’idéologie hacker. Ces différents aspects l’inscrivent résolument dans le cadre d’un processus bottom-up. Mais puisque la culture-industrie vidéoludique n’existait pas encore, il faut envisager à quelle autre industrie cet acte répondait.

    Dans le cas de Spacewar, la culture-tradition hacker peut être considérée comme une réponse à une certaine culture-industrie, le complexe militaro-industriel. En effet, au moment de la conception de Spacewar, dans un contexte de guerre froide, l’époque est à la course à l’armement et à la conquête spatiale  (le nom du jeu n’est d’ailleurs pas anodin sur ce point et résulte d’une certaine fascination des jeunes ingénieurs pour cette thématique, tout comme pour la science-fiction…). Aux États-Unis, des fonds militaires soutiennent les recherches de plusieurs institutions tels que le MIT. La naissance de l’industrie vidéoludique résulte donc du concoure de deux cultures distinctes mais complémentaires, cette dichotomie se retrouvant encore aujourd’hui dans les pratiques liés aux jeux vidéo, de l’adhésion des fans aux valeurs d’une firme à l’exploitation des bugs du système pour le rendre injouable.

    L’exploitation du bug « corrupted blood » dans World of warcraft : Paidia et reconfiguration
    Le célèbre jeu massivement multijoueur propose de nombreux mécanismes fondés sur la reconfiguration et l’actualisation d’éléments pré-existants. Bien que généralement la pratique des joueurs vient répondre aux demandes du système de jeu (ce qui pourrait être emblématique du dernier couple que nous envisagerons, reconfiguration et ludus) des pratiques d’opposition à son fonctionnement n’en apparaissent pas moins, tout en restant dans le cadre d’une reconfiguration. C’est notamment le cas de certaines exploitations de « bugs ».

    Ces exploitations peuvent bien sûr se placer dans une optique de jeu visant à optimiser la réussite et l’efficience de la pratique (augmenter plus rapidement dans les niveaux, accroître son capital monétaire, etc.), ce qui ne les différencient pas dans leur finalité d’un processus d’adéquation entre l’utilisateur et les valeurs du système. D’autres en revanche nuisent à son fonctionnement, comme le montre l’exemple de l’exploitation du bug du sort « corrupted blood », qui était lancé par le boss d’un donjon dénommé Zul’Gurub. Ce lieu n’était normalement réservé qu’aux personnages puissants, le sortilège ayant la propriété de se répandre tel la peste parmi ses opposants, qui pouvaient avoir une chance de survivre du fait de sorts de soin puissants. La maladie ne devait supposément pas quitter le donjon. Un joueur réussit néanmoins à téléporter son avatar contaminé dans une capitale du monde de Warcraft, transmettant l’infection aux avatars alentour, y compris les personnages de bas niveaux qui n’avaient aucune chance de résister, rendant alors la capitale inhabitable. Les développeurs durent apporter une modification au système de jeu pour empêcher la reproduction de l’incident. Ceci attira également l’attention du Center for disease control (CDC) pour envisager des études épidémiologiques en milieu virtuel. Cet apport des pratiques de joueur est caractéristique d’un processus bottom-top.

    La création de niveaux dans Doom : Ludus et construction
    Le couple Ludus et création peut être identifié à travers l’exemple de Doom. Ce jeu répond tout à fait aux représentations dominantes de contenus identifiées par Kline sous le terme de masculinité militarisée. Il est également l’un des premiers jeux à tirer pleinement profit du jeu multi-joueur sur Internet, tout en proposant un modèle économique fondé sur la distribution en « shareware » : seuls les premiers labyrinthes du jeu sont fournis et si le joueur veut en voir plus il doit passer commande directement chez l’éditeur pour pouvoir télécharger les autres « épisodes ».

    De plus, les développeurs diffusent à l’intention des utilisateurs des outils de conception de niveaux pour leur logiciel. Ces différents aspects contribuent à augmenter la durée de vie du jeu tout en répondant aux impératifs du design qui est de placer l’utilisateur au cœur du processus de production. En effet, avec le logiciel de création de niveaux fourni pour Doom, de nombreux joueurs peuvent proposer leurs propres « arènes » de combats. Cet aspect concourt à créer une communauté de joueurs autour du jeu Doom. Leur création participe à la pérennité du produit, s’inscrivant dans les logiques marketings mises en place par les développeurs et répondant ainsi à un processus top-bottom.

    Spore : un cas emblématique du couple ludus et reconfiguration ?
    Comme nous l’avons indiqué, le système de jeu de Will Wright concentre une grande partie de son intérêt sur la liberté de création laissée au joueur à partir d’un éditeur qui se fonde sur les pratiques de reconfiguration complexe. S’il semble de prime abord que ce type de système puisse favoriser à la fois les actions de ludus comme de paidia, il est important de souligner qu’un des rôles centraux des développeurs sera de réguler la création des joueurs pour les restreindre selon des logiques de la société de production, Electronic Arts.

    L’un des principes du jeu est de permettre aux joueurs de diffuser leurs créations à d’autres via le net. Avant la sortie du jeu (en septembre 2008), les développeurs ont diffusé « l’atelier de créatures » pour permettre aux joueurs de s’essayer à la création d’avatars. Très rapidement, de nombreuses créatures à la représentation sexuellement explicite firent leur apparition (phallus à quatre pattes, etc.). Electronic Arts indiqua alors que cette pratique violait les conditions d’utilisation spécifiées sur leur site Internet, où il est indiqué qu’il est interdit de transmettre ou faciliter la distribution de contenus nuisibles, notamment ceux qui étaient sexuellement explicites . Les internautes risquaient alors de voir leur compte et leur accès au logiciel supprimé.

    Ce dernier exemple montre alors que faire soi-même dans le jeu vidéo ne signifie pas automatiquement se libérer des contraintes et normes imposées par l’industrie, qui régule les pratiques. Ceci incite à ne pas uniquement voir uniquement à travers l’encouragement des actes de l’utilisateur des processus d’hétérogénéisation puisque des phénomènes d’homogénisation rentrent également en conflit avec ces pratiques.

    Conclusion
    Comme l’ont montré les réflexions et exemples précédents, faire soi même dans le jeu vidéo ne signifie pas automatiquement qu’il y ait réappropriation, ou détournement, des valeurs véhiculées par cette culture-industrie globalisée. Faire soi-même peut au contraire s’inscrire selon nous dans une logique du « faire faire », où les actions des consommateurs concourent à diffuser et reproduire les modèles engendrés par les multinationales : « Le but est de “fermer la boucle” entre corporation et consommateur en réinscrivant le consommateur dans le processus de production et en fournissant des informations sur ses préférences et prédilections pour le design et le marketing des nouveaux produits de jeu »  (Kline, Dyer-Witheford, De Peuter, 2003 : 57). Il serait néanmoins tout aussi erroné d’ignorer les processus qualifiés par Joost Raessens par le terme de « bottom-up », qui concourent eux aussi depuis sa naissance à la formation de la culture-industrie vidéoludique.

    En définitive, le schéma que nous avons présenté est à considérer comme une construction heuristique permettant d’identifier et de comprendre ce phénomène complexe d’échanges entre culture-industrie et cultures-traditions, avec les frictions et complémentarités générées. Le cas des pratiques du faire soi-même dans les jeux vidéo montre la nécessité d’utiliser un cadre de référence interactionniste plutôt que diffusionniste pour comprendre les processus de médiation à l’œuvre.

    Communication scientifique LUDOVIA 2008 par Sébastien GENVO (extraits)
    Centre de recherches sémiotiques
    Université de Limoges – IUT du Limousin

  • Wikipédia et éducation : Quels enjeux, quels apprentissages pour une info-literacy ?

    Les utilisateurs du Web deviennent  auteurs et acteurs du Web. Avec son évolution permanente des  connaissances, Wikipédia renouvelle le modèle de l’édition avec un nouveau genre encyclopédique n’offrant pas de représentations stabilisées des modes de production et de validation dans la chaîne éditoriale. Les références entre savoirs savants et savoir profanes s’interpénètrent. Wikipédia a pour elle, la puissance du nombre avec des rédacteurs bénévoles, une possibilité de diffusion instantanée à l’échelle de la planète et la gratuité.

    Le principe est simple : des anonymes, compétents ou non, rédigent en ligne un ou des articles sur les sujets de leur choix, les textes pouvant par suite être modifiés, corrigés, et même vandalisés, par les autres usagers. Grâce au logiciel Wiki, tous les internautes peuvent intervenir sur les pages et les strates de la production d’informations sont concernées, plaçant l’usager au cœur de la création de contenus sur internet. Wikipédia est non seulement gratuite, elle est surtout  participative ou collaborative. Le dispositif repose sur une sorte de « régulation naturelle » pour corriger les erreurs de ses contributeurs, voire rectifier certains actes éventuels de vandalisme toujours possibles.

    Les modalités d’accès aux savoirs sont renouvelées avec une chaîne éditoriale ouvrant un accès à l’écriture et à l’édition collaborative. Des résistances sont nombreuses et il est important de pouvoir dégager les freins et les blocages dans le processus éditorial visé dans le domaine de l’Education. La qualité est souvent remise en cause. Le savoir construit sur Wikipédia peut-il émaner de tous, du citoyen lambda qui, avec ses passions personnelles d’entomologie peut apporter sa pierre sur les insectes, aux savants experts, en passant par ceux qui n’ont pas étudié d’une façon académique avec des diplômes ? Est-ce que la vérité simplement est une affaire d’audimat ? Peut-on faire confiance aux non experts ?

    L’encyclopédie Wikipédia est devenue une référence incontournable pour les élèves et les enseignants. Si Wikipédia est une opportunité pour les adeptes du « copie-coller », elle est souvent sujette aux critiques liées à son fonctionnement. Que doit faire l’école pour mettre en place une info-literacy face au phénomène « Wikipédia » ? De nombreuses activités peuvent faciliter la mise en place du B2I, du C2I et du PCIE (passeport de Compétences Informatique Européen) et développer une info-literacy.

    L’école face au phénomène Wikipédia

    Compte tenu des différentes études menées sur Wikipedia, il y a lieu de s’interroger sur l’hostilité que Wikipédia continue de susciter en France, particulièrement dans les milieux pédagogiques.

     » Wikipédia ne peut avoir une présence reconnue dans l’enseignement en France, ses principes mêmes (neutralité) n’étant pas compatibles avec les valeurs de l’école laïque et républicaine française, valeurs qui conduisent à privilégier certains points de vue et à en interdire d’autres ». (E. Bruillard, 2007, p39-45). Cette citation d’un paragraphe écrit par Eric Bruillard  a été reprise  par Christian Vandendorpe pour illustrer « l’hostilité que Wikipédia continue de susciter en France, particulièrement dans les milieux pédagogiques »).… La suite du texte n’est pas reproduite, alors qu’elle apporte  un autre éclairage : «Cela n’empêche pas qu’elle puisse avoir une place. On peut tout d’abord la considérer comme un projet et voir les modalités de participation  » active  » à ce projet ou privilégier l’aspect encyclopédie dans une posture de consommateur ».  (E. Bruillard, 2007, p39-45).

    De nombreux échanges sur l’observatoire de Wikipedia posent les différents problèmes posés par Wikipédia au sein de l’éducation   Les avis sont nombreux et partagés comme le témoignent les interventions lors des ateliers organisés lors du colloque Wikipédia 2007 .

    Cet enseignant utilisateur de Wikipedia donne son point de vue. « J’aime Wikipédia. Je pense que c’est un bon outil pour trouver de l’information factuelle sur une foule de sujet. Je crois que c’est la quintescence du modèle encyclopédique et qu’en soi, Wikipédia est un rouage majeur de la révolution de l’information. Mais il est vrai que ça dérange. Certains professeurs à la traîne refusent de reconnaître la valeur du web en tant que source d’information crédible et impose leurs vues aux élèves qui apprennent toujours à penser comme dans le temps des cardex de bibliothèques. »

    Alors que quelques uns plébiscitent l’idée, certains s’y opposent, au motif bien connu que ses contenus ne sont pas fiables. Certains professeurs ont été amenés à interdire l’utilisation de Wikipédia. Le 26 février 2007, dans un quotidien cambodgien, le Cambodia Daily a inscrit à la une, l’interdiction de Wikipédia dans une université américaine. Un professeur lassé de voir les mêmes erreurs en provenance de Wikipédia introduites dans les copies d’élèves, leur interdisait de citer Wikipédia, y compris dans leurs bibliographies . Le professeur Neil Waters, professeur d’histoire affirme que Wikipédia peut servir à débuter une recherche sur Internet. Il est important d’analyser de plus près les diverses résistances au sein de l’Education.

    Les résistances 
    Régulièrement, des critiques à l’égard de Wikipédia (près de 500 000 articles en français, plus de 7 millions dans plus de 192 langues) émergent. « Meilleure expression de ce qu’Internet peut avoir de généreux (gratuité, bénévolat, collaboration, échange), le site est pourtant accusé d’approximations, de méthodes souvent « staliniennes » et surtout d’ouvrir grand les bras aux manipulations ».    Wikipédia est banni dans certains  établissements scolaires.  Une enquête étrangère a été publiée sur la légitimité de ce genre d’encyclopédie pour les étudiants: “Is Wikipedia a solid resource, merely a good starting point, or something students should avoid?”. Faut-il utiliser l’encyclopédie Wikipédia ou faut-il l’interdire ? Quelles sont les remises en questions, risques supposés ou réels ?

    L’encyclopédie Wikipédia est une encyclopédie qui « bouge » à tout moment et pour les élèves, il pourrait être  « dangereux » de tomber sur une page  qui a fait acte de vandalisme.  L’école doit garantir des textes « sûrs » à ses élèves. La « sécurité » est primordiale à l’école.

    Une charte-type élaborée dans le but d’inspirer et d’aider les établissements scolaires et les écoles à préciser à leur tour de manière contractuelle les conditions d’utilisation par les élèves et les personnels de l’Éducation nationale des services liés aux technologies de l’information et de la communication, est obligatoire. Que se passe-t-il pour un établissement scolaire, si un article nouvellement « vandalisé » tombe entre les mains des élèves ? Quelles sont les « normes de sécurité » à garantir ? Pour garantir la sécurité, la mise en place d’une encyclopédie « figée » et « stabilisée » a été une solution adoptée dans certains pays comme l’Angleterre ou l’Allemagne qui ont impulsé la diffusion d’une encyclopédie « papier » avec des articles sélectionnés. Bertelsmann a annoncé en Avril 2008,  la commercialisation en septembre, pour la première fois au monde, d’une version imprimée sur papier en allemand de l’encyclopédie par internet Wikipedia. Ce livre rassemblera 50.000 fiches issues de la version germanophone de Wikipedia qui en compte 700.000. Il sera vendu 19,95 euros, dont un euro sera reversé à l’association à but non lucratif qui gère la Wikipedia germanophone. « L’édition papier, condensée en un volume, touchera un nouveau public, qui apprendra ainsi à connaître le projet Wikipedia et à y collaborer », a affirmé dans un communiqué Beate Varhnhorn, directrice de publication chez « Bertelsmann Lexikon ».

    La qualité remise en cause ? 
    La qualité des ressources proposées à l’usage des enseignants est une question cruciale pour leur diffusion et leur partage. Les enseignants doivent avoir les moyens de choisir les ressources qui leur sont nécessaires, d’identifier celles qui sont pertinentes. Tout le monde peut écrire quelque chose et n’importe quoi sur l’encyclopédie. Quelle va être la qualité de la ressource souvent mise en ligne par un « non expert » ?

    Les enseignants préfèrent appliquer le principe de précaution qui veut qu’on ne donne pas aux élèves un document pouvant contenir des erreurs, et un des reproches souvent faits à Wikipédia est son manque de certification. Si n’importe qui peut y écrire, la qualité pourrait être remise en cause. Faut-il stabiliser Wikipédia en mettant en place une certification, mettre en place une encyclopédie « sûre »,  comme cela a été fait en Angleterre?

    En évoluant très vite sur Internet, les critiques adressées à Wikipédia deviennent vite obsolètes. Wikipédia a le souci de mettre en place un système de labels de qualité sur ses contenus.  La « récompense virtuelle » attribuée à un article de qualité consiste à l’attribution d’un Logo sous la forme d’une pièce de puzzle en forme de globe planétaire. D’après Sébastien Blondeel, « il faut compter environ un article de qualité pour mille articles. »  (Blondeel,,2006, p37). D’après Wikipédia, de nouveaux articles de qualité sont votés au rythme de 10 à 20 par mois. Il est possible d’accéder à une page qui rassemble les  portails de qualité sur Wikipedia. Mais à quel moment pourra-t-on dire que l’article est de qualité ? Pour Blondeel, « les articles de qualité sont ceux qui sont les plus complets, les mieux écrits, les plus neutres. » (Blondeel, 2006, p37). Il est primordial de voir dans quelle mesure l’expertise peut être utilisée pour améliorer un texte et de pouvoir repérer et reconnaître l’expertise d’un expert.

    L’originalité de Wikipédia est de rendre lisible les champs d’expertise de différentes domaines. Le contributeur peut s’engager sur des thèmes qui lui tiennent à cœur et qui lui permettront de développer ses compétences. Chaque contributeur peut s’y retrouver. Le Projet « Maintenir et améliorer la qualité » a pour but de développer une grande offensive de nettoyage, d’amélioration de la qualité de Wikipédia, de maintenance, avec une  coordination des différentes tâches à réaliser. Des ébauches  sont  fréquentes et sont à compléter par les wikipédiens. Elles correspondent à des articles courts provisoires qui donnent une première définition succincte en attendant d’être amélioré par d’autres contributeurs. Elles ne sont pas considérées comme un article à part entière et sont recensées et disponibles sur une page dédiée. Le manque de contrôle est souvent un reproche qui est fait à l’encyclopédie. L’encyclopédie peut elle être générée sur des savoirs construits pas des amateurs ? Peut-on faire confiance à une ressource produite par un amateur ? Une personne non botaniste de formation peut-elle apporter son expertise sur les roses et les rosiers ?
    Le savoir doit-il être vérifié par ceux qui savent, les experts ?

    Citizendium de son côté est un projet encyclopédique faisant appel à des experts pour guider le public dans l’écriture des articles. Le système est fondé sur un wiki, et les auteurs sont enregistrés sous leur propre nom. L’expertise concerne la vérification des articles, le but étant d’obtenir une encyclopédie évoluant plus lentement mais contenant le moins d’erreurs possible. Pour obtenir la participation de la communauté en ligne d’érudits, Britannica  a le projet de fournir aux contributeurs un système de « récompenses », un système d’édition riche qui leur permettra de faire la promotion de leur travail et de leurs services, de publier leurs différents travaux en progression dans la sphère d’audience de Britannica.

    Information literacy 
    La capacité à donner du sens à cette quantité d’informations sur le Web composant  notre environnement à la fois personnel, culturel, social et professionnel représente un enjeu majeur pour réaliser la transition nécessaire de la société de l’information Vers les sociétés du savoir (Unesco, 2006).  Si les compétences de base telles que le « lire-écrire-compter » sont inscrites dans les programmes scolaires, il est nécessaire d’apprendre à apprendre et d’apprendre à  chercher, évaluer, et utiliser l’information. Comme le précise Vincent Liquete, dans son livre, il ne suffit plus d’acquérir à l’école des connaissances, l’élève doit apprendre à apprendre, être capable de s’approprier des méthodes personnelles de travail, de gérer son apprentissage.  La recherche d’information y a toute sa place. La notion d’« information literacy », le plus souvent traduite par « maîtrise de l’information », a toute sa place à l’Ecole. Elle a été définie par l’OCDE et par Statistiques Canada en 1995,  comme « l’aptitude à comprendre et à utiliser l’information écrite dans la vie courante, à la maison, au travail et dans la collectivité en vue d’atteindre des buts personnels et d’étendre ses connaissances et ses capacités » qui s’oriente vers un continuum de connaissances, de compétences et de stratégies permettant d’utiliser les technologies numériques et développer une digital litteracy. Dans ce rapport, il est précisé qu’ « avec l’ère du numérique, la compréhension des technologies ne suffit pas. Ce que tout un chacun doit aussi faire, c’est apprendre à utiliser effectivement et efficacement ces technologies diverses et puissantes pour rechercher, extraire, organiser, analyser et évaluer, puis utiliser à des fins concrètes de prise des décisions et de solution des problèmes ». 

    Quelle place pour Wikipédia à l’école ? 
    dreshler wikipediaLes outils du Web2.0 comme Wikipédia apportent une dimension participative au Web. Rentrer dans les « rouages » des dispositifs de création, de diffusion des informations, de partage d’informations sur le Web, n’est-elle pas une des clés  permettant aux élèves d’être critiques, face à l’information, et d’être plus efficaces en matière de recherche documentaire ? L’école, face à l’évolution d’Internet, toujours en mouvement, et pour lequel les usagers peuvent à tout moment être « auteurs » de ressources ne doit-elle pas développer des compétences informationnelles afin que les élèves, deviennent des acteurs « actifs » du Web?

    Il est important de dégager les éléments structurants d’une culture informationnelle nécessaire aux individus d’aujourd’hui et d’aboutir à des préconisations utiles à l’élaboration d’un programme continu d’apprentissages documentaires tout au long de la scolarité. Wikipédia devenue une référence de choix pour beaucoup d’élèves. Afin que ces derniers maîtrisent au mieux la recherche d’informations sur Internet et qu’ils puissent être critiques face à l’information disponible, il est incontournable de leur proposer une éducation « aux médias » en intégrant ces nouvelles formes de production collaborative de contenus sur Internet dans le contexte scolaire.
    Mais que doit proposer l’école pour devenir « wiki-intelligent » ?

    Quelles pistes et projets pour l’Ecole ?
    Intégrer Wikipédia à l’école permet de développer des compétences du B2I (Domaine 2 : adopter une attitude responsable) ainsi que des compétences du C2i spécialisé pour les enseignants pour le travail en équipe et en réseau. Le programme intergouvernemental de l’UNESCO  a mis en place des indicateurs pour une information literacy   Towards information literacy indicators. Ce rapport fournit une définition de la maîtrise de l’information, un modèle de correspondances entre la maîtrise de l’information et d’autres compétences comme la connaissance des TIC, et une description des normes éducatives en matière de maîtrise de l’information. Wikipedia y a toute sa place comme objet d’analyse et d’étude.  Le PCIE est défini par un référentiel européen qui insiste sur les bonnes pratiques et les règles de productivité. C’est un bilan des connaissances nécessaires pour une maîtrise raisonnable de son ordinateur au quotidien, issu d’évaluations des pratiques en entreprise. Wikipedia a toute sa place comme objet d’analyse et d’étude pour le module 7 axé sur la navigation sur Internet. Les expériences autour de Wikipedia à l’école sont nombreuses comme par xemple  la  Zentrale für Unterrichtsmedien im Internet (ZUM.de) d’Allemagne qui a mis en place son propre Wiki, le  « ZUM-Wiki », qui regroupe d’une façon collaborative  tous les matériaux pour la formation. L’Allemagne a développé un « Grundschulwiki »   et l’institution a intégré ces outils « wikis » dans son organisation. En France, des projets conséquents ne pourraient-ils  pas voir le jour en partenariat avec l’Education Nationale favorisant ainsi la constitution d’une base collective publique de ressources … un bien immatériel considérable au service des acteurs de l’éducation ?

    Conclusion
    Pour développer une culture numérique tout au long de la scolarité, il est important que l’Ecole prenne en charge ces nouvelles données du Web participatif en favorisant une approche de la coopération, des nouvelles manières de travailler ensemble en ligne. Il est important qu’on apprenne aux élèves à décrypter comment  fonctionnent les Wikis et apportent sur la façon dont les gens coopèrent, communiquent, travaillent ensemble. Les outils nouveaux du Web « participatif » modèlent un nouveau paysage de l’édition, où l’usager est au cœur. Une nouvelle didactique de l’information-documentation doit prendre en compte ce nouveau service de partage de documents et de ressources en ligne qu’est Wikipedia pour développer une culture informationnelle inscrite dans les curriculum. Certains pays comme l’Allemagne et l’Angleterre exploitent ces ressources éducatives wikipédiennes. Nous avons pu dégager quelques notions, connaissance et compétences à construire progressivement tout au long de la scolarité, en nous appuyant sur une nouvelle « grammaire de l’information-documentation » en interaction avec l’environnement du Web, toujours en mouvement. Une clé pour développer chez les élèves,  des aptitudes à décrypter les enjeux des nouvelles applications numériques dans la société de l’information et utiliser internet d’une façon raisonnée !

    Communication Scientifique LUDOVIA 2008 par Michèle DRECHSLER (extraits)
    CREM Université Paul Verlaine Metz
    Organisme de rattachement INRP Lyon
    n° section : CREM EA 3476

  • UTOPIA: Une plateforme d’aide à la création et au prototypage de jeux vidéo

    En effet, cet art reste à part. Faute de bénéficier d’outils de création adaptés, la production de jeux vidéo 3D (cela est un peu moins vrai et à un degré moindre pour la 2D) est réservée à une « élite technologique » composée de développeurs et de graphistes spécialisés.

    Alors que le marché des jeux vidéo est en pleine évolution et semble se diviser en deux catégories : les jeux à très gros budgets (plusieurs dizaines de millions de dollars) et les jeux à petits budgets dit « casual games », les éditeurs sont à la recherche de concepts novateurs et faciles à mettre en place. Or, pour réellement innover, il faudrait disposer d’outils de production simples d’utilisation et totalement détachés de l’aspect technique pour laisser libre cours à la créativité.

    Le but d’Utopia est de fournir une plateforme d’aide à la création de jeux vidéo accessible au plus grand nombre. 

    Création de jeux vidéo : un art encore inaccessible
    A l’heure où le jeu vidéo se démocratise et commence à toucher des catégories de personnes jusque-là insoupçonnées (surtout grâce à la Wii et la DS de Nintendo), un besoin de création se fait sentir. Les éditeurs l’ont bien compris et multiplient les jeux disposant de fonctionnalités dites « user content » où l’on laisse la possibilité à l’utilisateur de créer lui-même et très facilement ses propres niveaux (qui ne sont qu’une simple modification de l’environnement du jeu), de « customiser » les personnages ou encore carrément de modifier en profondeur le jeu, en fournissant les outils de développement.

    Ces approches, bien que très intéressantes, sont limitées et ne permettent pas d’exploiter le plein potentiel créatif d’une personne. On permet seulement de modifier et non de créer des nouvelles manières de jouer, car cela nécessiterait des modifications plus profondes.

    Nouveaux types de jeux créatifs
    Néanmoins, une nouvelle catégorie de jeux voit le jour dans laquelle l’utilisateur devient créateur de ses expériences de jeu. C’est le cas des jeux comme Little Big Planet dont le but est de créer son propre niveau et ensuite le partager sur internet. Le jeu a été pensé d’une manière à ce que les possibilités soient infinies.

    Le jeu Spore est aussi un bon exemple : le joueur contrôle au début une petite bactérie et la fait évoluer, à chaque étape de son évolution, il peut choisir l’apparence et le comportement que prendra sa créature. L’évolution continue jusqu’à avoir des êtres qui vivent en société et qui affrontent d’autres ethnies. Ces deux produits illustrent bien la tendance actuelle à fournir des outils de création accessibles à qui a envie et ne nécessitant pas de connaissances particulières.

    Utopia s’inscrit dans cette démarche, mais veut aller plus loin en ne limitant pas la créativité à un seul type de jeu.

    Image : Système d’édition des créatures dans Spore

    Analogie avec le cinéma
    Le cinéma, la photographie et le jeu vidéo, sont des arts qui s’expriment par le biais d’une technologie. Là où, pour les deux premiers, les concepts sont parfaitement intégrés et des solutions efficaces d’aide à  la création sont disponibles (matériel adapté, logiciel ergonomique, chaîne de production maîtrisée), le jeu vidéo reste encore à ses balbutiements.
    Etant donné que le thème du colloque est « 2.0 do it yourself », il est important de revenir sur le fait qu’il est encore très difficile de faire un jeu vidéo tout seul.

    Pour faire une analogie avec le monde du cinéma, faire un jeu vidéo reviendrait à :

    •Assembler pièce par pièce sa propre caméra et créer ses bobines. Car, bien que des librairies comme OpenGL ou DirectX soient disponibles, encore faut-il bâtir un moteur par-dessus.
    Cette tâche s’avère généralement très lourde et nécessite de fortes connaissances en programmation 3D.

    •Faire les décors soi-même. Dès que l’on veut rajouter un élément dans son jeu, même une table ou un arbre,  il faut le modéliser et le texturer. Cela nécessite la maîtrise d’au moins un logiciel de modélisation 3D (Blender, 3DSMax, Maya…) et un logiciel de graphisme 2D (Gimp, Photoshop), ce qui requiert généralement plusieurs années d’expérience.

    •Monter à la main le film. Très peu de logiciels permettent de créer soi-même son jeu. Généralement, il faut aussi réaliser son propre éditeur graphique.
    Bref, c’est comme si les années d’expériences dans ce domaine n’avaient rien apporté.

    Problèmes et solutions

    Besoin d’un standard
    Peu de solutions techniques complètes (entendez par là moteur de jeu) existant, il faut donc du temps et des compétences poussées pour faire un jeu. Il faudrait établir une sorte de standard qui servirait de référence technique. Ce besoin de standardisation se fait sentir dans le milieu professionnel. On peut citer par exemple le projet de console unique (Dycke, 2007) que les éditeurs de jeux aimeraient voir se développer. Il y a aussi le projet Play All initié par la région Ile de France qui regroupe plus de cinq studios de jeux vidéo dans le but est de développer une plateforme de jeu commune.

    Utopia propose de créer un moteur de jeu ainsi que des outils de production standardisés et libres (sous licence libre).

    Besoin d’outils ergonomiques
    Avoir une solution technique standardisée ne suffit pas pour rendre accessible la création de jeux vidéo. Pour continuer avec les analogies, c’est comme avoir un système d’exploitation GNU/Linux (que l’on peut considérer comme un standard) seulement accessible en lignes de commandes et que seuls les spécialistes l’utiliseraient. Heureusement, il existe aujourd’hui des distributions comme Ubuntu et Mandriva qui rendent accessible ce système d’exploitation.

    Il existe déjà un certain nombre d’outils de création de jeux vidéo dans le commerce, mais ils sont soit trop complexes, soit trop limités en possibilités. En effet, il y a les logiciels professionnels tels que l’Unreal Editor ou la SandBox de Crytek qui permettent de faire des jeux de grande qualité mais dont la licence d’utilisation coûte extrêmement cher et dont la prise en main n’est pas évidente. Puis, il y a des logiciels très bon marché, accessibles et ergonomiques mais dont les possibilités sont limitées : pas de modifications profondes possibles et souvent limités à un seul type de jeu. C’est le cas des logiciels comme FPS Creator ou RPGMaker.

    Utopia se place entre ces deux types de logiciels et souhaite fournir un outil à la fois simple d’utilisation, complet et évolutif. Nous verrons cela en détail dans la partie 2 de cet article.

    Image  : Unreal Editor, logiciel utilisé par un grand nombre de studios dont le prix (600 000 dollars) n’a d’égal que la complexité.

    Manque de ressources
    Les ressources optimisées pour le temps réel qui se trouvent sur le net sont généralement payantes ou restreintes d’utilisation. De plus, il n’y a pas de sites spécialisés pour le jeu vidéo; mais seulement pour les textures, pour les sons, pour les modèles 3D, etc. Aucun d’eux ne regroupe tous ces types, ce qui rend la recherche de ressources fastidieuse et souvent infructueuse.

    Autre point négatif, les ressources trouvées sont souvent dans un format propriétaire incompatible avec le moteur de jeu utilisé, ce qui nécessite d’avoir un logiciel adéquat pour les convertir. Ces contraintes limitent grandement la productivité car pour mettre en place une situation de « gameplay », même avec les outils adéquats, une personne devra produire ses propres ressources ou alors les acheter au prix fort, ou encore utiliser des ressources inadaptées qui ne mettront pas en valeur son travail.

    Utopia propose une solution communautaire d’échange de ressources via un site web spécialisé. La partie 3 de cet article décrit ce concept.

    UTOPIA : un logiciel de conception ergonomique
    Utopia est une plateforme d’aide à la création de jeux vidéo. Un des éléments principal de cette plateforme est le logiciel d’aide à la conception de jeux vidéo. Les aspects ergonomiques de son interface sont le fruit de recherches que j’ai effectuées en 2007 (Livet, 2007). J’avais mis en évidence la nécessité de développer des logiciels de conception réellement adaptés à l’activité de chacun et j’ai proposé une ébauche de solution qui se précise dans cet article.

    Deux éléments importants constituent maintenant le cadre théorique lié à l’ergonomie de l’interface : la théorie de l’activité et les cartes heuristiques.

    Théorie de l’activité 

    La théorie de l’activité est issue des sciences sociales. Elle vise à mieux définir une activité humaine précise, afin de la faire évoluer. Bourguin et Derycke (2005) ont adapté ces modèles théoriques à l’informatique et ont mis en place une méthodologie pour concevoir des logiciels s’adaptant aux activités humaines et à leur évolution.

    J’ai proposé en 2007 une implémentation de ce modèle destinée aux logiciels de conception. L’idée est simple : découper l’interface du logiciel en « activités » qui regroupent les fonctionnalités axées autour d’une même tâche. A chaque changement d’activité (donc de tâche), c’est l’ensemble de l’interface qui change. Donc, seules les fonctionnalités nécessaires à un instant t pour une tâche spécifique sont affichées, ce qui réduit considérablement le nombre de boutons et menus affichés simultanément. Cet amincissement de l’interface permet d’avoir des logiciels complets (comportant beaucoup de fonctionnalités) tout en étant simples d’utilisation.

    Cartes heuristiques
    Comment piloter une interface qui varie en fonction du contexte? Au départ, j’avais imaginé un système de graphe multidimensionnel organisé sur plusieurs niveaux qui allaient du plus conceptuel au plus concret (LIVET, 2007, p.18). Après avoir créé un prototype, il s’est avéré que cette technique ne permettait pas d’avoir une vue d’ensemble du projet en cours de réalisation et n’aidait donc pas à la conception.

    LIVET CARTE HEURISTIQUEC’est alors que j’ai découvert le concept de cartes heuristiques qui correspond exactement à ce que j’essayais de développer.
    Les cartes heuristiques (mind map en anglais) est un moyen de représenter schématiquement une information organisée de manière multidimensionnelle. Elles servaient à la base à représenter une arborescence de données, mais elles ont vite été adoptées dans plusieurs domaines comme la conception, la gestion de projet, le brainstorming, etc.

    Image  : Exemple d’une carte heuristique

    Après des entretiens avec des professionnels, il s’est avéré que les cartes heuristiques sont utilisées dans le domaine du jeu vidéo. Cette méthodologie est surtout utilisée en gestion de projet, mais certains l’utilisent aussi dans la phase de pré-conception d’un jeu (document de game concept). Je suis convaincu que cette méthode pourrait aussi être utilisée dans les phases de conception et de production du jeu, si elle était intégrée directement aux logiciels utilisés. Un peu comme le logiciel MindJet MindManager (c) est utilisé pour produire des documents textes et des feuilles de calcul car il s’intègre parfaitement à la suite Office.

    Intégration dans Utopia 
    Le point central du logiciel sera donc une carte heuristique représentant les différents éléments du jeu en cours de création. Via ce graphe, les utilisateurs pourront, tout d’abord concevoir le jeu (car comme dit plus haut les cartes heuristiques peuvent être utilisées comme support à la conception) mais aussi permettre de collaborer autour du projet via un système d’annotation sur le graphe.

    Enfin, ils pourront surtout produire le jeu car chaque nœud de la carte heuristique représentera un élément éditable et sera ainsi relié à une activité spécifique. Lorsque l’utilisateur cliquera sur la fonction d’édition d’un nœud, l’interface correspondante à celui-ci se chargera et permettra l’édition graphique. Par exemple, dans le cas d’un jeu comportant des niveaux, il suffira de créer un nœud « niveau » sur le graphe et ensuite l’éditer pour avoir accès à l’éditeur de niveaux qui comporte des fonctionnalités spécifiques au placement des entités dans un espace 3D.
    De cette manière, c’est l’architecture, totalement arbitraire, de la carte heuristique qui déterminera la façon dont le logiciel s’utilise (son heuristique). Ce n’est donc plus l’utilisateur qui s’adapte au logiciel mais le contraire.

    Un système co-évolutif? 
    Un des aspects de la théorie de l’activité de Bourguin qui n’est pas supporté par Utopia est la co-évolution. C’est le fait qu’une activité évolue en fonction du contexte. En termes de logiciel, cela signifie que l’interface doit pouvoir évoluer avec l’utilisateur. Pour cela, il faudrait qu’il ait un contrôle sur les éléments qui constituent l’interface du logiciel. J’avais tout d’abord pensé à un système de méta-logiciel, sorte de « designer » d’interface dans lequel on pourrait modifier à sa guise l’agencement des boutons, rajouter des fonctionnalités, etc. Ce système, nécessitant la prise en main d’un deuxième logiciel, n’apparaît finalement pas bien adapté. Mais une autre solution pourrait être envisagée.

    Comme chaque nœud du graphe créé pour le jeu représente en réalité une interface, pourquoi ne pas donner la possibilité à l’utilisateur de modifier les éléments qui la composent ? Cela se ferait via une seconde carte heuristique, calquée sur la première, mais dont les détails des entités ne seraient plus liés au jeu, mais à l’interface.
    Par exemple, un niveau comportant un ciel pour le décor pourra être représenté par un nœud « ciel » dans la carte heuristique du jeu et un nœud « éditeur de ciel » dans la carte heuristique de l’interface. Ces nœuds seront les différentes fonctionnalités accessibles par l’interface comme « Changer la texture du ciel » ou « Changer la position du soleil ». Si on veut pouvoir rajouter un contrôleur pour changer la couleur du ciel, il suffirait de rajouter un nœud dans le graphe et choisir parmi un ensemble de fonctionnalités disponibles pour l’ « éditeur de ciel », la fonction « Changer la couleur du ciel ». La fonctionnalité sera alors directement accessible dans l’éditeur.

    Cette approche comporte néanmoins des limites :
    – Elle ne peut marcher que si des fonctionnalités supplémentaires ont été prévues pour l’interface.
    – L’utilisateur n’a pas un contrôle fin de l’agencement des fonctionnalités.

    Un logiciel libre 
    Un des aspects importants du logiciel Utopia, c’est qu’il sera développé sous licence libre (LGPL ou GPL) ce qui le rendra accessible au plus grand nombre. Cela assurera aussi la viabilité technique de la solution et son évolution.

    Nous espérons pouvoir rassembler un maximum de contributeurs pour créer une sorte de standard du jeu vidéo et ainsi mutualiser les compétences. Enfin, l’utilisation de moteur 3D libre comme Ogre3D, assurera l’évolution technique du logiciel et laissera la possibilité de se concentrer exclusivement sur l’utilisabilité du logiciel.

    En combinant, au sein d’un logiciel libre, des outils de conception reconnus tels que les cartes heuristiques avec des théories permettant de mieux intégrer l’activité humaine aux logiciels de conception, Utopia rendrait accessible au plus grand nombre la création de jeux vidéo.

    UTOPIA : un site internet d’échanges de ressources
    Comme dit plus haut, il ne faut pas seulement une solution technique efficace pour faire un jeu, il faut aussi des ressources. Le medium qu’est internet permet a tout le monde d’échanger son savoir-faire et ses créations. Des sites musicaux comme Jamendo proposent aux artistes de déposer sous licence libre (Creative Common, LAL) leurs albums qui seront par la suite écoutables et téléchargeables gratuitement. C’est sur ce même principe que se base le site internet d’Utopia.

    Des ressources pour tout le monde
    Le site d’Utopia est un site communautaire qui permet à qui le souhaite de déposer une ressource qu’il a créée et de télécharger celles que d’autres ont créées. Dans un souci de facilité de partage, les ressources devront obligatoirement être sous licence libre (ou du moins ouverte) et dans un format libre, compatible avec l’éditeur Utopia.

    Un logiciel de gestion de versions
    Le concept de partage va plus loin avec la possibilité, pour les ressources autorisées par la licence, de modifier la création d’une personne et de déposer la nouvelle version créée sur le site. Les utilisateurs auront alors le choix entre plusieurs versions à télécharger. Ce procédé, similaire au système de gestion de version de code source, permet de répartir le travail à effectuer sur une ressource et de réutiliser ce qui a déjà été fait pour le modifier.

    Intégration avec le logiciel
    Cette base de données pourra directement être interrogée depuis le logiciel de conception Utopia. L’utilisateur n’aura alors qu’à chercher le nom et le type de ressources souhaités et télécharger celles qui l’intéressent puis les utiliser directement dans son jeu. En proposant un site d’échange de ressources libres, optimisées pour le temps réel et directement intégrées dans un logiciel de conception, Utopia deviendra une plateforme optimisée pour la création de jeux.

    UTOPIA : Un support pour la recherche ?
    Outre le côté artistique, le jeu vidéo est un merveilleux défi technologique qui pose souvent des problématiques de recherche. Le caractère ouvert du projet Utopia pourrait faire de lui un support à la recherche publique et ainsi valoriser certaines avancées. La collaboration pourrait s’effectuer dans plusieurs domaines, certains directement liés à Utopia (ergonomie), d’autres simplement liés au jeu vidéo. En voici une description :

    •La réalité virtuelle : Les algorithmes de génération procédurale d’environnements naturels ou urbains sont de plus en plus utilisés dans le jeu vidéo. Il en est de même pour les rendus temps réel photo réalistes, jusque-là inaccessibles avec des machines domestiques, qui sont aujourd’hui communs grâce aux avancées technologiques réalisées dans le domaine de la 3D.

    •La réalité augmentée : Les dispositifs d’interaction avec le joueur ne se résument plus à la simple manette ou au volant pour les jeux de courses. Les écrans tactiles (comme sur la Nintendo DS), les viseurs infra rouge (comme sur la Wii) ou les Webcams (eyeToy) sont désormais très répandus et tendent à se développer exponentiellement. Ces objets amènent, petit à petit, le jeu dans le monde physique et posent des problématiques similaires à la réalité augmentée.

    •L’ergonomie logiciel/web : En voulant fournir un logiciel de conception à la fois simple d’utilisation, complet et évolutif, Utopia s’inscrit dans une démarche ergonomique faisant appel à la méthodologie scientifique. Bien que l’idée de base soit là, il reste encore à définir les interfaces des différentes activités du logiciel.
    Le site internet d’Utopia est aussi une plateforme communautaire conséquente qui pourra bénéficier d’apports théoriques.

    •Intelligence Artificielle : Avoir un environnement et des adversaires qui se comportent de manière convaincante est un élément essentiel pour un jeu vidéo. Cela sert les mécaniques de jeu (ex : le comportement d’un ennemi dans un jeu de tir) ou augmente l’immersion (ex : une foule dans un environnement urbain), ce qui apporte une « plus-value » à un titre.

    Conclusion 
    En associant un logiciel ergonomique à une base de données de ressources, le projet Utopia rendra la création de jeux vidéo accessible au plus grand nombre et permettra à de nouveau talents de s’exprimer. Utopia, comme son nom l’indique, est un projet ambitieux mais pas irréaliste. Les solutions techniques sont là, il faut simplement des fonds pour mettre la machine en marche. Avec l’explosion du libre, il y a fort à parier que cet outil trouvera sa place parmi la communauté et attirera rapidement des entreprises.

    Communication scientifique LUDOVIA 2008 par Andréas LIVET (extraits)
    Université Lumière Lyon II

  • Lancement mondial de spore le nouveau jeu de stratégie créé par Will Wright prévue le 4 septembre

    Lancement mondial de spore le nouveau jeu de stratégie créé par Will Wright prévue le 4 septembre

    SPORE0209200822

    SPORE entraîne les joueurs dans un voyage unique retraçant les origines de la vie, son évolution, la naissance et le développement des civilisations, pour terminer aux confins de l’univers. Générez une créature, contrôlez son évolution dans ses moindres détails depuis l’organisme aquatique unicellulaire au dieu galactique.

    La jouabilité varie avec chaque étape de développement franchie par votre créature. Efforcez-vous de survivre à la sélection naturelle, bâtissez des métropoles prospères, faites du commerce avec les civilisations rivales ou combattez-les et explorez les limites de la galaxie.

    Chaque détail de l’univers, des créatures aux véhicules, en passant par les bâtiments ou les plantes, est créé par le joueur et automatiquement partagé avec les autres, ce qui permet d’évoluer dans des mondes d’une variété quasiment infinie. Concevez, contrôlez et explorez l’univers avec SPORE.

    Selon Olivier SÉGURET de Libération «l’importance d’un titre comme Spore se mesurera surtout à l’usage qui sera réellement fait d’un jeu qui réclame, dans son principe même, une réappropriation par le joueur. C’est la dimension la plus curieuse, excitante et à certains égards incontrôlable de l’outil Spore.»

    A la croisée des chemins entre un Univers virtuel de type Second Life, un jeu en réseau et de stratégie comme World Of Warcraft, Spore est nous semble t’il une nouvelle génération de jeu.

    Aura t’il des implications sérieuses de type Serious Games, par le fait que l’on peut créer des créatures avec quelques notions d’anatomies en prime ?

    Nota : La rédaction de LUDOVIA MAGAZINE a tenté d’utiliser en quelques minutes l’atelier de création (version évaluation) fourni sur le site de spore, résultat : interface très simple d’utilisation, effets géniaux et résultats surprenants. Nous avons créé le « ludoviasore » en à peine 2 minutes, nous l’avons fait rire, danser, rugir, …Nous voulions vous en faire profiter avec un snapshot, ou une vidéo (qui est automatiquement chargée sur YouTube grâce au partenariat de EA avec YouTube). Hélas, il faut pour se faire s’inscrire d’abord sur SPORE pour bénéficier  de ce type de service (snapshot ou vidéos) et l’opération fut impossible à cause d’un bug de l’interface : impossible de rentrer son mail correctement !! le « @ » sous Mac OS X Léopard(10.5.4) n’est pas pris en compte ! Dommage.

    Plus d’information sur SPORE

  • Ubisoft lance une nouvelle marque pour sensibiliser les enfants à la protection de leur planète

    Aujourd’hui, jour d’ouverture de la Games Convention, Ubisoft dévoile Planète Nature, une nouvelle marque de jeux vidéo conçus pour les consoles Nintendo DS™ et Wii™. Tous les enfants ont à coeur de protéger la planète et de préserver la diversité ; les premiers titres de cette série permettront aux jeunes joueurs de sauvegarder, nourrir et soigner les espèces en voie de disparition.

    « Veiller à la sauvegarde de notre planète et à la protection du règne animal pour les générations à venir constitue aujourd’hui une préoccupation majeure pour la société, » a déclaré John Parkes, Directeur Marketing EMEA d’Ubisoft. « Planète Nature appartient à notre gamme de jeux grand public et dispose de plusieurs titres invitant les enfants à s’occuper d’espèces en voie de disparition et de l’environnement de manière à la fois amusante et interactive, au travers de multiples aventures aux quatre coins du monde. »

    Dans Planète Nature : Au Secours des animaux sauvages disponible sur Wii™ et Nintendo DS™, chaque joueur vit une aventure incroyable dans la peau d’un jeune vétérinaire qui soigne des animaux domestiques ou exotiques et qui cherche à expliquer la cause du mal dont souffre chaque animal.

    Planète Nature : Au Secours de l’île tropicale sur Nintendo DS™ permet au joueur de rejoindre une équipe de protection environnementale en mission pour préserver la faune et la flore d’une île magnifique, menacées par la pollution.

    Les titres Planète Nature, tous classés 3+ selon le système PEGI, sortiront sur les territoires EMEA en novembre 2008.

    Source : le 22/08/08 UBISOFT par email

  • Du manga au serious game : L’industrie du jeu vidéo au Japon

    C’est à Tokyo et à Osaka que la mission VirtualTech3 s’attachera à percevoir l’interaction des conditions de cette réussite : la migration des technologies, la valorisation de la recherche et l’intégration des facteurs humains.

    Transinnova organise un voyage d’étude en janvier 2009.

    Ce voyage d’étude vous propose 10 jours de visites et de rencontres au cœur de l’industrie des jeux vidéo et du manga au Japon.Un voyage d’étude prospective consacré à l’image numérique et au jeu vidéo pour anticiper et comprendre les impacts des développements du jeu vidéo sur l’éducation et l’industrie, la valorisation de la recherche scientifique et technologique, et les facteurs humains.

    Vous êtes :

    – Chef d’entreprise
    – Responsable Ressources Humaines
    – Chercheur
    – Responsable d’agence de développement économique

    Grâce à ce voyage d’étude :

    -Vous comprendrez mieux les facteurs de réussite d’une industrie qui modèlera une part majeure du monde économique, scientifique et culturel de demain
    -Vous identifierez des opportunités d’affaires avec des acteurs du jeu vidéo au Japon
    -Vous prendrez part au dialogue entre acteurs français et japonais du jeu vidéo, et utilisateurs industriels, scientifiques et éducatifs.

    Contact : jean-marc Leduc – http://transinnova2008.ning.com .