Catégorie : recherche

  • « Faire soi-même » les jeux vidéo : l’exemple de l’additiel

    Au fur et à mesure de leurs expériences ludiques et du développement des jeux vidéo, les joueurs acquièrent une expertise qui enrichit leur encyclopédie et leur permet d’interagir avec le jeu. L’encyclopédie est l’ensemble des connaissances et expériences d’un individu ou d’une collectivité auxquelles l’individu se réfère pour construire le sens du monde qui l’entoure (Eco, 1984). L’encyclopédie du joueur est constituée des expériences perceptives, des affects et des connaissances spécifiques ou non aux jeux vidéo et est sans cesse réutilisée pour reconnaître, comprendre et interagir avec le jeu. Cette encyclopédie se transforme au fil des expérience de vie et de jeu du joueur et son enrichissement permet un plus grand contrôle sur l’expérience de jeu : des connaissances plus grandes du jeu vidéo permettent non seulement de « jouer le jeu », mais aussi de se l’approprier à son avantage (corrélation foucaldienne entre le savoir et le pouvoir).

    En effet, si l’espace de jeu est délimité par un cadre conceptuel et technologique dont le joueur doit tenir compte, à l’intérieur de ces limites, le joueur possède un espace d’appropriation suffisant pour percevoir, interpréter et évaluer le jeu de manière unique pour ensuite interagir avec les éléments du jeu.

    Les choix de jeu mis en place par les concepteurs offrent un cadre interprétatif aux joueurs qui borne les possibilités d’action dans le jeu, mais qui ne les prédétermine pas entièrement. L’espace d’appropriation, non seulement rend possible le déploiement du jeu puisque, par définition, il permet l’existence d’un espace de jeu (de mouvements), mais, en plus, il permet de transformer le jeu (de manière physique ou interprétative). Le joueur, en maîtrisant les signes et les règles organisant les jeux vidéo, peut s’approprier le jeu, le faire sien et devenir alors le créateur de sa propre expérience ludique. Les jeux vidéo sont principalement développés par les concepteurs et éditeurs de jeux vidéo, mais les joueurs participent à l’élaboration des représentations, des significations et des usages. Grâce à leurs connaissances, les joueurs peuvent agir sur le jeu et peuvent « faire (en partie) eux-mêmes » les jeux vidéo – particulièrement les jeux vidéo en ligne.

    S’approprier le jeu

    Définition du jeu
    L’expression « faire soi-même » les jeux vidéo ne réfère pas à tous ces joueurs qui créent leurs propres jeux vidéo, indépendants, et qui sont diffusés à l’extérieur des circuits commerciaux ni au fait que les concepteurs soient, dans la presque totalité des cas, eux-mêmes des joueurs. Il est plutôt question ici de ces joueurs qui ne travaillent pas pour un éditeur de jeux, mais qui participent tout de même, à leur manière, au développement des jeux vidéo commerciaux ou, du moins, qui leur donnent de nouvelles significations.

    En effet, une partie de la communauté des joueurs expérimentés s’approprie les jeux vidéo pour les développer ou faire des détournements de sens et d’usage. Cela ne concerne pas l’expérience que vivent tous les joueurs, mais présente une réalité vécue par une partie de la communauté et est le reflet d’une certaine mentalité présente chez des joueurs, surtout ceux qui sont expérimentés (hardcore gamers). Les jeux vidéo commerciaux sont des produits finis, mais, pourtant, une fois mis sur le marché, ces jeux continuent d’être transformés grâce à l’intervention de certains joueurs.

    D’un point de vue philosophique, la liberté des joueurs de « faire soi-même » le jeu est inscrite dans la définition même du jeu. Selon Colas Duflo, le jeu est « l’invention d’une liberté dans et par une légalité » (1997 : 57), le point de rencontre entre la liberté et les contraintes étant justement le jeu. Le « jeu » est cet interstice entre des pièces, c’est-à-dire un espace libre permettant le mouvement, mais qui est encadré par des barrières définies. La contingence fait partie de la définition du jeu et cette marge assure l’exercice du jeu, qui se renouvelle sans cesse. Si celui-ci est un ensemble de règles et de représentations données a priori, seul le joueur en actualise l’expression : le jeu est nécessairement « performé » par le joueur et dépend de l’attitude qu’il adopte face au jeu.

    Ce dernier devient ce que le joueur en fait comme expérience, mais, si le joueur affecte le jeu, il est aussi affecté par lui d’une manière qui n’est jamais statique. Même en suivant les règles à la lettre, le joueur donne une forme nouvelle au jeu, grâce à son encyclopédie (perceptuelle, conceptuelle et affective), et rend possible l’existence du jeu. Son expérience de jeu, d’une partie à l’autre, d’une fois à l’autre, ne sera jamais la même, car l’encyclopédie du joueur évolue et, par le fait même, l’interprétation et l’expérience qu’il fera du jeu.

    Bien sûr, certains jeux, comme le jeu vidéo, peuvent conditionner à certains types d’expérience et il peut être difficile de maîtriser l’objet. Or, il est impossible de circonscrire complètement ce que deviendra le jeu : une fois sur le marché, rien n’en garantit son interprétation et son usage et des connaissances et/ou une imagination suffisantes dans le domaine (liées à une attitude face au jeu) permettent aux joueurs d’agir sur le jeu. La rencontre entre les limites du jeu vidéo et les possibilités d’interprétation et d’action est le lieu de médiation, le lieu où le joueur s’approprie le jeu pour en répéter les règles ou les transformer – en d’autres mots, pour singulariser son expérience ludique grâce à l’appropriation.

    L’espace d’appropriation
    L’espace d’appropriation est un espace plus ou moins créatif pour interpréter le monde et, éventuellement, l’adapter (plus ou moins consciemment) à son usage. Le joueur s’approprie le jeu et peut pousser ses règles, les suivre, les transformer, les réinventer. Le joueur est un médiateur qui, pour reprendre les mots de Latour (1997), peut traduire ce qu’il transporte, le redéfinir, le redéployer et le trahir. L’espace de jeu a une autonomie à part entière et les concepteurs de jeux, bien qu’ils instaurent des limites (conceptuelles et technologiques) au média, ne peuvent en contrôler l’entière utilisation : en tant que médiateur, un joueur peut entretenir des rapports imprévisibles avec le jeu.

    Le joueur, même placé au cœur d’un cadre solide, se construit un espace de jeu pour faire sien l’univers qui lui est présenté et procéder à des détournements (De Certeau, 1980). La pratique et l’attitude des joueurs définissent ainsi ce que sont les jeux vidéo et ce, dans un processus en constant devenir qui n’est pas (entièrement) contrôlé par les concepteurs (Malaby, 2007).

    Ces façons de s’approprier le jeu, qui ne sont parfois pas prévues par les concepteurs et éditeurs de jeux, permettent un équilibre entre ce que le jeu propose et la façon dont le joueur en dispose. Plusieurs joueurs font preuve d’initiatives dans l’appropriation des jeux vidéo et cette appropriation prend différentes formes : une appropriation ludique, comme, par exemple, le fait de jouer à la cachette ou aux dominos géants dans un jeu de tirs à la première personne (shooter) tel que HalfLife; une appropriation sociale où, dans un jeu de rôle en ligne tel que World of Warcraft, des joueurs organisent des initiations ou des fêtes via des avatars; une appropriation politique, où, dans un jeu de rôle tel que SecondLife, des joueurs se réunissent, via leurs avatars, pour manifester ou faire des campagnes de sensibilisation; une appropriation économique comme, par exemple, le fait de développer une économie parallèle en vendant des objets pixellisés en échange de dollars dans des jeux tels que EverQuest; une appropriation éthique, comme, par exemple, dans le jeu de stratégie en temps réel, Mankind, où des joueurs se sont spontanément faits les « gardiens du Bien »; une appropriation esthétique comme, par exemple, tous ces jeux qui servent de décor pour la création de films ou de vidéoclips par des joueurs (ce qu’on appelle des machinimas).

    Les additiels

    Ce qu’est un additiel
    De nombreux autres exemples d’appropriation pourraient être cités, car il ne faudrait pas croire que ces cas sont isolés. Cependant, dans le cadre de cette communication et dans l’optique du « faire soi-même », l’exemple le plus probant de la participation des joueurs au développement des jeux vidéo commerciaux grâce à leur appropriation est le développement d’additiels (add-ons) par certains joueurs expérimentés. En effet, les joueurs qui veulent améliorer le jeu ou leur expérience ludique programment des additiels qui viennent se greffer au jeu.

    L’additiel est un petit programme qui est ajouté au logiciel du jeu et qui permet d’effectuer certaines fonctionnalités.Dans un jeu tel que World of Warcraft, la plupart des additiels ont une fonction informative et/ou ils facilitent les actions dans le jeu. Par exemple, un additiel appelé Healbot permet non seulement d’afficher la ligne de vie de tous les joueurs qui sont dans la même équipe qu’un healer (la fonction de certains joueurs est de donner de la vie), mais aussi de donner de la vie directement, à l’aide d’un seul clic pour l’ensemble des joueurs (au lieu de sélectionner les joueurs les uns après les autres, ce qui peut être particulièrement difficile en pleine bataille).

    D’autres additiels indiquent les sorts que sont en train de lancer les ennemis, le niveau de dommages que les joueurs font, la valeur des objets à l’encan, etc.

    Ces additiels sont créés par les joueurs eux-mêmes et échangés gratuitement sur des sites qui leur sont spécifiquement dédiés, tels que wowace.com et curse.com pour World of Warcraft. Les joueurs téléchargent et installent les additiels dans un dossier spécifique du jeu. Une fois le jeu lancé, le joueur peut mettre en fonction l’additiel et parfois décider de son lieu d’affichage. Certains joueurs peuvent en installer plus d’une centaine : on constate alors que non seulement leur interface de jeu n’est plus du tout comme celle d’origine, mais l’expérience même de jeu est différente. Le contrôle, la performance et les facultés requises ne sont plus les mêmes et le jeu se trouve passablement transformé.

    Certains joueurs, d’ailleurs, reprochent aux additiels de trop simplifier la vie des joueurs et sont qualifiés de tricherie (« ce n’est plus le jeu ») alors que d’autres affirment qu’ils sont un moyen de jouer plus efficacement (« c’est le jeu, en mieux »). D’ailleurs, il est fort probable que les additiels créés par les joueurs, dans le jeu World of Warcraft, ont été la cause d’une réussite si rapide du jeu en entier par les joueurs (le fait que les joueurs complétent si rapidement le jeu, lors de son expansion Burning Crusade, par exemple, a surpris l’éditeur du jeu, Blizzard Entertainment).

    En fait, les additiels offrent des avantages indéniables aux joueurs qui les possèdent : ces utilisateurs ont plus d’informations, peuvent prendre de meilleures décisions, réagir plus vite, être plus efficaces. En d’autres mots, les additiels permettent d’améliorer la performance de jeu en fournissant des informations supplémentaires au joueur et/ou en réduisant son temps de réaction. Il faut bien comprendre que dans le type d’univers tel que World of Warcraft, une majorité de joueurs veulent être performants.

    Pour cela, ils doivent contrôler le plus possible le jeu et ce contrôle passe par l’expérience, par l’accumulation de connaissances, par la réception d’informations en temps réel et par un temps de réaction le plus court possible. Les joueurs passent des heures à s’informer auprès des autres joueurs au moment du jeu, mais aussi lorsqu’ils quittent l’interface de jeu : ils fréquentent des sites web créés par des joueurs, lisent de la documentation aussi préparée par des joueurs, consultent des livres, etc. Certains joueurs rédigent des « manuels » d’utilisateurs pour aider les autres joueurs ou développent des méthodes de calculs statistiques pour améliorer leurs performances et celles des autres joueurs. L’éditeur du jeu n’a rien à voir avec le contenu de ces documents, entièrement faits par les joueurs et partagés entre eux.

    Le partage des additiels

    Ce qui est fascinant avec l’exemple donné par les additiels, c’est qu’ils sont partagés entre tous les joueurs alors que ceux-ci sont très compétitifs entre eux et cherchent par tous les moyens à améliorer leur performance. Le joueur qui crée (code) un additiel, au lieu de le garder pour lui-même et d’avoir cet avantage sur les autres joueurs (et pouvoir être le meilleur), le donne en accès libre pour que tous puissent en profiter. Tous les joueurs ont accès à ces additiels et peuvent, à leur tour, transformer une partie du jeu. Il faut beaucoup de connaissances, autant du jeu que de l’informatique pour pouvoir programmer un additiel et la réalisation de ces ajouts au jeu n’est pas donnée à tous. Cependant, plus les joueurs enrichissent leur encyclopédie, plus ils sont à même d’agir sur le jeu : plus ils ont de connaissances, plus les joueurs ont un pouvoir direct sur le jeu et son expression et peuvent, par exemple, créer des additiels.

    Il faut aussi mentionner que tous les additiels sont écrits en code source ouvert et tous peuvent les modifier pour les améliorer. Ces modifications sont ensuite partagées avec la communauté des joueurs qui effectuent à leur tour d’autres améliorations ou en créent carrément des nouveaux. L’esprit de cette communauté de joueurs est que le partage de leur travail est le meilleur moyen de tester et d’améliorer leurs habiletés en programmation, d’apprendre grâce aux commentaires et suggestions des autres (feedback) et de développer de meilleurs additiels en mettant en commun les forces de tous les programmeurs. « Faire soi-même » des additiels pour des jeux vidéo est un moyen d’apprendre qui passionne plusieurs joueurs.

    En fait, outre l’amélioration de ses compétences, le joueur créateur d’additiels obtient une reconnaissance de la part de la communauté des joueurs – reconnaissance de sa valeur comme joueur, mais aussi reconnaissance de ses talents en informatique et du don qu’il a fait. La communauté de joueurs joue un rôle important dans l’expérience de jeu et dans l’apprentissage faite de la programmation et cette communauté ne doit pas être sous-estimée quant à son pouvoir d’agir sur les jeux vidéo et leur développement.

    Les passionnés d’un jeu vidéo unissent leurs forces pour développer des additiels (mais aussi des usages particuliers) et leur travail et expériences sont partagés dans la communauté des joueurs (principalement grâce à Internet). Cette façon de penser n’est d’ailleurs pas étrangère à la culture hacker et à cette communauté. Avant d’aller plus loin, il faut préciser que le mot hacker ne doit pas être confondu avec le mot « cracker », qui désigne les pirates informatiques ayant l’intention de nuire (to crack – briser). Les hackers sont plutôt des passionnés d’informatique associés au mouvement du logiciel libre et des valeurs qui y sont véhiculées.

    Les joueurs/Hackers

    La mentalité hacker

    Toute la mentalité des hackers se base sur la coopération, l’échange, la « gratuité », l’enseignement participatif, le partage, la considération pour les autres, l’ouverture, la liberté d’expression, la créativité, la passion, le respect de la vie privée, la résolution de problèmes en groupe, le développement de meilleurs outils utiles à tous, la liberté d’utilisation et de critique, la possibilité de participer au développement, un pouvoir décentralisé et l’absence de hiérarchie autre que celle basée sur les résultats produits par chacun. Bien sûr, comme le souligne Himanen, qui a écrit le livre L’éthique hacker et l’esprit de l’ère de l’information (2001), ces valeurs sont des idéaux, pas nécessairement toujours atteints, mais qui sont tout de même une direction qui guide le mouvement hacker du « libre ».

    Ces valeurs d’égalité sociale, de participation du citoyen et de reconnaissance de la créativité de l’individu ne sont pas sans rappeler les bouleversements sociaux qui ont eu lieu en Occident dans les années 1960-1970, au moment même de la révolution informatique et des balbutiements des premiers jeux vidéo. Des noms tels que Russells, Wozniak, Thompson, Ritchie, Jobs, Bushnell, Pajitnov, Cerf, Berners-Lee, Andreessen, Torvalds, Joy et Stallman sont associés à l’histoire de l’informatique et des jeux vidéo.

    Ces passionnés d’informatique ont développé l’ordinateur personnel, les premiers logiciels et consoles de jeux vidéo, le réseau Internet, la Toile (World Wide Web), le protocole TCP/IP, les serveurs Apache, différents logiciels dont un fureteur et même un système d’exploitation (Linux). Ils ont eu une influence majeure dans la révolution de l’informatique, eux-mêmes inspirés par les « pères de l’informatique », John von Neumann (1903-1957), Alan Turing (1912-1954) et autres Shannon qui ont, selon l’éthique scientifique, partagé leurs connaissances et leurs découvertes avec l’ensemble de la communauté pour favoriser l’émergence du savoir (en l’occurrence, l’informatique moderne).

    L’histoire de l’informatique et celle des jeux vidéo sont donc intimement liées à l’histoire du mouvement hacker. Bien que l’entreprise privée ait désormais pris le contrôle presque total du développement des jeux vidéo commerciaux, la mentalité du « libre », à travers le Web (qui, rappelons-le, échappe encore aujourd’hui au contrôle de l’État ou de l’entreprise privée), continue d’influencer les esprits. Les joueurs sont baignés dans cette culture du « libre » et les jeux se pratiquant sur le réseau sont d’autant plus influencés par la culture hacker.

    À travers l’histoire du développement des jeux vidéo, les exemples sont nombreux démontrant les diverses manières dont les joueurs se sont appropriés les jeux vidéo, conformément à la mentalité hacker, ou ont participé directement au développement de certains jeux.

    Le développement des jeux vidéo par les joueurs

    Les concepteurs du premier jeu vidéo de tir à la première personne (FPS) en réseau avaient d’ailleurs bien compris que la culture hacker profiterait à l’industrie du jeu vidéo, si elle était bien « canalisée ». L’éditeur de jeux vidéo Id Software, créé en 1991 suite au succès du jeu Commander Keen, réunit trois jeunes hackers qui réalisent le célèbre Wolfenstein 3D. En 1992, ils éditent le jeu Doom, un  jeu de tir se jouant à quatre joueurs. La première partie du jeu (sur les trois développées) a été distribuée gratuitement sur Internet et les copies se sont multipliées, de façon tout à fait légale. Les joueurs, s’ils avaient apprécié cette première partie, pouvaient obtenir le jeu au complet pour une modique somme transitée sur le web. Id Software n’ayant pas à faire affaire avec le système de distribution (avec plusieurs intermédiaires à payer) s’est vu récolter tous les profits directement, inaugurant ainsi un nouveau modèle économique conforme à l’ère du commerce électronique (Ichbiah, 2004 : 192). Les joueurs ont d’ailleurs fait eux-mêmes la publicité pour ce jeu, qui s’est rapidement dissiminé grâce à Internet.

    Plus intéressant encore, le moteur du jeu a été rendu disponible pour les joueurs et ils ont pu le modifier pour développer leurs propres environnements. Ainsi, Doom a été développé grâce à la participation des joueurs et hackers qui se sont littéralement appropriés le jeu, conformément à l’éthique hacker.

    La communauté Internet a contribué à l’amélioration du jeu. Partout dans le monde, des joueurs se sont affairés pour développer de nouveaux décors pour Doom. Certains programmeurs de haut niveau ont même « démonté » le logiciel et créé des outils permettant de le faire évoluer. Une fois qu’un joueur avait terminé Doom, il pouvait donc récupérer les centaines de niveaux disponibles sur Internet. Bien qu’id Software n’ait tiré aucun profit direct d’une telle ébullition, celle-ci a amplifié le phénomène Doom. Ce jeu s’étant ainsi vu doté d’une forme d’évolution spontanée (Ichbiah, 2004 : 193).

    Pour la suite de Doom, id Software a mis en ligne trois niveaux de son nouveau jeu, Quake (qui se joue à 16 joueurs simultanément), pour qu’il soit testé par les joueurs eux-mêmes. « Deux jours plus tard, des listes d’anomalies affluent dans la boîte aux lettres électronique des programmeurs. Certains ‘bidouilleurs’ ont eux-mêmes concoctés des corrections et ne sont que trop heureux de les fournir à id Software (Ichbiah, 2004 : 202) » . D’ailleurs, le fait que Quake puisse se jouer à seize joueurs entraîne la création de serveurs par des joueurs passionnés par le jeu et le succès du jeu est garant de l’apport des joueurs pour le développer et le diffuser (et d’autres jeux, tel que Team Fortress, seront développés à partir de l’engin de Quake).

    Sur le même modèle économique et selon la même éthique hacker seront aussi développé les jeux de tir Duke Nukem, Unreal et Counter Strike (un mod du jeu Half-Life qui deviendra extrêmement populaire). D’autres types de jeux se font littéralement approprier par les joueurs qui en développent des usages (tel que le conc jumping) ou même du contenu (avec les additiels ou des objets intégrés au jeu). Herz, dans son article « Gaming the System », donne l’exemple de Sim City: le jeu a été accompagné d’outils pour permettre aux joueurs de créer leurs propres éléments dans le jeu. Rapidement, les joueurs se sont mis à fabriquer leurs propres objets et à personnaliser leur jeu (custom).

    Cette décision de la compagnie de permettre aux joueurs de développer le jeu a été un succès à tous les niveaux : les joueurs ont apprécié personnaliser leur expérience ludique, créer leurs propres éléments du jeu et échanger leur production alors que les concepteurs profitaient de cet engouement qui n’exigeait aucun investissement. Tellement que, selon Herz, quatre-vingt-dix pourcent du contenu du jeu était, en 2002, produit par les joueurs eux-mêmes. Selon l’auteur, la principale motivation des joueurs serait la reconnaissance des autres joueurs face à leur production et Herz parle de la « social ecology of videogames » (2002 : 91). Créer une partie du jeu, c’est prolonger l’expérience ludique du joueur et, désormais, grâce au réseau d’Internet, ces créations peuvent être partagées avec des milliers, sinon des millions de joueurs.

    It is this web of relationships between players that sustains the videogame industry […] it was not hardware or software that drives innovation in videogames. Rather, it is the intersection of open architecture and on-line social dynamics that drives the medium forward. A highly networked, self-organizing player population is given the tools to customize and extend games, create new levels, modifications and characters (Herz: 2002: 93 et 97).

    Certains partisans du « libre » ont d’ailleurs affirmé que, sans l’intervention des hackers, nombre des réalisations liées aux nouvelles technologies n’existeraient tout simplement pas aujourd’hui. Nous pourrions ajouter que le dévelopement des jeux vidéo serait différent sans l’apport des joueurs/hackers. Le développement du jeu s’inscrit dans cet héritage du « libre » et une partie des joueurs continue de faire des usages originaux des jeux vidéo et de les transformer, conformément à l’éthique hacker du partage, de l’enseignement coopératif et de la passion. L’exemple de l’additiel est, à cet égard, révélateur, mais plusieurs autres exemples, pour différents types de jeux, pourraient être donnés démontrant à quel point le développement des jeux vidéo commerciaux a été garant et dépend encore aujourd’hui en partie de l’usage fait par la communauté des joueurs.

    Conclusion

    Bien sûr, dans cette présentation, seuls quelques exemples ont été donnés et certains aspects importants de la question n’ont pas été abordés. Par exemple, il n’a pas été question de la façon dont les développeurs et éditeurs de jeux exercent un contrôle à la fois sur l’expérience de jeu des joueurs et sur les possibilités de développement du jeu. Pour revenir au jeu World of Warcraft, il faut mentionner que Blizzard Entertainment, l’éditeur du jeu, intègre, tolère ou interdit chacun des additiels qui sont ajoutés au jeu et a toujours un droit de regard sur les additiels qui sont utilisés.

    Blizzard Entertainment a toujours le dernier mot sur l’usage qui est fait du jeu et demeure le propriétaire de tout le matériel qu’il s’approprie (de tous les additiels intégrés au jeu). L’éditeur demeure le principal producteur du contenu du jeu et l’apport des joueurs demeure modeste par rapport à la programmation réalisée par les employés de la compagnie. Blizzard Entertainment n’a pas le contrôle total lors de l’actualisation du jeu, mais il fait en sorte d’avoir le plus de pouvoir possible (autant d’un point de vue de la programmation que d’un point de vue juridique ou autres).

    Cependant, la compagnie n’a pas intérêt à empêcher complètement les joueurs de développer des additiels, car, parmi ces productions et ces usages, plusieurs ont été ou seront reprises dans les versions subséquentes du jeu. Ces joueurs informaticiens qui programment des additiels développent le jeu et leurs créations peuvent être intégrées à la plate-forme ludique sans rénumération de la part de Blizzard Entertainment. En outre, des usages ludiques ou artistiques tels que les machinimas constituent un outil de promotion pour les compagnies, car ces films produits dans les décors de leurs jeux peuvent être visionnés des milliers de fois grâce à une diffusion sur Internet. Si la mentalité hacker imprègne une grande partie de la communauté des joueurs et du web 2.0. en général, les éditeurs de jeux vidéo commerciaux profitent de ces créations, même si c’est parfois de manière marginale.

    En regardant l’exemple des additiels, il est vrai de dire que très peu de joueurs verront leurs productions être intégrées aux jeux vidéo commerciaux. Cependant, tous les joueurs, à des échelles différentes, s’approprient le jeu et font preuve, à un moment ou un autre, de créativité, ne serait-ce que dans l’interprétation et l’expérience, nécessairement uniques, qu’ils en font. Les jeux vidéo prédisposent certainement à un certain type d’interprétation et d’usage, mais, au bout du compte, ils ne prédéterminent pas ce que le joueur en fera.

    S’il n’était pas possible, pour le joueur, de s’approprier le jeu et d’exercer sa liberté dans la contingence du jeu, l’expression des jeux vidéo ne serait pas celle qui est observée actuellement : il est d’ailleurs fort à parier que, si les joueurs étaient aussi contraints que certains l’affirment et qu’ils ne pouvaient pas « faire (en partie) soi-même » le jeu, les joueurs ne joueraient pas autant… Comme dirait Duflo, l’humain joue pour apprendre sa liberté (1997 : 75).

    Communication scientifique LUDOVIA 2008 par Maude BONENFANT (extraits)
    HOMOLUDENS, Groupe de recherche sur la communication et la socialisation dans les jeux vidéo
    GERSE, Groupe de recherche sur la sémiotique des espaces
    Université du Québec à Montréal (UQAM)

  • Advene, une plate-forme ouverte pour la construction d’hypervidéos

    On dispose donc potentiellement d’une énorme base d’informations audiovisuelles. Cependant, les outils pour les appréhender sont encore en développement : pour exploiter des documents audiovisuels, il est nécessaire de leur adjoindre des informations supplémentaires permettant leur indexation, leur enrichissement. Ces informations supplémentaires, appelées génériquement métadonnées, peuvent avoir un degré interprétatif plus ou moins fort (d’un sous-titrage reprenant exactement les dialogues d’un film jusqu’à une critique totalement personnelle d’un film) et une granularité temporelle plus ou moins importante (du sous-titre lié à un fragment spécifique du film à la fiche documentaire décrivant l’ensemble du film).

    Les sites web de partage de vidéo tels que Dailymotion ou Youtube permettent aux utilisateurs d’associer des commentaires à chaque vidéo, mais non à des fragments de vidéo. De plus, ces commentaires ne sont pas structurés, ce qui en rend la réexploitation difficile. À l’inverse, certains outils spécialisés utilisés en recherche permettent d’annoter précisément des fragments de vidéo avec des informations très structurées, mais leur utilisation est ardue et contrainte en termes de possibilités d’annotations et de visualisations.

    Pour faciliter l’analyse et le commentaire de documents audiovisuels, il est nécessaire de fournir un moyen flexible d’associer des informations à des fragments de la vidéo, ainsi que de permettre de les structurer pour faciliter leur exploitation ultérieure (recherche, visualisation).

    Comme développé dans (Aubert-Prié, 2005), les nouveaux documents générés à partir des métadonnées associées aux vidéos peuvent être considérées comme des hypervidéos, i.e. des documents hypermédias avec une forte composante audiovisuelle. La construction et l’échange de ces hypervidéos permet d’effectuer un travail collaboratif sur des documents audiovisuels. Il est donc nécessaire de fournir des outils permettant aux utilisateurs de définir leurs propres métadonnées associées aux documents audiovisuels, ainsi que leurs propres visualisations de ces métadonnées.

    Cette appropriation des données et de leurs visualisations, pour son travail propre ou pour un partage ou un exposé avec d’autres personnes, peut être le cadre d’une véritable innovation par le bas, permettant de développer de nouvelles pratiques d’interaction avec les documents audiovisuels.

    Le projet Advene

    Les objectifs
    Le projet Advene vise à développer une plate-forme ouverte pour la conception des hypervidéos et la navigation dans celles-ci, permettant 1/ d’annoter des documents audiovisuels, i.e. d’associer des informations à des fragments spécifiques de la vidéo ; 2/ de fournir des modes de visualisations améliorés de la vidéo se basant sur la structure d’annotation ; 3/ d’échanger les annotations et les modes de visualisations associés indépendamment du document audiovisuel original, sous la forme d’unités documentaires appelées recueils.

    advene1309200812Illustration 1: Le principe général d’Advene

    L’objectif du projet est de favoriser l’émergence d’usages innovants des documents audiovisuels. Il permet aux utilisateurs d’expérimenter rapidement de nouvelles idées utilisant ou réutilisant des métadonnées, en intégrant trois étapes du cycle de vie des métadonnées : leur création et évolution, leur visualisation et leur échange.

    Le principe général d’Advene, comme le montre la figure 1, est de transmettre et d’utiliser en un seul document, appelé recueil, à la fois les métadonnées et la spécification de leurs visualisations. Le recueil peut être partagé de différentes manières (courriel, téléchargé depuis un serveur web…), indépendamment du document audiovisuel lui-même, et réutilisé par d’autres personnes. Cette utilisation peut se résumer à une simple utilisation des métadonnées pour naviguer dans le document audiovisuel ou à la consultation de documents hypermédias générés à partir des visualisations spécifiées par l’auteur du recueil.

    Cependant, l’utilisateur possédant une copie des métadonnées et des définitions de visualisations, il peut également en envisager une exploitation plus active, en modifiant ou enrichissant les métadonnées ou leurs visualisations. Il peut ainsi ajouter de nouvelles métadonnées, les visualiser à travers des visualisations préexistantes, ou créer de nouvelles visualisations créant ainsi d’autres modes de représentation.

    Considérons par exemple une communauté de cinéphiles discutant du film de Murnau « Nosferatu », et souhaitant analyser précisément la manière dont le sentiment d’horreur est rendu. Une des personnes place sur son serveur web un recueil proposant un découpage en plans du film et une sélection des séquences intéressantes. Afin de faciliter leur visualisation, il définit également une vue hypertexte commentant les séquences les plus intéressantes, avec des liens directs permettant de les visualiser, proposant ainsi une sorte de chapitrage sélectif. Un autre utilisateur étend ce recueil en indexant les panneaux d’intertitre apparaissant dans le film, permettant ainsi une recherche textuelle dans leur contenu.

    Il définit de plus une visualisation améliorée de la vidéo affichant sous la forme de sous-titres la traduction française du contenu des panneaux. Le nouveau recueil contenant ces nouvelles métadonnées et visualisations est alors mis à disposition de la communauté sur le site web, et sert de référence pour les discussions ultérieures. Dans tous ces échanges, seules les métadonnées et la spécification de leur visualisation sont échangées par les participants, chacun possédant sa propre copie du film.

    Pour fournir ces possibilités, le projet Advene définit un modèle de données basé sur le modèle des hypervidéos décrit dans (Aubert-Prié 2005). Le modèle est composé de trois principaux éléments1 : la structure d’annotation (des annotations et des relations, structurées), les vues (définissant la manière de présenter la structure d’annotation conjointement avec le document audiovisuel) et les requêtes (permettant de sélectionner dynamiquement des éléments du modèle). Les annotations sont des informations de toute nature (du texte simple pour les besoins élémentaires et la lecture active, des commentaires audio, des documents PDF ou des images, etc) qui sont liées à un fragment spatio-temporel spécifique du document audiovisuel, qui seront ensuite utilisées pour produire des visualisations. Comme nous le verrons par la suite, les vues sont personnalisables, voire complètement définissables, par l’utilisateur. Enfin, les requêtes fournissent un moyen d’effectuer des recherches au sein de la structure d’annotation.

    Architecture globale
    Le prototype Advene est un logiciel libre (licence GNU GPL), multiplateformes (Linux, Mac OS X, Windows), qui réutilise de nombreux composants existants (lecteur vidéo VLC, serveur web, langage de templates). Le prototype ainsi que des recueils d’exemples sont librement téléchargeables depuis le site http://advene.org/. Les exemples illustratifs dans cet article sont tirés du recueil de démonstration Nosferatu, que le lecteur est invité à télécharger afin d’explorer les possibilités d’Advene.

    L’application Advene intègre et contrôle un lecteur vidéo, ainsi qu’un serveur web permettant de transmettre à des navigateurs web standards les documents XHTML générés. Un gestionnaire d’événements interne surveille les différents événements intervenant durant l’utilisation de la plate-forme, et peut déclencher diverses actions sur cette base, fournissant ainsi l’infrastructure permettant de définir des vues dynamiques.

    Advene peut utiliser différents lecteurs vidéos, qui peuvent ne pas tous proposer les différentes fonctionnalités nécessaires à un rendu enrichi des hypervidéos. Le principal lecteur utilisé,VLC2, est un lecteur vidéo multiplateformes et flexible, qui permet de lire quasiment tout format de vidéo sur tout médium (fichier vidéo, DVD, flux vidéo). Nous l’avons étendu par un module de contrôle, ainsi que par des fonctionnalités supplémentaires telles que le rendu de graphiques (au format SVG) sur la vidéo3.

    La plate-forme Advene favorise l’émergence d’utilisations novatrices de métadonnées audiovisuelles. Son système de rendu se basant sur des modèles et la définition de vues dynamiques à base de règles, qui seront décrits plus précisément par la suite, permettent de spécifier rapidement de nouvelles représentations de métadonnées. Des tâches ou visualisations plus complexes peuvent être programmées en python, le langage d’implémentation de la plate-forme, et intégrées dans l’application via une infrastructure de greffons (plugins).

    Cette plate-forme permet donc d’étudier et d’expérimenter différentes pratiques liées à la lecture active de documents audiovisuels, dont la création d’annotations et leur visualisation de diverses manières.

    Création d’annotations
    Les annotations peuvent être créées suivant plusieurs modalités. Tout d’abord, les données peuvent être importées depuis des applications tierces telles que des programmes d’analyse automatique. En effet, la plate-forme Advene peut intégrer des informations de toute nature liées à des fragments spécifiques du document audiovisuel. À travers l’infrastructure de plugins, de nouveaux formats d’import de données peuvent être définis et proposés à l’utilisateur. Il est ainsi aisé d’intégrer et tester de nouveaux algorithmes d’analyse automatique, en utilisant les fonctionnalités d’Advene pour visualiser et valider les résultats.

    De plus, des assistants d’annotation peuvent guider la création des métadonnées, en fournissant des données incomplètes ou imprécises que l’utilisateur doit finaliser, de manière plus ou moins interactive. Ainsi, un pré-découpage temporel automatique peut être utilisé comme base de travail par l’utilisateur, et amélioré manuellement.

    Enfin, les annotations peuvent être créées totalement manuellement, en utilisant le composant de prise de notes au vol, celui de gestion de signets ou encore la ligne de temps. La prise de notes, par exemple, offre un moyen simple et rapide de produire des données textuelles liées temporellement au film, en prenant simplement des notes lors de la visualisation du film. Des marques de temps sont automatiquement (ou à la demande) insérées dans le texte, permettant ainsi de générer des annotations situées temporellement dans le flux.

    Quelle que soit la modalité de création utilisée, les annotations créées peuvent être précisées en modifiant leur contenu, leur type (en catégorisant une annotation générique dans une catégorie plus spécifique) ou leurs bornes temporelles (en les alignant sur d’autres annotations, en les ajustant manuellement, etc).

    Visualisations
    Les métadonnées sont créées pour enrichir les documents audiovisuels avec des informations supplémentaires, permettant ainsi d’y naviguer ou d’y effectuer des recherches plus efficacement. Cependant, obtenir l’information adéquate ne représente qu’une partie de la tâche : il est également nécessaire de visualiser l’information obtenue, suivant des modalités adaptées à l’activité en cours. Il est donc important de fournir différentes manières de visualiser l’information, que l’utilisateur peut de plus personnaliser ou redéfinir pour les adapter à ses besoins. La version actuelle d’Advene offre trois types de vues : les vues ad-hoc (d’interface), les vues statiques (documents XHTML générés) et les vues dynamiques (lecture enrichie du document audiovisuel).

    advene1309200813Illustration 2: Interface générale d’Advene

    Retours d’utilisation
    La flexibilité de la plate-forme la rend utilisable dans divers domaines d’application, de l’enseignement de langues à la critique de cinéma ou à l’analyse de corpus de recherche. Voyons rapidement quelques exemples d’utilisations actuelles d’Advene.

    Une enseignante en langues l’utilise de manière simple pour préparer des travaux sur des films. Elle peut définir simplement une table des matières lui permettant d’accéder directement aux parties intéressantes du film. Les fonctionnalités de vues dynamiques lui permettent également de mettre le film en pause automatiquement à certains instants, afin de pouvoir poser des questions à ses élèves. Des enseignants de la cellule CERISE du CRDP de Lyon, qui travaillent sur l’éducation au cinéma au collège et lycée, utilisent également Advene comme outil d’exploration et de préparation de leurs interventions, accompagnés par un membre de notre équipe. L’objectif à terme est d’utiliser plus largement Advene lors de la réalisation des interventions.

    Dans le cadre du projet ANR Cinelab, mené conjointement avec l’IRI7 et le Forum des Images, Advene a servi d’outil de prototypage de nouvelles modalités d’interaction ou de rendu d’information lors de séances de travail avec des résidents critiques de cinéma. Cette collaboration entre l’équipe d’Advene et les critiques de cinéma a notamment permis d’améliorer les aspects de prise de notes, ainsi que de commencer un travail sur les différentes visualisations appropriés au domaine de la critique.

    Enfin, des chercheurs en sociologie du laboratoire RUC (Danemark) utilisent Advene pour analyser les enregistrements vidéos qui constituent leur corpus. Ce sont pour l’instant les utilisateurs, hors équipe Advene, qui tirent le plus parti des différentes fonctionnalités de l’outil : prise de notes, structuration des annotations, recherche d’informations pertinentes, définition de visualisations.

    Enjeux abordés
    Le projet Advene et sa matérialisation dans le prototype du même nom permettent d’aborder différentes pistes de réflexion :
    1/ la question du public visé et apte à s’emparer d’un nouvel outil pour construire de nouvelles pratiques;
    2/ la souplesse nécessaire pour permettre de développer des pratiques innovantes (qui pourra entrer en conflit avec la nécessaire convivialité d’un outil s’adressant à un large public) ;
    3/ les enjeux soulevés par le projet qui dépassent largement des aspects techniques ou ergonomiques et posent également des questions sur le droit d’auteur.

    1/ Le projet vise plusieurs catégories d’utilisateurs, s’inspirant ainsi de l’expérience du web : tout d’abord, une catégorie de « cinéphiles informaticiens », intéressés par l’objet du projet (l’échange d’informations sur des films) et ayant les capacités techniques leur permettant de s’emparer d’un outil pour l’améliorer (le prototype étant sous une licence libre GNU GPL). Ensuite, des « amateurs éclairés », non programmeurs, mais que l’absence d’interfaces graphiques d’édition ne rebute pas. Ces personnes sont capables de procéder par imitation (copier/coller de directives HTML par exemple), en utilisant pour modèle des documents préexistants qui leur semblent répondre au moins en partie à leurs desiderata.

    Enfin, des « amateurs utilisateurs », qui ont besoin d’outils graphiques d’édition pour créer de nouvelles visualisations ou de nouvelles structures d’annotation, ou réutiliser des définitions existantes. À travers cette démarche progressive, nous souhaitons voir émerger de nouvelles pratiques en termes de manipulation des médias audiovisuels, en fournissant une « boîte à outils » permettant de rendre plus accessible la conception de ces nouveaux modes d’interaction.

    2/ D’autres applications similaires existent, mais sont souvent liées à un domaine d’utilisation particulier tel que l’étude des gestes en interaction humaine (Kipp, 2004), l’édition de sous-titres8, etc. Ce lien permet d’intégrer dans la conception de l’application en général, et de l’interface en particulier, des contraintes implicites liées aux spécificités du domaine d’application. Dans la conception du projet Advene, nous avons cherché à rester le plus générique possible, de manière à offrir une plate-forme polyvalente capable de s’adapter à différentes tâches (Aubert-Prié, 2007). Cette polyvalence assumée se révèle parfois gênante pour l’adoption de l’application : d’une part, les utilisateurs peuvent être perdus au milieu de la variété d’outils disponibles et ne pas savoir lequel est le plus adapté à leur tâche. La plupart des outils polyvalents présentent le même problème, qui ne peut se résoudre que par des améliorations ergonomiques : il est nécessaire de porter une grande attention à l’accompagnement des utilisateurs ainsi qu’à la qualité de la documentation.

    D’autre part, la généricité et la souplesse de l’application rendent plus difficile la conception d’interfaces dédiées. La structure des données, leurs contenus, ne sont pas contraints. Il n’est donc pas possible de fournir de base des interfaces effectuant de la validation automatique des données, ou de la présentation. Pour cela, il est nécessaire d’apporter des informations supplémentaires (des métadonnées sur les métadonnées) indiquant les contraintes existantes, spécifiques à chaque domaine d’application. Mais l’expression de ces contraintes est elle-aussi source de complications. Le compromis ergonomie/polyvalence n’est donc pas aisé à trouver. Là encore, l’implication de différentes catégories d’utilisateurs doit permettre de faire évoluer l’interface en répondant dans la mesure du possible aux deux demandes.

    3/ Comme le souligne Von Hippel (Von Hippel, 2005), la dématérialisation liée à la numérisation des documents permet aux utilisateurs de devenir acteurs de l’innovation, et d’apporter eux-mêmes des réponses aux questions ou problème qu’il se posent. Cependant, cette possibilité d’innovation peut aller à l’encontre de principes légaux ou commerciaux établis, en particulier dans le domaine de l’audiovisuel9 : quelle est la limite dans les manipulations que l’on peut faire subir à un document audiovisuel ?

    Le fait de pouvoir spécifier des transformations (remontage, sous-titrage, etc.) à apporter à un document audiovisuel lors de la visualisation sans modifier le document lui-même entre-t-il en conflit avec la notion de droit d’auteur et d’intégrité de l’œuvre ? La notion même de document est affectée, en ce que la source des informations et leur rendu/visualisation finale peuvent faire l’objet de diverses transformations. Le projet Advene, de par ses principes, illustre ces différents problèmes. Le cadre légal évolue régulièrement, notamment par le biais des nouveaux usages. En contribuant à l’émergence de nouveaux usages, le projet Advene peut participer à ce mouvement.

    Conclusion
    Le projet Advene offre, dans le domaine de la lecture active de documents audiovisuels, une plate-forme flexible permettant l’expérimentation de nouvelles formes d’interaction avec les documents audiovisuels et leurs métadonnées. Cette expérimentation passe notamment par la possibilité offertes aux utilisateurs de définir eux-mêmes leurs propres structures d’annotations et leurs propres manières de les visualiser, ce qui veut favoriser l’émergence de nouvelles pratiques.

    Les domaines d’utilisation du prototype sont divers : de l’échange de commentaires et de critiques de cinéphiles amateurs à l’indexation et à la recherche dans des corpus audiovisuels dans le cadre de la recherche, jusqu’à l’exploitation pédagogique en cours de langue ou toute autre matière où le support audiovisuel peut être exploité.
    Ce projet mené depuis plusieurs années a donné lieu à des expérimentations avec des publics divers (chercheurs, enseignants, étudiants), et plus récemment avec des critiques de cinéma dans le cadre du projet ANR Cinelab. Ces expériences nous ont permis de guider les évolutions de la plate-forme, ainsi que de valider des pistes de recherche sur les principes de l’interaction avec des documents audiovisuels. Les développements se poursuivent suivant différents axes tels que l’annotation et l’interaction croisée de plusieurs documents audiovisuels, les pratiques collaboratives synchrones ou asynchrones, ou encore l’intégration des traces d’utilisation pour fournir une assistance à l’utilisateur.

    Communication scientifique Colloque Ludovia 2008 par Olivier AUBERT – Pierre-Antoine CHAMPIN – Yannick PRIÉ (extraits)
    LIRIS (UMR 5205 CNRS)
    Université Lyon I

  • Utiliser les potentialités du multimédia interactif

    Les outils de communication tels que les blogs ou les forums de discussion trouvent leur utilité et semblent exploités dans leurs possibilités techniques. Mais ces fonctionnalités ne doivent pas en faire oublier d’autres – plus complexes peut-être à mettre en œuvre d’un point de vue technique – présentant d’autres richesses qu’il serait dommage d’ignorer.

    Nous allons présenter ici des potentialités offertes par les capacités multimédia et interactives d’internet qui ont un réel intérêt pour l’enseignement et que les sites d’accompagnement scolaires auraient tout intérêt à développer. Les exemples que nous présenterons seront tirés de logiciels ludo-éducatifs actuellement disponibles sur cédéroms mais qui devraient pouvoir inspirer des concepteurs du web 2.0, qu’ils soient professionnels du multimédia ou de l’enseignement. Nous allons à la fois présenter des exemples intéressants et représentatifs des possibles à exploiter mais aussi des situations mal conçues qui empêchent une utilisation efficace d’un point de vue pédagogique.

    Des profils pédagogiques différents
    Comme un certain nombre de chercheurs en sciences de l’éducation, qui prônent la prise en compte des différences individuelles au-delà d’un simple respect du rythme de chacun, Antoine de la Garanderie met en évidence le fait que les individus ont des « profils pédagogiques » différents (1982). Certains, en effet, ont plus de facilités à interpréter et mémoriser une information s’ils la perçoivent par le canal auditif plutôt que par le canal visuel. Ou vice-versa. Bien sûr, chacun utilise les deux canaux à la fois mais il y en a généralement un qui est plus efficace que l’autre. A moins de capacités particulières ou d’entraînement à développer l’usage de l’autre canal, il sera donc plus facile pour quelqu’un qui a un profil pédagogique plutôt visuel de percevoir, de traiter et de garder en mémoire de l’information lorsque celle-ci se présente sous une forme visuelle (dessin, graphique, schéma ou texte écrit…).

    Un autre individu avec un profil plutôt auditif sera plus sensible, par exemple, à une explication orale. Le but n’est pas ici de créer des catégories fixes, réductrices voire normalisantes mais, au contraire, de tenter de mieux comprendre le fonctionnement de chacun pour mieux adapter le message au destinataire.

    Avec la pluralité des médias et des représentations, les concepteurs de produits multimédias ont la possibilité de s’adresser à une pluralité de destinataires. En effet, en prévoyant plusieurs modes sensoriels d’accès à l’information, les concepteurs envisagent qu’il y a des interprétants différents dans leurs profils pédagogiques respectifs. Le choix que fera ensuite l’utilisateur ne sera pas forcément conscient : il pourra aller naturellement vers le type de média le mieux adapté à son profil.

    Des enfants ayant des profils pédagogiques différents vont, par la médiation d’un seul et même support – et c’est bien cela qui est intéressant – percevoir et comprendre des données identiques, mais de nature différente. Pour comprendre mieux comment le concepteur d’un contenu multimédia peut prendre en compte ces différences, observons des situations existantes qui ont été proposées à des enfants (Kellner, 2000).

    La pluralité des médias
    Dans le cédérom « Voyage interactif au pays des maths » (TLC Edusoft, 1997), on retrouve différents exemples illustrant cette pluralité des médias.
    Une des premières activités que peut rencontrer l’enfant en naviguant dans ce produit est une activité dite Aventure. La consigne est présentée sous forme de vers :
    image : Activité Aventure de « Voyage interactif au Pays des Maths ».

    On retrouve cette consigne (en haut et à gauche de l’écran ci-dessus) également de manière orale puisqu’un des personnages du cédérom la lit. Un élément graphique intervient en même temps : la ligne qui est en train d’être lue est surlignée en jaune. L’intérêt de cette association réside dans l’accès au texte écrit facilité pour l’enfant qui ne maîtrise pas encore bien la lecture. Une situation similaire peut-elle se présenter sans le support multimédia interactif ? Si en classe, l’enseignant lit un texte écrit au tableau, tout en montrant du doigt les termes au fur et à mesure de leur lecture, il diffuse bien un message selon deux modalités sensorielles différentes. Mais, à moins d’un enseignant pour chaque élève qui lirait le mot montré par l’élève, il ne s’agit pas d’une réelle individualisation de l’enseignement. Ici, en revanche, en cliquant sur chacune des lignes, l’enfant peut avoir accès à la lecture de ce qui y est écrit, et ce autant de fois qu’il le souhaite, à la demande, en fonction de son besoin.

    Cette fonctionnalité de l’outil est néanmoins à utiliser avec circonspection. Le rythme de lecture doit être adapté, ce qui n’est pas le cas dans l’exemple cité où il est trop rapide par rapport à la complexité du texte. Si lecture et surlignage sont trop rapides, non seulement, ils ne constituent pas une aide pour l’utilisateur mais deviennent au contraire une gêne : les enfants ont différentes informations de diverses sources à gérer et ils ne peuvent pas le faire au même rythme. Il y a un vrai risque de « surcharge cognitive » (Jacquinot, 1996). Alors que l’association simultanée des médias pourrait permettre une meilleure adaptation à chaque utilisateur, l’inadaptation de la mise en surbrillance au rythme de lecture peut en compromettre l’efficacité, ce qui est particulièrement dommage…

    Précisons que ce n’est pas de façon exclusive que les enfants traitent un type d’information mais de manière prioritaire. La simultanéité d’informations de différentes natures est donc très utile dans la mesure où les sources non prioritaires peuvent avoir une fonction de confirmation. Ainsi, Gauthier, 6 ans, explique comment il procède dans l’activité Exploration du Pays 2 : Additions et soustractions du cédérom « Voyage interactif au pays des maths » : « Moi je compte et puis je sais que c’est 5 et puis quand ils le disent, je sais encore mieux que c’est 5 ». L’observation confirme cette auto-analyse. Le fait de pouvoir vérifier son hypothèse lui permet certainement de traiter plus rapidement l’information visuelle en sachant que si son estimation n’est pas exacte, l’information auditive lui permettra de le savoir.

    L’importance de l’interface
    On voit bien ici que la manière dont les informations vont être mises à disposition des enfants va être fondamentale dans ce qu’ils vont pouvoir en faire. Cette question concerne directement ce que les ergonomes appellent l’interface.

    Il s’agit en fait d’un dispositif de médiation technique entre le programme et l’utilisateur qui est défini par le guide pratique de conception et d’évaluation ergonomique de sites Web du Centre de recherche informatique de Montréal comme « un dispositif (matériel et logiciel) grâce auquel s’effectuent les échanges d’informations entre deux systèmes » (Millerand, Martial, 2001). La définition indique que « concrètement, une interface peut être définie comme tout ce qui aide l’humain à comprendre et à manipuler la machine ; le point central des échanges entre la personne et la machine ; une couche composée d’une partie matérielle (écran, clavier, souris, etc.) et d’une partie logicielle qui vient s’interposer entre les concepts de la machine et l’utilisateur » (ibid.). L’interface est donc immanquablement liée à la navigation, autrement dit à la manière dont l’utilisateur se déplace dans le produit, puisque c’est elle qui donne accès aux liens et aux zones actives. Le parcours, résultat de cette navigation, ne dépend donc pas seulement de la volonté de l’utilisateur, mais est aussi en partie induit par l’interface.

    Face à l’importance d’une interface bien construite, on peut s’étonner du fait que la littérature, que ce soit en sciences de l’information et de la communication, en sciences cognitives ou en sciences de l’éducation, ne soit pas très fournie. Différentes raisons peuvent être avancées et en particulier le fait qu’on ne peut aborder cette question sans se confronter au délicat problème des usages (Le Marec, 2001). Les recherches, comme celles que mènent Annette Béguin et Bénédicte Amougou (2001) sur le rôle des dispositifs sémiotiques dans l’appropriation des savoirs, ne sont pas très nombreuses. Et pourtant, la question est fondamentale. En effet, une interface claire et lisible est un élément indispensable pour tout produit numérique, en particulier pour un produit à destination d’un enfant-apprenant. Face à un logiciel d’apprentissage, l’utilisateur a la lourde tâche d’accéder à de l’information et de la transformer en savoir. S’il doit dépenser une grande partie de son énergie cognitive à accéder au contenu même du produit, c’est comme s’il devait tourner des pages d’un livre pesant chacune plusieurs kilos.

    Observer un enfant en train d’utiliser un produit multimédia interactif permet aussi de s’apercevoir que, même si l’activité paraît bien conçue et articule des informations de nature différente, cela n’est pas pour autant qu’elles seront utilisées. En effet, il peut suffire d’un grain de sable pour que l’engrenage reste bloqué.

    D’abord, une information, bien que disponible, peut ne pas être perçue par les utilisateurs. Un simple clic peut interrompre une consigne orale. Une consigne donnée trop tôt après une séquence réussie qui déclenche la joie des enfants et altère durant quelques secondes leur concentration ne sera pas entendue non plus. Si cette information n’est plus accessible ensuite, on passe carrément à côté. La difficulté de l’information auditive, c’est qu’elle s’inscrit dans le flux du temps alors que l’image fixe peut rester affichée et être accessible à tout moment.

    Ensuite, une interface visuelle qui ne met pas assez en évidence des éléments essentiels à percevoir est également problématique. Les éléments qui doivent servir au raisonnement de l’enfant doivent être mis en valeur de façon à ne pas lui échapper. Cela paraît la moindre des choses mais cela n’est pas toujours le cas, comme le montre le cas suivant :
    image : Activité Exploration de « Voyage interactif Au Pays des Maths », les éléments importants sont encadrés ici par nos soins

    Ici, les éléments importants pour la construction du raisonnement sont les différentes écritures (les pattes des insectes au centre de la scène qui forment des collections, l’écriture additive et l’écriture multiplicative). Or, les enfants observés dans la pratique de cette activité ne perçoivent pas les écritures additives et multiplicatives. C’est un vrai problème car l’objectif est bien de faire établir le lien entre les 3 écritures !

    Enfin, les problèmes d’interface dans les produits pour enfants sont souvent liés à la maladresse dont font preuve certains concepteurs dans la scénarisation. A trop vouloir cacher l’exercice derrière le ludique, ils recourent à la fictionnalisation qui, dans certains cas, alourdit les situations pédagogiques, voire, les entravent.

    La fictionnalisation, un obstacle à la compréhension ?
    L’exemple suivant, issu du cédérom « Lapin Malin Maternelle » (Mindscape, 2003), montre lui aussi comment des consignes qui cherchent trop à s’inscrire dans une fiction peuvent poser des problèmes de compréhension.

    image : Activité les lettres de la rivieramots de « Lapin Malin Maternelle 2 »,   les saupoudreuses sont entourées ici par nos soins

    Lorsqu’il est face à cet écran, l’utilisateur entend « Choisis la saupoudreuse qui porte la 1ère lettre du nom de l’objet placé sur le radeau. Secoue là au-dessus de l’objet pour le recouvrir de poudre d’étoile ». Se posent ici à la fois des problèmes de compréhension du vocabulaire – il n’est pas sûr qu’un enfant de CP connaisse le mot « saupoudreuse » –, de formulation de la consigne – la phrase est bien trop complexe – et d’identification des éléments visuels – reconnaître la saupoudreuse est loin d’être évident, même pour un adulte… Néanmoins, le vaste problème de la consigne est, évidemment, loin d’être propre au cédérom, à la nuance près qu’ici la fictionnalisation trop élaborée complique encore la situation.

    Le fait qu’une consigne soit donnée par un personnage de la fiction peut aussi poser problème. Les enfants risquent de ne pas attribuer ce statut de consigne à un énoncé qui n’en aurait pas suffisamment les signes. Dans beaucoup de produits, la fictionnalisation semble être utilisée pour masquer un caractère trop contraignant de l’activité. Or, ceci renvoie à une représentation d’adulte. Quoi de plus ludique qu’une règle qui rend le jeu possible ?

    Enfin, à trop fixer leur attention sur la fictionnalisation, certains concepteurs en négligent des paramètres d’exactitude, fondamentaux aux yeux des enseignants. Dans l’activité suivante de « Voyage interactif au Pays des Maths », l’enfant doit placer deux « paquets » de cannes à sucre sur deux plateaux. La somme des deux doit correspondre au nombre en chiffres indiqué entre les deux plateaux. D’un point de vue pédagogique, cette interface pose problème car la ressemblance avec une balance laisse penser faussement à une équivalence entre les deux côtés :

    L’intérêt pour l’apprentissage de la lecture
    L’intérêt de multiplier les modalités sensorielles sur un même support est peut-être plus évident encore dans les activités de français. En effet, un des enjeux de l’école primaire est de permettre aux enfants d’acquérir une bonne maîtrise de la lecture. Il ne s’agit évidemment pas de déchiffrage pur et simple mais de construction de sens. A des signes arbitraires (des lettres associées entre elles), il s’agit d’associer des référents. Dans leurs apprentissages précédents, les enfants ont été face à des signes analogiques. Le code était assez simple : le dessin d’un oiseau avait quelque chose de ressemblant avec la réalité que ce signe représentait. Il s’agit maintenant pour eux de maîtriser un code dont le rapport entre le signifiant et le signifié est basé uniquement sur des conventions : le signe « oiseau » n’a aucune ressemblance avec l’animal qu’il désigne. On voit donc l’importance de passer par un code analogique pour appréhender ce nouveau code conventionnel.

    L’apprentissage de la lecture peut passer par ce recours à ce code analogique. Cela permet à l’enfant d’associer un signe arbitraire (le mot « oiseau ») à un référent (le concept d’oiseau) grâce à l’intermédiaire d’un autre signe visuel (le dessin d’un oiseau). Ici, le multimédia présente un atout de taille puisqu’il peut ajouter un autre niveau de codage par le mot prononcé à l’oral.
    Le cédérom « Le Cours Préparatoire » (2006, Génération 5) utilise cette possibilité de façon intéressante. En outre, il est riche dans la manière dont il se présente : ce n’est pas un exerciseur  mais un terrain d’expérience. En effet, le nombre de tentatives n’est presque jamais limité. Dans une des activités, l’enfant peut découvrir les mots prononcés dans l’ordre dans lequel il les a mis, que cet ordre soit celui attendu ou non.

    image : Activité méli mélo de « Le Cours Préparatoire ».

    Dans cette activité, l’enfant peut, autant de fois qu’il le souhaite, déplacer les étiquettes de manière à modifier l’ordre des mots. Le groupe de mots ainsi composé sera lu, et ce à volonté, et donnera accès à du sens.

    La crainte que l’on pourrait avoir, c’est que les enfants se servent toujours de l’information la plus facilement accessible pour eux et ne progressent pas. Pour éviter que l’utilisateur finisse par toujours utiliser la méthode la plus économique pour lui et ne cherche pas, de fait, d’autres stratégies qui lui sembleraient plus difficiles, il faudrait que l’enseignant puisse paramétrer les différentes sources d’information. Selon les enfants et leur stade d’apprentissage, il pourrait ajouter ou supprimer certaines sources d’information de manière à les obliger à utiliser des stratégies qui vont vers plus de formalisation. Le choix des médias par le pédagogue deviendrait alors une variable didactique  qu’il pourrait maîtriser.

    Mais, revers de la médaille, devant cette pluralité d’informations, l’enfant risque aussi d’avoir à gérer en même temps trop d’information, ce qui entraînerait une surcharge cognitive. Certains enfants expriment cela très clairement en disant par exemple : « Des fois ça nous aide et des fois ça nous aide pas parce que ça me déconcentre ». Tout est donc une affaire de dosage et d’adaptation précise aux besoins. Il ne s’agit pas de multiplier systématiquement les sources mais de cibler celles que l’on va utiliser en fonction des situations et des apprentissages souhaités.

    On voit bien ici comment le multimédia peut être riche en possibilités. Mais malheureusement, trop de produits se contentent souvent de juxtaposer des informations de nature différente sans chercher à voir le profit qu’il y aurait à les articuler réellement. Dans certains cas, l’ordinateur paraît alors un outil « bien luxueux pour faire tourner les pages d’un livre » (Bossuet, 1982 : 70). Des collaborations plus rapprochées entre pédagogues et concepteurs pourraient permettre d’éviter au cédérom de rencontrer les mêmes écueils que la télévision scolaire des années 1980. Elle s’est en effet heurtée à « l’incapacité de la pédagogie à produire de nouveaux modèles de relation au savoir, en exploitant les potentialités propres de l’image et du son… » (Jacquinot, 1985 : 72).

    Si, comme on l’a vu, les différentes modalités sensorielles sont bien pensées, on facilite l’accès à l’information des individus aux profils pédagogiques distincts. Mais on peut aussi favoriser les situations expérimentales – dont l’intérêt pédagogique est aujourd’hui incontesté – en utilisant en particulier une caractéristique du multimédia interactif : l’animation.

    L’intérêt de l’animation

    De nouvelles variables didactiques
    En effet, le fait que l’image puisse s’animer sous les yeux de l’utilisateur suite à son action présente un véritable intérêt. Cette caractéristique permet d’introduire une variable didactique nouvelle, possible uniquement grâce à la dynamicité du support.

    Le cédérom « J’apprends à calculer » (collection Nathan Premiers apprentissages, 5-7 ans, Havas Interactive, 1998) propose ainsi une situation qui utilise le fait que l’image puisse s’animer comme variable didactique. Dans l’activité Apprendre à soustraire, l’utilisateur est face à un écran qui présente une collection d’objets. Une voix-off indique qu’il doit en rester un certain nombre et l’enfant est censé faire une soustraction pour en enlever le nombre exact. On veut donc l’amener à recréer le processus de soustraction.

    Le raisonnement mené par deux enfants de 6 ans que nous avons eu l’occasion d’observer lors de la manipulation de ce produit, Nicolas et Lucile, semble riche d’enseignement. Alors qu’il y a 15 biscuits représentés à l’écran, une voix annonce qu’il y a 15 biscuits et qu’il faut en garder 6. L’enfant doit cliquer sur les biscuits qu’il veut voir disparaître.
    Nicolas clique sur quelques biscuits puis compte combien il en reste. Il continue ainsi à en supprimer, à compter ce qu’il reste, jusqu’à ce qu’il n’y en ait plus que 6.
    A son tour, Lucile prend la souris et procède de la même manière que Nicolas pour laisser le bon nombre d’objets.

    Lorsqu’on leur demande combien ils ont enlevé d’objets, ils ne le savent pas : ils n’ont donc pas réalisé de soustraction mais simplement effectué des dénombrements successifs.

    A la situation suivante, il y a 20 fleurs représentées à l’écran et le personnage de l’ours dit : « Il y a 20 fleurs, il faut en garder 10 ».
    Nicolas :    – Aïe, aïe, aïe !…Il faut que j’enlève la moitié.
    Lucile :    – Ouais, c’est tout facile.
    Nicolas repère visuellement la moitié des fleurs et clique pour enlever la première. A partir du moment où il a cliqué, les fleurs se mettent à bouger dans la case.


    Ecran de l’activité Apprendre à soustraire de « J’apprends à calculer ». 

    Nicolas :    – Ouah, ça arrête pas de bouger maintenant ! Ah, ben maintenant, je sais pas où j’en suis.
    Il essaie de compter les fleurs qui bougent et se superposent parfois mais il ne parvient pas à en laisser le bon nombre.
    Lors de l’essai suivant, il essaie d’aller très vite pour que les objets n’aient encore pas trop bougé. Cela ne lui permet toujours pas de trouver la bonne réponse.
    Lucile :    – T’en enlèves 10.
    Nicolas :    – Combien j’en ai là ?
    Lucile :    – Ben… Tu dois en enlever 10.
    Lucile, ayant compris qu’il était très difficile de donner la bonne réponse comme ils le faisaient jusque là en dénombrant les objets qui restaient visibles à l’écran, a changé de stratégie et a calculé combien elle devait en enlever.

    Elle a donc, en fait, calculé mentalement le résultat de la soustraction et utilise à nouveau cette stratégie lors de la situation suivante.
    Nicolas, lui, procède toujours selon la première démarche jusqu’au moment où il cherche une stratégie plus adaptée : tant que les objets n’ont pas commencé à bouger, il dénombre ceux qu’il faut garder, les cache et repère visuellement les objets qu’il faut enlever. Mais il se trouve devant la même difficulté : dès qu’il clique sur un objet, ils changent de place, il ne peut plus les retrouver.
    Il se voit donc contraint de procéder autrement : il dénombre les objets qu’il faut garder, les cache et compte le nombre d’objets qui restent visibles. Il sait ainsi combien il faut en enlever. Le fait que les objets se mettent à bouger au premier clic n’est donc plus un obstacle.

    Deux stratégies finales et efficaces ont donc été mises en place par les enfants. Chacun a adopté sa propre méthode : Nicolas a dénombré les objets à enlever alors que Lucile a fait directement la soustraction mentalement, processus opératoire qu’elle dominait déjà certainement avant l’utilisation du cédérom.

    On voit ici de façon claire comment Nicolas, en particulier, a construit progressivement sa stratégie et a fini par réaliser ce qui n’est pas encore une soustraction mais une étape pour y arriver : une addition à trous. Le processus qui lui a permis d’y arriver a été rendu possible grâce à deux aspects du multimédia.
    D’abord, le nombre d’objets total est annoncé oralement et le nombre qui doit rester est dit et écrit : l’enfant n’a donc pas besoin de dénombrer toute la collection et il peut envisager directement une démarche opératoire comme celle de Lucile.

    Ensuite, le fait que les objets se mettent à bouger est une variable didactique nouvelle et construit une configuration où l’enfant ne peut plus faire fonctionner les stratégies qui fonctionnaient précédemment et qui lui permettaient de trouver les bonnes réponses en contournant l’objectif voulu par les concepteurs. A partir du moment où les objets se mettent à bouger ces stratégies ne sont plus opérantes et il est finalement forcé à en mettre en place d’autres qui lui permettront d’intégrer progressivement le principe opératoire de la soustraction.

    Un certain nombre des enfants observés ont le même type de raisonnement que Lucile et Nicolas. Quelques autres, cependant, continuent à répondre correctement même lorsque les objets se mettent à bouger. En fait, pour ceux qui dominent bien la manipulation de la souris, les objets ne se déplacent pas suffisamment vite ; ils peuvent continuer à utiliser leur stratégie initiale et réussissent à contourner cette variable didactique. Pour constituer une variable didactique qui pousse tous les enfants à trouver la stratégie qui les amène à la soustraction, les objets devraient se déplacer suffisamment vite pour rendre inefficace le dénombrement de ceux qui restent et les obliger à dénombrer ceux qui sont à enlever.

    Cette activité, en tout cas, crée bien une situation d’apprentissage car elle place les enfants face à ce manque qui est à l’origine de tout apprentissage. Sans situation qui oblige l’enfant à trouver une nouvelle façon de résoudre le problème posé, il ne se crée pas le manque nécessaire à la mise en place d’une démarche adaptée et aboutissant à la construction d’une notion. C’est le défaut de beaucoup d’activités multimédia : il manque une véritable intention des auteurs sur la variable didactique mise en place.

    Des stratégies d’économie cognitive
    Néanmoins, si les variables didactiques ne sont pas bien pensées, les démarches adoptées par les enfants ne sont pas forcément celles que l’on imagine. De manière générale, s’ils en ont la possibilité, les enfants choisiront la stratégie qui leur permettra de répondre de la manière la plus économique possible.

    Mais on rencontre aussi d’autres stratégies qui semblent guidées par des logiques auxquelles on ne s’attend pas forcément. Dans l’activité Exploration du Pays 3 : addition et soustraction de « Voyage interactif au Pays des Maths », les enfants doivent « fabriquer » des desserts en utilisant des pots de sucre. L’objectif est d’amener à effectuer des soustractions au fur et à mesure qu’ils utilisent les pots de sucre. Les concepteurs ont certainement imaginé que les utilisateurs varieraient les desserts choisis et seraient donc amenés à effectuer des soustractions différentes. En fait, certains enfants veulent réaliser le plus de desserts possibles. Ils vont donc répéter systématiquement une opération très simple qui revient à enlever systématiquement une unité, comme dans cet exemple où l’élève a fabriqué 8 desserts nécessitant chacun 1 pot de sucre :

    D’un point de vue pédagogique, l’intérêt de l’activité, telle qu’elle est menée par les enfants, est donc très limité…

    Conclusion

    Malgré les différents problèmes qui peuvent en limiter l’efficacité, les exemples cités montrent bien comment la multimodalité des informations est bien une spécificité du support multimédia interactif qui présente de réels intérêts pédagogiques. Passer par des activités comme celles-ci permet une approche spécifique dans la mesure où on est face à des situations d’apprentissage intégrant de nouvelles formes d’accès au savoir, qu’il s’agisse de procédures manipulatoires qui aident l’apprenant à prendre conscience des règles du monde réel ou de variables didactiques impossibles à créer autrement et qui le forcent à reconstruire ces règles.

    Néanmoins, on rencontre sue le web notamment beaucoup d’activités qui se contentent bien souvent de reproduire des situations présentes sur des supports papier. Construire des outils réellement riches et pertinents nécessite un certain nombre de compétences que n’ont pas forcément les auteurs qui aliment le web 2.0. Si cet outil est riche en termes de collaboration, il risque peut-être aussi de réduite les qualités multimédias et interactives des outils numériques. Le web 2.0., par essence, ne développe pas les mêmes qualités que les produits éditoriaux bien pensés. Il doit développer ses qualités propres et être complémentaire des produits plus construits, plus professionnels qui, souhaitons-le devraient continuer à garder leur place et à la conforter grâce à une qualité grandissante.

    Communication scientifique LUDOVIA 2008 par Catherine KELLNER
    CREM (Centre de REcherche sur les Médiations)
    Université Paul Verlaine-Metz

  • Entre visible et invisible : un dispositif mobile d’observation des usages du multimédia à l’école.

    L’évolution récente des matériels de capture numérique de l’image et du son autorise pourtant aujourd’hui la mise au point de configurations qui permettent de s’affranchir de nombreuses contraintes ayant pu, jusqu’ici, limiter le recours aux traces filmées. Libéré de ces limitations liées aux techniques, matériels et supports de prises de vues autant que de diffusion — des métrages de pellicules nécessairement courts du cinéma argentique aux supports de stockage numériques de trop faible capacité — l’enregistrement audio-visuel à caractère ethnographique permet à présent d’envisager de nouvelles perspective méthodologiques en sciences humaines. La diffusion des « observations filmiques pertinentes »  autrefois inaccessibles, rendue à présent possible grâce, par exemple, aux capacités d’hébergement en ligne, au téléchargement des fichiers, voire aux connexions IP à distance, autorise, par la diffusion large des données, une observation en direct ou différée partagée, pour des analyses descriptives et des interprétations d’autant plus riches. C’est aussi grâce à ces évolutions que sont rendues possibles des utilisations différenciées de l’audio-visuel dans le recueil de données empiriques ou expérimentales en sciences humaines, faisant dire à M. Izard  :

    « La spécificité de l’investigation ethnographique doit être cherchée dans le dispositif de l’enquête, qui donne son originalié à ce qu’il est convenu d’appeler aujourd’hui « l’approche anthropologique » des phénomènes sociaux et culturels. »

    Pour illustrer notre propos, nous nous appuyons sur les travaux que nous menons en sciences de l’information et de la communication, lorsque l’interdisciplinarité amène à fréquenter l’anthropologie visuelle , les sciences de l’éducation et la psychologie cognitive, du côté de ce « peuple enfant » dont Alain aimait à dire qu’il reste à décrire .

    De la récolte des données à leur mise en lisibilité, nous présentons à travers ces lignes un « kit » d’observation, ici dédié aux TICE, du ludo-éducatif à la recherche documentaire sur internet, mais extensible à d’autres champs d’investigation des pratiques situées, assez compact pour être dit « mobile », et suffisamment facile à utiliser pour être mis en œuvre sans le concours de techniciens. Son caractère discret, autonome et paramétrable via internet, donne en outre à ce système la particularité de mieux maîtriser le biais relatif à la participation de l’observateur sur le terrain d’observation. Par la « présence invisible » de ce dernier, ce dispositif de prise de vues robotisé constitue un modèle original d’observation « télé-participante » sur lequel s’appuie une étude des usages, de l’école à l’université, mise en place par l’Équipe de Recherche en Technologies Éducatives (ERTé) « Culture informationnelle et curriculum documentaire ».

    Ici, technique et méthodologie ne positionnent plus la caméra comme un outil potentiel d’expression visuelle, limitant de facto la tentation pour le chercheur de devenir « metteur en scène » d’une production visuelle de recherche à mettre en adéquation avec un produit de communication scientifique scénarisé par avance. Au contraire, la forme désincarnée de participation qu’elles engendrent devient-elle l’occasion d’une distanciation qui, à travers une forme de garantie de moindre familiarité avec le terrain peut aider, pour le chercheur impliqué, à améliorer la transcription objective du cours d’action.

    Ce qui fonde notre démarche, au plan de l’instrumentation technique, est originairement le fait de préoccupations pragmatiques en SIC, dans un cadre où l’immersion en contexte d’usage des TICE, répétitive et pluri-localisée, a nécessité la mise au point d’un dispositif « volant ». Et si l’intérêt qu’il peut y avoir à abstraire l’observateur du contexte d’observation a été conçu parallèlement à cette volonté initiale de répondre à un besoin d’adaptation au terrain, notre propos ne sera pas, dans le présent article, de traiter de l’influence de ce modèle méthodologique plutôt nouveau sur le comportement du sujet ou de l’observateur. Les conséquences, sur nos recherches, du recours à ce dispositif, font l’objet d’un autre article.
    Il s’agit ici de présenter un matériel numérique de recueil de données ainsi que sa mise en œuvre, en faisant état du type spécifique de traces d’usages qu’elle permet de constituer, et en laissant au lecteur le soin de trouver en quoi un tel dispositif peut profiter à sa propre démarche.

    Contexte de l’élaboration du dispositif
    Ce système a été conçu dans le but de saisir les différentes composantes — comportementales, verbales, non-verbales — d’une pratique située de l’informatique en milieu scolaire, notamment en pratiques multimédia et recherches documentaires sur internet. Enseignants, aides à l’enseignement, stagiaires professeurs des écoles, sont, avec les élèves de classes de maternelle et d’élémentaire concernés par cette étude test, les figurants de ces enregistrements qui se déroulent dans une salle dédiée à l’informatique (fig. 2). Cette pièce est contigüe à une salle de bibliothèque — BCD — devant être, elle aussi, observée (fig. 3). L’une des préoccupations de notre ERTé étant de dresser un état des lieux des pratiques informationnelles, de l’école à l’université, il s’agit ici de rendre compte des stratégies de recherche d’information et de documentation mises en œuvre par les élèves et enseignées par les maîtres, entre salle informatique et bibliothèque traditionnelle, entre écran d’ordinateur et support papier, entre support multimédia ludo-éducatif et web sémantique.

    L’objectif est donc, au cours de séances d’enseignement d’une cinquantaine de minute, menées deux fois par semaine durant plusieurs mois, et figurant sur un planning régulièrement bouleversé pour des questions de transversalité de projets, de voir, entendre et tracer :
    – Les faits d’écran témoignant des processus cognitifs mis en œuvre dans la virtualité informatique et les documents hypermédias
    – Les discours-comportements de type verbal, non-verbal, para-verbal, kinésthésique de l’élève devant l’écran
    – Les comportements de voisinage et les déplacements des élèves dans la salle informatique
    – Les migrations salle informatique / BCD
    – Les discours-comportements de type verbal / non-verbal / para-verbal du professeur en situation d’enseignement

    Cahier des charges
    L’axe méthodologique principal reposant sur le fait que les sujets-élèves ne sont pas informés de la présence de caméras — après accord/contrat écrit passé avec les parents — l’essentiel des contraintes techniques s’est exercé sur l’aspect « invisibilité » du système, et en conséquence prioritairement sur la dimension des composants techniques, mais aussi sur la possibilité de leur mise à distance. Au plan de l’utilisabilité, ce « kit » étant voué à circuler géographiquement et à être mise à la disposition de tous les membres de l’équipe, les qualités assurant une mise en œuvre aisée et une exploitation facile et confortable des données récoltées ont été privilégiées.

    Globalement, la mise en contexte spécifique de ce dispositif a demandé que notre modèle d’observation réponde à l’ensemble des critères suivant :
    – Discrétion : l’ensemble du matériel doit être, sinon totalement invisible, au moins très rapidement « oublié » par le sujet
    – Adaptabilité : en cas d’impossibilité d’installation du matériel à proximité du poste observé, l’enregistrement doit pouvoir être fait à bonne distance de la capture audio-visuelle, par voie HF (sans fil)
    – Portabilité : ce système ayant une vocation nomade, il doit être facilement transportable par une seule personne
    – Gestion à distance : le contrôle des fonctionnalités — re-programmation, paramétrage… — doit pouvoir être réalisé à travers un réseau internet ou intranet
    – Facilité d’installation : le matériel doit pouvoir être installé et utilisé par chaque membre de l’équipe, sans nécessiter le recours à un technicien audiovisuel
    – Ergonomie : le paramétrage de l’installation doit être accessible à l’utilisateur accoutumé à la programmation d’un matériel vidéo de salon
    – Qualité d’image : la définition des images produites doit permettre une description fine, en particulier concernant les captures d’écran
    – Autonomie : le matériel doit pouvoir être programmé et fonctionner sur de longues périodes sans nécessiter d’intervention
    – Accessibilité directe aux données : édité sur un support standard facile à échanger et à partager, l’enregistrement doit être directement et immédiatement visualisable, sans nécessiter de traitement de post production
    – Coût réaliste : le financement de l’équipement doit pouvoir correspondre aux possibilités budgétaires d’un laboratoire de recherche

    Quelles données, sous quelle forme ?
    Notre kit d’observation nous a permis de rassembler un corpus de données conséquent, échelonné sur plusieurs mois : une quarantaine d’heures de vidéo ont ainsi été enregistrées entre début mars et fin décembre 2007. Douze heures se sont révélées être exploitables en termes de richesse de comportements observables.
    Plusieurs situations-type se sont présentées et ont été enregistrées. Représentatives des thématiques les plus courantes justifiant le recours à l’outil informatique à l’école, elles témoignent de la conduite de séances mettant l’enfant en situation de découverte de cédéroms et de sites web ludo-éducatifs, d’initiation à l’utilisation de l’ordinateur, de travail sur logiciel de traitement de texte, de visionnage de photos, et de recherche documentaire sur internet. Elles ont été, pour la plupart, le prétexte à une observation à but inductif, qui a eu pour objet de permettre que soient dégagées des pistes pour un travail de réflexion à mener avec les enseignants dans la perspective d’un ajustement des pratiques pédagogiques.

    Les données vidéo recueillies ont pris la forme de plusieurs DVD sur lesquels ont été gravées les vidéos des séances retenues montées en incrustation ou en mosaïque, suivant l’intérêt de l’observation, en sortie directe du DVR. Deux axes d’observation principaux ont été dégagés dans le cadre de notre étude : les comportements sémio-cognitifs à l’écran et les déplacements entre poste informatique et BCD. Les points suivants présentent un éventail d’images obtenues avec ce dispositif en guise de corpus.

    Vers quels résultats
    Les analyses actuellement en cours permettent déjà de tracer quelques lignes directrices susceptibles d’alimenter une réflexion didactique. Elles tournent pour la plupart autour de la métaphore constitutive de l’univers virtuel présenté à l’écran, tant au niveau des interfaces ludo-éducatives consacrées aux apprentissages autonomes qu’au sein des pages web consultées dans un cadre documentaire. De nombreuses observations pointent le lien à établir entre réalité et virtualité modélisée à partir de ce réel. Ainsi, il apparaît que la faculté de dessiner à l’écran à l’aide d’outils virtuels, pour les élèves observés et aux dires des enseignants interviewés, se développe à l’image exacte de l’avènement des capacités à mener à bien les mêmes tâches « manuellement » sur support traditionnel papier. Les pratiques modélisées à l’écran semblent n’être envisageables pour l’enfant qu’après qu’il en soit passé par les pratiques manuelles correspondantes.

    On verra par ailleurs que, pour l’élève, le choix des documents référents pour un recueil d’information sur internet peut sembler privilégié en fonction de ce qu’il adopte une forme plus proche — mise en page, couleurs, images… — de la page du document papier de même vocation en bibliothèque — encyclopédie, dictionnaire… — et peut conditionner, en élémentaire, une nécessité à entretenir un lien kinésthésique avec l’objet-livre.

    Se manifestent également avec insistance les collisions sémantiques qui témoignent des différences de représentations en jeu dans l’univers métaphorique de l’écran, selon qu’il est vu par l’un ou l’autre enseignant et imposé à l’élève. Ainsi, l’icône figurant sur le « bureau » de l’ordinateur pouvant passer du « petit endroit privé où je mets mes affaires à l’abri des autres » au « dossier à mon nom où je vais classer et trier mes documents » ; ainsi également, lorsqu’il s’agit de nommer le dossier, et qu’il faut « taper », « écrire »,  « inscrire », « copier » son nom dans la « fenêtre », « l’étiquette bleue », la « case », le « rectangle », en appuyant sur les « touches » ou les « boutons »… Les mines déconfites des utilisateurs novices filmés en situation d’initiation nous montrent l’intérêt qu’il peut y avoir à interroger les représentations de chacun relativement à la métaphore de l’interface homme-machine, comme préalable à tout projet d’apprentissage— fût-ce à l’autonomie ! — afin de stabiliser une terminologie trop souvent mouvante.

    Plusieurs autres pistes, restent à encore développer, qui sont en cours d’évaluation par l’équipe de recherche.

    De la maternelle à l’université
    Au delà du terrain de l’apprentissage chez les plus jeunes, les possibilités offertes par ce dispositif nous permettent également, dans une optique curriculaire et moyennant une adaptation du protocole à des sujets plus âgés — eu égard, par exemple, au droit à l’image — de poursuivre nos observations en milieu universitaire, ainsi qu’en collège et en lycée. La mise en œuvre prévue dans le cadre de cette étude devra permettre d’apporter, là aussi, un éclairage fin sur les pratiques situées de navigations, apprentissages et recherches documentaires sur le web, en bibliothèque universitaire ainsi qu’en centre de documentation et d’information.

    Conclusion
    La présentation de ce kit mobile d’observation des usages ne représente bien entendu qu’un « instantané » technologique, tant les progrès des outils multimédia sont rapides et rendent rapidement obsolètes les performances de tout matériel vidéo ou informatique à l’instant même de sa mise sur le marché. Néanmoins, il apparaît que, dans son principe technique et méthodologique, ce dispositif peut répondre, en l’état, à un vrai besoin de la recherche en sciences humaines, là où parfois ces dernières prêtent le flanc à la critique épistémologique, par insuffisance de corpus ou de rigueur empirique, par exemple. Notre objectif sera atteint si cet article éveille en l’un ou l’autre chercheur, ici soucieux de mieux rendre compte de ses observations déductives, là de solliciter dans de meilleures conditions une inductivité créative, l’envie de dépasser l’un ou l’autre a priori sur l’utilisation de tels dispositifs, hier encore très complexes à mettre en œuvre, aujourd’hui rendus réellement accessibles.

    Communication Scientifique LUDOVIA 2008 par Louis-François Claro  (extraits)
    Laboratoire GERIICO
    Université Lille 3
    EA 4073

  • Approche critique du « do it yourself » : pour un e-learning qui ne sacrifie pas la présence pédagogique

    Approche critique du « do it yourself » : pour un e-learning qui ne sacrifie pas la présence pédagogique

    do it yourself
    Comme cela est légitimement répété, le support numérique de l’apprentissage a été conçu par un didacticien et l’élève peut s’inscrire dans une communauté numérique d’apprentissage. Ce ne sont pas les seules limites de l’apparente solitude de l’apprenant. Il faut à l’élève une communauté physique, un échange oral, une présence pédagogique humaine à ses côtés pour qu’il puisse apprendre. C’est là un fondement nécessaire de l’apprentissage, qu’il convient, nous semble-t-il, de ne jamais oublier, quand nous concevons des instruments pédagogiques numériques.  Le slogan nous semble devoir être critiqué dans cette perspective. Nous ne prétendons pas ici réfuter le « do it yourself » ou le « e-learning », au contraire. La thèse que nous défendons est plutôt celle-ci : la prise en compte du fondement communautaire et présentiel de l’apprentissage est nécessaire à la construction d’outils pédagogiques numériques adaptés.

     “Do it yourself”: de l’Education nouvelle à l’e-learning
    Il y a un siècle, les différents acteurs du mouvement de l’Education nouvelle condamnaient ce qu’ils appelaient la « pédagogie traditionnelle ». Dans la description qu’ils en font, celle-ci se caractérise, en particulier, par l’attitude passive dans laquelle elle fige l’élève. Les partisans d’une éducation nouvelle proposent alors des alternatives à ce modèle.  Ils mettent en évidence différentes pratiques d’apprentissage actif, appuyées sur l’utilisation de matériels innovants (chez Maria Montessori, par exemple), ou sur le recours à des formes de travail apparues hors les murs de l’école. Durant l’entre-deux-guerres, Célestin Freinet (1994) met ainsi en place l’imprimerie à l’école.  Alors, comme aujourd’hui, on peut voir un enfant apprendre apparemment seul, en manipulant le matériel de motricité fine de Montessori, les caractères d’imprimerie, chez Freinet, ou différents outils informatiques aujourd’hui.

    Nous cherchons à expliquer cette évidence, à en rendre raison, en balayant les explications possibles. Le chercheur en sciences de l’éducation suit alors le modèle de la problématisation scientifique, tel qu’il a été défini par le didacticien Christian Orange (2002). Une des hypothèses que nous voudrions faire valoir, dans cette perspective, est déjà présente chez les penseurs de l’Education nouvelle. Pour expliquer l’efficacité de leur pédagogie, Freinet et Montessori font appel au concept d’élan vital. C’est lui qui fonde la soif d’apprentissage de l’enfant et sa soif d’autonomie. Proposons-lui des apprentissages actifs, par lesquels cette soif sera libérée des lenteurs de la forme scolaire lassalienne , et par lesquels cette aspiration à l’autonomie pourra être satisfaite. Si l’enfant n’a plus à se soumettre aux rituels étouffants de l’école lassalienne, à cette rigidité qui, pour reprendre la rhétorique de Freinet, transforme l’école en prison, l’élan vital, la capacité naturelle au tâtonnement expérimental se trouve affranchie. Freinet définit cet élan en le comparant au mouvement du torrent. Il écrit ceci, par exemple :

    «Qu’arrive-t-il, en effet, si devant l’enfant se dresse un obstacle qui est pour lui  insurmontable ?
    Exactement ce qui se passe pour l’eau du torrent qui heurte un rocher qu’elle ne parvient pas à dépasser. Il y a choc, arrêt plus ou moins bruyant et déchiquetant de l’élan ; puis, après un moment d’inquiétude et d’indécision, le flot refoulé reflue sur lui-même dans un remous tourbillonnant.
    Il se produit alors, en même temps que le retour sur soi, une sorte de vide, de creux, que le courant met plus ou moins longtemps à combler selon la hauteur de l’obstacle.»

    (FREINET, 1994, vol.2, p.383)

    Ce paradigme hydraulique est la matrice de la théorisation, chez Freinet, de l’élan naturel et du tâtonnement expérimental. Si, avec le pédagogue, nous filons cette métaphore, il apparaît qu’il convient avant tout de libérer une aspiration à un apprentissage actif, un désir de se dépasser et de s’adapter, qui trouve, dans le dynamisme du sujet, les moyens suffisants à sa satisfaction. L’outil informatique est en mesure d’opérer un tel affranchissement. C’est une expérience que nous avons tous faite. L’ordinateur est un artifice qui rejoint étonnamment la nature. Face à lui, l’enfant est bien souvent comme le cours d’eau de Freinet, tâtonnant audacieusement, voire témérairement, et apprenant beaucoup par ce tâtonnement, bien mieux souvent que tous ceux qui n’ont pas actualisé cette disposition naturelle, qui l’ont bridée sous l’effet d’un surmoi d’origine scolaire. Il y a là un espace pédagogique moderne retrouvant certains aspects essentiels des  procédures imaginées par Freinet et l’Education nouvelle.

    Le support numérique ouvre à la pédagogie active de nouveaux territoires. Le slogan « do it yourself » ne nous semble pas pour autant pleinement légitimé.

     « Do it yourself » et pédagogie : de la solitude à la communauté d’apprentissage

    Du « do it yourself » à la communauté numérique

    L’élan naturel ne peut se passer d’un apport culturel. C’est la valeur instrumentale du langage qui fonde l’apprentissage de la langue. L’enfant apprend le vocabulaire, les structures grammaticales… dont il sent qu’elles vont pouvoir lui fournir des moyens de communication ou des instruments pour répondre aux problèmes qu’il rencontre. De manière générale, le savoir prend sens au sein d’une culture, d’une communauté (BRUNER, 1996). Celle-ci favorise la reconnaissance de chacun, l’apparition de conflits socio-cognitifs, l’imitation. Ces critiques, fondées sur les conceptions de  Vygotsky (VERGNAUD, 2000) et de Bruner (1996) permettent de justifier le passage d’un strict « do it yourself » à la construction de communautés éducatives numériques. Alain Bentolila, dans un récit exemplaire qui semble inspiré par l’exemple de la tradition des yeshivas, écrit ceci :

    «Une table, quelques chaises. Trois fronts penchés sur un même livre, qu’il soit profane ou bien sacré. De temps à autre, une tête se redresse, s’ouvre une bouche qui dit son intime conviction, son intime interprétation. Discutée, pesée, confrontée au texte présent, mais aussi éclairée par tous les autres textes, cette proposition prend place dans la construction collective du sens qui, d’âge en âge, de texte en texte, nous prolonge et nous unit. Nul n’en est exclu qui accepte la règle de la transmission : ni servilité ni trahison.»
    (BENTOLILA, 2000, pp. 207-208)

    Nous retrouvons, dans cette description, l’image ancestrale de la problématisation du texte, des controverses qu’elle entraîne au sein de communautés interprétatives. Le sens y est construit collectivement à partir de l’héritage patrimonial d’une tradition.

    Ce dialogue est, en outre, l’espace pédagogique favorable au développement d’une aptitude individuelle au dialogue intérieur. Celui-ci, comme l’a souligné Alain (1934), constitue la pensée elle-même : contrôle de soi par soi. Le géomètre, balayant les possibles, les hypothèses d’explications des évidences, dialogue avec lui-même, comme il peut dialoguer avec d’autres. Bachelard voyait dans le maître un surveillant de l’élève qui le prépare à se surveiller lui-même, à se diviser en deux instances : le maître intérieur et le disciple intérieur. Nous voyons dans la communauté d’apprentissage une initation à l’apprentissage autonome. Nous ne prétendons donc pas réfuter le « do it yourself », mais nous voulons rappeler que celui-ci se fonde nécessairement sur un apprentissage qui dépasse le champ individuel.
    Le travail individuel peut aussi apparaître comme un complément à l’apprentissage communautaire.

    Freinet faisait des exercices autocorrectifs un complément indispensable aux projets collectifs. Un passage par le systématique, un pas de côté métacognitif est indispensable à la finalisation des projets communautaires eux-mêmes. Mais ces pratiques individuelles prennent alors place dans la continuité de l’élan individuel et culturel initié au sein du groupe coopératif. L’apprentissage systématique des tableaux de conjugaisons n’est pas un préalable massif à la situation de communication. Il devient un complément essentiel au développement d’une écriture de la dédicace, un instrument de la communication, de l’expression, de l’élan poétique… Dès lors, il change de forme. A l’ensemble massif du tableau général des conjugaisons succèdent des exercices ponctuels correspondant à des besoins différents. Le numérique est particulièrement pertinent dans cette perspective. Les possibilités très variées de classifications différentes et simultanées des ressources permettent d’éviter l’apprentissage systématique assommant en lui substituant la possibilité d’accéder rapidement à une ressource précise. Je peux alors satisfaire un besoin particulier sans avoir nécessairement à me confronter à la masse de tout ce que je ne maîtrise pas.

    Du « do it yourself » à la présence pédagogique

    Cette communauté numérique, complétée par des techniques individuelles, ne peut cependant suffire à satisfaire le pédagogue.  Il y manque la présence du maître et des autres membres de la communauté.  Si la pédagogie est la théorie-pratique qui se fonde sur une « éthique de la relation » (FABRE, 2003), deux possibilités s’offrent au slogan « do it yourself ». Soit il s’agit d’assumer une dangereuse élimination du pédagogique au profit du seul didactique, soit le « do it yourself » est une formule interprétée comme une parole du maître ou du camarade de classe, une parole pédagogique, sécurisant, mettant au défit, reconnaissant une valeur, fondée sur un possible transfert. Ce « do it yourself » contiendrait donc en lui-même sa propre critique. Il renouerait avec le fameux slogan de la pédagogie Montessori : « apprendre à faire soi-même ».  Dans les deux cas, l’autonomie se fonde sur l’hétéronomie, sur une parole vibrante, réelle, humaine, chargée d’affects, jusque dans ses silences, sur les postures instinctives du corps et les expressions du visage.  Alors, le « do it yourself » rejoint l’éthique pédagogique de la relation. Il se fonde sur le moment pédagogique et l’indignation fondatrice du pédagogue qu’a identifiés Meirieu (2007). Le pédagogue est celui qui commence, généalogiquement, par s’indigner de la réalité de l’école-prison, du traitement indigne accordé à l’élève… Il est celui qui s’appuie sur ce repoussoir pour proposer une relation à l’enfant respectueuse de son absolue altérité, de son irréductible liberté, de sa singularité tenace.

    « Do it yourself » et didactique du français

    Le slogan « do it yourself » se heurte enfin à un dernier obstacle, dans le domaine spécifique de la didactique du français.  Après Jack Goody (1977) et Jacques Derrida (1967), il n’est plus nécessaire de revenir sur l’existence d’un bond entre l’oral et l’écrit. L’écrit autorise, en particulier, une distance critique et un soutien à la mémoire, que l’oral ne permet pas.  Le seul déchiffrage ne permet pas d’accéder à ces richesses propres à l’écrit. Il importe donc que l’élève accède au statut de lecteur et non à la seule compétence de déchiffrage.  Cependant, cela ne doit pas nous conduire à rejoindre ceux qui, dans les années 1970  et 1980, ont cru pouvoir imaginer un enseignement de l’écrit coupé de tout déchiffrage, comme s’il y avait deux langues autonomes : la langue écrite et la langue orale. C’est là une illusion qui conduit à des impasses pédagogiques. Trois limites apparaissent bientôt clairement.

    L’indispensable maîtrise de la parole

    Un enfant qui ne maîtrise pas l’oral n’est pas en mesure d’accéder à l’écrit – idée qui nous est aujourd’hui familière. Il importe de dépasser le scriptocentrisme de la forme scolaire. S’appuyant sur l’héritage de Célestin Freinet, Louis Legrand écrit ceci :

    «L’absence de communication vraie condamne les élèves issus des classes ouvrières à une exclusion mentale de fait d’un univers langagier qui leur est totalement étranger. De là les échecs scolaires et les abandons, de là surtout le fonctionnement antidémocratique de l’école. Ici encore, Freinet a été précurseur dans la mesure où sa pédagogie populaire de la langue était une pédagogie de la communication vraie, c’est-à-dire de l’expression personnelle et de l’écoute.»

    (LEGRAND, 1993)

    Seule une pédagogie de l’oral peut contribuer à éviter des situations d’échec scolaire dues à des inégalités sociales dans la maîtrise de langue orale. 

    La lecture comme lien social 

    Contrairement à ce que laissent entendre certains discours naïfs, il ne suffit pas de donner de beaux livres à un enfant pour qu’il les lisent. Le désir de lire se développe au sein d’une communauté culturelle, communauté d’apprentissage, pour l’enfant comme pour l’adulte. Les livres que je lis sont ceux dont je vais pouvoir parler, ceux dont on m’a parlé, etc.

    Quand l’écrit mime l’oralité 
    Beaucoup des grands écrits patrimoniaux français, comme l’ont montré les travaux de Fumaroli (1994), relèvent d’une esthétique classique du naturel. L’écrit y apparaît comme marqué par une forte oralité. Le style des contes de Perrault mime une langue orale simple. Les lettres de Mme de Sévigné retrouvent une fluidité aux allures d’oralité, etc. Comment comprendre ces textes, si l’on est pris dans une perspective bilinguiste, une représentation de l’écrit comme coupé de l’oral.

    Dès lors, il nous faut rechercher une méthode qui permette d’accéder à la lecture sans ignorer le passage par l’oral. Le philosophe Alain a proposé une piste. Il écrit ceci :

    «Au temps des concours de récitation, celui qui n’était pas sûr de sa mémoire trichait un peu, non pas pour conquérir une bonne place, mais pour éviter la punition ; le voisin complice approchait un peu son livre, ouvert au bon endroit ; un seul regard alors, soutenu par la mémoire déjà préparée, recueillait une masse de ces précieux signes, qui n’étaient pourtant pas à distance de vue ; mais chacun sait qu’on lit de fort loin, quand on sait à peu près de quoi il s’agit. Exercice excellent. Je ne vois pas pourquoi l’enfant ne lirait pas quelquefois des textes qu’il sait à peu près par cœur. Et peut-être pourrait-on lui montrer le texte par éclipses, comme se montrent ou se déroulent les enseignes lumineuses.»
    (ALAIN, 1934, pp.100-101)

    Il s’agit, pour Alain, de proposer un passage du déchiffrage des syllabes à la lecture visuelle, qui permet de tenir à distance le texte, d’en avoir une approche critique. C’est l’oralité qui est proposé comme un moyen de dépasser le déchiffrage. Il s’agit de retrouver une pratique ancestrale : celle de l’éclipse. Parce qu’il ne peut pas voir le texte en continu, l’élève est conduit à accorder moins d’importance à chaque syllabe et plus d’importance au regard global. Alors, il ne marmonnera plus, comme les curés dont se moque le philosophe.  Il lira véritablement. Les richesses de l’oralité n’auront cependant pas été oubliées. La saveur orale du texte poétique musical aura été l’objet d’une expérience scolaire. Le texte écrit demeurera, aux yeux du lecteur, hanté par l’oralité première, même si celle-ci a été dépassée.

    Les ateliers « voix haute »

    Les ateliers « voix haute » que nous proposons  renouent avec la tradition ancestrale de la lecture collective et des exercices de mémoire. Mais ils la renouvellent aussi, en privilégiant l’utilisation du vidéoprojecteur. Parmi les activités que nous proposons, il n’en est aucune qui ne puisse être réalisée aussi bien sur support papier. Nous préconisons néanmoins la lecture collective sur grand écran parce qu’elle permet de contrôler de façon précise les « éclipses » du texte.  Le grand écran offre, en outre, un moyen inédit d’échapper à la posture angoissante et scriptocentriste classique de l’étude, où l’élève est assis seul devant son texte. Ce point nous paraît d’une importance capitale. Aussi souvent que possible, dans notre conduite des ateliers, nous faisons en sorte que les élèves se tiennent debout devant le texte. Nous partons de l’idée qu’ils ne sont pas encore des érudits, que le moment est encore loin où ils seront capables de nouer un rapport intime avec le texte. Que, pour l’heure, ils ont à éprouver le fait qu’une œuvre littéraire s’adresse à une multiplicité d’individus.

    Qu’ensemble ils peuvent s’y mesurer. Le maître est là pour stimuler une confrontation physique qui consiste à déclamer ce qui s’affiche plus grand que soi, à toucher l’écran pour y désigner des mots ou, au contraire, les masquer. Là où le texte montre des vides, là où le mot ou la phrase sont éclipsés, chacun est en droit de risquer des hypothèses que les autres autour de lui auront à discuter, en s’appuyant sur des explications grammaticales, prosodiques, lexicales…

    Cet exercice est une proposition, pensée comme non exclusive, visant à prendre en compte le caractère porteur du  slogan « do it yourself » en même temps que ses limites.  Un apprentissage actif est proposé grâce à l’outil informatique. Celui-ci permet de privilégier ce que Jean Houssaye (1988) a appelé la relation apprendre, la relation directe entre l’élève et le savoir, plutôt que celle entre l’élève et le maître ou celle du maître et du savoir. Dans cette perspective, l’élève est placé dans une posture active. Cependant, ni le maître ni la communauté éducative ne disparaissent. Leur présence argumentative et sensible ne cesse de se manifester et de contribuer à l’intérêt de l’élève.

    Conclusion
    La recherche en sciences de l’éducation peut contribuer à isoler les problématiques dans lesquelles le maître est pris, souvent malgré lui. Il s’agit de répondre aux différents aspects de l’inconscient pédagogique par une psychanalyse de la connaissance propre à éclairer la pratique. C’est dans cette perspective que nous avons cherché ici à isoler différentes problématiques qui ne sont pas exclusives. Philippe Meirieu, dans sa thèse, a distingué trois types de groupes d’élèves : le groupe festif, qui permet de souder le groupe-classe, le groupe d’apprentissage, dans lequel chacun travaille à ce qu’il ne maîtrise pas encore, le groupe productif, dans lequel on confie au meilleur dessinateur les dessins et au meilleur angliciste les traductions en anglais pour obtenir un produit finalisé aussi parfait que possible. Il n’y a aucune raison d’abolir une de ces trois problématiques. Mais il est nécessaire de prendre en compte leurs différences pour ne pas les confondre et chercher à en faire un usage pédagogique adapté. De même, nous ne prétendons pas qu’un « do it yourself » strict doit être banni. Il a vocation à coexister et à se fonder sur d’autres problématiques pédagogiques, qui le justifient, lui donnent sens, le nuancent. Non seulement les problématiques ne s’excluent pas, mais elles entrent en complémentarité. C’est à cette lecture critique sans être polémique du « do it yourself » dans l’e-learning que nous espérons avoir contribué.

    Communication scientifique LUDOVIA 2008 par Baptiste JACOMINO
    CREN (Université de Nantes)
    Association Voix Haute
    Sciences de l’éducation

  • Comprendre les différentes formes du « faire soi-même » dans les jeux vidéo

    S’il est permis de rapprocher cet acte fondateur de l’acte de jeu, c’est qu’il y avait quelque chose d’intrinsèquement « ludique » dans les expérimentations de ces jeunes ingénieurs. À ce titre, le verbe « to hack » peut se définir par le fait d’ « interagir avec un ordinateur d’une façon ludique et exploratoire plutôt que d’une façon orientée par un but » . L’industrie du jeu vidéo n’a par la suite eu de cesse d’intégrer les expérimentations des joueurs dans ses logiques de développement, afin de prolonger la pérennité de ses productions, les utilisateurs étant ainsi considérés comme producteurs potentiels de contenus.

    Doom est à ce titre le jeu ayant démontré l’intérêt et la viabilité économique de ce système de production, en réunissant les joueurs autour d’une pratique commune de conception et de diffusion de niveaux. Néanmoins, à la différence de Spacewar, les productions des joueurs ont ici été rationnalisées et les possibilités de création encadrées en amont par les développeurs (il ne s’agit plus d’un détournement d’usage).

    Il apparaît dès lors qu’entre la modification non prévue originellement du jeu de science fiction Half-life en un match entre terroriste et contre-terroriste (Counter Strike) et la possibilité laissée aux utilisateurs de World of warcraft de paramétrer et concevoir leurs propres interfaces, les modalités de production dévolues au joueur ne s’expriment pas à la même échelle. Il faut aussi remarquer que dans un jeu à univers  persistant comme le titre de Blizzard précédemment cité, l’intérêt d’une bonne partie des mécanismes de jeu repose justement sur le principe de faire soi-même une aventure à partir d’un personnage que l’on aura personnalisé. Ces multiples éléments de réflexion incitent alors à proposer une typologie rendant compte des différents degrés et des différentes façons du faire soi-même dans le domaine vidéoludique, tout en plaçant au centre du questionnement l’une des problématiques centrales du colloque : « Pourquoi le monde numérique est-il si enclin à favoriser l’acte de l’utilisateur ? ».

    D’une culture participative au faire soi-même
    Dans un article intitulé Computer games as participatory media culture (2005), Joost Raessens propose un cadre théorique visant à mettre en évidence les singularités du jeu vidéo comme culture participative et les implications idéologico-politiques de cette forme particulière de culture. Il fonde notamment son analyse sur trois concepts clés : l’interprétation, la reconfiguration et la construction. Nous verrons que la présentation de ces réflexions nous permettra de fournir des outils d’analyse pour les différentes degrés du faire soi-même dans un jeu vidéo. Nous verrons par la suite que le propos de cet auteur nécessite d’être complété par une interrogation sur la nature spécifiquement ludique de ces actes, qui est à mettre en relation avec les différentes façons de faire soi-même.

    Relation interprétative du public à l’objet
    Joost Raessens souligne que toutes formes de pratiques participatives (auxquelles on peut affilier celles de faire soi-même) gagnent à être analysées en premier lieu à travers l’interprétation conférée par « le public » à ses actes, car selon l’auteur l’interprétation est un des facteurs essentiels de la participation. En référence à une analyse de Sherry Turkle, trois catégories de relations interprétatives entre l’objet et l’individu sont alors distinguées : une relation dominante, négociée, ou d’opposition. Dans le premier type de relation, la participation du public relève davantage d’une forme de séduction où l’individu va adhérer aux valeurs véhiculées par le produit. Ses différentes participations viendront renforcer les représentations et pratiques dominantes véhiculées par l’industrie culturelle qui conçoit et diffuse les produits. Turkle se réfère notamment ici à la culture développée par les fans.

    À l’inverse de cette attitude, se trouve une relation d’opposition, où les actions sont davantage interprétées comme des actes de résistance allant à l’encontre de l’industrie, le hacker étant considéré par Turkle comme l’une des figures emblématiques de ce type de relation. Entre ces deux extrêmes se trouve la figure de « l’utilisateur », dont la relation négociée à la machine peut tout de même conduire à une forme de critique sociale. C’est notamment le cas dans le cadre du jeu vidéo  lorsque la participation consiste à mettre en évidence les logiques sous-jacentes au système de simulation, qui apparaît alors comme un système issu d’une certaine construction idéologique, au même titre que tout autre « texte ».

    Particularités de la culture participative vidéoludique

    Si ces trois types de relations interprétatives peuvent être trouvées dans d’autres médias, Joost Raessens relève néanmoins que deux autres notions clés doivent être mobilisées pour mettre en évidence la singularité des formes de participation dans le jeu vidéo : la reconfiguration et la construction. La reconfiguration serait à comprendre comme « l’actualisation de quelque chose qui est virtuelle, dans le sens de potentiel, et déjà disponible comme une des options, créées par les développeurs du jeu vidéo »  (Raessens, 2005 : 381).

    La reconfiguration permet dans ce cadre d’aborder deux grandes catégories d’actions de l’utilisateur sur le système, celles de l’exploration d’une base de donnée pré-existante, comme ce peut être le cas lorsque le joueur découvre les différentes arborescences d’une histoire dans un jeu d’aventure. L’autre cas de figure est celui d’une forme de création qui repose sur la sélection d’actions et d’objets à partir d’un système de possibilités internes préprogrammées. Le jeu Spore de Will Wright (2008) se fonde en grande partie sur ce principe, en proposant au joueur un éditeur de créatures (de la simple cellule moléculaire à un organisme vivant complexe) permettant de construire sa propre forme de vie à partir de différents paramètres et choix (qui augmentent au fur et à mesure de l’évolution de l’organisme).

    La construction serait davantage à comprendre comme l’addition de nouveaux éléments et se retrouve « dans la création de nouveaux jeux – ou de façon plus commune – dans la modification de jeux existants » (ibid. : 381). Selon nous, le joueur apporte ici un élément au jeu qui n’était pas potentiellement actualisable dans la façon dont les développeurs avaient conçu la structure de jeu. À la différence de l’éditeur de créature dans Spore, les éditeurs de niveaux fournis avec des logiciels tels que Quake permettent à l’utilisateur de façonner un environnement architectural et un terrain de jeu qui n’étaient aucunement actualisables à partir de choix et d’actions menées sur le système en tant que tel (il s’agit bien d’ajouter des éléments extérieurs au système de jeu). Il y a bien sûr une gradation entre reconfiguration et construction, c’est pour cette raison que nous avançons qu’il y a différents degrés de faire soi-même entre ces deux pôles.

    Enjeux idéologiques et politiques
    Pour Joost Raessens, la description de ces différentes caractéristiques de la culture participative telle qu’elle s’exprime dans les jeux vidéo incite alors à prendre en considération les possibles effets culturels de ce type de pratique. Comme le souligne Janique Laudouar au sujet des pratiques de production fictionnelles provenant des joueurs du jeu The Sims, «  les principes de l’écriture interactive et le principe commercial de l’empowerment (“donner du pouvoir au consommateur”), deviennent un seul et même ressort de la fiction interactive » (Ladouar, 2006 : 162). En premier lieu se pose la question des processus d’homogénéisation face aux processus d’hétérogénéisation. Joost Raessens relève en effet que la multiplication des actes de participation n’implique pas forcément une relation d’opposition face à l’industrie qui encourage ces pratiques, l’individu n’étant pas alors tant dans un contrôle de production de la culture, mais plutôt dans un contrôle de consommation.

    Ici, le processus de participation s’apparenterait à un processus « top-down », où les multinationales dirigeant l’industrie diffuseraient certaines valeurs en direction d’un public qui collaborerait à la diffusion de cette culture. L’auteur souligne néanmoins qu’il ne fait pas sous-estimer l’importance des processus de type « bottom–up », où « tous les types de minorités et de sous-cultures ont saisi l’opportunité d’exprimer leur point de vue dans le relatif chaos des médias contemporains » (Raessens, 2005 : 383). Face à l’uniformité, une variété d’expressions trouverait alors place. Et pour Joost Raessens, c’est plutôt à une prolifération de points de vue et à un certain chaos que les générations actuelles doivent faire face, la pratique du jeu vidéo permettant dans cette perspective d’acquérir les compétences cognitives nécessaires pour survivre dans le monde actuel. À travers ses diverses formes particulières de participation, les jeux vidéo mettraient en avant que le réel est une forme actualisée de possibles à disposition, une version de la façon dont le monde fonctionne, et jamais la seule et unique vision.

    Bien que les réflexions de Joost Raessens permettent de cerner les différents degrés du faire-soi même et ses effets culturels, elles ne nous semblent pas en revanche interroger la raison pour laquelle ces modes singuliers de participation se développent et prennent de l’ampleur dans les pratiques vidéoludiques. En d’autres termes, pour reprendre l’une des problématiques centrales du colloque, « pourquoi le monde numérique est-il si enclin à favoriser l’acte de l’utilisateur ? ». Pour apporter des éléments de réponse, nous verrons en premier lieu qu’il est important de questionner la dimension interculturelle des processus de médiation  qu’engage cette industrie puis la dimension spécifiquement ludique de l’acte, ces deux aspects venant renforcer la nécessité d’impliquer l’utilisateur dans la production du message.

    Un impératif ludique
    Faire soi-même dans le cadre du jeu est un acte fréquent et naturel. Comme l’a relevé D.W. Winnicott, le jeu pour pouvoir exister doit permettre l’expression de la créativité de l’individu, ce terme étant à comprendre comme « la coloration de toute une attitude face à la réalité extérieure » (Winnicott, 1971 : 91). Les enfants ont à titre d’exemple l’habitude d’inventer leurs propres règles de jeu, voire de modifier avec beaucoup d’aisance les règles de jeu établies, adaptant de la sorte l’activité à leur représentation mentale de ce qui est ludique. Comme l’ont montré les études anthropologiques du jeu, les peuples et cultures possèdent en effet des conceptions particulières du jeu, qui sont en grande partie transmises par la tradition. Les jeux vidéo modifient néanmoins le rapport de l’individu à l’activité car ils développent une culture fondée non pas sur une tradition mais sur une industrie globalisée et ils proposent des modalités de participation spécifiques du fait de leur support informatique – les règles sont moins aisément modifiables – ce qui n’est pas sans incidences sur les différentes façons de faire soi-même un jeu.

    Le jeu vidéo : de la culture-tradition à la culture-industrie
    Comme le souligne Joost Raessens, les jeux vidéo diffusent une forme particulière de culture entre les individus. Pour en comprendre les fondements, il faut tout d’abord définir ce à quoi peut renvoyer ici le terme de culture. Selon Jean-Pierre Warnier, la culture est « une capacité à mettre en œuvre des références, des schèmes d’action, et de communication. C’est un capital d’habitudes incorporées qui structure les activités de ceux qui le possèdent » (2004 : 11). Il ne faut pas cependant voir à travers cette définition une conception déterministe de la culture, qui placerait les actions de l’individu sous influence.

    Pour Jean-Pierre Warnier, la culture remplirait plutôt le rôle d’une boussole qui permet de s’orienter en fonction des répertoires d’actions et des représentations proposées, « qui permettent aux sujets d’agir conformément aux normes du groupe » (ibid., 2004 : 10). Dans ce cadre, les cultures sont pour Jean-Pierre Warnier historiquement et géographiquement situées et se caractérisent par leur mode de transmission, la tradition. Jean-Pierre Warnier définit ce terme en reprenant la définition que propose Jean Pouillon, « ce qui d’un passé persiste dans le présent où elle est transmise et demeure agissante et acceptée par ceux qui la reçoivent et qui, à leur tour, au fil des générations, la transmettent » (ibid. : 6). Les « cultures-traditions » ne sont toutefois pas figées, elles doivent au contraire pouvoir intégrer le changement pour assurer leur fonction d’orientation.

    Cependant, si les cultures ont toujours été en contact les unes avec les autres, Jean-Pierre Warnier (2004 : 14-15) souligne qu’une « situation historique toute nouvelle est apparue à partir du moment où les révolutions industrielles successives ont doté les pays dits “développés” de machines à fabriquer des produits culturels et de moyens de diffusion à grande puissance. Ces pays peuvent maintenant déverser partout dans le monde, en masse, les éléments de leur propre culture ou de celle des autres ».
    À la suite de cette réflexion, force est de constater l’intérêt d’interroger le possible rôle de l’industrie vidéoludique en tant que forme particulière de culture.  Cela permet en premier lieu de mettre en évidence les logiques de globalisation de la production prégnantes au sein de toute industrie, sans pour autant en nier certaines origines historiques et localisées : « l’industrie, en effet est elle aussi une tradition, enracinée dans une histoire locale, mais qui par le biais de la technologie, des investissements et du marché, a vocation mondiale » (ibid. : 17).

    Dès lors, il y a une véritable nécessité à prendre en compte « l’intrusion » de cultures-industries au sein des cultures-traditions : « L’industrie fait intrusion dans les cultures-traditions, les transforme et parfois les détruit. Cette intrusion est l’occasion de conflits. Elle prête à controverse. Elle doit être posée au centre de l’analyse de la mondialisation culturelle » (ibid. : 6). L’augmentation des coûts de production encouragée par la course à l’innovation technologique et les lois du marché génèrent une forte concentration de ces industries, au risque de ne s’aligner que sur un seul et même modèle. Et dans ce cadre, les productions de l’industrie véhiculent un ensemble de représentations dominantes du jeu, telles que celles identifiée par Stephen Kline sous le terme de « masculinité militarisée » (2003).

    La question des processus de diffusion et d’appropriation des représentations se pose alors de façon accrue, comme le suggère l’analyse de Joost Raessens. Comment impliquer des individus de cultures diverses avec une même œuvre, alors que les différents peuples ont leurs propres conceptions de ce qui est ou non ludique ? Car comme le souligne Michel Espagne (1999 : 141), « les cultures ne se laissent pas dissoudre par les tentatives aussi radicales soient-elles, de les investir, mais elles restent dotées d’un fort pouvoir de capture et de remodelage qui remet en cause les représentations d’un rayonnement unilatéral, les explications diffusionnistes ». Les débats entourant l’objet « jeu vidéo » montrent que son développement ne s’est pas fait sans rencontrer une certaine « résistance » dans les différentes sociétés, celles-ci véhiculant elles aussi leurs propres représentations sociales sur l’activité, qui rentrent parfois en conflit avec la diffusion de ces produits. Dans ce cadre, au sein d’un domaine globalisé reposant essentiellement sur des processus de médiation interculturelle, une perméabilité sémiotique accrue en faveur de l’utilisateur est un facilitateur permettant à chacun de mettre en scène son propre imaginaire du jeu .

    Faire soi-même dans le cadre du jeu est une des pratiques permettant cette perméabilité.

    Ludus et paidia, deux pôles qui traduisent des façons différentes de faire soi-même 
    Néanmoins, à la différence de l’enfant qui invente ou modifie avec facilité des règles de jeu, le support informatique ne met pas les modifications du système de jeu à la portée de tous. Il doit cependant répondre à cet impératif ludique de créativité souligné par Winnicott pour que la pratique puisse relever du jeu. Pour ce faire, nous avons relevé que les jeux vidéo pouvaient favoriser l’acte créatif de l’utilisateur à différents degrés (de la construction à la reconfiguration), mais il nous semble aussi nécessaire de souligner qu’ils le font selon deux modalités différentes, constitutives de toute activité ludique.

    Comme l’a montré Roger Caillois, l’attitude ludique oscille entre deux pôles, deux « manières de jouer », d’un côté la paidia, « principe de turbulence » (qui peut être rapproché du terme play), et de l’autre le ludus, qui discipline l’exubérance de la paidia par des contraintes, de règles (il peut être rapproché du terme game). Cette opposition de la turbulence à la règle, entre liberté et adoption de règles strictes, est fondamentale dans le jeu. Elle a été relevée par d’autres auteurs comme D.W. Winnicott, pour qui le mot game renverrait à un jeu organisé qui serait une tentative de tenir à distance l’aspect « effrayant » du jeu play, qui serait alors désorganisant. Un lien peut être fait ici sur l’oscillation relevée par Raessens entre l’acceptation des valeurs véhiculées par ces jeux ou au contraire une certaine prise de distance par une déconstruction (entre le fan et le hacker).

    Au regard des réflexions de Caillois, il apparaît que ces prises de position soit suscitées par la nature ludique de la situation qui encourage l’individu à se situer d’un extrême à l’autre de ces pôles. Et dans ce cadre, même si le jeu sur support informatique rend moins aisé la modification de son système (c’est un impératif qu’il faut accepter comme toute règle du jeu), il n’en empêche pas pour le moins l’adoption de deux façons de jouer, et donc de faire soi-même lorsque cette action est constitutive de la dynamique de jeu.

    Etudes de cas
    Plusieurs exemples que nous avons relevé peuvent servir de « cas d’école » des différentes configurations possibles entre les degrés et les façons de faire soi-même, au sens où ils peuvent être considérés comme des paradigmes de diverses pratiques du faire soi-même dans les jeux vidéo, et qu’ils sont régulièrement présentés de la sorte.

    Spacewar : Paidia et construction
    Le premier cas à considérer est celui qui a historiquement donné naissance à l’industrie : Spacewar. Issu du détournement de l’usage d’un supercalculateur du MIT (un PDP1), la création de Steve Russel est emblématique du couple Paidia et construction. Comme nous l’avons relevé en introduction, Russel faisait partie d’un groupe d’étudiants se faisant appeler hacker et dont l’ambition était d’explorer de façon ludique les possibilités offertes par un système informatique. Ainsi, Spacewar ne résulte t’il pas d’un programme de recherche « officiel » de l’institut californien, sa création s’écartant des usages initialement envisagés par les concepteurs du PDP1. De plus, ce jeu a avant tout vocation à être diffusé gratuitement au travers des campus universitaires, selon l’idéologie hacker. Ces différents aspects l’inscrivent résolument dans le cadre d’un processus bottom-up. Mais puisque la culture-industrie vidéoludique n’existait pas encore, il faut envisager à quelle autre industrie cet acte répondait.

    Dans le cas de Spacewar, la culture-tradition hacker peut être considérée comme une réponse à une certaine culture-industrie, le complexe militaro-industriel. En effet, au moment de la conception de Spacewar, dans un contexte de guerre froide, l’époque est à la course à l’armement et à la conquête spatiale  (le nom du jeu n’est d’ailleurs pas anodin sur ce point et résulte d’une certaine fascination des jeunes ingénieurs pour cette thématique, tout comme pour la science-fiction…). Aux États-Unis, des fonds militaires soutiennent les recherches de plusieurs institutions tels que le MIT. La naissance de l’industrie vidéoludique résulte donc du concoure de deux cultures distinctes mais complémentaires, cette dichotomie se retrouvant encore aujourd’hui dans les pratiques liés aux jeux vidéo, de l’adhésion des fans aux valeurs d’une firme à l’exploitation des bugs du système pour le rendre injouable.

    L’exploitation du bug « corrupted blood » dans World of warcraft : Paidia et reconfiguration
    Le célèbre jeu massivement multijoueur propose de nombreux mécanismes fondés sur la reconfiguration et l’actualisation d’éléments pré-existants. Bien que généralement la pratique des joueurs vient répondre aux demandes du système de jeu (ce qui pourrait être emblématique du dernier couple que nous envisagerons, reconfiguration et ludus) des pratiques d’opposition à son fonctionnement n’en apparaissent pas moins, tout en restant dans le cadre d’une reconfiguration. C’est notamment le cas de certaines exploitations de « bugs ».

    Ces exploitations peuvent bien sûr se placer dans une optique de jeu visant à optimiser la réussite et l’efficience de la pratique (augmenter plus rapidement dans les niveaux, accroître son capital monétaire, etc.), ce qui ne les différencient pas dans leur finalité d’un processus d’adéquation entre l’utilisateur et les valeurs du système. D’autres en revanche nuisent à son fonctionnement, comme le montre l’exemple de l’exploitation du bug du sort « corrupted blood », qui était lancé par le boss d’un donjon dénommé Zul’Gurub. Ce lieu n’était normalement réservé qu’aux personnages puissants, le sortilège ayant la propriété de se répandre tel la peste parmi ses opposants, qui pouvaient avoir une chance de survivre du fait de sorts de soin puissants. La maladie ne devait supposément pas quitter le donjon. Un joueur réussit néanmoins à téléporter son avatar contaminé dans une capitale du monde de Warcraft, transmettant l’infection aux avatars alentour, y compris les personnages de bas niveaux qui n’avaient aucune chance de résister, rendant alors la capitale inhabitable. Les développeurs durent apporter une modification au système de jeu pour empêcher la reproduction de l’incident. Ceci attira également l’attention du Center for disease control (CDC) pour envisager des études épidémiologiques en milieu virtuel. Cet apport des pratiques de joueur est caractéristique d’un processus bottom-top.

    La création de niveaux dans Doom : Ludus et construction
    Le couple Ludus et création peut être identifié à travers l’exemple de Doom. Ce jeu répond tout à fait aux représentations dominantes de contenus identifiées par Kline sous le terme de masculinité militarisée. Il est également l’un des premiers jeux à tirer pleinement profit du jeu multi-joueur sur Internet, tout en proposant un modèle économique fondé sur la distribution en « shareware » : seuls les premiers labyrinthes du jeu sont fournis et si le joueur veut en voir plus il doit passer commande directement chez l’éditeur pour pouvoir télécharger les autres « épisodes ».

    De plus, les développeurs diffusent à l’intention des utilisateurs des outils de conception de niveaux pour leur logiciel. Ces différents aspects contribuent à augmenter la durée de vie du jeu tout en répondant aux impératifs du design qui est de placer l’utilisateur au cœur du processus de production. En effet, avec le logiciel de création de niveaux fourni pour Doom, de nombreux joueurs peuvent proposer leurs propres « arènes » de combats. Cet aspect concourt à créer une communauté de joueurs autour du jeu Doom. Leur création participe à la pérennité du produit, s’inscrivant dans les logiques marketings mises en place par les développeurs et répondant ainsi à un processus top-bottom.

    Spore : un cas emblématique du couple ludus et reconfiguration ?
    Comme nous l’avons indiqué, le système de jeu de Will Wright concentre une grande partie de son intérêt sur la liberté de création laissée au joueur à partir d’un éditeur qui se fonde sur les pratiques de reconfiguration complexe. S’il semble de prime abord que ce type de système puisse favoriser à la fois les actions de ludus comme de paidia, il est important de souligner qu’un des rôles centraux des développeurs sera de réguler la création des joueurs pour les restreindre selon des logiques de la société de production, Electronic Arts.

    L’un des principes du jeu est de permettre aux joueurs de diffuser leurs créations à d’autres via le net. Avant la sortie du jeu (en septembre 2008), les développeurs ont diffusé « l’atelier de créatures » pour permettre aux joueurs de s’essayer à la création d’avatars. Très rapidement, de nombreuses créatures à la représentation sexuellement explicite firent leur apparition (phallus à quatre pattes, etc.). Electronic Arts indiqua alors que cette pratique violait les conditions d’utilisation spécifiées sur leur site Internet, où il est indiqué qu’il est interdit de transmettre ou faciliter la distribution de contenus nuisibles, notamment ceux qui étaient sexuellement explicites . Les internautes risquaient alors de voir leur compte et leur accès au logiciel supprimé.

    Ce dernier exemple montre alors que faire soi-même dans le jeu vidéo ne signifie pas automatiquement se libérer des contraintes et normes imposées par l’industrie, qui régule les pratiques. Ceci incite à ne pas uniquement voir uniquement à travers l’encouragement des actes de l’utilisateur des processus d’hétérogénéisation puisque des phénomènes d’homogénisation rentrent également en conflit avec ces pratiques.

    Conclusion
    Comme l’ont montré les réflexions et exemples précédents, faire soi même dans le jeu vidéo ne signifie pas automatiquement qu’il y ait réappropriation, ou détournement, des valeurs véhiculées par cette culture-industrie globalisée. Faire soi-même peut au contraire s’inscrire selon nous dans une logique du « faire faire », où les actions des consommateurs concourent à diffuser et reproduire les modèles engendrés par les multinationales : « Le but est de “fermer la boucle” entre corporation et consommateur en réinscrivant le consommateur dans le processus de production et en fournissant des informations sur ses préférences et prédilections pour le design et le marketing des nouveaux produits de jeu »  (Kline, Dyer-Witheford, De Peuter, 2003 : 57). Il serait néanmoins tout aussi erroné d’ignorer les processus qualifiés par Joost Raessens par le terme de « bottom-up », qui concourent eux aussi depuis sa naissance à la formation de la culture-industrie vidéoludique.

    En définitive, le schéma que nous avons présenté est à considérer comme une construction heuristique permettant d’identifier et de comprendre ce phénomène complexe d’échanges entre culture-industrie et cultures-traditions, avec les frictions et complémentarités générées. Le cas des pratiques du faire soi-même dans les jeux vidéo montre la nécessité d’utiliser un cadre de référence interactionniste plutôt que diffusionniste pour comprendre les processus de médiation à l’œuvre.

    Communication scientifique LUDOVIA 2008 par Sébastien GENVO (extraits)
    Centre de recherches sémiotiques
    Université de Limoges – IUT du Limousin

  • Wikipédia et éducation : Quels enjeux, quels apprentissages pour une info-literacy ?

    Les utilisateurs du Web deviennent  auteurs et acteurs du Web. Avec son évolution permanente des  connaissances, Wikipédia renouvelle le modèle de l’édition avec un nouveau genre encyclopédique n’offrant pas de représentations stabilisées des modes de production et de validation dans la chaîne éditoriale. Les références entre savoirs savants et savoir profanes s’interpénètrent. Wikipédia a pour elle, la puissance du nombre avec des rédacteurs bénévoles, une possibilité de diffusion instantanée à l’échelle de la planète et la gratuité.

    Le principe est simple : des anonymes, compétents ou non, rédigent en ligne un ou des articles sur les sujets de leur choix, les textes pouvant par suite être modifiés, corrigés, et même vandalisés, par les autres usagers. Grâce au logiciel Wiki, tous les internautes peuvent intervenir sur les pages et les strates de la production d’informations sont concernées, plaçant l’usager au cœur de la création de contenus sur internet. Wikipédia est non seulement gratuite, elle est surtout  participative ou collaborative. Le dispositif repose sur une sorte de « régulation naturelle » pour corriger les erreurs de ses contributeurs, voire rectifier certains actes éventuels de vandalisme toujours possibles.

    Les modalités d’accès aux savoirs sont renouvelées avec une chaîne éditoriale ouvrant un accès à l’écriture et à l’édition collaborative. Des résistances sont nombreuses et il est important de pouvoir dégager les freins et les blocages dans le processus éditorial visé dans le domaine de l’Education. La qualité est souvent remise en cause. Le savoir construit sur Wikipédia peut-il émaner de tous, du citoyen lambda qui, avec ses passions personnelles d’entomologie peut apporter sa pierre sur les insectes, aux savants experts, en passant par ceux qui n’ont pas étudié d’une façon académique avec des diplômes ? Est-ce que la vérité simplement est une affaire d’audimat ? Peut-on faire confiance aux non experts ?

    L’encyclopédie Wikipédia est devenue une référence incontournable pour les élèves et les enseignants. Si Wikipédia est une opportunité pour les adeptes du « copie-coller », elle est souvent sujette aux critiques liées à son fonctionnement. Que doit faire l’école pour mettre en place une info-literacy face au phénomène « Wikipédia » ? De nombreuses activités peuvent faciliter la mise en place du B2I, du C2I et du PCIE (passeport de Compétences Informatique Européen) et développer une info-literacy.

    L’école face au phénomène Wikipédia

    Compte tenu des différentes études menées sur Wikipedia, il y a lieu de s’interroger sur l’hostilité que Wikipédia continue de susciter en France, particulièrement dans les milieux pédagogiques.

     » Wikipédia ne peut avoir une présence reconnue dans l’enseignement en France, ses principes mêmes (neutralité) n’étant pas compatibles avec les valeurs de l’école laïque et républicaine française, valeurs qui conduisent à privilégier certains points de vue et à en interdire d’autres ». (E. Bruillard, 2007, p39-45). Cette citation d’un paragraphe écrit par Eric Bruillard  a été reprise  par Christian Vandendorpe pour illustrer « l’hostilité que Wikipédia continue de susciter en France, particulièrement dans les milieux pédagogiques »).… La suite du texte n’est pas reproduite, alors qu’elle apporte  un autre éclairage : «Cela n’empêche pas qu’elle puisse avoir une place. On peut tout d’abord la considérer comme un projet et voir les modalités de participation  » active  » à ce projet ou privilégier l’aspect encyclopédie dans une posture de consommateur ».  (E. Bruillard, 2007, p39-45).

    De nombreux échanges sur l’observatoire de Wikipedia posent les différents problèmes posés par Wikipédia au sein de l’éducation   Les avis sont nombreux et partagés comme le témoignent les interventions lors des ateliers organisés lors du colloque Wikipédia 2007 .

    Cet enseignant utilisateur de Wikipedia donne son point de vue. « J’aime Wikipédia. Je pense que c’est un bon outil pour trouver de l’information factuelle sur une foule de sujet. Je crois que c’est la quintescence du modèle encyclopédique et qu’en soi, Wikipédia est un rouage majeur de la révolution de l’information. Mais il est vrai que ça dérange. Certains professeurs à la traîne refusent de reconnaître la valeur du web en tant que source d’information crédible et impose leurs vues aux élèves qui apprennent toujours à penser comme dans le temps des cardex de bibliothèques. »

    Alors que quelques uns plébiscitent l’idée, certains s’y opposent, au motif bien connu que ses contenus ne sont pas fiables. Certains professeurs ont été amenés à interdire l’utilisation de Wikipédia. Le 26 février 2007, dans un quotidien cambodgien, le Cambodia Daily a inscrit à la une, l’interdiction de Wikipédia dans une université américaine. Un professeur lassé de voir les mêmes erreurs en provenance de Wikipédia introduites dans les copies d’élèves, leur interdisait de citer Wikipédia, y compris dans leurs bibliographies . Le professeur Neil Waters, professeur d’histoire affirme que Wikipédia peut servir à débuter une recherche sur Internet. Il est important d’analyser de plus près les diverses résistances au sein de l’Education.

    Les résistances 
    Régulièrement, des critiques à l’égard de Wikipédia (près de 500 000 articles en français, plus de 7 millions dans plus de 192 langues) émergent. « Meilleure expression de ce qu’Internet peut avoir de généreux (gratuité, bénévolat, collaboration, échange), le site est pourtant accusé d’approximations, de méthodes souvent « staliniennes » et surtout d’ouvrir grand les bras aux manipulations ».    Wikipédia est banni dans certains  établissements scolaires.  Une enquête étrangère a été publiée sur la légitimité de ce genre d’encyclopédie pour les étudiants: “Is Wikipedia a solid resource, merely a good starting point, or something students should avoid?”. Faut-il utiliser l’encyclopédie Wikipédia ou faut-il l’interdire ? Quelles sont les remises en questions, risques supposés ou réels ?

    L’encyclopédie Wikipédia est une encyclopédie qui « bouge » à tout moment et pour les élèves, il pourrait être  « dangereux » de tomber sur une page  qui a fait acte de vandalisme.  L’école doit garantir des textes « sûrs » à ses élèves. La « sécurité » est primordiale à l’école.

    Une charte-type élaborée dans le but d’inspirer et d’aider les établissements scolaires et les écoles à préciser à leur tour de manière contractuelle les conditions d’utilisation par les élèves et les personnels de l’Éducation nationale des services liés aux technologies de l’information et de la communication, est obligatoire. Que se passe-t-il pour un établissement scolaire, si un article nouvellement « vandalisé » tombe entre les mains des élèves ? Quelles sont les « normes de sécurité » à garantir ? Pour garantir la sécurité, la mise en place d’une encyclopédie « figée » et « stabilisée » a été une solution adoptée dans certains pays comme l’Angleterre ou l’Allemagne qui ont impulsé la diffusion d’une encyclopédie « papier » avec des articles sélectionnés. Bertelsmann a annoncé en Avril 2008,  la commercialisation en septembre, pour la première fois au monde, d’une version imprimée sur papier en allemand de l’encyclopédie par internet Wikipedia. Ce livre rassemblera 50.000 fiches issues de la version germanophone de Wikipedia qui en compte 700.000. Il sera vendu 19,95 euros, dont un euro sera reversé à l’association à but non lucratif qui gère la Wikipedia germanophone. « L’édition papier, condensée en un volume, touchera un nouveau public, qui apprendra ainsi à connaître le projet Wikipedia et à y collaborer », a affirmé dans un communiqué Beate Varhnhorn, directrice de publication chez « Bertelsmann Lexikon ».

    La qualité remise en cause ? 
    La qualité des ressources proposées à l’usage des enseignants est une question cruciale pour leur diffusion et leur partage. Les enseignants doivent avoir les moyens de choisir les ressources qui leur sont nécessaires, d’identifier celles qui sont pertinentes. Tout le monde peut écrire quelque chose et n’importe quoi sur l’encyclopédie. Quelle va être la qualité de la ressource souvent mise en ligne par un « non expert » ?

    Les enseignants préfèrent appliquer le principe de précaution qui veut qu’on ne donne pas aux élèves un document pouvant contenir des erreurs, et un des reproches souvent faits à Wikipédia est son manque de certification. Si n’importe qui peut y écrire, la qualité pourrait être remise en cause. Faut-il stabiliser Wikipédia en mettant en place une certification, mettre en place une encyclopédie « sûre »,  comme cela a été fait en Angleterre?

    En évoluant très vite sur Internet, les critiques adressées à Wikipédia deviennent vite obsolètes. Wikipédia a le souci de mettre en place un système de labels de qualité sur ses contenus.  La « récompense virtuelle » attribuée à un article de qualité consiste à l’attribution d’un Logo sous la forme d’une pièce de puzzle en forme de globe planétaire. D’après Sébastien Blondeel, « il faut compter environ un article de qualité pour mille articles. »  (Blondeel,,2006, p37). D’après Wikipédia, de nouveaux articles de qualité sont votés au rythme de 10 à 20 par mois. Il est possible d’accéder à une page qui rassemble les  portails de qualité sur Wikipedia. Mais à quel moment pourra-t-on dire que l’article est de qualité ? Pour Blondeel, « les articles de qualité sont ceux qui sont les plus complets, les mieux écrits, les plus neutres. » (Blondeel, 2006, p37). Il est primordial de voir dans quelle mesure l’expertise peut être utilisée pour améliorer un texte et de pouvoir repérer et reconnaître l’expertise d’un expert.

    L’originalité de Wikipédia est de rendre lisible les champs d’expertise de différentes domaines. Le contributeur peut s’engager sur des thèmes qui lui tiennent à cœur et qui lui permettront de développer ses compétences. Chaque contributeur peut s’y retrouver. Le Projet « Maintenir et améliorer la qualité » a pour but de développer une grande offensive de nettoyage, d’amélioration de la qualité de Wikipédia, de maintenance, avec une  coordination des différentes tâches à réaliser. Des ébauches  sont  fréquentes et sont à compléter par les wikipédiens. Elles correspondent à des articles courts provisoires qui donnent une première définition succincte en attendant d’être amélioré par d’autres contributeurs. Elles ne sont pas considérées comme un article à part entière et sont recensées et disponibles sur une page dédiée. Le manque de contrôle est souvent un reproche qui est fait à l’encyclopédie. L’encyclopédie peut elle être générée sur des savoirs construits pas des amateurs ? Peut-on faire confiance à une ressource produite par un amateur ? Une personne non botaniste de formation peut-elle apporter son expertise sur les roses et les rosiers ?
    Le savoir doit-il être vérifié par ceux qui savent, les experts ?

    Citizendium de son côté est un projet encyclopédique faisant appel à des experts pour guider le public dans l’écriture des articles. Le système est fondé sur un wiki, et les auteurs sont enregistrés sous leur propre nom. L’expertise concerne la vérification des articles, le but étant d’obtenir une encyclopédie évoluant plus lentement mais contenant le moins d’erreurs possible. Pour obtenir la participation de la communauté en ligne d’érudits, Britannica  a le projet de fournir aux contributeurs un système de « récompenses », un système d’édition riche qui leur permettra de faire la promotion de leur travail et de leurs services, de publier leurs différents travaux en progression dans la sphère d’audience de Britannica.

    Information literacy 
    La capacité à donner du sens à cette quantité d’informations sur le Web composant  notre environnement à la fois personnel, culturel, social et professionnel représente un enjeu majeur pour réaliser la transition nécessaire de la société de l’information Vers les sociétés du savoir (Unesco, 2006).  Si les compétences de base telles que le « lire-écrire-compter » sont inscrites dans les programmes scolaires, il est nécessaire d’apprendre à apprendre et d’apprendre à  chercher, évaluer, et utiliser l’information. Comme le précise Vincent Liquete, dans son livre, il ne suffit plus d’acquérir à l’école des connaissances, l’élève doit apprendre à apprendre, être capable de s’approprier des méthodes personnelles de travail, de gérer son apprentissage.  La recherche d’information y a toute sa place. La notion d’« information literacy », le plus souvent traduite par « maîtrise de l’information », a toute sa place à l’Ecole. Elle a été définie par l’OCDE et par Statistiques Canada en 1995,  comme « l’aptitude à comprendre et à utiliser l’information écrite dans la vie courante, à la maison, au travail et dans la collectivité en vue d’atteindre des buts personnels et d’étendre ses connaissances et ses capacités » qui s’oriente vers un continuum de connaissances, de compétences et de stratégies permettant d’utiliser les technologies numériques et développer une digital litteracy. Dans ce rapport, il est précisé qu’ « avec l’ère du numérique, la compréhension des technologies ne suffit pas. Ce que tout un chacun doit aussi faire, c’est apprendre à utiliser effectivement et efficacement ces technologies diverses et puissantes pour rechercher, extraire, organiser, analyser et évaluer, puis utiliser à des fins concrètes de prise des décisions et de solution des problèmes ». 

    Quelle place pour Wikipédia à l’école ? 
    dreshler wikipediaLes outils du Web2.0 comme Wikipédia apportent une dimension participative au Web. Rentrer dans les « rouages » des dispositifs de création, de diffusion des informations, de partage d’informations sur le Web, n’est-elle pas une des clés  permettant aux élèves d’être critiques, face à l’information, et d’être plus efficaces en matière de recherche documentaire ? L’école, face à l’évolution d’Internet, toujours en mouvement, et pour lequel les usagers peuvent à tout moment être « auteurs » de ressources ne doit-elle pas développer des compétences informationnelles afin que les élèves, deviennent des acteurs « actifs » du Web?

    Il est important de dégager les éléments structurants d’une culture informationnelle nécessaire aux individus d’aujourd’hui et d’aboutir à des préconisations utiles à l’élaboration d’un programme continu d’apprentissages documentaires tout au long de la scolarité. Wikipédia devenue une référence de choix pour beaucoup d’élèves. Afin que ces derniers maîtrisent au mieux la recherche d’informations sur Internet et qu’ils puissent être critiques face à l’information disponible, il est incontournable de leur proposer une éducation « aux médias » en intégrant ces nouvelles formes de production collaborative de contenus sur Internet dans le contexte scolaire.
    Mais que doit proposer l’école pour devenir « wiki-intelligent » ?

    Quelles pistes et projets pour l’Ecole ?
    Intégrer Wikipédia à l’école permet de développer des compétences du B2I (Domaine 2 : adopter une attitude responsable) ainsi que des compétences du C2i spécialisé pour les enseignants pour le travail en équipe et en réseau. Le programme intergouvernemental de l’UNESCO  a mis en place des indicateurs pour une information literacy   Towards information literacy indicators. Ce rapport fournit une définition de la maîtrise de l’information, un modèle de correspondances entre la maîtrise de l’information et d’autres compétences comme la connaissance des TIC, et une description des normes éducatives en matière de maîtrise de l’information. Wikipedia y a toute sa place comme objet d’analyse et d’étude.  Le PCIE est défini par un référentiel européen qui insiste sur les bonnes pratiques et les règles de productivité. C’est un bilan des connaissances nécessaires pour une maîtrise raisonnable de son ordinateur au quotidien, issu d’évaluations des pratiques en entreprise. Wikipedia a toute sa place comme objet d’analyse et d’étude pour le module 7 axé sur la navigation sur Internet. Les expériences autour de Wikipedia à l’école sont nombreuses comme par xemple  la  Zentrale für Unterrichtsmedien im Internet (ZUM.de) d’Allemagne qui a mis en place son propre Wiki, le  « ZUM-Wiki », qui regroupe d’une façon collaborative  tous les matériaux pour la formation. L’Allemagne a développé un « Grundschulwiki »   et l’institution a intégré ces outils « wikis » dans son organisation. En France, des projets conséquents ne pourraient-ils  pas voir le jour en partenariat avec l’Education Nationale favorisant ainsi la constitution d’une base collective publique de ressources … un bien immatériel considérable au service des acteurs de l’éducation ?

    Conclusion
    Pour développer une culture numérique tout au long de la scolarité, il est important que l’Ecole prenne en charge ces nouvelles données du Web participatif en favorisant une approche de la coopération, des nouvelles manières de travailler ensemble en ligne. Il est important qu’on apprenne aux élèves à décrypter comment  fonctionnent les Wikis et apportent sur la façon dont les gens coopèrent, communiquent, travaillent ensemble. Les outils nouveaux du Web « participatif » modèlent un nouveau paysage de l’édition, où l’usager est au cœur. Une nouvelle didactique de l’information-documentation doit prendre en compte ce nouveau service de partage de documents et de ressources en ligne qu’est Wikipedia pour développer une culture informationnelle inscrite dans les curriculum. Certains pays comme l’Allemagne et l’Angleterre exploitent ces ressources éducatives wikipédiennes. Nous avons pu dégager quelques notions, connaissance et compétences à construire progressivement tout au long de la scolarité, en nous appuyant sur une nouvelle « grammaire de l’information-documentation » en interaction avec l’environnement du Web, toujours en mouvement. Une clé pour développer chez les élèves,  des aptitudes à décrypter les enjeux des nouvelles applications numériques dans la société de l’information et utiliser internet d’une façon raisonnée !

    Communication Scientifique LUDOVIA 2008 par Michèle DRECHSLER (extraits)
    CREM Université Paul Verlaine Metz
    Organisme de rattachement INRP Lyon
    n° section : CREM EA 3476

  • UTOPIA: Une plateforme d’aide à la création et au prototypage de jeux vidéo

    En effet, cet art reste à part. Faute de bénéficier d’outils de création adaptés, la production de jeux vidéo 3D (cela est un peu moins vrai et à un degré moindre pour la 2D) est réservée à une « élite technologique » composée de développeurs et de graphistes spécialisés.

    Alors que le marché des jeux vidéo est en pleine évolution et semble se diviser en deux catégories : les jeux à très gros budgets (plusieurs dizaines de millions de dollars) et les jeux à petits budgets dit « casual games », les éditeurs sont à la recherche de concepts novateurs et faciles à mettre en place. Or, pour réellement innover, il faudrait disposer d’outils de production simples d’utilisation et totalement détachés de l’aspect technique pour laisser libre cours à la créativité.

    Le but d’Utopia est de fournir une plateforme d’aide à la création de jeux vidéo accessible au plus grand nombre. 

    Création de jeux vidéo : un art encore inaccessible
    A l’heure où le jeu vidéo se démocratise et commence à toucher des catégories de personnes jusque-là insoupçonnées (surtout grâce à la Wii et la DS de Nintendo), un besoin de création se fait sentir. Les éditeurs l’ont bien compris et multiplient les jeux disposant de fonctionnalités dites « user content » où l’on laisse la possibilité à l’utilisateur de créer lui-même et très facilement ses propres niveaux (qui ne sont qu’une simple modification de l’environnement du jeu), de « customiser » les personnages ou encore carrément de modifier en profondeur le jeu, en fournissant les outils de développement.

    Ces approches, bien que très intéressantes, sont limitées et ne permettent pas d’exploiter le plein potentiel créatif d’une personne. On permet seulement de modifier et non de créer des nouvelles manières de jouer, car cela nécessiterait des modifications plus profondes.

    Nouveaux types de jeux créatifs
    Néanmoins, une nouvelle catégorie de jeux voit le jour dans laquelle l’utilisateur devient créateur de ses expériences de jeu. C’est le cas des jeux comme Little Big Planet dont le but est de créer son propre niveau et ensuite le partager sur internet. Le jeu a été pensé d’une manière à ce que les possibilités soient infinies.

    Le jeu Spore est aussi un bon exemple : le joueur contrôle au début une petite bactérie et la fait évoluer, à chaque étape de son évolution, il peut choisir l’apparence et le comportement que prendra sa créature. L’évolution continue jusqu’à avoir des êtres qui vivent en société et qui affrontent d’autres ethnies. Ces deux produits illustrent bien la tendance actuelle à fournir des outils de création accessibles à qui a envie et ne nécessitant pas de connaissances particulières.

    Utopia s’inscrit dans cette démarche, mais veut aller plus loin en ne limitant pas la créativité à un seul type de jeu.

    Image : Système d’édition des créatures dans Spore

    Analogie avec le cinéma
    Le cinéma, la photographie et le jeu vidéo, sont des arts qui s’expriment par le biais d’une technologie. Là où, pour les deux premiers, les concepts sont parfaitement intégrés et des solutions efficaces d’aide à  la création sont disponibles (matériel adapté, logiciel ergonomique, chaîne de production maîtrisée), le jeu vidéo reste encore à ses balbutiements.
    Etant donné que le thème du colloque est « 2.0 do it yourself », il est important de revenir sur le fait qu’il est encore très difficile de faire un jeu vidéo tout seul.

    Pour faire une analogie avec le monde du cinéma, faire un jeu vidéo reviendrait à :

    •Assembler pièce par pièce sa propre caméra et créer ses bobines. Car, bien que des librairies comme OpenGL ou DirectX soient disponibles, encore faut-il bâtir un moteur par-dessus.
    Cette tâche s’avère généralement très lourde et nécessite de fortes connaissances en programmation 3D.

    •Faire les décors soi-même. Dès que l’on veut rajouter un élément dans son jeu, même une table ou un arbre,  il faut le modéliser et le texturer. Cela nécessite la maîtrise d’au moins un logiciel de modélisation 3D (Blender, 3DSMax, Maya…) et un logiciel de graphisme 2D (Gimp, Photoshop), ce qui requiert généralement plusieurs années d’expérience.

    •Monter à la main le film. Très peu de logiciels permettent de créer soi-même son jeu. Généralement, il faut aussi réaliser son propre éditeur graphique.
    Bref, c’est comme si les années d’expériences dans ce domaine n’avaient rien apporté.

    Problèmes et solutions

    Besoin d’un standard
    Peu de solutions techniques complètes (entendez par là moteur de jeu) existant, il faut donc du temps et des compétences poussées pour faire un jeu. Il faudrait établir une sorte de standard qui servirait de référence technique. Ce besoin de standardisation se fait sentir dans le milieu professionnel. On peut citer par exemple le projet de console unique (Dycke, 2007) que les éditeurs de jeux aimeraient voir se développer. Il y a aussi le projet Play All initié par la région Ile de France qui regroupe plus de cinq studios de jeux vidéo dans le but est de développer une plateforme de jeu commune.

    Utopia propose de créer un moteur de jeu ainsi que des outils de production standardisés et libres (sous licence libre).

    Besoin d’outils ergonomiques
    Avoir une solution technique standardisée ne suffit pas pour rendre accessible la création de jeux vidéo. Pour continuer avec les analogies, c’est comme avoir un système d’exploitation GNU/Linux (que l’on peut considérer comme un standard) seulement accessible en lignes de commandes et que seuls les spécialistes l’utiliseraient. Heureusement, il existe aujourd’hui des distributions comme Ubuntu et Mandriva qui rendent accessible ce système d’exploitation.

    Il existe déjà un certain nombre d’outils de création de jeux vidéo dans le commerce, mais ils sont soit trop complexes, soit trop limités en possibilités. En effet, il y a les logiciels professionnels tels que l’Unreal Editor ou la SandBox de Crytek qui permettent de faire des jeux de grande qualité mais dont la licence d’utilisation coûte extrêmement cher et dont la prise en main n’est pas évidente. Puis, il y a des logiciels très bon marché, accessibles et ergonomiques mais dont les possibilités sont limitées : pas de modifications profondes possibles et souvent limités à un seul type de jeu. C’est le cas des logiciels comme FPS Creator ou RPGMaker.

    Utopia se place entre ces deux types de logiciels et souhaite fournir un outil à la fois simple d’utilisation, complet et évolutif. Nous verrons cela en détail dans la partie 2 de cet article.

    Image  : Unreal Editor, logiciel utilisé par un grand nombre de studios dont le prix (600 000 dollars) n’a d’égal que la complexité.

    Manque de ressources
    Les ressources optimisées pour le temps réel qui se trouvent sur le net sont généralement payantes ou restreintes d’utilisation. De plus, il n’y a pas de sites spécialisés pour le jeu vidéo; mais seulement pour les textures, pour les sons, pour les modèles 3D, etc. Aucun d’eux ne regroupe tous ces types, ce qui rend la recherche de ressources fastidieuse et souvent infructueuse.

    Autre point négatif, les ressources trouvées sont souvent dans un format propriétaire incompatible avec le moteur de jeu utilisé, ce qui nécessite d’avoir un logiciel adéquat pour les convertir. Ces contraintes limitent grandement la productivité car pour mettre en place une situation de « gameplay », même avec les outils adéquats, une personne devra produire ses propres ressources ou alors les acheter au prix fort, ou encore utiliser des ressources inadaptées qui ne mettront pas en valeur son travail.

    Utopia propose une solution communautaire d’échange de ressources via un site web spécialisé. La partie 3 de cet article décrit ce concept.

    UTOPIA : un logiciel de conception ergonomique
    Utopia est une plateforme d’aide à la création de jeux vidéo. Un des éléments principal de cette plateforme est le logiciel d’aide à la conception de jeux vidéo. Les aspects ergonomiques de son interface sont le fruit de recherches que j’ai effectuées en 2007 (Livet, 2007). J’avais mis en évidence la nécessité de développer des logiciels de conception réellement adaptés à l’activité de chacun et j’ai proposé une ébauche de solution qui se précise dans cet article.

    Deux éléments importants constituent maintenant le cadre théorique lié à l’ergonomie de l’interface : la théorie de l’activité et les cartes heuristiques.

    Théorie de l’activité 

    La théorie de l’activité est issue des sciences sociales. Elle vise à mieux définir une activité humaine précise, afin de la faire évoluer. Bourguin et Derycke (2005) ont adapté ces modèles théoriques à l’informatique et ont mis en place une méthodologie pour concevoir des logiciels s’adaptant aux activités humaines et à leur évolution.

    J’ai proposé en 2007 une implémentation de ce modèle destinée aux logiciels de conception. L’idée est simple : découper l’interface du logiciel en « activités » qui regroupent les fonctionnalités axées autour d’une même tâche. A chaque changement d’activité (donc de tâche), c’est l’ensemble de l’interface qui change. Donc, seules les fonctionnalités nécessaires à un instant t pour une tâche spécifique sont affichées, ce qui réduit considérablement le nombre de boutons et menus affichés simultanément. Cet amincissement de l’interface permet d’avoir des logiciels complets (comportant beaucoup de fonctionnalités) tout en étant simples d’utilisation.

    Cartes heuristiques
    Comment piloter une interface qui varie en fonction du contexte? Au départ, j’avais imaginé un système de graphe multidimensionnel organisé sur plusieurs niveaux qui allaient du plus conceptuel au plus concret (LIVET, 2007, p.18). Après avoir créé un prototype, il s’est avéré que cette technique ne permettait pas d’avoir une vue d’ensemble du projet en cours de réalisation et n’aidait donc pas à la conception.

    LIVET CARTE HEURISTIQUEC’est alors que j’ai découvert le concept de cartes heuristiques qui correspond exactement à ce que j’essayais de développer.
    Les cartes heuristiques (mind map en anglais) est un moyen de représenter schématiquement une information organisée de manière multidimensionnelle. Elles servaient à la base à représenter une arborescence de données, mais elles ont vite été adoptées dans plusieurs domaines comme la conception, la gestion de projet, le brainstorming, etc.

    Image  : Exemple d’une carte heuristique

    Après des entretiens avec des professionnels, il s’est avéré que les cartes heuristiques sont utilisées dans le domaine du jeu vidéo. Cette méthodologie est surtout utilisée en gestion de projet, mais certains l’utilisent aussi dans la phase de pré-conception d’un jeu (document de game concept). Je suis convaincu que cette méthode pourrait aussi être utilisée dans les phases de conception et de production du jeu, si elle était intégrée directement aux logiciels utilisés. Un peu comme le logiciel MindJet MindManager (c) est utilisé pour produire des documents textes et des feuilles de calcul car il s’intègre parfaitement à la suite Office.

    Intégration dans Utopia 
    Le point central du logiciel sera donc une carte heuristique représentant les différents éléments du jeu en cours de création. Via ce graphe, les utilisateurs pourront, tout d’abord concevoir le jeu (car comme dit plus haut les cartes heuristiques peuvent être utilisées comme support à la conception) mais aussi permettre de collaborer autour du projet via un système d’annotation sur le graphe.

    Enfin, ils pourront surtout produire le jeu car chaque nœud de la carte heuristique représentera un élément éditable et sera ainsi relié à une activité spécifique. Lorsque l’utilisateur cliquera sur la fonction d’édition d’un nœud, l’interface correspondante à celui-ci se chargera et permettra l’édition graphique. Par exemple, dans le cas d’un jeu comportant des niveaux, il suffira de créer un nœud « niveau » sur le graphe et ensuite l’éditer pour avoir accès à l’éditeur de niveaux qui comporte des fonctionnalités spécifiques au placement des entités dans un espace 3D.
    De cette manière, c’est l’architecture, totalement arbitraire, de la carte heuristique qui déterminera la façon dont le logiciel s’utilise (son heuristique). Ce n’est donc plus l’utilisateur qui s’adapte au logiciel mais le contraire.

    Un système co-évolutif? 
    Un des aspects de la théorie de l’activité de Bourguin qui n’est pas supporté par Utopia est la co-évolution. C’est le fait qu’une activité évolue en fonction du contexte. En termes de logiciel, cela signifie que l’interface doit pouvoir évoluer avec l’utilisateur. Pour cela, il faudrait qu’il ait un contrôle sur les éléments qui constituent l’interface du logiciel. J’avais tout d’abord pensé à un système de méta-logiciel, sorte de « designer » d’interface dans lequel on pourrait modifier à sa guise l’agencement des boutons, rajouter des fonctionnalités, etc. Ce système, nécessitant la prise en main d’un deuxième logiciel, n’apparaît finalement pas bien adapté. Mais une autre solution pourrait être envisagée.

    Comme chaque nœud du graphe créé pour le jeu représente en réalité une interface, pourquoi ne pas donner la possibilité à l’utilisateur de modifier les éléments qui la composent ? Cela se ferait via une seconde carte heuristique, calquée sur la première, mais dont les détails des entités ne seraient plus liés au jeu, mais à l’interface.
    Par exemple, un niveau comportant un ciel pour le décor pourra être représenté par un nœud « ciel » dans la carte heuristique du jeu et un nœud « éditeur de ciel » dans la carte heuristique de l’interface. Ces nœuds seront les différentes fonctionnalités accessibles par l’interface comme « Changer la texture du ciel » ou « Changer la position du soleil ». Si on veut pouvoir rajouter un contrôleur pour changer la couleur du ciel, il suffirait de rajouter un nœud dans le graphe et choisir parmi un ensemble de fonctionnalités disponibles pour l’ « éditeur de ciel », la fonction « Changer la couleur du ciel ». La fonctionnalité sera alors directement accessible dans l’éditeur.

    Cette approche comporte néanmoins des limites :
    – Elle ne peut marcher que si des fonctionnalités supplémentaires ont été prévues pour l’interface.
    – L’utilisateur n’a pas un contrôle fin de l’agencement des fonctionnalités.

    Un logiciel libre 
    Un des aspects importants du logiciel Utopia, c’est qu’il sera développé sous licence libre (LGPL ou GPL) ce qui le rendra accessible au plus grand nombre. Cela assurera aussi la viabilité technique de la solution et son évolution.

    Nous espérons pouvoir rassembler un maximum de contributeurs pour créer une sorte de standard du jeu vidéo et ainsi mutualiser les compétences. Enfin, l’utilisation de moteur 3D libre comme Ogre3D, assurera l’évolution technique du logiciel et laissera la possibilité de se concentrer exclusivement sur l’utilisabilité du logiciel.

    En combinant, au sein d’un logiciel libre, des outils de conception reconnus tels que les cartes heuristiques avec des théories permettant de mieux intégrer l’activité humaine aux logiciels de conception, Utopia rendrait accessible au plus grand nombre la création de jeux vidéo.

    UTOPIA : un site internet d’échanges de ressources
    Comme dit plus haut, il ne faut pas seulement une solution technique efficace pour faire un jeu, il faut aussi des ressources. Le medium qu’est internet permet a tout le monde d’échanger son savoir-faire et ses créations. Des sites musicaux comme Jamendo proposent aux artistes de déposer sous licence libre (Creative Common, LAL) leurs albums qui seront par la suite écoutables et téléchargeables gratuitement. C’est sur ce même principe que se base le site internet d’Utopia.

    Des ressources pour tout le monde
    Le site d’Utopia est un site communautaire qui permet à qui le souhaite de déposer une ressource qu’il a créée et de télécharger celles que d’autres ont créées. Dans un souci de facilité de partage, les ressources devront obligatoirement être sous licence libre (ou du moins ouverte) et dans un format libre, compatible avec l’éditeur Utopia.

    Un logiciel de gestion de versions
    Le concept de partage va plus loin avec la possibilité, pour les ressources autorisées par la licence, de modifier la création d’une personne et de déposer la nouvelle version créée sur le site. Les utilisateurs auront alors le choix entre plusieurs versions à télécharger. Ce procédé, similaire au système de gestion de version de code source, permet de répartir le travail à effectuer sur une ressource et de réutiliser ce qui a déjà été fait pour le modifier.

    Intégration avec le logiciel
    Cette base de données pourra directement être interrogée depuis le logiciel de conception Utopia. L’utilisateur n’aura alors qu’à chercher le nom et le type de ressources souhaités et télécharger celles qui l’intéressent puis les utiliser directement dans son jeu. En proposant un site d’échange de ressources libres, optimisées pour le temps réel et directement intégrées dans un logiciel de conception, Utopia deviendra une plateforme optimisée pour la création de jeux.

    UTOPIA : Un support pour la recherche ?
    Outre le côté artistique, le jeu vidéo est un merveilleux défi technologique qui pose souvent des problématiques de recherche. Le caractère ouvert du projet Utopia pourrait faire de lui un support à la recherche publique et ainsi valoriser certaines avancées. La collaboration pourrait s’effectuer dans plusieurs domaines, certains directement liés à Utopia (ergonomie), d’autres simplement liés au jeu vidéo. En voici une description :

    •La réalité virtuelle : Les algorithmes de génération procédurale d’environnements naturels ou urbains sont de plus en plus utilisés dans le jeu vidéo. Il en est de même pour les rendus temps réel photo réalistes, jusque-là inaccessibles avec des machines domestiques, qui sont aujourd’hui communs grâce aux avancées technologiques réalisées dans le domaine de la 3D.

    •La réalité augmentée : Les dispositifs d’interaction avec le joueur ne se résument plus à la simple manette ou au volant pour les jeux de courses. Les écrans tactiles (comme sur la Nintendo DS), les viseurs infra rouge (comme sur la Wii) ou les Webcams (eyeToy) sont désormais très répandus et tendent à se développer exponentiellement. Ces objets amènent, petit à petit, le jeu dans le monde physique et posent des problématiques similaires à la réalité augmentée.

    •L’ergonomie logiciel/web : En voulant fournir un logiciel de conception à la fois simple d’utilisation, complet et évolutif, Utopia s’inscrit dans une démarche ergonomique faisant appel à la méthodologie scientifique. Bien que l’idée de base soit là, il reste encore à définir les interfaces des différentes activités du logiciel.
    Le site internet d’Utopia est aussi une plateforme communautaire conséquente qui pourra bénéficier d’apports théoriques.

    •Intelligence Artificielle : Avoir un environnement et des adversaires qui se comportent de manière convaincante est un élément essentiel pour un jeu vidéo. Cela sert les mécaniques de jeu (ex : le comportement d’un ennemi dans un jeu de tir) ou augmente l’immersion (ex : une foule dans un environnement urbain), ce qui apporte une « plus-value » à un titre.

    Conclusion 
    En associant un logiciel ergonomique à une base de données de ressources, le projet Utopia rendra la création de jeux vidéo accessible au plus grand nombre et permettra à de nouveau talents de s’exprimer. Utopia, comme son nom l’indique, est un projet ambitieux mais pas irréaliste. Les solutions techniques sont là, il faut simplement des fonds pour mettre la machine en marche. Avec l’explosion du libre, il y a fort à parier que cet outil trouvera sa place parmi la communauté et attirera rapidement des entreprises.

    Communication scientifique LUDOVIA 2008 par Andréas LIVET (extraits)
    Université Lumière Lyon II

  • l’hexis numérique où la sémiotique de la représentation de soi dans les dispositifs interactif

    D’aucuns parlent du monde de l’écran comme métavers ou univers virtuel, monde parallèle dans lequel l’internaute pourrait vivre une seconde vie métamorphique, par l’intermédiaire d’un avatar et de représentations de lui-même.

    Dans la mythologie indienne, avatar désigne la descente d’un dieu sur terre parmi les êtres humains : le dieu Vishnu « descend » ( avatr) sur terre pour sauver le monde des périls nés du non-respect des règles du Dharma. L’avatar permet ainsi au dieu d’agir parmi les hommes. L’étymologie de ce mot renvoie à une action (descendre et prendre forme), à un phénomène (se manifester volontairement), à une relation (intermédiaire), plus qu’à une incarnation ou une représentation figurée : l’avatar doit donc être appréhendé comme une représentation en acte.
    Des usagers (joueurs, chatteurs) s’immergent parfois au point d’oublier cette interface de présentation de soi naturelle qu’est le corps, au profit d’un appareillage cognitif et social formé à la lisière de l’être humain et de la machine. Cette recherche rapporte les observations issues de l’exploration de ce phénomène. Sa finalité est de mieux cerner la construction de signification à l’œuvre dans ce processus ontique, qui de soi va vers soi-même en passant par une image de l’altérité. Sur le chemin de cette exploration, nous avons construit des passerelles, des points d’appui, des pôles d’observation que nous espérons utiles à une meilleure compréhension des produits interactifs ludiques, communicationnels et créatifs et de l’identité en général.

    Les entretiens et l’observation participante ont montré que les usagers accordaient à la représentation technique une valeur symbolique qui outrepassait leur signification conventionnelle, rendant ainsi possible l’émergence de l’affect nécessaire à l’immersion. Le concept d’immersion hexique désigne ainsi ce processus, par lequel la représentation technique est surdéterminée en image de soi.
    Les analyses actuelles de l’avatar et du soi de l’écran ne parviennent pas à expliquer précisément ce phénomène en raison du manque d’outils d’analyse appliquée, qui puissent notamment tenir compte de l’évolution constante des logiciels et des usages.

    La représentation de soi se constitue des signes qui manifestent l’interaction de l’usager avec le dispositif interactif. Elle a pour caractéristique d’être interactive mais surtout agie. Ce pouvoir agissant ou performatif nécessite une approche de la représentation comme expérience d’interaction et comme énonciation. Poser la question de la représentation de soi revient en somme à interroger la relation symbiotique entre l’homme et le support de transmission de son discours, au point que le support se substitue à lui et puisse parler pour l’homme en son absence. L’hexis numérique est comparable à un vêtement de paroles qui contiendrait les gestes qui l’animent.

    La méthodologie d’analyse de ce processus a été divisée en deux parties : d’une part, une méthode d’analyse des signes observables qui manifestent la personne (le phaneron), d’autre part, une méthode d’analyse des conditions de production de la signification (le phainomenon). La première permet de décrire et examiner l’agencement des éléments qui composent la représentation de soi, du geste à l’image. La seconde propose d’approcher la construction de signification par l’analyse de l’expérience des figures de distorsion du sens (les tropes). Ainsi, la représentation est abordée dans sa dimension d’agencement représentationnel et d’expérience.

    Ces deux méthodes de niveau spécifique sont des outils qui permettent d’analyser le phénomène de surdétermination au niveau appliqué. Elles prennent place dans le cadre général de l’étude des représentations agissantes de la personne.

    Plus d’informations sur Fanny Georges
    http://fannygeorges.free.fr
    http://www.omnsh.org/