Auteur/autrice : Eric Fourcaud

  • Modèle de la présentation de soi: l’hexis numérique, une étude sémiotique et statistique

    Dans le réel, le corps donne d’emblée existence à la personne, lui permettant de se manifester aux yeux des autres et ainsi de construire son identité par différenciation. A l’écran, il est nécessaire que la personne prenne existence : si elle n’agit pas, elle est invisible pour un autre. Avec le développement du web dynamique, les journaux intimes sur internet (Ublog, Livejournal, VingtSix) ont pris la relève des pages personnelles ou homepages [Klein 2002].

    Initialement développés et mis en ligne par les utilisateurs même ou des membres de leur entourage, ils ont pris le pas sur les « pages html » en raison de la facilité de publication. Des sites ont proposé des solutions clé en main avec création d’un « site en trois clics » [Allard 2003] hébergement, forums, newsletters, moteurs de recherche. C’est ainsi que la physionomie à présent si connue du blog s’est imposée, au point de tendre à ne désigner que les pages dynamiques comportant un calendrier, des messages datés (posts) et une liste de blogs favoris, là où la page personnelle aux cadres élastiques se caractérisait par une mise en page rudimentaire et des images mal optimisées pour le web.

    En façonnant une représentation de soi-même, l’utilisateur façonne bien une représentation graphique, mais également un appareil qui va lui permettre d’entrer en relation avec le monde et autrui. La saisie d’informations l’inscrit dans le monde virtuel et conditionne sa construction identitaire. C’est ainsi que nous situant par la terminologie d’Ervin Goffman, la représentation de soi » (une présentation de soi, au sens de Goffman, dupliquée d’un re- intensif en raison de son apparition à l’écran qui la différencie de l’utilisateur en présentation –c’est l’objet de notre thèse) produit et agence une identité (une « identité sociale virtuelle ») en ayant un impact sur «l’identité réelle ».

    Le façonnage manuel de la représentation graphique (par la saisie d’un pseudonyme, le téléchargement d’une photographie, le paramétrage des éléments descriptifs de l’utilisateur, ou encore l’habillage de l’avatar…) peut être entendu – c’est ce que nous nous démontrons dans notre thèse et ce que nous posons comme thèse préalable ici – comme un façonnage en pensée et en acte de l’identité sociale réelle : l’écran est un espace intermédiaire, dans lequel le sujet « acte » des représentations abstraites (des schèmas, c’est-à-dire des systèmes de signes qui font l’objet d’une décision sémiotique) par les interfaces de saisie.

    De la prise d’existence à son maintien, la représentation numérique de la personne est semblable à l’identité sociale réelle : elle peut être comparée à une « barbe-à-papa  », « une substance poisseuse à laquelle se collent sans cesse de nouveaux détails biographiques » [Goffman 1975]. Des signes permanents constituent le bâton central de l’identité autour duquel s’agrègent d’autres signes qui actualisent la représentation, lui contractant une mobilité symptomatique d’une entité vivante. [Georges 2003, 2007]

    Peu nombreux dans le web 1.0, ces signes de présentation de soi se multiplient dans le web 2.0. Le système des signes qui manifestent l’identité change. Les informations déclaratives (âge, sexe, ville, biographie, centres d’intérêt…), qui constituaient jusqu’alors le bâton central de la « barbe à papa » identitaire, deviennent moins prépondérantes tandis que les traces de son activité se décuplent pour le caractériser.

    Dès le « web 1.0 », les messageries instantanées, informent la présence et la disponibilité de la personne par des icônes qui s’adaptent d’elles-mêmes à son activité. Démultipliant les indices de l’immédiateté, les sites de rencontre, les blogs, les magazines en lignes, trient les informations par ordre antéchronologique , participant d’une survalorisation culturelle de l’activité récente. Ainsi, dans le web 2.0, l’utilisateur qui souhaite exister sur la toile doit ainsi se conformer à cet impératif: fournir des activités en continu. Cette structuration n’est d’ailleurs pas étrangère aux phénomènes d’addiction au virtuel, participant d’un mouvement plus large de développement d’une société de consommation où le virtuel se substitue au matériel.

    Dans cet article, nous examinons dans quelle mesure ces « sédiments » de l’activité de l’utilisateur en ligne participent de son existence et de sa présence.
    Un modèle de l’identité est présenté (Section 1) ; il catégorise les composantes de la représentation de l’utilisateur : l’identité déclarative, agissante et calculée forment trois dimensions de l’identité numérique.

    Les informations déclaratives renseignées par les utilisateurs participent de la définition de leur identité en ligne ; mais que se passe-t-il lorsque l’utilisateur ne renseigne aucun champ ? A-t-il une identité ? Quelle est la dimension dominante de l’identité dans le web 2.0 ? Nous questionnerons ce phénomène dans Facebook (Section 2) et l’appuierons sur une première analyse statistique.

    1. LE SYSTEME IDENTITAIRE : MODELE DE L’IDENTITE NUMERIQUE
    L’identité numériquement interfacée, depuis l’émergence des nouvelles technologies dans la vie quotidienne, s’est modelée et remodelée. Du web 1.0 au web 2.0, dans l’acte répétitif de remplir les formulaires d’inscription, un modèle identitaire s’est informé (au sens étymologique de « prendre forme »), influençant la représentation culturelle de la personne.

    Pour comprendre les enjeux de la construction de signification d’une représentation technique en image de soi, nous avons, dans Sémiotique de la représentation de soi dans les dispositifs interactifs : l’hexis numérique, examiné, décrit et analysé systémiquement les différents éléments qui manifestent l’utilisateur [Georges 2007].

    Dans cette étude, une soixantaine de dispositifs interactifs de présentation de soi ont donc été comparés dans les jeux vidéo, les blogs, les sites de communication, les sites de réseaux sociaux, les sites communautaires ludiques, les jeux massivement multijoueurs. Nous avons ainsi mis en évidence des points communs à tous ces dispositifs, qui permettent de dessiner un modèle identitaire commun et transversal. Il en est ainsi, par exemple, des groupes « identifiant/pseudonyme, mot de passe », « age sexe, ville », « biographie, centres d’intérêt, métier »… Ils s’agencent dans une dynamique de centration et décentration entre le sujet et l’objet numérique. Cette structuration centrée utilisateur et décentrée en la machine est à l’origine de la dynamique d’apprentissage propre aux nouvelles technologies [Peraya 1999, Meunier & Peraya 2004].
    L’expression

    Les logiciels du web 2.0 présentent la caractéristique de mélanger les différentes familles de logiciels afin que les utilisateurs puissent fédérer sur une même plateforme les différents outils qu’ils trouvaient il y a quelques années sur des applications spécialisées.

    Dans son étude sur le design de la visibilité, Dominique Cardon [Cardon 2008] définit des modèles de visibilité étroitement associés aux catégories de logiciels pratiqués par les usagers. Facebook relève d’une sorte de mélange catégoriel : les sites communautaires, les sites de rencontre et les sites de communication. De nombreux utilisateurs l’utilisent en guise de page personnelle ; Facebook permet également d’ajouter une application de type blog. Les services se multipliant, l’offre des services est la variété.

    On peut regrouper ces informations en trois ensembles : l’identité déclarative, l’identité agissante et l’identité calculée. Nous allons les décrire succinctement ci-après en complément du schéma et du tableau ci-dessous, puis nous les appliquerons à Facebook pour étudier, à partir de cette étude de cas, l’hypothèse d’une évolution de l’identité valorisant les signes immédiats de l’activité.

    FANNY1509200812
    TABLEAU NON PUBLIE

    1.1 L’identité déclarative
    Les informations qui composent l’identité déclarative sont saisies directement par les utilisateurs, décrivent la personne et permettent de la singulariser au sein de la communauté.
    –    Le ligateur autonyme (« avatar » et pseudonyme)
    L’avatar, ce personnage en 3D qui représente la personne, trouve dans les interfaces de type tabulaire un équivalent en la photographie téléchargée. Assortis du pseudonyme (que l’on appelle ici autonyme au sens d’appellatif donné par l’utilisateur à lui-même), il symbolise l’utilisateur dans l’espace communautaire et constitue le noyau de l’identité, autour duquel s’agrègent des informations adjacentes qui complètent la caractérisation.
    –    La « carte d’identité » (qualificatifs)
    La carte d’identité désigne les informations qui, sur la page de présentation de soi, la feuille de personnage, la page de profil, ou encore la page personnelle, décrivent et qualifient l’utilisateur. Elle complète le ligateur autonyme par des informations qualitatives.
    Signes caractéristiques: « ASV », centres d’intérêt, biographie

    Le ligateur autonyme et la carte d’identité sont caractéristiques des représentations de l’utilisateur du web 1.0. Ils participent de l’identité déclarative calquée sur l’identité civile.

    1.2 L’identité agissante
    Des traces de l’activité de l’utilisateur complètent la structure identitaire. Elles sont issues de son interaction délibérée avec l’application : tels sont les amis, les objets glanés au cours de la pratique du logiciel.

    –    Les informations sur les relations interpersonnelles
    « amis » (sites communautaires), « favoris » (blogs), « collègues » (réseaux sociaux), assortis de leurs outils de visualisation le cas échéant (sites de réseaux sociaux, de blogs).
    –    Les collections
    Les collections d’informations rassemblent des objets glanés au cours de la navigation : vidéos (You Tube, Daily Motion), des articles marchands (sites internet marchands), des fichiers textes (sites web de publication), des images ou des albums photo (sites de partage de photos), des liens (Del.ic.ious.), des fichiers (logiciels de pair à pair), des objets magiques ou des armes (MMORPG).
    En cette catégorie d’information consiste l’activité immédiate.

    L’insertion des représentations de l’autre dans la représentation de soi est caractéristique du web 2.0. Annabelle Klein étudie les pages personnelles qui laissent place depuis quelques années aux blogs, dynamiques et plus faciles d’utilisation. Si dans les pages personnelles, l’utilisateur peut intégrer manuellement un « livre d’or », c’est à dire une page dans laquelle les lecteurs laissent des remarques sur la page personnelle, le blog étend ces espaces d’intersubjectivité à chaque texte publié, par la possibilité de laisser un commentaire. Les marques de l’interlocuteur se multiplient et s’étendent aux fonctionnalités de mise en relation sociale.

    « Ce mouvement de rapport avec soi, de dialogue avec soi à travers les autres, s’atteste à travers les marques d’adresse explicites à l’autre (« Qu’en pensez-vous ? », « Êtes-vous d’accord avec moi ? », « Laissez-moi un commentaire », ou encore « Signez mon livre d’or pour laisser une trace de votre passage. ») » (Klein 1999)

    1.3 L’identité calculée
    Troisième composante de l’identité, l’identité calculée se compose de variables qualitatives ou quantitatives produites du calcul du système. A la différence de l’identité déclarative, l’identité calculée n’est pas renseignée par l’utilisateur; à la différence de l’identité agissante, elle n’est pas le produit immédiat de son activité.
    –    Variables qualitatives : les indications de connexion (« l’utilisateur est connecté » ) des sites de rencontre ; dans MSN ou les messageries instantanées, l’indication « est disponible », est « loin de son clavier », « occupé », renseignent sur la présence de l’utilisateur et sont déduites par le système.
    –    Variables quantitatives : le nombre d’amis, le nombre de points, la notation.

    En quantifiant la présence, la visibilité, la notoriété de l’utilisateur, l’identité calculée permet aux sites d’effectuer des comparaisons entre les membres (par les classements) ; elle développe une importance démesurée du chiffre dans le système identitaire et reflète les actions de l’utilisateur dans le miroir culturel local, impliquant implicitement une forme de jeu social [Georges 2005].

    2. FACEBOOK : UNE ANALYSE STATISTIQUE DE L’IDENTITE
    Les catégories identitaires précédemment présentées vont nous permettre d’analyser la structuration identitaire dans le site communautaire Facebook. Les informations ont été collectées sur 62 profils d’utilisateurs. Nous en présentons ici une première analyse, illustrant le modèle présenté dans la section 1.

    Tous les profils observés ont renseigné un nom réaliste (prénom + patronyme) excepté deux profils qui dénotent explicitement une profession artistique (photographe et réalisateur). Relativement à d’autres sites communautaires, cette proportion est très faible, ce qui confirme la particularité de Facebook de présenter des identités « réelles » ; Facebook est donc plus proche de la catégorie des logiciels de réseaux sociaux que de celle des blogs.

    Pour les besoins de notre étude, ces informations sont regroupées en trois catégories
     :
    1 – Les informations déclaratives (voir section 1.1 et Figure 3) : « sexe », « date de naissance »,  « intéressé par », « situation amoureuse », « opinion politique ou religieuse », « orientation sexuelle », « informations personnelles »
    2 – Les informations relatives à l’identité agissante (cf. section 1.2 et Figure 4): « mise à jour de profil », « demande d’amis » , « participation à un événement ou à un groupe », « création d’événement ou de groupe », « a commenté ou taggé ou envoyé un cadeau », « a envoyé un post collectif », « a été taggé par un ami », « a utilisé une application ».
    3 –  Les informations relatives à l’identité calculée (cf. section 1.3 et Figure 5) : « nombre d’amis », «  nombre de groupes », « nombre d’événements visibles dans le mini-historique », « nombre d’événements par connexion », « taux de présence »

    Dans Facebook, l’identité déclarative apparaît dans deux espaces principaux de la page de profil : une carte d’identité en tête fixe,
    – Les informations qualifiantes: sexe, date de naissance (jour et mois, jour, mois et année), orientation sexuelle, ville.
    – Des informations qui annoncent plus explicitement le cadre relationnel recherche : intéressé par (hommes/femmes ; amitié/ rencontres/ relations sérieuses/ réseau professionnel/ peu importe).
    – Des informations sur le contexte social réel : situation amoureuse, opinion politique ou religieuse.

    Elle contient en outre  un pavé « informations personnelles » (qui peut être déplacé) comprenant des informations sur les centres d’intérêts et activités de l’utilisateur (métiers, loisirs etc.).
    Nous avons représenté sur la figure 3, dans un graphique « araignée » le taux de remplissage (en %), sur toute notre population, de chacun des chacun des champs déclaratifs (en orange). Mis à part la « date de naissance », renseignée par 80% des profils, les autres champs sont renseigné soit très erratiquement   , par moins de 60% des utilisateurs. Le champ le
    FANNY 2
    Figure 3 Identité déclarative . Légende : en orange, moyenne de tous les profils renseignés ; en rouge, profils ayant rempli tous les champs (« hyper-visibles ») ; en vert, profils ne renseignant aucun champ (« cachés »). 

    2.1 Les hyper-visibles et les cachés (identité déclarative)
    Pour étudier le phénomène de la visibilité nous isolons deux sous-populations aux comportements déclaratifs opposés: les profils « hyper-visibles » (qui apparaissent dans la figure 3 en rouge) et les profils « cachés » (qui apparaissent en vert). Ils sont définis comme suit, sur la base des données collectées.
    –    Les groupe des « hyper-visibles » (10 profils sur 62) est constitué des profils sont ont rempli toutes les informations déclaratives: leur représentation est pleine dans la figure 3, par définition.
    –    Le groupe des « cachés » (13 profils sur 62) est constitué des profils qui n’en ont enseigné aucune. Leur représentation déclarative est à son « degré zéro » dans la figure 3 (par définition)

    Les utilisateurs « cachés » n’ont rempli aucune information. Est-ce à dire qu’ils n’ont pas d’identité ? Certes non : l’examen des graphes de l’identité agissante et de l’identité calculée nous montre que l’identité est moins déterminée par les informations descriptives que par les informations agissantes et calculées.

    Dans la Figure 4 ont été représentées les informations relatives à l’identité agissante (voir section 2), pour les « hyper-visibles » (en rouge) et les « cachés » (en vert). Chaque axe représente le nombre d’actions dans chaque catégorie, divisé par le nombre d’action moyen sur toute la population. Ces informations ont été relevées dans le mini-historique (« mini-feed ») des activités de l’utilisateur .

    fanny 3

    Figure 4 Identité agissante. Sur chaque axe, la fréquence d’une population est normalisée par la fréquence de la population totale. Chaque trait pointillé représente 20% de la fréquence de la population totale (en orange). Le contour de l’octogone orange représente donc l’activité de la population totale. 

    Le mini-historique est la fonctionnalité la plus critiquée de Facebook parce qu’elle est la plus intrusive. Toutefois, rares sont les utilisateurs qui la désactivent (sur l’échantillon global, 2 seulement l’ont désactivée dont une appartient à l’échantillon « caché »).
    L’identité calculée, représentée dans la Figure 5. De même que pour l’identité agissante (figure 4), les valeurs de chaque axe ont été divisées par les valeurs moyennes sur toute la population pour faciliter la comparaison entre le comportement moyen (pentagone orange) et les comportements des populations « hyper-visibles » (en rouge) et « cachées » (en vert).

     

    fanny 5Figure 5 Identité calculée. Sur chaque axe, la fréquence d’une population est normalisée par la fréquence de la population totale. Chaque trait pointillé représente 20% de la fréquence de la population totale (en orange).
    –    Nb amis : nombre d’amis
    –    Nb groupes : nombre de groupes
    –    Nb Even. : Nombre d’événements visibles dans le mini-historique
    –    Nb Actions/connec. : nombre d’événements par connexion
    –    Taux pres. : Taux de présence

    Nous avons calculé le « taux de présence » à partir des variables apparaissant dans le mini-historique : il correspond au rapport du nombre de jours où l’utilisateur s’est connecté sur les 10 dernières actions divisé par le nombre de jours total pour accomplir ces 10 dernières actions. Ce chiffre, qui ne fait pas exactement partie de l’identité calcul telle qu’elle est livrée par l’interface, permet toutefois de quantifier la fréquence de la présence de l’utilisateur sur Facebook.

    2.2 Quelle est la dimension dominante de l’identité dans Facebook ?
    D’emblée, on remarque que le groupe  « caché » qui est dans le graphe de l’identité déclarative, représenté par un « degré zéro » de représentation, a, dans les graphes de l’identité agissante (Figure 4) et calculée (Figure 5), une forme déployée, qui témoigne non seulement de son activité mais aussi des caractéristiques de son réseau relationnel. Leurs activités ne sont nulles dans aucun des critères. Ce simple constat répond à notre première question : il montre que dans Facebook, l’identité est caractérisée plus fortement par les dimensions agissantes qui se répercutent dans l’identité calcul. Le groupe des « cachés » n’est donc caché que pour ce qui concerne l’identité déclarative mais ils sont visibles dans les deux autres dimensions de l’identité.

    2.2.1 Les groupes « hyper-visibles » et « cachés » en regard de la moyenne

    Par certains comportements, les groupes « hyper-visibles » et « cachés » sont représentatifs du comportement moyen de l’ensemble des utilisateurs. Le « Nombre d’évenements visible» (Figure 5) est le même :cela n’est pas un critère distinctif des deux populations. De même, le « nombre d’actions par connexion » (Figure 5)  est également conforme à la moyenne chez les uns et les autres. Le groupe des « hyper-visibles » exerce certaines actions bien plus intensément que la moyenne (« création d’événements », « participation à des événements », « commentaires et tags », « installation d’application » voir Figure 4), conformément à leur comportement déclaratif. On remarque qu’au contraire, ils ont moins de demandes d’amis, postent beaucoup moins de commentaires et sont moins taggés par les autres que la moyenne.

    En dépit de l’attitude intrinsèquement réservée de la population des « cachés », il est intéressant de noter de que certaines actions sont exercées plus intensément que la moyenne des utilisateurs (« Demande d’amis » ), ou plus que les utilisateurs hyper-visibles (« Postes collectifs » et « demande d’amis »).

    2.2.2 Un taux de présence manifeste du comportement déclaratif
    Le « taux de présence » est en étroite relation avec  l’identité agissante : en effet, l’identité agissante est déterminée par les activités et le taux de présence. La distinction des deux groupes ressort très clairement par le « taux de présence ». En effet, le taux de présence est plus élevé d’un facteur 2 par rapport à la moyenne (+ 100%) chez les utilisateurs hyper-visibles et plus faible d’un facteur 0,6 (- 40%) chez les cachés. Cette opposition confirme que le degré de présence est en étroite relation de l’identité descriptive. En effet, la population « ultra-visible » fait ses 10 actions sur 10, 4 jours (avec une médiane de 9 jours). La population « cachée » a fait ses action en moyenne sur 30 jours (avec une médiane de 24 jours).

    2.2.3 Dynamisme de l’Identité descriptive
    La mise à jour des profils, tant chez les utilisateurs hyper visibles que chez les utilisateurs cachés (environ +10% pour les deux, voir Figure 4), est plus fréquente que la moyenne : les utilisateurs cachés compenseraient l’absence d’informations déclaratives par des mises à jours de l’ « humeur » récurrentes.

    Les mises à jour des humeurs, qui sont mi-déclaratives, mi-agissantes, ont pour fonction communautaire de permettre l’apparition de leur profil dans les historiques de leurs amis : ainsi des informations sont données régulièrement sur leurs activités.

    Par contre, ont s’attendrait à trouver chez les utilisateurs hyper-visibles une mise à jour importante en raison de l’abondance des informations fournies, or ce n’est pas le cas : ils ressentiraient moins le besoin de se caractériser par des informations agissantes.

    2.2.4 Communautés, amis, groupes
    On remarque que nombre d’amis est le même approximativement chez les uns et les autres, par contre, chez les utilisateurs cachés, la « demande d’amis » apparaît davantage dans l’historique que les utilisateurs hyper-visibles : cela reflete simplement la que la demande d’amis est l’activité majeure du groupe « caché » (environ 50% de leur activité), alors qu’elle ne consititue qu’une fraction faible (20% seulement ) de l’activité du groupe « hyper-visible »

    Concernant les activités communautaires de groupe, les hyper-visibles participent beaucoup  à des groupes et surtout en créent beaucoup (Figures 4 et 5); ils postent beaucoup de commentaires tandis que les cachés n’y participent pas et postent très peu de commentaires. Ils semblerait donc que les activités communautaires soient peu valorisées par le groupe des « cachés » alors qu’elle est survalorisée par le groupe des « visibles »

    CONCLUSION :

    Pour comprendre comment l’utilisateur façonne son identité sociale virtuelle, nous avons distingué (cf. section 1) trois dimensions de l’ « identité numérique » :
    –    l’identité déclarative, renseignée directement par l’utilisateur ;
    –    l’identité agissante, renseignée indirectement par les activités de l’utilisateur ;
    –    l’identité calculée, produite d’un calcul du système.

    L’identité déclarative, qui constitue le centre permanent de l’identité dans le web 1.0, n’est plus prépondérante dans le web 2.0 ; l’identité s’y construit sur le fondement des activités réalisées (identité agissante) ; elle est orientée par l’identité calculée, qui en insistant sur certaines dimensions de l’identité impliquent une valorisation culturelle locale de certains éléments.
    Nous avons produit une première étude statistique de l’identité numérique dans Facebook (section 2). Nous avons isolé les groupes « hyper-visibles » et « cachés » en fonction de leur comportement identitaire déclaratif.

    Il est apparu que l’identité déclarative est en relation avec le degré de présence de l’utilisateur, le groupe « caché » étant moins actif sur une même période que le groupe des « hyper-visibles ». Toutefois, l’absence d’informations relatives à l’identité déclarative n’est pas un obstacle à la socialisation ni à la reconnaissance par les autres, c’est à dire au phénomène identitaire : les utilisateurs « cachés », bien qu’ils n’aient pas une activité communautaire, sont aussi socialisés localement que les utilisateurs « hyper-visibles », qui au contraires déploient une forte activité communautaire. L’identité numérique dans facebook est donc moins conditionnée par l’identité déclarative que par l’identité agissante.

    L’absence d’information déclaratives n’est pas insignifiante. Comme le sculpteur sur modèle vivant choisirait de sculpter finement les doigts du modèle ou au contraire de ne pas figurer les bras, l’utilisateur des services de communication modèle et remodèle son identité dans un mouvement de création-ajustement qui manifeste son adaptation au système communautaire en place. Ce qui constitue l’essence de la représentation est l’acte de se représenter.

    Facebook attire l’attention sur le geste de « prendre soi-même existence » à l’écran et d’y maintenir sa représentation vivante. Ce faisant, Facebook stimule les comportements compulsifs : il s’agit de se manifester sans cesse pour continuer d’exister et maintenir son réseau social…

    Cette évolution de l’identité en ligne laisse présager un changement dans le comportement des usagers par un effet de focalisation sur l’instant immédiat en une boucle réflexive secondaire de production de soi : il s’agirait toujours de pétrir l’instant présent, sans perdre le temps d’examiner le passé et en envisageant du futur que comme résultat de l’action immédiate. Une identité qui serait l’agrégat des sédiments de mes actions présentes.

    Remerciements :
    Je remercie Sébastien Charnoz pour son aide précieuse, ainsi que les participants des colloques Web participatif du Congrès de l’ACFAS 2008 et les membres d’Homo Ludens auxquels ce travail a été présenté une première fois et qui m’ont permis de le faire progresser. A ce titre je remercie également le comité de lecture de Ludovia 2008.

    Communication scientifique LUDOVIA 2008 par Fanny GEORGES (extraits)
    Centre de recherche Images, Cultures et Cognition (CRICC)
    Université Paris 1 Panthéon-Sorbonne

  • KTM & Thales s’allient pour présenter Moonshield un nouveau Serious Game

    KTM & Thales s’allient pour présenter Moonshield un nouveau Serious Game

    Moonshield0710200813Moonshield est un jeu de stratégie qui propose au joueur, dans un contexte d’anticipation (une collision entre une planète et Mars en 2029), de mettre en œuvre les technologies Thales pour préserver la terre d’une pluie d’astéroïdes qui pourrait détruire toute civilisation. Le joueur y incarne le dirigeant d’une base lunaire conçue pour protéger la Terre d’un éventuel astéroïde tueur. Il doit développer sa base en y construisant des bâtiments d’habitation, mais également tous les produits issus du catalogue Thales (radars, sonars, lance-missiles, équipement médical,…) pour faire face à la menace venue du ciel.

    Le jeu présente un niveau de difficulté dynamique, devenant plus difficile à mesure que le joueur progresse en compétence.
    L’objectif de Thales, par ce jeu, était de s’adresser directement à sa cible (des jeunes diplômés) via un univers qui leur est familier, pour avoir une meilleure visibilité auprès d’eux et dynamiser également le recrutement.

    La société KTM Advance, qui a été choisie pour réaliser ce jeu, est reconnue depuis de nombreuses années comme un acteur majeur du e-learning sur mesure et à haute valeur ajoutée. Se basant souvent sur des scénarios pédagogiques complexes (mises en situation et arbres de décisions) les produits de formation de KTM Advance font preuve de créativité et d’une grande qualité graphique (2dou 3D).

    Les formations interactives sont essentiellement orientées « métiers » (technique, commercial ou produit) ou sur des systèmes d’information (logiciels comptables, CRM ou complexes). La gamme de réalisations va de la formation à la LOLF (DGAC, Ministère des Affaires Etrangères,..) à la sécurité informatique (MINEFI, IPSEN) en passant par des formations pour les contrôleurs aériens d’Eurocontrol à Maastricht. Dans le domaine des formations « métiers », cela peut être la formation des nouveaux arrivants (Accor) ou des caristes chez PSA comme la formation à la sécurité financière (CASA), les bases de la cardiologie pour les visiteurs médicaux ou la maintenance des hélicoptères (Armée de Terre).

    KTM Advance intervient souvent en amont de la production par le conseil et l’assistance ainsi qu’un travail de valorisation des connaissances (Knowledge Management). Un accent est mis sur l’ensemble des problématiques de mise en œuvre (modalités de diffusion, accompagnement du changement, motivation,..). Cette implication et la très forte collaboration avec l’ensemble des acteurs concernés par les projets dans les entreprises sont un facteur de succès. Cela amène à un déploiement très large et à la mise en place d’autres projets pour une plus grande compétitivité des entreprises.

    Le projet Moonshield de Thales a été un formidable challenge pour les équipes de KTM Advance qui ont intégré dans un jeu d’une complexité et d’une difficulté croissante des témoignages d’expert (en vidéo) qui guident les joueurs pour leur permettre de protéger la Terre des impacts d’astéroïdes. Le scénario a également été conçu pour tenir compte des divers métiers couverts par Thales et de ses ingénieurs.

    Le jeu et la station Moonshield construite par les joueurs sur la lune ressemble à s’y méprendre à un jeu de très grande qualité, et en même temps permet de découvrir des aspects méconnus d’un des leaders européens de la fabrication et de la commercialisation d’équipements et de systèmes électroniques destinés aux secteurs aéronautique, naval et de la défense. Loïc Normand l’expert Serious Game de KTM Advance témoigne : « Le cœur de cible du projet (les jeunes diplômés) étant très riche en « gamers », nous ne pouvions nous contenter d’un petit jeu simple». «Le challenge était donc de monter en 4 mois un jeu en flash séduisant et avec un gameplay profond capable d’attirer des joueurs aguerris.»

    «La mise à disposition par Thales d’experts compétents et l’ouverture d’esprit du comité de pilotage ont été des facteurs cruciaux qui nous ont permis de mettre en place le concept en 15 jours et le cœur des règles 15 jours plus tard».

    «L’intervention de nombreux experts du jeu vidéo nous ont ensuite permis d’atteindre un niveau de qualité satisfaisant, si l’on en croit les premiers retours 3 jours après la mise en ligne. »
    Le jeu est appelé à connaître un grand succès, Thales se chargeant d’en faire la promotion auprès des grandes écoles et du public d’ingénieurs avec à la clé une saine compétition.

    A propos de KTM Advance :
    Créée en 1995, la société KTM Advance compte plus de 65 grandes entreprises clientes, dont plus de 15 du CAC 40, et soutient une croissance annuelle régulière depuis 2004.
    KTM Advance regroupe des pôles de compétences fortement complémentaires qui constituent l’équipe projet : consultants e-learning, scénaristes, ingénieurs Systèmes et KM, créatifs et techniciens. KTM Advance a conduit et réalisé depuis plus de 10 ans les plus importants chantiers français de formation à distance et d’autoformation sur mesure et orientés métiers ou système d’information. Le Serious Game est un développement tout à fait naturel dans l’évolution de KTM Advance.
    Plus d’informations sur http://www.ktm-advance.com

  • Ilearning Forum annonce son édition 2009

    Ilearning Forum annonce son édition 2009

    Le grand thème d’iLearning Forum 2009 sera : «Apprentissage intégré: convier les technologies au service de l’apprentissage individuel et organisationnel »

    ELEARNING0610200813Cette année, l’événement propose un espace de salon étendu de plus de 50% pour faire place au nombre croissant d’exposants et de visiteurs attendus avec l’intégration d’un nouvel événement dédié à la reconnaissance et l’accréditation des compétences, la conférence RAC 2009 (Reconnaissance et Accréditation des Compétences) qui va attirer un nouveau public de professionnels de la gestion des talents et des compétences. Fin Août, 30% des stands ont déjà été réservés.

    Pour cette nouvelle édition, les organisateurs anticipent donc une croissance qui devrait amener plus de 400 participants à la conférence et 5000 visiteurs au salon. Ainsi, pour faire face au succès des ateliers gratuits organisés lors de la précédente édition, l’aire qui leur sera dédiée cette année sera triplée. Cet espace ouvert à tous sera le lieu de toutes les démonstrations et les présentations des dernières nouveautés internationales en matière d’e-learning (simulations, vidéo interactive, jeux sérieux, applications de gestion des compétences et des talents, outils de développement de contenus, réseaux sociaux d’apprentissage…). Enfin, pour mémoire, l’accès au salon est gratuit, celui de la conférence payant.

    En partenariat avec EifEL, iLearning Forum n’est donc plus seulement un salon, c’est également la conférence de référence sur les technologies de l’apprentissage et l’apprentissage intégré. Cette année, les délégués auront, de surcroît, l’opportunité de participer à 2 conférences durant le même évènement: iLearning Forum et RAC 2009 (Reconnaissance et Accréditation des Compétences). Les sessions seront en français et en anglais.

    L’appel à contributions continue d’explorer l’apport des technologies les plus avancées aux méthodes d’apprentissage adaptées au 21ème siècle. Les 6 thèmes clés seront :
    –          Apprentissage intégré pour l’apprentissage organisationnel et l’innovation
    –          Apprentissage intégré pour l’employabilité, l’inclusion sociale et une citoyenneté active
    –          Innovation et futurs de l’apprentissage
    –          Architectures et infrastructures pour l’apprentissage intégré
    –          Intégrer l’apprentissage avec la gestion de la qualité
    –          Exploiter le plein potentiel de l’identité numérique

    « Avec un marché français de plus en mur mature, des exposants et visiteurs de plus en plus internationaux et encore et toujours des nouveautés et des innovantions, cette nouvelle édition d’iLearning Forum va refléter les attentes des responsables RH qui souhaitent, aujourd’hui, intégrer le e-learning et la gestion du talent, au cœur même de leur politique de formation, tout en proposant des solutions de plus en plus sophistiquées et motivantes pour l’apprenant », se réjouit Sally-Ann Moore, Directrice d’ILearning Forum.

    A propos d’EIfEL
    EIfEL (European Institute for E-Learning) est une association professionnelle européenne à but non lucratif, dont la mission est d’accompagner les régions, les organisations et les personnes dans le développement de politiques et de stratégies d’apprentissage tout au long de la vie pour le 21ième siècle.  EIfEL dirige Europortfolio (www.europortfolio.org), le Consortium Européen pour le ePortfolio, et est membre fondateur de la Fondation Européenne pour la Qualité du E-Learning (EFQUEL www.qualityfoundation.org).
    EIfEL organise et co-organise aussi de nombreux événements et conférences en Europe et dans le monde pour promouvoir l’innovation dans l’apprentissage individuel et organisationnel grâce aux technologies.
    Pour en savoir plus : www.eife-l.org

    A propos d’iLearning Forum
    iLearning Forum est l’organisateur de plusieurs salons et conférences en Europe (Paris, Moscou) et dans le Monde (Hong Kong, Bahrain, Vienne, Amsterdam, Dubaï) consacrés aux technologies de l’apprentissage pour le monde de l’éducation et de l’entreprise. Reprenant la suite d’eLearn Expo créé en 2000 à Paris, iLearning forum a pour objectif de réunir dans un environnement favorable à la réflexion et au « réseautage », les acteurs des technologies de l’apprentissage et les professionnels de l’éducation, de la formation et du développement des ressources humaines.
    Pour en savoir plus : www.ilearningforum.eu

  • L’espace de l’oeuvre : De l’objet synoptique à l’objet systémique

    Par ailleurs, et sans doute pour la même raison, les interfaces sont devenues très conviviales avec l’apparition successive des écrans, des souris, et des icones représentant les fichiers permettant de les ouvrir par un simple clic au lieu de devoir taper le cheminement de l’arborescence comme c’était encore le cas sous DOS. De ce fait, la convivialité des machines a été considérablement accrue et instaure un rapport au grand public qui est beaucoup plus d’ordre intuitif que cognitif.

    De fait, la plupart des logiciels grand public sont conçus de façon à faire oublier la dimension systémique de la machine, à la rendre complètement transparente, en tout cas. Il s’agit surtout d’induire chez l’utilisateur des comportements analogiques aux comportements non computationnels avec lesquels ils avaient l’habitude de fonctionner pour le même genre d’opérations, hors ordinateur. Un des exemples les plus caractéristiques, et sans doute aussi un des plus connus, est Photoshop®. Les « outils » proposés par l’interface ne sont en réalité que des symboles qui permettent la mise en œuvre d’opérations algorithmiques programmées en amont et stockées dans une base de donnée très puissante. Mais ces symboles (pinceau, crayon, gomme, etc.) renvoient nominalement et visuellement à des outils manuels qui sont habituellement ceux qui sont utilisés dans le travail de l’image/matière. Les opérations techniques elles-mêmes correspondent, du point de vue de l’affichage sur l’écran, à leur équivalent analogique.

    Nous sommes donc typiquement ici dans un simple transfert technologique de comportements sans que la dimension systémique du dispositif numérique, ni sa réalité programmatique, ne semblent avoir d’incidence sur la nature des comportements des utilisateurs par rapport à ceux qu’ils peuvent avoir dans le cadre du travail de l’image/matière. Mais les choses ne sont pas si simples. Ce qu’affiche l’écran n’est justement pas une image/matière, mais une image/lumière, et cette image/lumière est composée d’une multitude de points qui n’ont rien en commun avec ceux d’une image offset, par exemple. Couchot définit ainsi l’image numérique :

    « Le pixel fait ainsi office d’échangeur – minuscule – entre l’image et le nombre. Il autorise le passage du nombre à l’image. Pour créer une image, il faut d’abord créer la matrice mathématique correspondante, c’est-à-dire effectuer les opérations mathématiques qui rempliront la mémoire d’image ; tâche pour laquelle l’ordinateur est conçu. Sitôt qu’une image se présente sous cette forme numérique, il suffit alors pour la mettre en mémoire, la dupliquer, la transmettre, la transformer, de mettre en mémoire, de dupliquer, de transmettre, de transformer des nombres. (…) L’image est devenue une image matrice. Ce qui lui confère une qualité particulière, son contrôle morphogénétique ne se fait plus au niveau du plan – comme en peinture ou en photographie -, ni au niveau de la ligne – comme dans la télévision où le plan de l’image est découpé en lignes –  mais au niveau du point. La structure matricielle de l’image permet d’accéder directement à chacun de ses éléments et d’agir sur eux. Ses processus de fabrication rompent par conséquent avec tous ceux qui caractérisent les images traditionnelles ; ils ne sont plus physiques, mais computationnels. »  (Couchot, 1998, p. 134-135)

    Même si le substrat numérique n’intervient que dans l’arrière-plan des opérations effectuées par l’utilisateur, même s’il n’est pas visible en tant que tel, il constitue néanmoins un élément ontologique du processus qui en définit malgré tout la nature. Cette réalité ontologique va ainsi contribuer à la construction de nouvelles représentations du monde au travers de ce que Couchot appelle l’expérience technesthésique, selon laquelle toute technique, si elle est façonnée par des représentations du monde, induit à son tour de nouvelles représentations du monde, et je dirai encore, de nouveaux rapports au réel. Il me semble qu’on peut dégager un certain nombre de constats de ce qu’engagent ces nouveaux rapports au réel, et parmi eux, j’en retiendrai deux dans un premier temps : la relation dialogique que suppose le dispositif numérique inscrit les comportements de l’utilisateur dans une dimension systémique, et cette dimension systémique, dans sa singularité, construit un rapport au réel où la temporalité n’est plus obligatoirement linéaire, où les conséquences de chaque acte, au moins dans le cadre du dispositif, ne sont pas rédhibitoires puisque la nature même du système fait que l’on peut revenir en arrière sans que le présent ne soit définitivement affecté.

    Il est certain, à travers l’exemple que nous avons vu précédemment, qu’un utilisateur de Photoshop®, même s’il est dans un rapport analogique aux opérations physiques sur l’image, a néanmoins pleinement conscience qu’il n’effectue pas pour autant ces opérations physiques. Il y a bien sûr la dimension matérielle de l’outil ordinateur qui instaure ce décalage, un stylet sur une tablette graphique, a fortiori une souris, ne donnent pas les mêmes sensations qu’un crayon, un pinceau ou une gomme. Il y a aussi à prendre en compte le décalage spatial entre le support d’action (la tablette par exemple) et l’espace d’inscription (l’écran). Mais ce décalage n’existe pas pour les opérations effectuées avec des logiciels de bureautique comme Word par exemple. Ou plus exactement, le décalage qui existe entre les opérations manuscrites, qui est du même ordre que ceux qu’on a vus avec Photoshop® a déjà été médiatisé par la machine à écrire. Du point de vue de la posture par rapport à la machine, une saisie dactylographique sur une machine à écrire n’est pas fondamentalement différente d’une saisie dactylographique sur ordinateur.

    Néanmoins, dans un cas comme dans l’autre, avec Photoshop® ou avec Word, l’espace d’inscription est un espace contextualisé par l’espace de l’écran, surtout depuis l’apparition du principe des icones. La « page » s’affiche sur un écran où sont présents un certain nombre de signes qui renvoient au dispositif de l’ordinateur et qui, généralement, restent présents pendant le opérations de scription. Cet environnement en arrière-plan inscrit dans le champ visuel de l’opérateur la présence incontournable du dispositif machinique dans une temporalité et une territorialité spécifiques. Et ce qu’énonce cet environnement, c’est que le dispositif machinique fait système. En effet, l’architecture même de l’outil ordinateur est organisée de façon systémique à la fois dans le classement des dossiers et fichiers, mais aussi par le mode d’accès à ces dossiers et fichiers. L’icône placée sur l’écran tient lieu et place du fichier ou du dossier auquel elle renvoie. Elle constitue donc un symbole (Le Robert définit le symbole de la façon suivante : « Ce qui représente autre chose en vertu d’une correspondance » (Petit Robert, 1990, p. 103)) qui renvoie au fichier lui-même, sans donner d’informations précises sur le contenu de ce fichier, en dehors peut-être de sa nature (texte, image, son).

    Les symboles que sont les icones sont assez paradigmatiques, au niveau de l’utilisateur, du rapport qu’il entretient avec le dispositif. En effet, l’icône présentifie un substrat qui n’est pas actualisé à l’écran tant qu’on ne le fait pas émerger, en cliquant justement sur cette icone. Le substrat est complètement virtuel, il n’est stocké dans la mémoire de l’ordinateur que sous la forme de données numériques binaires. Son affichage est le résultat d’opérations algorithmiques lancées par l’utilisateur lorsqu’il clique sur l’icône. Le principe est le même dans le cadre de l’utilisation de logiciels. Les opérations analogiques que j’évoquais précédemment pour Photoshop®, par exemple, supposent à chaque opération la mise en œuvre d’algorithmes qui fonctionnent de façon complètement invisibles pour l’utilisateur. Le résultat qui s’affiche à l’écran est, lui, totalement actuel, mais les opérations algorithmiques, elles, si elles ne sont pas totalement virtuelles puisqu’elles procèdent de l’actualisation de l’image, s’instaurent dans un espace très ténu qui fait l’interface entre le virtuel et l’actuel.

    Nous entrons donc, à travers ce dispositif, dans une relation à l’actuel et au virtuel qui institue un léger déplacement sur les concepts de virtuel, actuel et réel. Dans l’acception habituelle du terme, ce qui est virtuel, est ce qui est en puissance, ce qui est amené à entrer dans le champ du réel par sa réalisation. Ce qui est virtuel n’est pas encore réel, et ce qui est réel n’est déjà plus virtuel. Le changement d’état qu’implique ce passage renvoie à des territorialités différentes, même si, comme le formule Deleuze, cela ne signifie pas pour autant que ces deux états soient à considérer en terme d’opposition.  L’actuel étant, dans cette configuration, l’espace du processus qui permet la réalisation du virtuel.

    Si nous prenons l’exemple d’une œuvre plastique, un tableau, par exemple, l’œuvre reste virtuelle tant qu’elle n’est qu’à l’état de projet, tant qu’elle ne se concrétise pas sur la surface de la toile. L’artiste construit des images mentales à partir de percepts et d’affects qui s’élaborent dans le cadre de son rapport au réel, notamment lorsque ce rapport est problématique, c’est-à-dire lorsque les percepts induisent un décalage entre ce qu’il sait du réel et la façon dont il se manifeste. Ce sont ces images mentales qui permettent l’émergence du projet plastique. L’acte de peindre constitue l’actualisation de ce projet. Cela ne signifie pas que la réalisation est linéaire, qu’elle ne permet pas des écarts par rapport au projet. La réalisation s’organise nécessairement selon un processus dialectique qui suppose des allers-retours entre ce qui émerge sur la toile et le dessein de l’artiste. L’œuvre s’inscrit dans une cohérence intrinsèque qui peut donner lieu à des écarts entre le projet et son exécution sur la toile, c’est tout l’objet des repentirs, par exemple.

    On pourrait d’ailleurs analyser le processus en remarquant que les objets plastiques que manipule le peintre ne sont pas de simples figures qui s’agencent unilatéralement comme des pièces de puzzle. Qu’ils soient figuratifs ou non, ces objets ont une valeur signifiante très forte qui va bien au-delà de leur réalité physique. Cette valeur signifiante est déterminée par ce qu’ils portent d’une partie, au moins, du projet de l’artiste et la façon dont leur agencement sur la toile va ou non valider ce projet en articulation avec la cohérence intrinsèque de l’œuvre. De ce fait, quel que soit le degré d’iconicité de ces objets plastiques, ils se définissent par un degré d’abstraction élevé puisque leur manipulation par l’artiste n’est pas tant liée à leur degré d’iconicité qu’à leur capacité à valider, de façon combinatoire notamment, les schémas mentaux qui président à l’effectuation de l’œuvre par l’artiste. Peut-on pour autant parler d’opérations computationnelles ?

    Si une opération computationnelle est, comme le définit Varela, : « … une opération effectuée ou accomplie sur des symboles, c’est-à-dire sur des éléments qui représentent ce dont ils tiennent lieu. » (Varela, Thomson, Rosch, 1993), la réponse est complexe. Dans le cadre évoqué plus haut, autour de la question des icones, la chose est relativement simple. L’icône d’un fichier, l’icône d’un disque dur, ne sont pas fichier ni disque dur, elles en tiennent lieu. La manipulation de ces icones (un clic de souris, par exemple) peut donc être assimilée à une opération computationnelle (même si elle est assez rudimentaire). Mais ce qui caractérise cette représentation, c’est qu’en tant que telle elle épuise ce qu’elle représente. L’icône du disque dur par exemple, dans le contexte du bureau de l’ordinateur, ne représente que le disque dur, et c’est ce qui fait sa valeur symbolique.

    En ce qui concerne les objets plastiques que manipule l’artiste, il en va tout autrement. Figuratifs ou non-figuratifs, ils n’épuisent pas ce dont ils tiennent lieu, pour une raison évidente, déjà, c’est que ce dont ils tiennent lieu n’est jamais totalement épuisable  parce que jamais réellement circonscrit. Le projet artistique autant que son processus d’effectuation ne procèdent pas du discours articulé, ni encore moins de l’énoncé univoque. Les images mentales se formalisent à travers des objets plastiques qui ont, comme nous l’avons vu précédemment leur propre résistance. Nous sommes donc davantage dans un processus de formalisation que dans un processus de représentation. Les objets plastiques n’ont pas pour vocation à représenter les images mentales, mais à les formaliser, c’est-à-dire à les actualiser à travers l’œuvre.

    Durant le processus d’effectuation, l’œuvre en tant que telle ne procède pas de la réalité, même si matériaux et support en procèdent, eux, de même d’ailleurs que l’acte de peindre lui-même. De plus, l’actualité de l’objet que constitue l’œuvre, le tableau en l’occurrence, n’est pas la même que celle de l’œuvre en tant que telle. Lorsque l’artiste décide que son œuvre est finie en tant qu’objet, c’est que le résultat obtenu à un moment donné représente l’épuisement provisoire du projet qui l’a porté. L’artiste décide que l’œuvre est achevée parce que l’ensemble des signes plastiques qui la composent, la façon dont ils s’organisent entre eux, le réseau de sens qu’ils construisent, sont suffisamment aboutis pour valider le projet initial. Ce qui ne signifie pas, bien au contraire, que l’œuvre se résume à cet épuisement, puisque le caractère nécessairement plurivoque de l’œuvre fait qu’elle s’inscrit à la fois dans l’incomplétude par rapport au projet initial, ce qui fait qu’il y a démarche, en même temps qu’elle en déborde les attendus.

    La réalité de l’objet ne fait pas la réalité de l’œuvre, car l’œuvre ne s’actualise dans la réalité qu’à partir du moment où elle procède du rapport spectatoriel. Pour reprendre la fameuse formule de Duchamp, c’est le regardeur qui fait l’œuvre. Chaque regardeur, à chaque regard, induit une nouvelle actualisation de l’œuvre. Néanmoins, l’œuvre-objet est de nature synoptique. Le rapport du spectateur à l’œuvre s’instaure en premier lieu dans une appréhension globale de l’œuvre par le regard, même si, bien sûr, cela n’exclut pas l’existence d’un parcours visuel à l’intérieur de l’œuvre. J’ajouterai même que ce parcours visuel, inhérent à la lecture de toute image, n’a de sens que dans la mesure où il se situe par rapport au référent qu’est la vision synoptique. Le détail ne prend sens que dans le contexte du tout. Si chaque parcours visuel peut être singulier, le cadre global de l’espace de l’œuvre (le tableau par exemple), lui, est nécessairement commun, et irréductible, dans son actualité, au parcours individuel.
    Dans le cadre du dispositif numérique, le processus s’organise de façon différente.

    D’abord, pour une raison évidente, c’est que l’information, qu’elle soit actualisée sous la forme d’images, fixes ou mobiles, de texte, de son, ne doit pas son actualité, directement en tout cas, à une intervention instrumentalisée du corps, qu’elle soit ou non médiatisée par un dispositif analogique. Certes, le corps reste présent, mais l’actance du corps n’est absolument pas du même ordre. Comme nous l’avons vu précédemment, le propos consiste non pas à transformer de la matière, voire de l’énergie, au moyen d’un protocole gestuel spécialisé, mais à rentrer un certain nombre de données informationnelles qui puissent être interprétées par l’ordinateur, au niveau du système opérateur et du (des) logiciel(s). Le geste, en soi, ne requiert aucune technicité (si l’on excepte éventuellement l’utilisation du stylet sur une tablette graphique qui n’est jamais qu’une souris perfectionnée, mais cela ne change rien sur le fond). Les outils matériels qui permettent cette introduction de données par l’utilisateur sont, pour l’essentiel, la souris et le clavier.

    En réalité, et quel que soit le cas de figure, les seules informations qui entrent véritablement sont des informations numériques (0 et 1). L’utilisateur ne travaille de fait que sur des « avatars » pour reprendre la formule d’Anne Cauquelin, « … ce que nous visualisons sur l’écran de nos ordinateurs est à proprement parler un “avatar”, c’est-à-dire la représentation visible (imagée) d’une opération qui se situe dans un autre monde. » (Cauquelin, 2006) Et elle ajoute : « À cause de ce déguisement, nous ne comprenons pas tout de suite l’an-opticité du média. Nous croyons le voir, voir cet espace, alors que nous ne voyons que ce qui en tient lieu, son avatar. »

    L’espace numérique est un espace de strates que le corps actant de l’utilisateur met en connexion en tapant sur le clavier ou en cliquant avec la souris. Mais le geste, quel qu’il soit, ne permet l’accès qu’à la couche superficielle de ces strates, celle qui affiche les avatars. Même si, par ailleurs, cette strate a néanmoins sa propre profondeur qui est l’arborescence du réseau, que celui-ci soit on line ou off line, c’est-à-dire qu’il soit constitué par l’organisation du disque dur ou, et ce n’est pas incompatible, par la structure d’un site Internet et sa mise en réseau. Jamais il n’intervient directement sur la structure informationnelle fondamentale de la machine qui s’organise par séquences de 0 et de 1. Au plus, et c’est là déjà le cas de spécialistes, intervient-il sur les strates intermédiaires qui sont les codes de programmation permettant une organisation active de ces séquences de 0 et de 1.

    Edmond Couchot explique que : « [Les images] sont calculées par ordinateur et capables d’interagir (ou de “dialoguer”) avec celui qui les crée ou celui qui les regarde. » (Couchot, 1998, p. 134) C’est bien cette dimension dialogique qui caractérise le rapport de l’utilisateur à son ordinateur. Car l’action de l’utilisateur instaure un dialogue entre la machine et lui dans la mesure où le simple fait de taper sur une touche du clavier ou de cliquer avec la souris va donner le branle à une série de couches interconnectées de langages symboliques qui vont faire l’interface entre lui et la structure informationnelle fondamentale de 0 et de 1. Et, par rétroaction, ce sont ces mêmes couches qui vont permettre l’actualisation souhaitée de l’information, et ce, à chaque étape du processus. Même si ces processus sont de l’ordre de l’an-optique, pour reprendre la formule d’Anne Cauquelin, le rapport dialogique avec la machine induit une conscience systémique du dispositif. L’utilisateur a conscience que le dispositif qu’il utilise est de l’ordre du système, et que ce système a un mode de fonctionnement propre avec lequel il est en interaction dans le temps du rapport dialogique.

    Le rapport à l’espace va se construire sur d’autres logiques que celles qui sont convoquées dans le cadre de l’espace euclidien de l’image matérielle. Nous ne sommes plus dans l’effleurement du regard ni dans la déposition (ou l’extraction) de la matière, mais dans le pointage. Boissier montre de ce point de vue le rôle déterminant autant que symbolique du doigt : « L’écran tactile ou le curseur de la souris sont des commandes digitales. En français comme en anglais, on passe – parce qu’on compte sur ses doigts – du doigt au chiffre. La désignation est, en informatique, littéralement chiffrée. Avec l’ordinateur et ses langages, l’essentiel de l’interaction est de l’ordre du doigt, comme on le dit des idéogrammes chinois, une désignation de désignation. Pointer du doigt par procuration est le paradigme d’une interface homme/machine. » (Boissier, 1996)

    De ce fait, la construction mentale qui prévaut à l’appréhension de cet espace ne s’organise plus en référence à la perspective spatiale telle qu’elle s’est construite depuis la Renaissance, même si c’est dans une logique de démontage comme pour l’espace cubiste, par exemple. Il n’est plus question d’espace physique, de distance mesurable entre les composants, mais de cible à atteindre. Comme l’explique Anne Cauquelin : « …dans un espace où la cible visée est immédiatement touchée, nul besoin de représenter la distance qui sépare la requête de la satisfaction ; qu’elle soit proche ou lointaine, la cible aura, du point de vue spatial, la même définition : elle ne sera pas située en perspective et aucune carte de type géographique ne peut la représenter. » (Cauquelin, idem) L’explication d’Anne Cauquelin concerne surtout le réseau Internet, mais elle reste pertinente pour le réseau interne de l’ordinateur.

    De fait, les dispositifs interactifs numériques immergent l’utilisateur dans un espace où les couches virtuelles des différents possibles convergent vers un point de fuite commun qui n’est autre le système lui-même. Olivier Aubert parle de « code de fuite ». (Aubert, 2006) Si nous prenons l’exemple de l’œuvre d’Olivier Aubert, justement, Générateur Poïétique, il s’agit d’une une œuvre qu’il décrit à mi-chemin entre le Jeu de la vie  et le cadavre exquis des surréalistes. « … les  » joueurs » [sont] représentés […] par une petite mosaïque colorée d’une dimension arbitrairement fixée à 20 par 20 pixels. […] chacun est […] libre de modifier comme bon lui semble son dessin personnel, et ses actions sont répercutées en temps réel au sein de la matrice globale constituée de la juxtaposition des dessins individuels. Ce dessin global, vu en permanence par tous, permet à chacun de repérer sa participation personnelle. Dès lors, s’engage une boucle de rétroaction : chacun modifie son signe local en fonction de l’état de l’image globale et  l’état global varie en fonction des actions de chacun. » (Aubert, ibid.)

    On réalise bien à travers cette description le glissement qui s’est opéré dans le rapport à l’espace de l’œuvre pour le spectateur. Non seulement le spectateur est acteur de l’œuvre collective, en « temps réel », mais de plus, les paramètres qui contribuent à l’existence de l’œuvre sont d’une toute autre nature. L’œuvre est en permanente actualisation, ré-actualisation, elle n’est donc plus de nature synoptique, mais elle introduit en outre des rapports territoriaux qui n’ont plus rien à voir avec l’espace physique puisqu’ils sont constitués de la mise en connexion, non pas de coordonnées géographiques, mais d’adresses IP qui ne renvoient pas à des lieux géographiques précis, mais à des identifiants d’ordinateurs.

    La perception du système comme donnée structurante de l’œuvre, même si elle n’est pas nécessairement patente, constitue néanmoins une dimension forte dans la mise en place d’un nouveau rapport technesthésique et les schémas mentaux qu’il induit dans les représentations du monde.

    En ce qui concerne l’artiste créateur, la chose est encore plus évidente car il introduit ces paramètres de façon nécessairement consciente cette fois-ci. La pensée créatrice de l’artiste qui produit des œuvres numériques interactives doit non seulement prendre en compte les données systémiques, mais elle doit aussi se construire en symbiose avec la dimension systémique du dispositif numérique. J’évoquais précédemment l’existence d’opérations combinatoires dans les opérations plastiques de l’œuvre picturale. Elle est, me semble-t-il, inhérente à toute production artistique. Dans le cadre du dispositif numérique, elle est non seulement indispensable, mais elle doit en plus s’organiser sur un mode à la fois systémique et systématique. Penser l’œuvre en fonction du système, que l’on intervienne ou non directement sur les codes implique, non pas forcément de penser comme le système, cela supposerait qu’il soit en capacité de penser ce qui est un autre débat, mais selon la logique du système. Or, la logique du système est une logique mathématique basée sur le principe des algorithmes. C’est donc une logique combinatoire systématique qui épuise tous les possibles sans exclusion.

    Un exemple caractéristique de cette pensée combinatoire logique nous est fourni de façon magistrale par Beckett dans Watt. Toute l’œuvre est construite sur une succession d’épuisement de combinaisons. Un des exemples en est ce passage où Monsieur Knott met en relation spatiale systématique, à travers ses déplacements dans sa chambre, les trois éléments qui la composent :
    « Ici il se tenait immobile. Debout. Assis. À genoux. Couché. Ici il allait et venait. De la porte à la fenêtre, de la fenêtre à la porte ; de la fenêtre à la porte, de la porte à la fenêtre ; du feu au lit, du lit au feu ; du lit au feu, du feu au lit ; de la porte au feu, du feu à la porte ; du feu à la porte, de la porte au feu ; de la fenêtre au lit, du lit à la fenêtre ; du lit à la fenêtre, de la fenêtre au lit ; du feu à la fenêtre, de la fenêtre au feu ; de la fenêtre au feu, du feu à la fenêtre ; du lit à la porte, de la porte au lit ; de la porte au lit, du lit à la porte ; de la porte à la fenêtre, de la fenêtre au feu ; du feu à la fenêtre, de la fenêtre à la porte ; de la fenêtre à la porte de la porte au lit ; du lit  à la porte, de la porte à la fenêtre ; du feu au lit, du lit à la fenêtre ; de la fenêtre au lit, du lit au feu ; du lit au feu, du feu à la porte ; de la porte au feu, du feu au lit ; de la porte à la fenêtre, de la fenêtre au lit ; du lit à la fenêtre, de la fenêtre à la porte ; de la fenêtre à la porte, de la porte au feu ; du feu à la porte, de la porte à la fenêtre ; du feu au lit, du lit à la porte ; de la porte au lit, du lit au feu ; du lit au feu, du feu à la fenêtre ; de la fenêtre au feu, du feu au lit ; de la porte au feu, du feu à la fenêtre ; de la fenêtre au feu, du feu à la porte ; de la fenêtre au lit, du lit à la porte ; de la porte au lit, du lit à la fenêtre ; du feu à la fenêtre, de la fenêtre au lit ; du lit à la fenêtre, de la fenêtre au feu ; du lit à la porte, de la porte au feu ; du feu à la porte, de la porte au lit. » (Beckett, 1968/2007, p. 211-212)

    La pensé combinatoire logique n’exclut pas l’intuition, qui reste une donnée de toute pensée créatrice, mais elle la situe en amont de l’effectuation. Autant dans l’œuvre picturale, les images mentales peuvent être formalisées sans qu’il y ait nécessité de passer par un discours structuré, autant dans les œuvres numériques interactives, la formalisation passe nécessairement par l’adéquation entre une pensée systématique et systémique et le langage mathématique propre au système numérique.

    Communication Scientifique Ludovia 2008 par Xavier LAMBERT (Extraits)
    LARA (Laboratoire de Recherche en Audiovisuel) – Université Toulouse II le Mirail

  • Casual Gaming : Un marché de 9.2 milliards d’euros en 2008

    Casual Gaming : Un marché de 9.2 milliards d’euros en 2008

    IDATE2609200812Il promet de nouvelles sources de revenus issues d’une base de joueurs bien plus importante que celle qui constitue la catégorie des hardcore gamers ou joueurs chevronnés.

    Ce nouveau rapport de l’IDATE présente le phénomène du Casual gaming (usages, marketing et contenus), analyse l’organisation industrielle du secteur (acteurs clés, chaîne de valeur, modèles économiques) et propose une estimation détaillée du marché du jeu vidéo au niveau mondial (enjeux et perspectives) à l’horizon 2012 et de jeu occasionnel : sur support physique d’ordinateur, en ligne sur ordinateur, sur téléphone mobile, sur console portable, sur console de salon.

    Pour Laurent Michaud, en charge des études sur le loisir numérique à l’Institut d’études et de conseils, «le segment du jeu occasionnel, composé de contenus créés par des casual game companies et d’une partie du catalogue des éditeurs traditionnels de jeux vidéo, pourrait s’élever à 9.2 milliards d’euros fin 2008, soit environ tiers des revenus de l’industrie»

    • Le jeu occasionnel est un concept marketing fédérateur. Il rallie les publics – des néophytes aux experts – autour de caractéristiques qui fondent son succès : apprentissage limité, gameplay simple, confort de jeu, partie courte.

    • Le catalogue de jeux occasionnels est considérable. Fin 2007, on estime qu’au niveau mondial  il compte plus de 1 000 titres commercialisés sur les principaux portails du genre. Le catalogue devrait
    atteindre 1 500 titres fin 2008.

    • Le jeu Tetris s’est écoulé à plus de 60 millions d’unités depuis 1985. Le jeu Bejeweled (PopCap) a été téléchargé plus de 300 millions de fois entre 2001 et 2007. Il est embarqué sur 50 millions de
    téléphones mobiles et a généré 100 millions USD de chiffre d’affaires.

    • Le portail chinois de jeux occasionnels QQ Games de la société Tencent compte, en 2007, 273 millions d’utilisateurs actifs et enregistre des pics de fréquentation de son service de jeux d’environ 3.2 millions de connexions simultanées.

    Source : Laurent Michaud – IDATE par email

  • Faites vos jeux ! Réflexion sur les approches de facilitation et d’incitation à la création vidéoludique

    Si le secteur de l’Internet semble aujourd’hui découvrir de tels moyens, il existe un domaine pour lequel ces pratiques semblent déjà fortement ancrées au sein de son histoire et culture : le monde des jeux vidéo, en tout cas quand il est pratiqué sur ordinateur (PC, Mac, Amstrad CPC, Amiga, Commodore 64…)

    En effet, des approches logicielles visant à inciter des joueurs non professionnels à la création vidéoludique sont apparues dès le début des années 1980, pour véritablement se démocratiser  au sein de la communauté des joueurs sur ordinateur dans les années 1990, avec la montée en puissance des mods (« Counter-Strike »…) ou encore des usines à jeux (« Klik n’Play », « Game Maker », « RPG Maker »…).

    Cette démocratisation semble d’ailleurs pouvoir être imputée en grande partie à Internet, qui a permit aux créateurs amateurs de diffuser leurs œuvres, voire leurs outils de création.

    Quelles sont alors les différentes approches explorées par l’industrie vidéoludique pour inciter les joueurs à s’adonner à la création ?

    Comment peuvent s’opérer de tels processus de facilitation, et de quelle manière influencent-ils la création en elle-même ?

    Pour tenter d’apporter réponse à ces questionnements, cet article se consacrera à l’analyse de plusieurs approches distinctes d’incitation et de facilitation de la création vidéoludique.

    Afin de pouvoir les analyser, nous proposerons tout d’abord un modèle structurel du jeu vidéo, en nous appuyant sur les conclusions de différents travaux théoriques sur ce dernier vu en tant « qu’artefact résultant d’un processus de design ».

    En utilisant ce modèle structurel théorique comme grille de lecture, nous passerons ensuite en revue quatre approches et outils de facilitation de la création vidéoludique : les « menus de configuration », les « éditeurs de niveaux », les « mods » et enfin les «usines à jeux ».

    Un modèle structurel du jeu
    D’après Salen & Zimmerman , un jeu est un artefact résultant d’un processus de design de la part d’un ou plusieurs auteurs: « Game design is the process by which a game designer creates a game, to be encountered by a player, from which meaningful play emerges »  [p.80]

    Nous renseignant alors plus en détail sur la nature de cet artefact, les deux auteurs nous indiquent que « a game is a system in which players engage in a artificial conflict, defined by  rules, that results in a quantifiable outcome » . [p.80]

    Approfondissant la nature systémique des jeux, Juul , également rejoint par Järvinen  sur ce point, voit le jeu comme un système à état variable: « In a litteral sense, a game is a state machine : A game is a machine that can be in different states, it responds differently to the same input at different times, it contains input and output functions and definitions of what state and what input will lead to what following state.[…] When you play a game, you are interacting with the state machine that is the game.  »  [p.60]

    Par une approche similaire, Paolo Tajè  propose de voir le jeu comme une structure possédant six couches, dont quatre sont explicitement internes à l’artefact créé par le game designer : « Token » (les éléments du jeu), « Prop » (les propriétés de ces éléments), « Dyn » (Les actions du joueur sur ces éléments) et « Goal » (les objectif du jeu que le joueur doit accomplir).

    Sans oublier que le modèle MDA  divise globalement l’expérience vidéoludique en trois parties : « Mechanics » (règles), « Dynamics » (interaction joueur-jeu dans le cadre de ces règles) et « Aesthétics » (émotions internes au joueur suite à ces interactions).

    D’après ce modèle, la partie créée directement par le créateur du jeu est celle des « Mechanics », qui constituent donc le fameux « artefact » résultant du processus de design.

    Nous pouvons également nous appuyer sur les approches similaires proposées par Crawford , Adams et Morris  ainsi que Björk et Holopainen .

    En synthèse de ces travaux sur la structure du jeu vidéo en tant qu’artefact logiciel, nous proposons alors un modèle structurel présentant le jeu vidéo comme un système mettant en relation différentes composantes.

    Chacune de ces composantes, bien qu’en étroite relation avec les autres, est alors liée à des méthodes de conception différant de celles utilisées pour les autres parties du système.

    Pour résumer, nous considérerons un jeu vidéo comme un système à état variable. 

    Ce système est composé par un ensemble « d’éléments de jeu », l’état de l’ensemble de ces éléments à un instant donné représentant « l’état actuel » du jeu. Chacun de ses éléments est définit par un ensemble de « propriétés » , dont l’état courant détermine l’état général de l’élément en question.

    Par exemple, pour le jeu « Pong » les éléments sont : les raquettes, la balle, les murs et les compteurs de score. L’état de ces éléments correspond à la valeur actuelle de chacune de leurs propriétés, par exemple leur position spatiale, ou encore la valeur numérique qu’ils affichent dans le cas des compteurs.

    Mais pour qu’il ait jeu, ces éléments doivent être soumis à un ensemble de « règles de jeu » qui permettent la modification de l’état des éléments du jeu, et donc de l’état du jeu lui-même.

    Structurellement, une règle se compose de deux parties : la « condition » (SI le joueur appuie sur le bouton haut) et «l’action » (ALORS modifier la propriété « position spatiale » de l’élément « raquette du joueur » de 3 pixels vers le haut).

    Nous pouvons alors diviser le processus de création de tout jeu vidéo en deux « composantes » :
    – La création des éléments et de leur état initial, communément appelé « Level Design ».
    – La création des règles, usuellement dénommée « Game Design ».

    Typologie des règles de jeu
    Pour le cas spécifique du Game Design, nous pouvons aller plus loin et proposer une typologie des règles de jeux, en synthèse des travaux de Frasca  et Järvinen .
    Ainsi, Frasca nous dit qu’un créateur de jeu vidéo dispose de quatre moyens pour diffuser un message : le thème, les règles de manipulation, les règles d’objectif et les règles meta.

    De son coté, Järvinen met en évidence 5 type de règles : les règles définissant le rôle des éléments de jeu, les règles définissant les actions autorisées, les règles d’environnement, les règles d’implémentation du thème ainsi que les règles définissant les moyens d’action et la communication d’information aux joueur.

    En étendant la typologie de règles que nous avons proposé dans nos précédents travaux , nous proposons alors une typologie reposant sur cinq types de règles :

     Règles « Play » : Règles définissant les moyens d’actions du joueur.
    Ces règles sont caractérisées par une condition liée à l’interface entrante du système, et une action agissant sur les éléments du jeu.
    Exemple : SI j’appuie sur la flèche droite du clavier ALORS mon avatar bouge de 10 pixels vers la droite.

     Règles « Game » : Règles définissant les objectif à accomplir.
    Ces règles sont caractérisées par une condition liée aux éléments du jeu et une action produisant un jugement explicite de la performance du joueur. Ce jugement peut ensuite communiqué vers l’interface sortante du système (ajout d’une règle Display) ou directement sur les éléments du jeu (ajout d’une règle World).
    Exemple : SI tout les éléments « ennemis » sont détruits ALORS le joueur a gagné.

    – Règles « World » : Règles faisant évoluer le système de manière autonome.
    Ces règles sont caractérisées par une condition liée aux éléments du jeu et par une action qui agit également sur les éléments du jeu.
    Exemple : règles de la Physique (gravité), intelligence artificielle…

    – Règles « Display » : Règles déterminant la représentation de l’univers virtuel.
    Ces règles se caractérisent par une condition liée aux éléments de jeu et par une action destinée à l’interface sortante du système. Ces règles permettent de « matérialiser » une représentation du monde virtuel sur les périphériques de sortie.
    Exemple : Aspects graphiques, sonores et tactiles du jeu, et toutes les règles qui permettent de modifier ces aspects.

    – Règles « Meta » : Règles de modification des règles.
    Ces règles sont caractérisées par une condition liée à l’interface entrante et par une action ciblant les règles du jeu. Ces règles permettent de modifier les règles des autres catégories, et permettent ainsi au joueur de « modifier » le jeu.
    Exemple : Menu de configuration présentés dans le paragraphe suivant
    TYPOLOGIE DES REGLES DU JEUX

    Typologie des règles de jeux : Play, Game, World, Display et Meta.

    Du « Jeu avec outils » vers « l’outil à jeux »
    En nous appuyant sur ce modèle, nous allons à présent tenter d’analyser différentes approches destinées à inciter les joueurs à la création ou la modification de jeux vidéo, notamment en leur facilitant l’accès à la création par le biais d’outils étudiés en ce sens.

    Les « menu d’options » 
    Ajustement de règles existantes
    Accompagnant historiquement la migration des jeux vidéo des salles d’arcade vers les consoles de salon et autres ordinateurs personnels, les « menus d’options » permettent de paramétrer les règles du jeu.

    STREET FIGHTERWORMS 2

    images : Street Fighter 2                      Worms 2   

    Parmi les exemples les plus courants de ces « options » nous trouvons la possibilité de configurer l’interface du jeu (associer un bouton de l’interface entrante à une action dans le jeu). On peut également rencontrer le paramétrage des règles du jeu lui-même par le choix d’un « mode de jeu » général ou plus précisément en ajustant la « difficulté du jeu ».

    Si l’on se réfère au modèle structurel présenté précédemment, quelles sont les composantes d’un jeu vidéo que permet de modifier un « menu d’option » donné ?

    Nous observons qu’il s’agit ici de la possibilité de modifier les règles du jeu, par le biais de « règles Méta » préalablement définies par le game designer : le joueur ne peut exercer son pouvoir de modification que dans un cadre défini et immuable.

    Ces règles Méta permettent ensuite de modifier, respectivement :
    – Les règles « Play », dans le cadre des configurations des touches : on modifie la partie « condition » des règles Play. Si le menu propose par exemple de modifier le nombre de projectiles disponibles dans un jeu de tir, il s’agit également d’une modification des règles Play.
    – Les règles « Game », pour le cas du réglage du nombre de « vies » ou « continues », de la durée de la partie… et parfois même dans le cadre du paramétrage de la « difficulté » :

    par exemple, en modifiant la résistance des ennemis, on modifie la condition d’une règle Game.
    – Les règles « World » lorsque le menu propose de modifier des paramètres plus spécifiques, par exemple la « puissance de la gravité » ou la « vitesse du jeu ».
    – De choisir entre plusieurs ensembles de règles à utiliser, ces dernières pouvant alors être de chacun des types définit par le modèle théorique (cas du « mode de jeu »)
    – On notera que dans le cas spécifique du réglage de la difficulté, cela peut aussi permettre de modifier l’état initial du jeu : il est possible de choisir entre plusieurs états initiaux comportant par exemple un nombre différent d’ennemis, de bonus, etc…

    D’une manière synthétique, on retiendra que les menus d’options ou de configuration permettent au joueur de personnaliser les règles et éventuellement l’état l’initial du jeu dans un cadre prédéfini par des règles de type « Méta».

    Conçu selon une logique claire de facilitation, aucune connaissance technique ou théorique particulière n’est nécessaire à l’utilisation de ces menus. Nous pouvons finalement observer qu’il s’agit là d’un moyen d’accès extrêmement simple d’utilisation de modification d’un jeu vidéo, la contrepartie étant qu’il demeure forcément très limité : en effet, toutes les modifications permises par ces menus doivent être explicitement prévues par les créateurs originels du jeu.

    Les « éditeurs de niveaux » 
    Création des états initiaux
    En parallèle aux menus de configuration, il existe de nombreux logiciels permettant de créer des « états initiaux », autrement dit de générer un « univers virtuel » composés d’un nombre fini d’éléments possédant chacun un état de départ.

    Originellement destinés aux professionnels réalisants le « Level Design » d’un jeu, ces outils, qui sont généralement des programmes distincts de celui du jeu, ont progressivement été adoptés par les joueurs. Notons qu’à de rares exceptions près, ces outils d’édition de niveau sont toujours spécifiques à un jeu donné.

    Si une des premières initiatives de ce genre, remonte à 1983 avec le jeu « Lode Runner » , la généralisation des éditeurs de niveaux ne fut pour autant pas immédiate. En effet, si une vague de jeux avec éditeurs de niveaux arriva dans les années 80, et même sur console à l’image du jeu « Excite Bike » en 1984, cette vague fut stoppée par l’arrivée des jeux en « 3D temps réel », au début des années 1990.

    LODE RUNNERUNREALIED

    Lode Runner                               UnrealED (Unreal II)   

    Est-ce la complexité supplémentaire de la création d’univers tridimensionnels qui aura rebuté les créateurs de l’industrie ?
    Toujours en est-il que les premiers éditeurs de niveaux « 3D » disponibles pour le grand public furent créés par des amateurs, aux compétences de « hackers », et qui n’avaient à priori aucun lien avec les créateurs originels des jeux.

    Les éditeurs de niveaux « officieux » les plus connus furent sans doute ceux des jeux « Wolfenstein 3D » et « Doom », ces titres faisant partie des pionniers de la 3D temps réel videoludique, en tout cas pour le monde des ordinateurs personnels.

    Bien qu’au départ réticente à laisser au joueur la possibilité de modifier ses jeux en dehors des cadres qu’elle avait définie, l’industrie du jeu, sous la pression de ses clients fortement attiré par ces créations « officieuses », en est arrivé en moins d’une décennie à livrer avec certains de ses jeux les outils qu’elle utilise pour les créer, à l’image des « éditeurs d’univers » des derniers opus de la série « Elders Scrolls », les jeux « Morrowind » et « Oblivion ».

    Si, pour ces cas précis, l’utilisation de ces logiciels  implique un niveau de connaissance technique équivalent à celui des « level designers » professionnels, il est souvent d’usage de créer des éditeurs de niveaux destinées au joueurs, plus facile d’accès car nécessitant un savoir technique moindre.

    Cette facilitation de l’utilisation passe, en plus du recours à des règles d’ergonomie et d’utilisabilité sur l’interface, à la limitation des possibilités de l’éditeur de niveaux.
    Il n’est d’ailleurs pas rare que ces éditeurs de niveaux « accessibles » soient réalisés d’après les logiciels professionnels, dont les possibilités sont alors bridées.

    En nous référant au modèle présenté en première partie, que pouvons-nous observer par rapport aux « éditeurs de niveaux » ?

    Clairement, il s’agit ici d’outils qui n’ont pas vocation à la modification des règles de jeu, mais uniquement de l’état initial du jeu, d’un « niveau ».
    Ainsi, ces outils permettent de définir, par des interfaces logicielles spécialement étudiées, les éléments de jeu présents au démarrage du jeu, ainsi que leur état de départ (position spatiale, vie, vitesse, etc…), à l’image de ceux utilisés sur le site http://www.whosegame.com.

    De ce point de vue, les « composantes » de notre modèle théorique modifiables par les éditeurs de niveaux « professionnels » et les éditeurs de niveaux « amateurs » sont identiques.

    Les différences entre le niveau d’usage des outils proviendront généralement du type de jeu (un éditeur « 3D » étant plus complexe à manier qu’un éditeur « 2D »), et dans l’approche de l’interface : si un logiciel « amateur » visera par exemple à être convivial , un outil professionnel devra quant à lui répondre en premier lieu à des critères d’efficacité, quitte à nécessiter un apprentissage spécifique pour son utilisation.

    Par exemple, l’éditeur de niveau du jeu 2D « Splodder » ne permet que de créer et déplacer des éléments, alors que l’éditeur de niveau 3D « Worldcraft », utilisé pour le jeu « Half-Life », permet en plus d’associer des scripts d’intelligence artificielle, des propriétés physiques…, à chaque élément du niveau.

    La mode des « Mods »
    Modification libre des règles de jeux existants
    Loin de se limiter à la création de l’état initial du jeu, les joueurs ont rapidement cherché à modifier les règles des jeux qu’ils pratiquent, au delà des quelques « réglages » parfois proposés par des menus de configuration.

    A l’image de la généralisation des éditeurs de niveaux, un usage spontané de la part de nombreux joueurs a conduit ces derniers à modifier des jeux existant, créant ainsi des formes « d’œuvres dérivées » qu’ils proposent ensuite gratuitement aux autres joueurs.
    Afin de rester dans les barrières d’une certaine tolérance légale, ces versions modifiées de jeux existants, baptisées « mods » , ne sont pas autonomes et nécessitent de posséder le jeu originel pour être utilisées .

    COUNTER SRIKEQUAKE RALLY

    Counter Strike (Half-life)            Quake Rally (Quake III)

    Originellement créé par des amateurs aux compétences de « hackers » , les premiers « mods », à l’image des premiers éditeurs de niveaux pour jeux 3D, étaient souvent officieux et obtenu à partir de techniques « d’ingénierie inverse » , permettant de retrouver le code source du jeu afin d’en proposer une version modifiée .

    Au départ réticente à ce genre de pratique, l’industrie du jeu vidéo finit par accepter le principe des « mods », jusqu’à l’encourager en distribuant des outils permettant de créer facilement des modifications pour certains jeux. Baptisés «Software Developement Toolkit », ou SDK, ces ensembles d’outils comprennent des « éditeurs » destinés à modifier les différentes parties d’un jeu : éditeur de niveau, éditeur de graphisme, éditeur de sons, éditeur de règles, voire à l’extrême tout ou partie du « code source informatique » du jeu…

    Au-delà de la simplification de la création de mods, l’industrie à également connu des initiatives visant à encourager leur distribution : certains jeux, à l’image de « Max Payne », proposent au joueur, lorsqu’il lance le jeu, de sélectionner un « mod » à employer, par le biais d’un menu de configuration. De même, certains éditeurs ont mis en place sur le site officiel de leurs jeux des sections d’échanges et de distribution de « mods ».

    On notera au passage que, contrairement aux menus de configuration et aux éditeurs de niveaux, le terme « mod » ne désigne pas ici des outils de modification ou de création vidéoludique, mais les modifications en elles-mêmes (règles, images, niveaux…)

    On peut alors faire un parallèle entre ces « mods » et les différents « mode de jeu » parfois proposés par les menus de configuration. La différence étant que les « modes de jeu » émanent des créateurs originels du jeu et sont livrés directement avec ce dernier.

    D’un point de vue structurel, quelles sont les composantes d’un jeu vidéo qui sont modifiées par les « mods » ?

    Pour trouver réponse à cette question il suffit de regarder les outils de création de mods distribués par les studios de développement de jeux, et force est de constater qu’il est impossible d’en dégager une tendance unique.

    En effet, selon le jeu, on sera en mesure de trouver différent type d’outils, chacun permettant de modifier une composante : état initial pour l’éditeur de niveau, règles « Display » pour les éditeurs de graphismes ou de sons, et règles « Play », « Game » et/ou « World » pour les éditeurs de scripts et le code source.
    Cependant, pour chaque jeu les types d’outils ne sont pas les mêmes : là où certains ne proposent qu’un éditeur de niveaux, d’autres proposent le code source intégral du jeu.

    La seule tendance générale que l’on peut apparemment dégager en observant ces outils concerne leur niveau de complexité élevé. En effet, qu’il s’agisse des outils utilisés pour le développement du jeu ou d’outils étudiés pour faciliter et inciter à la création, tous nécessitent un certain apprentissage.

    Si pour les éditeurs de graphismes et de sons ce savoir repose essentiellement sur des compétences en création graphique ou sonore « généralistes », la modification des règles du jeu par langage de programmation nécessitera, en plus de solides compétence en développement dans le langage utilisé, s’initier à la façon spécifique dont le jeu à été écrit.

    Si ces outils peuvent permettre, au prix d’un apprentissage plus ou moins long et complexe, de modifier toutes les composantes d’un jeu donné, il reste une composante qui ne sera à priori pas modifiable : les règles « Méta ».

    En effet, les règles « Méta », ou règles de modifications des règles, sont le type de règle utilisé pour écrire les outils de modification proposés. On comprendra donc que la vaste majorité des créateurs de jeux industriels, afin de conserver la liberté de définir ce qui est modifiable et ce qui ne l’est pas, ne donnent pas la possibilité aux joueurs de « créer leurs propres outils » ou de modifier les outils eux-mêmes.

    Seul des joueurs possédant alors de solides compétences de « hackers » seront à même d’écrire leur propres outils, à l’image des outils officieux qui furent utilisés lors de la création des premiers « mods ».

    Du point de vue des usages, le niveau de complexité général de ces outils n’est pas sans incidence : contrairement à l’usage des menus de configuration ou des éditeurs de niveaux, souvent utilisés par un créateur solitaire, les « mods » sont très souvent créés par des équipes de créateurs, en particuliers lorsque leurs modifications portent sur plusieurs composantes simultanées.

    Une sorte de catégorisation empirique existe d’ailleurs au sein des communautés de moddeurs  : d’un coté les «Partial Convertion », qui ne modifient qu’une composante à la fois , et de l’autre les « Total Convertion » qui en modifient plusieurs simultanément, au point parfois de ne plus permettre de reconnaître le jeu originel.

    Si les mods riches en modifications, à l’image des « Total Convertion », sont souvent le fruit de plusieurs créateurs associés, la raison en est très simple : la modification en profondeur de chacune des composantes nécessite un savoir distinct de celui utilisés pour modifier les autres composantes.

    Dans le monde professionnel, chaque « corps de métier » prend en charge la création d’une composante spécifique, il en est donc de même pour les moddeurs travaillant en équipe : les « levels designers » modifieront les états initiaux, les « infographistes » et « designers sonores » s’occuperont des règles « Display », respectivement pour la partie visuelle et sonore, et enfin les « programmeurs » auront à leur charge de transformer les règles « Play », « Game », et « World ».

    En résumé, on observera que les outils de création de « mods », bien qu’à priori destinées à des amateurs, sont plutôt des outils nécessitants un savoir technique pouvant égaler celui des professionnels, en raison d’un processus de facilitation qui s’appuie le moins possible sur une limitation des possibilités offertes par les outils de modifications.
    En revanche ces outils, distribués gratuitement, restent toujours spécifiques à un jeu (ou à un ensemble de jeux) donné.

    Dans la pratique, l’acquisition de compétences et de méthodes de travail professionnelles par des amateurs afin de pouvoir modifier leurs jeux favoris n’est pas sans soulever la question de la frontière entre monde professionnel et monde amateur. Cette frontière semble d’autant plus floue lorsque l’on remarque que certains « mods », après diffusion gratuite par des amateurs, sont parfois édités commercialement par des éditeurs, à l’image de « Counter-Strike », de « Day of Defeat » ou encore de « Tactical Ops ».

    Les « usines à jeux » et autres « construction kit »
    Création de jeux autonomes
    Etape à ce jour la plus complète de l’évolution d’outils visant à faciliter et inciter à la création vidéoludique, il existe nombre de logiciels permettent de créer des jeux vidéos complets et autonomes .

    Permettant généralement de créer toutes les composantes d’un jeu vidéo, ces logiciels se présentent donc comme des compilations d’outils de « Game Design » et de « Level Design ». A la différence des outils de « modding  », ces outils ne sont pas liés à un jeu donné, et constituent donc des outils de création vidéoludique génériques.

    Parmi les noms les plus célèbres de ces outils, dont certains sont d’ailleurs commercialisés, on retrouve notamment la grande famille « click » initié en 1994 par « Klik n’Play », rapidement suivi par les différents opus de « The Game Factory » et « Multimédia Fusion ».
    Parmi les pionniers du genre à être reconnus commercialement, nous identifions « Pinball Construction Set » en 1983, ou encore « GameMaker » sur Commodore 64 en 1985.

    Mais la grande famille des « usines à jeux » compte aussi des titres tels que « Game Maker », « 3D Game Studio », «The 3D GameMaker », « RPG Maker », « M.U.G.E.N », « Adventure Studio », « Adventure Construction Set », « F.P.S. Creator », « MegaZeux », « Racing Destruction Set », « Shoot’em Up Construction Kit »… et la liste est encore longue.

    GAMEMAKERTHE GAME FACTORY

    GameMaker                                  The Games Factory 2

    A l’image de cette grande variété de logiciels existants, force est constater qu’on se retrouve face à un cas similaire à celui outils de moddings, c’est-à-dire que ces outils existent en des complexités et possibilités de création très variables.

    Cependant, nous constatons au premier abord qu’il existe des logiciels « professionnels », à l’image de « Virtools », «Multimedia Fusion » ou « 3D Game Studio », qui nécessitent un savoir technique très élevé, et incitent d’ailleurs les créateurs de jeu utilisant ces outils à se regrouper en équipes, comme pour les moddeurs.

    A l’image des outils de modding, il s’agit donc ici d’outils destinés en premier lieu à des professionnels, qui sont ensuite détournés dans les usages par des amateurs.

    Cependant, si pour les outils de « moddings », qui ne sont que des « suppléments gratuits » livrés avec certains jeux, les créateurs d’outils pouvaient s’affranchir de proposer des outils faciles d’accès en justifiant de leur puissance de modification, la donne est ici différente pour  des logiciels qui sont vendus ou distribués pour eux-mêmes.

    En effet, même si la portée et la puissance des outils rejoint celles des outils de mods, le but n’est pas ici de modifier un jeu, donc de créer à partir d’une base, mais d’inciter le joueur à créer une œuvre originale.

    La problématique relative aux moyens d’opérer une facilitation sans pour autant réduire la liberté de création prend alors ici une importance capitale, plus que dans les autres approches.

    Et effectivement, au-delà des outils « professionnels » sus-cités, on remarque qu’il existe des outils plus simples d’accès, et dont le savoir technique requis, s’il n’est certes pas inexistant, reste très modeste comparée à celui demandé par les logiciels provenant directement du monde professionnel.
    Pour autant, ces logiciels ne peuvent pas faire trop de concessions sur la liberté de création qu’ils offrent, sous réserve de connaître un échec commercial .

    Quelles sont donc les solutions alors mises en œuvres par ces créateurs de logiciels pour essayer de concilier liberté créative et facilité d’accès ?

    Plusieurs approches différentes semblent coexister :
    – La limitation sur les composantes créables, voire de la liberté créative :
    Des logiciels comme « The 3D Game Maker » ne permettent en fait de modifier que l’état initial (« Level Design ») et la représentation du jeu (règles « Display »), le reste des règles n’étant pas modifiable.

    Les éléments modifiables ne le sont d’ailleurs qu’à partir de bibliothèques fournies avec le logiciel, facilitant grandement la création tout en la limitant sévèrement.
    Cela permet même à ce logiciel de proposer un mode « création aléatoire », dans lequel un jeu est créé automatiquement par la machine qui assemble alors de manière aléatoire les divers blocs de sa bibliothèque, et configure de même les quelques options proposées au créateur.

    Rare logiciel à opter pour une voie de la facilitation par la limitation extrême, au point de pouvoir se demander s’il permet de « créer » ou simplement de « choisir un choix préexistant », il n’a apparemment pas remporté un grand succès.

    – La limitation des options des outils :
    Solution visant à réduire grandement le niveau de connaissance technique requis pour la création vidéoludique tout en conservant la possibilité de créer tout les types de composantes.
    Elle consiste, au lieu de supprimer des outils comme précédemment, de tous les conserver mais d’en réduire leur puissance, réduisant de fait ce qu’ils permettent de créer sans pour autant condamner toute liberté créatrice.

    Le joueur conserve néanmoins une grande palette de possibilité créatives, et chaque logiciel bridant ses propres outils de manière différente, la diversité entre les nombreux logiciels existants confère au joueur un certain choix dans les limitations dont il pourra s’accommoder.

    Ainsi, un logiciel de création « 2D » ne pourra pas permettre la création de jeux en « 3D ». Autre exemple, pour l’écriture des règles chaque logiciel propose un « langage de programmation » qui lui est propre, qui se trouve généralement être une version plus ou moins simplifié d’un langage de programmation commun (Basic, Javascript, etc…). A noter que des logiciels comme « The Game Factory » permettrent d’écrire des règles sans passer par l’apprentissage d’un langage de programmation, un « éditeur d’événement » basé sur le modèle « condition / action » permettant d’écrire de l’interactivité en quelques clics.

    – L’automatisation optionnelle :
    Il s’agit d’une méthode très originale que l’on peut observer dans la famille des produits de la « clickteam », qui consiste à proposer simultanément une approche limitée facile d’accès et une approche ouverte plus complexe.

    Ainsi le créateur peut par exemple, pour un élément donné, choisir différents modes de déplacement pré-configurés (mode voiture de course, mode plateforme…) qu’il peut éventuellement configurer, lui permettant ainsi de créer les règles « Play » dédiées au mouvement des éléments d’une manière certes limitée mais aussi très simple d’accès. Pour ceux souhaitant aller plus loin que ces modes « pré-configurés », ce même logiciel permet de créer de toutes pièces les règles « Play » de mouvement des éléments.

    Dans le même esprit, ce logiciel propose également un mode « pas à pas », qui est une méthode de création des règles de jeu intégré dans une session de jeu. Concrètement, après avoir créé les différents éléments de son jeu et leur avoir attribué un état initial, le joueur lance le mode « pas à pas », qui est un mode de jeu qui détectera automatiquement ce qui lui semblera être des « conditions » de règles pertinentes. Il proposera alors au créateur de choisir le ou les actions à associer à cette condition, lui facilitant ainsi la création des règles Play, Game, World et Display.

    Au-delà d’une recherche plus poussée que les autres approches sur la problématique de la facilitation et l’incitation tout en conservant une certaine liberté créative, il est assez difficile de ne pas faire le rapprochement entre certains de ces logiciels et les outils de modding de certains jeux.

    En l’occurrence, certains jeux, par exemple « Quake », livré avec des outils de modifications professionnels , ont vu naître des mods qui donnent naissance à des jeux très différents du jeu d’origine, à l’image du célèbre « Quake Rally ».

    Pour autant, utiliser « Quake » comme base pour créer un jeu de course n’est pas la voie la plus aisée, ce jeu étant à priori voué à donner naissance à des « mods » du même type de jeu que lui, en l’occurrence des « F.P.S. » .

    Ainsi la grande majorité des « mods » d’un jeu donné, resteront globalement dans les canons du genre du jeu d’origine.

    Comment alors ne pas faire le rapprochement entre les « mods » et les « usines à jeux » qui sont orientés vers un genre spécifique de jeu ?

    PINBALL CONSTRUCTION SETFPS CREATOR

    Pinball Construction Set                        FPS Creator  

    En effet, si nous avons pour l’instant analysé des logiciels de création vidéoludique généralistes , il en existe un nombre conséquent qui soit orienté vers un genre précis de jeu vidéo, à l’image de « M.U.G.E.N. », « Fighter Maker » et « KOF’91 » pour les jeux de combats, ou de logiciels aux titres explicites comme « RPG Maker », « Pinball Construction Set », « Shoot’em Up Construction Kit », « Adventure Construction Set »…

    L’existence parallèle de logiciels de création vidéoludique « généralistes » et de logiciels « spécifique à un genre » nous permet d’ailleurs de nous interroger sur la façon dont il est possible, au delà d’un cadre technique, d’inciter et de faciliter la création d’un genre précis de jeu vidéo.
    En d’autres termes, quelles sont les stratégies qui permettent de rendre un logiciel spécifique à un type de jeu donné (quand ce n’est pas à un jeu donné comme pour le cas des mods) ?

    En analysant ces logiciels « spécifiques » et en les comparant à leurs collègues « génériques »,  nous pouvons observer les approches suivantes 
    :
    – Les outils spécifiques possèdent un certain nombre de règles prédéfinies.
    Ces règles caractérisent généralement un genre de jeu donné :
    o    R.P.G. Maker : combat au tour par tour, système de point de vie, de magie et de compétence, gestion d’un inventaire, d’une équipe des personnages…
    o    F.P.S. Creator : vue en 3D à la première personne, l’avatar du joueur peut tirer à partir de différentes armes, présence d’un moteur physique…
    o    M.U.G.E.N. : chaque joueur ne contrôle qu’un avatar, utilisation d’un système de collision et animation, prédéfinition de règles telles que « gel de l’animation à l’écran », jauge de « super coup », etc…
    Ces règles sont généralement immuables ou configurables dans un cadre restreint et prédéfini. Le fait de réaliser un jeu d’un genre différent de celui du logiciel de création  nécessite alors de passer par des méthodes de détournements visant à contourner les « facilitations » mises en place par les auteurs du logiciel.

    – De leur coté, au-delà des orientations et limitations techniques dont nous avons déjà parlé, les outils génériques ne proposent à priori aucune règle qui ne soit pas modifiable.
    Il peuvent néanmoins, afin de faciliter la création de jeu genre donné, proposer des « exemples » de jeu sur lequel pourra se baser le créateur.

    Nous nous retrouvons alors dans un logique proche des « mods », avec une différence fondamentale : là où les « mods » ne proposeront que rarement des outils qui permettent d’outrepasser des règles de bases du jeu originel, le logiciel de création généraliste n’a aucune limite et propose juste un exemple d’utilisation librement modifiable.

    A la lumière de ces observations, nous remarquons donc le fort lien qui existe entre les « mods » et les « usines à jeux », notamment par l’existence des « usines à jeux » liées à une genre spécifique. De plus, parmi les outils proposés par ces deux approches, nous retrouvons des « éditeurs de niveaux », ainsi que des « menus de configuration ».

    Nous pouvons alors voir, à travers ces approches, trois étapes d’un même processus de facilitation de la création vidéoludique : en premier lieu les logiciels de création généralistes qui n’opèrent que des choix de limitations ergonomiques ou techniques sans pour autant trop orienter la création. Viennent ensuite les logiciels de création spécifique à un genre, qui, par le biais de règles et mécanismes ludiques préconstruits, orientent la création vers un genre donnée. En poussant ce processus à l’extrême, on retrouve des logiciels de création orientés vers un jeu donné.
    La limitation et la mise en place de mécanismes ludiques immuables ou à configuration limité sont alors les principaux outils de ce processus de facilitation de la création vidéoludique.

    Synthèse analytique

    En nous basant sur un modèle structurel poussant à voir le jeu comme un système à état variable, nous mettons en évidence deux grandes composantes de l’artefact jeu vidéo qui résulte du processus de création des auteurs du jeu : l’état initial, rattaché au « Level Design » et les règles permettant les changement d’état, crée lors du processus de « Game Design ».

    Nous utilisons alors ce modèle comme grille de lecture sur diverses approches et outils destinés à inciter les joueurs, sous-entendu des créateurs non professionnels, à modifier ou créer des jeux par eux-mêmes.

    Si ces pratiques sont variées et notre étude loin d’être exhaustive, ce large panorama nous permet déjà de dégager des grandes tendances :
    –    La création de jeu vidéo est opérée par des auteurs « professionnels », rémunérés pour leur travail, et des auteurs « amateurs », dont la passion remplace le salaire.
    –    La création jeu vidéo par les professionnels repose sur des outils impliquant un niveau de connaissance technique assez élevé.
    –    Afin de faciliter l’accès à la création de jeux vidéo, plusieurs approches existent :
    *   La modification de jeux existants
    *    Les menus de configuration : aucune compétence particulière.
    *    Le « modding »
    *    Modification des règles
    *    Règles Play / Game / World : compétences en programmation informatique.
    *    Règles Display : compétences en création infographique ou sonore.
    *    Règles Meta : rarement modifiables, car elles servent au créateurs originel pour définir le cadre des modification autorisées.
    *    Modification des états initiaux : création de « niveaux », par le biais d’éditeurs dédiés dont certains, créés pour les joueurs, ne nécessitent pas un niveau de compétence technique très élevé.
    *    La création de jeux « sans modèle préalable »
    *    Outil de création « générique » : permettent de faire tout type de jeu.
    *    Outil de création « spécifique » : sont orientés pour la construction d’un genre de jeu précis.

    Nous pouvons alors observer que la limitation de la portée des outils de création semble être la voie privilégiée pour faciliter l’accès à la création vidéoludique. S’il en résulte indubitablement une limitation de la liberté créative, cette limitation s’accompagne également d’une baisse du niveau de connaissance technique ou théorique requis pour créer ou modifier un jeu vidéo.

    Dans la pratique, cette limitation peut porter sur les composantes qui sont modifiées, à l’image des éditeurs de niveaux ne permettant de modifier que le « Level Design », ou sur la profondeur du cadre des modifications autorisées pour une composante donnée, à l’image des « menus de configuration » qui ne permettent qu’un nombre excessivement restreint de modifications sur les règles de jeu.

    Si l’on regarde alors ce panorama dans son ensemble, des menus de configuration aussi limités que faciles d’utilisation aux outils professionnels aussi puissants que complexes, on ne peut alors s’empêcher de constater une certaine complémentarité entre toutes ces approches.
    En effet, si elles permettent chacune de modifier des composantes différentes, elles proposent surtout de le faire avec niveau de complexité très varié.

    Pour être plus précis, nous pouvons même observer une sorte de hiérarchie entre les quatre approches analysées, chacune proposant un champ de possibilités créatives de plus en  plus ouvert, au prix d’un niveau de savoir technique requis augmentant en conséquence.

    Ainsi, les menus de configurations, limités et facile d’accès, sont intégrés directement dans le jeu, et peuvent même constituer une étape obligatoire au démarrage de la partie.
    Les éditeurs de niveaux, qui ne permettent à la base que de définir des « états initiaux », sont un des outils utilisés pour la création de mods et se retrouvent intégrés dans la palette des outils proposés par les « usines à jeux ».

    Ces deux dernières approches nécessitent donc un savoir supplémentaire, en plus de la maîtrise des éditeurs de niveaux. En conséquence, il n’est pas rare que les deux dernières approches, surtout celles basées sur des outils à l’origine destinés aux professionnels, soit principalement utilisées par des groupes de créateurs, et non plus des personnes seules.

    La diversité et la complexité des savoirs nécessaires à la réalisation de mods tels que « Counter-Strike » poussent les « joueurs-créateurs » à s’organiser en équipe réunissant plusieurs « corps de métier », comme les professionnels, à la différence près que ces derniers sont rémunérés pour leur travail.

    Au delà des processus de facilitation et d’incitation mis en place par chacune des approches présentées, il semble alors pertinent de voir une forme de processus global de facilitation et d’incitation à la création ludique de qualité professionnelle opéré par la combinaison de toutes ces approches.

    En effet, nombreux sont les joueurs, à l’image des auteurs de cet article, a être devenu des créateurs professionnels de jeux vidéo suite à un parcours de « créateur amateur » impliquant la succession des différentes approches mises en avant dans cet article.

    Par exemple, les fondateurs du studio Valve Software, actuellement parmi les développeurs les plus renommés de l’industrie grâce à la création de la série de jeux « Half-life », ont commencés par se faire connaître dans le monde « amateur » par la création du mod « Team Fortress » pour le jeu « Quake ». Ironie du sort, un de leur dernier titre est justement la « suite » de mod, sous forme de jeu complet réalisé dans le monde professionnel cette fois.

    A noter également que GooseMan, initiateur du célébrissime mod « Counter-Strike » pour « Half-Life », fut ensuite recruté par ce même studio.

    Ces différentes approches, en facilitant et incitant les joueurs la création vidéoludique, contribuent donc également à créer des fortes connections entre le milieu de la création vidéoludique « amateur » et le monde industriel.

    Notons également que ces approches ont des incidences sur la pratique même du jeu par les joueurs qui ne sont pas forcément « créateurs », comme l’a par exemple étudiée Maude Bonenfant dans son article d’analyse des usages de World of Warcraft  : ces approches, en particulier les mods et menus de configuration, permettent aujourd’hui aux joueurs de s’approprier ou se réapproprier un jeu donné.

    Conclusion
    Au travers de son histoire, nous observons que le jeu vidéo pratiqué sur support informatique est riche de différentes approches destinées à globalement faciliter et inciter les joueurs à la création vidéoludique.

    En nous appuyant sur un modèle structurel du jeu en tant qu’artefact résultant d’un processus de design, nous avons alors mis en évidence les différences d’approches entre ces dispositifs logiciels.

    Mais au-delà de leurs différences, cette analyse fait ressortir leur complémentarité : chacun de ces dispositifs, de part les limites et outils sur lesquels il repose, implique un niveau de compétences technique plus ou moins élevé de la part des utilisateurs.

    D’après les quatre approches présentées dans cet article, nous observons que ces niveaux de compétences se répartissent de très faible (menu de configuration) à très élevé (kit de développement pour les mods ou usines à jeux).

    Cette complémentarité entre les diverses approches de facilitation de la création vidéoludique semble avoir contribué à plusieurs évolutions notables de l’univers des jeux vidéo. Ces évolutions ne sont d’ailleurs pas sans soulever quelques questions quant à la notion de frontière entre professionnels et amateurs, au vu des forts liens qui unissent ces deux mondes au travers des différentes approches présentées.

    Mais au-delà d’un moyen de démocratiser l’accès à la création ou d’attirer nombre de créateurs professionnels en leur permettant « d’apprendre le métier » en tant qu’amateur, ces approches semblent aujourd’hui préfigurer d’un nouveau courant vidéoludique, baptisé « Jeu 2.0 ».

    En effet, riche d’un passé fourni en démarches de démocratisation de la création vidéoludique, une des voies que semble aujourd’hui vouloir emprunter l’industrie du jeu vidéo est celle du « joueur-créateur »

    En d’autres termes, il s’agit d’inclure au maximum les créations des joueurs dans le jeu, voire même de baser les mécanismes du jeu sur la créativité des joueurs. Pour cela nous retrouvons des jeux d’outils inspirées des approches présentées dans cet article, à l’image de « Splodder » ou « Little Big Planet », dont le partage de niveaux créés par les joueurs est au cœur du jeu, grâce à des éditeurs de niveaux simple d’accès.

    Autre exemple significatif, très récent lors de la rédaction de cet article, le jeu « Spore », sur un concept de Will Wright, propose au joueur de créer sa propre forme de vie et de la faire évoluer, de l’état de bactérie jusqu’à l’age de la conquête interstellaire, où elle devra alors affronter les formes de vies imaginées par d’autres joueur.

    Pour autant, il n’agit pas ici d’un jeu en réseau où chacun dirige une civilisation, mais bel et bien d’un jeu « solo » dont l’état initial du jeu sera basé sur l’agglomération de toute les créations des joueurs ayant lancé le jeu avant vous.

    A cet usage, un « éditeur de créatures », permettant de concevoir l’apparence de créatures virtuelles, est au cœur des mécanismes de jeu. Il s’agit clairement d’un « éditeur de graphisme », utilisé en tant que base des règles « Play ».

    A titre d’exemple, la campagne promotionnelle du jeu a consisté à diffuser gratuitement l’éditeur de créatures trois mois avant la sortie du jeu, afin que les joueurs, une fois qu’il ont créé leur créatures, aient envie d’acheter le jeu qui leur permettra de jouer avec, l’éditeur ne permettant que de les construire et des les admirer.

    Signe de l’avenir apparemment prometteur du concept de « joueur-créateur », plus d’un million de créatures  ont été créées de part le monde seulement deux semaines après la publication de cet éditeur.

    Quelles seront alors les incidences sociales, économiques ou culturelles de cette forte incitation du joueur à exercer sa créativité dans un cadre vidéoludique ?
    C’est ce que nous tenterons d’observer en concentrant nos futurs travaux sur le « Jeu 2.0 » …

    Communication scientifiique LUDOVIA 2008 par Damien Djaouti, Julian Alvarez, Jean-Pierre Jessel, Gilles Methel (extraits)
    IRIT, Université Toulouse III, France, LARA, Université Toulouse II, France.

  • Valenciennes affiche clairement son ambition : être demain une capitale européenne du serious game.

    Cet événement international a pour ambition de rassembler les principaux acteurs européens et mondiaux du serious game. La manifestation vise à sensibiliser, présenter et faire réfléchir au développement des serious games, mais aussi à créer durant l’événement les conditions pour que les donneurs d’ordres potentiels (grands groupes, services publics, PME…) et les laboratoires puissent initier des projets communs, et pourquoi pas de nouveaux marchés.

    Conférences, ateliers, rencontres d’affaires, d’innovation et de découverte centrés sur les grands axes stratégiques régionaux –santé, transports, développement durable, commerce…- ponctueront également la journée.

    Baptisés e.virtuoses en écho au succès confirmé des e.magiciens, cette convention est une première étape concrète de mise en œuvre d’une stratégie qui poursuit deux objectifs :

    – Installer la Région NPDC comme territoire leader au niveau européen dans le domaine du serious game, une volonté partagée par l’ensemble des acteurs économiques et institutionnels de la région, notamment dans la concrétisation du « Pôle Image Régional »

    – Créer en région et plus particulièrement à Valenciennes sur les prochaines années, une dynamique de développement d’un fort tissu industriel et créatif consacré au serious game.

    La CCI du Valenciennois travaille actuellement sur un dispositif réunissant les conditions optimales d’accueil des créateurs et développeurs de serious game.

  • « Faire soi-même » les jeux vidéo : l’exemple de l’additiel

    Au fur et à mesure de leurs expériences ludiques et du développement des jeux vidéo, les joueurs acquièrent une expertise qui enrichit leur encyclopédie et leur permet d’interagir avec le jeu. L’encyclopédie est l’ensemble des connaissances et expériences d’un individu ou d’une collectivité auxquelles l’individu se réfère pour construire le sens du monde qui l’entoure (Eco, 1984). L’encyclopédie du joueur est constituée des expériences perceptives, des affects et des connaissances spécifiques ou non aux jeux vidéo et est sans cesse réutilisée pour reconnaître, comprendre et interagir avec le jeu. Cette encyclopédie se transforme au fil des expérience de vie et de jeu du joueur et son enrichissement permet un plus grand contrôle sur l’expérience de jeu : des connaissances plus grandes du jeu vidéo permettent non seulement de « jouer le jeu », mais aussi de se l’approprier à son avantage (corrélation foucaldienne entre le savoir et le pouvoir).

    En effet, si l’espace de jeu est délimité par un cadre conceptuel et technologique dont le joueur doit tenir compte, à l’intérieur de ces limites, le joueur possède un espace d’appropriation suffisant pour percevoir, interpréter et évaluer le jeu de manière unique pour ensuite interagir avec les éléments du jeu.

    Les choix de jeu mis en place par les concepteurs offrent un cadre interprétatif aux joueurs qui borne les possibilités d’action dans le jeu, mais qui ne les prédétermine pas entièrement. L’espace d’appropriation, non seulement rend possible le déploiement du jeu puisque, par définition, il permet l’existence d’un espace de jeu (de mouvements), mais, en plus, il permet de transformer le jeu (de manière physique ou interprétative). Le joueur, en maîtrisant les signes et les règles organisant les jeux vidéo, peut s’approprier le jeu, le faire sien et devenir alors le créateur de sa propre expérience ludique. Les jeux vidéo sont principalement développés par les concepteurs et éditeurs de jeux vidéo, mais les joueurs participent à l’élaboration des représentations, des significations et des usages. Grâce à leurs connaissances, les joueurs peuvent agir sur le jeu et peuvent « faire (en partie) eux-mêmes » les jeux vidéo – particulièrement les jeux vidéo en ligne.

    S’approprier le jeu

    Définition du jeu
    L’expression « faire soi-même » les jeux vidéo ne réfère pas à tous ces joueurs qui créent leurs propres jeux vidéo, indépendants, et qui sont diffusés à l’extérieur des circuits commerciaux ni au fait que les concepteurs soient, dans la presque totalité des cas, eux-mêmes des joueurs. Il est plutôt question ici de ces joueurs qui ne travaillent pas pour un éditeur de jeux, mais qui participent tout de même, à leur manière, au développement des jeux vidéo commerciaux ou, du moins, qui leur donnent de nouvelles significations.

    En effet, une partie de la communauté des joueurs expérimentés s’approprie les jeux vidéo pour les développer ou faire des détournements de sens et d’usage. Cela ne concerne pas l’expérience que vivent tous les joueurs, mais présente une réalité vécue par une partie de la communauté et est le reflet d’une certaine mentalité présente chez des joueurs, surtout ceux qui sont expérimentés (hardcore gamers). Les jeux vidéo commerciaux sont des produits finis, mais, pourtant, une fois mis sur le marché, ces jeux continuent d’être transformés grâce à l’intervention de certains joueurs.

    D’un point de vue philosophique, la liberté des joueurs de « faire soi-même » le jeu est inscrite dans la définition même du jeu. Selon Colas Duflo, le jeu est « l’invention d’une liberté dans et par une légalité » (1997 : 57), le point de rencontre entre la liberté et les contraintes étant justement le jeu. Le « jeu » est cet interstice entre des pièces, c’est-à-dire un espace libre permettant le mouvement, mais qui est encadré par des barrières définies. La contingence fait partie de la définition du jeu et cette marge assure l’exercice du jeu, qui se renouvelle sans cesse. Si celui-ci est un ensemble de règles et de représentations données a priori, seul le joueur en actualise l’expression : le jeu est nécessairement « performé » par le joueur et dépend de l’attitude qu’il adopte face au jeu.

    Ce dernier devient ce que le joueur en fait comme expérience, mais, si le joueur affecte le jeu, il est aussi affecté par lui d’une manière qui n’est jamais statique. Même en suivant les règles à la lettre, le joueur donne une forme nouvelle au jeu, grâce à son encyclopédie (perceptuelle, conceptuelle et affective), et rend possible l’existence du jeu. Son expérience de jeu, d’une partie à l’autre, d’une fois à l’autre, ne sera jamais la même, car l’encyclopédie du joueur évolue et, par le fait même, l’interprétation et l’expérience qu’il fera du jeu.

    Bien sûr, certains jeux, comme le jeu vidéo, peuvent conditionner à certains types d’expérience et il peut être difficile de maîtriser l’objet. Or, il est impossible de circonscrire complètement ce que deviendra le jeu : une fois sur le marché, rien n’en garantit son interprétation et son usage et des connaissances et/ou une imagination suffisantes dans le domaine (liées à une attitude face au jeu) permettent aux joueurs d’agir sur le jeu. La rencontre entre les limites du jeu vidéo et les possibilités d’interprétation et d’action est le lieu de médiation, le lieu où le joueur s’approprie le jeu pour en répéter les règles ou les transformer – en d’autres mots, pour singulariser son expérience ludique grâce à l’appropriation.

    L’espace d’appropriation
    L’espace d’appropriation est un espace plus ou moins créatif pour interpréter le monde et, éventuellement, l’adapter (plus ou moins consciemment) à son usage. Le joueur s’approprie le jeu et peut pousser ses règles, les suivre, les transformer, les réinventer. Le joueur est un médiateur qui, pour reprendre les mots de Latour (1997), peut traduire ce qu’il transporte, le redéfinir, le redéployer et le trahir. L’espace de jeu a une autonomie à part entière et les concepteurs de jeux, bien qu’ils instaurent des limites (conceptuelles et technologiques) au média, ne peuvent en contrôler l’entière utilisation : en tant que médiateur, un joueur peut entretenir des rapports imprévisibles avec le jeu.

    Le joueur, même placé au cœur d’un cadre solide, se construit un espace de jeu pour faire sien l’univers qui lui est présenté et procéder à des détournements (De Certeau, 1980). La pratique et l’attitude des joueurs définissent ainsi ce que sont les jeux vidéo et ce, dans un processus en constant devenir qui n’est pas (entièrement) contrôlé par les concepteurs (Malaby, 2007).

    Ces façons de s’approprier le jeu, qui ne sont parfois pas prévues par les concepteurs et éditeurs de jeux, permettent un équilibre entre ce que le jeu propose et la façon dont le joueur en dispose. Plusieurs joueurs font preuve d’initiatives dans l’appropriation des jeux vidéo et cette appropriation prend différentes formes : une appropriation ludique, comme, par exemple, le fait de jouer à la cachette ou aux dominos géants dans un jeu de tirs à la première personne (shooter) tel que HalfLife; une appropriation sociale où, dans un jeu de rôle en ligne tel que World of Warcraft, des joueurs organisent des initiations ou des fêtes via des avatars; une appropriation politique, où, dans un jeu de rôle tel que SecondLife, des joueurs se réunissent, via leurs avatars, pour manifester ou faire des campagnes de sensibilisation; une appropriation économique comme, par exemple, le fait de développer une économie parallèle en vendant des objets pixellisés en échange de dollars dans des jeux tels que EverQuest; une appropriation éthique, comme, par exemple, dans le jeu de stratégie en temps réel, Mankind, où des joueurs se sont spontanément faits les « gardiens du Bien »; une appropriation esthétique comme, par exemple, tous ces jeux qui servent de décor pour la création de films ou de vidéoclips par des joueurs (ce qu’on appelle des machinimas).

    Les additiels

    Ce qu’est un additiel
    De nombreux autres exemples d’appropriation pourraient être cités, car il ne faudrait pas croire que ces cas sont isolés. Cependant, dans le cadre de cette communication et dans l’optique du « faire soi-même », l’exemple le plus probant de la participation des joueurs au développement des jeux vidéo commerciaux grâce à leur appropriation est le développement d’additiels (add-ons) par certains joueurs expérimentés. En effet, les joueurs qui veulent améliorer le jeu ou leur expérience ludique programment des additiels qui viennent se greffer au jeu.

    L’additiel est un petit programme qui est ajouté au logiciel du jeu et qui permet d’effectuer certaines fonctionnalités.Dans un jeu tel que World of Warcraft, la plupart des additiels ont une fonction informative et/ou ils facilitent les actions dans le jeu. Par exemple, un additiel appelé Healbot permet non seulement d’afficher la ligne de vie de tous les joueurs qui sont dans la même équipe qu’un healer (la fonction de certains joueurs est de donner de la vie), mais aussi de donner de la vie directement, à l’aide d’un seul clic pour l’ensemble des joueurs (au lieu de sélectionner les joueurs les uns après les autres, ce qui peut être particulièrement difficile en pleine bataille).

    D’autres additiels indiquent les sorts que sont en train de lancer les ennemis, le niveau de dommages que les joueurs font, la valeur des objets à l’encan, etc.

    Ces additiels sont créés par les joueurs eux-mêmes et échangés gratuitement sur des sites qui leur sont spécifiquement dédiés, tels que wowace.com et curse.com pour World of Warcraft. Les joueurs téléchargent et installent les additiels dans un dossier spécifique du jeu. Une fois le jeu lancé, le joueur peut mettre en fonction l’additiel et parfois décider de son lieu d’affichage. Certains joueurs peuvent en installer plus d’une centaine : on constate alors que non seulement leur interface de jeu n’est plus du tout comme celle d’origine, mais l’expérience même de jeu est différente. Le contrôle, la performance et les facultés requises ne sont plus les mêmes et le jeu se trouve passablement transformé.

    Certains joueurs, d’ailleurs, reprochent aux additiels de trop simplifier la vie des joueurs et sont qualifiés de tricherie (« ce n’est plus le jeu ») alors que d’autres affirment qu’ils sont un moyen de jouer plus efficacement (« c’est le jeu, en mieux »). D’ailleurs, il est fort probable que les additiels créés par les joueurs, dans le jeu World of Warcraft, ont été la cause d’une réussite si rapide du jeu en entier par les joueurs (le fait que les joueurs complétent si rapidement le jeu, lors de son expansion Burning Crusade, par exemple, a surpris l’éditeur du jeu, Blizzard Entertainment).

    En fait, les additiels offrent des avantages indéniables aux joueurs qui les possèdent : ces utilisateurs ont plus d’informations, peuvent prendre de meilleures décisions, réagir plus vite, être plus efficaces. En d’autres mots, les additiels permettent d’améliorer la performance de jeu en fournissant des informations supplémentaires au joueur et/ou en réduisant son temps de réaction. Il faut bien comprendre que dans le type d’univers tel que World of Warcraft, une majorité de joueurs veulent être performants.

    Pour cela, ils doivent contrôler le plus possible le jeu et ce contrôle passe par l’expérience, par l’accumulation de connaissances, par la réception d’informations en temps réel et par un temps de réaction le plus court possible. Les joueurs passent des heures à s’informer auprès des autres joueurs au moment du jeu, mais aussi lorsqu’ils quittent l’interface de jeu : ils fréquentent des sites web créés par des joueurs, lisent de la documentation aussi préparée par des joueurs, consultent des livres, etc. Certains joueurs rédigent des « manuels » d’utilisateurs pour aider les autres joueurs ou développent des méthodes de calculs statistiques pour améliorer leurs performances et celles des autres joueurs. L’éditeur du jeu n’a rien à voir avec le contenu de ces documents, entièrement faits par les joueurs et partagés entre eux.

    Le partage des additiels

    Ce qui est fascinant avec l’exemple donné par les additiels, c’est qu’ils sont partagés entre tous les joueurs alors que ceux-ci sont très compétitifs entre eux et cherchent par tous les moyens à améliorer leur performance. Le joueur qui crée (code) un additiel, au lieu de le garder pour lui-même et d’avoir cet avantage sur les autres joueurs (et pouvoir être le meilleur), le donne en accès libre pour que tous puissent en profiter. Tous les joueurs ont accès à ces additiels et peuvent, à leur tour, transformer une partie du jeu. Il faut beaucoup de connaissances, autant du jeu que de l’informatique pour pouvoir programmer un additiel et la réalisation de ces ajouts au jeu n’est pas donnée à tous. Cependant, plus les joueurs enrichissent leur encyclopédie, plus ils sont à même d’agir sur le jeu : plus ils ont de connaissances, plus les joueurs ont un pouvoir direct sur le jeu et son expression et peuvent, par exemple, créer des additiels.

    Il faut aussi mentionner que tous les additiels sont écrits en code source ouvert et tous peuvent les modifier pour les améliorer. Ces modifications sont ensuite partagées avec la communauté des joueurs qui effectuent à leur tour d’autres améliorations ou en créent carrément des nouveaux. L’esprit de cette communauté de joueurs est que le partage de leur travail est le meilleur moyen de tester et d’améliorer leurs habiletés en programmation, d’apprendre grâce aux commentaires et suggestions des autres (feedback) et de développer de meilleurs additiels en mettant en commun les forces de tous les programmeurs. « Faire soi-même » des additiels pour des jeux vidéo est un moyen d’apprendre qui passionne plusieurs joueurs.

    En fait, outre l’amélioration de ses compétences, le joueur créateur d’additiels obtient une reconnaissance de la part de la communauté des joueurs – reconnaissance de sa valeur comme joueur, mais aussi reconnaissance de ses talents en informatique et du don qu’il a fait. La communauté de joueurs joue un rôle important dans l’expérience de jeu et dans l’apprentissage faite de la programmation et cette communauté ne doit pas être sous-estimée quant à son pouvoir d’agir sur les jeux vidéo et leur développement.

    Les passionnés d’un jeu vidéo unissent leurs forces pour développer des additiels (mais aussi des usages particuliers) et leur travail et expériences sont partagés dans la communauté des joueurs (principalement grâce à Internet). Cette façon de penser n’est d’ailleurs pas étrangère à la culture hacker et à cette communauté. Avant d’aller plus loin, il faut préciser que le mot hacker ne doit pas être confondu avec le mot « cracker », qui désigne les pirates informatiques ayant l’intention de nuire (to crack – briser). Les hackers sont plutôt des passionnés d’informatique associés au mouvement du logiciel libre et des valeurs qui y sont véhiculées.

    Les joueurs/Hackers

    La mentalité hacker

    Toute la mentalité des hackers se base sur la coopération, l’échange, la « gratuité », l’enseignement participatif, le partage, la considération pour les autres, l’ouverture, la liberté d’expression, la créativité, la passion, le respect de la vie privée, la résolution de problèmes en groupe, le développement de meilleurs outils utiles à tous, la liberté d’utilisation et de critique, la possibilité de participer au développement, un pouvoir décentralisé et l’absence de hiérarchie autre que celle basée sur les résultats produits par chacun. Bien sûr, comme le souligne Himanen, qui a écrit le livre L’éthique hacker et l’esprit de l’ère de l’information (2001), ces valeurs sont des idéaux, pas nécessairement toujours atteints, mais qui sont tout de même une direction qui guide le mouvement hacker du « libre ».

    Ces valeurs d’égalité sociale, de participation du citoyen et de reconnaissance de la créativité de l’individu ne sont pas sans rappeler les bouleversements sociaux qui ont eu lieu en Occident dans les années 1960-1970, au moment même de la révolution informatique et des balbutiements des premiers jeux vidéo. Des noms tels que Russells, Wozniak, Thompson, Ritchie, Jobs, Bushnell, Pajitnov, Cerf, Berners-Lee, Andreessen, Torvalds, Joy et Stallman sont associés à l’histoire de l’informatique et des jeux vidéo.

    Ces passionnés d’informatique ont développé l’ordinateur personnel, les premiers logiciels et consoles de jeux vidéo, le réseau Internet, la Toile (World Wide Web), le protocole TCP/IP, les serveurs Apache, différents logiciels dont un fureteur et même un système d’exploitation (Linux). Ils ont eu une influence majeure dans la révolution de l’informatique, eux-mêmes inspirés par les « pères de l’informatique », John von Neumann (1903-1957), Alan Turing (1912-1954) et autres Shannon qui ont, selon l’éthique scientifique, partagé leurs connaissances et leurs découvertes avec l’ensemble de la communauté pour favoriser l’émergence du savoir (en l’occurrence, l’informatique moderne).

    L’histoire de l’informatique et celle des jeux vidéo sont donc intimement liées à l’histoire du mouvement hacker. Bien que l’entreprise privée ait désormais pris le contrôle presque total du développement des jeux vidéo commerciaux, la mentalité du « libre », à travers le Web (qui, rappelons-le, échappe encore aujourd’hui au contrôle de l’État ou de l’entreprise privée), continue d’influencer les esprits. Les joueurs sont baignés dans cette culture du « libre » et les jeux se pratiquant sur le réseau sont d’autant plus influencés par la culture hacker.

    À travers l’histoire du développement des jeux vidéo, les exemples sont nombreux démontrant les diverses manières dont les joueurs se sont appropriés les jeux vidéo, conformément à la mentalité hacker, ou ont participé directement au développement de certains jeux.

    Le développement des jeux vidéo par les joueurs

    Les concepteurs du premier jeu vidéo de tir à la première personne (FPS) en réseau avaient d’ailleurs bien compris que la culture hacker profiterait à l’industrie du jeu vidéo, si elle était bien « canalisée ». L’éditeur de jeux vidéo Id Software, créé en 1991 suite au succès du jeu Commander Keen, réunit trois jeunes hackers qui réalisent le célèbre Wolfenstein 3D. En 1992, ils éditent le jeu Doom, un  jeu de tir se jouant à quatre joueurs. La première partie du jeu (sur les trois développées) a été distribuée gratuitement sur Internet et les copies se sont multipliées, de façon tout à fait légale. Les joueurs, s’ils avaient apprécié cette première partie, pouvaient obtenir le jeu au complet pour une modique somme transitée sur le web. Id Software n’ayant pas à faire affaire avec le système de distribution (avec plusieurs intermédiaires à payer) s’est vu récolter tous les profits directement, inaugurant ainsi un nouveau modèle économique conforme à l’ère du commerce électronique (Ichbiah, 2004 : 192). Les joueurs ont d’ailleurs fait eux-mêmes la publicité pour ce jeu, qui s’est rapidement dissiminé grâce à Internet.

    Plus intéressant encore, le moteur du jeu a été rendu disponible pour les joueurs et ils ont pu le modifier pour développer leurs propres environnements. Ainsi, Doom a été développé grâce à la participation des joueurs et hackers qui se sont littéralement appropriés le jeu, conformément à l’éthique hacker.

    La communauté Internet a contribué à l’amélioration du jeu. Partout dans le monde, des joueurs se sont affairés pour développer de nouveaux décors pour Doom. Certains programmeurs de haut niveau ont même « démonté » le logiciel et créé des outils permettant de le faire évoluer. Une fois qu’un joueur avait terminé Doom, il pouvait donc récupérer les centaines de niveaux disponibles sur Internet. Bien qu’id Software n’ait tiré aucun profit direct d’une telle ébullition, celle-ci a amplifié le phénomène Doom. Ce jeu s’étant ainsi vu doté d’une forme d’évolution spontanée (Ichbiah, 2004 : 193).

    Pour la suite de Doom, id Software a mis en ligne trois niveaux de son nouveau jeu, Quake (qui se joue à 16 joueurs simultanément), pour qu’il soit testé par les joueurs eux-mêmes. « Deux jours plus tard, des listes d’anomalies affluent dans la boîte aux lettres électronique des programmeurs. Certains ‘bidouilleurs’ ont eux-mêmes concoctés des corrections et ne sont que trop heureux de les fournir à id Software (Ichbiah, 2004 : 202) » . D’ailleurs, le fait que Quake puisse se jouer à seize joueurs entraîne la création de serveurs par des joueurs passionnés par le jeu et le succès du jeu est garant de l’apport des joueurs pour le développer et le diffuser (et d’autres jeux, tel que Team Fortress, seront développés à partir de l’engin de Quake).

    Sur le même modèle économique et selon la même éthique hacker seront aussi développé les jeux de tir Duke Nukem, Unreal et Counter Strike (un mod du jeu Half-Life qui deviendra extrêmement populaire). D’autres types de jeux se font littéralement approprier par les joueurs qui en développent des usages (tel que le conc jumping) ou même du contenu (avec les additiels ou des objets intégrés au jeu). Herz, dans son article « Gaming the System », donne l’exemple de Sim City: le jeu a été accompagné d’outils pour permettre aux joueurs de créer leurs propres éléments dans le jeu. Rapidement, les joueurs se sont mis à fabriquer leurs propres objets et à personnaliser leur jeu (custom).

    Cette décision de la compagnie de permettre aux joueurs de développer le jeu a été un succès à tous les niveaux : les joueurs ont apprécié personnaliser leur expérience ludique, créer leurs propres éléments du jeu et échanger leur production alors que les concepteurs profitaient de cet engouement qui n’exigeait aucun investissement. Tellement que, selon Herz, quatre-vingt-dix pourcent du contenu du jeu était, en 2002, produit par les joueurs eux-mêmes. Selon l’auteur, la principale motivation des joueurs serait la reconnaissance des autres joueurs face à leur production et Herz parle de la « social ecology of videogames » (2002 : 91). Créer une partie du jeu, c’est prolonger l’expérience ludique du joueur et, désormais, grâce au réseau d’Internet, ces créations peuvent être partagées avec des milliers, sinon des millions de joueurs.

    It is this web of relationships between players that sustains the videogame industry […] it was not hardware or software that drives innovation in videogames. Rather, it is the intersection of open architecture and on-line social dynamics that drives the medium forward. A highly networked, self-organizing player population is given the tools to customize and extend games, create new levels, modifications and characters (Herz: 2002: 93 et 97).

    Certains partisans du « libre » ont d’ailleurs affirmé que, sans l’intervention des hackers, nombre des réalisations liées aux nouvelles technologies n’existeraient tout simplement pas aujourd’hui. Nous pourrions ajouter que le dévelopement des jeux vidéo serait différent sans l’apport des joueurs/hackers. Le développement du jeu s’inscrit dans cet héritage du « libre » et une partie des joueurs continue de faire des usages originaux des jeux vidéo et de les transformer, conformément à l’éthique hacker du partage, de l’enseignement coopératif et de la passion. L’exemple de l’additiel est, à cet égard, révélateur, mais plusieurs autres exemples, pour différents types de jeux, pourraient être donnés démontrant à quel point le développement des jeux vidéo commerciaux a été garant et dépend encore aujourd’hui en partie de l’usage fait par la communauté des joueurs.

    Conclusion

    Bien sûr, dans cette présentation, seuls quelques exemples ont été donnés et certains aspects importants de la question n’ont pas été abordés. Par exemple, il n’a pas été question de la façon dont les développeurs et éditeurs de jeux exercent un contrôle à la fois sur l’expérience de jeu des joueurs et sur les possibilités de développement du jeu. Pour revenir au jeu World of Warcraft, il faut mentionner que Blizzard Entertainment, l’éditeur du jeu, intègre, tolère ou interdit chacun des additiels qui sont ajoutés au jeu et a toujours un droit de regard sur les additiels qui sont utilisés.

    Blizzard Entertainment a toujours le dernier mot sur l’usage qui est fait du jeu et demeure le propriétaire de tout le matériel qu’il s’approprie (de tous les additiels intégrés au jeu). L’éditeur demeure le principal producteur du contenu du jeu et l’apport des joueurs demeure modeste par rapport à la programmation réalisée par les employés de la compagnie. Blizzard Entertainment n’a pas le contrôle total lors de l’actualisation du jeu, mais il fait en sorte d’avoir le plus de pouvoir possible (autant d’un point de vue de la programmation que d’un point de vue juridique ou autres).

    Cependant, la compagnie n’a pas intérêt à empêcher complètement les joueurs de développer des additiels, car, parmi ces productions et ces usages, plusieurs ont été ou seront reprises dans les versions subséquentes du jeu. Ces joueurs informaticiens qui programment des additiels développent le jeu et leurs créations peuvent être intégrées à la plate-forme ludique sans rénumération de la part de Blizzard Entertainment. En outre, des usages ludiques ou artistiques tels que les machinimas constituent un outil de promotion pour les compagnies, car ces films produits dans les décors de leurs jeux peuvent être visionnés des milliers de fois grâce à une diffusion sur Internet. Si la mentalité hacker imprègne une grande partie de la communauté des joueurs et du web 2.0. en général, les éditeurs de jeux vidéo commerciaux profitent de ces créations, même si c’est parfois de manière marginale.

    En regardant l’exemple des additiels, il est vrai de dire que très peu de joueurs verront leurs productions être intégrées aux jeux vidéo commerciaux. Cependant, tous les joueurs, à des échelles différentes, s’approprient le jeu et font preuve, à un moment ou un autre, de créativité, ne serait-ce que dans l’interprétation et l’expérience, nécessairement uniques, qu’ils en font. Les jeux vidéo prédisposent certainement à un certain type d’interprétation et d’usage, mais, au bout du compte, ils ne prédéterminent pas ce que le joueur en fera.

    S’il n’était pas possible, pour le joueur, de s’approprier le jeu et d’exercer sa liberté dans la contingence du jeu, l’expression des jeux vidéo ne serait pas celle qui est observée actuellement : il est d’ailleurs fort à parier que, si les joueurs étaient aussi contraints que certains l’affirment et qu’ils ne pouvaient pas « faire (en partie) soi-même » le jeu, les joueurs ne joueraient pas autant… Comme dirait Duflo, l’humain joue pour apprendre sa liberté (1997 : 75).

    Communication scientifique LUDOVIA 2008 par Maude BONENFANT (extraits)
    HOMOLUDENS, Groupe de recherche sur la communication et la socialisation dans les jeux vidéo
    GERSE, Groupe de recherche sur la sémiotique des espaces
    Université du Québec à Montréal (UQAM)

  • Advene, une plate-forme ouverte pour la construction d’hypervidéos

    On dispose donc potentiellement d’une énorme base d’informations audiovisuelles. Cependant, les outils pour les appréhender sont encore en développement : pour exploiter des documents audiovisuels, il est nécessaire de leur adjoindre des informations supplémentaires permettant leur indexation, leur enrichissement. Ces informations supplémentaires, appelées génériquement métadonnées, peuvent avoir un degré interprétatif plus ou moins fort (d’un sous-titrage reprenant exactement les dialogues d’un film jusqu’à une critique totalement personnelle d’un film) et une granularité temporelle plus ou moins importante (du sous-titre lié à un fragment spécifique du film à la fiche documentaire décrivant l’ensemble du film).

    Les sites web de partage de vidéo tels que Dailymotion ou Youtube permettent aux utilisateurs d’associer des commentaires à chaque vidéo, mais non à des fragments de vidéo. De plus, ces commentaires ne sont pas structurés, ce qui en rend la réexploitation difficile. À l’inverse, certains outils spécialisés utilisés en recherche permettent d’annoter précisément des fragments de vidéo avec des informations très structurées, mais leur utilisation est ardue et contrainte en termes de possibilités d’annotations et de visualisations.

    Pour faciliter l’analyse et le commentaire de documents audiovisuels, il est nécessaire de fournir un moyen flexible d’associer des informations à des fragments de la vidéo, ainsi que de permettre de les structurer pour faciliter leur exploitation ultérieure (recherche, visualisation).

    Comme développé dans (Aubert-Prié, 2005), les nouveaux documents générés à partir des métadonnées associées aux vidéos peuvent être considérées comme des hypervidéos, i.e. des documents hypermédias avec une forte composante audiovisuelle. La construction et l’échange de ces hypervidéos permet d’effectuer un travail collaboratif sur des documents audiovisuels. Il est donc nécessaire de fournir des outils permettant aux utilisateurs de définir leurs propres métadonnées associées aux documents audiovisuels, ainsi que leurs propres visualisations de ces métadonnées.

    Cette appropriation des données et de leurs visualisations, pour son travail propre ou pour un partage ou un exposé avec d’autres personnes, peut être le cadre d’une véritable innovation par le bas, permettant de développer de nouvelles pratiques d’interaction avec les documents audiovisuels.

    Le projet Advene

    Les objectifs
    Le projet Advene vise à développer une plate-forme ouverte pour la conception des hypervidéos et la navigation dans celles-ci, permettant 1/ d’annoter des documents audiovisuels, i.e. d’associer des informations à des fragments spécifiques de la vidéo ; 2/ de fournir des modes de visualisations améliorés de la vidéo se basant sur la structure d’annotation ; 3/ d’échanger les annotations et les modes de visualisations associés indépendamment du document audiovisuel original, sous la forme d’unités documentaires appelées recueils.

    advene1309200812Illustration 1: Le principe général d’Advene

    L’objectif du projet est de favoriser l’émergence d’usages innovants des documents audiovisuels. Il permet aux utilisateurs d’expérimenter rapidement de nouvelles idées utilisant ou réutilisant des métadonnées, en intégrant trois étapes du cycle de vie des métadonnées : leur création et évolution, leur visualisation et leur échange.

    Le principe général d’Advene, comme le montre la figure 1, est de transmettre et d’utiliser en un seul document, appelé recueil, à la fois les métadonnées et la spécification de leurs visualisations. Le recueil peut être partagé de différentes manières (courriel, téléchargé depuis un serveur web…), indépendamment du document audiovisuel lui-même, et réutilisé par d’autres personnes. Cette utilisation peut se résumer à une simple utilisation des métadonnées pour naviguer dans le document audiovisuel ou à la consultation de documents hypermédias générés à partir des visualisations spécifiées par l’auteur du recueil.

    Cependant, l’utilisateur possédant une copie des métadonnées et des définitions de visualisations, il peut également en envisager une exploitation plus active, en modifiant ou enrichissant les métadonnées ou leurs visualisations. Il peut ainsi ajouter de nouvelles métadonnées, les visualiser à travers des visualisations préexistantes, ou créer de nouvelles visualisations créant ainsi d’autres modes de représentation.

    Considérons par exemple une communauté de cinéphiles discutant du film de Murnau « Nosferatu », et souhaitant analyser précisément la manière dont le sentiment d’horreur est rendu. Une des personnes place sur son serveur web un recueil proposant un découpage en plans du film et une sélection des séquences intéressantes. Afin de faciliter leur visualisation, il définit également une vue hypertexte commentant les séquences les plus intéressantes, avec des liens directs permettant de les visualiser, proposant ainsi une sorte de chapitrage sélectif. Un autre utilisateur étend ce recueil en indexant les panneaux d’intertitre apparaissant dans le film, permettant ainsi une recherche textuelle dans leur contenu.

    Il définit de plus une visualisation améliorée de la vidéo affichant sous la forme de sous-titres la traduction française du contenu des panneaux. Le nouveau recueil contenant ces nouvelles métadonnées et visualisations est alors mis à disposition de la communauté sur le site web, et sert de référence pour les discussions ultérieures. Dans tous ces échanges, seules les métadonnées et la spécification de leur visualisation sont échangées par les participants, chacun possédant sa propre copie du film.

    Pour fournir ces possibilités, le projet Advene définit un modèle de données basé sur le modèle des hypervidéos décrit dans (Aubert-Prié 2005). Le modèle est composé de trois principaux éléments1 : la structure d’annotation (des annotations et des relations, structurées), les vues (définissant la manière de présenter la structure d’annotation conjointement avec le document audiovisuel) et les requêtes (permettant de sélectionner dynamiquement des éléments du modèle). Les annotations sont des informations de toute nature (du texte simple pour les besoins élémentaires et la lecture active, des commentaires audio, des documents PDF ou des images, etc) qui sont liées à un fragment spatio-temporel spécifique du document audiovisuel, qui seront ensuite utilisées pour produire des visualisations. Comme nous le verrons par la suite, les vues sont personnalisables, voire complètement définissables, par l’utilisateur. Enfin, les requêtes fournissent un moyen d’effectuer des recherches au sein de la structure d’annotation.

    Architecture globale
    Le prototype Advene est un logiciel libre (licence GNU GPL), multiplateformes (Linux, Mac OS X, Windows), qui réutilise de nombreux composants existants (lecteur vidéo VLC, serveur web, langage de templates). Le prototype ainsi que des recueils d’exemples sont librement téléchargeables depuis le site http://advene.org/. Les exemples illustratifs dans cet article sont tirés du recueil de démonstration Nosferatu, que le lecteur est invité à télécharger afin d’explorer les possibilités d’Advene.

    L’application Advene intègre et contrôle un lecteur vidéo, ainsi qu’un serveur web permettant de transmettre à des navigateurs web standards les documents XHTML générés. Un gestionnaire d’événements interne surveille les différents événements intervenant durant l’utilisation de la plate-forme, et peut déclencher diverses actions sur cette base, fournissant ainsi l’infrastructure permettant de définir des vues dynamiques.

    Advene peut utiliser différents lecteurs vidéos, qui peuvent ne pas tous proposer les différentes fonctionnalités nécessaires à un rendu enrichi des hypervidéos. Le principal lecteur utilisé,VLC2, est un lecteur vidéo multiplateformes et flexible, qui permet de lire quasiment tout format de vidéo sur tout médium (fichier vidéo, DVD, flux vidéo). Nous l’avons étendu par un module de contrôle, ainsi que par des fonctionnalités supplémentaires telles que le rendu de graphiques (au format SVG) sur la vidéo3.

    La plate-forme Advene favorise l’émergence d’utilisations novatrices de métadonnées audiovisuelles. Son système de rendu se basant sur des modèles et la définition de vues dynamiques à base de règles, qui seront décrits plus précisément par la suite, permettent de spécifier rapidement de nouvelles représentations de métadonnées. Des tâches ou visualisations plus complexes peuvent être programmées en python, le langage d’implémentation de la plate-forme, et intégrées dans l’application via une infrastructure de greffons (plugins).

    Cette plate-forme permet donc d’étudier et d’expérimenter différentes pratiques liées à la lecture active de documents audiovisuels, dont la création d’annotations et leur visualisation de diverses manières.

    Création d’annotations
    Les annotations peuvent être créées suivant plusieurs modalités. Tout d’abord, les données peuvent être importées depuis des applications tierces telles que des programmes d’analyse automatique. En effet, la plate-forme Advene peut intégrer des informations de toute nature liées à des fragments spécifiques du document audiovisuel. À travers l’infrastructure de plugins, de nouveaux formats d’import de données peuvent être définis et proposés à l’utilisateur. Il est ainsi aisé d’intégrer et tester de nouveaux algorithmes d’analyse automatique, en utilisant les fonctionnalités d’Advene pour visualiser et valider les résultats.

    De plus, des assistants d’annotation peuvent guider la création des métadonnées, en fournissant des données incomplètes ou imprécises que l’utilisateur doit finaliser, de manière plus ou moins interactive. Ainsi, un pré-découpage temporel automatique peut être utilisé comme base de travail par l’utilisateur, et amélioré manuellement.

    Enfin, les annotations peuvent être créées totalement manuellement, en utilisant le composant de prise de notes au vol, celui de gestion de signets ou encore la ligne de temps. La prise de notes, par exemple, offre un moyen simple et rapide de produire des données textuelles liées temporellement au film, en prenant simplement des notes lors de la visualisation du film. Des marques de temps sont automatiquement (ou à la demande) insérées dans le texte, permettant ainsi de générer des annotations situées temporellement dans le flux.

    Quelle que soit la modalité de création utilisée, les annotations créées peuvent être précisées en modifiant leur contenu, leur type (en catégorisant une annotation générique dans une catégorie plus spécifique) ou leurs bornes temporelles (en les alignant sur d’autres annotations, en les ajustant manuellement, etc).

    Visualisations
    Les métadonnées sont créées pour enrichir les documents audiovisuels avec des informations supplémentaires, permettant ainsi d’y naviguer ou d’y effectuer des recherches plus efficacement. Cependant, obtenir l’information adéquate ne représente qu’une partie de la tâche : il est également nécessaire de visualiser l’information obtenue, suivant des modalités adaptées à l’activité en cours. Il est donc important de fournir différentes manières de visualiser l’information, que l’utilisateur peut de plus personnaliser ou redéfinir pour les adapter à ses besoins. La version actuelle d’Advene offre trois types de vues : les vues ad-hoc (d’interface), les vues statiques (documents XHTML générés) et les vues dynamiques (lecture enrichie du document audiovisuel).

    advene1309200813Illustration 2: Interface générale d’Advene

    Retours d’utilisation
    La flexibilité de la plate-forme la rend utilisable dans divers domaines d’application, de l’enseignement de langues à la critique de cinéma ou à l’analyse de corpus de recherche. Voyons rapidement quelques exemples d’utilisations actuelles d’Advene.

    Une enseignante en langues l’utilise de manière simple pour préparer des travaux sur des films. Elle peut définir simplement une table des matières lui permettant d’accéder directement aux parties intéressantes du film. Les fonctionnalités de vues dynamiques lui permettent également de mettre le film en pause automatiquement à certains instants, afin de pouvoir poser des questions à ses élèves. Des enseignants de la cellule CERISE du CRDP de Lyon, qui travaillent sur l’éducation au cinéma au collège et lycée, utilisent également Advene comme outil d’exploration et de préparation de leurs interventions, accompagnés par un membre de notre équipe. L’objectif à terme est d’utiliser plus largement Advene lors de la réalisation des interventions.

    Dans le cadre du projet ANR Cinelab, mené conjointement avec l’IRI7 et le Forum des Images, Advene a servi d’outil de prototypage de nouvelles modalités d’interaction ou de rendu d’information lors de séances de travail avec des résidents critiques de cinéma. Cette collaboration entre l’équipe d’Advene et les critiques de cinéma a notamment permis d’améliorer les aspects de prise de notes, ainsi que de commencer un travail sur les différentes visualisations appropriés au domaine de la critique.

    Enfin, des chercheurs en sociologie du laboratoire RUC (Danemark) utilisent Advene pour analyser les enregistrements vidéos qui constituent leur corpus. Ce sont pour l’instant les utilisateurs, hors équipe Advene, qui tirent le plus parti des différentes fonctionnalités de l’outil : prise de notes, structuration des annotations, recherche d’informations pertinentes, définition de visualisations.

    Enjeux abordés
    Le projet Advene et sa matérialisation dans le prototype du même nom permettent d’aborder différentes pistes de réflexion :
    1/ la question du public visé et apte à s’emparer d’un nouvel outil pour construire de nouvelles pratiques;
    2/ la souplesse nécessaire pour permettre de développer des pratiques innovantes (qui pourra entrer en conflit avec la nécessaire convivialité d’un outil s’adressant à un large public) ;
    3/ les enjeux soulevés par le projet qui dépassent largement des aspects techniques ou ergonomiques et posent également des questions sur le droit d’auteur.

    1/ Le projet vise plusieurs catégories d’utilisateurs, s’inspirant ainsi de l’expérience du web : tout d’abord, une catégorie de « cinéphiles informaticiens », intéressés par l’objet du projet (l’échange d’informations sur des films) et ayant les capacités techniques leur permettant de s’emparer d’un outil pour l’améliorer (le prototype étant sous une licence libre GNU GPL). Ensuite, des « amateurs éclairés », non programmeurs, mais que l’absence d’interfaces graphiques d’édition ne rebute pas. Ces personnes sont capables de procéder par imitation (copier/coller de directives HTML par exemple), en utilisant pour modèle des documents préexistants qui leur semblent répondre au moins en partie à leurs desiderata.

    Enfin, des « amateurs utilisateurs », qui ont besoin d’outils graphiques d’édition pour créer de nouvelles visualisations ou de nouvelles structures d’annotation, ou réutiliser des définitions existantes. À travers cette démarche progressive, nous souhaitons voir émerger de nouvelles pratiques en termes de manipulation des médias audiovisuels, en fournissant une « boîte à outils » permettant de rendre plus accessible la conception de ces nouveaux modes d’interaction.

    2/ D’autres applications similaires existent, mais sont souvent liées à un domaine d’utilisation particulier tel que l’étude des gestes en interaction humaine (Kipp, 2004), l’édition de sous-titres8, etc. Ce lien permet d’intégrer dans la conception de l’application en général, et de l’interface en particulier, des contraintes implicites liées aux spécificités du domaine d’application. Dans la conception du projet Advene, nous avons cherché à rester le plus générique possible, de manière à offrir une plate-forme polyvalente capable de s’adapter à différentes tâches (Aubert-Prié, 2007). Cette polyvalence assumée se révèle parfois gênante pour l’adoption de l’application : d’une part, les utilisateurs peuvent être perdus au milieu de la variété d’outils disponibles et ne pas savoir lequel est le plus adapté à leur tâche. La plupart des outils polyvalents présentent le même problème, qui ne peut se résoudre que par des améliorations ergonomiques : il est nécessaire de porter une grande attention à l’accompagnement des utilisateurs ainsi qu’à la qualité de la documentation.

    D’autre part, la généricité et la souplesse de l’application rendent plus difficile la conception d’interfaces dédiées. La structure des données, leurs contenus, ne sont pas contraints. Il n’est donc pas possible de fournir de base des interfaces effectuant de la validation automatique des données, ou de la présentation. Pour cela, il est nécessaire d’apporter des informations supplémentaires (des métadonnées sur les métadonnées) indiquant les contraintes existantes, spécifiques à chaque domaine d’application. Mais l’expression de ces contraintes est elle-aussi source de complications. Le compromis ergonomie/polyvalence n’est donc pas aisé à trouver. Là encore, l’implication de différentes catégories d’utilisateurs doit permettre de faire évoluer l’interface en répondant dans la mesure du possible aux deux demandes.

    3/ Comme le souligne Von Hippel (Von Hippel, 2005), la dématérialisation liée à la numérisation des documents permet aux utilisateurs de devenir acteurs de l’innovation, et d’apporter eux-mêmes des réponses aux questions ou problème qu’il se posent. Cependant, cette possibilité d’innovation peut aller à l’encontre de principes légaux ou commerciaux établis, en particulier dans le domaine de l’audiovisuel9 : quelle est la limite dans les manipulations que l’on peut faire subir à un document audiovisuel ?

    Le fait de pouvoir spécifier des transformations (remontage, sous-titrage, etc.) à apporter à un document audiovisuel lors de la visualisation sans modifier le document lui-même entre-t-il en conflit avec la notion de droit d’auteur et d’intégrité de l’œuvre ? La notion même de document est affectée, en ce que la source des informations et leur rendu/visualisation finale peuvent faire l’objet de diverses transformations. Le projet Advene, de par ses principes, illustre ces différents problèmes. Le cadre légal évolue régulièrement, notamment par le biais des nouveaux usages. En contribuant à l’émergence de nouveaux usages, le projet Advene peut participer à ce mouvement.

    Conclusion
    Le projet Advene offre, dans le domaine de la lecture active de documents audiovisuels, une plate-forme flexible permettant l’expérimentation de nouvelles formes d’interaction avec les documents audiovisuels et leurs métadonnées. Cette expérimentation passe notamment par la possibilité offertes aux utilisateurs de définir eux-mêmes leurs propres structures d’annotations et leurs propres manières de les visualiser, ce qui veut favoriser l’émergence de nouvelles pratiques.

    Les domaines d’utilisation du prototype sont divers : de l’échange de commentaires et de critiques de cinéphiles amateurs à l’indexation et à la recherche dans des corpus audiovisuels dans le cadre de la recherche, jusqu’à l’exploitation pédagogique en cours de langue ou toute autre matière où le support audiovisuel peut être exploité.
    Ce projet mené depuis plusieurs années a donné lieu à des expérimentations avec des publics divers (chercheurs, enseignants, étudiants), et plus récemment avec des critiques de cinéma dans le cadre du projet ANR Cinelab. Ces expériences nous ont permis de guider les évolutions de la plate-forme, ainsi que de valider des pistes de recherche sur les principes de l’interaction avec des documents audiovisuels. Les développements se poursuivent suivant différents axes tels que l’annotation et l’interaction croisée de plusieurs documents audiovisuels, les pratiques collaboratives synchrones ou asynchrones, ou encore l’intégration des traces d’utilisation pour fournir une assistance à l’utilisateur.

    Communication scientifique Colloque Ludovia 2008 par Olivier AUBERT – Pierre-Antoine CHAMPIN – Yannick PRIÉ (extraits)
    LIRIS (UMR 5205 CNRS)
    Université Lyon I