Catégorie : recherche

  • Le web 2.0 apporte-t-il une nouvelle forme de pensée culturelle ?

    Cette pensée à l’œuvre dans le web 2.0, qui peut se définir comme catégorielle et classificatoire ; l’information est en effet manipulée, fabriquée, transformée, indexée, interchangée, accessible à volonté, tend à désacraliser l’information et son auteur en la transformant en simples données, en objet manipulable à souhait. Quel(s) système(s) de valeurs se substituent à celui de la sacralisation de l’information et de son auteur ? Autrement dit, en quoi sa mise à portée de tout un chacun et de tous, tant en production qu’en réception, sans origine auctorielle précise, s’accompagne-t-elle d’un autre mode de croyance, d’une autre manière de faire sens pour l’usager, que ceux accordés à l’information des médias habituels, radios, chaînes de télévision, presse ?

    Le web 2.0 ou « do it yourself » existe-t-il ? 
    Si d’évidence le terme mercatique «web.2.0» inventé par l’américain Tim O’Reilly ne désigne pas une révolution de la communication  sur le Web, il recouvre pourtant, quoique souvent contesté par les chercheurs, une réelle mutation des pratiques de l’information.  Certes, son invention est une histoire mercatique, mais elle correspond aussi à une évolution des technologies informatiques, qui se fonde sur l’interopérabilité des systèmes ; chaque application informatique  devient capable de communiquer et d’échanger des données par le biais d’interfaces de programmation ouvertes appelées Application Programming Interface ou API (Gervais, 2006 : 12 ; 42-43).

    Joël de Rosnay, dans son ouvrage intitulé La révolte du pronétariat, précise que cette évolution technique accompagne une évolution des  usages du web, ce dernier permettant alors aux usagers de :
    – s’approprier l’information, la partager, la diffuser, dans un mouvement collectif où tous les usagers peuvent informer tous les usagers (c’est le principe du many to many et non plus du one to many dont les médias traditionnels faisaient usage quand une marque, une chaîne, … s’adressaient à tous les spectateurs ou à tous les lecteurs ) ;
    – trier, appeler l’information que l’on veut recevoir grâce aux flux rss  et non plus recevoir passivement de l’information non désirée, envoyée indiscrètement dans nos boîtes mail ou boîtes postales par exemple. Ce ne sont plus les annonceurs qui doivent pousser l’information vers les clients (principe du push)  mais ce sont les usagers qui disent ce qu’ils veulent obtenir comme contenu  (pull). (De Rosnay, 2006 : 182).

    De nouvelles pratiques ou expériences de l’information
    Ces nouveaux usages du web sous-tendent une nouvelle pratique ou expérience de l’information. Celle-ci ne se veut plus tant captivante de façon intrinsèque que parce qu’elle est manipulable au sens étymologique du terme : appréhender avec la main. Le contenu ne reste pas une entité abstraite, intouchable, communiquée par une instance médiatrice supérieure mais il devient un ensemble de données mises en forme à l’écran dans des grilles, des icônes, voire  des gadgets ou widgets  que les usagers peuvent déplacer à volonté, accumuler, soustraire, …  Le web devient ainsi une machine à produire et à transformer de l’information ; cette dernière est pour l’usager une matière première à (re)transformer autant dans son contenu que dans sa forme d’affichage et dans ses modalités d’énonciation .

    Chacun autrement dit, peut en faire varier la source, le réseau de diffusion, la teneur intrinsèque, le format, l’interface d’accueil aussi via les agrégateurs de contenu. Ces derniers permettent en effet de rassembler dans une même interface différents types de services, d’informations, provenant de sites-sources divers et traités par des API. Netvibes , en est un exemple ; les usagers se créent un espace composé de types d’informations qu’ils aiment, de services souhaités et à leur gré, ils déplacent, composent, enlèvent, ajoutent les widgets, les icônes (figure 1).

    En fin de compte, si avec les autres médias chaque destinataire pouvait reformuler à souhait le message, désormais, avec les outils simplifiés et libres à disposition de chacun, chacun peut en outre, « jouer au lego »  avec l’information dans l’interface de son agrégateur de contenu. Annonceur-journaliste, chacun peut être fournisseur de vidéos, photos, textes, messages radiophoniques. C’est l’acte de faire soi-même l’information, au sens propre du terme, qui génère du sens à celle-ci et c’est cet acte que note l’expression « Do it yourself ».
    Nouvelles possibilités techniques, nouveaux usages, nouvelle expérience de l’information, l’époque mondiale du « faire soi-même » l’information accompagne-t-elle ou s’accompagne-t-elle d’une nouvelle forme de pensée culturelle, d’une nouvelle façon de se représenter les choses, les autres et de les représenter ?

    Dans quel cadre de recherche se situe cet exposé ? 
    Au fil de notre travail sémiotique sur les interfaces web, nous avons démontré comment, plus qu’un moyen d’afficher l’information, les interfaces des sites créent un support matériel figuré de l’information via les métaphores d’écran telle la page A4, un support formel de l’information organisée en vignettes, carrousel, grille…, un support de travail manuel de l’information, aussi (Pignier et Drouillat, 2008 : 34-38), (Pignier 2008, à paraître).

    Nous avons montré comment ces différents supports suggéraient une certaine pratique, une certaine expérience du contenu, plus ou moins ludique, artistique, utilitaire, entre autres. Nous avons montré comment les interfaces web construisent, à notre insu ou non, non pas seulement un moyen d’appréhender le contenu mais aussi une manière de l’appréhender, un Faire social pour reprendre le concept que l’anthropologue François Laplantine emploie par ailleurs. Selon ce dernier en effet, une pratique sociale n’est pas un fait, un objet, mais un acte dynamique, un processus (2005 : 119) qui prend son sens pour l’usager comme pour l’observateur dans le Faire qui le sous-tend et l’accompagne. Être attentif au Faire social sur le web, c’est pour nous aussi non pas considérer les pratiques dans leur seul objectif ou dans leur résultat, mais c’est les appréhender dans leur mise en œuvre, avec leur sensibilité culturelle.

    Le corpus que nous nous étions fixé pour ces recherches comprenait 150 sites de grandes marques et environ 50 sites communautaires, agrégateurs de news et de réseaux sociaux , sites  de géolocalisation c’est-à-dire de localisation sur cartes interactives. Dans cette étude, nous avons privilégié les sites de marques en précisant en quoi leur interface exprime une représentation imaginaire et morale de l’annonceur, un ethos  que l’usager est invité à partager. Tandis que certains sites web de marques proposent une interface propice à une expérience immersive quasi artistique de l’information, l’usager ne distinguant plus le contenu de l’interface, d’autres offrent une interface plus usuelle, dont les signes fonctionnels, les formes d’organisation de l’information et la métaphore de la page A4 relèvent du sens commun, partagé par le plus grand nombre d’usagers. Ainsi, on peut distinguer l’écart en terme de pratique de l’information entre les sites de marques  tels ceux du chocolatier Patrick Roger ou du styliste Issey Miyake (figures 2 à 5) qui offrent une expérience  créative de l’information, apte à l’immersion  de l’usager dans les plis et les replis de l’interface/contenu, tandis que d’autres offrent une expérience plus standard du texte. Ce dernier est alors cadré dans une interface qui se veut un « moule » pré-conçu séparé du contenu . L’usager peut alors avoir l’impression qu’il maîtrise l’interface et qu’il peut en parcourir le contenu de manière productive (figure 6).

    Quelle hypothèse de départ ? 
    Quant  aux sites et blogs à l’esprit communautaire, aux agrégateurs de contenu, ils se caractérisent généralement par des interfaces le moins designées possible, à la portée de tous, standardisées et faites à partir de logiciels et d’applications gratuits. Appartenant aux sites dits « de contenu », ils misent tout sur la manipulation de l’information, l’interface devant être le plus pratique possible pour la main, pour l’oreille et pour l’œil. C’est ainsi que Jean-François Gervais parle, à propos des sites dits web 2.0., de sites standardisés dans leur interface, avec une séparation totale de l’interface et du contenu (2006 : 136). De la même manière, Patricia Gallot Lavallée (2007 : 147) définit le web 2.0 par les standards non seulement de l’interface mais aussi de la forme technique des contenus afin que ces derniers soient exportables.

    En l’occurrence, ces sites offriraient une expérience de manipulation de l’information, une expérience de l’interface non plus  immersive mais productive. L’interface consisterait à faire en un minimum de temps le plus de choses possibles, en un minimum d’espace le plus d’accès possible à l’information.  Les principes ergodiques de ces sites se fonderaient, c’est notre hypothèse de départ,  sur une pensée plurielle ; privilégier l’accumulation et la pluralisation des possibles, ordonner, catégoriser, classer, maîtriser. Tout cela dans une relation  usager-interface clairement établie ; l’usager se vit maître de ses actions, de son parcours de travail et a l’impression de maîtriser son objet. À l’œuvre, une pensée catégorielle et classificatoire de l’information manipulée, indexée, interchangée, désacralisée, accessible à volonté. Les sites relevant du « Do it Yourself » mettraient en œuvre une pensée de la pluralité consistant à privilégier continuellement l’augmentation des services, des outils alors que les sites propices à l’exploration esthétique du contenu privilégieraient une pensée de la profondeur, du multiple.

    Nous retrouverions alors sur le web deux sensibilités culturelles entre autres, deux formes de pensées totalement différentes que l’anthropologue François Laplantine a, tout ailleurs qu’à propos des médias numériques , mis en exergue comme caractéristiques de formes de pensées contemporaines. Pour ce dernier, « il existe une différence entre le pluriel et le multiple. Le pluriel (du latin plus qui a donné plein et plénitude) désigne seulement une quantité d’éléments dans une totalité donnée, alors que l’une des significations du multiple explore l’activité qui consiste à former de nombreux plis et à les former de manière chaque fois différente. Pour dire les choses autrement, le pluriel relève d’une logique quantitative et arithmétique : la logique cumulative qui est celle des signes s’ajoutant à d’autre signes.

    La multiplicité, quant à elle, ne peut être comprise dans ce modèle d’adjonction d’éléments nombreux formant une totalité. […] Le multiple ainsi entendu ne consiste nullement à additionner, ni même à déplacer, des éléments d’un endroit à un autre, mais dans un mouvement du geste, de la marche ou de la danse, à former, à déformer, à transformer, bref à créer des formes sans cesse nouvelles. La multiplicité n’est pas accumulation (de signes ou de biens), mais tension. Elle n’est pas tant totalité (d’éléments assemblés, composés, recomposés) qu’intensité et rythmicité ». (2006 : 36-37).

    Quel corpus ? 
    C’est cette hypothèse concernant les sites dits web 2.0 que nous avons souhaité valider ou invalider avec un corpus plus conséquent d’une centaine de sites, allant des séminaires en ligne ou networking, à des agrégateurs de contenu, des sites et blogs communautaires. Une des spécificités de notre corpus est un magazine en ligne régional Loops , qui va sortir à l’automne 2008, à la conception de laquelle nous avons participé pour une étude sémiotique sur les expériences culturelles générées par les interfaces du magazine en vue de recommandations. À l’origine de Loops, deux porteurs de projet accueillis dans l’incubateur de projet du Pôle edesign faisant partie de Limousin Expansion, à Ester Technopole,  Jean Nivelle et Pascal Ardillier. Le magazine gratuit pour ordinateur et téléphone mobile regroupera les régions Poitou-Charente, Limousin et la Dordogne. Loops pourra être expérimenté par les usagers comme un site Web d’actualités en régions, de services pratiques pour la vie quotidienne mais encore comme une exploration identitaire du territoire.

    Chaque usager en effet pourra proposer des actualités marquant le territoire mais aussi aura la faculté, dans un mode d’interface spécifique, de parcourir corporellement le territoire de manière fictive ou par géolocalisation. Loops proposera à l’usager deux modes d’interface : l’un sous forme de portail typique des journaux et magazines en ligne, l’autre sous forme de carte fictive ou de géolocalisation retravaillée graphiquement.

    La méthode et les résultats de notre étude sémiotique
    Avant de présenter ci-dessous les résultats de nos recherches sur les formes de pensées à l’œuvre dans les sites web 2.0 réalisées pour Loops et pour Ludovia 2008, nous devons préciser  notre manière de procéder pour l’analyse sémiotique du corpus. Pour chaque site, nous avons recherché :
    – 1. les axes sémantiques fondamentaux  qui fondent les catégories sémantiques propres au contenu ;
    – 2. les axes sémantiques fondamentaux à l’œuvre dans l’interface dans ses statuts de supports  matériel (ou métaphore d’écran), formel (ou organisation de l’information sur la page), ergodique (ou support de travail) ;
    – 3. les formes de sensibilité qui se dégagent de ces sites.

    Globalement, les contenus des sites dits web 2.0 jouent sur les axes sémantiques suivants :
    – l’axe proche/lointain et l’axe local/universel. Ils offrent aux usagers l’occasion de promouvoir mondialement des communautés culturelles locales en mal de liberté d’expression ;

    – l’axe individu/collectif. Les sites dits 2.0 permettent à chacun d’organiser sa vie en collectifs ou appelés « réseaux ». L’individu devient un internaute au pouvoir pour reprendre le titre de l’ouvrage de Jean-François Gervais (2006) mais il se rend dans le même temps dépendant de ses réseaux, du collectif en lui soumettant l’information comme dans Youtube ou Flickr où chaque contenu vidéo, photo est soumis au vote et au classement. En outre, l’individu se donne à la collectivité économique des marques en dévoilant ses aspirations, ses goûts, ses croyances, ses actes… Contrairement à l’autobiographie qui au XVIIIe siècle constituait un genre d’expression individuelle florissant soumis à des destinataires intimes avant d’être possiblement publié, le blog livre l’individu à des destinataires non intimes qui peuvent reprendre le contenu à des fins mercatiques et commerciales (Pignier, 2006);

    – le tri et le mélange. Les sites web 2.0 médiatisent de plus en plus le contenu dans un but de sélection, de tri. Cela par les flux RSS, les moteurs de recherches intégrés, le pouvoir de sélection attribué à la communauté. Et pourtant, cette tension vers le tri est en corrélation converse avec la propension au mélange des médias, des thématiques, des genres, des sources. Ainsi, la géolocalisation repense dans ses usages le genre de la carte ; on peut y ajouter des couches successives avec des bulles de BD, des fenêtres, on peut en faire varier la nature de l’image, satellite, plan ou mixte, on peut en faire varier les points de vue comme dans l’application mapstats sur mapstats.blogflux.com (figure 7), outil permettant aux possesseurs de sites de localiser la source géographique de leurs usagers. Plus les services et contenus augmentent, plus le tri s’impose dans les plates-formes de services personnelles telle Netvibes Ginger, agrégateur de news, de services, de réseaux sociaux (figure 8) ;

    –  l’ouverture/fermeture : le renouvellement des genres et des sites est indéniable, les méthodes agiles fréquemment utilisées en gestion de projet consistent par exemple à ne plus faire de cahier des charges stabilisé mais à le laisser en perpétuelle évolution en fonction des avis sollicités des usagers des sites dans les blogs, entre autres. L’usager devient alors concepteur en partie du site, ou tout au moins il peut en avoir l’impression. Les usagers du web 2.0 cultivent cette propension pour l’aspect dynamique au sens d’ouvert, d’évolutif des interfaces et des contenus. Ceci dit, l’ouverture grandissante des contenus et des net-journalistes nécessite un minimum de fermeture pour éviter l’anarchie ; modérateurs sur les blogs, comité de rédaction sur des journaux comme Agoravox  ou sur le magazine Loops où l’usager proposera une information néanmoins filtrée. La fermeture semble aussi nécessaire pour que l’ouverture aux autres fasse sens pour l’usager ; c’est le principe du réseau social qui nécessite obligatoirement la création d’un compte. Cet acte marque matériellement l’entrée dans le réseau, il en est un indice ou une trace. La communauté, le réseau social ne permettraient pas à l’usager de se construire  une identité s’ils étaient ouverts à tous.

    Toute valeur est une différence et c’est en partageant avec les autres membres du réseau l’impression de cultiver ensemble cette différence que le sentiment identitaire peut naître. Ainsi, Jean-Claude Kaufmann précise dans L’invention de soi que l’identité est censée marquer ce qui est unique par le biais de ce qui est commun et partagé par un nombre limité de gens (2004 : 122). Le sociologue note que de plus en plus, les sujets ont besoin de revendiquer des appartenances diverses pour alimenter le sens de leur existence (ibd). Le web 2.0 permet justement cette ouverture identitaire à de nombreux réseaux qui offrent à la fois ce que Kaufmann appelle une identification collective et une identification par les rôles . Contrairement à sa thèse qui consiste à voir une opposition entre ces deux modes d’identité, le web 2.0 témoigne d’une association des deux modes ; on ne va pas forcément sur Flickr, sur Digg par opposition à youtube ou dailymotion, ou facebook mais peut-être aussi par complémentarité. L’interopérabilité ouverte des réseaux permet d’avoir le sentiment d’appartenance à plusieurs groupes, à des réseaux de réseaux et de cumuler les rôles sociaux que l’on veut vivre. Le web 2.0 est en un sens une ouverture identitaire emboîtée, mise en abîme par le principe des réseaux de réseaux, avec néanmoins un besoin de fermeture symbolisée et marquée par le compte  qui exprime l’adhésion à un groupe. Différemment, le magazine Loops renouvelle aussi le sentiment d’appartenance à un territoire. Ni vraiment local, -il englobe plusieurs régions-, ni vraiment global, -il se limite géographiquement-, il repense le découpage territorial et peut amener ainsi l’usager à se penser non plus limousin, charentais, périgourdin ou français mais dans un jeu élastique entre tout cela. Loops marque aussi l’ouverture du web sur le réel puisque des événements seront créés dans la vie territoriale réelle qui auront germé sur le magazine en ligne. Cela pour renouveler l’émotion de l’appartenance au réseau des usagers de Loops ;

    –  l’axe stable/dynamique. La photographie argentique nous a habitués au « çà a été » comme le disait Roland Barthes, le support papier stabilise dans leur forme et dans leur contenu les messages mais les médias web 2.0 cultivent ce qui n’est jamais stabilisé, ce qui peut toujours changer de contenu, d’interface, l’exportation et la reformulation dynamiques. Pour cela, le langage informatique doit être standard.

    Les interfaces de notre corpus «Do it Yourself» se fondent sur les axes sémantiques suivants :

    –   l’axe proche/lointain et l’axe local/universel. Elles offrent aux usagers un moyen de saisir localement et à proximité des contenus et des services dispersés sur la toile et dans les médias, de rapprocher les gens en réseaux et de les faire travailler sur la même interface. C’est le principe des sites de favoris qui permettent d’avoir une sauvegarde de ces favoris, d’y avoir accès depuis n’importe quel ordinateur et de les partager avec d’autres usagers, c’est le principe des agrégateurs de news ou de réseaux tel netvibes ;

    –  l’axe individu/collectif. Les interfaces de sites dits web 2.0 sont dans l’ensemble collectivement adoptées par le sens commun ; barres d’outils, widgets, métaphore d’écran en page A4, elles se disent cependant personnalisables. L’usager peut combiner différemment les éléments de l’interface, peut choisir les couleurs et les formes des gadgets. Quoique peu originales et peu créatives, les interfaces laissent une place minimale à l’expression individuelle, un peu comme un client de constructeur immobilier a le droit de combiner différemment les pièces par rapport au plan type, de jouer sur la décoration. La  personnalisation de ces interfaces se veut ludique comme l’expriment les termes « gadgets », « icônes personnalisables » ;

    –  l’axe stable/dynamique : les interfaces dites « web 2.0 » proposent à l’usager d’être en permanence averti de ce qui se passe sur le site. Par exemple, le site de travail en réseau (Networking) de l’association des designers interactifs créé avec la plate-forme libre Ning avertit l’usager des activités récentes ; tel designer interactif qui vient d’ajouter ou de modifier son profil, l’ajout d’un commentaire, d’une question. Sur les sites communautaires, on retrouve de manière générique cet aspect dynamique de l’interface où ce qui est privilégié n’est plus tant le contenu que son devenir, ce que l’on appelle communément les activités sur le site. Ainsi, se développe une expérience du devenir du site et de ses acteurs qui suggère une lecture évolutive, sans cesse réorientée sur un nouvel événement. L’absence de recherches esthétiques originales de ces interfaces, la présence de cadres vient donner une impression de stabilité cognitive, de bonne maîtrise des contenus encadrés pour compenser la mouvance perpétuelle du contenu ;

    –   l’axe continu/discontinu. Dans une sorte de compensation, les cadres discontinus qui, dans l’interface des agrégateurs de contenu, délimitent l’affichage des informations, viennent pondérer la continuité des flux d’informations. Cependant, les sites de géolocalisation adoptent un principe d’organisation de l’information en continuité sur la carte et en profondeur, par couches. Il permettent ainsi une expérience immersive de l’information, une expérience exploratoire.

    C’est ce que nous allons privilégier dans le deuxième mode d’interface de Loops. Pour l’usager en quête de découverte du territoire, d’exploration, le magazine proposera une interface propice à l’immersion à plusieurs niveaux :

    1. au niveau des métaphores d’écran (une carte du territoire sous diverses formes fictive ou plus réaliste) offrant une découverte insolite et exploratoire des sommaires. Cette métaphore actualisera le sens figuratif des réseaux architectural, routier, tracés des chemins de fer et des voies fluviales par exemple qui sont envisagés culturellement comme circulation dans un corps-territoire, de façon analogique à la circulation sanguine dans le corps humain. Selon Lucien Sfez (2002 : 68), les cartes ont toujours exprimé le schéma de la circulation qui se pose tel un filet sur le territoire, comme ce qui en l’enserrant le fait vivre, lui apporte le sang nourricier, c’est-à-dire argent, pensée, savoir, culture. En l’occurrence, la carte – interface de Loops pourra être parcouru par l’usager dans ses plis et replis afin d’intensifier l’expérience du corps-territoire;

    2. au niveau du mode d’affichage des articles ; l’affichage ne se fera plus sous forme d’une liste cumulative mais sous une forme poético-ludique, (par exemple un cube que l’on tourne, ou un jeu de cartes, …) à la fois facile à lire, à manipuler, très aéré et sobre et qui crée un lien de connivence entre Loops et sa tonalité décalée et l’usager ;

    3. au niveau du parcours de travail (navigation), on proposera une mise en scène des signes fonctionnels incarnant un parcours corporel du territoire, offrant des relations  de contiguïté avec la carte. Ce mode d’interface, alliant sobriété et immersion poético-ludique, offrira à l’usager un parcours corporel et imaginaire de l’information ancrée dans son territoire, une forme de pensée continue et dynamique.

    – L’axe un/pluriel/multiple.

    On trouve dans les interfaces web 2.0 des tendances à la pensée plurielle du « tout en un » ; des accumulations de modules, des grilles, des signes fonctionnels qui donnent l’impression à l’usager de maîtriser de façon omnisciente, omnipotente le contenu. L’avertissement des nouvelles activités sur le site renforce cette impression d’omniscience, le panel de moteurs de recherches, de flux et d’outils de production de contenu  que l’on peut placer dans une interface bien cadrée instaure une impression de temporalité productive et maîtrisée. Cependant que les incessants avertissements sont propices à happer l’attention de l’usager qui en fin de compte est maîtrisé par l’interface.

    Le principe des informations sur cartes interactives, lui, invite à une pensée du multiple. Selon J.L. Weisberg, la carte, d’origine, est l’autre du guidage linéaire. Elle se consulte par variation des points de vue, par saisie globale, locale, exploiter une carte, c’est aussi se construire des chemins, explorer à travers une saisie multi-sensorielle, s’ouvrir à une multiplicité de séquences (1997 : 258). Les cartes interactives peuvent à l’infini ou presque augmenter cette saisie immersive et multi-sensorielle. Nous souhaitons offrir ces deux modes de pensées aux usagers de Loops à travers les deux modes d’interface retenus.

    En fin de compte
    Ce qui frappe l’observateur de ces résultats, c’est une tension permanente entre les pôles extrêmes  des axes sémantiques fondamentaux. Dans les contenus comme dans les interfaces de notre corpus, ce qui semble caractéristique est une position chaque fois élastique ; variations entre individu et collectif, entre ouverture et fermeture, entre tri et participation, entre stable et dynamique, entre continu et discontinu, entre proche et lointain, universel et local. S’élabore au travers de tout cela, c’est notre conclusion, une forme de pensée que l’on peut dire élastique ou hybride, sensible à la bonne maîtrise des choses mais aussi ouverte à leur devenir, à leur dynamique. La temporalité élastique qui caractérise le temps numérique contribue certainement, en amont ou en aval, à l’impossibilité de fixer durablement la pensée dans une forme et un contenu stable, et, du coup, à l’impossibilité de se figer dans un système de valeurs précis, si ce n’est celui de l’imprécis, du mouvant et de l’hybride.

    Ainsi que le précise très clairement Edmond Couchot en définissant les propriétés de la temporalité virtuelle, le temps du calculateur se libère de toute orientation – il est sans fin ni origine –, à chaque opération de l’usager, il peut, dans la limite du programme informatique retenu, faire advenir une multitude d’événements (Couchot : 206-208). Ces propriétés mouvantes et élastiques semblent se retrouver dans la sensibilité hybride à l’œuvre dans la culture « web 2.O ». Enfin, notre objet de recherche nous invite à pratiquer une sémiotique ouverte aux autres disciplines, l’anthropologie, la sociologie, les sciences de l’information et de la communication, entre autres (Pignier 2008).

    Communication Scientique Colloque Ludovia 2008 (Extraits)
    Nicole PIGNIER
    MCF Université Limoges, CeReS

  • Œuvre éclatée, oeuvre participative

    Cela passe par des pratiques rationalistes, systématistes, qui reposent sur des règles très précises, et qui par des effets d’optique interpellent et modifient la perception du spectateur ; c’est le cas de l’art cinétique dans les années 1950, puis plus tard dans l’op’art (l’art optique) dans les années 1965. Mais ce sont aussi les pratiques de l’art corporel, du body art, qui dans ces mêmes années vont intégrer la participation du spectateur dans les démarches artistiques, lorsqu’elles relèvent du happening ou de la performance. C’est par un véritable langage du corps que l’artiste va rendre compte de son être au monde, par la mise à l’épreuve dans son endurance, dans sa concentration et dans sa relation à l’autre.

    L’introduction de l’ordinateur dans les pratiques artistiques contemporaines va ouvrir sur un champ des possibles encore inexploré en matière d’expérimentation : l’artiste va user des arrangements les plus diversifiés grâce à la dimension combinatoire qui va permettre la déclinaison de configurations qui se prêteront à de multiples variations.

    Cette pratique de l’expérimentation, de l’amont de la production par l’artiste va trouver des répercussions en aval, par l’élaboration de dispositifs qui invitent le spectateur à agencer ses propres configurations, à partir d’un univers de probabilités incommensurable qu’il va singulariser.  L’essentiel n’est plus tant dans ces pratiques, l’œuvre finalisée, que l’accomplissement de l’acte, le processus de réalisation qui permet une actualisation de l’œuvre sans cesse renouvelée.

    Nous poserons comme hypothèse que :
    – Le passage de la production au processus va permettre l’intégration du spectateur dans l’acte de création
    – La participation du spectateur est rendue possible parce nous passons de l’image au système

    1.    De l’expérimentation de l’artiste à l’expérimentation du spectateur
    La pratique de l’expérimentation se prête parfaitement à l’ordinateur qui est multimédia c’est-à-dire qui permet, sur un même support, d’intégrer, de traiter numériquement et de diffuser simultanément des éléments de nature différente, c’est-à-dire du texte, de l’image – fixe ou animée –  et du son, et ceci dans leur interrelation, in situ ou à distance.

    Si l’ordinateur permet d’intégrer toutes ces données hétérogènes à la base, c’est parce qu’il traduit toutes les informations, quelles qu’elles soient, et quelle que soit leur nature, sous la forme d’algorithmes, formules mathématiques qui se matérialisent en une suite binaire de 0 et de 1. Elles sont uniformisées dans l’unimédia (Debray, 1997 : p. 90). En ce sens l’image numérique est spécifique et révolutionnaire dans le sens où elle n’est plus la trace ou l’empreinte du réel, comme l’est par exemple la photographie, fixée sur les sels d’argent, mais elle passe par la médiation du langage, d’un langage formalisé, le langage de programmation, que l’image soit modélisée directement sur ordinateur ou qu’elle soit restituée par le biais de périphériques.

    Les toutes premières œuvres réalisées sur ordinateur dès les années 1960, très géométriques, pour des raisons en partie techniques, sont réalisées à partir d’algorithmes directement programmés sur ordinateur. Cette pratique permet d’obtenir un panel de possibilités graphiques extrêmement vaste en faisant varier certains paramètres de ces formules mathématiques. « A partir d’un nombre très limité de propositions de base, l’ordinateur décline des suites quasi infinies de variations » (Couchot, 1998 : p. 165). Deux facteurs vont être pour cela essentiels, les éléments de base, simples et géométriques, et les modes d’assemblage, « l’algorithme combinatoire » (Moles, p. 107) qui permettront de proposer toute une série de combinaisons extrêmement diversifiées.

    L’art permutationnel d’Abraham Moles va en ce sens ; l’auteur parle aussi d’esthétique permutationnelle ou combinatoire. « La permutation, écrit-il, est une combinatoire d’éléments simples de variétés limitées ouvrant à la perception l’immensité d’un champ des possibles. La permutation est un instinct fondamental de la pensée rationnelle. Dès que la raison découpe le réel en catégories, le démon du jeu souffle à l’homme la permutation. La permutation réalise cette variété dans l’uniformité qui est l’un des éléments fondamentaux de l’œuvre artistique » (Moles, p. 119). Les règles peuvent être aléatoires, basées sur des modèles statistiques et probabilistes. L’artiste est alors lui-même confronté à une certaine part de surprise face à son œuvre qui semble vivre de sa propre vie, bien que ce soit dans les limites du programme.

    Michaël Noll va ainsi analyser le répertoire formel et les modes d’organisation d’une œuvre de Mondrian afin de produire un panel de « possibles » issu des nouvelles combinatoires de l’ordinateur. Pour Computer composition with lines (1964), l’auteur aura fourni à l’ordinateur un certain nombre de données : « nature des éléments (carreaux ou barres noires plus ou moins allongées), insertion dans une figure globale (cercle) et densité moyenne en chaque point du tableau » (Moles, p. 104), pour obtenir une œuvre inspirée de celle de Mondrian. L’auteur rappelle ainsi que la conception néoplasticiste développée par Mondrian avait recours elle-même à un programme rationnel et radical : utilisation exclusive d’horizontales et de verticales, de couleurs primaires dans des espaces bidimensionnels.

    Dans Premier Colorix (1975-1976) de Hervé Huitric et Monique Nahas, la moindre manipulation de pixel permet d’obtenir automatiquement un nouveau visuel, à l’époque sérigraphié car la visualisation à l’écran n’était pas encore possible. Nous sommes confrontés à « l’image-matrice » (Couchot, 2000 : p. 134) : l’image physique constituée à l’écran de l’ordinateur par une matrice en deux dimensions de pixels, correspond point par point à une matrice numérique, qui mémorise la position de chacun des pixels ainsi que leurs valeurs lumineuses et chromatiques. « Le pixel fait ainsi office d’échangeur, – minuscule – entre l’image et le nombre. Il autorise le passage du nombre à l’image » (Couchot, 1998 : p. 134). Pour créer une image, il faut donc créer la matrice numérique correspondante sous forme mathématique.

    On peut aussi, à l’inverse passer d’une image analogique à une image numérique en la décomposant en nombres, l’image devient alors une image matrice. Mise en mémoire, cette matrice peut être dupliquée, modifiée. Chaque modification va entraîner une altération de l’image, donc de la répartition des pixels à l’écran. Les processus de fabrication en ce sens rompent avec ceux des images dites traditionnelles. Selon Couchot, « ils ne sont plus physiques mais computationnel » (Couchot, 1998 : p. 135).

    Il semble que les potentialités plastiques et procédurales que nous offre l’ordinateur enrichissent le vocabulaire plastique de l’artiste et lui ouvre de nouvelles perspectives en matière de création, le confrontant par ailleurs  à la question de la complexité que l’ordinateur est à même de gérer. L’ordinateur est à même d’insuffler un élan créateur et d’offrir à la vue des configurations que la main n’aurait pu tracer et l’esprit peut être envisager. « L’art permutationnel se pose pour but […] d’exploiter systématiquement le champ des possibles ouvert par un « set » (ensemble) de règles. Il développe chez l’artiste la conscience des possibles et c’est désormais dans la richesse des variations que l’artiste place son imagination créatrice, plus que dans une adéquation à une quelconque réalité dont la sensibilité moderne s’affranchit de plus en plus. […] Il n’y a plus de blé, de champs et de canaux, de femmes nues ou de chevaux ; il y a des éléments de perception, des lignes, des droites, et des triangles, des taches de couleur, des formes, et il est un ordre pour les combiner » (Moles, 1990 : p. 124).

    C’est une vision empreinte du structuralisme que nous retrouvons chez Abraham Moles, dans laquelle ce qui compte avant tout, dans cette appréhension globale de l’objet étudié, ce sont les relations d’équivalence ou d’opposition qui permettent de définir les éléments d’un système, entre eux. C’est cet ensemble de relations, au-delà l’élément et le tout, qui constitue la structure.
    C’est cette mise en relation, productrice de configurations plastiques et de sens pour l’auteur qui d’une certaine façon va être transférée et être mise entre les mains du spectateur qui va pouvoir composer à son tour en actualisant l’œuvre.

    L’ordinateur, outre le fait qu’il est multimédia, permet aussi de tisser des relations entre des éléments (textes, images, sons) inscrits dans une base de données, de les combiner sans être tributaire de la linéarité et de la chronologie, et de façons multiples et renouvelées. Le mode hypertexte (et hypermédia lorsqu’il y a pluralité de médias) le permet : les fragments indépendants que compose chacune des images, des textes ou des sons ne sont, en effet, pas articulés dans l’hypertexte, de façon linéaire mais sont combinés en fonction de modes d’interconnexions et d’interaction spécifique à l’outil, et ceci par des liens qui mettent en relation ces différents fragments, ces différents contenus, proposant ainsi une multitude de configurations possibles en fonction des différents parcours qui s’effectuent dans le réseau d’informations. L’hypertexte se construit donc autour de nœuds d’informations, de liens qui permettent de tisser ces informations de façon multidirectionnelle dans un réseau.

    Alors que l ‘ordinateur restitue les données identiques à elles-mêmes, c’est le spectateur qui fait le lien entre celles-ci, par interactivité, et dans un parcours dynamique, donnant à voir une version de l’œuvre guidée par ses choix. L’ensemble n’étant pas envisagé comme un tout cohérent et figé, mais comme une somme des possibles, le regard et l’esprit du spectateur ricochent d’un élément à un autre, d’un environnement à un autre, d’une époque à une autre en fonction de ses choix.

    L’œuvre Somnambule de
Jean-Jacques Birgé, Nicolas Clauss et Didier Silhol
 fonctionne en ce sens. Douze tableaux et leurs préludes constituent un spectacle chorégraphique interactif. Le tableau Gost est une chorégraphie de mains et de jambes qui sont là pour rappeler la nature hétérogène des données initiales : peinture, vidéo, musique et danse mais qui met en exergue aussi l’ambiguïté qui se joue dans une œuvre numérique où virtuel se fond et se confond avec le réel : le corps est stratifié par une mise en abîme où vidéo,  projection du corps dans l’image, et ombre, se font écho et s’interpénètrent dans une danse langoureuse. Ici le spectateur se prend à jouer de ce corps qui se donne à manipuler, en interagissant avec l’image, créant sa propre partition sonore et plastique.

    À partir d’une même œuvre, les parcours multiples et multidirectionnels proposent toute une série de variantes, grâce au principe de la combinatoire d’une part, mais aussi grâce à la possibilité qu’a le spectateur de gérer la relation au temps (il peut passer plus ou moins de temps à visualiser les images et écouter les sons). Au rôle dynamique que le spectateur a sur la construction de l’œuvre en reconfiguration permanente, s’articule son jeu d’interprétations dans une réception sans cesse renouvelée.

    C’est notamment le cas des récits interactifs dans lequel le spectateur essaie de construire un dispositif de représentation diégétique, prenant véritablement en charge la narration à partir des éléments fragmentaires qui lui sont donnés à voir et qu’il articule au gré des liens qu’il actualise. L’ « éventail de possibilités interprétatives » (Eco, 1965 : p. 11) dont parle Umberto Eco se trouve amplifiée dans ces œuvres ouvertes aux multiples configurations. Marcel Duchamp avait déjà noté l’importance du rôle du spectateur dans la création en disant « Somme toute, l’artiste n’est pas seul à accomplir l’acte de création car le spectateur établit le contact de l’œuvre avec le monde extérieur en déchiffrant et en interprétant ses qualifications profondes et par là ajoute sa propre contribution à l’acte créatif » (Duchamp, 1994 : p. 189). Dans les œuvres multimédia, les différents parcours sont autant de possibles à recréer.

    A nouveau, ce qui prime dans ces œuvres virtuelles constamment modifiables, c’est davantage le processus que l’œuvre achevée. L’œuvre est un devenir et non pas un état ; elle est un potentiel de possibles à actualiser. Elle est constamment en train de se faire, elle se construit « dans les entrelacs de ses algorithmes » (Quéau, 1989 : p. 328) forte de la fluidité du matériau qui la constitue, le langage qui permet la constante métamorphose de l’image, la « diamorphose » selon Couchot (Couchot, 1996).

    Mais forte aussi de la participation du spectateur qui prolonge l’œuvre dont le créateur a envisagé les potentialités sans pouvoir véritablement la maîtriser. C’est le spectateur qui, par ses actions sur l’œuvre interactive va tisser un jeu d’images, de textes et de sons pour lequel il enrichira le sens envisagé préalablement par l’auteur, ceci en fonction de son histoire personnelle, de sa mémoire et de sa relation au monde. Cet entre-deux de l’image devient momentanément le territoire exclusif du spectateur, un territoire de production de sens qui fonctionne comme ellipse à réinterpréter sans cesse. Il y a autant de versions du monde, au sens où l’entend Goodman, (Goodman 1992) qu’il y a de combinaisons possibles entre images, textes, sons et temporalité envisagés dans leur articulation.

    2. De l’image au système : l’ « œuvre éclatée »
    « La production d’œuvres utilisant les nouvelles technologies engage plus activement des modes de pensée et de connaissance fondés sur l’association et le rapprochement plutôt que sur l’enchaînement, et procède par sauts d’un registre à l’autre et par recombinaison de sources multiples », nous dit Anne-Marie Duguet (Duguet, 1996). Certaines œuvres contemporaines qui ne relèvent pas du numérique en intègrent cependant les processus et fonctionnent sur le mode hypermédia : elles permettent de générer de multiples lectures, au gré des parcours dans une structure arborescente, du temps imparti pour parcourir l’œuvre et des associations parfois aléatoires entre le texte et l’image.

    L’œuvre est éclatée, nous dit Anne-Marie Duguet, elle n’est plus unique et centralisée, de la même façon que du point de vue de la réception, c’est la question du point de vue qui est remise en cause, et c’est « la question du dispositif [qui] est à examiner plus particulièrement dans la mesure où celui-ci déplace l’attention autrefois portée à la seule image, du côté d’un système et d’un ensemble de relations » (Duguet, 1996). Les rapports possibles entre le spectateur, l’image et l’espace ouvre une infinité d’expériences possibles.

    De nombreux artistes issus de la vidéo vont remettre en cause la vision frontale et le point de vue unique issus du mode de représentation perspectiviste de la Renaissance. Dans Cage in Cage (1984) de Nam June Paik, le spectateur doit nécessairement se déplacer parce que les barreaux de la cage dans laquelle se trouvent des téléviseurs perturbent la lisibilité des vidéos qui y défilent, et interférent sur la narration que le spectateur se crée au travers de la combinaison et association des différentes images en mouvement.

    Mais c’est aussi dans l’installation qui intègre véritablement le spectateur dans sa relation à l’espace que va se matérialiser le concept d’œuvre éclatée tel que l’envisage Anne-Marie Duguet. L’installation est l’ensemble des relations entre l’objet et l’espace architectural, qui fait que le spectateur ne peut jamais qu’avoir un seul point de vue à la fois sur l’œuvre. Dans The Swing (1999) de Marie-Jo Lafontaine, c’est la disposition des écrans vidéo qui ne permet pas une vision globale de l’œuvre ; elle oblige véritablement le spectateur à se déplacer dans l’espace de l’installation.

    Dix sept moniteurs vidéo sont installés sur des stèles de bois peint, disposées dans l’espace avec des orientations différentes. Le film en noir et blanc d’une durée de huit minutes présente trois séquences dans lesquelles des petites filles jouent de la balançoire. Ici aussi il y a autant d’histoires qu’il y a de parcours physiques, et ceci au gré des choix et en fonction du temps imparti pour traverser l’espace, durée que le spectateur peut moduler par des jeux d’accélérés, de ralentissements mais aussi de rupture.

    « Marie-Jo Lafontaine ne fait pas de la vidéo. Marie-Jo Lafontaine ne fait pas des histoires qui ont un début et une fin. Elle utilise l’image électronique et le dispositif qui la rend possible comme d’autres utilisent le pinceau, la toile, le bronze ou le burin… Son travail relève en ce sens davantage de la sculpture, de l’environnement, que d’une mise en scène narrative, tant il prend en compte l’espace, tant il déconstruit les structures traditionnelles du récit. [Certaines de ses œuvres] soulignent de manière particulièrement spectaculaire une volonté de ne pas se situer dans la perspective d’une image unique mais dans celle de la multiplication des points de vue.

    L’art de Marie-Jo Lafontaine est avant tout une affaire de points de vue. Il oblige, en effet, le spectateur à déplacer son regard et son attention dans un jeu de va-et-vient qui annule toute contemplation de type pictural ou même cinématographique » (Marcadé, 1985). En effet, dans ces cas précis, l’œuvre ne peut désormais plus être saisie qu’au travers du parcours qu’effectue le spectateur dans l’espace qui l’intègre. Celle-ci peut être imaginée dans sa globalité car le spectateur a un aperçu sur sa configuration et son occupation dans l’espace, mais ne peut être appréhendée dans la totalité de l’ensemble de ses points de vue.

    Dans Télématic Vision de Paul Sermon (1992), le spectateur est aussi partie intégrante de l’œuvre qu’il ne pourra jamais cependant posséder dans la multitude de ses configurations ; ce n’est plus tant le point de vue dans sa relation à l’espace qui est en cause ici, mais celui dans sa relation au temps : en effet, cette installation actualisée par les spectateurs se construit dans la durée et prolongent indéfiniment, dans une relation interactive avec les spectateurs qui se succèdent. Cette œuvre permet de combiner ici deux actions qui se situent dans deux lieux différents ; le public est invité à s’asseoir dans un canapé situé à l’entrée du lieu d’exposition, et de la même façon, des visiteurs peuvent s’installer dans un deuxième canapé situé à la sortie de l’exposition. Chacun des spectateurs peuvent visualiser sur l’écran d’un téléviseur placé devant lui, sa propre image couplée à l’image du ou des visiteurs situés à l’autre bout du bâtiment, et ceci en temps réel, grâce à un générateur d’effets vidéo qui permet de coupler par mixage, les deux images.

    L’expérience ici est unique et jamais renouvelable dans les mêmes conditions, et la situation propose de multiples combinaisons : notre propre image avec celle d’un interlocuteur virtuel, présent à l’écran, mais pas à côté de nous car à l’autre bout de la pièce ; notre propre image avec des voisins réels présents à côté de nous et sur l’image, et des voisins virtuels seulement présents à l’image, et absents physiquement car à l’autre bout de la pièce. L’ensemble des participants se renouvelant sans cesse, renouvelle l’œuvre.

    L’ « œuvre éclatée » nous ramène constamment à multiplier les points de vue sur l’image, à arpenter pour cela les espaces et à expérimenter les confrontations à l’autre. Comment envisager ce type de pratique aujourd’hui alors que les images envahissent constamment le quotidien, via notamment les médias ? Catalyseurs de consommation, elles se remplacent mutuellement et successivement en un flot continu, tenant constamment le consommateur en haleine. À l’ère de l’instantanéité, l’image instaure le règne du provisoire et de l’éphémère, qu’attise d’ailleurs l’obsolescence programmée du monde marchand. C’est l’ère du zapping où toutes les informations se valent dans un mouvement sans fin, et de fait ne retiennent pas l’attention.

    Peut-on envisager être aussi hypnotisé par le scintillant de l’écran ? Le zapping ne vide-t-il pas de leur sens, dans une errance éperdue, les images mises bout à bout ? Comment envisager une relation avec l’œuvre éclatée qui peut sembler reproduire la pratique du zapping mais qui vise, quant à elle, à produire du sens dans la confrontation des images ? 

    Dans la révélation de la relativité du monde par la multiplication des points de vue qu’offre l’ « œuvre éclatée », n’est ce pas un positionnement en tant qu’être singulier que recherche le spectateur, en quête incessante d’une actualisation de sa vision du monde ? Dans cette volonté de singularisation, ne retrouve-t-on pas la vision qu’a Gabriel Tarde de la société dans Les lois de l’imitation ? Il dit « […] quand au lieu de se régler sur quelqu’un ou sur quelques-uns, on emprunte à cent, à mille, à dix mille personnes, considérées chacune sous un aspect particulier, des éléments d’idée ou d’action que l’on combine ensuite, la nature même et le choix de ces copies élémentaires, ainsi que leur combinaison, expriment et accentuent notre personnalité originale » (De Tarde, 1979 : p. XX).

    Communication Scientifique Ludovia 2008 – Carole HOFFMANN (Extraits)

  • La conception de jeux vidéo éducatifs

    La conception de jeux vidéo éducatifs

    SAINTPIERRE1410200813
    Le site web qui explique en détail la méthodologie développée, qui est composée de quatre capsules décrivant les potentialités des jeux vidéo éducatifs tout en présentant les concepts théoriques et pratiques nécessaires à la compréhension et à la pratique de la conception multimédia.

    Les capsules sont accompagnées d’exemples permettant d’expérimenter des jeux éducatifs, d’un glossaire pour enrichir la compréhension du domaine ainsi que d’une liste de sites Web abordant des questions connexes à la conception de jeux éducatifs.

    Capsule 1 : Domaine du Multimédia
    Les applications multimédias peuvent prendre une multitude de formes et répondre à des besoins pour des publics très diversifiés. 
    Cette capsule vise à définir le concept du multimédia interactif et d’identifier la forme des grands genres et des publics ciblés par de telles applications. Elle vise aussi à définir le processus de développement d’une application multimédia incluant les fonctions de travail, le rôle du concepteur/scénariste ainsi que les aspects logiciels et matériels utiles à la conception, à la production et à la diffusion d’un projet multimédia.

    Capsule 2 : Récit et Hypermédia
    La pratique de la conception hypermédia met en jeu de nouvelles manières de jouer, de communiquer et d’apprendre. 
    L’interacteur est maintenant placé au coeur d’un système dynamique où il devient un acteur pouvant intervenir sur les éléments d’un espace qui raconte une histoire.
    Cette capsule vise à sensibiliser le concepteur/scénariste à certains aspects du langage cinématographique pouvant être utilisés lors de projets d’écriture multimédia. Elle vise aussi à définir les caractéristiques des hypermédias, les formes qu’ils peuvent prendre et les différentes modalités opératoires par lesquelles l’utilisateur peut interagir avec les contenus les composant.

    Capsule 3 : L’apprentissage par le jeu vidéo
    La pratique des jeux vidéo favorise certains processus affectifs, cognitifs et communicationnels ouvrant la voie à l’émergence de savoirs et de connaissances. 
    Cette capsule vise à situer les tendances d’évolution des jeux vidéo éducatifs dans une perspective historique. Par ailleurs, elle permet d’identifier les grands courants théoriques à partir desquels les pédagogues et les concepteurs peuvent s’inspirer pour développer des scénarios d’apprentissage adaptés aux jeux vidéo éducatifs. Enfin, cette capsule observe un domaine de recherche en émergence qui s’intéresse plus particulièrement à l’apprentissage faisant usage de jeux vidéo « grand public » ou encore de jeux vidéo créés spécifiquement pour un contexte pédagogique particulier.

    Capsule 4 : Modèle pour la conception de jeux vidéo éducatifs
    De la complexité des formes, des méthodes, des techniques et des procédés émerge un modèle destiné à simplifier le travail de conception multimédia.
    Cette capsule permet d’appréhender un modèle systémique qui intègre à partir de l’intention, l’ensemble des composants d’information, d’interface et d’interactivité d’un projet de conception de jeu vidéo éducatif. Elle présente également les éléments essentiels devant figurer dans un devis de conception multimédia.

    Travaux issus de la Thèse Doctorale de René Saint-Pierre Doctorat en Études et Pratiques des Arts Université du Québec à Montréal (UQAM) (Résumé)

    Source : par email René Saint-Pierre

  • Que « réserve » la modélisation informatique au modelage de l’oeuvre

    INTRODUCTION
    Démocratisation-modèle ou démiurgie plastique de la création assistée par ordinateur ?  

    Quelque chose de l’acte artistique est rendu plus accessible par les nouvelles technologies. Mais, de la même manière que nous ne savons toujours pas qui du projet, des outils ou de leurs utilisations voient l’œuvre s’instaurer, il est difficile de dire à qui du logiciel, du matériel ou du dispositif numérique revient la palme pour cette meilleure accessibilité.

    Afin de ne pas perdre de vue la spécificité de la création assistée par ordinateur tout en acceptant que par elle, une fois de plus, se confirme cet éternel concert du concept, du percept et de l’affect au sein du jeu créatif, il faut éviter d’emblée les deux extrémités épistémologiques : celle conceptuelle qui rendrait l’automation algorithmique seule responsable de la facilitation de production, de circulation et de réception d’un monde numériquement imaginé ; l’autre, perceptuelle qui rappellerait que l’œuvre cybernétique n’est rien sans l’interactivité ou la dépendance du calcul vis-à-vis de l’apparence sensible rendant ce dernier accessible au corps, ce grand « têtu » (Couchot, 1998 : 149). Pour analyser la démocratisation informatique de l’acte créatif, il faut donc veiller à trouver un juste milieu entre une « ontologie signalétique » et une « ontologie chosale » (Renaud, 2003 : 72).

    Il faut rester en marge de ces deux penchants. Du côté du signe d’abord, tout processus de démocratisation étant d’abord mesuré à la quantité de personnes convaincues et le dèmos (le peuple) partageant avec le logos (la raison) un rapport au Nombre, la facilité apriorique de pensée consiste à interpréter l’informatisation de la société comme application politique d’un modèle mathématique.

    De l’autre côté de cette « démocratie modélisée », et nous nous appuierons sur une partie des analyses récentes de Pierre-Damien Huyghe quant à la signification de la démiurgie chez Platon, il y aurait une pensée qui scruterait les choses telles qu’elles ont lieu : Platon renonce « à l’hypothèse (…) que le monde pourrait avoir été produit et continuer en « automatisme ». (…) Dans le Timée, » il « donnera en effet aux choses, en l’absence de tout automatisme, une explication « démiurgique. (…) « -urgie » renvoie au grec ergon que l’on peut (…) traduire par « œuvre » ou « ouvrage » (…). Dans « démiurgie », « dem- »  se lie à « dèmos ». Soit à ce que nous traduisons (…) par « peuple » comme dans « démo-cratie ». Mais cette traduction n’est pas satisfaisante. (…) le mot « dème » désigne un type d’espace, une part délimitée (…) ».

    La démiurgie ne serait pas « une toute-puissance » mais « une compétence délimitée, arrimée,(…) une spécialité localisée » (Huyghe, 2006 : 24-25). Autrement dit, au moment même où la modélisation informatique tournerait à plein régime excitant une nouvelle épistémé désubstantialisée du « créer », se « réserverait » en bas de l’échelle une zone prosaïque plutôt que signalétique.

    Pour autant, à cheval entre l’ancrage et l’envolé, l’exigence de perception que nous nous sommes fixés comme principe pour analyser le phénomène de démocratisation informatique de l’acte créatif  va être difficile à tenir. Car à l’heure actuelle, les empreintes artisanales (« le « démiurge », chez Homère, est un homme de métier » (Huyghe, 2006 : 25)) disparaissent autant que se décollent du sol les échanges logiques. Et ce nivellement  simultané du factuel et du conceptuel laisse désormais seul au beau milieu du réel l’espace perceptif qui constituait auparavant un intervalle entre ces deux niveaux. Nous ne sommes plus à l’époque analogique.

    L’imagination, cette « émotion forte (…) inséparable des mouvements du corps » (Alain, 1958 : 225) n’arbitre plus un jeu substantiel de rapports « entre deux ou plusieurs objets de pensée essentiellement différents » (Dictionnaire Le petit Robert 1, 1989 : 64 ; définition de « Analogie »). Par exemple, entre les modèles informatiques et le monde des images, il n’y a même plus le corps des peintres de l’Art Optique, ceux des années soixante.

    Certes, dès cette époque de la première cybernétique, les représentations bidimensionnelles se dématérialisaient. Mais, à la vue des dépressions endogènes de l’artiste Wolf Vostell bétonnant alors des postes de télévision ou des interventions de Josef Beuys recouvrant ceux-ci de feutre, constatons que l’imagination analogique était encore bien présente. En fait, elle trouva dans l’appareillage vidéographique un dernier endroit où rendre visible ce qui, malgré l’envol iconique, « retombe au corps » (Alain, 1958 : 233) : comme le souligneront les grands totems de Nam June Paik assemblant ces anciens postes télévisuels ou radiophoniques tout de bois encore revêtus, il y avait dans la figure tutélaire des appareils encore taillés par « le geste, le départ du corps » (Alain, 1958 : 232) le moyen de creuser un intervalle.

    Deux conditions nécessaires à la perception de la trace étaient réunies : la matérialité de l’appareil n’était pas doublée par sa destination fonctionnelle et le trajet du corps n’était pas doublé par son projet. En termes plastiques, l’appareil était un support plus qu’un outil, une zone de dépôt plus que « le véhicule de son équivalent imaginaire » (Greenberg, 1988 : 151-152). Il était impossible de produire sans prendre en compte l’accueil réservé au corps par la machine comme partie intégrante du périmètre formel produit.

    De la planéité picturale de Manet à Support-Surface en passant par la peinture d’action, cela a été le jeu des peintres du vingtième siècle : construire l’espace qui en négatif du protocole illusionniste se creuse entre le corps et cet appareil emblématique qu’est le tableau. Parlons à juste titre ici de « réserve », cette partie du support non recouverte de peinture.

    C’est l’intervalle réel qu’exige la toile vis-à-vis de la touche, la consistance spatiale nécessaire sans laquelle « la croûte » ne peut devenir représentation. C’est la réponse plastique que ménage la matière aux formes, « l’idée de plasticité recélant (…) une sémantique de la dynamique, de la formation et de l’inscription des formes « vivantes » dans les signes de l’œuvre achevée, par-delà le caractère statique de son matériau » (Château, 1999 : 132).

    Mais, désormais, cette singularité vitale, cette dimension sculpturale qui touchait, usait, déformait, contre-formait nos appareils analogiques, cette « tracéologie de l’énergie libidinale » (Stiegler, 2005 : 258-259), cette épiphanie plastique du travail du corps, bref ce dernier bastion d’anthropos a été pris en charge par des machines-outils capables de solidifier une ergonomie modélisée sur logiciel et non plus matériellement modelée. Nous sommes dans un contexte « hypermatériel » où « la matière est déjà une forme » (Stiegler, 2008 : quatrième de couverture).

    Et les productions industrielles assistées par ordinateur au premier rang desquelles se trouvent les interfaces matérielles sont « conçues dans l’abstraction des conditions humaines et matérielles » de leur « réalisation » ( Gruet, 2006 : 60). Alors que le danger, le goût du risque, le jeu de la glaise, nous rappelle le sculpteur, c’était « que les pouces y entrent » (Alain, 1958 : 622), nous ne traversons plus…

    Notre toucher est propulsé définitivement en  dehors du modelé réel, c’est-à-dire à l’abri des accidents (lat. accidens, ce qui tombe). Lorsque l’épreuve de la réalisation n’est plus qu’une « virtualité solide » ( Gruet, 2006 : 60) réduisant l’émergence formelle à l’externalisation d’une modélisation conceptuelle (tels les retours d’efforts joystick par exemple), dans quel état de perception possible laissons nous notre doigté ?

    Pourquoi cette texture d’emblée archéologique qui peuple nos comportements ne se laisse-t-elle plus voir autrement que sous le commandement de la simulation informatique et sous la lieutenance de l’affordance ? La modélisation informatique se « destine »-t-elle à faire disparaître les joies de l’ouvrage ou « épargne »-t-elle (Dictionnaire Le petit Robert 1, 1989 : 1683) en transparence un re-modelage possible de l’œuvre ?

    Lorsque l’espace réservé par la touche picturale se couche hors l’image
    La touche de pinceau permet de déployer ce que réserve à ses côtés l’espace pris par tout signe apposé sur un tableau. Dessinons une forme puis peignons-là ; à l’intervalle qui se crée automatiquement entre les bords du support et la forme graphique, l’épaisseur picturale en ajoute un autre entre la surface de la peinture et celle de la toile. Lorsqu’une brosse remplie de pigments touche un tableau, elle augmente l’espace bidimensionnel latéralement perçu d’une profondeur qui ne vient pas du modèle mathématique (euclidien ou topologique par exemple) mais qui se constitue dans le creuset de l’acte pictural lui-même.

    Paradoxalement, cette réalité picturale affirma son autonomie dans la planéité, un grand thème de la modernité en peinture : les coups de couteaux de Manet, les cernes de Gaugin et les couleurs de Matisse trouvèrent sur leurs chemins l’aplat, l’étendue et le format.

    C’est comme si entre toute la peinture qui s’additionnait sur la toile et toute la nudité (anti-illusionniste) que cette dernière avait retrouvée, entre épaisseur et spatialité, il se produisait une sorte de contamination ; les couches picturales trouvant une existence perceptible dans le plan du tableau et donnant par-là même au subjectile le statut ontologique de première strate. En conduisant notre perception de la forme appareillée (le tableau) vers ce qui peut s’y stratifier, la touche, celle par exemple de Cézanne, détermine la topologie du modèle à partir de la rugosité chtonienne (gr. Khthôn, terre) de ce dernier.

    Hauts-plateaux contre Reliefs Cézanniens

    La touche, une épaisseur à la hauteur de son massif
    Installé pour quelques temps à la fin de sa vie dans cette campagne aixoise maintes fois peinte par Cézanne pour qui la nature était « à l’intérieur », Merleau-Ponty écrivait : « qualité, lumière, couleur, profondeur, qui sont là-bas devant nous, n’y sont que parce qu’elles éveillent un écho dans notre corps, parce qu’il leur fait accueil. Cet équivalent interne, cette formule charnelle de leur présence que les choses suscitent en moi, pourquoi à leur tour ne susciteraient-ils pas un tracé, visible encore, où tout autre regard retrouvera les motifs qui soutiennent son inspection du monde ? » (Merleau-Ponty, 1964 : 22).

    Entre l’énorme  rocher de la Sainte Victoire dominant la plaine et l’émergence que cela suscite dans notre perception lorsqu’en contrebas nous la contemplons, sublime, il y a en effet toute cette série d’œuvres de Cézanne couchant ce massif sur des toiles, plus de quatre-vingts, réalisées toute au long de sa vie. En construisant de 1885 à 1906, touche après touche, un objet perceptif pâteux mais de plus en plus abstrait, Cézanne renverse les priorités quant à ce qui relie la forme peinte à son motif de référence.

    Celle-ci ne tire plus son autorité du modèle illusionniste de la montagne. Au contraire, la masse picturale réserve dans la texture qu’elle échafaude une possibilité à l’érection  géologique de réapparaître, de se rejouer dans la vitalité stratifiée de la peinture : « en prêtant son corps au monde (…) le peintre change le monde en peinture», lui donne les moyens de révéler son « essence charnelle » (Merleau-Ponty, 1964 : 16 et 35). Au fur et à mesure des tableaux, la montagne devient un objet autre, façonné, modelé par un tissage de grosses touches aux tons denses et sombres. Le paysage quitte ses typologies formelles pour se faire peinture. La peinture prend de la hauteur.

    Le modèle formel est touché, creusé par une modelage perceptif : Cézanne peint sur le motif. Il manipule le réel. Ce qui restait de l’espace topologique, le fond de la toile, va se « réserver » le droit de prendre de l’épaisseur. L’appareil transparaît comme une strate au contact des formes que touche le peintre.

    La toile, ce plateau solide réservé par la touche
    La toile est la strate restante à mesure que Cézanne voit de moins en moins (1904-1906). Environnés d’une solide construction par touches, les blancs du support que ces dernières laissent apparaître deviennent une couche de la représentation. La réserve devient le sujet principal d’une profondeur inversée. Il n’y a plus de hiérarchie, il n’y a que des va-et-vient. La profondeur n’est plus « l’escamotage des choses l’une par l’autre (…) c’est ce qui est entre elles (…) leur extériorité connue dans leur enveloppement (…) l’expérience de la réversibilité des dimensions, d’une « localité » globale où tout est à la fois, (…) d’une voluminosité (…). Cézanne sait (…) que la forme externe, l’enveloppe, est seconde, dérivée, qu’elle n’est pas ce qui fait qu’une chose prend forme (…). Il a été droit au solide, à l’espace » (Merleau-Ponty, 1964 : 64-66).

    Toucher-Coucher

    L’appareillage de la touche hors-l’image
    Ce renversement de la forme vers le fond pria l’art du vingtième siècle d’approcher l’image non plus par son sommet idéal mais par son appareillage. Picasso disait de Cézanne que ce qui en lui l’intéressait, c’était son inquiétude ; inquiétude peut-être de perdre les amarres de notre perception dans une époque photographique amorçant un processus progressif de dématérialisation des images. Le numérique constitue une phase d’achèvement de ce processus puisque nos modèles perceptifs sont désormais soclés sur du calcul.

    Dans ce contexte la phénoménalité de la touche a pris un sacré coup y compris en ce qui concerne la forme même des appareils. Mais les peintres n’ont jamais jeté l’éponge. Par exemple, aux Etats-Unis, en plein boom du collège cybernétique (Shannon, Wiener,…), au milieu des années cinquante, Willem De Kooning affirme que lorsqu’il représente des figures à larges touches et à la limite de l’abstraction gestuelle sur des formats à la mesure de son corps, c’est comme s’il se peignait lui-même « out of the picture » (Willem De Kooning, 1998 : 9), soit en dehors de l’image mais sur le tableau.

    Il est conscient de vivre à un âge où le corps et tous ses appareils sont exclus de l’envolée des images, le réel se retrouvant nez à nez avec l’imagination créatrice (pour autant que celle-ci ne soit pas dissociable de celui-là) dans une sorte de brutalité intercalaire.

    De la touche picturale à la couche digitale

    Lorsque Willem De Kooning a l’idée de modeler un torse en argile sans toutefois le faire directement avec ses doigts puisqu’il va utiliser de gigantesques gants pour travailler (« Hostess », 1973), il est précurseur d’une problématique plastique actuelle : la virtualité solide ayant remplacé la glaise, l’ergonomie (et l’accidentologie) ayant colonisé le domaine tactile, comment rentrer en contact avec la matière tout en assimilant l’impossibilité de la pénétrer toute hypermédiatisée qu’elle est  ?

    Il y a ici un chiasme : ce que gagne la touche à sortir de l’image pour se déposer sur son moment d’appareillage, elle le perd en visibilité : la première couche que constitue l’appareil cybernétique, la paroi des interfaces (clavier, souris…) a beau être « poreuse » (Couchot, 1998 : 144), elle ne se laisse plus influencer comme le faisait l’espace banc de la toile par les traces que nos doigts y déposaient. La couche digitale qui fait toute l’épaisseur du moment de représentation divorce de la profondeur visuelle que lui offrait l’acte de peindre.

    Ce dernier est doublé par la production simulée qui s’affiche à l’écran. Monopolisant l’attention, fascinante, rayonnante, la modélisation informatique fait passer sous silence la couche digitale qui la modèle. En même temps, cette mince pellicule vernit le corps d’une discrétion, d’une autonomie, d’une redécouverte de lui-même : est-ce si surprenant que « l’automatisation » apporte « dans l’univers quotidien une extraordinaire qualité de l’ordre du « manuel » » (Branzi, 2003 : 133-134) ?

    Plasticité et modelage de la transparence
    Le problème plastique essentiel qui se pose aux zones contemporaines de modelage en contact avec la machine cybernétique, c’est qu’elles ne se voient pas autrement que sous une forme « optiquement dominée » (Huyghe, 2002 : 62), celles de tous ces écrans tactiles où l’on touche pour voir mais où la vision ne porte plus d’épaisseur tactile. Certes, la science ergonomie sachant l’écart entre le travail « prescrit » (projet) et le travail « réel » (trajet) (Dessors, 2006, p.15) se montre capable de révéler des espaces dynamiques de formation entre nous et le monde.

    Elle alimente la création contemporaine qui y trouve un outil épistémologique intéressant pour actualiser le sacro-saint écart expressif comme élément dynamique de toute pratique artistique. En fait, le concept d’affordance selon lequel les formes du réel tireraient leur structure des comportements qu’elles attendent permet tout de même aux vieux débat du virtuel et du réel de sortir d’une impasse ou de trouver un champ d’application. Nous pensons à tous ces objets qui démontrent, par leur configuration ouverte, la possibilité de transmuter l’imagination tactile en configurations formelles.

    Cette souris d’ordinateur qui limite l’action à la seule mobilité du doigt plutôt que celle du poignet est-elle un objet qui manifeste une « régression de la main » (André Leroi-Gourhan, Tome II, 1964 : 50-62), une réduction du creuset humain (« palper, c’est déjà sculpter » nous dit Alain, 1958 : 478 ) ou une forme potentiellement remplie de désir d’empreinte ? Nous n’avons pas l’ambition de trancher sur cette lourde question épistémologique : la seule forme  peut-elle toucher à la quintessence du rapport indiciel que nous entretenons avec l’environnement ? Mais nous cherchons l’artiste dans tout cela pour autant que ce dernier ne puisse être du genre à oublier sous prétexte d’automatisation la problématique de la trace au fondement de l’imago, cette empreinte en plâtre que faisait les latins du visage des défunts.

    Lorsque Andy Warhol reproduit ces modèles industriels de coloriage qui indiquent par des numéros, dans des zones réservées à l’avance, les couleurs à apposer, il prend bien soin d’agrandir ces modèles à une échelle anthropomorphique afin que la présence de la peinture acrylique ramène la modélisation industrielle du creux à son pan réel (« Do it Yourself », peinture acrylique sur toile, 1962, 178 X 137 cm). L’artiste de l’époque industrielle ne renonce pas à faire jaillir du corps y compris en négatif (comme le montrerait une étude sur ce procédé sérigraphique si cher à l’artiste). La dimension d’appareil des images se révèle dans l’espace de celles-ci mais cela fonctionne tant que l’image industrielle reste indicielle, mécanique. Dans le cas des images numériques, la stratégie warholienne va échouer.

    La plasticité des images s’émancipant de celles-ci sans pour autant trouver de prise visible dans leur dimension d’appareil, tout est à redéfinir : à cause de ce voile optique chapotant cette dimension et venant d’une hauteur immatérielle prise par nos projections imaginaires, nous ne savons plus si cette « nouvelle empirie » où se « téléscopent » (Varenne, 2007) les algorithmes et les solidités permet à nos modelages de s’émanciper ou de disparaître !

    Actuellement, certes, les préférences vont à notre interaction avec le dedans du numérique plus qu’à ces « forces du dehors » (Neyrat, 2003 : 21) qui ne se voient plus mais qui restent bien-là en transparence. Avec un peu plus de temps, il faudrait s’arrêter ici sur le travail plastique de Bertrand Lavier qui à merveille « illustre » (post-modernité oblige) cette translucidité que nous laissons sur les objets de notre environnement. Cette épaisseur pourtant discrète ou invisible compte pour beaucoup dans la question de la transparence ; notamment lorsque l’artiste s’en prend explicitement à des appareils de représentation comme l’appareil photographique (« Canon », 1981,17 x 15 X 8 cm) ou le poste radiophonique ( « Solid State », 1980, 40 X 26 X 8 cm). Il les recouvre d’une peinture acrylique dont la transparence réserve la valeur de couche, d’« intervalle inframince » : « la frontière se situe dans l’épaisseur de la peinture » (Lavier cité par Francblin, 1999, pp. 33-35).

    Avec le passage de l’analogique au numérique, ce qui va être en jeu c’est l’autorité de l’image non plus comme réalité substantielle médiatique mais comme fable de plus en plus immatérielle ayant perdu, disséminé ce qui faisait toute la dimension modelée de son appareillage. L’entrave au percept de transparence est plus idéologique que physique : « Nous n’avons pas encore quitté l’espace des corps, même si nous voyons à présent leurs images nous échapper et que nous préfèrerions nous retrouver dans des corps virtuels, qui ne sont eux-mêmes que des images, quoique nous prétendions les appeler des corps » (Belting, 2004 : 149).

    Cette préférence est une donnée insuppressible à déjouer pour les artistes contemporains, les troubadours post-photographiques : c’est en regardant comment certains d’entre eux se comportent sur le grand plateau des modélisations que nous approcherons la réalité de l’acte ludique telle qu’elle transparaîtrait en informatique. La transparence numérique n’est peut-être plus-là où le corps s’attarde.

    De la transparence informatique à son milieu ludique
    Le plasticien fait toujours avec l’ambiance technologique de son temps. Pas plus qu’hier, son problème est aujourd’hui de mépriser tout ce vernis que nos moyens de représentation imposent à la perception. Certes, ne reposant plus sur de l’empreinte, la solidification du virtuel, le retour vers le réel du modèle numérique à quelque chose d’effrayant (Varenne, 2007) puisque les formes même du modelage ont été modélisées et avec elles cette façon que le corps avait de se suivre à la trace dans ses projections.

    A l’époque photographique, la distance entre le toucher de l’opérateur et l’image obtenue ne condamnait pas la glaise indicielle à disparaître : cette dernière était plutôt différée dans l’empreinte photosensible produite par l’appareil argentique. La sensibilité numérique exclut de sa forme les conséquences matiéristes du corps à corps entre l’appareil et l’image. Du coup, l’artiste se tromperait en interprétant l’interface comme refuge de l’indice (sous une forme simulée). Car il attribuerait alors à la technologie informatique des repères plastiques qui lui sont exogènes. La modélisation informatique n’a peut-être plus rien à voir avec les intervalles que proposait le modelage. Les règles du jeu ne sont peut-être plus les mêmes. Comment œuvrer lorsque les modèles d’expression ne fonctionnent plus avec des poches de réserve, lorsque le travail ludique du corps ne se voit que dans l’instabilité médiatique, un coup immatériel, un coup solide qu’offrent les dimensions de la modélisation informatique ?

    Thomas Demand : l’origami modèle l’interactivité

    Un mouvement replié sur lui même
    De l’urbanisme haussmannien épuré de la fin du dix-neuvième siècle à ce tout récent avertissement de Sarah Kidner  conseillant à ses lecteurs un ménage de printemps sur des claviers d’ordinateurs « peut être plus sales que des toilettes  » sans oublier les inspecteurs d’étages de « La Cité Radieuse » de Le Corbusier, l’esprit de géométrie s’est déployé tout le long de l’échelle environnementale. Pour satisfaire « son besoin de circulation », il a chassé « l’esprit organique » (Ragon, 1986 : 126) jusqu’à le remplacer : dans le bouclage interactif entre calcul et virtualité solide, la perception de notre mouvement a troqué son Saint-Suaire contre un voile hygiénique.

    Dès lors, nos expériences du contact dont l’inter(sur)façage assisté par ordinateur n’est que la pâle extériorisation « possèdent une inquiétante similitude » à laquelle s’intéresse de près l’artiste Thomas Demand. Il part du principe plastique, sculptural presque, que nous ne voyons jamais la simulation mais bien plutôt « l’extérieur d’un simulateur  ». En tant qu’enveloppe choisie par la désubstantialisation de nos mouvements, le simulateur offre moins un modelage replié sur lui-même qu’un appel à être déplié en son milieu.

    Reconstitution, modelage ou modèle réduit du pli froissant la boucle interactive en son  milieu ?
    Thomas Demand reconstitue grandeur nature, avec du papier et du carton, des espaces typiques de la société hypermédiatique telle cette salle de photocopieurs. Il photographie ses décors, les détruit puis expose de grandes impressions de ses prises de vues.

    L’artiste s’intéresse moins à la maquette grandeur nature et son empreinte photographique qu’à la modélisation médiatique de cette origami indicielle. Et cela n’est pas que du mouvement : certes, le jeu interactif entre l’homme et la machine tourne si vite que nous ne savons plus où est l’un, où est l’autre et cette vitesse détermine un « milieu » ludique (« les objets y sont tous plus ou moins sujet, et vice-versa » (Berque, 2000 : 35). Mais la réalité mouvementée d’un milieu ne peut se mesurer qu’à l’échelle des plis que son activité dessine. Où le modeleur et la machine modélisante se rencontrent-ils ? Durant le pliage numérique du décor analogique, qui donc de l’exposition photographique ou du simulateur fait-il l’arbitre ?

    Vidant le temps de son épaisseur, celui de nos anciennes maquettes, les pliages offerts par la modélisation informatique trouveraient ici une forme plastique rêvée : en extrapolant l’imaginaire de Demand jusqu’à sa science fiction post photographique, nous réussirions à quitter un besoin de reconstitution pour modeler une autre plasticité, pour aller vers une autre « construction des objets de la représentation » (Demand, 1999 : 118), une nouvelle « science du concret ». Qu’est-ce qui se « bricolerait » dans le jeu informatique et en localiserait le milieu ? De quel tout textural expérimental un objet d’art froissant la mythologie des immatériaux pourrait-il être le jouet, « le modèle réduit » (Lévi-Strauss, 1962 : 16-47) ?

    Bruno Peinado : y’a rien à voir, circulez !

    La course de vitesse entre interface d’entrée et interface de sortie (entre par exemple un joystick que nous touchons et le retour d’effort qu’il simule) a ses propres plis substantiels qui permettent à la circulation interactive de se constituer en milieu. Pas plus qu’une partie de jeu informatique ne recouvre la totalité de la réalité ludique qu’elle implique, il ne faut confier à un « environnement logiciel » la totale prise en charge de la notion de milieu. A son échelle réduite, quelle sorte de territoire plastique instaure le contact avec le volume du simulateur ; contact voire caresse dont le velours outrepasserait une déréalisation numérique qui chercherait à nous doubler ? Car, au toucher, ce sens qui au fond se soucie si peu des honneurs du paraître, la modélisation informatique se fait-elle aussi lisse que ce que sa solidité optiquement dominée pourrait le laisser croire ?

    Tel que la soulève Bruno Peinado, notamment dans une grande peinture murale réalisée en collaboration avec S.Dafflon, la question de l’expression de la sensibilité organique en proie au modèle optico-médiatique (signalé ici par ces modules géométriques et l’appellation stéréotypée « Disney ») ne semble pas pouvoir faire l’économie d’une lutte, d’où peut-être ici le titre ludique mais brutal : Disney « sauvage ».

    Or, faite d’abord pour la vision, la quantité exponentielle de signes qu’est capable de produire une économie de la modélisation n’offre guère de relief sur lequel la tactilité non contente d’être designée ou ergonomique, pourrait s’accrocher : « c’est la toute puissance de la virtualisation ». Alors que « la tactilité forme l’intelligence et la dignité », « les moyens d’information » peuvent « faire oublier l’expérience » (Kirili, 2001 : 158). Comment faire alors puisque désormais nous surfons, nous effleurons du bout des doigts tous ces pavés tactiles : le relief où s’hume la résistance du corps au calcul est-il paradoxalement à chercher dans le lisse ? De la collision, faut-il passer à la contamination, inverser le jeu : non plus uniformiser les comportements mais bien plutôt se comporter au beau milieu de l’uniforme ? S’agit-il de considérer la quantité visuelle comme une qualité plastique, une épaisseur dans laquelle un plasticien comme Bruno Peinado va sculpter son chemin ?

    Pléthore sémiotique
    Un tout petit tour dans une exposition de Peinado suffirait à constater que la plasticité contemporaine dépend d’une avalanche signalétique par quoi elle se trouve débordée. L’enjeu dés lors c’est d’inventer une manière de circuler dans cette consistance du débord afin de proposer une alternative, d’émettre quelques réserves face au grand circuit cybernétique. La difficulté réside bien sûr dans un paradoxe : modeler avec de la glaise qui n’en est plus, celle du simulateur.

    Assistons-nous à un remodelage du moteur métaphorique qui met en branle toute possibilité d’œuvre ? En tous les cas, la concrétion, la substantialité indicielle, le véhicule à partir duquel nous nous envolions vers l’abstraction (metapherein, transporter en grec) est réduit à l’état de virtualité solide. Au profit du mythe de la simulation, cette abandon du langage ordinaire des phénomènes est peut-être le paroxysme d’une « visée référentielle » (« à la faveur même de l’abolition de la référence correspondant à l’interprétation littérale de l’énoncé »), celle de la métaphore, qui voulait sortir du monde des accidents pour faire surgir une « nouvelle pertinence sémantique » (Ricœur, 1975 : 289). Mais nous allons maintenant nous « réserver » le droit de dire qu’a trop vouloir se déplacer sans marquer d’arrêt, la métaphore devient impossible. Pourquoi pas ? Après tout, moins il y a de possibilité d’œuvre plus la sensibilité se démocratise absolument, c’est-à-dire au prix de ne même plus se faire re-marquer.

    Le Sémionaute tactile et la nostalgie du stable
    Le projet de modeler à l’époque des modélisations se ferait sur un sol qui n’ayant pas d’autre pesanteur que son exubérance signalétique, se déroberait sous le poids de notre masse tactile. La sensibilité n’aurait d’autre choix que de courir très vite. La vitesse nous permettrait de tenir debout face à celle d’une automation algorithmique excitant pêle-mêle un tas de structures rhizomatiques parcourues de milliers de flashs techniques, historiques…

    « Perpétuellement mobile » grâce à ses machineries stroboscopiques d’objets ne se fixant jamais dans un collage spécifique, Bruno Peinado fait partie de ces « sémionautes » (Bourriaud,  1999 : 18) ou astronautes du signe qui naviguent dans le grand manège automatisé du monde contemporain.

    Mais, observons tout de même la persistance d’une réserve « traditionnelle », particulièrement dans cette grande « Mire » ou ce cercle de Macs, tous les deux modelés en céramique. Certes, grâce à une stratégie spatiale de la circulation et une stratégie chromatique de la saturation (ou de la gamme industrielle), la sensibilité peut trouver de nouvelles niches au cours du flux médiatique. Mais en même temps, il y a l’inertie d’un modelage artisanal voulant se vitrifier sur les minces parois que lui offre encore l’empire cybernétique.

    Que faire de cette présence nostalgique du stable au beau milieu de la toupie informationnelle ? Y trouver les moyens de réconcilier l’énergie, la vitesse, la facilité d’accès de la virtualité ludo-technologique contemporaine avec les pliures que cette dernière crée en retour dans le réel ? En tirant son origami du calcul et non plus des aléas accidentelles de toute matière manuellement modelée, les articulations de la carcasse du simulateur n’arrivent pas à totalement revenir au plus près de nous : sans un « coup de pouce » qui ne viendrait pas d’elle mais dont elle assurerait la résonance visuelle, l’ergonomie informatique peut-elle solidifier la modélisation du comportement au point de toucher les intervalles habituels où se déplace l’imaginaire du corps analogique ?

    De l’habitude informatique comme modelage de soi

    Pendant qu’elle se projette dans un monde virtuel, l’imagination ne peut éviter soit le dépôt d’une transparence analogique qui affecte la peau des simulateurs soit les plis énigmatiques d’une transparence numérique qui s’établit dans un milieu solide initialement exogène à cette dernière. En multipliant les contours visuels et les gammes de sa solidification, la modélisation informatique espère encore ramener dans sa boucle toutes les dimensions qui corrélativement se réservent dans l’authenticité perceptive de « chacun de nous, autant qu’il est en lui » . L’extériorisation hyper modélisée de notre mémoire affective fait sortir notre sensibilité viscérale hors de ses gonds pour la propulser dans une intelligence visuelle de la forme.

    Et cette victoire écrasante du signe extérieur sur notre rapport intime au réel modifie les points sur lesquels le corps s’appuie pour s’imaginer en dehors de lui-même. De quoi s’aide « l’illusion technologique » (de quel confort bénéficie-t-elle) pour obtenir notre approbation quant à un tel « dépassement » (Leroi-Gourhan, 1983 : 125) du corps hors de lui-même ?

    Cette installation intitulée « Escape » esquisse une réponse à priori paradoxale en forme (simulacre) d’agrandissement du toucher au contact d’un décorum optiquement dominé. En autant de poufs dont les plis de la toile marquent la confortable mollesse sont disposées des touches de claviers d’ordinateurs permettant de s’asseoir pour regarder se re-jouer le destin de la touche picturale à l’époque des ordinateurs. A moins qu’ayant fait le deuil d’un modelé  informatique inaccessible autrement que dans un jeu de relations, Peinado conclue à une autre échappée : celle d’un imaginaire des immatériaux en dehors d’une toile encore picturale, d’une boîte encore vidéographique et d’une tactilité encore dactylographique que nous avons déjà quittées comme l’atteste par exemple les écrans plats ou les pavés tactiles. Plus la modélisation informatique arrive à une phase de lissage moins le corps trouve appui.
    Là où peut-être, face à cette perte de repère, le designer informatique tentera de rester un « arbitre à la frontière entre le dehors et le dedans » (Moles, 2003 : 242-250), le plasticien se demandera où se trouve désormais le confort du corps. Basé sur la forme, le confort est ce qui, à la vue d’un objet confortable, renvoie le corps à une sensation qui ne relève pas forcément de la vision. Cette sensation va s’introvertir, se réserver à l’intérieur du corps lui-même à mesure que les formes virtuelles et/ou solides se désubstantialisent.

    En partant d’un travail pictural d’empreinte digitale et d’intégration d’objets pour aboutir (grâce au détour photographique) à la vision architecturale d’une touche de clavier d’ordinateur agrandie à l’échelle d’un tabouret (taillé, moulé, sérialisé puis modélisé informatiquement), nous avons essayé de vivre et comprendre plastiquement comment, de l’analogique au numérique, fonctionne ce déplacement d’un imaginaire du confort. Car a mi-chemin du geste pariétal et d’un envol de nos percussions  vers l’immatérialité, à l’endroit pourtant lisse de la virtualité solide, là où la puissance de nos impacts n’a plus aucune incidence sur ce qu’elle produit (que je tape fort ou que je caresse mon clavier, cela ne change rien au résultat), l’interface dactylographique du clavier d’ordinateur réserve un ancien relief, une ancienne mécanique comportementale, un confort basé sur une habitude technique.

    Comme un système de vases communicants, plus les claviers s’aplanissent plus s’opère un transfert de la plasticité volumique du toucher vers l’appareil corporel qui devient le lieu où se replie l’habitude. Ce retour de la plasticité vers le corps signifie que c’est moins dans les images numériques que nous nous projetons que dans les habitudes qui nous permettent d’y accéder. Il y a une factualité fonctionnelle qui réserve au corps la possibilité de s’absenter vers le monde numérique. Cet absentement a une assise que le plasticien veut modeler.

    En passant de la touche au tabouret, c’est cet intervalle stratifié, ce fibrage en transparence que nous voulons proposer, ce déploiement qui se fait pendant le jeu interactif, cet autre jeu qui meuble le comportement, ces meubles qui « règlent l’attitude, et par là, les pensées et les actions ». Ce repli rétrospectif des empreintes confortables où œuvre l’imagination se serait fait progressivement du modelage vers une modélisation puis, cette dernière étant insatisfaisante, du design vers l’appareil corporel décidément seul, assis au milieu de ses habitudes. Mal à l’aise dans une modélisation à laquelle il essaye pourtant de se plier, le modelage de l’œuvre trouverait réconfort dans « le modèle de l’homme qui pense selon soi » (Alain, 1958 : 353 et 614). Ce modèle aiderait la pensée à retrouver la solidité d’un jeu virtuel qui prendrait racine, croissance et substance dans nos habitudes : « dans la réflexion (…), la fin du mouvement est une idée (…), quelque chose qui doit être, qui peut être (…). Mais à mesure que la fin se confond avec le mouvement (…) l’idée devient être, l’être même et tout l’être du mouvement (…). L’habitude est de plus en plus une idée substantielle » ( Ravaisson, 1984 : 21).

    Ebauchons pour finir la pertinence de ce modelage du Virtuel par l’Habitude, celle qui réellement croîtrait en nous et constituerait une sorte de glaise mnésique. Certes, comme le dit très joliment la sculptrice Louise Beourgeois « il faut abandonner le passé tous les jours ou bien l’accepter. Et si on n’y arrive pas, on devient sculpteur » (DirectSoir N°323 du 28 Mars 2008 : 14). Mais nous ne pouvons plus aujourd’hui, il en a été longuement question ici, sculpter ce qui s’agrandit dans notre toucher en comptant uniquement sur l’emprise de notre corps même si c’est dans lui que paradoxalement tout se passe. Car les modes de visibilité du contact, les parois sur lesquelles nous butons sont aussi lisses qu’autoritaires, virtuelles que solides.

    Même s’il intériorise son poids, le corps n’est plus aussi libre qu’au moment où, entre deux époques, déjà plus photographique et pas encore numérique, le champ était libre pour chercher les limites du toucher, « attester du réel sans représenter » (Grenier, 2004 : 74). C’est ce qu’avait fait bien sûr Giuseppe Penone en agrandissant ce mince voile nervuré que sont nos paupières ou en réalisant des empreintes de son souffle. Désormais, l’effet de feed back du corps dans la forme hyperindustrielle est une donnée incontournable.

    Andy Warhol l’avait déjà pressenti en trouvant dans l’alternative anthropomorphique du grand format le moyen de donner envie au spectateur de « le faire soi même » (do it yourself) malgré tout, malgré la puissance industrielle : le modelage – soit un agrandissement de la mécanique de notre perception à l’extérieur du corps mais qui n’altèrerait pas la puissance affective de celui-ci – doit composer avec l’automation. Les plis de nos géants d’argile font face à ceux d’une modélisation acheiropoiète totalement indifférente mais dans laquelle le plasticien doit pourtant se compromettre. Est-ce un hasard, nous l’avons expérimenté avec notre « Tabouretouche », si l’agrandissement d’un objet est une procédure qui industriellement ne se protège pas ? Seul se protège le Concept Ergonomique ; on fait un dépôt de « Dessins et modèles » mais on ne dépose aucune mesure.

    D’un côté l’agrandissement se réserve en dehors de la modélisation industrielle, de l’autre il faut faire avec les seuls processus que nous propose cette dernière. L’idée retenue est alors plutôt celle d’un va-et-vient entre ce qui va relever de la croissance physique (1. Esquisse aquarellée, stratification en résine, empilement matériel des « Tabouretouches ») et ce qui va être de l’ordre d’une autre origami (2. Fichier technique Solidworks, vectorialisation, plaquette infographique de promotion industrielle, etc).

    Au fur et à mesure se constitue un jeu plastique qui ne dénigre pas la texture du dépôt accidentel sous prétexte de dépôt industriel. Conjuguant des techniques composites industrielles et un travail artisanal de stratification, la forme singulière de chacune des pièces de notre série de tabourets assoit ce juste milieu ludique. Les conséquences esthétiques de cette grande pliure unitaire sont mesurables par l’ambivalence de nos stratégies d’exposition :

    Conjointement modules d’œuvres et tabourets, « touches » et « fonctions », nos travaux proposent une réhabilitation de ce qui se modèle, soit un espace de contact entre le corps et l’outil, pendant que l’interfaçage informatique recouvre notre univers fonctionnel. Comme un autre joystick qui accepterait de montrer en son milieu les ravages que causent nos habituelles sueurs, il y a une masse corporelle sur laquelle s’appuie la croyance suivante dans le nomadisme médiatique : le micro-ordinateur est une œuvre en soi et grâce à qui l’acte créatif est facilité.

    Conclusion
    Le récit de la démocratisation de la création à l’époque des immatériaux se compose sur une grande page brutale qu’il est par définition très difficile de corner puisque le signe de cette éclatante blancheur purge le phénomène informatique de tout soupçon.

    Mais pourquoi faut-il que le grand jeu démocratique de « l’esthétisation généralisée » (Michaud, 2006 : 80) ou de la virtualisation des comportements ne soit possible qu’à la condition que « les situations » démiurgiques de nos corps au contact du réel ne soient plus identifiées « comme telles » (Huyghe, 2002 : 199) ? Est-ce au prix de son silence que la réserve fascine ? Le miracle démocratique fonctionne-t-il sur cette fascination ? En tous les cas, il est grand temps de sortir de l’inquiétude « réactionnaire » et « contre moderne » (Compagnon, 2005 : 22-25) déjà formulée par Flaubert en son temps lorsqu’il écrivait que « le suffrage universel, qui est le droit divin du nombre, est une énorme diminution des droits de l’intelligence » (Flaubert, 1852 : 90) ou par Baudelaire qui ressentait en tant que poète « l’incomparable privilège » (Baudelaire, 1869 : 37) de s’enivrer à l’intérieur de  la multitude des foules.

    Certes, l’époque de la plume, du pinceau ou de l’instant décisif photographique n’est déjà plus mais ne nous voilons pas pour autant la face : quelque chose demeure de cette sensibilité… La question ne porte pas sur la mort de tous ces coups d’éclats du corps dans le réel et qui faisaient le jeu de l’œuvre. Elle concerne la croissance de l’intensité démiurgique de ce jeu à mesure que la figure aristocratique de l’artiste s’éteint. Lorsqu’il apprend à jouer sur un ordinateur, l’homme est artisan, il « trouve mieux qu’il n’avait pensé dès qu’il essaye » (Alain, 1958 : 239). En permanence, des faits scénographiques, des chocs s’imposent entre les corps et le monde : sans ce Réel en quoi « consiste » le flux, le rêve du grand réseau démocratique est impossible.

    Lorsqu’elle se réalise plus qu’elle ne se modélise, il n’appartient plus seulement aux artistes de « sauvegarder », « en face de l’appareil », un peu de « son humanité » (Benjamin, 1935 : 88). Nous sommes tous des sculpteurs de joystick.

    Communication Scientifique Ludovia 2008 par Julien Honnorat (Extraits)
    LESA (Laboratoire d’Études en Sciences des Arts)
    École Doctorale LLA (Langues, Lettres et Arts : arts plastiques, cinéma, littérature française, littérature générale et comparée, musique).
    Université de Provence

  • Création numérique : tous artistes ?

    Notre perspective est une démarche de création-recherche : notre pratique expérimentale sur la matériau est mobilisée en vue d’enrichir une réflexion théorique. Afin d’éclairer un questionnement sur la nature du processus créatif numérique, nous avons souhaité confronter une œuvre artistique classique avec les outils et méthodes issus de l’ordinateur. Notre hypothèse de départ est que cette confrontation peut permettre de mieux délimiter la nature de l’art numérique avec ses spécificités et ses continuités dans l’histoire de l’art.

    Ce travail sur la durée a permis de suivre les évolutions des technologies et usages du multimédia et d’en explorer un certain nombre de potentialités. Divers aspects technologiques ont été abordés, relevant de l’infographie bitmap, de la programmation interactive, de la 3D ou de la communication sur Internet. Les problématiques théoriques soulevées ont particulièrement abordé la question de l’œuvre et celle plus précisément traitée ici du statut de l’artiste et de son rapport avec le public.

    Nous présenterons dans une première partie un aperçu de l’historique de ce travail numérique. Dans une deuxième partie nous aborderons les questions théoriques, afin de tenter de cerner les enseignements du projet quant-à la nature du rapport de l’artiste et de son public, problématique que nous avons résumée dans cette question un peu provocatrice : avec le numérique tout le monde peut-il devenir artiste ? 

    1.    L’EXPERIENCE PIGPIX.ORG : EVOLUTIONS ET QUESTIONNEMENTS
    1.1   Du pigment au pixel
    La question du numérique en tant qu’art, de ses manifestations et de ses spécificités, mis aussi de ses continuités dans l’histoire de l’expression, nous a conduit à établir un pont entre la réflexion sur l’art traditionnel et les pratiques liées à l’ordinateur. C’est ainsi que nous avons initié un travail à partir de l’oeuvre d’une artiste-peintre contemporaine, Luiza Guimaraes. Son œuvre témoigne d’un univers bien particulier, basé sur des motifs relevant de l’abstraction.

    Divers aspects nous ont incité à penser transformer cet univers pictural en univers numérique. La peinture de Luiza Guimaraes ne relève pas de l’art informel, elle est constituée de formes bien définies, dans lesquelles dominent les courbes, avec des contours nets, emplies de textures variées mais plutôt homogènes. L’articulation de ces formes développe fréquemment une profondeur, une échelle des plans. On discerne aussi des directions de mouvements ascendants, soit dans la verticalité, soit en diagonale vers la droite. Ces deux caractéristiques suggèrent les idées de fragmentation et de mouvement.

    Par ailleurs l’artiste, qui ne se revendique d’aucune école, ne développe pas de réflexion sur son œuvre. Elle ne propose ni explication ni interprétation et ne donne pas de nom à ses tableaux. Sa peinture se veut avant tout émotionnelle, laissant toute liberté au jugement du spectateur. Acceptant de nous donner un libre accès à ses œuvres à partir de reproductions numérisées, elle nous livre un matériau brut susceptible de toute interprétation et de toute manipulation. Aucune indication de départ ni contrainte n’est donnée, ouvrant ainsi tous les champs de possibles. Le caractère abstrait des motifs laisse lui-même une grande liberté d’intervention et de création. Une peinture figurative aurait induit des connotations précises et focalisé notre travail sur un sens pré-établi.

    Nous relevons aussi des thèmes récurrents qui sont déclinés dans la plupart des tableaux. Ces continuités nous amènent à interroger l’œuvre dans sa globalité et à réfléchir à des imbrications possibles, à des recoupements, à des parcours. Ces continuités se manifestent autant dans le choix des formes que dans celui des couleurs : le rouge est largement dominant, envahissant souvent le fond de la toile et se développant en de multiples nuances, du jaune orangé au noir. Les verts ou les bleus sont généralement utilisés pour des motifs d’avant-plan. Il se dégage de violents contrastes de couleur entre les formes, et de luminosité entre l’obscurité et la lumière.

    L’œuvre de Luiza Guimaraes se présente donc comme un terrain propice à une appropriation numérique, la peinture pigmentaire servant de point de départ à une création dans laquelle le numérique peut ajouter ses propres artifices : fragmentation des éléments numérisés, organisation d’une architecture entre ces fragments, choix d’interactivité, ou encore esthétique du pixel qui vient mettre en avant la nature physique de l’image numérique résolument démarquée de la trace pigmentaire.

    Notre parti-pris n’est pas celui d’une simple adaptation, réplication d’originaux en format numérique pour en faire une galerie virtuelle par exemple, mais d’une transmutation, au sens malrucien , débouchant sur un champ expressif nouveau constitué d’univers dématérialisés, « u-topiques » et « u-chroniques » ainsi qu’Edmond Couchot (1998) les qualifie.

    1.2  Création interactive
    Les premières expérimentations ont donné lieu à une série de productions, que nous avons qualifiées d’ « explorations ». En effet le sentiment de mystère ressenti devant les tableaux de Luiza Guimaraes, tout comme la multiplicité des points de vue présentés par les diverses toiles, ainsi que les continuités évidentes, prédisposaient à imaginer la mise à contribution du numérique pour créer des mondes artificiels dont ils seraient les décors et dont certains éléments pourraient être les acteurs. Et puisqu’il est question de création de mondes pour l’artiste, il est alors question de voyage pour le public, voyage qui, par l’intercession du code informatique, devient une découverte active, le voyageur étant en situation de se déplacer dans l’univers à découvrir.

    Les explorations mises en œuvre proposent une succession d’expériences interactives. C’est d’abord l’expérimentation de la sensibilité du tableau devenu numérique par l’effleurement de la souris : des zones se rétractent, d’autres vibrent ou palpitent ; la matière pigmentaire est devenue « vivante », douée de réactivité.

    C’est ensuite la mise en mouvement d’objets graphiques qui se décollent de leur décor pour se déplacer, avancer, reculer ou tourner sur eux-mêmes. Le visiteur se rend compte qu’il peut contrôler dans une certaine mesure le déplacement de ces objets, leur transparence, leur forme, leur équilibre chromatique ou encore leur duplication ou multiplication.

    La juxtaposition des œuvres permet de les sélectionner, de les comparer, de déceler des éléments de continuité. Si chaque tableau peut devenir un champ d’exploration, les récurrences entre les divers tableaux amènent à étudier des transversalités, à établir des rapprochements pour passer de l’un à l’autre, à bâtir une continuité. Ainsi l’architecture hypermédia permet d’offrir des circulations et d’inviter à un sens de lecture global. Une dimension narrative émerge par la proposition de parcours qui engendrent la construction d’une expérience progressive, initiation à la connaissance d’univers visuels.
    Dans cette perspective la dimension de profondeur dans les tableaux de Luiza Guimaraes, souvent suggérée par des bordures évoquant le relief et des parties « enfoncées » qui incitent à « crever » la toile, est mobilisée pour créer des effets de mouvements ou de pénétration dans la matière ou dans le vide. Ces déplacements s’accompagnent  d’un grossissement outrancier de la trame pixellaire ou du passage dans des « trous » révélant de nouveaux paysages visuels. L’expérience du mouvement est fluidifiée dans la proposition d’un zoom perpétuel qui peut être contrôlé dans sa vitesse et dans son sens (avant / arrière).

    C’est encore la dimension de la profondeur qui est valorisée par des mises en scène d’objets en technologie tridimensionnelle, au travers de sphères texturées avec les tableaux de Luiza Guimaraes, qui peuvent être manipulées dans leurs mouvements, vitesses de rotation et grossissement.

    L’ensemble de ces explorations ont été créées dans la finalité d’une diffusion sur un support matériel de type CD-ROM. Il s’agit donc d’une création dans le cadre somme toute conventionnel d’un objet à produire puis à reproduire pour sa diffusion, modalités classiques des industries culturelles de type éditorial qui valorisent l’œuvre incarnée dans un objet physique stabilisé.

    1.3  Création connective
    C’est par la création d’un nouveau module intitulé Recréation que nous avons abordé une autre logique interactive. Dans un premier temps il s’est agi d’une nouvelle voie interactive se différenciant de l’aspect narratif hypermédiatique précédent pour s’orienter vers une logique outil en offrant aux visiteurs des moyens de créer de nouveaux assemblages graphiques à partir de ceux déjà existants.
    Recréation se présente sous la forme d’une interface comprenant une partie graphique dans la zone principale et un panneau de contrôles sur la droite. La partie graphique est un décor reconstitué à partir des couleurs et motifs de l’univers de Luiza Guimaraes, comprenant un arrière-plan et plusieurs éléments d’avant-plan disposés de façon autonome. Le panneau de contrôles permet de modifier les caractéristiques de chaque élément en taille, inclinaison, couleur et transparence. Chaque élément peut être déplacé ou mis en mouvement. Une commande « trace » permet de les transformer en pinceaux ou en gommes numériques.

    A l’inverse des Explorations dans lesquelles c’est à l’interacteur de découvrir les principes de fonctionnement, cette recherche faisant partie du processus de construction sémantique de l’œuvre, la prise en main de Recréation se veut intuitive et le visiteur peut se référer à une aide pour parfaire sa compréhension de la proposition.

    Avec Recréation la possibilité d’expression créative du visiteur est privilégiée, il ne s’agit plus d’une œuvre à découvrir, mais d’une œuvre à construire. En manipulant les divers objets, en se servant des diverses commandes de réglage, l’utilisateur crée un nouveau « tableau » numérique, imprévu par le créateur du programme et fruit de sa seule inventivité. Afin de lui permettre de garder la trace de sa création une option lui permet de sauvegarder son « œuvre » sur le disque dur de son ordinateur.

    L’activité du visiteur est donc canalisée dans une finalité créatrice. Le spectateur devient peintre numérique. En modifiant et en ré-assemblant les éléments à sa guise, il devient le créateur d’une nouvelle composition dans le style de Luiza Guimaraes. Il s’agit donc bien d’un processus de recréation.

    Ainsi se présentait tout au moins la première version de Recréation, diffusée sur CD-ROM. Afin de donner une diffusion plus efficace à notre travail nous avons progressivement mis en ligne sur un site Internet dédié l’ensemble des travaux numériques que nous venons de décrire. Ce transfert a ouvert la perspective de nouveaux développements mettant à contribution les possibilités du web et faisant glisser les problématiques créatives de l’interactif vers le connectif.

    Le premier changement a été la possibilité d’évolutivité du site, contrairement au support optique figé. Nous avons invité les visiteurs à nous renvoyer leurs compositions pour les afficher dans une page web de galerie des réalisations. Il devient ainsi possible de donner une visibilité aux créations des utilisateurs de Recréation. Dès lors les œuvres affichées ne sont plus celles du créateur du site, mais celles réalisées par les « spectateurs » devenus « spectacteurs » et enfin créateurs.

    Les premières compositions ainsi affichées étaient en fait des variations autour d’un thème de départ, puisque le fond restait constant et que l’on pouvait simplement « peindre » par dessus. Le caractère limité de cette communication nous a incité à renforcer les possibilités de modification et à introduire la possibilité de réutilisation des compositions déjà affichées dans la galerie.

    Ainsi une seconde étape dans l’implication du public a été franchie en permettant aux visiteurs de changer le fond du tableau initialement proposé et de le remplacer par une des compositions figurant dans la galerie. Ainsi il devient possible de travailler à partir d’une transformation déjà effectuée par un visiteur précédent et de s’éloigner progressivement de la proposition plastique de départ. Une boucle créative s’instaure, chaque nouvel intervenant pouvant créer la base d’une future proposition. Le processus créatif peut donc se déployer en-dehors de la volonté du créateur originel qui voit son œuvre évoluer en-dehors de lui-même et dont l’influence peut s’estomper progressivement.

    L’œuvre actuellement exposée peut s’enrichir en permanence et la galerie des réalisations devient un témoignage de l’œuvre vivante, fruit d’un effort collectif en devenir.
    En mobilisant encore plus fortement les capacités communicationnelles d’Internet on peut imaginer de nouvelles évolutions possibles, par exemple la création et l’affichage en temps réel des interventions des participants, la création de « tableaux » collectifs, l’adjonction d’un système de messagerie instantanée pour permettre des échanges en direct sur les travaux en train de se faire…

    2.    DE L’EXPERIMENTATION AUX PERSPECTIVES THEORIQUES
    Le passage de la création artistique picturale au numérique, puis du numérique interactif au numérique connectif pose diverses problématiques quand à l’évolution des fonctions artistiques. Nous devons réexaminer la posture du créateur dont la toute puissance est affaiblie par les voies multiples de l’interactivité et l’affirmation de la participation croissante du public : l’artiste n’est-il pas dépouillé progressivement de ses pouvoirs démiurgiques ? l’acte de création ne devient-il pas accessible au public le plus large ? est-ce l’avènement de l’ère de l’art par tous ? Ceci conduit à poser la question plus large de la place de la création dans la société dite de l’information caractérisée par le foisonnement et le flux. Quelles sont maintenant les voies de la distinction artistique ?

    2.1 L’artiste dilué
    La figure du peintre est l’héritière la plus emblématique de l’émergence de la condition artistique à la fin du Moyen-Age et au début de la Renaissance, époque à laquelle apparaît l’artiste qui se distingue de l’artisan par son génie créatif et ses pouvoirs d’invention et d’expressivité. Michel-Ange peint « avec son esprit et non pas avec ses mains » (Jimenez, 1997 : 39). Cette sacralisation n’ a cessé de s’affirmer au cours des siècle suivants, puis s’est trouvée renouvelée par les mouvements avant-gardistes successifs au XXème siècle qui assignent à l’artiste le rôle d’éclaireur du futur.

    Mais depuis plus d’un siècle le prestige tiré par l’artiste de sa maîtrise technique associée à son talent expressif s’étiole lentement. Marcel Duchamp et ses ready-made, puis les mouvements conceptuels, ont décrédibilisé le critère de l’ingéniosité technique. L’idée de l’œuvre suffit désormais à faire un artiste.

    Les industries culturelles ont organisé la reproduction massive des œuvres : l’objet d’art n’est plus une exception dans un monde dominé par la nature mais peut se voir intégré dans la banalité du quotidien. En même temps que l’œuvre perd son unicité, elle perd sa valeur « cultuelle » (Benjamin, 1939).

    Avec le cinéma, puis l’art cinétique, l’objet d’art est devenu mobile et multiple. Il ne vise plus à mobiliser l’attention contemplative. Il peut être changeant avec l’art processuel. Sa description devient plus complexe. Sa réception de ce fait est moins universelle et plus propice à l’idiosyncrasie.

    Enfin, du dadaïsme à Fluxus, le public est invité à participer à l’œuvre, il peut faire l’œuvre ou même devenir l’œuvre, la rendant totalement imprévisible et incontrôlable par son auteur et opposant le collectif anonyme au génie personnel. Le temps réel et l’éphémère en sont le corollaire qui s’expriment dans des happening ou des performances et s’opposent à l’éternité convoitée de l’œuvre muséifiable.
    Ces tendances lourdes du siècle précédent s’opposent au modèle pictural classique qui repose sur un objet unique, stable et signé par son auteur démiurge. L’outil numérique arrive après toutes ces révolutions artistiques et s’inscrit en grand exécutant des rêves qui l’ont précédé.

    Le processus qui a caractérisé l’évolution de pigpix, des Explorations à Recréation, témoigne de l’évolution dans le mode d’appropriation artistique des outils numériques que nous divisons en deux périodes : la période interactive et la période connective.

    La période interactive caractérise l’art numérique de ses débuts aux années 1990. C’est la découverte de l’alliance de l’image numérisée et de la programmation informatique. L’œuvre proposée n’est plus un spectacle linéaire tel le film cinématographique, mais un outil. Son public n’est plus un simple spectateur, mais plutôt un utilisateur ou un « spectacteur » ainsi que le qualifie Jean-Louis Weissberg (1999).
    Dès lors l’œuvre interactive devenue multiple perd son unité et sa monumentalité : il est probable qu’aucun spectacteur ne voit jamais la totalité de l’œuvre mais seulement des fragments, il est probable que deux spectacteurs ne voient pas la même œuvre, il est même possible qu’un même spectacteur ne revoie jamais la même œuvre, celle-ci n’étant qu’un « transitoire observable » pour reprendre le concept de Philippe Bootz (2007).

    Le créateur perd alors de son assurance, l’universalité de son message se brise, son pouvoir se confronte à celui du visiteur, dont certains prétendent même qu’il pourrait par son activité devenir co-auteur, voire auteur (Lévy, 1997).

    La période interactive qui a connu d’intenses débats sur « l’écriture multimédia » et s’est concrétisée par l’édition d’œuvres sur supports (CD-ROM) laisse place à l’ère connective caractérisée par la généralisation d’Internet et pose de nouveaux enjeux créatifs. Le nouveau régime tend progressivement à indifférencier l’activité locale de la machine de celle du réseau. Au dialogue autarcique homme / machine il substitue la multiplicité des connexions et favorise les échanges collectifs en temps réel. Il s’inscrit ainsi dans une dynamique participative qui devient progressivement la norme.
    Ainsi s’impose à l’artiste un dialogue et un partage de son effort créatif avec le public, celui-ci pouvant devenir le seul objet de l’œuvre. Le schéma classique de la communication artistique – émission (auteur créateur) / réception (public) – est remis en question dans un bain de création collective rendu possible par les potentialités du média / médium Internet, média en tant qu’outil de lien social, médium en tant que fournisseur de nouveaux outils techniques de création artistique.

    Avec Recréation, nous entrons dans cette dynamique connective basée sur le collectif et le processuel. L’essentiel ne tient plus forcément dans les objets que l’on créé, mais dans la dynamique collective générée autour de l’activité proposée. Le partage et l’échange deviennent les modalités d’un lien communautaire, s’opposant à l’ancien modèle de l’artiste surplombant.

    Au lieu de l’œuvre livrée à la contemplation du public, il y a ici un dispositif se présentant sous forme d’un espace créatif ouvert à la participation. Le public est invité à générer de nouvelles expositions composées des multiples déformations de l’œuvre originelle et d’un nouvel assemblage de ses fragments. Chacun participe à l’émergence de l’œuvre, peut la renouveler ou la réorienter. Celle-ci est évolutive, changeante et perpétuellement inachevée. Ses manifestations ne résident plus dans un résultat mais dans les multiples témoignages de son processus créatif.

    Avec la création numérique la participativité devient donc la clé du fonctionnement artistique, au détriment de la singularité de l’artiste isolé dans son génie mystérieux. Dans ces conditions, le public ne devient-il pas le nouveau détenteur de la fonction artistique ?

    2.2  Le spectateur créateur, mythe consumériste ?
    C’est effectivement la perspective qui semble ouverte : l’accès du plus grand nombre à la création, chacun pouvant aujourd’hui disposer d’outils autrefois réservés à des spécialistes. Les logiciels de traitement du son, de l’image ou de montage vidéo, associés à la disponibilité d’appareils performants et peu onéreux (appareils photos numériques, caméscopes) semblent permettre un accès aisé à la création que les fabricants de logiciels et matériels multimédias ont tout intérêt à encourager, ceci étant illustré par le slogan de Sony : « Go create ! »

    Ainsi l’acte créatif, autrefois réservé à une élite, pourrait être un nouveau pouvoir conquis par les masses dans une société ou arts et loisirs se mélangent pour permettre l’expression de chacun. On peut y voir la réalisation d’une société idéale rêvée par les utopistes du XIXème siècle, y compris Karl Marx pour qui, dans la société qui aura aboli la propriété privée des moyens de production, « tout le monde sera alors artiste » (cité par Chalumeau, 2003 : 86).

    Le rapport à l’œuvre d’art est ainsi profondément changé en une ultime étape de décultualisation. L’objet que nous qualifions aujourd’hui d’art fut d’abord vénéré en tant que divinité (idôlatrie). Il fut ensuite considéré comme voie de passage vers le divin (l’icône), supposant toujours le culte su spectateur. Ce culte se décala ensuite vers la personnalité de son auteur crédité d’un don exceptionnel, d’ordre divin. Le régime cultuel serait enfin caduc aujourd’hui puisque l’objet d’art pourrait émaner de tous, permettant la réconciliation de l’art et de la vie en opposition à la consécration muséale, autre thème développé par des penseurs utopistes ou anarchistes tels que Kropotkine (1892).

    La perspective de l’émancipation de tous avec la capacité offerte par la technologie à chacun de « faire soi-même » est aujourd’hui affirmée par Pierre Lévy : « l’évolution contemporaine de l’informatique constitue une étonnante réalisation de l’objectif marxien d’appropriation des moyens de production par les producteurs eux-mêmes » (Lévy, 1997). Cette vision optimiste paraît donc voir dans l’actuelle société de consommation alliée aux progrès technologiques de l’électronique la réalisation d’un idéal qui en paraissait pourtant bien éloigné.

    A cet optimisme technologique on peut ajouter les effets des courants participatifs dans l’art : la potentialité de l’objet d’art se transfèrerait aujourd’hui en chacun de nous, cet objet n’étant plus objet de vénération mais de communication sociale.

    Si l’on examine plus précisément les conditions actuelles de production de la création numérique nous sommes conduits à soulever des objections à cette vision optimiste, qui, si elle peut s’appliquer aux objets de loisirs proposés par le système marchand ne peut s’appliquer au paradigme artistique.

    Nous savons aujourd’hui que deux composantes peuvent entrer dans la réalisation d’une œuvre d’art : la maîtrise d’une technique et celle d’un concept. Sur le premier aspect les technologies numériques nous confrontent à des enjeux inédits. Alors que jusqu’au XXème siècle les technologies étaient relativement stables dans le temps, les modalités d’évolution de l’électronique, stigmatisées par la « loi » de Gordon Moore , opposent à l’artiste leur évolution frénétique et permanente. Le temps de la création est de plus en décalé du temps technologique.

    Les technologies et les outils numériques se succédent à un rythme très rapide dans le sens d’une complexification croissante. Dans les années 1980, à une époque pionnière de la micro-informatique de nombreux logiciels sont apparus dans l’esprit de « démocratiser » la création interactive, d’en ouvrir l’accès aux artistes et non aux seuls informaticiens. Les « logiciels auteurs », dotés d’une interface graphique et d’un langage de programmation simple, de type verbal , devaient permettre à des non programmeurs de se lancer dans la création d’applications multimédias.

    Après de nombreuses évolutions et l’arrivée d’Internet cette ambition d’élargir l’accès de la créativité à tous est devenue obsolète. La notion de « logicel auteur » a disparu et les applications de plus en plus complexes nécessitent une spécialisation accrue du fait de l’accroissement des difficultés à résoudre : contraintes posées par les systèmes de sécurité, gestion des communications en temps réel, fonctionnalités nouvelles, questions de compatibilité, diversifications des types de flux et transactions…

    Aussi les outils facilitants du multimédia vantés par le système marchand ne sont-ils le plus souvent que de pauvres gadgets destinés d’abord à du loisir familial et n’offrent pas la réelle maîtrise et liberté indispensables à un processus ouvert de création. Limités, ils proposent des effets standardisés et cachent les processus réels complexes. La vraie création ne peut se faire dans la facilité, elle nécessite une lutte avec la matière et cette lutte est particulièrement exigeante dans le numérique, science et technique, qui nécessite, avant le développement d’un savoir-faire, un apprentissage scientifique.

    L’aspect conceptuel de la création pose d’autres questionnements. La maîtrise conceptuelle peut se passer de la réalisation ou confier la réalisation à des spécialistes de la technique. Développer une réflexion sur l’univers numérique ne nécessite pas forcément d’en maîtriser les outils mais exige la compréhension de ses mécanismes. Mais il n’existe pas d’outils facilitant pour stimuler la réflexion. A l’inverse il apparaît plutôt que les outils dits « conviviaux » ont plutôt tendance à cacher la réalité de leur logique profonde et que les programmes immersifs ont tendance à noyer leurs utilisateurs plutôt qu’à leur ménager le recul nécessaire à la pensée.

    Pour toutes ces raisons nous pensons que la fonction artistique, pour autant qu’on lui associe des critères de maîtrise technique ou d’originalité conceptuelle, n’est pas facilitée dans ou par l’art numérique. Les possibilités créatives offertes au plus large public avec l’attrait de la facilité d’accès sont orientées vers une création cadrée par les limites d’un dispositif, que ce soit dans le cadre des outils largement diffusés ou dans Recréation notre réalisation présentée ici. Le spectateur a une injonction d’activité mais reste sous étroit contrôle. Il ne pourrait acquérir un véritable pouvoir créatif qu’en subvertissant le dispositif proposé. Ce pouvoir subversif pourrait émerger non dans la soumission à ces dispositifs fermés mais dans des pratiques imprévues.

    2.3 La question de la distinction artistique
    Erosion de la fonction auctoriale, participation du public illusoire, comment imaginer le devenir de la création artistique avec et par le numérique ?
    La logique connective engendre un nouveau rapport à l’information, caractérisé par l’abondance et le flux permanent. Si l’accès à l’information devient aisé pour tous depuis son domicile, Il devient tout aussi facile de s’exprimer, de s’auto éditer ou de s’auto produire sur le net. Ceci ne garantit pourtant aucunement une visibilité ou influence.

    Qui décide de l’attribution du label d’artiste ou de la nature artistique d’une œuvre sur le web ? La reconnaissance traditionnelle dans l’art passe par des institutions légitimantes et des lieux dédiés. L’accès à ces lieux passe par une sélection qui est censée agir comme un filtre pour réserver l’exposition aux œuvres de meilleure qualité. Pour la peinture la galerie est la première étape, le musée ou le Centre d’art sont les lieux de consécration.

    Internet, à la fois médium et lieu d’exposition, mélange indistinctement tous les contenus sur un même niveau, la seule légitimation étant le classement des moteurs de recherche. Celui-ci est lié à la mesure de flux et non à des critères qualitatifs quant-aux contenus. La notion même de contenus qui mélange dans l’indistinction toutes sortes d’informations, qu’elles soient de nature commerciale, institutionnelle ou artistique, la disparition des étiquetages, des frontières et des références, produisent une bouillie culturelle au sein de laquelle la discrimination devient difficile.

    Mais cette indistinction artistique n’est pas une création de l’Internet, elle fait partie d’abord de l’évolution de la nature des œuvres d’art et de leur perception dans le monde contemporain. Le rôle de l’artiste en tant qu’éclaireur de son époque et de l’œuvre en tant que référence tendent à s’amenuiser : les critères esthétiques se multiplient et s’individualisent, la diversité est mise en avant. Yves Michaud (2003) évoque un art « à l’état gazeux ». Dans ce nouveau régime l’expérience remplace l’œuvre-objet. La multiplicité des expériences esthétiques, au travers du tourisme, des loisirs ou de la publicité, se substitue au recueillement et à la contemplation. « Le monde l’art ritualisé, sacralisé, cramponné à sa précieuse rareté théâtrale, se vide peu non seulement d’œuvres, mais de participants. (…) Au-dehors, joyeusement et inconsciemment, tout le monde est artiste et baigne dans l’art » (Michaud, 2003 : 55). Dans ces conditions « l’artiste n’est ni un guide, ni un éclaireur, mais un médiateur » (Michaud, 2003 : 98).

    Ainsi ces phénomènes de dissolution que nous évoquons n’abolissent pas les fonctions (artiste / public) mais les redéfinissent. Si la déspécification informationnelle est en marche on n’assiste pas pour autant une déspécialisation dans la répartition des tâches et des fonctions sociales. L’art numérique, nous l’avons montré, demande des compétences techniques de plus en plus spécialisées et évolutives.
    L’artiste n’est plus absolu démiurge, il perd en glorification potentielle. Sa fonction est plus modeste, plus sujette à l’anonymat. Il est un opérateur qui doit compter avec la force sociale du réseau qui lui-même devient force créatrice, ainsi que l’évoque Mario Costa : « l’Internet constitue actuellement un hyper-sujet technologique où toute subjectivité individuelle ne « surfe » pas tant qu’elle se « noie » et se dissout. » (Costa, 2003 : 60).

    Conclusion
    De la peinture pigmentaire à la création numérique le saut est donc bien plus que technologique, s’accompagnant de remises en question fondamentales dans la culture et la civilisation. Les modèles de la création en place depuis des siècles sont ébranlés et les positions établies bousculées.

    La conjonction des évolutions socio historique et technologiques entraîne un mouvement de démocratisation consommatoire et de désacralisation des anciens totems artistiques. L’œuvre à expérimenter se substitue à l’œuvre à contempler. L’artiste n’est plus donneur de leçons mais un simple pourvoyeur de distractions parmi d’autres.

    Mais paradoxalement, alors que beaucoup d’artistes de l’art contemporain semblent dépérir dans la production d’œuvres « infra-minces » (Baqué, 2004) avec des réalisations minimales illustrant des concepts inconsistants, l’artiste numérique se voit valorisé par sa maîtrise de techniques complexes, et en cela il n’est pas si loin de la figure du peintre.

    La compréhension des technologies et de leurs enjeux ouvre de nouveaux territoires créatifs. La matière numérique, particulièrement exigeante, n’offre au grand public que des usages banalisés et conformistes. Il y a donc tout lieu de penser que les passeurs que nous avons évoqués peuvent être plus que des amuseurs, mais d’indispensables défricheurs, semeurs de points d’interrogation dans les certitudes de l’univers techno-scientifique.


    Communication Scientifique Ludovia 2008 par Michel LAVIGNE (Extraits)
    Maître de Conférences Université Paul Sabatier – Toulouse III
    LARA (Laboratoire de Recherche en Audiovisuel) – Université Toulouse II le Mirail

  • Consommer pour créer, créer en consommant : la consocréation

    La consocréation, contraction que nous avions déjà proposée il y a dix ans lors d’un congrès organisé par l’opérateur historique de téléphonie français (GOBERT, 2000), désigne un ensemble de comportements dont le développement a été favorisé par la massification des technologies de l’innovation. Aussi, dans un premier temps sera évoqué le contexte de l’étude ainsi que des positionnements liés aux théories de l’imaginaire, avant d’aborder un travail d’enquête conduit auprès de 245 sujets et des observations systématiques in situ. Ce travail participe de la construction d’un objet théorique destiné à répondre de ces phénomènes où consommation et création sont indissociables et que nous décrivons comme consocréatifs.

    1.    CONTEXTES ET POSITIONNEMENTS
    1.1        Contextes : une décennie d’observation

    Cette intervention fait suite, à presque dix ans d’intervalle, à une allocution prononcée lors « des Journées de la Net Compagnie » en mars 2000. L’objet de ce congrès était de faire partager la créativité du groupe France Télécom, hors des cénacles restreints de la R & D et des initiatives locales, afin de mutualiser les bonnes pratiques tout en fédérant une dynamique institutionnelle autour du plan média « bienvenue dans la vie.com ». Pour quelques-uns, il s’agissait de réunir dans un contexte porteur des chercheurs intéressés par l’observation des conduites et l’anticipation des usages futurs du web. Il faut se rappeler le manque de lisibilité lié au foisonnement des fournisseurs d’accès à Internet (FAI) régionaux tels que « Pacwan » à Aix-en-Provence, qui concurrençaient les structures établies comme Club Internet, AOL, etc. Le déroulement du processus semblait pourtant déjà s’apparenter à celui de la mutation précédente des radios libres : au sentiment de liberté et d’entreprendre succédait la nécessité de consolider des positions établies par des concentrations successives. Il en résulte la scène numérique actuelle, où l’initiative laissée aux nouveaux entrants ne concerne plus la gestion des accès aux réseaux, mais l’invention des nouvelles pratiques de consommation.

    Deux profils émergeaient, avec d’une part des utilisateurs en demande de machines simples, rapides à mettre en œuvre et aux fonctionnalités limitées (1) et d’autre part des sujets intéressés par des produits polyvalents facilitant le transfert à domicile de moyens « professionnels » dans les domaines de l’édition, de la création vidéographique et de l’interactivité (2). Les « bureauticiens », utilisateurs des fonctions d’édition avancées de traitements de textes, sans pour autant exploiter des applications comme Quark Xpress, étaient simultanément désireux de bénéficier de toujours davantage d’autonomie et d’une meilleure gestion de leurs budgets temps, nécessaires à l’apprentissage des fonctions justement porteuses de cette autonomie fortement liée à la possession et la maîtrise de l’outil.

    Nous avions proposé de rapprocher les pratiques des créateurs adeptes de machines polyvalentes et complexes avec celles des futurs usagers, qui sans exprimer de véritables attentes les révélaient par leurs comportements avec d’autres supports comme les consoles de jeux, les Minitels et le multimédia. Les publics experts étaient en demande d’interfaces simples, comme celles que mettra en œuvre Google, alors que les néophytes voyaient dans l’Internet un nouveau média de masse, proposant des contenus porteurs de cheminements et d’indications de consultation. L’étude avait révélé que les publics en demande de situations nouvelles de consommation étaient plutôt néophytes en informatique ou centrés sur des usages répétitifs, alors que les créateurs de contenus, y compris de « simples » textes, développaient rapidement une expertise pour les produits nouveaux. Cela nous avait conduits à décrire un profil de « débutant expert », par ailleurs qualifié « d’apprenant expert » (Bigot, 2005, p. 5) où les expériences périphériques favorisent l’anticipation et l’adaptation à des apprentissages nouveaux.

    Nos observations in situ établissaient l’existence répandue dans l’imaginaire d’un rapprochement entre possession et maîtrise lorsqu’il s’agit de technologies. La propriété engendre la proximité de l’outil qui à son tour en favoriserait l’apprentissage. La disponibilité seule peut déjà créer une illusion de compétence (Gobert, 2000, p. 7). Ces éléments pourraient être rapprochés de la notion d’illusion de contrôle développée par Gabriel Moser décrivant l’un des moyens d’acceptation des stress urbains comme l’entretien de la possibilité de partir à la campagne (Moser, 1992). Ici, il s’agirait plutôt d’acquérir l’outil pour nourrir comme illusion de contrôle l’existence de capacités personnelles de réalisation : si le besoin de créer apparaît, la possession du matériel en donnera les moyens ; il n’y aura plus qu’à apprendre à l’utiliser. Le premier caractère de la virtualité s’exprime ici au sens de Rousseau qui lui conférait d’abord de la potentialité et non pas de la probabilité (Littré, 1872).

    La mercatique laisse en effet accroire qu’utiliser des logiciels est devenu si simple qu’il n’est plus utile (et peu respectueux de l’environnement) d’en imprimer les modes d’emploi. Elle entrouvre ainsi la porte sur cette dimension allusive de la consommation qu’est le rapprochement fonctionnel de l’avoir et de l’être. Posséder l’outil, c’est être en capacité de l’utiliser, donc de créer, d’être soi en se révélant par des actes. D’un autre coté, cela implique de choisir l’objet le mieux adapté à la satisfaction des besoins immédiats tout en anticipant ses évolutions futures. À moins de fabriquer soi-même ses instruments dans une dynamique artisanale, ce que l’informatique permet avec, par exemple, les bases de données, il est toujours possible de tenter de participer de l’évolution du développement des outils en informant les concepteurs des améliorations souhaitées. Deux dynamiques inverses agrègent la consommation et la création : celle de participer de la conception des produits de consommation et celle de l’utilisation de ces produits à des fins de création.

    Les pratiques et les usages sont alors susceptibles d’être décrits non pas sous l’angle de la consommation ou de la création, mais par une association des deux termes formant un oxymore : « consocréation ». Cette figure de style a pour objet de rapprocher deux contraires pour en augmenter la portée comme dans « réalité virtuelle ». Nous rappelons l’ébauche de définition proposée par le doctorant qu’était l’auteur en 2000 : « la consocréation est d’une part l’obligation ou l’incitation forte faite aux créateurs de consommer des outils ou des contenus pour réaliser des productions personnelles ou collectives et d’autre part l’incitation créative associée à chaque acte de consommation. Elle est de nature sociale dans sa contrainte adaptative aux normes qui imposent de consommer pour créer, et communautaire lorsque les consommateurs sont conduits à tenter de participer du processus de création de ces outils et de ces contenus en émettant leurs désirs et leur expérience auprès des concepteurs. » (Gobert, 2000, p. 3).

    Cette définition est critiquable car elle n’intègre pas de réflexion approfondie sur les statuts de l’acteur, de la co-action et surtout de la co-création. Des approches théoriques sont écartées alors qu’un traitement par les pratiques et usages de médiation aurait apporté des éclairages fort utiles. Le choix de registres économiques et sociologiques situe un rattachement institutionnel et des logiques de recherche-action gouvernées par le contrat qui liait le chercheur à son commanditaire. Toutefois, les pistes tracées sont exploitables dans d’autres cadres interprétatifs de SHS et participe du débat en apportant un regard original de sciences humaines.

    1.2        Positionnements
    Le passage de la technique à la technologie (Ellul, 1990), c’est-à-dire le transfert de créations communautaires dans l’espace social et donc leur insertion dans les pratiques et les usages, s’accompagne d’une émergence de représentations collectives. Ces représentations sont nourries d’histoires événementielles porteuses de valeurs fortes transmises par des mécanismes qui relèvent de logiques de perpétuation communautaire (Gobert 2007) comme la liberté sur Internet, l’accès aisé aux savoirs ou encore la capacité personnelle de réalisation professionnelle avec son ordinateur domestique. Deux éléments stigmatisent ces positions : d’une part la polyvalence de l’outil informatique ainsi que son adaptation aux desiderata de chacun, et d’autre part l’accompagnement, voire l’assistance par la machine, dans la quête d’une autonomie de la connaissance (Varela, 1989) pour exploiter les applications, modifier ou créer des documents. Do it yourself, « faire avec peu de moyens », thématique de ce nouvel opus du colloque Ludovia, est proche du centre du noyau central des représentations et participe des mythèmes structurant l’imaginaire technicien (Durand, 1996). Cet imaginaire concerne l’ensemble des technologies, de l’automobile (Monneyron, Thomas, 2006) à l’aviation (Marck, 2006) et traverse selon des modalités variables toute la société.

    L’expression « Do it yourself » est plus commune chez les anglophones que dans l’espace social français qui la confond parfois avec help yourself. Seuls les milieux professionnels et les communautés d’objets rapprochées par des pratiques instrumentales et des cultures interprétant ces pratiques, qui installent dans leurs échanges des habitus linguae émaillant leurs contenus discursifs de termes d’origine étrangère, l’emploient régulièrement. Dans les milieux du développement de produits numériques et des joueurs, elle n’en constitue pas moins un paradoxe car le « peu de moyens » qu’elle décrit, appliqué à l’informatique, signe une perception volontairement minimaliste de configurations onéreuses aux capacités et à la polyvalence considérables. Il est vrai qu’il y manque toujours quelque chose et que sitôt acheté, le matériel peut être comparé à des produits plus performants. Il semblerait que ce « peu » valorise la dimension personnelle de l’utilisateur qui parvient à déjouer les embûches liées au défaut relatif de moyens et de formation, pour réaliser, parfois avec des variantes, un objectif élevé. Do it yourself, rapproché des premiers et quatrièmes pronoms personnels, est un facteur identitaire, une marque de reconnaissance dans une culture normée par les bornes matérielles de la créativité. Il est concomitant d’un imaginaire collectif faisant de l’astuce personnelle et des « débuts dans un garage » un élément fort de la capacité à se réaliser par soi-même.

    Les pratiques et les usages de médiation des technologies signent des dynamiques d’individuation collective (Simondon, 1989) où chacun dispose de la potentialité de concrétiser des productions et même des créations personnelles. L’informatisation de la société (Baquiast, 1998) juxtapose ainsi différents niveaux de réalisation par la possibilité donnée aux citoyens de consommer des outils numériques et d’en apprendre le fonctionnement, notamment au cours de la scolarité. Cette généralisation n’aurait pu être possible sans d’une part, l’intégration des produits multimédia, vidéo, télévision, téléphonie, et d’autre part, sans des actions au niveau de l’Etat relayées par des politiques publiques incitant à l’actualisation massive de processus décisionnels d’achat. En outre, l’évolution des interfaces, en apportant de la simplicité et de la convivialité, a largement favorisé l’engouement général. L’un des questionnements que pose cette évolution est la confusion possible entre les termes personnel et personnalisé, le premier qualifiant un comportement individuel et le second un choix de paramétrage d’interface comme son apparence.

    Tout se passe comme si ce point de vocabulaire résumait à lui seul nombre de confusions entretenues et débordant du cadre de la sémantique pour amalgamer des pratiques jugées inopportunes comme le copier/coller illicite avec la production personnelle. En effet, qu’en est-il de ces interfaces personnalisables qui, inspirées par l’évolution des systèmes d’exploitation proposent désormais de « créer son blog » ou « son site » avec les applicatifs Iweb, Emonsite ou tant d’autres ? Un habillage préprogrammé y est mis à la disposition de l’utilisateur pour lui épargner les contraintes techniques. Dans des espaces et des champs dédiés, il est invité à substituer aux images et aux textes de démonstration ses propres contenus, réalisés avec les moyens les plus divers comme la fonction photo d’un téléphone mobile. Au final, la terminologie employée par l’interface dans les fenêtres de dialogue qualifie le rendu final de production « personnelle », alors qu’elle serait plutôt personnalisée.

    Qu’en est-il de cette production ? Un regard attentif est porté sur la nature et les méthodes de conception, de réalisation, de destination. La multiplication des « assistants » où l’interface préenregistrée influe sur la construction d’une illusion de création individuelle tout en faisant l’économie d’un investissement en conception graphique et en code, engendre la consommation d’un « contenu de contenant ». L’on exploite un organon, un outil organisateur et modérateur, pour non plus créer, ce qui caractérise éventuellement les images, vidéographies ou textes insérés dans ces « moules », mais pour consocréer. En outre, le temps de la production personnelle s’organise par l’insertion de « récréations » matérialisées par l’audition de musiques (généralement en synchronie), la consultation de vidéographies et d’Internet.

    Les outils de création accompagnée constituent ainsi une balise sur le continuum logique qui va de l’autonomie du sujet jusqu’à la dépendance. Ces outils, qui organisent le savoir et les séquences de production sont d’autant moins neutres qu’ils sont chargés d’idéologie par les équipes qui les conçoivent et par leurs contenus « libres de droits ». Lorsqu’il ne s’agissait que d’exploiter les cliparts de Microsoft Word, personne ne s’y trompait. Mais la qualité des modèles est désormais bien meilleure, et la tentation est grande de recourir aux éléments fournis avec les logiciels pour bâtir des structures graphiques avec des « thèmes » comme ceux d’Apple keynote. Cette forme d’assistance dépasse le cadre de l’accompagnement didactique des tutoriaux et entretient le rapprochement entre création et consommation. Elle redessine le champ des usages et encadre une perception d’autonomie par la capacité à produire, bien que ce soit dans les limites de la version du logiciel.

    À chaque nouvelle mouture correspondent de nouveaux modèles, de nouveaux thèmes, de nouveaux masques. L’industrie des synthétiseurs de musique avait initié cette pratique dès les années 1990 : chaque version d’un clavier proposait des banques de sons inédites auxquelles « s’abonnaient » littéralement les instrumentistes en achetant régulièrement le dernier modèle. En irait-il de même pour les thèmes décrits précédemment ? Nous testerons dans une étude ultérieure l’influence de leurs mises à jour lors des renouvellements de logiciels. De même, il n’y a qu’un pas de l’utilisation de contenants à celui de contenus, et force est de questionner l’émergence de conduites très répandues comme les copier/coller, partiel, agrégeant ou granulaire.

    À l’inverse, pour les concepteurs d’outils, un retour est nécessaire pour produire les supports attendus par le public. Alex Muchielli parlait de marketing tribal pour identifier les méthodes de rapprochement entre demande de consommation, distribution et production liées à un segment particulier de marché (Muchielli, 1999). Nous pourrions aussi évoquer les mercatiques communautaires et sociétales, dont l’analyse de la demande prend en compte la dimension interprétative d’une communauté, par exemple celle des développeurs, et d’une société, lorsqu’une technologie est attendue par un groupe plus élargi. Les milieux informatiques utilisent depuis toujours les retours d’information de la clientèle et les appels de service après vente dits « hotline » pour pointer les imperfections techniques et en établir une traçabilité.

    Rapidement, les hotlines ont reçu pour mission d’identifier la durée pendant laquelle des imperfections aisément corrigibles étaient acceptables de manière à constituer une réserve d’évolutions futures à présenter comme autant d’innovations. Les destinataires experts de ces politiques de distribution se sont adaptés en créant d’abord des groupes de discussion, puis des communautés plus structurées avec des doubles associatifs dans la vie réelle. L’avènement des outils numériques dans l’espace social a apporté avec eux une part des pratiques qui lui sont associées, comme l’engagement de certains clients de participer à l’élaboration des produits. Ce qu’ils ne sont pas en état de créer par eux-mêmes, ces clients vont tenter de le faire réaliser par les concepteurs des outils qu’ils consomment. La pratique s’étend et un petit gisement de sites spécialisés apparaît. Des internautes mettent en ligne des pages personnelles dans lesquelles ils décrivent comme « citoyenne » la participation à l’évolution des produits pour « donner du sens à la consommation » (Perchat, 2006). Le regard par la consocréation, qui postule de fortes capacités d’adaptation aux contextes et d’exploitation des contenus, implique une démarche qualitative. Il ouvre un nouveau champ qui favorisera le questionnement de l’alliance naturelle entre consommation et création.

    2.    ETUDE ET OBSERVATIONS
    2.1        Modalités

    Au cours de la première partie, nous avons évoqué le caractère opportuniste conféré par les fonctionnalités des ordinateurs à des utilisateurs toujours davantage familiarisés avec les machines numériques et les écrans. La proportion la plus importante est en demande d’initiatives et d’idées de consommation (1) alors qu’une autre recherche des moyens de production de contenus et d’outils facteurs d’autonomie (2), et qu’enfin, une frange manifeste sa volonté de participer aux processus d’élaboration et d’évolution des produits (3). Ces catégories ne sont pas étanches et les mêmes individus, selon le moment, évoluent de l’une à l’autre de manière synchrone ou asynchrone en fonction de leur activité ou même d’en privilégier une dans un temps donné de leur existence.

    Ces éléments ont été travaillés lors d’une enquête psychosociologique administrée par questionnaires en 2007 et 2008 sur un terrain empirique à l’IUT de Perpignan. Une passation avait été réalisée dans un autre établissement, un an auparavant, à l’IUT de Provence, site de Digne-les-Bains. Les résultats avaient été exploités comme préliminaires de recherche et anticipaient les travaux présentés ici. La population est constituée de 245 étudiants âgés de 17 à 22 ans. L’effectif présente une forte disparité entre hommes (64) et femmes (181), qui sont trois fois plus nombreuses que leurs homologues masculins. Il eut été possible d’équilibrer l’échantillon en retirant le nombre de sujets féminins nécessaires et donc n’en conserver que 64. Nous pourrions également configurer une parité entre scientifiques et littéraires à 81 individus. Dans les deux cas, une perte importante de données en résulterait et de plus, l’échantillon ne serait plus représentatif alors qu’il s’inscrit dans une logique de genre et de milieu puisque davantage de femmes et de littéraires peuplent les universités.
    •    Sexe : (Femmes : 181, Hommes : 64)
    •    Filière : (Scientifiques : 81, Littéraires : 164)

    Les étudiants, en premier cycle du supérieur, disposent d’une expérience bureautique inégale. Le fond théorique n’est pas maîtrisé, quoique les fonctionnalités les plus simples ou socialement les plus demandées soient connues : 26,2 % des sujets confondent le navigateur Internet Explorer avec Windows XP et 38,3 % n’ont jamais remarqué le suffixe renseignant le format d’un document. Ces jeunes gens, par ailleurs tout à fait capables d’obtenir d’excellents résultats dans des matières complexes, « font confiance » à l’explorateur pour retrouver les dossiers et les fichiers enregistrés automatiquement par les applications, mais n’en gèrent pas bien par eux-mêmes le rangement. Ils exploitent l’ordinateur surtout à des fins de bureautique, de liant social ou de jeu. Les étudiants savent chatter, parcourir un forum, n’ont pas peur de créer un blog, de transférer des photos, de chercher et trouver sur Internet des vidéos qu’ils ne parviennent pas toujours à visionner car un plugin fait défaut. Presque tous terminent « proprement » une session (99,1 % !) et s’insurgent quand d’aventure en fin de séance, ils n’en ont plus le temps. Cinq sujets disposent d’un Macintosh, dont un en filière scientifique (GCGP), et 17,2 % possèdent un ordinateur portable.

    Concernant l’appétence de l’ordinateur, 43,7 % émettent des opinions tranchées, entre résistance (6,3 %) et fort intérêt (37,4 %), alors que 57,4 % se déclarent neutres. Le différentiel de 0,1 % est dû à ceux et celles qui, aux questions appareillées, ont montré des variations. En outre, l’appréciation de la machine diffère en fonction de l’activité : tel qui se déclarait « allergique » chatte allègrement et rappelle que « ce n’est pas pareil » lorsqu’il est surpris par le référent pédagogique. Le médium, pour peu qu’il soit simple d’utilisation et aisé à mettre en œuvre, s’efface au profit de ses fonctionnalités. Les activités les plus en vogue pendant les pauses sont concentrées sur les sites Internet proposant d’une part de petits applicatifs en Java rappelant étrangement ces logiciels ludiques des années 1990 tournant sur Atari et Amiga, et d’autre part des jeux de culture générale en réseau dans la salle de TD et avec d’autres établissements. L’expression des ressentis ne correspond pas nécessairement aux observations pratiquées in situ. C’est pourquoi les résultats des questionnaires sont saisis dans une base de données File Maker Pro, puis exportés vers Modalisa et systématiquement rapprochés d’une démarche qualitative basée sur des observations in situ. La méthodologie propose ainsi un parcours mixte entre éléments quantitatifs, entretiens directifs et évaluations qualitatives des travaux.

    L’un des objectifs de l’étude était de participer d’un questionnement sur les pratiques de plagiat qui se sont multipliées avec l’aisance fonctionnelle du copier/coller de contenus diffusés sur Internet. Interpellant les équipes pédagogiques, le phénomène est d’autant plus sensible qu’il semble difficile à maîtriser. Il s’agissait, non pas de statuer sur des aspects éthiques ou moraux, mais de découvrir le ressenti des apprenants sur la notion de travail avec pour résultats attendus une opposition entre-temps individuel et temps contraint. L’hypothèse est vérifiée d’une évolution profonde des représentations collectives de l’activité chez les jeunes, considérée en premier lieu comme un investissement pris sur le loisir et appelant une compensation d’ordre matériel. La notion de projet n’apparaît (1,3 %) presque pas ; ce qui est mis en avant, c’est le ratio entre gain et production dans l’enceinte universitaire. Le noyau central de la représentation englobe des items différentiés issus de la vie étudiante et des mythèmes professionnels.

    Le plagiat, ou plutôt le copié/collé, n’est pas considéré sous son aspect normatif, et cela y compris dans les filières juridiques, mais comme une astuce visant à améliorer le ratio précédemment évoqué. À l’oral, quelques rares sujets expriment un bémol : « vous cherchez à nous faire culpabiliser », même si ce n’est écrit dans aucun questionnaire. Le sentiment prédominant n’est pas celui d’une quelconque activité de piratage, bien que l’on ait conscience de ses actes. La priorité est donnée à l’optimisation de la gestion du travail en fonction des impératifs liés au contexte, à l’attente de l’institution et à son pouvoir de coercition. Il s’agit donc d’abord d’une réponse adaptative aux exigences du milieu (universitaire) et aux moyens (informatiques) qui sont systématiquement interprétés sous un aspect quantitatif. Le copier/coller, que nous avons présenté comme une continuation logique de la consommation de modèles personnalisables et de contenus libres de droits, pourrait-il être perçu comme une méthode, certes critiquable, mais une stratégie tout de même, d’adaptation à la norme ?

    2.2        Consocréation

    Le rapprochement des éléments de l’étude avec le corpus d’entretiens dévoile une forte complexité des rapports entre consommation et création. L’attribution des pratiques nouvelles à l’aisance fonctionnelle des ordinateurs n’est pas suffisante et doit être repensée. Certes, les opportunités sont saisies, mais elles ne font que se substituer aux usages antérieurs : le copier/coller n’est pas né avec l’ordinateur. Par exemple, une partie de l’étude montre clairement que les rendus sur support papier écrits à la main, sans Internet, contiennent des éléments empruntés, même s’ils s’inscrivent différemment dans les productions personnelles où ils sont notablement plus courts (Gobert, 2008 b). Il est toutefois possible d’objecter à cette interprétation que c’est l’habitude contractée avec les machines numériques qui influence les méthodes de travail sur supports analogiques.

    Le programme pédagogique du premier semestre invite les étudiants à découvrir la fabrication d’un site web. Au début sont abordés les fondamentaux comme la structure, les règles de nommage des fichiers, la colorimétrie sous Gimp et Adobe Photoshop Elements, etc. Ensuite, par groupes de 2 à 4, les apprenants ont pour mission de créer un site Internet. La thématique est laissée libre, exception faite de l’obligation d’insérer les CV et lettres de motivation des auteurs. Les sujets (libres) les plus divers sont traités. Certains intègrent une stratégie liée aux projets tuteurés et d’autres sont totalement déconnectés de la réalité universitaire. Enfin, bien que les enseignements aient proposé une sensibilisation à des éditeurs de sites comme NVU et Macromédia Dreamweaver 2, il est établi qu’au final, c’est le résultat qui sert de base à l’évaluation, quelles que soient les modalités de réalisation. Une grille de notation est fournie par avance qui comporte trois familles de critères : qualité de la structure (plan), qualité stylistique et graphique, richesse des contenus. Certes les résultats relèvent de notations chiffrées toujours discutables, mais elles permettent de dégager des éléments de lisibilité.

    Les évaluations montrent sans équivoque l’existence de stratégies des étudiants en fonction des résultats obtenus dans les autres disciplines. Lorsque l’informatique doit « remonter » la moyenne générale (41,3 %), les rendus comportent un travail graphique important avec calques et une volonté d’employer les outils « difficiles ». Inversement, l’absence d’une telle nécessité (27,1 %) se manifeste par la remise d’un produit de type blog créé en ligne avec un assistant et des photos récupérées sur le Net. D’autres (31, 6 %) choisissent la voie médiane en exploitant des contenus personnels avec un applicatif tel qu’Iweb. Il est tout à fait possible de réaliser un blog répondant aux attentes pédagogiques. Les sujets manifestent pourtant des doutes car ils n’ont pas le sentiment de travailler et éprouvent des difficultés à associer la simplicité de ces interfaces avec la complexité d’un travail en profondeur sur les images qu’ils pourront y insérer. Cet aspect est particulièrement sensible car il signe un fonctionnement sous forme d’élévation des niveaux de l’action (Joule, Bauvois, 2004).

    La théorie d’origine postule de l’individu qu’il englobe dans un niveau d’action élevé la somme des actes qui le composent. Ainsi, pour l’utilisateur d’un appareil photographique, l’objectif de prendre un cliché occupera ses pensées alors même qu’il le sortira de l’étui, effectuera les réglages, appuiera sur le déclencheur. L’une des conséquences vérifiée incidemment au cours de l’étude est que les sujets accordent à l’ensemble des actes un degré qualitatif équivalent à celui qui est attendu au niveau élevé. Ils éprouvent des difficultés à gérer des gradients qualitatifs différentiés dans le cadre d’un même référentiel. Par exemple, à l’usage aisé de l’interface graphique d’un assistant de blog correspond en majorité (67,2 %) une simplicité des contenus : les photos ne sont pas travaillées, les commentaires bâclés, etc. Il semble donc utile de questionner la partie élevée des niveaux de l’action pour influer sur les contenus.

    Le cheminement sur le continuum qui va de l’usage massif des contenus et outils finalisés à la réalisation personnelle et en autonomie dépend profondément de la motivation. Cette dernière constitue à elle seule un champ considérablement travaillé par les sciences humaines et sociales. Nous avons interrogé les sujets sur l’appropriation et la personnalisation des contenus produits, après avoir noté que ces derniers sont systématiquement « adaptés » aux exigences du référent pédagogique avec un souci d’économie de moyens. Dans un tel contexte, les contenus sont déclarés à 89,7 % appropriés car c’est le temps de création du dossier et le travail d’organisation des données qui constituent les critères dominants. Personne n’est dupe, même si 98,9 % exprime rendre un travail personnel. Une problématique de l’appropriation s’esquisse ; force est d’observer qu’elle ne se suffit pas en soi, mais qu’elle est systématiquement rapprochée d’un objectif.

    En d’autres termes, ce qui était compris par le chercheur comme un acte de création est davantage conçu comme une production adaptée à la nécessité telle qu’exprimée ou interprétée. Accessoirement, la stratégie d’économie s’insinue dans les productions pédagogiques. Une certaine culture professionnelle aurait pu laisser croire que seuls les mauvais élèves l’utilisent. Les machines auraient étendu le procédé à l’ensemble des promotions, même s’il semble que l’expertise et la motivation favorisent une dimension créative au détriment de la seule consommation. La maîtrise de l’outil engendre chez l’utilisateur une aspiration à la création, voire à la co-création.

    Nous avons demandé aux 245 étudiants d’identifier et de classer les activités, qui, selon eux, seraient plus assujetties à la consommation ou à la création tout en précisant lesquelles ils pratiquent. Neuf catégories sont présentées dans le graphique, à l’exception des classes « outils personnels et SDK » qui n’a pas été identifiée et « découverte de l’ordinateur et d’Internet » trop évidente ou trop ancienne. Notons que les sujets identifient bien plus aisément la dimension créative que le soubassement consommatoire qui n’est pas toujours perçu.

    Exemples de ratios entre création et consommation dans diverses activités numériques

    Le graphique présente sous forme d’exemples des proportions approchées entre consommation et création. Les choix d’activités pointés par les sujets et leur classement n’englobent pas l’ensemble du spectre des usages. Par ailleurs, la très forte disparité des réponses selon les investissements personnels de chacun nécessite une publication détaillée : pour un gamer, le jeu est ce qu’il y a de plus créatif… De même, le parti pris qui attribue à des actes, a priori purement consommatoires, une part de créativité et inversement peut être discuté. Par exemple, en ce qui concerne la vision de vidéographies, nous rejoignons la position balzacienne qui attribuait au lecteur une dimension de construction personnelle de la lecture de ses ouvrages. De même, Michotte décrit des phénomènes d’empathie se manifestant par la « correspondance entre les mouvements de l’acteur et ceux plus ou moins semblables qu’ils induisent chez le spectateur provoque la fusion de ces processus (…) l’acteur sera « devenu », l’aspect extérieur de la personne du spectateur. (Meunier, Peraya 2004, p. 177).

    Inversement, il n’existe pas d’acte créatif entièrement débarrassé d’une composante de consommation, ne serait-ce que par les outils qu’il nécessite, la matière première éventuellement employée et la culture qui lui prélude. Le clivage entre les deux composantes est opéré à des fins didactiques et les données ne sont pas polarisées comme elles le sont dans la représentation. Nous nous attendons néanmoins à rencontrer davantage de créativité chez les publics experts qu’auprès de leurs homologues débutants, non que ces derniers en soient dépourvus, mais qu’elle s’exprime dans d’autres contextes. Dans une perspective mercantile, ceci explique la nature des approches globales observables en grande distribution, alors que le chercheur, qui n’est pas nécessairement étranger aux préoccupations sociales, se situe dans l’analyse des tendances.

    Assurément, si l’échantillon avait été issu d’une population d’élèves ingénieurs, le résultat aurait été différent. Alors que les ratios évoqués par les sujets sont sensiblement ceux qui sont représentés sur le graphique, quoique plus tranchés (pas de 10 % de marge), le nombre d’occurrences est intéressant. En effet, les modalités du facteur « exemples d’activités » les plus citées sont certainement les plus utilisées : Internet, bureautique, chat, e-mail, jeux et forums. La distinction entre jeux simples et jeux complexes, en ligne notamment, provient directement des résultats de l’enquête. Ainsi en est-il du copier/coller sur lequel les sujets se répandent longuement mais sans aborder la continuité logique avec les assistants en ligne et les contenus libres de droit. De même, ce sont encore les sujets qui évoquent spontanément l’adaptation aux attentes et aux contraintes qui les accompagnent, tout en insistant sur le fait qu’il ne s’agit pas d’une niche comportementale universitaire, mais de l’ensemble des actes inscrits dans leur quotidien. Les savoirs acquis avec les ordinateurs – et non pas les écrans – sont généralisés dans un monde analogique peu préparé à des opérations effectuées couramment avec des machines. Une adaptation est nécessaire à ces visions systématiques, transversales et horizontales potentiellement porteuses de conduites innovantes.

    La société de l’information place les individus en interaction avec un ordinateur et les soumet à une dynamique de création dont le niveau minima serait l’actualisation d’actes de choix de contenus et de procédures de consommation des productions audiovisuelles et multimédias. Classiquement, il ne s’agit pas de comportements inclus dans des pratiques créatives. Toutefois, les possibilités nouvelles permettant de rédiger des commentaires, d’en exploiter des fragments suite à leur capture ou de participer en proposant des améliorations ou des besoins, constituent un préalable intéressant. L’éventail des choix de contenus audiovisuels et multimédias est devenu si vaste, que l’organisation de la consommation personnelle ou communautaire pourrait être interprétée comme une forme de co-création entre le sujet, son entourage et les distributeurs qui sont force de proposition. La création ne serait plus seulement la production d’un objet matériel ou immatériel mais également la construction personnelle d’un programme de consommation.

    Conclusion

    Au cours de ce travail, présenté lors de Ludovia 2008 « Do it yourself », nous avons souhaité aborder les relations entre consommation et création dans les pratiques et usages de médiation techniques. L’observation d’une population d’étudiants et l’enquête sur 245 sujets ont mis en montre l’opportunité de construire un oxymore, « consocréation », pour qualifier les activités sur un continuum cheminant depuis la consommation jusqu’à la création, de la dépendance à l’autonomie. D’une part, il postule de l’obligation faite d’utiliser des outils et des contenus industriels numériques pour accéder à la production créative et d’autre part, il souligne l’incidence de la créativité personnelle dans les actes qui semblent relever de la consommation. Le risque est grand de répandre la confusion entre dimensions personnelles et personnalisées, alors que l’enquête met en lumière une interprétation sociale du travail centrée autour d’un clivage entre budgets temps individuels et contraints. Des pratiques qui relèvent de stratégies adaptatives comme le copier/coller ou l’utilisation massive des assistants de création accompagnée investissent ainsi le quotidien. Sans doute serait-il fécond de rapprocher ces éléments des travaux sur l’enculturation et l’acculturation alors que s’expriment dans les usages des mythèmes techniques de polyvalence et d’autonomie.

    Communication scientifique LUDOVIA 2008 par Thierry GOBERT (extrait)
    Unité Mixte de Recherche CEPED (Paris Descartes, INED, IRD)
    Université de Perpignan Via Domitia – IUT

  • Modèle de la présentation de soi: l’hexis numérique, une étude sémiotique et statistique

    Dans le réel, le corps donne d’emblée existence à la personne, lui permettant de se manifester aux yeux des autres et ainsi de construire son identité par différenciation. A l’écran, il est nécessaire que la personne prenne existence : si elle n’agit pas, elle est invisible pour un autre. Avec le développement du web dynamique, les journaux intimes sur internet (Ublog, Livejournal, VingtSix) ont pris la relève des pages personnelles ou homepages [Klein 2002].

    Initialement développés et mis en ligne par les utilisateurs même ou des membres de leur entourage, ils ont pris le pas sur les « pages html » en raison de la facilité de publication. Des sites ont proposé des solutions clé en main avec création d’un « site en trois clics » [Allard 2003] hébergement, forums, newsletters, moteurs de recherche. C’est ainsi que la physionomie à présent si connue du blog s’est imposée, au point de tendre à ne désigner que les pages dynamiques comportant un calendrier, des messages datés (posts) et une liste de blogs favoris, là où la page personnelle aux cadres élastiques se caractérisait par une mise en page rudimentaire et des images mal optimisées pour le web.

    En façonnant une représentation de soi-même, l’utilisateur façonne bien une représentation graphique, mais également un appareil qui va lui permettre d’entrer en relation avec le monde et autrui. La saisie d’informations l’inscrit dans le monde virtuel et conditionne sa construction identitaire. C’est ainsi que nous situant par la terminologie d’Ervin Goffman, la représentation de soi » (une présentation de soi, au sens de Goffman, dupliquée d’un re- intensif en raison de son apparition à l’écran qui la différencie de l’utilisateur en présentation –c’est l’objet de notre thèse) produit et agence une identité (une « identité sociale virtuelle ») en ayant un impact sur «l’identité réelle ».

    Le façonnage manuel de la représentation graphique (par la saisie d’un pseudonyme, le téléchargement d’une photographie, le paramétrage des éléments descriptifs de l’utilisateur, ou encore l’habillage de l’avatar…) peut être entendu – c’est ce que nous nous démontrons dans notre thèse et ce que nous posons comme thèse préalable ici – comme un façonnage en pensée et en acte de l’identité sociale réelle : l’écran est un espace intermédiaire, dans lequel le sujet « acte » des représentations abstraites (des schèmas, c’est-à-dire des systèmes de signes qui font l’objet d’une décision sémiotique) par les interfaces de saisie.

    De la prise d’existence à son maintien, la représentation numérique de la personne est semblable à l’identité sociale réelle : elle peut être comparée à une « barbe-à-papa  », « une substance poisseuse à laquelle se collent sans cesse de nouveaux détails biographiques » [Goffman 1975]. Des signes permanents constituent le bâton central de l’identité autour duquel s’agrègent d’autres signes qui actualisent la représentation, lui contractant une mobilité symptomatique d’une entité vivante. [Georges 2003, 2007]

    Peu nombreux dans le web 1.0, ces signes de présentation de soi se multiplient dans le web 2.0. Le système des signes qui manifestent l’identité change. Les informations déclaratives (âge, sexe, ville, biographie, centres d’intérêt…), qui constituaient jusqu’alors le bâton central de la « barbe à papa » identitaire, deviennent moins prépondérantes tandis que les traces de son activité se décuplent pour le caractériser.

    Dès le « web 1.0 », les messageries instantanées, informent la présence et la disponibilité de la personne par des icônes qui s’adaptent d’elles-mêmes à son activité. Démultipliant les indices de l’immédiateté, les sites de rencontre, les blogs, les magazines en lignes, trient les informations par ordre antéchronologique , participant d’une survalorisation culturelle de l’activité récente. Ainsi, dans le web 2.0, l’utilisateur qui souhaite exister sur la toile doit ainsi se conformer à cet impératif: fournir des activités en continu. Cette structuration n’est d’ailleurs pas étrangère aux phénomènes d’addiction au virtuel, participant d’un mouvement plus large de développement d’une société de consommation où le virtuel se substitue au matériel.

    Dans cet article, nous examinons dans quelle mesure ces « sédiments » de l’activité de l’utilisateur en ligne participent de son existence et de sa présence.
    Un modèle de l’identité est présenté (Section 1) ; il catégorise les composantes de la représentation de l’utilisateur : l’identité déclarative, agissante et calculée forment trois dimensions de l’identité numérique.

    Les informations déclaratives renseignées par les utilisateurs participent de la définition de leur identité en ligne ; mais que se passe-t-il lorsque l’utilisateur ne renseigne aucun champ ? A-t-il une identité ? Quelle est la dimension dominante de l’identité dans le web 2.0 ? Nous questionnerons ce phénomène dans Facebook (Section 2) et l’appuierons sur une première analyse statistique.

    1. LE SYSTEME IDENTITAIRE : MODELE DE L’IDENTITE NUMERIQUE
    L’identité numériquement interfacée, depuis l’émergence des nouvelles technologies dans la vie quotidienne, s’est modelée et remodelée. Du web 1.0 au web 2.0, dans l’acte répétitif de remplir les formulaires d’inscription, un modèle identitaire s’est informé (au sens étymologique de « prendre forme »), influençant la représentation culturelle de la personne.

    Pour comprendre les enjeux de la construction de signification d’une représentation technique en image de soi, nous avons, dans Sémiotique de la représentation de soi dans les dispositifs interactifs : l’hexis numérique, examiné, décrit et analysé systémiquement les différents éléments qui manifestent l’utilisateur [Georges 2007].

    Dans cette étude, une soixantaine de dispositifs interactifs de présentation de soi ont donc été comparés dans les jeux vidéo, les blogs, les sites de communication, les sites de réseaux sociaux, les sites communautaires ludiques, les jeux massivement multijoueurs. Nous avons ainsi mis en évidence des points communs à tous ces dispositifs, qui permettent de dessiner un modèle identitaire commun et transversal. Il en est ainsi, par exemple, des groupes « identifiant/pseudonyme, mot de passe », « age sexe, ville », « biographie, centres d’intérêt, métier »… Ils s’agencent dans une dynamique de centration et décentration entre le sujet et l’objet numérique. Cette structuration centrée utilisateur et décentrée en la machine est à l’origine de la dynamique d’apprentissage propre aux nouvelles technologies [Peraya 1999, Meunier & Peraya 2004].
    L’expression

    Les logiciels du web 2.0 présentent la caractéristique de mélanger les différentes familles de logiciels afin que les utilisateurs puissent fédérer sur une même plateforme les différents outils qu’ils trouvaient il y a quelques années sur des applications spécialisées.

    Dans son étude sur le design de la visibilité, Dominique Cardon [Cardon 2008] définit des modèles de visibilité étroitement associés aux catégories de logiciels pratiqués par les usagers. Facebook relève d’une sorte de mélange catégoriel : les sites communautaires, les sites de rencontre et les sites de communication. De nombreux utilisateurs l’utilisent en guise de page personnelle ; Facebook permet également d’ajouter une application de type blog. Les services se multipliant, l’offre des services est la variété.

    On peut regrouper ces informations en trois ensembles : l’identité déclarative, l’identité agissante et l’identité calculée. Nous allons les décrire succinctement ci-après en complément du schéma et du tableau ci-dessous, puis nous les appliquerons à Facebook pour étudier, à partir de cette étude de cas, l’hypothèse d’une évolution de l’identité valorisant les signes immédiats de l’activité.

    FANNY1509200812
    TABLEAU NON PUBLIE

    1.1 L’identité déclarative
    Les informations qui composent l’identité déclarative sont saisies directement par les utilisateurs, décrivent la personne et permettent de la singulariser au sein de la communauté.
    –    Le ligateur autonyme (« avatar » et pseudonyme)
    L’avatar, ce personnage en 3D qui représente la personne, trouve dans les interfaces de type tabulaire un équivalent en la photographie téléchargée. Assortis du pseudonyme (que l’on appelle ici autonyme au sens d’appellatif donné par l’utilisateur à lui-même), il symbolise l’utilisateur dans l’espace communautaire et constitue le noyau de l’identité, autour duquel s’agrègent des informations adjacentes qui complètent la caractérisation.
    –    La « carte d’identité » (qualificatifs)
    La carte d’identité désigne les informations qui, sur la page de présentation de soi, la feuille de personnage, la page de profil, ou encore la page personnelle, décrivent et qualifient l’utilisateur. Elle complète le ligateur autonyme par des informations qualitatives.
    Signes caractéristiques: « ASV », centres d’intérêt, biographie

    Le ligateur autonyme et la carte d’identité sont caractéristiques des représentations de l’utilisateur du web 1.0. Ils participent de l’identité déclarative calquée sur l’identité civile.

    1.2 L’identité agissante
    Des traces de l’activité de l’utilisateur complètent la structure identitaire. Elles sont issues de son interaction délibérée avec l’application : tels sont les amis, les objets glanés au cours de la pratique du logiciel.

    –    Les informations sur les relations interpersonnelles
    « amis » (sites communautaires), « favoris » (blogs), « collègues » (réseaux sociaux), assortis de leurs outils de visualisation le cas échéant (sites de réseaux sociaux, de blogs).
    –    Les collections
    Les collections d’informations rassemblent des objets glanés au cours de la navigation : vidéos (You Tube, Daily Motion), des articles marchands (sites internet marchands), des fichiers textes (sites web de publication), des images ou des albums photo (sites de partage de photos), des liens (Del.ic.ious.), des fichiers (logiciels de pair à pair), des objets magiques ou des armes (MMORPG).
    En cette catégorie d’information consiste l’activité immédiate.

    L’insertion des représentations de l’autre dans la représentation de soi est caractéristique du web 2.0. Annabelle Klein étudie les pages personnelles qui laissent place depuis quelques années aux blogs, dynamiques et plus faciles d’utilisation. Si dans les pages personnelles, l’utilisateur peut intégrer manuellement un « livre d’or », c’est à dire une page dans laquelle les lecteurs laissent des remarques sur la page personnelle, le blog étend ces espaces d’intersubjectivité à chaque texte publié, par la possibilité de laisser un commentaire. Les marques de l’interlocuteur se multiplient et s’étendent aux fonctionnalités de mise en relation sociale.

    « Ce mouvement de rapport avec soi, de dialogue avec soi à travers les autres, s’atteste à travers les marques d’adresse explicites à l’autre (« Qu’en pensez-vous ? », « Êtes-vous d’accord avec moi ? », « Laissez-moi un commentaire », ou encore « Signez mon livre d’or pour laisser une trace de votre passage. ») » (Klein 1999)

    1.3 L’identité calculée
    Troisième composante de l’identité, l’identité calculée se compose de variables qualitatives ou quantitatives produites du calcul du système. A la différence de l’identité déclarative, l’identité calculée n’est pas renseignée par l’utilisateur; à la différence de l’identité agissante, elle n’est pas le produit immédiat de son activité.
    –    Variables qualitatives : les indications de connexion (« l’utilisateur est connecté » ) des sites de rencontre ; dans MSN ou les messageries instantanées, l’indication « est disponible », est « loin de son clavier », « occupé », renseignent sur la présence de l’utilisateur et sont déduites par le système.
    –    Variables quantitatives : le nombre d’amis, le nombre de points, la notation.

    En quantifiant la présence, la visibilité, la notoriété de l’utilisateur, l’identité calculée permet aux sites d’effectuer des comparaisons entre les membres (par les classements) ; elle développe une importance démesurée du chiffre dans le système identitaire et reflète les actions de l’utilisateur dans le miroir culturel local, impliquant implicitement une forme de jeu social [Georges 2005].

    2. FACEBOOK : UNE ANALYSE STATISTIQUE DE L’IDENTITE
    Les catégories identitaires précédemment présentées vont nous permettre d’analyser la structuration identitaire dans le site communautaire Facebook. Les informations ont été collectées sur 62 profils d’utilisateurs. Nous en présentons ici une première analyse, illustrant le modèle présenté dans la section 1.

    Tous les profils observés ont renseigné un nom réaliste (prénom + patronyme) excepté deux profils qui dénotent explicitement une profession artistique (photographe et réalisateur). Relativement à d’autres sites communautaires, cette proportion est très faible, ce qui confirme la particularité de Facebook de présenter des identités « réelles » ; Facebook est donc plus proche de la catégorie des logiciels de réseaux sociaux que de celle des blogs.

    Pour les besoins de notre étude, ces informations sont regroupées en trois catégories
     :
    1 – Les informations déclaratives (voir section 1.1 et Figure 3) : « sexe », « date de naissance »,  « intéressé par », « situation amoureuse », « opinion politique ou religieuse », « orientation sexuelle », « informations personnelles »
    2 – Les informations relatives à l’identité agissante (cf. section 1.2 et Figure 4): « mise à jour de profil », « demande d’amis » , « participation à un événement ou à un groupe », « création d’événement ou de groupe », « a commenté ou taggé ou envoyé un cadeau », « a envoyé un post collectif », « a été taggé par un ami », « a utilisé une application ».
    3 –  Les informations relatives à l’identité calculée (cf. section 1.3 et Figure 5) : « nombre d’amis », «  nombre de groupes », « nombre d’événements visibles dans le mini-historique », « nombre d’événements par connexion », « taux de présence »

    Dans Facebook, l’identité déclarative apparaît dans deux espaces principaux de la page de profil : une carte d’identité en tête fixe,
    – Les informations qualifiantes: sexe, date de naissance (jour et mois, jour, mois et année), orientation sexuelle, ville.
    – Des informations qui annoncent plus explicitement le cadre relationnel recherche : intéressé par (hommes/femmes ; amitié/ rencontres/ relations sérieuses/ réseau professionnel/ peu importe).
    – Des informations sur le contexte social réel : situation amoureuse, opinion politique ou religieuse.

    Elle contient en outre  un pavé « informations personnelles » (qui peut être déplacé) comprenant des informations sur les centres d’intérêts et activités de l’utilisateur (métiers, loisirs etc.).
    Nous avons représenté sur la figure 3, dans un graphique « araignée » le taux de remplissage (en %), sur toute notre population, de chacun des chacun des champs déclaratifs (en orange). Mis à part la « date de naissance », renseignée par 80% des profils, les autres champs sont renseigné soit très erratiquement   , par moins de 60% des utilisateurs. Le champ le
    FANNY 2
    Figure 3 Identité déclarative . Légende : en orange, moyenne de tous les profils renseignés ; en rouge, profils ayant rempli tous les champs (« hyper-visibles ») ; en vert, profils ne renseignant aucun champ (« cachés »). 

    2.1 Les hyper-visibles et les cachés (identité déclarative)
    Pour étudier le phénomène de la visibilité nous isolons deux sous-populations aux comportements déclaratifs opposés: les profils « hyper-visibles » (qui apparaissent dans la figure 3 en rouge) et les profils « cachés » (qui apparaissent en vert). Ils sont définis comme suit, sur la base des données collectées.
    –    Les groupe des « hyper-visibles » (10 profils sur 62) est constitué des profils sont ont rempli toutes les informations déclaratives: leur représentation est pleine dans la figure 3, par définition.
    –    Le groupe des « cachés » (13 profils sur 62) est constitué des profils qui n’en ont enseigné aucune. Leur représentation déclarative est à son « degré zéro » dans la figure 3 (par définition)

    Les utilisateurs « cachés » n’ont rempli aucune information. Est-ce à dire qu’ils n’ont pas d’identité ? Certes non : l’examen des graphes de l’identité agissante et de l’identité calculée nous montre que l’identité est moins déterminée par les informations descriptives que par les informations agissantes et calculées.

    Dans la Figure 4 ont été représentées les informations relatives à l’identité agissante (voir section 2), pour les « hyper-visibles » (en rouge) et les « cachés » (en vert). Chaque axe représente le nombre d’actions dans chaque catégorie, divisé par le nombre d’action moyen sur toute la population. Ces informations ont été relevées dans le mini-historique (« mini-feed ») des activités de l’utilisateur .

    fanny 3

    Figure 4 Identité agissante. Sur chaque axe, la fréquence d’une population est normalisée par la fréquence de la population totale. Chaque trait pointillé représente 20% de la fréquence de la population totale (en orange). Le contour de l’octogone orange représente donc l’activité de la population totale. 

    Le mini-historique est la fonctionnalité la plus critiquée de Facebook parce qu’elle est la plus intrusive. Toutefois, rares sont les utilisateurs qui la désactivent (sur l’échantillon global, 2 seulement l’ont désactivée dont une appartient à l’échantillon « caché »).
    L’identité calculée, représentée dans la Figure 5. De même que pour l’identité agissante (figure 4), les valeurs de chaque axe ont été divisées par les valeurs moyennes sur toute la population pour faciliter la comparaison entre le comportement moyen (pentagone orange) et les comportements des populations « hyper-visibles » (en rouge) et « cachées » (en vert).

     

    fanny 5Figure 5 Identité calculée. Sur chaque axe, la fréquence d’une population est normalisée par la fréquence de la population totale. Chaque trait pointillé représente 20% de la fréquence de la population totale (en orange).
    –    Nb amis : nombre d’amis
    –    Nb groupes : nombre de groupes
    –    Nb Even. : Nombre d’événements visibles dans le mini-historique
    –    Nb Actions/connec. : nombre d’événements par connexion
    –    Taux pres. : Taux de présence

    Nous avons calculé le « taux de présence » à partir des variables apparaissant dans le mini-historique : il correspond au rapport du nombre de jours où l’utilisateur s’est connecté sur les 10 dernières actions divisé par le nombre de jours total pour accomplir ces 10 dernières actions. Ce chiffre, qui ne fait pas exactement partie de l’identité calcul telle qu’elle est livrée par l’interface, permet toutefois de quantifier la fréquence de la présence de l’utilisateur sur Facebook.

    2.2 Quelle est la dimension dominante de l’identité dans Facebook ?
    D’emblée, on remarque que le groupe  « caché » qui est dans le graphe de l’identité déclarative, représenté par un « degré zéro » de représentation, a, dans les graphes de l’identité agissante (Figure 4) et calculée (Figure 5), une forme déployée, qui témoigne non seulement de son activité mais aussi des caractéristiques de son réseau relationnel. Leurs activités ne sont nulles dans aucun des critères. Ce simple constat répond à notre première question : il montre que dans Facebook, l’identité est caractérisée plus fortement par les dimensions agissantes qui se répercutent dans l’identité calcul. Le groupe des « cachés » n’est donc caché que pour ce qui concerne l’identité déclarative mais ils sont visibles dans les deux autres dimensions de l’identité.

    2.2.1 Les groupes « hyper-visibles » et « cachés » en regard de la moyenne

    Par certains comportements, les groupes « hyper-visibles » et « cachés » sont représentatifs du comportement moyen de l’ensemble des utilisateurs. Le « Nombre d’évenements visible» (Figure 5) est le même :cela n’est pas un critère distinctif des deux populations. De même, le « nombre d’actions par connexion » (Figure 5)  est également conforme à la moyenne chez les uns et les autres. Le groupe des « hyper-visibles » exerce certaines actions bien plus intensément que la moyenne (« création d’événements », « participation à des événements », « commentaires et tags », « installation d’application » voir Figure 4), conformément à leur comportement déclaratif. On remarque qu’au contraire, ils ont moins de demandes d’amis, postent beaucoup moins de commentaires et sont moins taggés par les autres que la moyenne.

    En dépit de l’attitude intrinsèquement réservée de la population des « cachés », il est intéressant de noter de que certaines actions sont exercées plus intensément que la moyenne des utilisateurs (« Demande d’amis » ), ou plus que les utilisateurs hyper-visibles (« Postes collectifs » et « demande d’amis »).

    2.2.2 Un taux de présence manifeste du comportement déclaratif
    Le « taux de présence » est en étroite relation avec  l’identité agissante : en effet, l’identité agissante est déterminée par les activités et le taux de présence. La distinction des deux groupes ressort très clairement par le « taux de présence ». En effet, le taux de présence est plus élevé d’un facteur 2 par rapport à la moyenne (+ 100%) chez les utilisateurs hyper-visibles et plus faible d’un facteur 0,6 (- 40%) chez les cachés. Cette opposition confirme que le degré de présence est en étroite relation de l’identité descriptive. En effet, la population « ultra-visible » fait ses 10 actions sur 10, 4 jours (avec une médiane de 9 jours). La population « cachée » a fait ses action en moyenne sur 30 jours (avec une médiane de 24 jours).

    2.2.3 Dynamisme de l’Identité descriptive
    La mise à jour des profils, tant chez les utilisateurs hyper visibles que chez les utilisateurs cachés (environ +10% pour les deux, voir Figure 4), est plus fréquente que la moyenne : les utilisateurs cachés compenseraient l’absence d’informations déclaratives par des mises à jours de l’ « humeur » récurrentes.

    Les mises à jour des humeurs, qui sont mi-déclaratives, mi-agissantes, ont pour fonction communautaire de permettre l’apparition de leur profil dans les historiques de leurs amis : ainsi des informations sont données régulièrement sur leurs activités.

    Par contre, ont s’attendrait à trouver chez les utilisateurs hyper-visibles une mise à jour importante en raison de l’abondance des informations fournies, or ce n’est pas le cas : ils ressentiraient moins le besoin de se caractériser par des informations agissantes.

    2.2.4 Communautés, amis, groupes
    On remarque que nombre d’amis est le même approximativement chez les uns et les autres, par contre, chez les utilisateurs cachés, la « demande d’amis » apparaît davantage dans l’historique que les utilisateurs hyper-visibles : cela reflete simplement la que la demande d’amis est l’activité majeure du groupe « caché » (environ 50% de leur activité), alors qu’elle ne consititue qu’une fraction faible (20% seulement ) de l’activité du groupe « hyper-visible »

    Concernant les activités communautaires de groupe, les hyper-visibles participent beaucoup  à des groupes et surtout en créent beaucoup (Figures 4 et 5); ils postent beaucoup de commentaires tandis que les cachés n’y participent pas et postent très peu de commentaires. Ils semblerait donc que les activités communautaires soient peu valorisées par le groupe des « cachés » alors qu’elle est survalorisée par le groupe des « visibles »

    CONCLUSION :

    Pour comprendre comment l’utilisateur façonne son identité sociale virtuelle, nous avons distingué (cf. section 1) trois dimensions de l’ « identité numérique » :
    –    l’identité déclarative, renseignée directement par l’utilisateur ;
    –    l’identité agissante, renseignée indirectement par les activités de l’utilisateur ;
    –    l’identité calculée, produite d’un calcul du système.

    L’identité déclarative, qui constitue le centre permanent de l’identité dans le web 1.0, n’est plus prépondérante dans le web 2.0 ; l’identité s’y construit sur le fondement des activités réalisées (identité agissante) ; elle est orientée par l’identité calculée, qui en insistant sur certaines dimensions de l’identité impliquent une valorisation culturelle locale de certains éléments.
    Nous avons produit une première étude statistique de l’identité numérique dans Facebook (section 2). Nous avons isolé les groupes « hyper-visibles » et « cachés » en fonction de leur comportement identitaire déclaratif.

    Il est apparu que l’identité déclarative est en relation avec le degré de présence de l’utilisateur, le groupe « caché » étant moins actif sur une même période que le groupe des « hyper-visibles ». Toutefois, l’absence d’informations relatives à l’identité déclarative n’est pas un obstacle à la socialisation ni à la reconnaissance par les autres, c’est à dire au phénomène identitaire : les utilisateurs « cachés », bien qu’ils n’aient pas une activité communautaire, sont aussi socialisés localement que les utilisateurs « hyper-visibles », qui au contraires déploient une forte activité communautaire. L’identité numérique dans facebook est donc moins conditionnée par l’identité déclarative que par l’identité agissante.

    L’absence d’information déclaratives n’est pas insignifiante. Comme le sculpteur sur modèle vivant choisirait de sculpter finement les doigts du modèle ou au contraire de ne pas figurer les bras, l’utilisateur des services de communication modèle et remodèle son identité dans un mouvement de création-ajustement qui manifeste son adaptation au système communautaire en place. Ce qui constitue l’essence de la représentation est l’acte de se représenter.

    Facebook attire l’attention sur le geste de « prendre soi-même existence » à l’écran et d’y maintenir sa représentation vivante. Ce faisant, Facebook stimule les comportements compulsifs : il s’agit de se manifester sans cesse pour continuer d’exister et maintenir son réseau social…

    Cette évolution de l’identité en ligne laisse présager un changement dans le comportement des usagers par un effet de focalisation sur l’instant immédiat en une boucle réflexive secondaire de production de soi : il s’agirait toujours de pétrir l’instant présent, sans perdre le temps d’examiner le passé et en envisageant du futur que comme résultat de l’action immédiate. Une identité qui serait l’agrégat des sédiments de mes actions présentes.

    Remerciements :
    Je remercie Sébastien Charnoz pour son aide précieuse, ainsi que les participants des colloques Web participatif du Congrès de l’ACFAS 2008 et les membres d’Homo Ludens auxquels ce travail a été présenté une première fois et qui m’ont permis de le faire progresser. A ce titre je remercie également le comité de lecture de Ludovia 2008.

    Communication scientifique LUDOVIA 2008 par Fanny GEORGES (extraits)
    Centre de recherche Images, Cultures et Cognition (CRICC)
    Université Paris 1 Panthéon-Sorbonne

  • L’espace de l’oeuvre : De l’objet synoptique à l’objet systémique

    Par ailleurs, et sans doute pour la même raison, les interfaces sont devenues très conviviales avec l’apparition successive des écrans, des souris, et des icones représentant les fichiers permettant de les ouvrir par un simple clic au lieu de devoir taper le cheminement de l’arborescence comme c’était encore le cas sous DOS. De ce fait, la convivialité des machines a été considérablement accrue et instaure un rapport au grand public qui est beaucoup plus d’ordre intuitif que cognitif.

    De fait, la plupart des logiciels grand public sont conçus de façon à faire oublier la dimension systémique de la machine, à la rendre complètement transparente, en tout cas. Il s’agit surtout d’induire chez l’utilisateur des comportements analogiques aux comportements non computationnels avec lesquels ils avaient l’habitude de fonctionner pour le même genre d’opérations, hors ordinateur. Un des exemples les plus caractéristiques, et sans doute aussi un des plus connus, est Photoshop®. Les « outils » proposés par l’interface ne sont en réalité que des symboles qui permettent la mise en œuvre d’opérations algorithmiques programmées en amont et stockées dans une base de donnée très puissante. Mais ces symboles (pinceau, crayon, gomme, etc.) renvoient nominalement et visuellement à des outils manuels qui sont habituellement ceux qui sont utilisés dans le travail de l’image/matière. Les opérations techniques elles-mêmes correspondent, du point de vue de l’affichage sur l’écran, à leur équivalent analogique.

    Nous sommes donc typiquement ici dans un simple transfert technologique de comportements sans que la dimension systémique du dispositif numérique, ni sa réalité programmatique, ne semblent avoir d’incidence sur la nature des comportements des utilisateurs par rapport à ceux qu’ils peuvent avoir dans le cadre du travail de l’image/matière. Mais les choses ne sont pas si simples. Ce qu’affiche l’écran n’est justement pas une image/matière, mais une image/lumière, et cette image/lumière est composée d’une multitude de points qui n’ont rien en commun avec ceux d’une image offset, par exemple. Couchot définit ainsi l’image numérique :

    « Le pixel fait ainsi office d’échangeur – minuscule – entre l’image et le nombre. Il autorise le passage du nombre à l’image. Pour créer une image, il faut d’abord créer la matrice mathématique correspondante, c’est-à-dire effectuer les opérations mathématiques qui rempliront la mémoire d’image ; tâche pour laquelle l’ordinateur est conçu. Sitôt qu’une image se présente sous cette forme numérique, il suffit alors pour la mettre en mémoire, la dupliquer, la transmettre, la transformer, de mettre en mémoire, de dupliquer, de transmettre, de transformer des nombres. (…) L’image est devenue une image matrice. Ce qui lui confère une qualité particulière, son contrôle morphogénétique ne se fait plus au niveau du plan – comme en peinture ou en photographie -, ni au niveau de la ligne – comme dans la télévision où le plan de l’image est découpé en lignes –  mais au niveau du point. La structure matricielle de l’image permet d’accéder directement à chacun de ses éléments et d’agir sur eux. Ses processus de fabrication rompent par conséquent avec tous ceux qui caractérisent les images traditionnelles ; ils ne sont plus physiques, mais computationnels. »  (Couchot, 1998, p. 134-135)

    Même si le substrat numérique n’intervient que dans l’arrière-plan des opérations effectuées par l’utilisateur, même s’il n’est pas visible en tant que tel, il constitue néanmoins un élément ontologique du processus qui en définit malgré tout la nature. Cette réalité ontologique va ainsi contribuer à la construction de nouvelles représentations du monde au travers de ce que Couchot appelle l’expérience technesthésique, selon laquelle toute technique, si elle est façonnée par des représentations du monde, induit à son tour de nouvelles représentations du monde, et je dirai encore, de nouveaux rapports au réel. Il me semble qu’on peut dégager un certain nombre de constats de ce qu’engagent ces nouveaux rapports au réel, et parmi eux, j’en retiendrai deux dans un premier temps : la relation dialogique que suppose le dispositif numérique inscrit les comportements de l’utilisateur dans une dimension systémique, et cette dimension systémique, dans sa singularité, construit un rapport au réel où la temporalité n’est plus obligatoirement linéaire, où les conséquences de chaque acte, au moins dans le cadre du dispositif, ne sont pas rédhibitoires puisque la nature même du système fait que l’on peut revenir en arrière sans que le présent ne soit définitivement affecté.

    Il est certain, à travers l’exemple que nous avons vu précédemment, qu’un utilisateur de Photoshop®, même s’il est dans un rapport analogique aux opérations physiques sur l’image, a néanmoins pleinement conscience qu’il n’effectue pas pour autant ces opérations physiques. Il y a bien sûr la dimension matérielle de l’outil ordinateur qui instaure ce décalage, un stylet sur une tablette graphique, a fortiori une souris, ne donnent pas les mêmes sensations qu’un crayon, un pinceau ou une gomme. Il y a aussi à prendre en compte le décalage spatial entre le support d’action (la tablette par exemple) et l’espace d’inscription (l’écran). Mais ce décalage n’existe pas pour les opérations effectuées avec des logiciels de bureautique comme Word par exemple. Ou plus exactement, le décalage qui existe entre les opérations manuscrites, qui est du même ordre que ceux qu’on a vus avec Photoshop® a déjà été médiatisé par la machine à écrire. Du point de vue de la posture par rapport à la machine, une saisie dactylographique sur une machine à écrire n’est pas fondamentalement différente d’une saisie dactylographique sur ordinateur.

    Néanmoins, dans un cas comme dans l’autre, avec Photoshop® ou avec Word, l’espace d’inscription est un espace contextualisé par l’espace de l’écran, surtout depuis l’apparition du principe des icones. La « page » s’affiche sur un écran où sont présents un certain nombre de signes qui renvoient au dispositif de l’ordinateur et qui, généralement, restent présents pendant le opérations de scription. Cet environnement en arrière-plan inscrit dans le champ visuel de l’opérateur la présence incontournable du dispositif machinique dans une temporalité et une territorialité spécifiques. Et ce qu’énonce cet environnement, c’est que le dispositif machinique fait système. En effet, l’architecture même de l’outil ordinateur est organisée de façon systémique à la fois dans le classement des dossiers et fichiers, mais aussi par le mode d’accès à ces dossiers et fichiers. L’icône placée sur l’écran tient lieu et place du fichier ou du dossier auquel elle renvoie. Elle constitue donc un symbole (Le Robert définit le symbole de la façon suivante : « Ce qui représente autre chose en vertu d’une correspondance » (Petit Robert, 1990, p. 103)) qui renvoie au fichier lui-même, sans donner d’informations précises sur le contenu de ce fichier, en dehors peut-être de sa nature (texte, image, son).

    Les symboles que sont les icones sont assez paradigmatiques, au niveau de l’utilisateur, du rapport qu’il entretient avec le dispositif. En effet, l’icône présentifie un substrat qui n’est pas actualisé à l’écran tant qu’on ne le fait pas émerger, en cliquant justement sur cette icone. Le substrat est complètement virtuel, il n’est stocké dans la mémoire de l’ordinateur que sous la forme de données numériques binaires. Son affichage est le résultat d’opérations algorithmiques lancées par l’utilisateur lorsqu’il clique sur l’icône. Le principe est le même dans le cadre de l’utilisation de logiciels. Les opérations analogiques que j’évoquais précédemment pour Photoshop®, par exemple, supposent à chaque opération la mise en œuvre d’algorithmes qui fonctionnent de façon complètement invisibles pour l’utilisateur. Le résultat qui s’affiche à l’écran est, lui, totalement actuel, mais les opérations algorithmiques, elles, si elles ne sont pas totalement virtuelles puisqu’elles procèdent de l’actualisation de l’image, s’instaurent dans un espace très ténu qui fait l’interface entre le virtuel et l’actuel.

    Nous entrons donc, à travers ce dispositif, dans une relation à l’actuel et au virtuel qui institue un léger déplacement sur les concepts de virtuel, actuel et réel. Dans l’acception habituelle du terme, ce qui est virtuel, est ce qui est en puissance, ce qui est amené à entrer dans le champ du réel par sa réalisation. Ce qui est virtuel n’est pas encore réel, et ce qui est réel n’est déjà plus virtuel. Le changement d’état qu’implique ce passage renvoie à des territorialités différentes, même si, comme le formule Deleuze, cela ne signifie pas pour autant que ces deux états soient à considérer en terme d’opposition.  L’actuel étant, dans cette configuration, l’espace du processus qui permet la réalisation du virtuel.

    Si nous prenons l’exemple d’une œuvre plastique, un tableau, par exemple, l’œuvre reste virtuelle tant qu’elle n’est qu’à l’état de projet, tant qu’elle ne se concrétise pas sur la surface de la toile. L’artiste construit des images mentales à partir de percepts et d’affects qui s’élaborent dans le cadre de son rapport au réel, notamment lorsque ce rapport est problématique, c’est-à-dire lorsque les percepts induisent un décalage entre ce qu’il sait du réel et la façon dont il se manifeste. Ce sont ces images mentales qui permettent l’émergence du projet plastique. L’acte de peindre constitue l’actualisation de ce projet. Cela ne signifie pas que la réalisation est linéaire, qu’elle ne permet pas des écarts par rapport au projet. La réalisation s’organise nécessairement selon un processus dialectique qui suppose des allers-retours entre ce qui émerge sur la toile et le dessein de l’artiste. L’œuvre s’inscrit dans une cohérence intrinsèque qui peut donner lieu à des écarts entre le projet et son exécution sur la toile, c’est tout l’objet des repentirs, par exemple.

    On pourrait d’ailleurs analyser le processus en remarquant que les objets plastiques que manipule le peintre ne sont pas de simples figures qui s’agencent unilatéralement comme des pièces de puzzle. Qu’ils soient figuratifs ou non, ces objets ont une valeur signifiante très forte qui va bien au-delà de leur réalité physique. Cette valeur signifiante est déterminée par ce qu’ils portent d’une partie, au moins, du projet de l’artiste et la façon dont leur agencement sur la toile va ou non valider ce projet en articulation avec la cohérence intrinsèque de l’œuvre. De ce fait, quel que soit le degré d’iconicité de ces objets plastiques, ils se définissent par un degré d’abstraction élevé puisque leur manipulation par l’artiste n’est pas tant liée à leur degré d’iconicité qu’à leur capacité à valider, de façon combinatoire notamment, les schémas mentaux qui président à l’effectuation de l’œuvre par l’artiste. Peut-on pour autant parler d’opérations computationnelles ?

    Si une opération computationnelle est, comme le définit Varela, : « … une opération effectuée ou accomplie sur des symboles, c’est-à-dire sur des éléments qui représentent ce dont ils tiennent lieu. » (Varela, Thomson, Rosch, 1993), la réponse est complexe. Dans le cadre évoqué plus haut, autour de la question des icones, la chose est relativement simple. L’icône d’un fichier, l’icône d’un disque dur, ne sont pas fichier ni disque dur, elles en tiennent lieu. La manipulation de ces icones (un clic de souris, par exemple) peut donc être assimilée à une opération computationnelle (même si elle est assez rudimentaire). Mais ce qui caractérise cette représentation, c’est qu’en tant que telle elle épuise ce qu’elle représente. L’icône du disque dur par exemple, dans le contexte du bureau de l’ordinateur, ne représente que le disque dur, et c’est ce qui fait sa valeur symbolique.

    En ce qui concerne les objets plastiques que manipule l’artiste, il en va tout autrement. Figuratifs ou non-figuratifs, ils n’épuisent pas ce dont ils tiennent lieu, pour une raison évidente, déjà, c’est que ce dont ils tiennent lieu n’est jamais totalement épuisable  parce que jamais réellement circonscrit. Le projet artistique autant que son processus d’effectuation ne procèdent pas du discours articulé, ni encore moins de l’énoncé univoque. Les images mentales se formalisent à travers des objets plastiques qui ont, comme nous l’avons vu précédemment leur propre résistance. Nous sommes donc davantage dans un processus de formalisation que dans un processus de représentation. Les objets plastiques n’ont pas pour vocation à représenter les images mentales, mais à les formaliser, c’est-à-dire à les actualiser à travers l’œuvre.

    Durant le processus d’effectuation, l’œuvre en tant que telle ne procède pas de la réalité, même si matériaux et support en procèdent, eux, de même d’ailleurs que l’acte de peindre lui-même. De plus, l’actualité de l’objet que constitue l’œuvre, le tableau en l’occurrence, n’est pas la même que celle de l’œuvre en tant que telle. Lorsque l’artiste décide que son œuvre est finie en tant qu’objet, c’est que le résultat obtenu à un moment donné représente l’épuisement provisoire du projet qui l’a porté. L’artiste décide que l’œuvre est achevée parce que l’ensemble des signes plastiques qui la composent, la façon dont ils s’organisent entre eux, le réseau de sens qu’ils construisent, sont suffisamment aboutis pour valider le projet initial. Ce qui ne signifie pas, bien au contraire, que l’œuvre se résume à cet épuisement, puisque le caractère nécessairement plurivoque de l’œuvre fait qu’elle s’inscrit à la fois dans l’incomplétude par rapport au projet initial, ce qui fait qu’il y a démarche, en même temps qu’elle en déborde les attendus.

    La réalité de l’objet ne fait pas la réalité de l’œuvre, car l’œuvre ne s’actualise dans la réalité qu’à partir du moment où elle procède du rapport spectatoriel. Pour reprendre la fameuse formule de Duchamp, c’est le regardeur qui fait l’œuvre. Chaque regardeur, à chaque regard, induit une nouvelle actualisation de l’œuvre. Néanmoins, l’œuvre-objet est de nature synoptique. Le rapport du spectateur à l’œuvre s’instaure en premier lieu dans une appréhension globale de l’œuvre par le regard, même si, bien sûr, cela n’exclut pas l’existence d’un parcours visuel à l’intérieur de l’œuvre. J’ajouterai même que ce parcours visuel, inhérent à la lecture de toute image, n’a de sens que dans la mesure où il se situe par rapport au référent qu’est la vision synoptique. Le détail ne prend sens que dans le contexte du tout. Si chaque parcours visuel peut être singulier, le cadre global de l’espace de l’œuvre (le tableau par exemple), lui, est nécessairement commun, et irréductible, dans son actualité, au parcours individuel.
    Dans le cadre du dispositif numérique, le processus s’organise de façon différente.

    D’abord, pour une raison évidente, c’est que l’information, qu’elle soit actualisée sous la forme d’images, fixes ou mobiles, de texte, de son, ne doit pas son actualité, directement en tout cas, à une intervention instrumentalisée du corps, qu’elle soit ou non médiatisée par un dispositif analogique. Certes, le corps reste présent, mais l’actance du corps n’est absolument pas du même ordre. Comme nous l’avons vu précédemment, le propos consiste non pas à transformer de la matière, voire de l’énergie, au moyen d’un protocole gestuel spécialisé, mais à rentrer un certain nombre de données informationnelles qui puissent être interprétées par l’ordinateur, au niveau du système opérateur et du (des) logiciel(s). Le geste, en soi, ne requiert aucune technicité (si l’on excepte éventuellement l’utilisation du stylet sur une tablette graphique qui n’est jamais qu’une souris perfectionnée, mais cela ne change rien sur le fond). Les outils matériels qui permettent cette introduction de données par l’utilisateur sont, pour l’essentiel, la souris et le clavier.

    En réalité, et quel que soit le cas de figure, les seules informations qui entrent véritablement sont des informations numériques (0 et 1). L’utilisateur ne travaille de fait que sur des « avatars » pour reprendre la formule d’Anne Cauquelin, « … ce que nous visualisons sur l’écran de nos ordinateurs est à proprement parler un “avatar”, c’est-à-dire la représentation visible (imagée) d’une opération qui se situe dans un autre monde. » (Cauquelin, 2006) Et elle ajoute : « À cause de ce déguisement, nous ne comprenons pas tout de suite l’an-opticité du média. Nous croyons le voir, voir cet espace, alors que nous ne voyons que ce qui en tient lieu, son avatar. »

    L’espace numérique est un espace de strates que le corps actant de l’utilisateur met en connexion en tapant sur le clavier ou en cliquant avec la souris. Mais le geste, quel qu’il soit, ne permet l’accès qu’à la couche superficielle de ces strates, celle qui affiche les avatars. Même si, par ailleurs, cette strate a néanmoins sa propre profondeur qui est l’arborescence du réseau, que celui-ci soit on line ou off line, c’est-à-dire qu’il soit constitué par l’organisation du disque dur ou, et ce n’est pas incompatible, par la structure d’un site Internet et sa mise en réseau. Jamais il n’intervient directement sur la structure informationnelle fondamentale de la machine qui s’organise par séquences de 0 et de 1. Au plus, et c’est là déjà le cas de spécialistes, intervient-il sur les strates intermédiaires qui sont les codes de programmation permettant une organisation active de ces séquences de 0 et de 1.

    Edmond Couchot explique que : « [Les images] sont calculées par ordinateur et capables d’interagir (ou de “dialoguer”) avec celui qui les crée ou celui qui les regarde. » (Couchot, 1998, p. 134) C’est bien cette dimension dialogique qui caractérise le rapport de l’utilisateur à son ordinateur. Car l’action de l’utilisateur instaure un dialogue entre la machine et lui dans la mesure où le simple fait de taper sur une touche du clavier ou de cliquer avec la souris va donner le branle à une série de couches interconnectées de langages symboliques qui vont faire l’interface entre lui et la structure informationnelle fondamentale de 0 et de 1. Et, par rétroaction, ce sont ces mêmes couches qui vont permettre l’actualisation souhaitée de l’information, et ce, à chaque étape du processus. Même si ces processus sont de l’ordre de l’an-optique, pour reprendre la formule d’Anne Cauquelin, le rapport dialogique avec la machine induit une conscience systémique du dispositif. L’utilisateur a conscience que le dispositif qu’il utilise est de l’ordre du système, et que ce système a un mode de fonctionnement propre avec lequel il est en interaction dans le temps du rapport dialogique.

    Le rapport à l’espace va se construire sur d’autres logiques que celles qui sont convoquées dans le cadre de l’espace euclidien de l’image matérielle. Nous ne sommes plus dans l’effleurement du regard ni dans la déposition (ou l’extraction) de la matière, mais dans le pointage. Boissier montre de ce point de vue le rôle déterminant autant que symbolique du doigt : « L’écran tactile ou le curseur de la souris sont des commandes digitales. En français comme en anglais, on passe – parce qu’on compte sur ses doigts – du doigt au chiffre. La désignation est, en informatique, littéralement chiffrée. Avec l’ordinateur et ses langages, l’essentiel de l’interaction est de l’ordre du doigt, comme on le dit des idéogrammes chinois, une désignation de désignation. Pointer du doigt par procuration est le paradigme d’une interface homme/machine. » (Boissier, 1996)

    De ce fait, la construction mentale qui prévaut à l’appréhension de cet espace ne s’organise plus en référence à la perspective spatiale telle qu’elle s’est construite depuis la Renaissance, même si c’est dans une logique de démontage comme pour l’espace cubiste, par exemple. Il n’est plus question d’espace physique, de distance mesurable entre les composants, mais de cible à atteindre. Comme l’explique Anne Cauquelin : « …dans un espace où la cible visée est immédiatement touchée, nul besoin de représenter la distance qui sépare la requête de la satisfaction ; qu’elle soit proche ou lointaine, la cible aura, du point de vue spatial, la même définition : elle ne sera pas située en perspective et aucune carte de type géographique ne peut la représenter. » (Cauquelin, idem) L’explication d’Anne Cauquelin concerne surtout le réseau Internet, mais elle reste pertinente pour le réseau interne de l’ordinateur.

    De fait, les dispositifs interactifs numériques immergent l’utilisateur dans un espace où les couches virtuelles des différents possibles convergent vers un point de fuite commun qui n’est autre le système lui-même. Olivier Aubert parle de « code de fuite ». (Aubert, 2006) Si nous prenons l’exemple de l’œuvre d’Olivier Aubert, justement, Générateur Poïétique, il s’agit d’une une œuvre qu’il décrit à mi-chemin entre le Jeu de la vie  et le cadavre exquis des surréalistes. « … les  » joueurs » [sont] représentés […] par une petite mosaïque colorée d’une dimension arbitrairement fixée à 20 par 20 pixels. […] chacun est […] libre de modifier comme bon lui semble son dessin personnel, et ses actions sont répercutées en temps réel au sein de la matrice globale constituée de la juxtaposition des dessins individuels. Ce dessin global, vu en permanence par tous, permet à chacun de repérer sa participation personnelle. Dès lors, s’engage une boucle de rétroaction : chacun modifie son signe local en fonction de l’état de l’image globale et  l’état global varie en fonction des actions de chacun. » (Aubert, ibid.)

    On réalise bien à travers cette description le glissement qui s’est opéré dans le rapport à l’espace de l’œuvre pour le spectateur. Non seulement le spectateur est acteur de l’œuvre collective, en « temps réel », mais de plus, les paramètres qui contribuent à l’existence de l’œuvre sont d’une toute autre nature. L’œuvre est en permanente actualisation, ré-actualisation, elle n’est donc plus de nature synoptique, mais elle introduit en outre des rapports territoriaux qui n’ont plus rien à voir avec l’espace physique puisqu’ils sont constitués de la mise en connexion, non pas de coordonnées géographiques, mais d’adresses IP qui ne renvoient pas à des lieux géographiques précis, mais à des identifiants d’ordinateurs.

    La perception du système comme donnée structurante de l’œuvre, même si elle n’est pas nécessairement patente, constitue néanmoins une dimension forte dans la mise en place d’un nouveau rapport technesthésique et les schémas mentaux qu’il induit dans les représentations du monde.

    En ce qui concerne l’artiste créateur, la chose est encore plus évidente car il introduit ces paramètres de façon nécessairement consciente cette fois-ci. La pensée créatrice de l’artiste qui produit des œuvres numériques interactives doit non seulement prendre en compte les données systémiques, mais elle doit aussi se construire en symbiose avec la dimension systémique du dispositif numérique. J’évoquais précédemment l’existence d’opérations combinatoires dans les opérations plastiques de l’œuvre picturale. Elle est, me semble-t-il, inhérente à toute production artistique. Dans le cadre du dispositif numérique, elle est non seulement indispensable, mais elle doit en plus s’organiser sur un mode à la fois systémique et systématique. Penser l’œuvre en fonction du système, que l’on intervienne ou non directement sur les codes implique, non pas forcément de penser comme le système, cela supposerait qu’il soit en capacité de penser ce qui est un autre débat, mais selon la logique du système. Or, la logique du système est une logique mathématique basée sur le principe des algorithmes. C’est donc une logique combinatoire systématique qui épuise tous les possibles sans exclusion.

    Un exemple caractéristique de cette pensée combinatoire logique nous est fourni de façon magistrale par Beckett dans Watt. Toute l’œuvre est construite sur une succession d’épuisement de combinaisons. Un des exemples en est ce passage où Monsieur Knott met en relation spatiale systématique, à travers ses déplacements dans sa chambre, les trois éléments qui la composent :
    « Ici il se tenait immobile. Debout. Assis. À genoux. Couché. Ici il allait et venait. De la porte à la fenêtre, de la fenêtre à la porte ; de la fenêtre à la porte, de la porte à la fenêtre ; du feu au lit, du lit au feu ; du lit au feu, du feu au lit ; de la porte au feu, du feu à la porte ; du feu à la porte, de la porte au feu ; de la fenêtre au lit, du lit à la fenêtre ; du lit à la fenêtre, de la fenêtre au lit ; du feu à la fenêtre, de la fenêtre au feu ; de la fenêtre au feu, du feu à la fenêtre ; du lit à la porte, de la porte au lit ; de la porte au lit, du lit à la porte ; de la porte à la fenêtre, de la fenêtre au feu ; du feu à la fenêtre, de la fenêtre à la porte ; de la fenêtre à la porte de la porte au lit ; du lit  à la porte, de la porte à la fenêtre ; du feu au lit, du lit à la fenêtre ; de la fenêtre au lit, du lit au feu ; du lit au feu, du feu à la porte ; de la porte au feu, du feu au lit ; de la porte à la fenêtre, de la fenêtre au lit ; du lit à la fenêtre, de la fenêtre à la porte ; de la fenêtre à la porte, de la porte au feu ; du feu à la porte, de la porte à la fenêtre ; du feu au lit, du lit à la porte ; de la porte au lit, du lit au feu ; du lit au feu, du feu à la fenêtre ; de la fenêtre au feu, du feu au lit ; de la porte au feu, du feu à la fenêtre ; de la fenêtre au feu, du feu à la porte ; de la fenêtre au lit, du lit à la porte ; de la porte au lit, du lit à la fenêtre ; du feu à la fenêtre, de la fenêtre au lit ; du lit à la fenêtre, de la fenêtre au feu ; du lit à la porte, de la porte au feu ; du feu à la porte, de la porte au lit. » (Beckett, 1968/2007, p. 211-212)

    La pensé combinatoire logique n’exclut pas l’intuition, qui reste une donnée de toute pensée créatrice, mais elle la situe en amont de l’effectuation. Autant dans l’œuvre picturale, les images mentales peuvent être formalisées sans qu’il y ait nécessité de passer par un discours structuré, autant dans les œuvres numériques interactives, la formalisation passe nécessairement par l’adéquation entre une pensée systématique et systémique et le langage mathématique propre au système numérique.

    Communication Scientifique Ludovia 2008 par Xavier LAMBERT (Extraits)
    LARA (Laboratoire de Recherche en Audiovisuel) – Université Toulouse II le Mirail

  • Faites vos jeux ! Réflexion sur les approches de facilitation et d’incitation à la création vidéoludique

    Si le secteur de l’Internet semble aujourd’hui découvrir de tels moyens, il existe un domaine pour lequel ces pratiques semblent déjà fortement ancrées au sein de son histoire et culture : le monde des jeux vidéo, en tout cas quand il est pratiqué sur ordinateur (PC, Mac, Amstrad CPC, Amiga, Commodore 64…)

    En effet, des approches logicielles visant à inciter des joueurs non professionnels à la création vidéoludique sont apparues dès le début des années 1980, pour véritablement se démocratiser  au sein de la communauté des joueurs sur ordinateur dans les années 1990, avec la montée en puissance des mods (« Counter-Strike »…) ou encore des usines à jeux (« Klik n’Play », « Game Maker », « RPG Maker »…).

    Cette démocratisation semble d’ailleurs pouvoir être imputée en grande partie à Internet, qui a permit aux créateurs amateurs de diffuser leurs œuvres, voire leurs outils de création.

    Quelles sont alors les différentes approches explorées par l’industrie vidéoludique pour inciter les joueurs à s’adonner à la création ?

    Comment peuvent s’opérer de tels processus de facilitation, et de quelle manière influencent-ils la création en elle-même ?

    Pour tenter d’apporter réponse à ces questionnements, cet article se consacrera à l’analyse de plusieurs approches distinctes d’incitation et de facilitation de la création vidéoludique.

    Afin de pouvoir les analyser, nous proposerons tout d’abord un modèle structurel du jeu vidéo, en nous appuyant sur les conclusions de différents travaux théoriques sur ce dernier vu en tant « qu’artefact résultant d’un processus de design ».

    En utilisant ce modèle structurel théorique comme grille de lecture, nous passerons ensuite en revue quatre approches et outils de facilitation de la création vidéoludique : les « menus de configuration », les « éditeurs de niveaux », les « mods » et enfin les «usines à jeux ».

    Un modèle structurel du jeu
    D’après Salen & Zimmerman , un jeu est un artefact résultant d’un processus de design de la part d’un ou plusieurs auteurs: « Game design is the process by which a game designer creates a game, to be encountered by a player, from which meaningful play emerges »  [p.80]

    Nous renseignant alors plus en détail sur la nature de cet artefact, les deux auteurs nous indiquent que « a game is a system in which players engage in a artificial conflict, defined by  rules, that results in a quantifiable outcome » . [p.80]

    Approfondissant la nature systémique des jeux, Juul , également rejoint par Järvinen  sur ce point, voit le jeu comme un système à état variable: « In a litteral sense, a game is a state machine : A game is a machine that can be in different states, it responds differently to the same input at different times, it contains input and output functions and definitions of what state and what input will lead to what following state.[…] When you play a game, you are interacting with the state machine that is the game.  »  [p.60]

    Par une approche similaire, Paolo Tajè  propose de voir le jeu comme une structure possédant six couches, dont quatre sont explicitement internes à l’artefact créé par le game designer : « Token » (les éléments du jeu), « Prop » (les propriétés de ces éléments), « Dyn » (Les actions du joueur sur ces éléments) et « Goal » (les objectif du jeu que le joueur doit accomplir).

    Sans oublier que le modèle MDA  divise globalement l’expérience vidéoludique en trois parties : « Mechanics » (règles), « Dynamics » (interaction joueur-jeu dans le cadre de ces règles) et « Aesthétics » (émotions internes au joueur suite à ces interactions).

    D’après ce modèle, la partie créée directement par le créateur du jeu est celle des « Mechanics », qui constituent donc le fameux « artefact » résultant du processus de design.

    Nous pouvons également nous appuyer sur les approches similaires proposées par Crawford , Adams et Morris  ainsi que Björk et Holopainen .

    En synthèse de ces travaux sur la structure du jeu vidéo en tant qu’artefact logiciel, nous proposons alors un modèle structurel présentant le jeu vidéo comme un système mettant en relation différentes composantes.

    Chacune de ces composantes, bien qu’en étroite relation avec les autres, est alors liée à des méthodes de conception différant de celles utilisées pour les autres parties du système.

    Pour résumer, nous considérerons un jeu vidéo comme un système à état variable. 

    Ce système est composé par un ensemble « d’éléments de jeu », l’état de l’ensemble de ces éléments à un instant donné représentant « l’état actuel » du jeu. Chacun de ses éléments est définit par un ensemble de « propriétés » , dont l’état courant détermine l’état général de l’élément en question.

    Par exemple, pour le jeu « Pong » les éléments sont : les raquettes, la balle, les murs et les compteurs de score. L’état de ces éléments correspond à la valeur actuelle de chacune de leurs propriétés, par exemple leur position spatiale, ou encore la valeur numérique qu’ils affichent dans le cas des compteurs.

    Mais pour qu’il ait jeu, ces éléments doivent être soumis à un ensemble de « règles de jeu » qui permettent la modification de l’état des éléments du jeu, et donc de l’état du jeu lui-même.

    Structurellement, une règle se compose de deux parties : la « condition » (SI le joueur appuie sur le bouton haut) et «l’action » (ALORS modifier la propriété « position spatiale » de l’élément « raquette du joueur » de 3 pixels vers le haut).

    Nous pouvons alors diviser le processus de création de tout jeu vidéo en deux « composantes » :
    – La création des éléments et de leur état initial, communément appelé « Level Design ».
    – La création des règles, usuellement dénommée « Game Design ».

    Typologie des règles de jeu
    Pour le cas spécifique du Game Design, nous pouvons aller plus loin et proposer une typologie des règles de jeux, en synthèse des travaux de Frasca  et Järvinen .
    Ainsi, Frasca nous dit qu’un créateur de jeu vidéo dispose de quatre moyens pour diffuser un message : le thème, les règles de manipulation, les règles d’objectif et les règles meta.

    De son coté, Järvinen met en évidence 5 type de règles : les règles définissant le rôle des éléments de jeu, les règles définissant les actions autorisées, les règles d’environnement, les règles d’implémentation du thème ainsi que les règles définissant les moyens d’action et la communication d’information aux joueur.

    En étendant la typologie de règles que nous avons proposé dans nos précédents travaux , nous proposons alors une typologie reposant sur cinq types de règles :

     Règles « Play » : Règles définissant les moyens d’actions du joueur.
    Ces règles sont caractérisées par une condition liée à l’interface entrante du système, et une action agissant sur les éléments du jeu.
    Exemple : SI j’appuie sur la flèche droite du clavier ALORS mon avatar bouge de 10 pixels vers la droite.

     Règles « Game » : Règles définissant les objectif à accomplir.
    Ces règles sont caractérisées par une condition liée aux éléments du jeu et une action produisant un jugement explicite de la performance du joueur. Ce jugement peut ensuite communiqué vers l’interface sortante du système (ajout d’une règle Display) ou directement sur les éléments du jeu (ajout d’une règle World).
    Exemple : SI tout les éléments « ennemis » sont détruits ALORS le joueur a gagné.

    – Règles « World » : Règles faisant évoluer le système de manière autonome.
    Ces règles sont caractérisées par une condition liée aux éléments du jeu et par une action qui agit également sur les éléments du jeu.
    Exemple : règles de la Physique (gravité), intelligence artificielle…

    – Règles « Display » : Règles déterminant la représentation de l’univers virtuel.
    Ces règles se caractérisent par une condition liée aux éléments de jeu et par une action destinée à l’interface sortante du système. Ces règles permettent de « matérialiser » une représentation du monde virtuel sur les périphériques de sortie.
    Exemple : Aspects graphiques, sonores et tactiles du jeu, et toutes les règles qui permettent de modifier ces aspects.

    – Règles « Meta » : Règles de modification des règles.
    Ces règles sont caractérisées par une condition liée à l’interface entrante et par une action ciblant les règles du jeu. Ces règles permettent de modifier les règles des autres catégories, et permettent ainsi au joueur de « modifier » le jeu.
    Exemple : Menu de configuration présentés dans le paragraphe suivant
    TYPOLOGIE DES REGLES DU JEUX

    Typologie des règles de jeux : Play, Game, World, Display et Meta.

    Du « Jeu avec outils » vers « l’outil à jeux »
    En nous appuyant sur ce modèle, nous allons à présent tenter d’analyser différentes approches destinées à inciter les joueurs à la création ou la modification de jeux vidéo, notamment en leur facilitant l’accès à la création par le biais d’outils étudiés en ce sens.

    Les « menu d’options » 
    Ajustement de règles existantes
    Accompagnant historiquement la migration des jeux vidéo des salles d’arcade vers les consoles de salon et autres ordinateurs personnels, les « menus d’options » permettent de paramétrer les règles du jeu.

    STREET FIGHTERWORMS 2

    images : Street Fighter 2                      Worms 2   

    Parmi les exemples les plus courants de ces « options » nous trouvons la possibilité de configurer l’interface du jeu (associer un bouton de l’interface entrante à une action dans le jeu). On peut également rencontrer le paramétrage des règles du jeu lui-même par le choix d’un « mode de jeu » général ou plus précisément en ajustant la « difficulté du jeu ».

    Si l’on se réfère au modèle structurel présenté précédemment, quelles sont les composantes d’un jeu vidéo que permet de modifier un « menu d’option » donné ?

    Nous observons qu’il s’agit ici de la possibilité de modifier les règles du jeu, par le biais de « règles Méta » préalablement définies par le game designer : le joueur ne peut exercer son pouvoir de modification que dans un cadre défini et immuable.

    Ces règles Méta permettent ensuite de modifier, respectivement :
    – Les règles « Play », dans le cadre des configurations des touches : on modifie la partie « condition » des règles Play. Si le menu propose par exemple de modifier le nombre de projectiles disponibles dans un jeu de tir, il s’agit également d’une modification des règles Play.
    – Les règles « Game », pour le cas du réglage du nombre de « vies » ou « continues », de la durée de la partie… et parfois même dans le cadre du paramétrage de la « difficulté » :

    par exemple, en modifiant la résistance des ennemis, on modifie la condition d’une règle Game.
    – Les règles « World » lorsque le menu propose de modifier des paramètres plus spécifiques, par exemple la « puissance de la gravité » ou la « vitesse du jeu ».
    – De choisir entre plusieurs ensembles de règles à utiliser, ces dernières pouvant alors être de chacun des types définit par le modèle théorique (cas du « mode de jeu »)
    – On notera que dans le cas spécifique du réglage de la difficulté, cela peut aussi permettre de modifier l’état initial du jeu : il est possible de choisir entre plusieurs états initiaux comportant par exemple un nombre différent d’ennemis, de bonus, etc…

    D’une manière synthétique, on retiendra que les menus d’options ou de configuration permettent au joueur de personnaliser les règles et éventuellement l’état l’initial du jeu dans un cadre prédéfini par des règles de type « Méta».

    Conçu selon une logique claire de facilitation, aucune connaissance technique ou théorique particulière n’est nécessaire à l’utilisation de ces menus. Nous pouvons finalement observer qu’il s’agit là d’un moyen d’accès extrêmement simple d’utilisation de modification d’un jeu vidéo, la contrepartie étant qu’il demeure forcément très limité : en effet, toutes les modifications permises par ces menus doivent être explicitement prévues par les créateurs originels du jeu.

    Les « éditeurs de niveaux » 
    Création des états initiaux
    En parallèle aux menus de configuration, il existe de nombreux logiciels permettant de créer des « états initiaux », autrement dit de générer un « univers virtuel » composés d’un nombre fini d’éléments possédant chacun un état de départ.

    Originellement destinés aux professionnels réalisants le « Level Design » d’un jeu, ces outils, qui sont généralement des programmes distincts de celui du jeu, ont progressivement été adoptés par les joueurs. Notons qu’à de rares exceptions près, ces outils d’édition de niveau sont toujours spécifiques à un jeu donné.

    Si une des premières initiatives de ce genre, remonte à 1983 avec le jeu « Lode Runner » , la généralisation des éditeurs de niveaux ne fut pour autant pas immédiate. En effet, si une vague de jeux avec éditeurs de niveaux arriva dans les années 80, et même sur console à l’image du jeu « Excite Bike » en 1984, cette vague fut stoppée par l’arrivée des jeux en « 3D temps réel », au début des années 1990.

    LODE RUNNERUNREALIED

    Lode Runner                               UnrealED (Unreal II)   

    Est-ce la complexité supplémentaire de la création d’univers tridimensionnels qui aura rebuté les créateurs de l’industrie ?
    Toujours en est-il que les premiers éditeurs de niveaux « 3D » disponibles pour le grand public furent créés par des amateurs, aux compétences de « hackers », et qui n’avaient à priori aucun lien avec les créateurs originels des jeux.

    Les éditeurs de niveaux « officieux » les plus connus furent sans doute ceux des jeux « Wolfenstein 3D » et « Doom », ces titres faisant partie des pionniers de la 3D temps réel videoludique, en tout cas pour le monde des ordinateurs personnels.

    Bien qu’au départ réticente à laisser au joueur la possibilité de modifier ses jeux en dehors des cadres qu’elle avait définie, l’industrie du jeu, sous la pression de ses clients fortement attiré par ces créations « officieuses », en est arrivé en moins d’une décennie à livrer avec certains de ses jeux les outils qu’elle utilise pour les créer, à l’image des « éditeurs d’univers » des derniers opus de la série « Elders Scrolls », les jeux « Morrowind » et « Oblivion ».

    Si, pour ces cas précis, l’utilisation de ces logiciels  implique un niveau de connaissance technique équivalent à celui des « level designers » professionnels, il est souvent d’usage de créer des éditeurs de niveaux destinées au joueurs, plus facile d’accès car nécessitant un savoir technique moindre.

    Cette facilitation de l’utilisation passe, en plus du recours à des règles d’ergonomie et d’utilisabilité sur l’interface, à la limitation des possibilités de l’éditeur de niveaux.
    Il n’est d’ailleurs pas rare que ces éditeurs de niveaux « accessibles » soient réalisés d’après les logiciels professionnels, dont les possibilités sont alors bridées.

    En nous référant au modèle présenté en première partie, que pouvons-nous observer par rapport aux « éditeurs de niveaux » ?

    Clairement, il s’agit ici d’outils qui n’ont pas vocation à la modification des règles de jeu, mais uniquement de l’état initial du jeu, d’un « niveau ».
    Ainsi, ces outils permettent de définir, par des interfaces logicielles spécialement étudiées, les éléments de jeu présents au démarrage du jeu, ainsi que leur état de départ (position spatiale, vie, vitesse, etc…), à l’image de ceux utilisés sur le site http://www.whosegame.com.

    De ce point de vue, les « composantes » de notre modèle théorique modifiables par les éditeurs de niveaux « professionnels » et les éditeurs de niveaux « amateurs » sont identiques.

    Les différences entre le niveau d’usage des outils proviendront généralement du type de jeu (un éditeur « 3D » étant plus complexe à manier qu’un éditeur « 2D »), et dans l’approche de l’interface : si un logiciel « amateur » visera par exemple à être convivial , un outil professionnel devra quant à lui répondre en premier lieu à des critères d’efficacité, quitte à nécessiter un apprentissage spécifique pour son utilisation.

    Par exemple, l’éditeur de niveau du jeu 2D « Splodder » ne permet que de créer et déplacer des éléments, alors que l’éditeur de niveau 3D « Worldcraft », utilisé pour le jeu « Half-Life », permet en plus d’associer des scripts d’intelligence artificielle, des propriétés physiques…, à chaque élément du niveau.

    La mode des « Mods »
    Modification libre des règles de jeux existants
    Loin de se limiter à la création de l’état initial du jeu, les joueurs ont rapidement cherché à modifier les règles des jeux qu’ils pratiquent, au delà des quelques « réglages » parfois proposés par des menus de configuration.

    A l’image de la généralisation des éditeurs de niveaux, un usage spontané de la part de nombreux joueurs a conduit ces derniers à modifier des jeux existant, créant ainsi des formes « d’œuvres dérivées » qu’ils proposent ensuite gratuitement aux autres joueurs.
    Afin de rester dans les barrières d’une certaine tolérance légale, ces versions modifiées de jeux existants, baptisées « mods » , ne sont pas autonomes et nécessitent de posséder le jeu originel pour être utilisées .

    COUNTER SRIKEQUAKE RALLY

    Counter Strike (Half-life)            Quake Rally (Quake III)

    Originellement créé par des amateurs aux compétences de « hackers » , les premiers « mods », à l’image des premiers éditeurs de niveaux pour jeux 3D, étaient souvent officieux et obtenu à partir de techniques « d’ingénierie inverse » , permettant de retrouver le code source du jeu afin d’en proposer une version modifiée .

    Au départ réticente à ce genre de pratique, l’industrie du jeu vidéo finit par accepter le principe des « mods », jusqu’à l’encourager en distribuant des outils permettant de créer facilement des modifications pour certains jeux. Baptisés «Software Developement Toolkit », ou SDK, ces ensembles d’outils comprennent des « éditeurs » destinés à modifier les différentes parties d’un jeu : éditeur de niveau, éditeur de graphisme, éditeur de sons, éditeur de règles, voire à l’extrême tout ou partie du « code source informatique » du jeu…

    Au-delà de la simplification de la création de mods, l’industrie à également connu des initiatives visant à encourager leur distribution : certains jeux, à l’image de « Max Payne », proposent au joueur, lorsqu’il lance le jeu, de sélectionner un « mod » à employer, par le biais d’un menu de configuration. De même, certains éditeurs ont mis en place sur le site officiel de leurs jeux des sections d’échanges et de distribution de « mods ».

    On notera au passage que, contrairement aux menus de configuration et aux éditeurs de niveaux, le terme « mod » ne désigne pas ici des outils de modification ou de création vidéoludique, mais les modifications en elles-mêmes (règles, images, niveaux…)

    On peut alors faire un parallèle entre ces « mods » et les différents « mode de jeu » parfois proposés par les menus de configuration. La différence étant que les « modes de jeu » émanent des créateurs originels du jeu et sont livrés directement avec ce dernier.

    D’un point de vue structurel, quelles sont les composantes d’un jeu vidéo qui sont modifiées par les « mods » ?

    Pour trouver réponse à cette question il suffit de regarder les outils de création de mods distribués par les studios de développement de jeux, et force est de constater qu’il est impossible d’en dégager une tendance unique.

    En effet, selon le jeu, on sera en mesure de trouver différent type d’outils, chacun permettant de modifier une composante : état initial pour l’éditeur de niveau, règles « Display » pour les éditeurs de graphismes ou de sons, et règles « Play », « Game » et/ou « World » pour les éditeurs de scripts et le code source.
    Cependant, pour chaque jeu les types d’outils ne sont pas les mêmes : là où certains ne proposent qu’un éditeur de niveaux, d’autres proposent le code source intégral du jeu.

    La seule tendance générale que l’on peut apparemment dégager en observant ces outils concerne leur niveau de complexité élevé. En effet, qu’il s’agisse des outils utilisés pour le développement du jeu ou d’outils étudiés pour faciliter et inciter à la création, tous nécessitent un certain apprentissage.

    Si pour les éditeurs de graphismes et de sons ce savoir repose essentiellement sur des compétences en création graphique ou sonore « généralistes », la modification des règles du jeu par langage de programmation nécessitera, en plus de solides compétence en développement dans le langage utilisé, s’initier à la façon spécifique dont le jeu à été écrit.

    Si ces outils peuvent permettre, au prix d’un apprentissage plus ou moins long et complexe, de modifier toutes les composantes d’un jeu donné, il reste une composante qui ne sera à priori pas modifiable : les règles « Méta ».

    En effet, les règles « Méta », ou règles de modifications des règles, sont le type de règle utilisé pour écrire les outils de modification proposés. On comprendra donc que la vaste majorité des créateurs de jeux industriels, afin de conserver la liberté de définir ce qui est modifiable et ce qui ne l’est pas, ne donnent pas la possibilité aux joueurs de « créer leurs propres outils » ou de modifier les outils eux-mêmes.

    Seul des joueurs possédant alors de solides compétences de « hackers » seront à même d’écrire leur propres outils, à l’image des outils officieux qui furent utilisés lors de la création des premiers « mods ».

    Du point de vue des usages, le niveau de complexité général de ces outils n’est pas sans incidence : contrairement à l’usage des menus de configuration ou des éditeurs de niveaux, souvent utilisés par un créateur solitaire, les « mods » sont très souvent créés par des équipes de créateurs, en particuliers lorsque leurs modifications portent sur plusieurs composantes simultanées.

    Une sorte de catégorisation empirique existe d’ailleurs au sein des communautés de moddeurs  : d’un coté les «Partial Convertion », qui ne modifient qu’une composante à la fois , et de l’autre les « Total Convertion » qui en modifient plusieurs simultanément, au point parfois de ne plus permettre de reconnaître le jeu originel.

    Si les mods riches en modifications, à l’image des « Total Convertion », sont souvent le fruit de plusieurs créateurs associés, la raison en est très simple : la modification en profondeur de chacune des composantes nécessite un savoir distinct de celui utilisés pour modifier les autres composantes.

    Dans le monde professionnel, chaque « corps de métier » prend en charge la création d’une composante spécifique, il en est donc de même pour les moddeurs travaillant en équipe : les « levels designers » modifieront les états initiaux, les « infographistes » et « designers sonores » s’occuperont des règles « Display », respectivement pour la partie visuelle et sonore, et enfin les « programmeurs » auront à leur charge de transformer les règles « Play », « Game », et « World ».

    En résumé, on observera que les outils de création de « mods », bien qu’à priori destinées à des amateurs, sont plutôt des outils nécessitants un savoir technique pouvant égaler celui des professionnels, en raison d’un processus de facilitation qui s’appuie le moins possible sur une limitation des possibilités offertes par les outils de modifications.
    En revanche ces outils, distribués gratuitement, restent toujours spécifiques à un jeu (ou à un ensemble de jeux) donné.

    Dans la pratique, l’acquisition de compétences et de méthodes de travail professionnelles par des amateurs afin de pouvoir modifier leurs jeux favoris n’est pas sans soulever la question de la frontière entre monde professionnel et monde amateur. Cette frontière semble d’autant plus floue lorsque l’on remarque que certains « mods », après diffusion gratuite par des amateurs, sont parfois édités commercialement par des éditeurs, à l’image de « Counter-Strike », de « Day of Defeat » ou encore de « Tactical Ops ».

    Les « usines à jeux » et autres « construction kit »
    Création de jeux autonomes
    Etape à ce jour la plus complète de l’évolution d’outils visant à faciliter et inciter à la création vidéoludique, il existe nombre de logiciels permettent de créer des jeux vidéos complets et autonomes .

    Permettant généralement de créer toutes les composantes d’un jeu vidéo, ces logiciels se présentent donc comme des compilations d’outils de « Game Design » et de « Level Design ». A la différence des outils de « modding  », ces outils ne sont pas liés à un jeu donné, et constituent donc des outils de création vidéoludique génériques.

    Parmi les noms les plus célèbres de ces outils, dont certains sont d’ailleurs commercialisés, on retrouve notamment la grande famille « click » initié en 1994 par « Klik n’Play », rapidement suivi par les différents opus de « The Game Factory » et « Multimédia Fusion ».
    Parmi les pionniers du genre à être reconnus commercialement, nous identifions « Pinball Construction Set » en 1983, ou encore « GameMaker » sur Commodore 64 en 1985.

    Mais la grande famille des « usines à jeux » compte aussi des titres tels que « Game Maker », « 3D Game Studio », «The 3D GameMaker », « RPG Maker », « M.U.G.E.N », « Adventure Studio », « Adventure Construction Set », « F.P.S. Creator », « MegaZeux », « Racing Destruction Set », « Shoot’em Up Construction Kit »… et la liste est encore longue.

    GAMEMAKERTHE GAME FACTORY

    GameMaker                                  The Games Factory 2

    A l’image de cette grande variété de logiciels existants, force est constater qu’on se retrouve face à un cas similaire à celui outils de moddings, c’est-à-dire que ces outils existent en des complexités et possibilités de création très variables.

    Cependant, nous constatons au premier abord qu’il existe des logiciels « professionnels », à l’image de « Virtools », «Multimedia Fusion » ou « 3D Game Studio », qui nécessitent un savoir technique très élevé, et incitent d’ailleurs les créateurs de jeu utilisant ces outils à se regrouper en équipes, comme pour les moddeurs.

    A l’image des outils de modding, il s’agit donc ici d’outils destinés en premier lieu à des professionnels, qui sont ensuite détournés dans les usages par des amateurs.

    Cependant, si pour les outils de « moddings », qui ne sont que des « suppléments gratuits » livrés avec certains jeux, les créateurs d’outils pouvaient s’affranchir de proposer des outils faciles d’accès en justifiant de leur puissance de modification, la donne est ici différente pour  des logiciels qui sont vendus ou distribués pour eux-mêmes.

    En effet, même si la portée et la puissance des outils rejoint celles des outils de mods, le but n’est pas ici de modifier un jeu, donc de créer à partir d’une base, mais d’inciter le joueur à créer une œuvre originale.

    La problématique relative aux moyens d’opérer une facilitation sans pour autant réduire la liberté de création prend alors ici une importance capitale, plus que dans les autres approches.

    Et effectivement, au-delà des outils « professionnels » sus-cités, on remarque qu’il existe des outils plus simples d’accès, et dont le savoir technique requis, s’il n’est certes pas inexistant, reste très modeste comparée à celui demandé par les logiciels provenant directement du monde professionnel.
    Pour autant, ces logiciels ne peuvent pas faire trop de concessions sur la liberté de création qu’ils offrent, sous réserve de connaître un échec commercial .

    Quelles sont donc les solutions alors mises en œuvres par ces créateurs de logiciels pour essayer de concilier liberté créative et facilité d’accès ?

    Plusieurs approches différentes semblent coexister :
    – La limitation sur les composantes créables, voire de la liberté créative :
    Des logiciels comme « The 3D Game Maker » ne permettent en fait de modifier que l’état initial (« Level Design ») et la représentation du jeu (règles « Display »), le reste des règles n’étant pas modifiable.

    Les éléments modifiables ne le sont d’ailleurs qu’à partir de bibliothèques fournies avec le logiciel, facilitant grandement la création tout en la limitant sévèrement.
    Cela permet même à ce logiciel de proposer un mode « création aléatoire », dans lequel un jeu est créé automatiquement par la machine qui assemble alors de manière aléatoire les divers blocs de sa bibliothèque, et configure de même les quelques options proposées au créateur.

    Rare logiciel à opter pour une voie de la facilitation par la limitation extrême, au point de pouvoir se demander s’il permet de « créer » ou simplement de « choisir un choix préexistant », il n’a apparemment pas remporté un grand succès.

    – La limitation des options des outils :
    Solution visant à réduire grandement le niveau de connaissance technique requis pour la création vidéoludique tout en conservant la possibilité de créer tout les types de composantes.
    Elle consiste, au lieu de supprimer des outils comme précédemment, de tous les conserver mais d’en réduire leur puissance, réduisant de fait ce qu’ils permettent de créer sans pour autant condamner toute liberté créatrice.

    Le joueur conserve néanmoins une grande palette de possibilité créatives, et chaque logiciel bridant ses propres outils de manière différente, la diversité entre les nombreux logiciels existants confère au joueur un certain choix dans les limitations dont il pourra s’accommoder.

    Ainsi, un logiciel de création « 2D » ne pourra pas permettre la création de jeux en « 3D ». Autre exemple, pour l’écriture des règles chaque logiciel propose un « langage de programmation » qui lui est propre, qui se trouve généralement être une version plus ou moins simplifié d’un langage de programmation commun (Basic, Javascript, etc…). A noter que des logiciels comme « The Game Factory » permettrent d’écrire des règles sans passer par l’apprentissage d’un langage de programmation, un « éditeur d’événement » basé sur le modèle « condition / action » permettant d’écrire de l’interactivité en quelques clics.

    – L’automatisation optionnelle :
    Il s’agit d’une méthode très originale que l’on peut observer dans la famille des produits de la « clickteam », qui consiste à proposer simultanément une approche limitée facile d’accès et une approche ouverte plus complexe.

    Ainsi le créateur peut par exemple, pour un élément donné, choisir différents modes de déplacement pré-configurés (mode voiture de course, mode plateforme…) qu’il peut éventuellement configurer, lui permettant ainsi de créer les règles « Play » dédiées au mouvement des éléments d’une manière certes limitée mais aussi très simple d’accès. Pour ceux souhaitant aller plus loin que ces modes « pré-configurés », ce même logiciel permet de créer de toutes pièces les règles « Play » de mouvement des éléments.

    Dans le même esprit, ce logiciel propose également un mode « pas à pas », qui est une méthode de création des règles de jeu intégré dans une session de jeu. Concrètement, après avoir créé les différents éléments de son jeu et leur avoir attribué un état initial, le joueur lance le mode « pas à pas », qui est un mode de jeu qui détectera automatiquement ce qui lui semblera être des « conditions » de règles pertinentes. Il proposera alors au créateur de choisir le ou les actions à associer à cette condition, lui facilitant ainsi la création des règles Play, Game, World et Display.

    Au-delà d’une recherche plus poussée que les autres approches sur la problématique de la facilitation et l’incitation tout en conservant une certaine liberté créative, il est assez difficile de ne pas faire le rapprochement entre certains de ces logiciels et les outils de modding de certains jeux.

    En l’occurrence, certains jeux, par exemple « Quake », livré avec des outils de modifications professionnels , ont vu naître des mods qui donnent naissance à des jeux très différents du jeu d’origine, à l’image du célèbre « Quake Rally ».

    Pour autant, utiliser « Quake » comme base pour créer un jeu de course n’est pas la voie la plus aisée, ce jeu étant à priori voué à donner naissance à des « mods » du même type de jeu que lui, en l’occurrence des « F.P.S. » .

    Ainsi la grande majorité des « mods » d’un jeu donné, resteront globalement dans les canons du genre du jeu d’origine.

    Comment alors ne pas faire le rapprochement entre les « mods » et les « usines à jeux » qui sont orientés vers un genre spécifique de jeu ?

    PINBALL CONSTRUCTION SETFPS CREATOR

    Pinball Construction Set                        FPS Creator  

    En effet, si nous avons pour l’instant analysé des logiciels de création vidéoludique généralistes , il en existe un nombre conséquent qui soit orienté vers un genre précis de jeu vidéo, à l’image de « M.U.G.E.N. », « Fighter Maker » et « KOF’91 » pour les jeux de combats, ou de logiciels aux titres explicites comme « RPG Maker », « Pinball Construction Set », « Shoot’em Up Construction Kit », « Adventure Construction Set »…

    L’existence parallèle de logiciels de création vidéoludique « généralistes » et de logiciels « spécifique à un genre » nous permet d’ailleurs de nous interroger sur la façon dont il est possible, au delà d’un cadre technique, d’inciter et de faciliter la création d’un genre précis de jeu vidéo.
    En d’autres termes, quelles sont les stratégies qui permettent de rendre un logiciel spécifique à un type de jeu donné (quand ce n’est pas à un jeu donné comme pour le cas des mods) ?

    En analysant ces logiciels « spécifiques » et en les comparant à leurs collègues « génériques »,  nous pouvons observer les approches suivantes 
    :
    – Les outils spécifiques possèdent un certain nombre de règles prédéfinies.
    Ces règles caractérisent généralement un genre de jeu donné :
    o    R.P.G. Maker : combat au tour par tour, système de point de vie, de magie et de compétence, gestion d’un inventaire, d’une équipe des personnages…
    o    F.P.S. Creator : vue en 3D à la première personne, l’avatar du joueur peut tirer à partir de différentes armes, présence d’un moteur physique…
    o    M.U.G.E.N. : chaque joueur ne contrôle qu’un avatar, utilisation d’un système de collision et animation, prédéfinition de règles telles que « gel de l’animation à l’écran », jauge de « super coup », etc…
    Ces règles sont généralement immuables ou configurables dans un cadre restreint et prédéfini. Le fait de réaliser un jeu d’un genre différent de celui du logiciel de création  nécessite alors de passer par des méthodes de détournements visant à contourner les « facilitations » mises en place par les auteurs du logiciel.

    – De leur coté, au-delà des orientations et limitations techniques dont nous avons déjà parlé, les outils génériques ne proposent à priori aucune règle qui ne soit pas modifiable.
    Il peuvent néanmoins, afin de faciliter la création de jeu genre donné, proposer des « exemples » de jeu sur lequel pourra se baser le créateur.

    Nous nous retrouvons alors dans un logique proche des « mods », avec une différence fondamentale : là où les « mods » ne proposeront que rarement des outils qui permettent d’outrepasser des règles de bases du jeu originel, le logiciel de création généraliste n’a aucune limite et propose juste un exemple d’utilisation librement modifiable.

    A la lumière de ces observations, nous remarquons donc le fort lien qui existe entre les « mods » et les « usines à jeux », notamment par l’existence des « usines à jeux » liées à une genre spécifique. De plus, parmi les outils proposés par ces deux approches, nous retrouvons des « éditeurs de niveaux », ainsi que des « menus de configuration ».

    Nous pouvons alors voir, à travers ces approches, trois étapes d’un même processus de facilitation de la création vidéoludique : en premier lieu les logiciels de création généralistes qui n’opèrent que des choix de limitations ergonomiques ou techniques sans pour autant trop orienter la création. Viennent ensuite les logiciels de création spécifique à un genre, qui, par le biais de règles et mécanismes ludiques préconstruits, orientent la création vers un genre donnée. En poussant ce processus à l’extrême, on retrouve des logiciels de création orientés vers un jeu donné.
    La limitation et la mise en place de mécanismes ludiques immuables ou à configuration limité sont alors les principaux outils de ce processus de facilitation de la création vidéoludique.

    Synthèse analytique

    En nous basant sur un modèle structurel poussant à voir le jeu comme un système à état variable, nous mettons en évidence deux grandes composantes de l’artefact jeu vidéo qui résulte du processus de création des auteurs du jeu : l’état initial, rattaché au « Level Design » et les règles permettant les changement d’état, crée lors du processus de « Game Design ».

    Nous utilisons alors ce modèle comme grille de lecture sur diverses approches et outils destinés à inciter les joueurs, sous-entendu des créateurs non professionnels, à modifier ou créer des jeux par eux-mêmes.

    Si ces pratiques sont variées et notre étude loin d’être exhaustive, ce large panorama nous permet déjà de dégager des grandes tendances :
    –    La création de jeu vidéo est opérée par des auteurs « professionnels », rémunérés pour leur travail, et des auteurs « amateurs », dont la passion remplace le salaire.
    –    La création jeu vidéo par les professionnels repose sur des outils impliquant un niveau de connaissance technique assez élevé.
    –    Afin de faciliter l’accès à la création de jeux vidéo, plusieurs approches existent :
    *   La modification de jeux existants
    *    Les menus de configuration : aucune compétence particulière.
    *    Le « modding »
    *    Modification des règles
    *    Règles Play / Game / World : compétences en programmation informatique.
    *    Règles Display : compétences en création infographique ou sonore.
    *    Règles Meta : rarement modifiables, car elles servent au créateurs originel pour définir le cadre des modification autorisées.
    *    Modification des états initiaux : création de « niveaux », par le biais d’éditeurs dédiés dont certains, créés pour les joueurs, ne nécessitent pas un niveau de compétence technique très élevé.
    *    La création de jeux « sans modèle préalable »
    *    Outil de création « générique » : permettent de faire tout type de jeu.
    *    Outil de création « spécifique » : sont orientés pour la construction d’un genre de jeu précis.

    Nous pouvons alors observer que la limitation de la portée des outils de création semble être la voie privilégiée pour faciliter l’accès à la création vidéoludique. S’il en résulte indubitablement une limitation de la liberté créative, cette limitation s’accompagne également d’une baisse du niveau de connaissance technique ou théorique requis pour créer ou modifier un jeu vidéo.

    Dans la pratique, cette limitation peut porter sur les composantes qui sont modifiées, à l’image des éditeurs de niveaux ne permettant de modifier que le « Level Design », ou sur la profondeur du cadre des modifications autorisées pour une composante donnée, à l’image des « menus de configuration » qui ne permettent qu’un nombre excessivement restreint de modifications sur les règles de jeu.

    Si l’on regarde alors ce panorama dans son ensemble, des menus de configuration aussi limités que faciles d’utilisation aux outils professionnels aussi puissants que complexes, on ne peut alors s’empêcher de constater une certaine complémentarité entre toutes ces approches.
    En effet, si elles permettent chacune de modifier des composantes différentes, elles proposent surtout de le faire avec niveau de complexité très varié.

    Pour être plus précis, nous pouvons même observer une sorte de hiérarchie entre les quatre approches analysées, chacune proposant un champ de possibilités créatives de plus en  plus ouvert, au prix d’un niveau de savoir technique requis augmentant en conséquence.

    Ainsi, les menus de configurations, limités et facile d’accès, sont intégrés directement dans le jeu, et peuvent même constituer une étape obligatoire au démarrage de la partie.
    Les éditeurs de niveaux, qui ne permettent à la base que de définir des « états initiaux », sont un des outils utilisés pour la création de mods et se retrouvent intégrés dans la palette des outils proposés par les « usines à jeux ».

    Ces deux dernières approches nécessitent donc un savoir supplémentaire, en plus de la maîtrise des éditeurs de niveaux. En conséquence, il n’est pas rare que les deux dernières approches, surtout celles basées sur des outils à l’origine destinés aux professionnels, soit principalement utilisées par des groupes de créateurs, et non plus des personnes seules.

    La diversité et la complexité des savoirs nécessaires à la réalisation de mods tels que « Counter-Strike » poussent les « joueurs-créateurs » à s’organiser en équipe réunissant plusieurs « corps de métier », comme les professionnels, à la différence près que ces derniers sont rémunérés pour leur travail.

    Au delà des processus de facilitation et d’incitation mis en place par chacune des approches présentées, il semble alors pertinent de voir une forme de processus global de facilitation et d’incitation à la création ludique de qualité professionnelle opéré par la combinaison de toutes ces approches.

    En effet, nombreux sont les joueurs, à l’image des auteurs de cet article, a être devenu des créateurs professionnels de jeux vidéo suite à un parcours de « créateur amateur » impliquant la succession des différentes approches mises en avant dans cet article.

    Par exemple, les fondateurs du studio Valve Software, actuellement parmi les développeurs les plus renommés de l’industrie grâce à la création de la série de jeux « Half-life », ont commencés par se faire connaître dans le monde « amateur » par la création du mod « Team Fortress » pour le jeu « Quake ». Ironie du sort, un de leur dernier titre est justement la « suite » de mod, sous forme de jeu complet réalisé dans le monde professionnel cette fois.

    A noter également que GooseMan, initiateur du célébrissime mod « Counter-Strike » pour « Half-Life », fut ensuite recruté par ce même studio.

    Ces différentes approches, en facilitant et incitant les joueurs la création vidéoludique, contribuent donc également à créer des fortes connections entre le milieu de la création vidéoludique « amateur » et le monde industriel.

    Notons également que ces approches ont des incidences sur la pratique même du jeu par les joueurs qui ne sont pas forcément « créateurs », comme l’a par exemple étudiée Maude Bonenfant dans son article d’analyse des usages de World of Warcraft  : ces approches, en particulier les mods et menus de configuration, permettent aujourd’hui aux joueurs de s’approprier ou se réapproprier un jeu donné.

    Conclusion
    Au travers de son histoire, nous observons que le jeu vidéo pratiqué sur support informatique est riche de différentes approches destinées à globalement faciliter et inciter les joueurs à la création vidéoludique.

    En nous appuyant sur un modèle structurel du jeu en tant qu’artefact résultant d’un processus de design, nous avons alors mis en évidence les différences d’approches entre ces dispositifs logiciels.

    Mais au-delà de leurs différences, cette analyse fait ressortir leur complémentarité : chacun de ces dispositifs, de part les limites et outils sur lesquels il repose, implique un niveau de compétences technique plus ou moins élevé de la part des utilisateurs.

    D’après les quatre approches présentées dans cet article, nous observons que ces niveaux de compétences se répartissent de très faible (menu de configuration) à très élevé (kit de développement pour les mods ou usines à jeux).

    Cette complémentarité entre les diverses approches de facilitation de la création vidéoludique semble avoir contribué à plusieurs évolutions notables de l’univers des jeux vidéo. Ces évolutions ne sont d’ailleurs pas sans soulever quelques questions quant à la notion de frontière entre professionnels et amateurs, au vu des forts liens qui unissent ces deux mondes au travers des différentes approches présentées.

    Mais au-delà d’un moyen de démocratiser l’accès à la création ou d’attirer nombre de créateurs professionnels en leur permettant « d’apprendre le métier » en tant qu’amateur, ces approches semblent aujourd’hui préfigurer d’un nouveau courant vidéoludique, baptisé « Jeu 2.0 ».

    En effet, riche d’un passé fourni en démarches de démocratisation de la création vidéoludique, une des voies que semble aujourd’hui vouloir emprunter l’industrie du jeu vidéo est celle du « joueur-créateur »

    En d’autres termes, il s’agit d’inclure au maximum les créations des joueurs dans le jeu, voire même de baser les mécanismes du jeu sur la créativité des joueurs. Pour cela nous retrouvons des jeux d’outils inspirées des approches présentées dans cet article, à l’image de « Splodder » ou « Little Big Planet », dont le partage de niveaux créés par les joueurs est au cœur du jeu, grâce à des éditeurs de niveaux simple d’accès.

    Autre exemple significatif, très récent lors de la rédaction de cet article, le jeu « Spore », sur un concept de Will Wright, propose au joueur de créer sa propre forme de vie et de la faire évoluer, de l’état de bactérie jusqu’à l’age de la conquête interstellaire, où elle devra alors affronter les formes de vies imaginées par d’autres joueur.

    Pour autant, il n’agit pas ici d’un jeu en réseau où chacun dirige une civilisation, mais bel et bien d’un jeu « solo » dont l’état initial du jeu sera basé sur l’agglomération de toute les créations des joueurs ayant lancé le jeu avant vous.

    A cet usage, un « éditeur de créatures », permettant de concevoir l’apparence de créatures virtuelles, est au cœur des mécanismes de jeu. Il s’agit clairement d’un « éditeur de graphisme », utilisé en tant que base des règles « Play ».

    A titre d’exemple, la campagne promotionnelle du jeu a consisté à diffuser gratuitement l’éditeur de créatures trois mois avant la sortie du jeu, afin que les joueurs, une fois qu’il ont créé leur créatures, aient envie d’acheter le jeu qui leur permettra de jouer avec, l’éditeur ne permettant que de les construire et des les admirer.

    Signe de l’avenir apparemment prometteur du concept de « joueur-créateur », plus d’un million de créatures  ont été créées de part le monde seulement deux semaines après la publication de cet éditeur.

    Quelles seront alors les incidences sociales, économiques ou culturelles de cette forte incitation du joueur à exercer sa créativité dans un cadre vidéoludique ?
    C’est ce que nous tenterons d’observer en concentrant nos futurs travaux sur le « Jeu 2.0 » …

    Communication scientifiique LUDOVIA 2008 par Damien Djaouti, Julian Alvarez, Jean-Pierre Jessel, Gilles Methel (extraits)
    IRIT, Université Toulouse III, France, LARA, Université Toulouse II, France.