Étiquette : data

  • Le CNED à l’heure des Learning Analytics

    Le CNED à l’heure des Learning Analytics

    Interview de Michel Reverchon-Billot, Directeur Général du CNED, lors du salon Educatec-Educatice sur la question des Learning Analytics ; sujet d’actualité dont le CNED s’est déjà emparé ! En effet, il utilise aujourd’hui ces « data » pour performer dans son offre de formation dans un but final : améliorer les apprentissages de ses inscrits.

    « Le CNED aujourd’hui, étant un industriel de la formation, possède des data considérables avec plus de 245 000 inscrits et plus de 1,5 millions de copies corrigées en ligne ».

    Tous ces inscrits laissent obligatoirement des traces d’apprentissage ; traces dont le CNED a bien saisi l’enjeu pour s’en servir, « aussi bien pour l’inscrit que pour le CNED et son évolution », souligne Michel Reverchon-Billot.

    Rigueur autour de l’utilisation des données : l’éthique du CNED.

    Il rappelle le cadre éthique extrêmement rigoureux dont fait preuve le CNED à l’égard de ces données.

    « Nous ne sommes pas du tout dans l’optique d’utiliser ces données pour autre chose qu’au service de la majoration des apprentissages des élèves et de leur parcours ».

    Ces « traces » vont être utilisées pour différents domaines d’activités. C’est ce que développe Michel Reverchon-Billot dans la vidéo ci-contre.

    Tri et choix des données : répondre avant tout aux objectifs d’apprentissage.

    Elles peuvent être notamment utilisées à des fins d’amélioration des apprentissages, pour améliorer la conception des dispositifs du CNED ou encore agir sur l’ergonomie et les interfaces.

    « La question aujourd’hui n’est pas de savoir si nous avons des données mais plutôt de savoir quelles données faut-il choisir et quelles sont celles les plus pertinentes ».

    Le CNED est déjà acteur dans le domaine des Learning Analytics et s’en sert déjà.

    Learning Analytics : une réalité déjà ancrée au CNED.

    « Nous avons déjà des activités au CNED qui sont très articulées aux données ».

    Michel Reverchon-Billot donne l’exemple du nouveau dispositif d’apprentissage du français langues étrangères, « PROFLE+ », lancé le 6 octobre 2017, en partenariat avec le CIEP dont il détaille le contenu dans la vidéo ci-contre.

    Ou encore le dispositif D’COL, dispositif complet d’aide, de soutien et d’accompagnement en français, mathématiques et anglais pour les élèves en difficultés de 6ème et CM2 des écoles REP+ et REP (depuis la rentrée 2016) où l’historique des données d’un élève est très important. En effet, ce même élève peut passer de son enseignant à un tuteur du CNED ou encore avoir affaire à un avatar… « Chaque fois qu’un tuteur nouveau entre sur la plateforme, il a accès à l’histoire scolaire de l’élève. On voit bien que ces données-là remontent pour fournir de l’info et pas pour autre chose ».

    Autant d’exemples sur le suivi des élèves, disponible grâce aux données, pour fournir aux enseignants-tuteurs une vision complète de l’activité de leurs élèves dans une classe virtuelle.

    Dans la lutte contre le décrochage, qui est souvent d’actualité sur les formations à distance, il existe également un dispositif automatisé qui permet de renvoyer à l’inscrit des alertes, des messages, pour le remotiver en quelque sorte. Cette mise en oeuvre va d’ailleurs se voir renforcer par un accompagnement téléphonique.

    « Je crois que c’est la force du CNED aujourd’hui, celle d’être dans l’hybridation des supports, d’hybridation de l’accompagnement et d’hybridation des modalités de formation. C’est un établissement multimodal dans toutes ces directions », conclut Michel Reverchon-Billot.

     

     

  • Le Blended-Learning Analytics

    Le Blended-Learning Analytics

    Laëtitia Pierrot, doctorante au laboratoire Techné de l’université de Poitiers, a participé à la table ronde sur le C2E 2016 autour du thème « Comment analyser les apprentissages avec les traces numériques de l’activité ». Elle présente son travail de recherche au micro de ludomag.

    Elle réalise en ce moment un travail de collecte de données dans un lycée de l’académie de Poitiers pour envisager des résultats sur la manière dont les lycéens acquièrent de nouvelles pratiques.

    Par exemple, Laëtitia cherche à avoir des informations sur les actions les plus fréquentes des lycéens. « Lors de la table ronde, nous avons présenté, par exemple, le top 10 des applications et des URL utilisés par des lycéens de seconde, classés par genre (masculin ou féminin)« .
    Ce sont des données qui sont collectées sur les équipements personnels des élèves ce qui correspond à une utilisation dans tous les cours, à la fois dans le lycée et hors du lycée.

    Quelques résultats sont évoqués par Laetitia Pierrot dans la vidéo ci-contre.

    Tous les sujets, articles et vidéos réalisés sur le C2E 2016 sont à retrouver dans notre dossier spécial ici.

  • Infobésité et big data : faites parler les données!

    Infobésité et big data : faites parler les données!

    Stéphane Chauvin dirigeant de la société R2C System et de mydataball.com est venu témoigner de son point de vue en tant que représentant de la filière numérique, sur la thématique de cette année à savoir le big data. En effet, le c2E, au-delà des chercheurs, fait venir de nombreux intervenants extérieurs pour ouvrir les points de vue sur la thématique.

    « Nous sommes des industriels de l’analyse et nous avons une mécanique qui va prendre depuis les données jusqu’aux besoins des décideurs à transformer la donnée en connaissance utilisable et pertinente« .

    Exemples de ce travail et utilisation concrète de la data illustrés par le propos de Stéphane Chauvin dans la vidéo ci-contre.

    Tous les sujets, articles et vidéos réalisés sur le C2E 2016 sont à retrouver dans notre dossier spécial ici.

    A propos de mydatball.com : mydataball.com

     

  • L’enjeu des Learning Analytics

    L’enjeu des Learning Analytics

    Serge Garlatti est professeur à Télécom Bretagne et responsable du département informatique, membre du laboratoire LabSTICC, du CSV du pôle Images et réseaux, président de l’ATIEF et membre de l’AFIA.Il est intervenu sur le C2E sur l’un des volets de la thématique annuelle du big data à savoir l’analyse des données d’apprentissage. Il a utilisé quelques cas d’études dans le cadre du projet Hubble.

    « Cela fait maintenant environ 15 ans que je travaille à l’intersection des domaines de l’Intelligence Artificielle et des EIAH. Mes activités de recherche portent sur les domaines de la e-Education, de la E-Formation (apprentissage tout au long de la vie) et de la médiation culturelle pour des apprentissages formels et informels.
    Je m’intéresse à des problématiques de conception d’environnements d’apprentissages et de médiation culturelle fondés sur des démarches par investigation ou le connectivisme, en utilisant des média sociaux dans des environnements ouverts de type MOOC.

    D’un point de vue informatique, il s’agit de problématiques d’acquisition et de représentation de connaissances, de traces et d’analyses de ces dernières, de web sémantique et de Linked Data, de sensibilité au contexte et d’adaptation, de learning analytics, et de génération dynamique de tableaux de bord pour accompagner toutes les parties prenantes ».

    L’enjeu des Learning Analytics aujourd’hui est d’être capable d’analyser le comportement des apprenants sur des plateformes numériques, de plus en plus utilisées.

    « Le but est bien d’adapter, grâce à ce travail d’analyse, les outils à chaque apprenant ou à chaque groupe d’apprenant et il y aura de biens meilleurs résultats au niveau des apprentissages« , explique t-il.

    Retrouvez toute sa réflexion sur le sujet dans la vidéo ci-contre.

    Tous les sujets, articles et vidéos réalisés sur le C2E 2016 sont à retrouver dans notre dossier spécial ici.

     

     

  • Big Data : l’Université de Technologie de Troyes lance un Mastère spécialisé

    Big Data : l’Université de Technologie de Troyes lance un Mastère spécialisé

    Une formation en réponse aux attentes des entreprises

    Toute entreprise, quel que soit son secteur d’activité et sa taille, générant et utilisant des données, doit faire face à la mise en place d’une politique efficace de la donnée. Cette politique révolutionne aujourd’hui les usages, le cycle de vie des services, les produits qui en découlent et l’innovation dans plusieurs secteurs, dont le transport, la (cyber)-sécurité, la sureté, les réseaux d’énergie, les médias, etc.

    Le Mastère Spécialisé ® « Expert Big Analytics et Métriques », lancé par l’UTT à partir de septembre 2016 répond à cette attente en formant des experts du « data-driven analytics » capables de concevoir, mettre en place et piloter des solutions innovantes pour résoudre les problématiques de gestion et d’analyse des grandes volumétries de données.

    Par ailleurs, l’UTT est engagée dans 3 projets de recherche en lien avec la thématique Big Data : FUI System@tic VIRTUALIS, sur la virtualisation des capteurs physique et logique, EIC – IRT SystemX sur les environnements de test d’interopérabilité et Big Data REQUEST sur l’implémentation d’algorithme de requête intelligent.

    Un Mastère Spécialisé formant à deux métiers stratégiques : data scientist et data strategist

    Le Mastère Spécialisé « Expert Big Analytics et Métriques » traite le cycle de l’information en abordant, à différentes échelles, les problématiques de la donnée dans un contexte de pluridisciplinarité. C’est la première formation en France qui met l’emphase sur le potentiel avéré des Big Analytics pour la construction de métriques dans le suivi et la compréhension de phénomènes complexes.

    La formation repose sur l’acquisition d’un triptyque de compétences indissociables et indispensables (défis sociétaux, technologies et gouvernance) offrant aux futurs experts la capacité de répondre aux exigences et aux défis des problèmes qui leur sont posés dans la gestion et l’analyse de grandes quantités de données générées par l’activité humaine et les systèmes sociotechniques.

    Un cursus complet sur 12 mois

    Ce Mastère Spécialisé s’adresse aux ingénieurs récemment diplômés ou en poste, et à des cadres d’entreprises qui souhaitent parfaire leur connaissance ou se former aux nouveaux métiers du Big Data, afin de relever efficacement les challenges actuels et futurs. L’admission se fait sur dossier et entretien.

    La formation a lieu à Paris et est divisée en 5 blocs de compétences de 70h, associés pour chacun à des thématiques spécifiques. Durant leur formation, les étudiants disposeront d’un Lab technologique pour les travaux pratiques et leurs expérimentations.

    Les 350 heures d’enseignement sont suivies d’une période de stage de 4 mois minimum qui donne lieu à la production d’un rapport et à la soutenance d’une thèse professionnelle.

    L’UTT EN CHIFFRES

    ·       2600 étudiants

    ·       133 enseignants-chercheurs

    ·       206 personnels support et d’appui

    ·       175 doctorants

    ·       5 diplômes d’ingénieur sous statut d’étudiant

    ·       1 diplôme d’ingénieur par apprentissage

    ·       3 licences professionnelles

    ·       38 millions d’euros de budget

    ·       8 équipes de recherche au sein de l’Institut Charles Delaunay, labellisé CNRS

    ·       42 360 m² de locaux dont 600 m² de salles blanches

    ·       4 PIA1 : Labex Action, IRT M2P, ITE PIVERT et INNOVENT-e

    A propos de l’UTT :

    Avec 2600 étudiants, l’Université de Technologie de Troyes fait partie des dix plus importantes écoles d’ingénieurs françaises. L’UTT forme des ingénieurs en 6 branches, des Masters en 9 spécialités et des docteurs en 3 spécialités. La politique de développement de l’UTT mise sur une recherche de haut niveau, axée sur la thématique transverse Science et Technologies pour la Maitrise des Risques, et une stratégie internationale ambitieuse. L’UTT est membre de la Conférence des Directeurs des Ecoles Françaises d’Ingénieur, de la Conférence des Présidents d’Universités, de la Conférence des Grandes Ecoles et de la European University Association. L’UTT fait partie du réseau des universités de technologie françaises.

    Crédit photo : JP Gilson.

  • Le Big Data : un enjeu majeur de compétitivité pour les entreprises françaises

    Le Big Data : un enjeu majeur de compétitivité pour les entreprises françaises

    Le Big Data est un changement de paradigme qui mérite un accompagnement des pouvoirs publics, notamment en termes d’éducation/formation, et une prise de conscience des grandes entreprises. Telle est en substance la conclusion des réflexions de l’Académie des technologies, qui livre, dans un rapport qui vient de paraître, une analyse « Opportunités/Menaces » de l’impact du Big Data pour les entreprises françaises.

    Le domaine du Big Data représente une vraie révolution informatique, qui s’exprime dans des dimensions multiples, depuis la technologie jusqu’aux applications en passant par les pratiques. Il devient fondamental de comprendre ces nouveaux outils pour faire face à la compétition mondiale des entreprises « stars » de l’Internet.

    La maîtrise du Big Data est un enjeu majeur de compétitivité pour les entreprises françaises qui doivent acquérir de nouvelles compétences, à la fois techniques et culturelles, comme de savoir tirer profit de l’open source.

    Le Big Data est une rupture dans l’analyse des données et l’utilisation des méthodes statistiques pour les entreprises, fondée sur une approche systémique et des cycles réactifs courts. C’est une façon de programmer des systèmes en boucle itérative, très différente de la démarche classique qui sépare une phase d’extraction de connaissances de la phase d’application (pour du ciblage marketing par exemple).
    La programmation en boucle itérative permet de confronter tout de suite les motifs détectés à la mise en situation et de juger de leur efficacité opérationnelle. Le Big Data est ainsi avant tout une démarche expérimentale – même si elle laisse la place aux développements conceptuels et théoriques – qui est favorisée par un changement de culture de travail, agile et collaborative.

    Le Big Data représente également une nouvelle façon de programmer, de façon massivement parallèle et centrée sur les données.

    Le Big Data n’est pas simplement une collection d’outils, c’est également une autre façon de concevoir les algorithmes.

    Cette différence vient de la distribution des traitements sur des milliers voire des dizaines de milliers de machines, des exigences de performance liées aux très gros volumes traités et du besoin de mettre les algorithmes au point par apprentissage.

    L’Académie des technologies estime que le Big Data est un enjeu majeur pour les pouvoirs publics et les entreprises françaises. Ces changements de paradigme méritent une prise de conscience et un fort accompagnement en termes de formation. La France manque cruellement d’ingénieurs disposant de compétences en Big Data et formés, en premier lieu, aux technologies de la programmation distribuée, de la manipulation de très grands volumes de données et de la programmation système avec des outils open source.

    Il faut donc intégrer les formations en Big Data dans de nombreux cursus tels que les écoles de marketing et de commerce ou les écoles de management. Par ailleurs, il faut favoriser la création de centres de ressources technologiques et mettre en place des formations en ligne de type MOOC, accessibles aussi bien en entreprise que pour le grand public.

    Plus d’infos :
    Feuilleter « Big data : un changement de paradigme peut en cacher un autre« . Rapport de l’Académie des technologies, EDP Sciences, 2015, 54 p.

  • Le médiatique n’est pas soluble dans le numérique

    Le médiatique n’est pas soluble dans le numérique

    [callout]Au cours des deux premiers épisodes, vous aurez compris que pour Divina Frau-Meigs, le numérique se définit par les cultures de l’information.[/callout]

    « Mais l’information qui n’est pas communiquée est une information qui “dort“ ou qui risque de disparaître, qui peut être trompeuse ou encore falsifiée ». Il est donc primordial de réfléchir à la communication, « y compris dans la classe ».

    Le numérique apporte l’interactivité à la communication actuelle, plutôt médiatique : « c’est le numérique des réseaux sociaux qui, depuis 2007, permettent à des millions de personnes d’interagir sur des plateformes ».

    Ces plateformes ne sont pas considérées comme des médias. « Et pourtant, elles le sont ! », précise Divina. En n’étant pas considérées comme des médias, ces plateformes ne sont pas astreintes à certaines lois ou obligations de service public des médias.

    Pourtant, Youtube est une des plus grosses plateformes à diffuser des images et des vidéos ; Facebook en fait de même avec les messages.

    En fait, nous sommes face à des médias qui passent sous le radar.

    Ils ont la même activité que les médias comme par exemples, une fonction de filtrage, une fonction d’agenda où ils peuvent décider des priorités d’information ; enfin, ils font de la corrélation etc.

    Le système de ces plateformes est totalement médiatique, ce qui signifie « qu’il faut une éducation aux médias en ligne comme on fait une éducation aux médias hors ligne ».

    C’est cette éducation aux médias qui forge l’esprit critique, qui permet de construire et de déconstruire l’information et c’est elle qui permet d’être éditeur de sa propre information.

    La nouveauté pour les enseignants et les formateurs réside dans le fait que l’individu qui possède un objet connecté se transforme en un média à lui tout seul ; « un média qui envoie de l’information, qui peut l’éditer, qui peut la filtrer, qui peut la charger sur Youtube, qui peut la transformer etc ».

    Pour Divina, il est essentiel d’avoir cette réflexion sur l’éducation aux médias afin de ne pas « naturaliser le numérique », c’est à dire le considérer comme quelque chose d’ambiant, de naturel ou de neutre.

    Elle préconise de se méfier de la convivialité des réseaux sociaux où on a comme une obligation de “liker“ tout le monde « mais où on ne peut pas “déliker“ », précise t-elle.

    Il faut donc faire attention à cette obligation de choix, « car dès qu’il y a obligation, la personne n’est plus libre ; il faut donc libérer l’information y compris sur sa vie privée et donc ne pas la donner lorsqu’on n’en a pas envie ».

    « L’éducation aux médias nous alerte à cela et nous forme à cela tout au long de la vie », conclut Divina.

    Revoir le premier épisode « La « révolution numérique », une révolution des cultures de l’information« 
    Revoir le deuxième épisode « La “Small“ Data : un nouveau concept à utiliser pour l’enseignement ?« 

     

  • Datavisualisation : quelques pistes d’exploitations pédagogiques

    Datavisualisation : quelques pistes d’exploitations pédagogiques

    « L’idée est que les enseignants, quelque soit leur discipline, se saisissent des données disponibles sur le net, soit des données publiques, soit des données ouvertes et qu’à partir de ces données, ils produisent de l’infographie ».

    Cette infographie peut être faite sous forme de vidéos, « motion design », c’est à dire de l’infographie animée.

    En 2014, le CLEMI a collaboré avec grand intérêt au concours de motion design initié par le CESER d’Aquitaine à l’occasion de ses 40 ans. L’opération « Mon Aquitaine dans 40 ans » fut un laboratoire de créativité puisque les collégiens engagés et lycéens étaient en compétition avec des étudiants en école de graphisme ou web-design.

    2014-2015 : lancement du projet académique « Dataviz » qui implique en plus du CLEMI et du CESER, d’autres partenaires académiques (DANE, Inspections SES et EVS) et régionaux (la Communauté urbaine de Bordeaux, l’IUT Bordeaux Montaigne, etc).

    Voici les objectifs de ce projet tels qu’ils sont énoncés sur le site du CLEMI de l’académie de Bordeaux :

    . Sensibiliser les élèves de collège et lycée/étudiants au traitement des données sur le net, à leur vulgarisation et à leur diffusion (prise de conscience de la nécessaire protection des données personnelles mais également de la notion de partage de contenus et de « bien commun » via l’acte de publication en ligne).

    . Donner du sens à la citoyenneté active et à la maîtrise des compétences relatives à la littératie et numératie numériques, en permettant aux élèves de s’appuyer sur les données publiques disponibles (travaux du CESER d’Aquitaine disponibles ici ou données ouvertes/open data)

    . Mettre en liaison sur un projet collaboratif, collégiens de troisième et lycéens de seconde (préparation à l’orientation) puis lycéens et étudiants de l’enseignement supérieur.

    . Informer, former les étudiants et enseignants (dont fonctionnaires stagiaires) à ce qu’est l’éducation aux médias et à l’information dans l’ère du numérique.

    C’est tout le travail d’extraction, de choix, de transformation, de publication et de diffusion, qui va mettre en œuvre plusieurs compétences, qui est extrêmement formateur pour les élèves, souligne Isabelle Martin.

    L’application pédagogique de la datavisualisation peut se faire à tous les niveaux de l’Ecole. Pour le premier degré, la base de données choisie devra être simplifiée.

    Au CLEMI de l’académie de Bordeaux, la cible retenue est les classes de SES en lycée, « car ils ont déjà une pratique d’analyse de données ».

    Pour le récent projet engagé « Dataviz », des enseignants de collèges sont aussi impliqués issus de disciplines comme les mathématiques, les lettres ou encore l’histoire-géographie.

    « C’est un projet avant-gardiste mais je pense qu’à terme chaque discipline pourra s’y mettre car chacun peut y trouver son compte », conclut Isabelle Martin.

    Pour en savoir plus sur le projet académique « Dataviz » : rendez-vous sur www.ac-bordeaux.fr