Modèles tridimensionnels pour la représentation de l’état des connaissances et propositions de visualisation pour l’analyse des corpus textuels.

paper, specified "long paper"
Authorship
  1. 1. Jean-Marc LeBlanc

    Université Paris-Est Créteil

  2. 2. Marie Pérès

    Université Paris-Est Créteil

Work text
This plain text was ingested for the purpose of full-text search, not to preserve original formatting or readability. For the most complete copy, refer to the original conference program.

Résumé
Alors que la réflexion sur la visualisation est au cœur de disciplines parfois émergentes, que la web véhicule un grand nombre de représentations souvent sophistiquées, introduisant de nouveaux modèles, souvent esthétiques mais qui nécessitent de nouveaux apprentissages pour la lecture et l’interprétation, de nombreuses disciplines s’appuient actuellement sur la visualisation pour communiquer leurs résultats ou créer des outils scientifiques.

Cette contribution prend appui sur des champs disciplinaires différents pour proposer une réflexion sur la représentation des connaissances qui nous à conduit à développer un outil de visualisation des données textuelles.

Nous analyserons ici les méthodes et principes de restitution archéologiques depuis les envois de Rome jusqu’aux modèles informatiques tridimensionnels interrogeant leur forme, leur propos et le rôle de transformateur d’information que doit endosser tout créateur de restitution archéologique afin de créer un objet répondant aux contraintes de la médiatisation et la médiation de l’objet d’étude. Nous montrerons en quoi ces réflexions ont nourri la conception de l’outil TextObserver qui s’inscrit dans la lignée de la textométrie en y introduisant de nouveaux modèles.

Les outils informatiques utilisés dans le domaine de la textométrie ont longtemps fonctionné sur des modèles bien éprouvés mais reposant quasi-essentiellement sur des visuels statistiques offrant peu de possibilités de manipulation ou d’expérimentation, et parfois peu aboutis sur le plan de l’ergonomie. Face à ce constat, le logiciel développé dans le prolongement de cette réflexion, TextObserver, vise précisément à introduire de nouveaux modèles de représentation des données et des résultats pour l’analyse des corpus textuels et multimodaux. Il propose des fonctionnalités originales sur le plan de la visualisation, rendues explicites par l’interactivité, et le traitement dynamique des données et des résultats textométriques. Il rend possible l’intégration de données textuelles diversifiées dans un cadre multimédia et répond en temps réel aux questionnements expérimentaux comme les facteurs de la variation discursive.

La rencontre entre ces questionnements novateurs en lexicométrie et ceux développés avec la création du modèle archéologique tridimensionnel servent de fondement à la création de cet outil exploratoire. Nous proposons de présenter les étapes de cette réflexion puis d'exposer les fonctionnalités essentielles de TextObserver en explorant un corpus de discours politiques.

Dans un premier temps nous présenterons une réflexion sur la représentation en archéologie et médiation de l'objet d'étude. Nous reviendrons sur l'évolution des représentations, depuis la renaissance jusqu'aux envois de Rome en passant par les premières représentations scientifiques du 18ème siècle et les premiers graphiques, jusqu'à l'émergence de la notion d'infographie au vingtième siècle dans les années 70, puis les pratiques liées à la data science et data visualisation que nous connaissons aujourd'hui.

Après cet état de l'art nous en viendrons à la représentation archéologique en nous appuyant sur l'exemple de la modélisation tridimensionnelle du Circus Maximus, mettant au jour le fait que le créateur d'objet multimédia devient un transformateur d'information.

La seconde partie de la contribution sera consacrée à la présentation de l'outil TextObserver dont la conception est issue d'une réflexion sur l'ergonomisation et la représentation des données textuelles et qui réinvestit les acquis de la recherche évoquée en première partie.

TextObserverest à la fois un outil de recherche et de formation à la recherche et s'inscrit dans une démarche proche de la textométrie, ajoutant à celle-ci une dimension expérimentale, multimodale et multimédia.

C'est en effet à partir de l'expertise approfondie d'un dispositif composé de logiciels longitudinaux et contrastifs (lexico3, Hyperbase, TXM) ou structurants (comme Alceste, iramuteq ou Astartext) voire de catégoriseurs (Cordial, Treetager), ou d'analyseurs sémantiques (Tropes) que se fonde la conception de TextObserver. Il ne s'agit pas d'implémenter des fonctionnalités qui existeraient déjà au sein de ces logiciels mais d'apporter une réponse en termes d'ergonomie, d'interactivité et de visualisation et de développer des fonctionnalités originales. TextObservera été conçu en outre pour répondre à des questions de recherche faisant intervenir la variation.

Ainsi TextObserver permet de visualiser les textes sous un angle différent, mais aussi de mieux appréhender les mesures mobilisées en textométrie. L'interactivité est l’innovation essentielle de ce logiciel: elle permet de se saisir de visualisations complexes telle que l'analyse factorielle de correspondances.

Nous présenterons tout d'abord le principe de la démarche textométrique dans laquelle s'inscrit TextObserver, présenterons le corpus que nous prenons ici comme matériau d'expérimentation, puis montrerons au moyen d'expertises ciblées, en quoi TextObserver permet de mettre au jour des phénomènes de variation qui seraient difficilement appréhendables au moyen des outils logiciels classiques. Nous articulerons cette présentation autour de trois axes: les fonctionnalités de visualisation, les fonctionnalités de calcul, les fonctionnalités de navigation.

Enfin nous évoquerons les développements futurs de TextObserver et les premières analyses menées au moyen de cet outil sur des corpus multimodaux (donc non exclusivement textuels) qui permettent d'étendre la recherche à l'analyse du web (recueil, constitution et visualisation de corpus en temps réel,analyse automatisée de pagds web). C'est donc un élargissement de la textométrie vers une textométrie multimédia - nous justifierons cette terminologie - que nous nous proposons de présenter dans cette contribution.

References
Barats, C., Fiala, P., Leblanc, JM (2013) Approches textométriques du web : corpus et outils. In Manuel d'analyse du Web (Dir Christine Barats), Armand Colin, Paris, 100-124.

Benzécri J. P. (1980) Pratique de l’analyse des données, Dunod, Paris.

Benzécri J. P. (1982) Histoire et préhistoire de l’analyse des données, Dunod, Paris.

Bonin S. (1983). Initiation à la graphique : transcription visuelle des données statistiques et cartographiques, Épi éditeurs

Bouroche J-M., G. Saporta, (1980) L'analyse des données, PUF, (coll. "Que sais-je", n°1854, Paris.

Cibois P., (2000) l’analyse factorielle, Presses Universitaires de France - PUF (Que sais-je ?), (5e éd.), Paris.

Daknou A. (2011) Architecture distribuée à base d’agents pour optimiser la prise en charge des patients dans les services d’urgence en milieu hospitalier, Thèse de doctorat, Ecole Centrale de Lille.

Gambette, P., Nuria, G., Guénoche, A., Nasr, A. (2012), Longueur de branches et arbres de mots, inCorpus 11, 129-146.

Guilmeau-Shala S. (2011). En quête de la couleur : publication de dessins réalisés lors de voyages d’études en Grèce, in Bibliothèques d’atelier. Édition et enseignement de l’architecture, Paris 1785-1871, INHA (« Les catalogues d'exposition de l'INHA »)

James R. Beniger et Dorothy L. Robyn. (1978). Quantitative graphics in statistics: A brief history, The American Statistician, no 32, pp. 1-11

Lebart L., Morineau A., Piron M., (2000) Statistique exploratoire multidimensionnelle, Dunod, Paris.

Lechleiter F. (sous la direction de Foucart B.) (2008). Les envois de Rome des pensionnaires peintres de l’Académie de France à Rome de 1863 à 1914, thèse de doctorat, Université Paris IV.

LUONG X., (1998) Représenter les données textuelles par les arbres in S. Mellet (éd.), JADT 98, Nice 1998 (avec J.P. Barthélémy).

Pérès M. (2006). De la modélisation à l’image virtuelle : image et réel. Figure de l’art, vol.(11): 197-208.

Pérès M. (sous la direction de Golvin JC.) (2001). Réflexion sur le modèle informatique du Cicus Maximus. Thèse de doctorat, Université Michel de Montaigne - Bordeaux 3.

Plantin JC, (2013) "D'une carte à l'autre: le potentiel heuristique de la comparaison entre graphes du web et cartes géographiques". Dans Barats C.,(dir.) in Analyser le web en Sciences Humaines et Sociales, Armand Colin. Paris.

Roxin I., Hutschmitt B., Mercier D. and Leblanc J.M. (2007) Web sémantique, navigation dans de grands corpus textuels In CIDE 10, dixième colloque international sur le document numérique, 2-4 juillet 2007, Nancy, INIST.

Viprey J.M. (2006) Ergonomiser la visualisation AFC dans un environnement d'exploration textuelle : une projection « géodésique » in actes des JADT 2006, 989-1000.

Weiss G. (2001) Agent orientation in software engineering, in The Knowledge Engineering Review, vol. 16, no. 4, 349 - 373.

Wildbur P. et Burke M. (2001). Le graphisme d'information, Cartes, diagrammes, interfaces et signalétiques, Thames & Hudson

Wooldridge M. and Jennings N.R. (1995) Intelligent agents: Theory and practice, The Knowledge Engineering Review, 10(2):115-152.

If this content appears in violation of your intellectual property rights, or you see errors or omissions, please reach out to Scott B. Weingart to discuss removing or amending the materials.

Conference Info

Complete

ADHO - 2014
"Digital Cultural Empowerment"

Hosted at École Polytechnique Fédérale de Lausanne (EPFL), Université de Lausanne

Lausanne, Switzerland

July 7, 2014 - July 12, 2014

377 works by 898 authors indexed

XML available from https://github.com/elliewix/DHAnalysis (needs to replace plaintext)

Conference website: https://web.archive.org/web/20161227182033/https://dh2014.org/program/

Attendance: 750 delegates according to Nyhan 2016

Series: ADHO (9)

Organizers: ADHO