top of page

ANALYSES

ANALYSE IRAMUTEQ

Statistiques sur les occurrences

Nous avons une première visualisation qui classe les termes par nombre d’occurrences au sein du corpus. Le plateau que nous pouvons observer dans le coin supérieur gauche met en exergue une certaine forme d'homogénéité des termes utilisés.

Analyse de Reinert

Nous avons choisi de conserver les adjectifs, les verbes et les noms mais également les pronoms personnels,  possessifs, les adverbes, les formes non reconnues et les noms communs pour centrer notre analyse sur le discours des internautes et leur mode d'énonciation. Nous avons choisit une classification double, faisant varier les ensembles des segments de 12 à 14 segments de texte. Nous obtenons trois classes permettant de répertorier 90% du corpus.

La première classe représente 44,7% des segments de texte classés. Si l'on observe les formes représentant le Chi 2 le plus important, nous remarquons que les termes qui participent le plus à la construction de cette classe sont :

  • données

  • droit

  • Articles

  • public

  • disposition


De plus, la variable Type-source apparait également. Cela signifie que cette classe est majoritairement constituée par des sources, dont on peut émettre l'hypothèse qu'elles privilégient un vocabulaire du champ lexical du droit.

La seconde classe représente 38,6% des segments de texte classés. Dans, ce second cluster, les termes au Chi 2 les plus importants sont :

  • Je

  • On

  • Vote

  • Internet

  • Avoir

  • Site


La variable Type-argument apparait également. Nous pouvons donc supposer que cette classe est en partie composée de segments de texte rédigés à la première personne, traduisant des formes d'énonciation individuelles

Enfin, dans le troisième cluster, qui résume 17,27% des segments de texte de notre corpus, nous observons parmi les termes représentant le Chi 2 le plus important :

  • logiciel

  • libre

  • informatique

  • linux

  • source

  • apprendre

  • Microsoft


Cela laisse supposer l'existence de segments de texte plus spécifiques, rédigés à l'aide du champ lexical de l'informatique.

Ces éléments nous permettent d'obtenir l'AFC suivante :

ANALYSE CORTEXT

Nous avons effectué une analyse textuelle représentant les principaux mots (150 précisément) les plus utilisés dans les arguments dans le cadre de la consultation. Nous avons sélectionné les paramètres suivants :

  • 5 voisins les plus proches

  • 150 noeuds

  • L'algorithme Louvain


Nous obtenons le résultat suivant :

Cette carte met en exergue 10 clusters, dont deux clusters sont entrelacés :

  • Un premier ensemble, l'"élaboration de la loi", qui contient les grands questionnements qu'elle soulève

  • Un second ensemble de clusters représentant la "dimension normative" de la loi, où les institutions et concepts juridiques apparaissent

  • Un ensemble de clusters en haut à droite représentant la place et les usages de la data. C'est d'ailleurs dans cette partie que nous observons la présence de termes "citoyens"

  • Un ensemble de clusters représentant le champ de l'Open Data. Cet ensemble comprend le champ de la recherche et la production des connaissances


Toutefois, il apparait nécessaire de préciser qu'il s'agit de termes issus des champs lexicaux des arguments. Il s'agit des 150 termes les plus courants, ce qui demande une analyse supplémentaire. Une hypothèse peut être intéressante à étudier dans la segmentation de la map, à savoir l'idée d'une représentation de la fabrique de la loi.

bottom of page