Chapitre 7 Une première analyse quantitative

Une première manière d’aborder un texte ou un corpus est volumétrique. Quel volume de texte? Quelle longueur ? Combien de mots ? quelles variations? A cette fin on utilise le cas des tweets de Donald Trump. Des premiers aux derniers, jusqu’au moment de son banissement en Janvier 2021, après sa défaite aux élections présidentielles. Chargeons le fichier de données.

7.1 Comptons les mots

Il y 56571 tweets et 9 variables. On peut vouloir compter le nombre de mots. A cette fin on emploie une fonction de stringr : str_count. (On reviendra sur la question de la manipulation des chaines de caractères dans un chapitre ad hoc)

Distribution du nombre de mots par post

Figure 7.1: Distribution du nombre de mots par post

La bimodalité provient surement du changement de taille maximum effectué en septembre 2017, le passage de 180 caractères max à 280. On peut le vérifier en examinant cette même distribution - par les courbes de densité - pour chacune des années, avec cette technique rendue fameuse par la pochette de l’album de Joy Division : un graphique en crêtes (ridges plot) avec ggridges.

Le résultat remarquable est que si Trump dans un premier temps exploite cette nouvel fonctionnalité, il en revient avec un phrasé de 20 mots en moyenne, gardant cependant à l’occasion d’autre contenu en 50 mots environ.

 Evolution de la distribution du nombre de mots

Figure 7.2: Evolution de la distribution du nombre de mots

7.2 la production dans le temps

Concluons en examinant le nombre de tweets produit au cours du temps.

La fonction ts_plot employée viens de rtweet que nous avons employée au chapitre 2. Elle emploie ggplot, et permet de représenter les évolutions selon différentes échelles de temps. On se rapplera qu’après une carrrière immobilière menée dans les casinos, le golf et les hôtels, l’appétit médiatique de trump s’est réalisé dans the apprenctice, de 2004 à 2015. C’est un pro de la TV, il a une formation de popstar. Il sera élu en Décembre 2016 pour prendre le pouvoir en Janvier.

Evolution de la production mensuelle des tweets de Trump

Figure 7.3: Evolution de la production mensuelle des tweets de Trump

7.3 Lisibilité et complexité lexicale

Pour aller un peu plus loin - nous savons désormais que trump aime une forme courte en 21 mots, et que son expérience de twtitter est longue, on peut s’intéresser à des paramètres clés relatifs aux conditions de la reception: les textes sont-ils aisés à lire ? sont-ils sophistiqués ?

Introduisons deux quantifications utiles du texte : la lisibilité et la complexité lexicale. Ce sont des classiques, les critères initiaux de l’analyse quantitative du texte. Ils sont toujours utiles.

7.3.1 Les indices de lisibilité

La lisibilité est une notion aussi ancienne que sa mesure (par exemple Coleman and Liau (1975)). Elle répond à la question du degré de maitrise requis pour lire un texte en s’appyant sur les caractéristique objective du texte plutôt que sur sa perception. Il s’agissait donc d’évaluer la complexité d’un texte. Deux critères principaux sont généralement considérés : la complexité des mots capturée par le nombre moyen de syllabes par mot, et la complexité des phrases mesurée par le nombre de mots.

Le nombre d’indicateurs est considérable et le package compagnon de quanteda , quanteda.textstats , en fournit des dizaines. Dans l’exemple suivant, on se contente d’un grand classique, le plus ancien, l’indice de Flesch (Flesch 1948) et de ses constituants: le nombre moyen de syllabes par mot et le nombre moyen de mots par phrase.

Evolution de la lisibilité moyenne des tweets de Trump

Figure 7.4: Evolution de la lisibilité moyenne des tweets de Trump

Pour aider le lecteur à donner un sens, voici l’abaque proposée par Flesch lui-même.

Flesch

Flesch

On peut aussi prendre pour références les éléments suivants: “All Plain English examples in this book score at least 60. Here are the scores of some reading materials I’ve tested. These are average scores of random samples.” ( source ?)

Comics 92 Consumer ads in magazines 82 Reader’s Digest 65 Time 52 Wall Street Journal 43 Harvard Business Review 43 Harvard Law Review 32 Auto insurance policy 10

Trump ne parait pas être sa caricature, non niveau de lisibilité correspond à la Licence. Reader’s Digest est beaucoup plus simple, il se situe au dessus de la Harvard Business Review !

7.3.2 Les indices de complexité lexicale

La complexité lexicale rend compte de la diversité du vocabulaire, elle consiste à rapporter le nombre de mot uniques sur le nombre total de mots. La difficulté est que la taille des corpus joue fortement sur cette mesure et que lorsque cette taille est hétérogène, l’indicateur marque plus cette variété que les variations de complexité lexicale.(Tweedie and Baayen 1998)

Dans notre univers trumpesque, ce n’est pas trop sensible, d’autant plus que nous allons moyenner les tweets par période.Notons au passage que si nous moyennons la diversité lexicale de chaque tweet, une autre approche pourrait être de concatener l’ensemble des tweets d’une période (un jour, une semaine) pour approcher cette variable à une autre échelle, qui couvre l’ensemble des sujets d’intérêt de trump, que les tweets fractionnent nécessairement. Ce qui en en question dans la mise en pratique n’est pas seulement la question du choix de l’indice mais aussi la définition de l’unité de calcul. La diversité lexicale concerne sans doute plus le discours que la phrase.

On poursuite avec quanteda https://quanteda.io/reference/textstat_lexdiv.html

On choisit de ne travailler sur deux des multiples indicateurs disponibles :

  • le CTTR de caroll qui rapporte le nombre de mots distincts ( V) sur le nombre de mots exprimés. Avec ce critère la diversité maximale est obtenue quand le nombre de mot différents est égal au nombre de mots exprimés.

\[ CTTR = \frac{V}{\sqrt{2N}} \]

  • le Mass supposé être moins sensible à la longueur des textes. (voir Torruella et Capsada 2013 ou )

\[ M = \frac{log(n) - log(t)}{log² (n)} \]

  • Le problème de la longueur de text a confuit à des approches segmentées, où la mesure de diversité est une moyenne des moyenne pour chacun des segments. On emploie ici le MATTR, dont le MA signifie moyenne mobile (moving average), et le TTR le token/type ratio.

Pour la mise en oeuvre on passe par quanteda.

( attention un pb de log dans le calcul)

## Time difference of 6.280962 secs
Evolution de la diversité lexicale des tweets de Trump

Figure 7.5: Evolution de la diversité lexicale des tweets de Trump

7.4 Comptons les mots

Il est temps de compter les mots, chacun d’entre eux, de se faire une idée une idée de leurs fréquences, de leur distribution.

Souvent on éliminera ceux qui apparaissent de manière occasionnelle, mais aussi ceux qui apparaissent systématiquement dans tous les textes. Une fois ces deux filtrages effectués, le lexique est généralement de l’ordre de 500 à 10000 mots.

Deux outils sont disponibles: les nuages de mots et les lollyplots. Les premiers donnent une idée immédiates, les seconds se prêtent mieux à une analyse systématique

7.4.1 Les nuages de mots

Ils sont devenus extrêmement populaires même si l’effet esthétique est plus important que leur utilité analytique.

ggwordcloud

Pour l’application on prépare les données avec quanteda : on tokenise et on construit le dfm ( pour le détail voir chapitre tokenization), ce qui nous permets notamment d’éliminer la ponctuation et les mots courants (articles, déterminant etc) qui apportent peu de signification.

## Document-feature matrix of: 13,421 documents, 21,904 features (99.94% sparse) and 1 docvar.
##        features
## docs    thrilled back great city charlotte north carolina thousands hardworking
##   text1        1    1     1    1         1     1        1         1           1
##   text2        0    0     0    0         0     0        0         0           0
##   text3        0    0     0    0         0     0        0         0           0
##   text4        0    0     0    0         0     0        0         0           0
##   text5        0    0     0    0         0     0        0         0           0
##   text6        0    0     0    0         0     0        0         0           0
##        features
## docs    american
##   text1        1
##   text2        0
##   text3        0
##   text4        0
##   text5        0
##   text6        0
## [ reached max_ndoc ... 13,415 more documents, reached max_nfeat ... 21,894 more features ]
Nuage de mots - Trump 2016, 2018, 2020

Figure 7.6: Nuage de mots - Trump 2016, 2018, 2020

Et pour faire des comparaisons, entre l’année 2016 qui le conduit à être élu, 2018 une année de mid term et 2020 année de sa défaite, on utilise la même procédure mais on distingue un comptage de fréquence de mot par période. Le ggplot est identique aux précédents mais comprend en plus une géométrie “facet_wrap” qui éclate le nuages de mot selon les 3 périodes étudiées.

Nuage de mots - Trump 2016, 2018, 2020

Figure 7.7: Nuage de mots - Trump 2016, 2018, 2020

7.4.2 Des lollyplots

Plus utile sont des diagrammes d’un format loliplot qui quantifie de manière plus précise la fréquence des termes.

la notion de densité, quelle échelle?

7.4.3 La mesure de la concentration des termes

https://www.tidytextmining.com/tfidf.html

Le langage d’un point de vue quantitatif a été caractérisé depuis bien longtemps et zipf est un des premier à avoir proposé la loi de distribution qui porte son nom mais aussi celle de mandelbrot qui en a proposé un affinement.

Celle-ci s’exprime de la manière suivante : si on classe les termes par ordre de fréquence r

\[f(r)=\frac{K}{r} \] Mandelbrot la généralise

les études empiriques

On peut encore débattre de sa signification. Une économie cognitive? Une conséquence de la théorie de l’information ? Un signature pour identifier un discours

Zipf distribution 1949

On reprend la procédure de comptage des mots par groupe, mais sans filtrer sur la fréquence de ces mots. On en obtient n_w mots distincts. En examinant avec plus de détail il y a 5 élément d’information : a ) le trait ( feature), c’est à dire ici le mot étudié, 2) le nombre de fois où il apparait dans le corpus, 3)le rank qui lui correspond, 4)le nombre de document dans lesquel il apparait, et enfin 5) la période du corpus.

##            feature frequency rank docfreq group
## 1            thank       632    1     630  2016
## 2            great       597    2     564  2016
## 3          hillary       450    3     430  2016
## 4            trump       389    4     365  2016
## 5              amp       354    5     329  2016
## 6 @realdonaldtrump       334    6     331  2016

On essaye d’ajuster avec deux fonctions linéaires, et on s’aperçoit de suite que l’ajustement est largement meilleure. Une première loi régit les 3000 mots les plus fréquents, une autre, beaucoup plus pentue régit les mots les moins fréquents, essentiellement ce qui n’apparaissent qu’une seul fois.

7.5 Conclusion

Nous aurons appris à

  • Compter le nombre de documents et leurs longueurs
  • Mesurer la complexité du langage
  • Mesurer la diversité de son vocabulaire.
  • A évaluer la concentration des sources
  • A se donner une première idée de la lexicographie

Ces mesures n’ont ne sens que si elles peuvent être l’objet de comparaison :

  • De manière interne la comparaison se fait dans dans le temps et à travers des segments. On s’intéresse moins au niveau, qu’aux différences entre les niveaux.
  • De manière externe elle requiert un étalonnage. Comparer par rapport au français courant, à un niveau de langue soutenu, ou relâché. L’étalonnage revient à caractériser des types de corpus : presses, écriture savante, réseaux sociaux, publications officielles etc. On ne peut que souhaiter que des comparaisons systèmatiques soient engagées et compilées pour donner des points de repère précis quand on étudie un corpus particulier.

Elles participent à un premier niveau d’analyse du texte, en surface, visant à apprécier la dynamique de sa production, à établir les échelles d’analyse, à repérer les éléments structurels.

Le texte est une matière qui a un poids (le nombre de mot), une variété (le nombre d’expressions), une complexité (les règles qui l’organisent). nous venons de nous doter des premiers outils d’analyse, il est temps de passer à la suite.

References

Coleman, Meri, and T. L. Liau. 1975. “A Computer Readability Formula Designed for Machine Scoring.” Journal of Applied Psychology 60 (2): 283–84. https://doi.org/10.1037/h0076540.

Flesch, Rudolph. 1948. “A New Readability Yardstick.” Journal of Applied Psychology 32 (3): 221–33. https://doi.org/10.1037/h0057532.

Tweedie, Fiona J., and R. Harald Baayen. 1998. “How Variable May a Constant Be? Measures of Lexical Richness in Perspective.” Computers and the Humanities 32: 323–52.