1. script.twitter
script.twitter.R can be downloaded from:
* in Windows format (latin1) http://www.xplortext.org/Rdata/script.twitter.R
* in Mac & Linux format (UTF-8) http://www.xplortext.org/Rdata/mac/script.twitter.R
2. Charger le logiciel (Xplortext)
1 |
library(Xplortext) |
3. En plus du package (Xplortext, on doit charger les packages suivants)
1 2 3 |
library(DescTools) library(stringr) library(FactoMineR) |
En cas de vouloir décharger ces propres tweets, ce qui obliqe a s’inscrire sur Twitter
library(mvtnorm)
library(manipulate)
library(twitteR)
Pour l’autorisation d’accès au site Twitter, il faut avoir les valeurs de certaines clés :
1 |
setup_twitter_oauth(Consumer key, Consumer secret, Access token, Access token secret) |
Des tweets de la part de @Lesmatinsfcult, Matins FranceCulture : Tweets from @Lesmatinsfcult, Matins FranceCulture:
1 |
FCult <- userTimeline("Lesmatinsfcult", n = 1198) |
En fait, la récolte doit faite plusieurs fois avec le nombre maximimal n = 3200 et avec le paramètre sinceID, “Minimum (not inclusive) ID to search for”.
1 2 |
tweets.df <- twListToDF(FCult) # Convert to data frame. dim(tweets.df) # 1198 16 |
4. Pour reproduire les résultats vus dans la section Twitter, partir du fichier indiqué ci-dessous
Prétraitement
Tout d’abord, voir le pré-traitement jusqu’à arriver au corpus analysé avec Xplortext
File can be downloaded from the Internet and save it to some directory:
Windows format: http://www.xplortext.org/Rdata/copy_tweets_dot_df.RData
Mac & Linux format: http://www.xplortext.org/Rdata/mac/copy_tweets_dot_df.RData
Charger les données
1 2 |
load("C:/RData/copy_tweets_dot_df.RData") str(tweets.df) |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 |
'data.frame': 1198 obs. of 16 variables: $ text : chr "Sylvia Desazars : \"Il n'y a pas en #Espagne de représentation de l'extrême droite au parlement, et il n'y en a"| __truncated__ "Bruno Aguilera Barchet : \"C'est #Podemos qui a bouleversé le paysage politique, #Ciudadanos est arrivé après\" #Espagne" "Un militant de #Podemos au micro d'@AugusteSaravah : \"Ce que fait Pablo Iglesias, c'est mettre un visage sur l"| __truncated__ "Bruno Aguilera Barchet \"Il y a des affaires de corruption tous azimuts: à droite ds les partis catalans, à gau"| __truncated__ ... $ favorited : logi FALSE FALSE FALSE FALSE FALSE FALSE ... $ favoriteCount: num 2 1 0 0 0 1 2 5 1 1 ... $ replyToSN : chr NA NA NA NA ... $ created : POSIXct, format: "2015-12-18 07:35:34" "2015-12-18 07:32:19" ... $ truncated : logi FALSE FALSE FALSE FALSE FALSE FALSE ... $ replyToSID : chr NA NA NA NA ... $ id : chr "677754061492457472" "677753242634346496" "677752865105031168" "677751963686187009" ... $ replyToUID : chr NA NA NA NA ... $ statusSource : chr "<a href=\"http://twitter.com/download/android\" rel=\"nofollow\">Twitter for Android</a>" "<a href=\"http://twitter.com/download/android\" rel=\"nofollow\">Twitter for Android</a>" "<a href=\"http://twitter.com/download/android\" rel=\"nofollow\">Twitter for Android</a>" "<a href=\"http://twitter.com/download/android\" rel=\"nofollow\">Twitter for Android</a>" ... $ screenName : chr "Lesmatinsfcult" "Lesmatinsfcult" "Lesmatinsfcult" "Lesmatinsfcult" ... $ retweetCount : num 2 2 0 2 1 2 2 6 0 0 ... $ isRetweet : logi FALSE FALSE FALSE FALSE FALSE FALSE ... $ retweeted : logi FALSE FALSE FALSE FALSE FALSE FALSE ... $ longitude : logi NA NA NA NA NA NA ... $ latitude : logi NA NA NA NA NA NA ... |
1 |
dim(tweets.df) |
1 |
[1] 1198 16 |
1 |
colnames(tweets.df) |
1 2 3 4 |
[1] "text" "favorited" "favoriteCount" "replyToSN" [5] "created" "truncated" "replyToSID" "id" [9] "replyToUID" "statusSource" "screenName" "retweetCount" [13] "isRetweet" "retweeted" "longitude" "latitude" |
Filtrage et extraction des parties souhaitées des données de source
Le nombre de urls n’est pas grand. Nous les effaçons :
1 |
tweets.sans.urls <- gsub("http[^[:space:]]*", "", tweets.df[,1]) |
Les première et dernière dates sont : 2015-06-26, 2015-12-18.
A partir d’une telle heure d’envoi du tweet, “2015-12-18 07:35:34 UTC”, extraire “2015-12-18” : Le jour va être pris ici comme indicateur du temps de l’émission du tweet.
1 2 |
lejour <- substr(grep("2015[^[:space:]]*", value = TRUE, tweets.df[,5]), 1, 10) length(lejour) |
1 |
[1] 1198 |
1 |
lejour[1:5] |
1 |
[1] "2015-12-18" "2015-12-18" "2015-12-18" "2015-12-18" "2015-12-18" |
Auteurs des tweets, signalés dans la grande majorité des tweets.
Pour commencer : l’extraction des noms d’auteurs des tweets.
Souvent ce nom de personne précéde le texte du tweet. On détermine ces noms, moyennant le caractère deux points. Il est possible qu’il n’y ait pas de nom Un nom de personne peut comporter 1, 2 ou 3 mots. (Exemple: “Bruno Aguilera Barchet :”. Mais aussi : A partir de 7h40 :“, ou absence de nom.
Prenons ces noms de personne potentiels
1 2 |
tweetacknowledge <- substr(tweets.sans.urls, 1, attr(regexpr(".*?:", tweets.sans.urls), which = "match.length") ) |
Pour avoir un vrai nom de personne, on exigera que cette partie du texte qui vient d’être déterminée comporte au maximum 3 mots ou suites de charactères.
Le nombre de mots dans ce que nous cherchons comme le prénom, ou la ou les initiales.
1 |
tweetacknowledgecnt <- StrCountW(tweetacknowledge) # library(DescTools) |
A noter que l’absence de caractère donne 1, ce qui nous arrange.
Ici on met à jour la liste des noms personnels pour le cas où il ne s’agit pas du nom, mais plutôt un ensemble de mots
1 |
tweetacknowledge[tweetacknowledgecnt > 3] <- "NoAck" |
On retient des noms. Autrement, “NoAck”.
1 |
tweetacknowledge[tweetacknowledge == ""] <- "NoAck" |
Maintenant on retient les tweets sans ces noms personnels :
1 2 3 4 5 |
tweetsnew <- rep(" ", length(tweets.sans.urls)) for (i in 1:length(tweets.sans.urls)) { if (tweetacknowledgecnt[i] <= 3) {tweetsnew[i] <- gsub(".*?:", "", tweets.sans.urls[i]) } else {tweetsnew[i] <- tweets.sans.urls[i]} } |
NOS DONNÉES: un tweet, l’auteur, le jour d’envoi : tweet.ack.day sont les données à analyser.
1 |
tweet.ack.day <- as.data.frame(cbind(tweetsnew, tweetacknowledge, lejour)) |
Analyse: AC + classification
1 |
colnames(tweet.ack.day) |
1 |
[1] "tweetsnew" "tweetacknowledge" "lejour" |
Sélection des mots: voir les arguments de TextData Variables contextuelles : l’auteur du tweet, le jour d’envoi. “&”, en html “&”, est devenu “amp”; l’effacer : Le mot “7h40” se répète toujours (dans “A partir de 7h40”), l’effacer : Pour mémoire: analyse directe des tweets (non réellement utilisée)
1 |
str(tweet.ack.day) |
1 2 3 4 |
'data.frame': 1198 obs. of 3 variables: $ tweetsnew : Factor w/ 1197 levels " "," !"," \"Le bateau européen est au milieu du gué, et nous en subissons toutes les conséquences negatives\" #lesmatins",..: 143 36 1189 933 201 400 313 277 524 74 ... $ tweetacknowledge: Factor w/ 258 levels "\"Figaro ou Gorafi ?\" :",..: 249 102 217 217 249 102 192 192 102 102 ... $ lejour : Factor w/ 90 levels "2015-06-26","2015-07-03",..: 90 90 90 90 90 90 90 90 90 90 ... |
1 2 3 |
resTD <- TextData(tweet.ack.day, var.text=c(1), idiom="fr", lminword=3, Fmin=8, Dmin=4, stop.word.tm=TRUE, stop.word.user=c("amp","7h40","et"), context.quali=c("tweetacknowledge","lejour")) summary(resTD,ndoc=0,nword=10) |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 |
TextData summary Before After Documents 1198.00 1134.00 Occurrences 13938.00 3391.00 Words 4241.00 202.00 Mean-length 11.63 2.99 NonEmpty.Docs 1196.00 1134.00 NonEmpty.Mean-length 11.65 2.99 Index of the 10 most frequent words Word Frequency N.Documents 1 lesmatins 448 448 2 faut 90 87 3 plus 86 75 4 peut 57 57 5 france 49 48 6 politique 48 47 7 tout 46 45 8 fait 45 45 9 comme 44 41 10 faire 40 39 Summary of the contextual categorical variables tweetacknowledge lejour NoAck :481 2015-08-24: 29 . @wdesaintjust : : 14 2015-07-31: 27 Michel Rocard : : 13 2015-08-05: 26 .@FrancoisFillon :: 12 2015-08-12: 25 Marcel Gauchet : : 12 2015-08-25: 25 Michel Onfray : : 10 2015-09-25: 25 (Other) :592 (Other) :977 |
1 2 |
resCA <- LexCA(resTD,graph=FALSE) plot(resCA) |
1 |
summary(resCA,ndoc=0,nword=0,nsup=0) |
1 2 3 4 5 6 7 8 9 10 11 |
Correspondence analysis summary Eigenvalues Variance % of var. Cumulative % of var. dim 1 0.754 1.113 1.113 dim 2 0.677 0.999 2.112 dim 3 0.663 0.977 3.089 dim 4 0.658 0.970 4.059 dim 5 0.647 0.955 5.014 Cramer's V 0.581 Inertia 67.81 |
Sélection des mots
1 2 3 |
resTDparjour <- TextData(tweet.ack.day, var.text=c(1), idiom="fr", remov.number=TRUE, Fmin=8, Dmin=4, stop.word.tm=TRUE, stop.word.user=c("amp","7h40","et"), lminword=3, var.agg="lejour") summary(resTDparjour,ndoc=0,nword=10) |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 |
TextData summary Before After Documents 1198.00 90.00 Occurrences 13938.00 3391.00 Words 4241.00 202.00 Mean-length 11.63 37.68 NonEmpty.Docs 1196.00 90.00 NonEmpty.Mean-length 11.65 37.68 Index of the 10 most frequent words Word Frequency N.Documents 1 lesmatins 448 53 2 faut 90 50 3 plus 86 45 4 peut 57 38 5 france 49 32 6 politique 48 33 7 tout 46 33 8 fait 45 34 9 comme 44 24 10 faire 40 33 |
AC agrégée sur les jours x mots. ncp = 5
1 2 |
resCAparjour <- LexCA(resTDparjour,graph=FALSE) summary(resCAparjour,ndoc=0,nword=0) # |
1 2 3 4 5 6 7 8 9 10 11 |
Correspondence analysis summary Eigenvalues Variance % of var. Cumulative % of var. dim 1 0.548 5.076 5.076 dim 2 0.395 3.662 8.739 dim 3 0.382 3.542 12.281 dim 4 0.354 3.283 15.564 dim 5 0.337 3.126 18.690 Cramer's V 0.348 Inertia 10.787 |
Graphiques
1 2 3 4 5 |
par(mfrow=c(1,2)) plot(resCAparjour, axes=c(1,2), selWord="meta 3", selDoc="meta 3", plot.new=FALSE, cex=0.8, col.doc="black",col.word="black") plot(resCAparjour, axes=c(3,4), selWord="meta 3", selDoc="meta 3", plot.new=FALSE, cex=0.8, col.doc="black",col.word="black") |
1 |
par(mfrow=c(1,1)) |
Classification hiérarchique sous contrainte de contiguité chronologique
1 2 |
resCHCca <- LexCHCca(resCAparjour, nb.clust=-1,graph=FALSE) plot(resCHCca, choice="tree", title=" ", tree.barplot=TRUE) |
Effectifs et contenu en jours des classes
1 |
summary(resCHCca$data.clust$clust) |
1 2 |
1 2 3 4 5 6 7 8 9 10 1 1 30 15 1 14 1 14 1 12 |
1 |
split(rownames(resCHCca$data.clust),resCHCca$data.clust[ncol(resCHCca$data.clust)]) |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 |
$`1` [1] "2015-06-26" $`2` [1] "2015-07-03" $`3` [1] "2015-07-06" "2015-07-10" "2015-07-13" "2015-07-16" "2015-07-17" [6] "2015-07-19" "2015-07-20" "2015-07-23" "2015-07-24" "2015-07-27" [11] "2015-07-28" "2015-07-29" "2015-07-30" "2015-07-31" "2015-08-03" [16] "2015-08-04" "2015-08-05" "2015-08-06" "2015-08-07" "2015-08-09" [21] "2015-08-10" "2015-08-11" "2015-08-12" "2015-08-13" "2015-08-14" [26] "2015-08-17" "2015-08-18" "2015-08-19" "2015-08-20" "2015-08-21" $`4` [1] "2015-08-24" "2015-08-25" "2015-08-26" "2015-08-27" "2015-09-01" [6] "2015-09-02" "2015-09-09" "2015-09-10" "2015-09-17" "2015-09-18" [11] "2015-09-24" "2015-09-25" "2015-09-28" "2015-10-01" "2015-10-02" $`5` [1] "2015-10-05" $`6` [1] "2015-10-09" "2015-10-12" "2015-10-13" "2015-10-14" "2015-10-15" [6] "2015-10-16" "2015-10-19" "2015-10-20" "2015-10-21" "2015-10-22" [11] "2015-10-23" "2015-10-26" "2015-10-27" "2015-11-04" $`7` [1] "2015-11-05" $`8` [1] "2015-11-06" "2015-11-12" "2015-11-13" "2015-11-14" "2015-11-18" [6] "2015-11-19" "2015-11-20" "2015-11-23" "2015-11-25" "2015-11-26" [11] "2015-11-27" "2015-11-29" "2015-11-30" "2015-12-01" $`9` [1] "2015-12-03" $`10` [1] "2015-12-04" "2015-12-07" "2015-12-08" "2015-12-09" "2015-12-10" [6] "2015-12-11" "2015-12-13" "2015-12-14" "2015-12-15" "2015-12-16" [11] "2015-12-17" "2015-12-18" |
Mots caractéristiques des classes; documents paragons et spécifiques des classes
1 |
resCHCca$desc.doc |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 |
$para Cluster: 1 2015-06-26 0 ---------------------------------------------------------------------------------- Cluster: 2 2015-07-03 0 ---------------------------------------------------------------------------------- Cluster: 3 2015-08-13 2015-07-30 2015-08-17 2015-08-20 2015-07-29 0.1020846 0.1136833 0.1444138 0.1480590 0.1749716 ---------------------------------------------------------------------------------- Cluster: 4 2015-09-02 2015-09-18 2015-08-27 2015-09-10 2015-08-24 0.1853107 0.1892581 0.2541155 0.3034671 0.3196016 ---------------------------------------------------------------------------------- Cluster: 5 2015-10-05 0 ---------------------------------------------------------------------------------- Cluster: 6 2015-10-14 2015-10-23 2015-11-04 2015-10-26 2015-10-21 0.1237710 0.1490519 0.1779565 0.2173569 0.2261163 ---------------------------------------------------------------------------------- Cluster: 7 2015-11-05 0 ---------------------------------------------------------------------------------- Cluster: 8 2015-11-13 2015-11-18 2015-11-27 2015-11-12 2015-11-26 0.2676283 0.2801455 0.3542808 0.3757317 0.4236230 ---------------------------------------------------------------------------------- Cluster: 9 2015-12-03 0 ---------------------------------------------------------------------------------- Cluster: 10 2015-12-10 2015-12-07 2015-12-08 2015-12-17 2015-12-09 0.1309594 0.1680596 0.1951949 0.2660942 0.2874583 $dist Cluster: 1 2015-06-26 0.2131823 ---------------------------------------------------------------------------------- Cluster: 2 2015-07-03 7.136872 ---------------------------------------------------------------------------------- Cluster: 3 2015-08-21 2015-07-24 2015-07-27 2015-08-05 2015-07-23 2.629430 1.216489 1.139054 1.092672 0.974578 ---------------------------------------------------------------------------------- Cluster: 4 2015-09-25 2015-09-28 2015-09-17 2015-09-09 2015-08-26 0.8685128 0.4651223 0.4568006 0.4406112 0.4389585 ---------------------------------------------------------------------------------- Cluster: 5 2015-10-05 5.033687 ---------------------------------------------------------------------------------- Cluster: 6 2015-10-16 2015-10-09 2015-10-12 2015-10-19 2015-10-13 0.8140945 0.6009703 0.4087506 0.3753682 0.3601705 ---------------------------------------------------------------------------------- Cluster: 7 2015-11-05 3.733366 ---------------------------------------------------------------------------------- Cluster: 8 2015-12-01 2015-11-14 2015-11-20 2015-11-19 2015-11-25 1.4592005 1.1991258 0.9249853 0.6942094 0.5954441 ---------------------------------------------------------------------------------- Cluster: 9 2015-12-03 7.671268 ---------------------------------------------------------------------------------- Cluster: 10 2015-12-18 2015-12-14 2015-12-16 2015-12-15 2015-12-17 2.2896494 0.4742129 0.4319673 0.4017197 0.3848844 |
1 |
resCHCca$desc.word |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 |
$`1` Intern % glob % Intern freq Glob freq p.value v.test afrique 15.38462 0.3243881 4 11 1.729873e-06 4.782664 lesmatins 0.00000 13.2114421 0 448 4.950895e-02 -1.964182 $`2` Intern % glob % Intern freq Glob freq p.value v.test pajol 32 0.2359186 8 8 5.030064e-18 8.652687 font 8 0.2654084 2 9 3.640700e-03 2.907724 personnes 8 0.4128576 2 14 8.997214e-03 2.612160 $`3` Intern % glob % Intern freq Glob freq p.value v.test lesmatins 23.87566138 13.2114421 361 448 1.212671e-62 16.704635 martinsdété 1.45502646 0.6487762 22 22 3.523208e-08 5.513223 joannsfar 0.85978836 0.3833677 13 13 5.351529e-05 4.039719 garaud 0.85978836 0.3833677 13 13 5.351529e-05 4.039719 arctique 0.72751323 0.3243881 11 11 2.714631e-04 3.641112 primaires 0.66137566 0.2948983 10 10 6.110631e-04 3.426656 rouzioux 0.59523810 0.2654084 9 9 1.374994e-03 3.199849 michelbarnier 0.59523810 0.2654084 9 9 1.374994e-03 3.199849 hollydaysband 0.59523810 0.2654084 9 9 1.374994e-03 3.199849 christine 0.59523810 0.2654084 9 9 1.374994e-03 3.199849 cecileallegra 0.52910053 0.2359186 8 8 3.092822e-03 2.958359 adriengoetz 0.52910053 0.2359186 8 8 3.092822e-03 2.958359 quelques 0.79365079 0.4423474 12 15 1.137221e-02 2.531049 matin 0.79365079 0.4423474 12 15 1.137221e-02 2.531049 public 0.59523810 0.3243881 9 11 2.734524e-02 2.206554 marché 0.59523810 0.3243881 9 11 2.734524e-02 2.206554 françois 0.46296296 0.2359186 7 8 3.398405e-02 2.120261 crise 1.05820106 0.7077558 16 24 4.816714e-02 1.975891 rapport 0.06613757 0.2948983 1 10 4.905936e-02 -1.968075 gouvernement 0.06613757 0.2948983 1 10 4.905936e-02 -1.968075 car 0.06613757 0.2948983 1 10 4.905936e-02 -1.968075 travail 0.19841270 0.5013270 3 17 3.953393e-02 -2.058586 discours 0.06613757 0.3243881 1 11 2.954746e-02 -2.176104 guerre 0.39682540 0.7962253 6 27 2.728862e-02 -2.207364 élections 0.06613757 0.3538779 1 12 1.767291e-02 -2.372401 réécouter 0.00000000 0.2359186 0 8 1.765754e-02 -2.372722 reçoit 0.00000000 0.2359186 0 8 1.765754e-02 -2.372722 pol 0.00000000 0.2359186 0 8 1.765754e-02 -2.372722 passé 0.00000000 0.2359186 0 8 1.765754e-02 -2.372722 pajol 0.00000000 0.2359186 0 8 1.765754e-02 -2.372722 halakodmani 0.00000000 0.2359186 0 8 1.765754e-02 -2.372722 hakan 0.00000000 0.2359186 0 8 1.765754e-02 -2.372722 fculture 0.00000000 0.2359186 0 8 1.765754e-02 -2.372722 enard 0.00000000 0.2359186 0 8 1.765754e-02 -2.372722 attentats 0.00000000 0.2359186 0 8 1.765754e-02 -2.372722 cop21 0.13227513 0.4718372 2 16 1.425396e-02 -2.450799 france 0.85978836 1.4450015 13 49 1.372786e-02 -2.464307 penser 0.00000000 0.2654084 0 9 9.765671e-03 -2.584018 palmyre 0.00000000 0.2654084 0 9 9.765671e-03 -2.584018 médias 0.00000000 0.2654084 0 9 9.765671e-03 -2.584018 irak 0.00000000 0.2654084 0 9 9.765671e-03 -2.584018 font 0.00000000 0.2654084 0 9 9.765671e-03 -2.584018 personnes 0.06613757 0.4128576 1 14 6.215274e-03 -2.736203 entre 0.52910053 1.0911236 8 37 6.147358e-03 -2.739816 faut 1.78571429 2.6540843 27 90 5.862129e-03 -2.755395 espagne 0.00000000 0.2948983 0 10 5.399706e-03 -2.782168 après 0.00000000 0.2948983 0 10 5.399706e-03 -2.782168 questions 0.00000000 0.3243881 0 11 2.984931e-03 -2.969286 erriders 0.00000000 0.3243881 0 11 2.984931e-03 -2.969286 guillaumeerner 0.00000000 0.3538779 0 12 1.649660e-03 -3.146980 vote 0.00000000 0.3833677 0 13 9.114871e-04 -3.316512 syrie 0.06613757 0.5603067 1 19 4.241470e-04 -3.524585 worms 0.00000000 0.4423474 0 15 2.780675e-04 -3.634919 droite 0.13227513 0.7077558 2 24 2.675143e-04 -3.644882 gauche 0.00000000 0.5013270 0 17 8.474866e-05 -3.930559 $`4` Intern % glob % Intern freq Glob freq p.value v.test réécouter 1.4184397 0.2359186 8 8 1.123498e-06 4.868674 halakodmani 1.4184397 0.2359186 8 8 1.123498e-06 4.868674 hakan 1.4184397 0.2359186 8 8 1.123498e-06 4.868674 médias 1.0638298 0.2654084 6 9 2.205822e-03 3.061023 question 2.1276596 0.9731643 12 33 9.650021e-03 2.588124 élections 1.0638298 0.3538779 6 12 1.546540e-02 2.421293 direct 1.0638298 0.3538779 6 12 1.546540e-02 2.421293 réfugiés 0.8865248 0.2654084 5 9 1.755626e-02 2.374846 parce 0.8865248 0.2654084 5 9 1.755626e-02 2.374846 gouvernement 0.8865248 0.2948983 5 10 3.036947e-02 2.165238 personnes 1.0638298 0.4128576 6 14 3.733875e-02 2.082041 très 1.7730496 0.9141846 10 31 4.792485e-02 1.978034 migrants 0.8865248 0.3243881 5 11 4.819402e-02 1.975654 martinsdété 0.0000000 0.6487762 0 22 3.606256e-02 -2.096221 fait 0.3546099 1.3270422 2 45 2.662850e-02 -2.216921 guerre 0.0000000 0.7962253 0 27 1.441970e-02 -2.446634 $`5` Intern % glob % Intern freq Glob freq p.value v.test erriders 26.829268 0.3243881 11 11 3.760490e-22 9.677430 quand 9.756098 0.4718372 4 16 6.033055e-05 4.011514 comme 9.756098 1.2975523 4 44 3.522427e-03 2.918037 après 4.878049 0.2948983 2 10 1.207457e-02 2.509957 années 4.878049 0.3833677 2 13 2.045447e-02 2.317905 être 7.317073 1.1501032 3 39 2.218053e-02 2.287262 lesmatins 0.000000 13.2114421 0 448 5.779182e-03 -2.760054 $`6` Intern % glob % Intern freq Glob freq p.value v.test travail 2.601156 0.5013270 9 17 2.506484e-05 4.214215 questions 1.734104 0.3243881 6 11 6.402898e-04 3.413947 france 3.757225 1.4450015 13 49 1.790850e-03 3.122889 assiste 1.445087 0.2654084 5 9 1.914768e-03 3.103143 politique 3.179191 1.4155116 11 48 1.493833e-02 2.433871 droite 2.023121 0.7077558 7 24 1.615589e-02 2.405375 histoire 1.734104 0.5603067 6 19 1.851839e-02 2.355087 vie 1.445087 0.4128576 5 14 1.976315e-02 2.330814 doit 1.445087 0.4718372 5 16 3.634915e-02 2.093000 chômage 1.156069 0.3243881 4 11 3.931184e-02 2.060908 afrique 1.156069 0.3243881 4 11 3.931184e-02 2.060908 lesmatins 0.867052 13.2114421 3 448 2.073723e-18 -8.753208 $`7` Intern % glob % Intern freq Glob freq p.value v.test enard 16 0.2359186 8 8 2.496853e-15 7.913782 mathias 16 0.3243881 8 11 3.984897e-13 7.256073 monde 6 0.7372457 3 25 1.104446e-02 2.541289 reste 4 0.2948983 2 10 1.778413e-02 2.370082 rapport 4 0.2948983 2 10 1.778413e-02 2.370082 avant 4 0.4128576 2 14 3.463664e-02 2.112581 autre 4 0.4718372 2 16 4.482679e-02 2.006276 lesmatins 0 13.2114421 0 448 1.584959e-03 -3.158661 $`8` Intern % glob % Intern freq Glob freq p.value v.test worms 3.232759 0.4423474 15 15 1.811473e-13 7.362020 palmyre 1.724138 0.2654084 8 9 1.847596e-06 4.769417 guerre 2.586207 0.7962253 12 27 1.850018e-04 3.738663 terroristes 1.293103 0.2359186 6 8 2.794006e-04 3.633686 jeunesse 1.724138 0.4128576 8 14 3.266729e-04 3.593175 après 1.293103 0.2948983 6 10 1.640366e-03 3.148632 attentats 1.077586 0.2359186 5 8 3.685105e-03 2.903930 penser 1.077586 0.2654084 5 9 7.364636e-03 2.679890 france 3.017241 1.4450015 14 49 9.168952e-03 2.605690 syrie 1.508621 0.5603067 7 19 1.959422e-02 2.334029 museelouvre 1.077586 0.3243881 5 11 2.133416e-02 2.302018 kurdes 1.077586 0.3243881 5 11 2.133416e-02 2.302018 cop21 1.293103 0.4718372 6 16 3.026981e-02 2.166542 passé 0.862069 0.2359186 4 8 3.074565e-02 2.160349 moment 1.077586 0.3833677 5 13 4.704587e-02 1.985887 irak 0.862069 0.2654084 4 9 4.945046e-02 1.964687 lesmatins 2.586207 13.2114421 12 448 5.671493e-17 -8.371862 $`9` Intern % glob % Intern freq Glob freq p.value v.test pol 25.80645 0.2359186 8 8 3.668797e-17 8.423027 fculture 25.80645 0.2359186 8 8 3.668797e-17 8.423027 lesmatins 0.00000 13.2114421 0 448 2.422379e-02 -2.253561 $`10` Intern % glob % Intern freq Glob freq p.value v.test espagne 3.012048 0.2948983 10 10 1.430431e-10 6.412616 gauche 3.012048 0.5013270 10 17 1.477414e-06 4.814267 trump 2.409639 0.3243881 8 11 1.976353e-06 4.755827 droite 3.313253 0.7077558 11 24 1.044025e-05 4.407849 vote 2.108434 0.3833677 7 13 1.652978e-04 3.766884 questions 1.506024 0.3243881 5 11 4.904044e-03 2.813270 discours 1.506024 0.3243881 5 11 4.904044e-03 2.813270 cop21 1.807229 0.4718372 6 16 5.760264e-03 2.761125 élections 1.506024 0.3538779 5 12 7.739973e-03 2.663207 pose 1.204819 0.2359186 4 8 9.181227e-03 2.605231 obama 1.204819 0.3243881 4 11 3.412795e-02 2.118557 lesmatins 2.710843 13.2114421 9 448 8.810566e-12 -6.824706 attr(,"class") [1] "descfreq" "list " |