Les limites

Comme dans toute discipline scientifique, les études sur la communication nonviolente (CNV) comportent leur lot d’insuffisances, de biais, et d’erreurs. Ce court article vise à explorer ces imperfections à travers trois axes principaux : la conception expérimentale, l’échantillonnage et l’interprétation des résultats. En examinant ces aspects, nous mettrons en lumière les défis méthodologiques que les prochaines études devront affronter, et proposerons des pistes pour renforcer la rigueur scientifique dans ce domaine.

La conception expérimentale

La conception expérimentale est une démarche scientifique rigoureuse qui permet d’étudier les relations de cause à effet entre des variables. Elle consiste à organiser une expérience de manière à éliminer les influences extérieures qui pourraient fausser les résultats. L’objectif est de s’assurer que les observations reflètent bien la réalité et que les conclusions soient solides.

Pour cela, le chercheur doit soigneusement planifier plusieurs étapes : la sélection des facteurs à étudier, la répartition des participants ou des échantillons dans différents groupes (par exemple, un groupe test et un groupe témoin), et le contrôle des conditions expérimentales. Ensuite, les données recueillies sont analysées à l’aide de méthodes statistiques pour déterminer si les différences observées sont significatives ou simplement dues au hasard.

Le biais de confirmation et les tests autodéclarés

Le biais de confirmation est un mécanisme cognitif par lequel une personne tend à privilégier les informations qui confirment ses idées préconçues ou ses hypothèses, tout en accordant moins de poids aux informations et hypothèses qui les contredisent. Par exemple, prenez la page du CNVC qui résume des études scientifiques sur la Communication Non Violente (CNV). Les résumés proposés ne citent que les passages où la CNV a des effets positifs, sans mentionner les limites ou les nuances apportées par les chercheurs. C’est un cas typique de biais de confirmation : on sélectionne uniquement ce qui conforte nos idées, comme si on triait les informations pour ne garder que celles qui nous arrangent. Pour rappel la démarche scientifique est rigoureusement inverse : chercher des raisons de douter plutôt que des raisons de croire.
Les tests autodéclarés, ou explicites, sont des tests qui mesurent directement les réponses des participant.es. Donc les participant.es comprennent exactement ce qui est mesuré et peuvent facilement deviner ce que les études cherchent à prouver. Par exemple, dans l’étude de Vazhappilly 2017 les sujets sont testés avec des questionnaires explicites sur leurs expériences de couple pendant qu’ils suivent une formation sur la communication au sein du couple. Ce lien évident risque de fausser les réponses des participant.es, poussé.es par un biais de complaisance (conscient ou non) pour valider l’expérience. Cela pourrait artificiellement améliorer les résultats des tests passés après la formation. Or, ces tests autodéclarés dominent encore largement les publications scientifiques sur la CNV.

Pourtant, des alternatives implicites existent pour contourner ces biais :

  • Questionnaires implicites, ces outils masquent l’objectif réel de l’évaluation, réduisant ainsi le biais de complaisance. Par exemple :
    • Test de prise de perspective : Mesure la capacité à adopter le point de vue d’autrui sans que le lien avec la formation soit explicite.
    • Test d’attribution causale : Évalue comment les sujets expliquent des situations sociales, sans référence directe aux compétences travaillées.
  • Tâches avec mesure des temps de réaction, ces méthodes reposent sur des réponses automatiques, difficiles à contrôler volontairement. Par exemple :
    • Test d’association implicite (IAT) : Détecte les associations mentales spontanées (p. ex. entre Genre et Science) via la rapidité des réponses.
  • Mesures physiologiques (plus complexes mais objectives), elles capturent des réponses corporelles involontaires, indépendantes des biais déclaratifs. Par exemple :
    • Rythme cardiaque/respiration : Indicateurs de l’activation émotionnelle.
    • Électroencéphalogramme (EEG) : Mesure l’activité cérébrale liée à une tâche spécifique, comme la reconnaissance des émotions.
L’effet d’apprentissage et l’absence de groupe contrôle

L’effet d’apprentissage apparaît lorsqu’en reproposant un test à un sujet dans un intervalle court, le sujet a appris du premier test et obtiendra de meilleurs résultats la seconde fois. Par exemple, dans une expérience pré-post, on fait passer un test avant et après la formation en CNV dans l’idée de quantifier l’impact de cette formation. S’il n’y a pas de groupe contrôle, comme c’est malheureusement le cas dans les études de Marlow (2012) ou Museux (2016), il est impossible de distinguer l’effet de l’impact de la formation de celui de l’effet d’apprentissage du test. Le groupe contrôle permet ainsi de dissocier l’impact réel de la formation des artefacts méthodologiques (effet d’apprentissage) et des facteurs contextuels.

Absence d’intervention dans le groupe contrôle

Plusieurs études évaluant la CNV ont bien inclus un groupe contrôle, mais celui-ci ne participe à aucune activité comparable en durée ou en format à la formation CNV (e.g., Wacker, 2018 ; Kang, 2019). Par exemple, le groupe contrôle ne suit ni ateliers de groupe, ni exercices structurés sur une période équivalente. Dès lors, les différences observées entre les deux groupes pourraient ne pas refléter l’efficacité spécifique de la CNV, mais simplement l’effet de biais méthodologiques : le temps passé en dehors du cadre professionnel, les interactions sociales, ou la simple participation à une activité nouvelle. Sans contrôle rigoureux de ces variables confondantes, l’impact attribué à la CNV reste difficile à isoler.

Pour démontrer l’efficacité réelle de la formation CNV, le groupe contrôle doit participer à une activité similaire en durée, format et intensité, mais sans contenu CNV. Cette comparabilité est cruciale pour écarter les effets non spécifiques (dynamique de groupe, changement de contexte…)..

Les effets à long terme

La durée des effets d’une intervention est un critère essentiel pour mesurer son efficacité. En étudiant les résultats de la formation à la sortie même de la formation (Jung 2023), ces effets à très court termes ne nous renseignent pas sur la dynamique et l’impact sur le quotidien à long terme. Il peut être difficile de retrouver des sujets plus de 6 mois après une intervention, mais ce sont des données précieuses.

L’échantillonnage

Les méthodes d’échantillonnage non représentatif de la population générale

Une méthode d’échantillonnage non représentative de la population introduit nécessairement des biais dans les résultats. Ces biais limitent, voire rendent impossible, la généralisation des conclusions à l’ensemble de la population. Par exemple, l’étude de Marlow 2012, a recruté ses participants (des hommes en liberté conditionnelle) exclusivement dans un centre résidentiel. Cette population spécifique peut différer significativement des autres personnes sous liberté conditionnelle. Ces biais d’échantillonnage peuvent se produire aussi quand les participant.es sont recrutés sur la base du volontariat (Yang 2021).

Pour s’affranchir le plus possible de ce biais, les méthodes d’échantillonnage doivent être totalement aléatoires au sein de la population d’intérêt.

La taille d’échantillon

Une règle empirique en statistiques suggère d’avoir au moins 30 sujets par groupe. Cependant, certaines études, comme celles portant sur des singes, des maladies rares ou l’enregistrement de neurones spécifiques, ne peuvent pas toujours atteindre ce nombre en raison de leur complexité. En sciences cognitives, atteindre ce seuil est souvent plus réalisable, même si certaines études sur la CNV sont publiées avec des effectifs très faibles comme Museux 2016 où il y a seulement 9 participant.es. Pour qu’une étude soit valide, il faut que sa puissance statistique (capacité à détecter un effet réel) soit adaptée. Cela implique :

  • De définir au préalable la taille d’effet minimale considérée comme significative (par exemple une amélioration de 20% des compétences en CNV)
  • D’ajuster la taille de l’échantillon en fonction de cette taille d’effet visée

Un petit échantillon ne permet de détecter que des effets très importants, tandis qu’un large échantillon peut identifier des effets plus subtils. Les analyses statistiques de puissance, bien que classiques, sont encore trop rarement utilisées pour déterminer la taille d’échantillon adéquate en fonction de l’effet recherché.

Homogénéité des groupes avant l’intervention

Pour comparer statistiquement un groupe contrôle et un groupe suivant une intervention, il est crucial que ces groupes soient homogènes. Cela signifie qu’ils doivent être similaires en termes de caractéristiques démographiques et contextuelles. Par exemple, dans l’étude de Wacker 2018, où la participation à la formation CNV se fait sur la base du volontariat, les deux groupes n’étaient pas équilibrés en termes de niveau d’éducation. En moyenne, le groupe ayant suivi la formation CNV avait trois ans d’éducation de plus que le groupe contrôle. Par ailleurs, l’étude de Kim 2022 compare des étudiant.es formé.es à la CNV à un groupe contrôle d’étudiant.es issus d’un contexte géographique et institutionnel distinct. Or, la supposée homogénéité socioculturelle entre les deux groupes n’est pas vérifiée par les auteurs de l’étude. Ainsi, il est impossible de déterminer si les différences observées entre les deux groupes sont dues au programme CNV ou aux différences de contexte.

Les perdu.e.s de vue

La perte de participants au cours d’une étude peut introduire un biais significatif dans l’interprétation des résultats. Lorsque des participant.es abandonnent, les groupes initiaux peuvent devenir non représentatifs de la population étudiée, ce qui peut fausser les conclusions. Par exemple, si les participant.e.s qui abandonnent partagent des caractéristiques spécifiques (comme un niveau de motivation ou de santé différent), les résultats finaux peuvent ne plus refléter fidèlement l’effet de l’intervention étudiée. Par exemple, dans l’étude de Marlow 2012, 26 % des participants ont été exclus en cours de recherche suite à une rechute (toxicomanie) ou une arrestation. Or, ces profils – probablement plus fragiles – auraient pu modifier significativement les conclusions s’ils étaient restés dans l’échantillon final.

L’interprétation des résultats

La significativité statistique et la taille d’effet

La significativité statistique est un concept qui aide à déterminer si les résultats d’une étude sont dus au hasard ou s’ils reflètent une véritable tendance. Par exemple, si nous testons l’effet d’un module de CNV, nous voulons savoir si les résultats positifs sont réels ou simplement une coïncidence. La significativité statistique est souvent mesurée par une “p-value”. Si cette valeur est inférieure à un seuil (souvent 0.05), nous considérons les résultats comme statistiquement significatifs. Ce seuil arbitraire est de plus en plus critiqué et il est possible de s’en affranchir avec d’autres approches statistiques, comme l’approche bayésienne. C’est encore rarement le cas dans les études en sciences cognitives.

La taille d’effet permet d’évaluer l’ampleur pratique – et pas seulement statistique – d’un résultat. Par exemple, une formation en CNV pourrait réduire la durée des crises d’angoisse de 10 %, un effet statistiquement significatif mais marginal en contexte clinique. À l’inverse, une réduction de 50 % représenterait une amélioration à la fois statistique et cliniquement pertinente. Ainsi, la taille d’effet contextualise les résultats : elle distingue les changements théoriquement détectables des progrès réellement significatifs.

En résumé, la significativité statistique nous dit si un effet est probablement réel, tandis que la taille d’effet nous dit à quel point cet effet est important. Dans la plupart des articles scientifiques, les résultats sont réduits à un effet positif, or il est essentiel de rapporter les résultats en précisant et discutant la taille d’effet et la significativité statistique. Cette nouvelle exigence n’en est qu’à ses débuts en science en général, sans parler des études concernant la CNV en particulier…

Multiplier les tests statistiques

Lorsqu’on effectue plusieurs tests statistiques indépendants, comme dans l’article de Kim 2022 où les auteurs ont évalué six questionnaires différents (colère primaire, colère secondaire, relations interpersonnelles, empathie, estime de soi et efficacité de communication), la probabilité de trouver une différence, seulement due au hasard, augmente considérablement. En effet, chaque test supplémentaire accroît la probabilité de résultats faussement positifs. Pour pallier ce problème, une méthode couramment utilisée est la correction de Bonferroni, qui ajuste le seuil de significativité. Par exemple, si le seuil de p-value initial est de 0,05, il serait divisé par le nombre de tests (ici 6), donnant un nouveau seuil de 0,008. Selon les résultats présentés (dans le Tableau 3 de l’article), après cette correction, seule l’efficacité de communication resterait significativement différente entre les groupes.
L’étude de Kang 2019, présente un risque important de faux positifs. En testant simultanément les effets d’entraînements cognitifs sur les intentions de démission dans plusieurs sous-groupes, les auteurs multiplient les comparaisons statistiques. Cette approche augmente artificiellement la probabilité que certaines différences observées soient dues au hasard plutôt qu’à un effet réel de l’intervention. Pour contrer ce biais, ils ont appliqué des corrections statistiques (e.g. correction de Bonferroni), cela leur permet d’obtenir des conclusions plus fiables.

Conclusion

Bien que les études sur la communication nonviolente (CNV) soient essentielles pour comprendre les interactions humaines, la plupart ne sont pas exemptes de biais et d’erreurs méthodologiques pour l’instant. En analysant la conception expérimentale, l’échantillonnage et les tests statistiques, nous avons mis en évidence plusieurs biais qui peuvent compromettre la validité des résultats. Pour surmonter ces obstacles, il est crucial d’adopter des approches plus rigoureuses et de recourir à des corrections statistiques appropriées. En renforçant la méthodologie de recherche, nous pouvons espérer obtenir des conclusions de plus en plus fiables, contribuant ainsi à la diffusion de la CNV avec plus de robustesse et de crédibilité. Cette recherche permettrait également d’identifier les composantes les plus pertinentes de la CNV.