Les limites

Comme dans toute discipline scientifique, les études sur la communication nonviolente (CNV) comportent leur lot d’insuffisances, de biais, et d’erreurs. Ce court article vise à explorer ces imperfections à travers trois axes principaux : le design d’expérience, l’échantillonnage et l’interprétation des résultats. En examinant ces aspects, nous mettrons en lumière les défis méthodologiques que les prochaines études devront affronter, et proposerons des pistes pour renforcer la rigueur scientifique dans ce domaine.

Le design d’expérience

Le biais de confirmation et les tests autodéclarés

Le biais de confirmation est un mécanisme cognitif par lequel une personne tend à privilégier les informations qui confirment ses idées préconçues ou ses hypothèses, tout en accordant moins de poids aux informations et hypothèses qui les contredisent. Consultez par exemple la page du CNVC présentant les travaux scientifiques en rapport avec la CNV. Pour chaque article répertorié, vous trouverez en plus du lien vers un pdf, une présentation succincte de l’étude concernée sous forme d’extrait de quelques phrases tirées du texte original. Ce résumé donne un très bon exemple de ce biais de confirmation : sélectionner les éléments qui confirment le mieux notre croyance initiale. Pour rappel la démarche scientifique est rigoureusement inverse : chercher des raisons de douter plutôt que des raisons de croire.
Les tests autodéclarés, ou explicites, sont des tests qui mesurent directement les réponses des participant.es. Donc les participant.es comprennent exactement ce qui est mesuré et peuvent facilement deviner ce que les études cherchent à prouver. Par exemple, dans l’étude de Vazhappilly 2017 les sujets sont testés avec des questionnaires explicites sur leurs expériences de couple pendant qu’ils suivent un programme de communication au sein du couple. Ce lien évident peut créer un biais dans les réponses des sujets, avec une tendance, pas nécessairement consciente, à vouloir répondre aux attentes de l’expérimentateur (biais de complaisance), et donc dans le cas qui nous préoccupe ici à améliorer les résultats au test, notamment après avoir suivi la formation. Jusqu’à maintenant, on retrouve l’usage préférentiel de ces tests autodéclarés dans la grande majorité des articles scientifiques sur la CNV.

Pourtant, des alternatives implicites peuvent être utilisées, comme des questionnaires implicites où le lien avec la formation n’est pas évident (e.g. test de prise de perspective, d’attribution causale) ou des tâches avec mesure de temps de réaction (e.g. test d’association implicite). Ou encore, bien qu’un peu plus lourd à mettre en œuvre, des mesures physiologiques (battements cardiaques, respiration, électroencéphalogramme,…).

L’effet d’apprentissage et l’absence de groupe contrôle

L’effet d’apprentissage apparaît lorsqu’en reproposant un test à un sujet dans un intervalle court, le sujet a appris du premier test et obtiendra de meilleurs résultats la seconde fois. Par exemple, dans un design expérimental pré-post on fait passer un test avant et après la formation en CNV dans l’idée de quantifier l’impact de cette formation. S’il n’y a pas de groupe contrôle, comme c’est malheureusement le cas dans les études de Marlow (2012) ou Museux (2016), il est impossible de distinguer l’effet de l’impact de la formation de celui de l’effet d’apprentissage, ni même dans l’absolu de l’effet du temps qui passe.

Ainsi, l’usage d’un groupe contrôle permet de distinguer l’effet plus spécifique de l’impact de la formation de celui de l’effet d’apprentissage, mais aussi d’autres variables extérieures.

Absence d’intervention dans le groupe contrôle

Plusieurs études ont inclus un groupe contrôle, mais qui n’a aucune activité comparable à celles du groupe expérimentale (ex : Wacker 2018, Kang 2019). Il est donc impossible d’affirmer que les différences de score entre les deux groupes soient dues au contenu en CNV de la formation. En effet, ces différences peuvent, par exemple, être simplement dues au fait de passer 3 jours en groupe avec des activités différentes de l’environnement de travail habituel.

Selon les hypothèses de recherche et ce que l’étude veut mettre en évidence, il est essentiel de définir une intervention la plus proche possible du groupe d’intervention, pour le groupe contrôle.

Les effets à long terme

La durée des effets d’une intervention est un critère essentiel pour mesurer son efficacité. En étudiant les résultats de la formation à la sortie même de la formation (Jung 2023), ces effets à très court termes ne nous renseignent pas sur la dynamique et l’impact sur le quotidien à long terme. Il peut être difficile de retrouver des sujets plus de 6 mois après une intervention, mais ce sont des données précieuses.

L’échantillonnage

Les méthodes d’échantillonnage non représentatif de la population générale

Si la méthode d’échantillonnage ne représente pas correctement la population, elle peut entraîner des biais dans les résultats, rendant difficile l’extrapolation des conclusions à l’ensemble de la population. Par exemple, dans l’article de Marlow 2012, les participants en liberté conditionnelle ont été recrutés dans un établissement résidentiel spécifique et peuvent être différents des personnes en liberté conditionnelle qui ne suivent pas de traitement. Ces biais d’échantillonnage peuvent se produire aussi quand les participant.es sont recrutés sur la base du volontariat (Yang 2021).

Pour s’affranchir le plus possible de ce biais, les méthodes d’échantillonnage doivent être totalement aléatoires au sein de la population d’intérêt.

La taille d’échantillon

Une règle empirique en statistiques suggère d’avoir au moins 30 sujets par groupe. Cependant, certaines études, comme celles portant sur des singes, des maladies rares ou l’enregistrement de neurones spécifiques, ne peuvent pas toujours atteindre ce nombre en raison de leur complexité. En sciences cognitives, atteindre ce seuil est souvent plus réalisable, même si certaines études sur la CNV sont publiées avec des effectifs très faibles comme Museux 2016 où il y a seulement 9 participant.es. Quoi qu’il en soit, la taille de l’effet que l’on souhaite détecter doit être proportionnelle à l’échantillon disponible. Les analyses de puissance, bien que classiques, sont encore trop rarement utilisées pour déterminer la taille d’échantillon adéquate en fonction de l’effet recherché.

Homogénéité des groupes avant l’intervention

Pour comparer statistiquement un groupe contrôle et un groupe suivant une intervention, il est crucial que ces groupes soient homogènes. Cela signifie qu’ils doivent être similaires en termes de caractéristiques démographiques et contextuelles. Par exemple, dans l’étude de Wacker 2018, où la participation à la formation CNV se fait sur la base du volontariat, les deux groupes n’étaient pas équilibrés en termes de niveau d’éducation. En moyenne, le groupe ayant suivi la formation CNV avait trois ans d’éducation de plus que le groupe contrôle. Par ailleurs, dans l’étude de Kim 2022, le groupe contrôle est composé d’étudiants d’une université et d’une ville différente de celle du groupe recevant la formation CNV, même si les auteurs affirment que les populations et les contextes socioculturels sont similaires, ils ne le mesurent pas. Ainsi, il est impossible de déterminer si les différences observées entre les deux groupes sont dues au programme CNV ou aux différences de contexte.

Les perdu.e.s de vue

La perte de participants au cours d’une étude peut introduire un biais significatif dans l’interprétation des résultats. Lorsque des participant.es abandonnent, les groupes initiaux peuvent devenir non représentatifs de la population étudiée, ce qui peut fausser les conclusions. Par exemple, si les participant.e.s qui abandonnent partagent des caractéristiques spécifiques (comme un niveau de motivation ou de santé différent), les résultats finaux peuvent ne plus refléter fidèlement l’effet de l’intervention étudiée. Par exemple, dans l’étude de Marlow 2012, 26 % des participants ont quitté l’étude en raison d’une rechute ou d’une nouvelle arrestation. Leurs résultats auraient probablement changé les conclusions de l’article s’ils avaient pu être inclus jusqu’à la fin de l’étude.

L’interprétation des résultats

La significativité statistique et la taille d’effet

La significativité statistique est un concept qui aide à déterminer si les résultats d’une étude sont dus au hasard ou s’ils reflètent une véritable tendance. Par exemple, si nous testons l’effet d’un module de CNV, nous voulons savoir si les résultats positifs sont réels ou simplement une coïncidence. La significativité statistique est souvent mesurée par une “p-value”. Si cette valeur est inférieure à un seuil (souvent 0.05), nous considérons les résultats comme statistiquement significatifs. Ce seuil arbitraire est de plus en plus critiqué et il est possible de s’en affranchir avec d’autres approches statistiques, comme l’approche bayésienne. C’est encore rarement le cas dans les études en sciences cognitives.

La taille d’effet, quant à elle, nous indique l’ampleur de cette tendance. Même si un résultat est statistiquement significatif, il peut être trop petit pour être pertinent dans la vie réelle. La taille d’effet nous aide à comprendre l’importance pratique des résultats. Par exemple, un module de CNV pourrait réduire la durée d’une crise d’angoisse de 10%, ce qui est statistiquement significatif, mais une réduction de 50% serait beaucoup plus significative sur le plan clinique.

En résumé, la significativité statistique nous dit si un effet est probablement réel, tandis que la taille d’effet nous dit à quel point cet effet est important. Dans la plupart des articles scientifiques, les résultats sont réduits à un effet positif, or il est essentiel de rapporter les résultats en précisant et discutant la taille d’effet et la significativité statistique. Cette nouvelle exigence n’en est qu’à ses débuts en science en général, sans parler des études concernant la CNV en particulier…

Multiplier les tests statistiques

Lorsqu’on effectue plusieurs tests statistiques indépendants, comme dans l’article de Kim 2022 où les auteurs ont évalué six questionnaires différents (colère primaire, colère secondaire, relations interpersonnelles, empathie, estime de soi et efficacité de communication), la probabilité de trouver une différence, seulement due au hasard, augmente considérablement. En effet, chaque test supplémentaire accroît la probabilité de résultats faussement positifs. Pour pallier ce problème, une méthode couramment utilisée est la correction de Bonferroni, qui ajuste le seuil de significativité. Par exemple, si le seuil de p-value initial est de 0,05, il serait divisé par le nombre de tests (ici 6), donnant un nouveau seuil de 0,008. Selon les résultats présentés (dans le Tableau 3 de l’article), après cette correction, seule l’efficacité de communication resterait significativement différente entre les groupes.
De même, en analysant les effets des entraînements cognitifs et les intentions de démission de leur travail dans différents groupes, dans l’article de Kang 2019, les auteurs augmentent leurs chances de trouver des différences aléatoires. Pour contrer ce biais, ils ont appliqué des corrections statistiques. Cette approche permet de réduire le risque d’erreurs de première espèce et d’obtenir des conclusions plus fiables.

Conclusion

Bien que les études sur la communication nonviolente (CNV) soient essentielles pour comprendre les interactions humaines, la plupart ne sont pas exemptes de biais et d’erreurs méthodologiques pour l’instant. En analysant le design d’expérience, l’échantillonnage et les tests statistiques, nous avons mis en évidence plusieurs biais qui peuvent compromettre la validité des résultats. Pour surmonter ces obstacles, il est crucial d’adopter des approches plus rigoureuses et de recourir à des corrections statistiques appropriées. En renforçant la méthodologie de recherche, nous pouvons espérer obtenir des conclusions de plus en plus fiables, contribuant ainsi à la diffusion de la CNV avec plus de robustesse et de crédibilité. Un autre aspect de la recherche consistera à identifier quels sont les composantes de la CNV qui donnent les meilleurs résultats, et quels sont ceux pour lesquels des évolutions pourraient être apportées.