Documents judiciaires : Meta a interrompu ses recherches après avoir constaté des effets néfastes

Technology
Court Papers: Meta Halted Research After Harm
Des documents judiciaires récemment déclassifiés affirment que Meta a interrompu une étude interne démontrant que de courtes pauses de Facebook réduisaient l'anxiété, la solitude et les comparaisons sociales négatives. Ces documents s'inscrivent dans le cadre d'une vaste action en justice menée par des districts scolaires américains, accusant les grandes plateformes de dissimuler les risques pour les enfants.

Des documents décachetés affirment que Meta a enterré une étude démontrant des effets néfastes

Ce que le Project Mercury aurait testé

La partie de l'affaire décrite dans les documents judiciaires allègue que Meta a collaboré avec une société de sondage externe pour mesurer les effets à court terme d'une pause forcée de la plateforme. Les participants qui ont temporairement cessé d'utiliser Facebook — et dans certaines descriptions, Facebook et Instagram — ont ensuite été interrogés sur leur humeur et la comparaison sociale. Les plaignants affirment que les résultats étaient suffisamment clairs pour que les chercheurs internes décrivent un effet causal sur la comparaison sociale, mais l'entreprise a interrompu les travaux plutôt que de les publier ou de les généraliser.

Allégations au-delà de l'étude unique

Réponse de Meta et position de l'entreprise

Meta a contesté cette caractérisation dans les documents déposés. Un porte-parole a déclaré que l'étude du Project Mercury avait été interrompue en raison de problèmes méthodologiques, et a réitéré que l'entreprise travaille depuis des années sur des fonctionnalités de sécurité pour les adolescents. L'entreprise a également déposé des requêtes pour maintenir la confidentialité de nombreux documents sous-jacents, arguant que les plaignants tentent de rendre publics un ensemble trop vaste de documents. Les plaignants rétorquent que ces documents sont au cœur de leurs allégations selon lesquelles les plateformes ont dissimulé des risques connus.

Le contexte d'une histoire au long cours

Ces nouveaux documents arrivent dans un contexte de surveillance publique datant de plusieurs années. En 2021, des diapositives et des recherches internes de l'entreprise ont suscité un large débat sur la question de savoir si Instagram et d'autres services sociaux contribuent à l'anxiété liée à l'image corporelle et à d'autres préjudices chez les adolescents. L'entreprise a ensuite publiquement contesté certaines interprétations médiatiques de ces documents tout en publiant des présentations annotées et en annonçant des modifications de produits destinées aux jeunes utilisateurs. Les nouveaux documents judiciaires amplifient ce débat antérieur en affirmant que l'entreprise a parfois supprimé ou écarté des conclusions qui ne lui plaisaient pas.

Pourquoi une étude de désactivation de sept jours est importante sur les plans scientifique et juridique

Une expérience de désactivation courte est un moyen relativement direct de sonder la causalité : si un échantillon d'utilisateurs cesse d'utiliser un service et que leurs mesures de bien-être s'améliorent par rapport à un groupe témoin, les enquêteurs peuvent inférer un certain effet causal de l'utilisation sur les résultats signalés. La force d'une telle inférence dépend de la manière dont les participants ont été sélectionnés, de la comparabilité du groupe témoin et de la question de savoir si l'acte de désactivation a introduit d'autres changements (par exemple, plus de sommeil ou une exposition réduite à des contenus spécifiques) expliquant l'effet. Les plaignants soutiennent que ces questions ont été soupesées en interne et que les conclusions restaient significatives ; Meta affirme que les méthodes étaient défaillantes. Le différend sur la méthodologie illustre pourquoi les détails scientifiques comptent devant les tribunaux et pourquoi les recherches internes des entreprises peuvent avoir des conséquences juridiques.

Conséquences juridiques et politiques plus larges

Cette plainte s'inscrit dans une vague plus large de litiges et de réglementations ciblant les responsabilités des plateformes sociales envers les mineurs. Les districts scolaires fondent leurs plaintes sur les dommages que les plateformes causeraient aux élèves dans les classes et les communautés scolaires, ainsi que sur les coûts que les écoles absorbent lorsque les élèves souffrent de crises de santé mentale ou sont exposés à des prédateurs en ligne. Si les tribunaux acceptent le point de vue des plaignants selon lequel les entreprises ont intentionnellement dissimulé des conclusions internes, cela pourrait remodeler les normes de communication des preuves (discovery) et accélérer la pression réglementaire sur les algorithmes de contenu, la vérification de l'âge et la divulgation des recherches internes sur la sécurité.

Ce qu'il faut surveiller ensuite

  • Requêtes préalables au procès concernant la mise sous scellés et la communication de preuves : les plaignants poussent pour rendre publics les documents internes ; Meta combat ces demandes et cherche à protéger les documents sensibles.
  • Preuves de compromis au niveau des produits : l'affaire repose sur la question de savoir si les discussions internes montrent que les dirigeants ont accepté des risques de sécurité dans le but de favoriser la croissance.
  • Retombées réglementaires : les législateurs et les régulateurs de la concurrence surveillent déjà de près ces développements ; tout nouveau document décacheté pourrait catalyser de nouvelles actions législatives ou d'application de la loi.

Ce que cela signifie pour les normes de recherche

Cet épisode met en lumière les tensions entre les cultures de recherche d'entreprise et la science indépendante. Les entreprises mènent régulièrement des expériences pour façonner leurs produits, mais lorsque ces expériences touchent à la santé publique — en particulier à la santé mentale des jeunes — les attentes en matière de transparence s'accroissent. Les chercheurs indépendants et les défenseurs des droits soutiennent que lorsque des expériences privées révèlent des risques à l'échelle de la population, les conclusions devraient être soumises à un examen indépendant ; les entreprises rétorquent que les travaux internes bruts peuvent être mal interprétés et que le contexte est important. Les tribunaux seront désormais appelés à trancher entre ces revendications concurrentes dans le cadre du processus de communication des preuves.

Prochaine échéance procédurale

Le tribunal de district a programmé une audience sur les différends relatifs à la communication de preuves et à la mise sous scellés pour le 26 janvier 2026, ce qui pourrait déterminer quelle part du dossier interne contesté deviendra publique au cours du litige.

Pour les journalistes et les décideurs politiques, l'enjeu immédiat ne concerne pas tant une présentation ou une expérience isolée, mais plutôt la question de savoir si les grandes plateformes seront tenues de traiter la recherche sur la sécurité comme une ressource d'intérêt public lorsqu'elle concerne le bien-être des enfants. Les prochaines semaines de requêtes et d'audiences décideront de la part de ces preuves que le public — et les tribunaux — pourront consulter, et de la manière dont la responsabilité des choix de conception affectant les jeunes utilisateurs sera poursuivie à l'avenir.

Mattias Risberg est journaliste scientifique et technologique chez Dark Matter, basé à Cologne. Il couvre les semi-conducteurs, la politique spatiale et les enquêtes fondées sur les données concernant les entreprises technologiques.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Qu'est-ce que Meta aurait interrompu dans le cadre du projet Mercury ?
A Meta aurait interrompu une étude interne, le projet Mercury, qui testait les effets à court terme d'une pause forcée de Facebook — et, selon certaines descriptions, d'Instagram également. Les participants ayant suspendu leur utilisation ont été interrogés sur leur humeur et la comparaison sociale, et les chercheurs internes auraient décrit un effet causal sur la comparaison sociale, tandis que Meta a invoqué des problèmes méthodologiques pour justifier l'arrêt des travaux.
Q Qu'allèguent les plaignants concernant les conclusions de l'étude et les actions de Meta ?
A Les plaignants soutiennent que les résultats indiquaient un effet causal sur la comparaison sociale et que Meta a supprimé ou écarté des conclusions qui ne lui plaisaient pas, choisissant d'interrompre le travail plutôt que de le publier ou de l'étendre. Ils utilisent cela pour étayer des affirmations plus larges selon lesquelles les plateformes auraient dissimulé des risques connus pour les étudiants et les mineurs impliqués dans le procès.
Q Comment l'étude de désactivation soutiendrait-elle l'inférence causale, et quelles préoccupations sont soulevées ?
A L'étude cherchait à prouver la causalité en comparant un groupe d'utilisateurs ayant désactivé Facebook (et parfois Instagram) pendant une courte période avec un groupe de contrôle, en mesurant l'évolution du bien-être et de la comparaison sociale. La robustesse des résultats dépend de la manière dont les participants ont été sélectionnés, de la comparabilité du groupe de contrôle et de la question de savoir si la désactivation a introduit d'autres changements pouvant expliquer les effets observés ; Meta qualifie les méthodes de défectueuses.
Q Quelles conséquences plus larges les documents juridiques suggèrent-ils si les conclusions sont divulguées ?
A Les documents suggèrent que si les tribunaux acceptent l'allégation selon laquelle des conclusions internes ont été dissimulées, cela pourrait remodeler les normes de communication de pièces (discovery) et accélérer la pression réglementaire sur les algorithmes de contenu, la vérification de l'âge et la divulgation des recherches internes sur la sécurité. L'affaire comprend des litiges en cours sur la mise sous scellés et la communication de pièces, avec une date d'audience fixée au 26 janvier 2026 ; les journalistes et les décideurs politiques attendent de voir si les preuves deviendront publiques et influenceront la responsabilité des plateformes en matière de sécurité.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!