Le premier amendement ne protège pas les messages publiés sur les plateformes de médias sociaux.
Les entreprises propriétaires des plateformes peuvent – et le font – supprimer, promouvoir ou limiter la diffusion de toute publication conformément aux politiques de l’entreprise. Mais tout cela pourrait bientôt changer.
La Cour suprême a accepté d’entendre cinq affaires au cours de son mandat actuel, qui se termine en juin 2024, qui donnent collectivement au tribunal l’event de réexaminer la nature de la modération du contenu – les règles régissant les discussions sur les plateformes de médias sociaux telles que Fb et X, anciennement connu sous le nom de Twitter – et les limitations constitutionnelles imposées au gouvernement pour affecter la parole sur les plateformes.
La modération du contenu, qu’elle soit effectuée manuellement par les employés de l’entreprise ou automatiquement par les logiciels et les algorithmes d’une plateforme, affecte ce que les téléspectateurs peuvent voir sur une web page multimédia numérique. Les messages promus attirent une plus grande viewers et une plus grande interplay ; ceux qui sont dépriorisés ou supprimés recevront évidemment moins d’consideration. Les politiques de modération du contenu reflètent les décisions des plateformes numériques concernant la valeur relative des messages publiés.
En tant qu’avocat, professeur et auteur d’un livre sur les limites du Premier Amendement, je crois que les défis constitutionnels présentés par ces affaires donneront au tribunal l’event d’informer le gouvernement, les entreprises et les utilisateurs de applied sciences interactives de leurs droits et responsabilités. à mesure que les applied sciences de communication continuent d’évoluer.
Boards publics
Fin octobre 2023, la Cour suprême a entendu des plaidoiries dans deux affaires liées dans lesquelles les deux groupes de plaignants ont fait valoir que les élus qui utilisent leurs comptes de réseaux sociaux exclusivement ou partiellement pour promouvoir leurs politiques ne peuvent pas constitutionnellement empêcher les électeurs de publier des commentaires sur le réseau social. pages des fonctionnaires.
Dans l’une de ces affaires, O’Connor-Radcliff c. Garnier, deux membres du conseil scolaire du Poway Unified College District en Californie ont bloqué un groupe de dad and mom – qui publiaient fréquemment des commentaires répétitifs et critiques sur les comptes Fb et Twitter des membres du conseil – de consulter les comptes des membres du conseil d’administration.
Dans l’autre affaire entendue en octobre, Lindke c. Freed, le directeur municipal de Port Huron, Michigan, apparemment irrité par les commentaires critiques sur une picture publiée, a empêché un électeur de visualiser ou de publier sur la web page Fb du directeur.
Les tribunaux estiment depuis longtemps que les espaces publics, comme les parcs et les trottoirs, sont des boards publics qui doivent rester ouverts à des conversations et à des débats libres et solides, soumis uniquement à des règles neutres sans rapport avec le contenu du discours exprimé. Les électeurs réduits au silence dans les affaires actuelles ont insisté sur le fait que dans un monde où de nombreux débats publics se déroulent sur les réseaux sociaux interactifs, les espaces numériques utilisés par les représentants du gouvernement pour communiquer avec leurs électeurs sont également des boards publics et devraient être soumis aux mêmes règles du premier amendement. comme leurs homologues physiques.
Si la Cour suprême décide que les boards publics peuvent être à la fois physiques et virtuels, les représentants du gouvernement ne pourront pas arbitrairement empêcher les utilisateurs de visualiser et de répondre à leur contenu ou de supprimer les commentaires des électeurs avec lesquels ils ne sont pas d’accord. D’un autre côté, si la Cour suprême rejette l’argument des plaignants, le seul recours pour les électeurs frustrés sera de créer des espaces de médias sociaux concurrents où ils pourront critiquer et argumenter à leur guise.
La modération du contenu comme choix éditoriaux
Deux autres affaires – NetChoice LLC contre Paxton et Moody contre NetChoice LLC – portent également sur la query de savoir remark le gouvernement devrait réglementer les discussions en ligne. La Floride et le Texas ont tous deux adopté des lois qui modifient les politiques internes et les algorithmes des grandes plateformes de médias sociaux en réglementant la manière dont les plateformes peuvent promouvoir, rétrograder ou supprimer des publications.
NetChoice, un groupe professionnel de l’industrie technologique représentant un massive éventail de plateformes de médias sociaux et d’entreprises en ligne, notamment Meta, Amazon, Airbnb et TikTok, affirme que les plateformes ne sont pas des boards publics. Le groupe affirme que les législations de Floride et du Texas restreignent de manière inconstitutionnelle le droit des sociétés de médias sociaux, en vertu du premier amendement, de faire leurs propres choix éditoriaux sur ce qui apparaît sur leurs websites.
En outre, NetChoice allègue qu’en limitant la capacité de Fb ou de X à classer, réprimer ou même supprimer des discours – que ce soit manuellement ou avec des algorithmes – les lois du Texas et de Floride équivalent à des exigences gouvernementales selon lesquelles les plateformes hébergent des discours qu’elles ne souhaitent pas, ce qui est également inconstitutionnelle.
NetChoice demande à la Cour suprême de déclarer les lois inconstitutionnelles afin que les plateformes restent libres de faire leurs propres choix indépendants concernant quand, remark et si les publications resteront disponibles pour session et commentaires.
La censure
Dans le however de réduire les discours préjudiciables qui prolifèrent sur Web – les discours soutenant les activités criminelles et terroristes ainsi que la désinformation et la désinformation – le gouvernement fédéral a engagé de vastes discussions avec les sociétés Web au sujet de leurs politiques de modération des contenus.
À cette fin, l’administration Biden a régulièrement conseillé – certains disent de manière musclée – aux plateformes de médias sociaux de déprioriser ou de supprimer les publications que le gouvernement avait signalées comme trompeuses, fausses ou nuisibles. Certains messages concernaient la désinformation sur les vaccins contre le COVID-19 ou faisaient la promotion de la traite des êtres humains. À plusieurs reprises, les responsables ont suggéré que les sociétés de plateforme interdisent à un utilisateur ayant publié le contenu de publier d’autres publications. Parfois, les représentants des entreprises eux-mêmes demandaient au gouvernement quoi faire avec un poste particulier.
Même si le public est généralement conscient de l’existence de politiques de modération de contenu, il n’est pas toujours conscient de la manière dont ces politiques affectent les informations auxquelles il est exposé. Plus précisément, le public n’a aucun moyen de mesurer la façon dont les politiques de modération du contenu affectent le marché des idées ou influencent les débats et les discussions sur les questions publiques.
Dans l’affaire Missouri c. Biden, les plaignants soutiennent que les efforts du gouvernement pour persuader les plateformes de médias sociaux de publier ou de supprimer des publications étaient si incessants et invasifs que les politiques de modération ne reflétaient plus les propres choix éditoriaux des entreprises. Au contraire, affirment-ils, ces politiques étaient en réalité des directives gouvernementales qui ont effectivement réduit au silence – et censuré de manière inconstitutionnelle – les orateurs avec lesquels le gouvernement n’était pas d’accord.
La décision du tribunal dans cette affaire pourrait avoir des effets considérables sur la manière et les méthodes utilisées par le gouvernement pour influencer les informations qui guident les débats et les décisions du public.