L’article 230 de la Communications Decence Act, adopté en 1996 dans le cadre de la loi sur les télécommunications, est devenu un paratonnerre politique ces dernières années. La loi protège les plates-formes en ligne de responsabilité pour le contenu généré par les utilisateurs tout en permettant de bonne foi de la modération.
Les législateurs, dont Sens. Lindsey Graham, Rs.C., et Dick Durbin, D-Ill., Cherchent désormais à la section 230 du coucher du soleil d’ici 2027 afin de stimuler une renégociation de ses dispositions. Les sénateurs devraient organiser un événement de presse avant le 11 avril sur un projet de loi visant à démarrer un minuteur sur la réforme ou le remplacement de l’article 230, selon les rapports. Si aucun accord n’est conclu par la date limite, l’article 230 cesserait d’être loi.
Le débat sur la loi se concentre sur l’équilibrage de la responsabilité du contenu nuisible avec les risques de censure et a étouffé l’innovation. En tant que chercheur juridique, je vois des effets potentiels dramatiques si la section 230 devait être abrogée, certaines plateformes et sites Web bloquant tout contenu potentiellement controversé. Imaginez Reddit sans commentaires critiques ou tiktok dépouillé de satire politique.
La loi qui a construit Internet
L’article 230, souvent décrit comme «les 26 mots qui ont créé Internet», sont apparus en réponse à une décision de pénalisation de 1995 pour modérer le contenu. La principale disposition de la loi, c) (1), indique qu ‘«aucun fournisseur ou utilisateur d’un service informatique interactif ne sera traité comme l’éditeur ou le locuteur de toute information fournie par un autre fournisseur de contenu d’informations.» Cela immunisse des plateformes telles que Facebook et Yelp de responsabilité pour le contenu publié par les utilisateurs.
Surtout, l’article 230 n’offre pas d’immunité générale. Il ne protège pas les plates-formes de responsabilité liée au droit pénal fédéral, à la violation de la propriété intellectuelle, au trafic sexuel ou à la codéage des plates-formes. Dans le même temps, la section 230 permet aux sociétés de plate-forme de modérer le contenu, comme elles le souhaitent, les permettant de bloquer le contenu nuisible ou offensant qui est autorisé par le premier amendement.
Certains critiques soutiennent que les algorithmes que les plateformes de médias sociaux utilisent pour alimenter le contenu aux utilisateurs sont une forme de création de contenu et devraient être en dehors du champ d’application de l’immunité de la section 230. En outre, le président de la Commission des communications fédéraux, Brendan Carr, a signalé une position plus agressive envers Big Tech, plaidant pour un recul des protections de l’article 230 pour répondre à ce qu’il perçoit comme une modération et une censure biaisées.
Censure et dilemme de modération
Les opposants avertissent que l’abrogation de l’article 230 pourrait entraîner une augmentation de la censure, un flot de litiges et un effet effrayant sur l’innovation et la liberté d’expression.
L’article 230 accorde une immunité complète aux plateformes pour les activités tierces, que le discours contesté soit illégal, selon un rapport de février 2024 du Congressional Research Service. En revanche, l’immunité via le premier amendement nécessite une enquête pour savoir si le discours contesté est protégée par la Constitution.
Sans immunité, les plateformes pourraient être traitées comme des éditeurs et tenues responsables de contenu diffamatoire, nuisible ou illégal que leurs utilisateurs publient. Les plateformes pourraient adopter une approche plus prudente, en supprimant le matériel légalement discutable pour éviter les litiges. Ils pourraient également bloquer le contenu potentiellement controversé, ce qui pourrait laisser moins d’espace aux voix de personnes marginalisées.
Le professeur de gestion du MIT, Sinan Aral, a averti: «Si vous abrogez la section 230, l’une des deux choses se produira. L’approche excessive, parfois appelée «censure collatérale», pourrait conduire les plateformes à supprimer une bande plus large de discours, y compris un contenu légal mais controversé, pour protéger contre les poursuites potentielles. L’avocat général de Yelp a noté que sans l’article 230, les plates-formes peuvent se sentir obligées de supprimer les avis négatifs légitimes, privant les utilisateurs d’informations critiques.
Corbin Barthold, avocat de l’organisation de plaidoyer à but non lucratif TechFreedom, a averti que certaines plateformes pourraient abandonner la modération du contenu pour éviter la responsabilité de l’application sélective. Cela entraînerait plus d’espaces en ligne pour la désinformation et le discours de haine, a-t-il écrit. Cependant, les grandes plates-formes ne choisiraient probablement pas cette voie pour éviter les contrecoups des utilisateurs et des annonceurs.
Un champ de mines légal
L’article 230 (e) préempte actuellement la plupart des lois des États qui détiendraient des plates-formes responsables du contenu des utilisateurs. Cette préemption maintient une norme juridique uniforme au niveau fédéral. Sans cela, l’équilibre des pouvoirs se déplacerait, permettant aux États de réglementer de manière plus agressive les plates-formes en ligne.
Certains États pourraient adopter des lois imposant des normes de modération de contenu plus strictes, obligeant les plates-formes à supprimer certains types de contenu dans des délais définis ou à exiger la transparence des décisions de modération du contenu. À l’inverse, certains États peuvent chercher à limiter les efforts de modération pour préserver la liberté d’expression, créant des obligations contradictoires pour les plateformes qui fonctionnent à l’échelle nationale. Les résultats des litiges pourraient également devenir incohérents, car les tribunaux entre différentes juridictions appliquent des normes variables pour déterminer la responsabilité de la plate-forme.
Le manque d’uniformité rendrait difficile pour les plateformes d’établir des pratiques de modération de contenu cohérentes, ce qui complique encore les efforts de conformité. L’effet effrayant sur l’expression et l’innovation serait particulièrement prononcé pour les nouveaux entrants du marché.
Alors que les principaux acteurs tels que Facebook et YouTube pourraient être en mesure d’absorber la pression juridique, les petits concurrents pourraient être forcés de quitter le marché ou rendues inefficaces. Les petites ou moyennes entreprises avec un site Web pourraient être ciblées par des poursuites frivoles. Le coût élevé de la conformité pourrait dissuader beaucoup d’entrer sur le marché.
Réforme sans ruine
Le groupe de défense des avocats à but non lucratif Electronic Frontier Foundation a averti: «L’Internet gratuit et ouvert comme nous le savons ne pourrait pas exister sans l’article 230». La loi a contribué à favoriser la croissance d’Internet en permettant aux plateformes de fonctionner sans la menace constante de poursuites sur le contenu généré par les utilisateurs. La section 230 permet également aux plateformes d’organiser et d’adapter le contenu généré par l’utilisateur.
L’abrogation potentielle de l’article 230 modifierait fondamentalement ce paysage juridique, remodelant le fonctionnement des plateformes, augmentant leur exposition au litige et redéfinissant la relation entre le gouvernement et les intermédiaires en ligne.