En el capitalismo estadounidense, concedemos a las empresas privadas un amplio margen de maniobra para buscar beneficios, pero no un margen ilimitado. Si su empresa ahorra en la compra de una tostadora defectuosa que provoca un incendio en su casa, puedo demandarla por el producto defectuoso. Si una empresa ferroviaria no mantiene su red y se produce un accidente mortal, podría verse obligada a pagar decenas o incluso cientos de millones de dólares en daños y perjuicios. Ni siquiera los derechos de la Primera Enmienda son ilimitados: un periódico que publique falsedades con malas intenciones que destruyan la reputación de alguien puede ser considerado responsable por difamación. Sólo una industria goza de inmunidad ante estas restricciones de sentido común a los beneficios: Internet. Al menos, hasta ahora.
En una decisión potencialmente histórica la semana pasada, el Tribunal de Apelaciones del Tercer Circuito de Estados Unidos dictaminó a favor de… Anderson contra TikTok que era hora de repensar drásticamente la llamada inmunidad de la Sección 230 que ha ayudado a aumentar los enormes márgenes de ganancia de la industria tecnológica. Los hechos del caso son repugnantes: una niña de 10 años, Nylah Anderson, se encontró con un video de “desafío de desmayo” en su feed de TikTok “recomendado para ti”, que desafiaba a los niños a intentar asfixiarse hasta desmayarse. Siguiendo la sugerencia de la plataforma, Nylah se ahorcó sin querer. Su angustiada madre, Tawainna Anderson, intentó responsabilizar a TikTok, pero un tribunal de distrito de EE. UU. rechazó su demanda, después de un cuarto de siglo de precedentes que protegían a las plataformas en línea de cualquier contenido que albergaran, incluidas difamaciones grotescas, incitaciones a la violencia y pornografía infantil.
El panel del Tercer Circuito discrepó por unanimidad. Basándose en parte en escritos recientes de la Corte Suprema del juez Clarence Thomas, los jueces concluyeron que al agregar, seleccionar y recomendar personalmente cierto contenido a los usuarios, las plataformas no solo estaban alojando “discursos de terceros”, sino que participaban en su propio discurso, al igual que el editor de una antología. Dos de los tres jueces estaban dispuestos a admitir que, si bien TikTok podría no ser responsable por el mero hecho de permitir que circularan videos de autoasfixia en su plataforma, el problema crucial era la recomendación
de esos videos a los usuarios. Dado que el modelo de negocios de estas empresas depende en gran medida de la selección activa de contenido recomendado, esta sentencia por sí sola tiene el potencial de transformar la industria.
Pero en un largo y elocuente disenso parcial, el juez de circuito de los EE. UU. Paul B. Matey fue mucho más allá. Comenzó con una cita de la iglesia de San Agustín. Confesionesdenunció la “indiferencia casual de TikTok ante la muerte de una niña de diez años” y calificó su interpretación de la Sección 230 como “una posición que se ha vuelto popular entre una gran cantidad de proveedores de pornografía, automutilación y explotación”. Desde su punto de vista, incluso si Nylah hubiera buscadono solo se topó con los videos del “blackout challenge”, la plataforma debería enfrentar responsabilidad, dado que los documentos judiciales mostraron que “TikTok sabía que: 1) ‘el mortal Blackout Challenge se estaba extendiendo a través de su aplicación’, 2) ‘su algoritmo estaba alimentando específicamente el Blackout Challenge a los niños’, y 3) varios niños habían muerto al intentar el Blackout Challenge después de ver videos del desafío en sus páginas For You”.
El juez Matey señaló que en todos los demás medios de comunicación de la historia de Estados Unidos, las legislaturas y los tribunales han distinguido entre la distribución no intencional y la distribución consciente de contenido peligroso o delictivo. Si bien podría no tener sentido penalizar a un operador de telégrafo por enviar un mensaje codificado de un jefe de la mafia a un sicario, la situación sería diferente si el operador conociera el significado del mensaje y no se molestara en detenerlo o informarlo. Aplicando principios conservadores de originalismo y textualismo a una lectura atenta de la Sección 230, el juez Matey demostró que el Congreso nunca tuvo la intención de hacer más que aplicar estas distinciones legales comúnmente aceptadas al nuevo medio de Internet.
De hecho, la ironía suprema de la Sección 230 es que es una de las pocas secciones que sobreviven de una ley de 1996, la Ley de Decencia en las Comunicaciones, destinada precisamente a proteger a los niños de los contenidos peligrosos en línea. En una decisión cuestionable que será reconsiderada este invierno, la Corte Suprema anuló la mayor parte de la ley por considerarla potencialmente demasiado restrictiva de la libertad de expresión de los adultos, pero dejó en vigor la Sección 230, diseñada para alentar a las plataformas a autocontrolarse y eliminar contenidos dañinos u obscenos. En su opinión, el juez Matey explicó cómo la cláusula había sido malinterpretada posteriormente para producir precisamente el efecto opuesto, dejando a los niños inundados en un ecosistema mediático de pornografía dura y videos de autolesiones.
Desde su aparición hace tres décadas, Internet ha ofrecido beneficios incalculables a miles de millones de usuarios, brindándoles acceso a nuevas fuentes de conocimiento y nuevas formas de productividad. Pero también ha causado daños incalculables, especialmente a los más vulnerables entre nosotros, debido a la falta de una regulación sensata, ya que bandidos, asesinos y proxenetas prosperan en un Salvaje Oeste fuera del alcance de la ley. El Tercer Circuito ha notificado que podría haber un nuevo sheriff en la ciudad, y solo podemos esperar que la Corte Suprema siga su ejemplo y respete la intención original del Congreso con respecto a la Sección 230.