En los últimos años, muchos conservadores han despertado la amenaza de una gran censura tecnológica, ya que los puntos de vista políticamente incorrectos son misteriosamente marcados, eliminados o suprimidos por algoritmos hostiles. Sin embargo, lo que muchos no se han dado cuenta es la amenaza aún mayor que representa la gran tecnología. no censura. En 2021, un joven demandó a Twitter (ahora x) por permitir que las imágenes sexualmente explícitas de él tomen cuando tenía solo 13 años circulara públicamente en su plataforma. Increíblemente, cuando informó por primera vez las imágenes en Twitter, respondieron “Hemos revisado el contenido y no encontramos una violación de nuestras políticas, por lo que no se tomarán medidas en este momento”. Aún más increíblemente, cuando presentó una demanda en un tribunal federal, el caso fue desestimado.
Su historia es una de las cientos de historias similares, que involucran plataformas de redes sociales líderes como Facebook, Instagram, Reddit y Snapchat, e incluso sitios web de sueño como Craiglist. En cada caso, el sitio web era a sabiendas en uno de los peores crímenes que aún reconoce nuestra sociedad sexualmente permisiva: compartir pornografía infantil o facilitar el tráfico sexual infantil. En cada caso, el sitio web se benefició del comportamiento y se negó a cambiar sus caminos. En cada caso, las demandas contra la compañía fueron desestimadas. Todo por la sección 230.
Cada año, el Centro Nacional de Explotación Sexual publica una lista de “docena sucia” de los peores delincuentes corporativos para facilitar y beneficiarse del abuso sexual. Pero con más y más empresas que escapan de la responsabilidad legal básica, este año su lista destacó que doce sobrevivientes negaron justicia debido a esta disposición distorsionada y obsoleta de la Ley de Decencia de Comunicaciones de 1996. Originalmente, parte de una ley diseñada específicamente para proteger a los niños en línea en los primeros días de Internet, la Sección 230 se encontró huérfana cuando la Corte Suprema eliminó el resto de la CDA como una infracción de la “libertad de expresión”. Al igual que muchos huérfanos privados de un buen hogar, la Sección 230 recurrió a una vida de crimen. Durante las últimas tres décadas, ayudado e incorporado por los cabilderos tecnológicos y los bufetes de abogados adinerados, se ha convertido en un cheque en blanco de inmunidad soberana para todas y cada una de las empresas tecnológicas.
En 1996, el objetivo del Congreso era crear un Internet donde las plataformas fueran fuertemente incentivadas para eliminar el contenido inapropiado o ilícito que los usuarios publicaron en ellos pero que no enfrentarían pasivos legales paralizantes si algo pasó por sus filtros. Sin embargo, una vez que el resto de CDA fue atacado, los incentivos para el buen comportamiento se habían ido, y las empresas decidieron priorizar las ganancias sobre las personas, invirtiendo solo el mínimo en moderación de contenido.
En cambio, invirtieron en contenido amplificacióna través de nuevos algoritmos sofisticados que podrían aumentar el “compromiso” de los usuarios al hacer coincidir a las personas con “más contenido que le gustará”. Esto incluyó a los pedófilos de 37 años con adolescentes jóvenes maduros para la explotación. Solo por el tramo más grosero de razonamiento legal podría las empresas reclamar inmunidad por las acciones tomadas por sus propios algoritmos, pero hasta hace poco, tales estiramientos brutos han sido la norma.
Recientemente, eso finalmente ha comenzado a cambiar, con los tribunales que comienzan a lado ocasionalmente con una multitud de víctimas. El Congreso también ha tomado medidas, aprobando la Ley de Takeitdown (por unanimidad en el Senado, 409-2 en la Cámara), lo que requerirá que las plataformas en línea eliminen imágenes sexualmente explícitas no consensuadas dentro de las 48 horas posteriores a la notificación. Es triste que pasara tanto tiempo para que se aprobara una ley tan común, durante muchos años, las plataformas tuvieron que responder de inmediato si Disney les dijera que uno de sus personajes de dibujos animados con derechos de autor apareció en su sitio, pero podrían ignorar a una niña adolescente que les notaba videos de su violación. Pero ciertamente es un paso en la dirección correcta, y de manera crucial, el acto incluye “fallas profundas” de IA, que se han utilizado para acosar a muchas mujeres con imágenes sexuales simuladas de ellas.
El advenimiento de tales amenazas de IA en línea subraya la rapidez con la que los legisladores tendrán que moverse para ponerse al día con la tecnología emergente. La semana pasada, la Wall Street Journal informó que los propios chatbots de Meta involucrarían a menores en conversaciones sexualmente explícitas, mientras que el personaje popular de la plataforma. AI enfrenta una demanda para un chatbot que alentó a un niño de 14 años a suicidarse. Debería ser obvio que la Sección 230 inmunidad, importante para proteger a las empresas de la responsabilidad por el contenido cargado por otros humanos fuera de su control, no debería aplicarse a los chatbots propios de las empresas, pero eso no ha impedido que las compañías tecnológicas intenten argumentar que sí.
En última instancia, la mejor solución es derogar la sección 230 y reemplazarla con una legislación que trata a las grandes tecnologías de la misma manera que otras industrias cuando se trata de responsabilidad del producto. Aunque las compañías se quejarán de que se trata de una regulación gubernamental de mano dura, la realidad es que es el enfoque más de libre mercado: al permitir que los ciudadanos privados demanden en los tribunales por daños claros causados por estos productos y plataformas, desatará los incentivos del mercado para que las empresas inviertan en un diseño más seguro y una autorregulación. Con los corazones y las mentes de nuestros hijos en la línea, las apuestas no podrían ser más altas.