Un proyecto de ley respaldado por el Senado destinado a salvaguardar lo que los niños ven en las redes sociales puede enfrentar desafíos más duros en la Cámara de Representantes, ya que los opositores avivan los temores de censura gubernamental y silenciamiento de las opiniones liberales y conservadoras.
Según el Pew Research Center, el 96 por ciento de los adolescentes estadounidenses utilizan las redes sociales a diario y casi la mitad afirma que las utilizan “casi constantemente”. Si bien los expertos aún no han confirmado una correlación directa entre el uso de las redes sociales y la mala salud mental, cada vez hay más evidencia que sugiere una conexión con la ansiedad, la depresión y la soledad. Algunos padres de niños que se han suicidado o han muerto por sobredosis o después de participar en un desafío en línea señalan a las redes sociales como la causa.
Algunas plataformas de redes sociales ya ofrecen opciones para desactivar contenido sensible, pero la ley propuesta exigiría a las empresas tecnológicas que esas opciones sean predeterminadas en las cuentas de menores de edad. A los padres también se les ofrecerían más formas de monitorear las cuentas de sus hijos.
A fines de julio, el Senado aprobó por abrumadora mayoría la Ley de Seguridad Infantil en Internet, que obligaría a las empresas tecnológicas a ofrecer protección a los niños en las redes sociales. El proyecto de ley, conocido como KOSA, fue aprobado por 91 votos a favor y 3 en contra. Ese mismo día, el Senado también aprobó la Ley de Protección de la Privacidad Infantil y Adolescente en Internet, que prohibiría a las empresas tecnológicas recopilar datos de usuarios menores de edad.
La ley KOSA exigiría a las empresas que hagan que cualquier contenido asociado con el acoso en línea, la venta ilegal de drogas o la explotación sexual sea inaccesible en las cuentas de los niños. También prohibiría las funciones que fomenten “comportamientos similares a la adicción” y prácticas de marketing predatorias.
Los opositores, que provienen de ambos lados del espectro político, dicen que el gobierno debería centrarse en eliminar funciones adictivas o poco saludables como la reproducción automática, el desplazamiento infinito o las notificaciones intrusivas, no el contenido.
“KOSA no cumple con su cometido al poner al gobierno federal en la posición de determinar qué contenido es o no dañino para los niños”, escribió Evan Greer, director de Fight for the Future, un grupo activista en línea que administra el sitio web stopkosa.com. “Eso debería preocupar a todos. Y viola la Primera Enmienda”.
El daño es subjetivo, agregó Greer, argumentando que suena a censura gubernamental si el gobierno define lo que un niño no debería poder ver y luego ordena a las empresas tecnológicas que lo filtren.
“No existe una definición legal de qué tipo de contenido ‘hace que un niño se deprima’. Será la Comisión Federal de Comercio la que decida”, escribió Greer en un correo electrónico. “Una FTC de Harris podría argumentar que el contenido pro vida hace que los niños se depriman. Una FTC de Trump podría decidir que el contenido sobre el cambio climático hace que los niños se depriman. De cualquier manera, el gobierno está dictando qué plataformas de discurso pueden mostrar a qué usuarios”.
Pero Josh Golin, director ejecutivo del grupo de defensa de los derechos infantiles Fairplay, defiende el proyecto de ley.
“No se trata de que el gobierno decida qué contenido es seguro y cuál no”, afirmó Golin. “Se trata de responsabilizar a estas plataformas por las decisiones deliberadas de diseño que toman”.
Golin menciona que varias plataformas de redes sociales aún permiten a los usuarios jóvenes aplicar un filtro que muestra cómo lucirían sus rostros si se sometieran a una cirugía plástica. Los cirujanos plásticos han informado recientemente de un aumento en la cantidad de clientes que desean verse mejor en las selfies.
“Si este proyecto de ley fuera ley, (el director ejecutivo de Meta, Mark Zuckerberg) podría verse obligado legalmente a no tener algo así como un filtro de cirugía plástica, que fomenta la insatisfacción de los jóvenes con su apariencia y hace que quieran hacerse cirugía plástica a una edad ridículamente temprana”, dijo Golin.
Los grupos de ambos bandos en los debates sobre el aborto y las cuestiones LGBTQ han expresado por separado su preocupación por la supresión de puntos de vista. Los grupos pro-LGBTQ temen que el contenido sobre sexualidad se filtre para los niños que podrían identificarse como LGBTQ. Tanto los grupos pro-aborto como los pro-vida están preocupados por que las mujeres jóvenes no puedan ver publicaciones con información sobre sus opciones.
Golin afirma que estos argumentos carecen de fundamento. “No hay nada en el proyecto de ley que obligue a las plataformas a retirar ningún contenido”, afirmó. “No hay nada que impida a los menores decirse algo entre ellos en línea o buscar cualquier tipo de contenido, recursos o comunidad”.
Benjamin Bull, asesor general del Centro Nacional sobre Explotación Sexual, dijo que la Primera Enmienda no protege ciertas formas de expresión dañina, especialmente si se demuestra que son dañinas para los niños.
“Si en la televisión una empresa farmacéutica comenzara a anunciar píldoras venenosas de una manera que atrajera a los niños a comprarlas y comerlas, ¿(prohibirlas) violaría la Primera Enmienda? No, porque están creando una situación peligrosa que perjudica a la gente”, dijo Bull.
Aun así, Bull admite que la definición del proyecto de ley de contenido dañino es “demasiado amplia y puede ser utilizada con fines maliciosos por funcionarios gubernamentales con malas intenciones”. Es por eso que la semana pasada, miembros de su centro y otros dedicaron tiempo a afinar la definición del proyecto de ley de prevención de daños, que incluye esfuerzos para evitar trastornos de salud mental.
Muchas empresas de redes sociales ya ofrecen herramientas de seguridad para usuarios menores de edad. Instagram advierte a los usuarios antes de hacer clic en contenido potencialmente dañino y ofrece una configuración para ver contenido menos sensible. Los usuarios de TikTok de entre 13 y 15 años reciben cuentas privadas de forma predeterminada, lo que significa que los adolescentes no pueden enviar ni recibir mensajes directos en la plataforma.
Algunos padres frustrados por la falta de transparencia de las empresas de redes sociales sobre los hábitos en línea de sus hijos obtendrán más claridad si se aprueba este proyecto de ley. Pero algunos padres dicen que no están convencidos de que las redes sociales vayan a ser seguras algún día, incluso con los proyectos de ley propuestos y las medidas de seguridad ya en vigor.
Erin Loechner es madre y recientemente escribió el libro, La familia que opta por no participar: cómo darles a sus hijos lo que la tecnología no puede darlesAplaude los esfuerzos por proteger las redes sociales para los niños, pero dice que nunca serán suficientes.
“KOSA es sin duda un comienzo, pero está lejos de ser el final. No existe una forma segura y saludable de utilizar las redes sociales, incluso con los maravillosos esfuerzos de los activistas que luchan por restricciones más estrictas”, escribió en un correo electrónico.
Loechner dijo que los padres necesitan convencer a los niños de que las actividades fuera de línea son, en última instancia, más divertidas y satisfactorias que cualquier cosa que puedan encontrar en una pantalla.
“¿Por qué enseñarles a nuestros hijos cómo llegar de forma segura a la tienda de pornografía, al dispensario de ansiedad, al patio del acoso, al drenaje de la autoestima?”, escribió. “En lugar de eso, enseñémosles cómo alejarse”.