A veces, un problema lleva al Congreso por asalto. Eleanor Gaetan, director de políticas públicas del Centro Nacional de Explotación Sexual, agradece que proteger a las víctimas de la pornografía generada por IA es uno de esos temas.
“Si tuviera dos minutos de un clásico de Disney, como La bella y la bestia—No no puedo ponerlo en YouTube. Fue inmediatamente rechazado. Se elimina porque hay una ley de derechos de autor, y todos están de acuerdo en que los derechos de autor protegen la propiedad intelectual de Disney. Pero las fotos mías que estaban desnudas no están protegidas por ninguna ley. Eso está mal “, dijo Gaetan.
El lunes por la tarde, el presidente Donald Trump firmó la Ley de Take It It Down. El acto convierte el crimen para usar software, aprendizaje automático, inteligencia artificial u otra tecnología generada por computadora para crear una representación explícita de una persona real sin su consentimiento. Aprobó el proceso legislativo con relativa facilidad.
“Con el surgimiento de la generación de imágenes de IA, innumerables mujeres han sido acosadas con falsificaciones profundas y otras imágenes explícitas, distribuidas contra su voluntad. Esto es tan terriblemente mal. Es una situación muy abusiva. Hoy lo estamos haciendo totalmente ilegal”, dijo Trump en la Casa Blanca.
El representante Jay Obernolte, R-Calif., Uno de los copatrocinadores del proyecto de ley, calificó el primer paso significativo de la Ley, pero dijo que espera que siga más trabajo.
“Es una de las primeras piezas de legislación relacionada con la IA”, dijo Obernolte. “En una forma, estoy muy feliz; obviamente, ya que alguien que ha sido muy vocal al expresar mi creencia de que las imágenes íntimas no consensuadas son algo que todos deberíamos estar de acuerdo no está bien. Por otro lado, creo que es muy desafortunado que esto sea todo lo que hemos podido hacer hasta ahora”.
La ley establece dos niveles de aplicación: sanciones para las personas que crean y publican el material pornográfico y el castigo para las compañías que permiten su propagación.
Las personas que crean materiales explícitos a partir de la imagen de un adulto podrían enfrentar una multa de hasta $ 250,000 y dos años tras las rejas, una oración que sube a tres años por crear una imagen que involucre a un menor.
Para las empresas que organizan el contenido, la ley requiere el cumplimiento dentro de una ventana de dos días de una queja. Un fracaso para cumplir dentro de ese lapso de 48 horas se consideraría una práctica comercial injusta o engañosa y podría dar como resultado una multa de $ 50,000 por violación.
Las empresas que hacen un esfuerzo de buena fe para eliminar imágenes dentro de la ventana de dos días no serían responsables.
Algunos legisladores que apoyan la Ley sobre Principio dijeron que no podían apoyar esas sanciones sin definiciones más claras del delito. Quiero decir, están hablando de pornografía generada por IA que se asemeja a una persona, entonces, ¿cómo decides si en realidad es una persona real o alguien que parece una persona real? Pero alguien podría ir a prisión si la imagen se parece a alguien?
En particular, Massie cree que el requisito de dos días pone una carga masiva en las nuevas empresas que pueden no tener los recursos para mantenerse al día con posibles violaciones por parte de su base de usuarios.
Señaló que otros miembros habían expresado una alarma similar, pero se negó a decir cuáles. Solo otro miembro, el representante Eric Burlison, R-Mo., Votó en contra.
El proyecto de ley aprobado por consentimiento unánime en el Senado.
Respondiendo a la preocupación de Massie por la ventana de dos días, Obernolte, el patrocinador del proyecto de ley, cree que el corte tuvo que estar en algún lugar para proteger los intereses de las víctimas.
“Ciertamente, los tribunales lo resolverán”, dijo Obernolte. “Pero para cualquiera que se oponga a la disposición de dos días, mi pregunta es, bueno, ¿cuál es la cantidad de tiempo correcta? Porque (a) algunas personas que se oponen en sus mentes, la cantidad de tiempo correcta no es una cantidad de tiempo. Creo que tendremos que aceptar estar en desacuerdo, pero la limitación tiene que ser algo”.
Gaetan, director de NCOSE, cree que la industria tecnológica cumplirá con la ley mediante el desarrollo de medios para identificar o marcar el contenido problemático, incluso antes de que se ponga en marcha.
“Está absolutamente dentro de la capacidad de estas compañías eliminarlo antes de que se cargue”, dijo Gaetan. “Existen herramientas de IA extremadamente exitosas para identificar imágenes que cumplirían con esta ley y deshacerse de ella. Entonces, creemos en el increíble éxito y el genio de estas compañías para poder resolver tantos problemas, incluidos este”.
Expertos como Clare Morell, del Centro de Ética y Políticas Públicas, advierten que la ley no puede tomar el lugar del juicio de los padres.
“Tenga mucho cuidado con quién compartes fotos, a quién te envías fotos y tengas cuidado de subirlas en línea. Personalmente, aconsejaría a los padres que no permitan a sus hijos menores de 18 años en las redes sociales por esta razón. Pero si lo están, entonces deberían ser realmente advertidos acerca de tener cuidado de saber que, lamentablemente, ser usado contra ellos”, dijo Morell.