¿Los chatbots tienen derechos?

Los críticos de nuestra tradición constitucional estadounidense a menudo han acusado que un documento del siglo XVIII no puede continuar gobernando un mundo moderno que cambia rápidamente de manera efectiva. Hasta ahora, sin embargo, nuestros tribunales han hecho un trabajo a menudo impresionante al interpretar y adaptar cláusulas cortas de la constitución a la luz de problemas radicalmente nuevos. Sin embargo, con el advenimiento de la inteligencia artificial, pueden estar a punto de obtener su mayor prueba hasta ahora.

En una decisión preliminar en un caso de alto perfil en Florida, García v. Carácter Technologies et al..La jueza de la corte de distrito, Anne Conway, se le presentó la cuestión de si los chatbots de IA disfrutan de protecciones de libertad de expresión, o al menos si los usuarios tienen un derecho de primera enmienda a recibir El “discurso” de tales bots. El caso en cuestión es feo para la industria de la IA. Un niño de 14 años, seducido por un personaje ai simulación de un personaje femenino de Game of Thronesdesarrolló una obsesión paralizante. Cuando sus padres se llevaron su teléfono, decidió terminar su vida, con el aparente aliento del bot. Los acusados, incluidos Google, que ayudaron a construir la plataforma, la desestimación de la demanda tiene por el terreno que los bots de carácter disfrutaron de inmunidades de la Primera Enmienda.

Aunque esto puede parecer absurdo, uno puede ver por qué las compañías tecnológicas harían tal argumento. Los chatbots no solo son una industria explosiva con exposiciones a responsabilidad potencialmente masiva (otros bots han sido atrapados diciendo a los escolares cómo sintetizar el fentanilo), sino que la IA ahora está ejecutando “bajo el capó” de una enorme cantidad de plataformas y programas convencionales. De hecho, en un sentido más amplio, los algoritmos que se utilizan para ordenar sus preferencias de búsqueda, curar su feed de Facebook y filtrar el spam son formas de inteligencia artificial. Comprensiblemente, la industria tecnológica ha luchado duro para argumentar que tales algoritmos constituyen el “discurso” de las empresas, tal como lo harían los editores humanos que filtran contenido.

En un caso reciente de la Corte Suprema de alto perfil, Nethoice v. Moody, algunos jueces no estaban convencidos. Los jueces Alito, Gorsuch y Thomas pidieron el dedo en la protuberancia del problema: “Cuando los algoritmos de IA toman una decisión,” incluso los investigadores y programadores que los crean realmente no entienden por qué los modelos que han creado toman las decisiones que toman “. ¿Son las decisiones igualmente expresivas como las decisiones tomadas por los humanos? Esta preocupación parece aún más relevante para una plataforma como el personaje AI, donde ya no se trata de un algoritmo de IA que realiza una tarea en nombre de la empresa de una manera opaca, sino de un bot que se involucra en “conversaciones” que van mucho más allá del conocimiento o las intenciones de los programadores.

Estamos patinando en un hielo muy delgado aquí, hielo que ha sido creado por la ampliación gradual del discurso de los tribunales para incluir “conducta expresiva” durante el siglo XX.

Así en el García Case, el juez Conway escribe: “La pregunta operativa es si la producción del carácter AI es el habla, y el discurso es expresivo. El habla comunica las ideas. El habla tiene un mensaje incluso cuando el mensaje no está claro o está abierto a la interpretación”. Pero a menos que estemos preparados para admitir conciencia Para los bots de IA (como solo un puñado de entusiastas del valle de Silicon), ¿cómo podríamos describirlos como “expresar ideas”? De hecho, incluso si los bots alcanzaran de alguna manera la conciencia y se involucraran en un discurso genuino, no sería el discurso de humanos—Mon el único tipo de discurso que la Primera Enmienda se refiere a proteger.

Dicho esto, si bien las declaraciones particulares del BOT pueden no ser un discurso protegido constitucionalmente, las compañías aún argumentarán que las plataformas en su conjunto, y los personajes que los habitan, representan la expresión artística de las compañías. En una serie de demandas sobre la generación pasada en torno a los videojuegos, los diseñadores generalmente han logrado evitar la “responsabilidad del producto” que enfrentan los creadores de productos físicos peligrosos al hacer tales argumentos de la Primera Enmienda. Claro, pueden haber tomado decisiones de diseño arriesgadas, pero a diferencia del fabricante de una pistola de juguete inapropiadamente peligrosa, estas fueron expresivo opciones de diseño y, por lo tanto, extensiones de su “discurso”.

Claramente, estamos patinando en un hielo muy delgado aquí, hielo que ha sido creado por la ampliación gradual del discurso de los tribunales para incluir “conducta expresiva” durante el siglo XX. Esto ha marcado una desviación peligrosa del originalismo de la Primera Enmienda, ya que la distinción entre “discurso” y “conducta” subyace en la lógica básica de las protecciones de la Primera Enmienda. (Como escribió el juez Alito en el Dobbs Decisión: “Mientras que las personas son ciertamente libres de pensar y decir lo que desean sobre la” existencia “,” significado “, el” universo “y el” misterio de la vida humana “, no siempre son libres de actuar de acuerdo con esos pensamientos”).

Si bien podríamos entender por qué un actor de cine mudo debería disfrutar de las protecciones de “libertad de expresión”, incluso mientras no hablar, está menos claro que un programador de software debe disfrutar de tales protecciones para cada línea de código que escribe, especialmente en un mundo donde casi todo parece ejecutarse en código de computadora, incluido su refrigerador. Por ahora, los tribunales están expresando un creciente escepticismo, pero sin duda algunos importantes enfrentamientos legales se avecinan antes de que podamos esperar que esta pregunta se resuelva.