Apenas pasa un día sin que se publique otra historia sobre la Inteligencia Artificial o IA. Anunciado como un avance tecnológico con un enorme potencial para transformar la vida humana, el temor sobre sus riesgos va en aumento. De hecho, se ha convertido en otro campo de batalla entre Estados Unidos y China.
El cambio tecnológico ha sostenido y perjudicado a la humanidad desde sus inicios, incluso con efectos mortales. La tecnología moderna no es diferente. Muchos inventos han enriquecido nuestras vidas. Algunos también han promovido fines malvados. Lo que es diferente hoy es la velocidad del cambio tecnológico.
Los derechos humanos corren un riesgo especial, ya que están bajo asedio en todo el mundo. Una de las razones del reciente deterioro de esos derechos, trágicamente, ha sido el auge de Internet y las tecnologías asociadas. Por supuesto, se suponía que la revolución en línea sería una fuerza de liberación global, y en cierto modo lo es. Sin embargo, también generó el Gran Cortafuegos de China. Las fuerzas autoritarias despliegan robots de software para perturbar y pervertir el debate político en los estados democráticos. Beijing ha cooptado despiadadamente a los proveedores de Internet.
Y ahora estamos siendo golpeados por el auge de la IA.
Sin duda, hará mucho bien. Sin embargo, también hay muchas maneras en que se utilizará la IA para violar los derechos humanos y socavar la democracia. Desafortunadamente, estamos sólo al comienzo de lo que casi con seguridad será una batalla larga y difícil. Las autocracias no estarán solas en lo que respecta al uso indebido de la IA. Los activistas y actores gubernamentales en las democracias también se verán tentados, especialmente a medida que la política se vuelva más amarga, partidista y confrontativa.
Por ejemplo, incluso con las mejores intenciones, el uso de la IA podría introducir un sesgo sutil en la moderación del discurso por parte de las plataformas de Internet y otros. Es probable que la mayoría de los sistemas tengan problemas con el contexto del argumento y los matices del lenguaje. Peor aún, los algoritmos podrían diseñarse para manipular, con distorsiones disfrazadas y difíciles de discernir. La intención podría ser suprimir, intimidar o amplificar puntos de vista y/o participantes particulares. Si la gente empieza a desconfiar de las plataformas convencionales, es probable que frecuentan sitios y publicaciones más extremos.
La IA podría utilizarse para intensificar la discriminación ilícita e inapropiada, dirigida desproporcionadamente contra grupos que ya son vulnerables y objetivo. La falta de transparencia con respecto a las operaciones de los sistemas ayudaría a protegerlos del escrutinio. Imaginemos una tecnología que pretendiera evaluar creencias y comportamientos futuros, lo que llevaría a una “vigilancia policial predictiva”. El gobierno u otras fuerzas malignas comenzarán a tomar medidas preventivas para eliminar las amenazas percibidas. A menudo, es posible que las víctimas ni siquiera fueran conscientes de cómo fueron atacadas.
Los gobiernos y los actores privados podrían utilizar la IA para atrapar a los “indeseables”. La IA facilitaría tender una trampa a los disidentes políticos y otros, preparándolos para extorsionarlos, castigarlos o algo peor. Las amenazas contra la libertad de asociación y reunión se intensificarían.
De particular preocupación para los defensores de los derechos humanos es el potencial de la IA para intensificar y ampliar la vigilancia, especialmente a través del reconocimiento facial. La IA podría usarse tanto contra individuos como contra grupos. Como mínimo, cuando se emplea para vigilancia, es probable que tenga un efecto paralizador masivo. De esta manera, la IA deprimiría tanto la protesta política legítima como la vida social normal. También podría apuntar a comunidades o regiones enteras como parte de una campaña de persecución política, racial o étnica.
Es probable que la IA facilite la elaboración de información errónea para engañar y desanimar a los votantes. El objetivo podría ser cambiar los votos, degradar el debate cívico, crear desconfianza social y/o desalentar la participación política. Los bots y los medios sintéticos, especialmente los deep fakes, ya socavan la democracia estadounidense. Es seguro que la IA exacerbará esta amenaza.
El rápido ascenso de una sociedad en línea ha dañado la privacidad de las personas. Es probable que la IA acelere este proceso, especialmente mediante un seguimiento constante, lo que fortalecería las herramientas existentes y probablemente proporcionaría nuevos medios para recopilar, difundir y emplear datos. De esta manera, la IA podría empoderar a los gobiernos e incluso a actores privados, tanto nacionales como extranjeros, para explotar los problemas y vulnerabilidades personales de las personas.
Los actores malignos también podrían utilizar la IA para ampliar e intensificar la censura. Podrían evaluar quién podría amenazar al régimen y qué cuestiones podrían inflamar la oposición. Este proceso desalentaría la oposición legítima y etiquetaría a personas que de otro modo serían inocentes como probables disidentes y a los temas inocentes como comentarios sediciosos.
Los gobiernos podrían utilizar la IA para unir muchas de las acciones anteriores en un sistema integral de “crédito social” que regulara incluso las decisiones más personales y entregara beneficios y exigiera castigos en respuesta. El peligro que plantean regímenes autoritarios como el PCC es obvio. Pero incluso los gobiernos occidentales intrusivos también podrían encontrar atractivo ese sistema.
En términos más generales, entregar las decisiones a las máquinas deshumanizaría la vida pública y cívica. La creencia, aunque sea más exagerada que real, de que el discurso público y privado está dirigido por otros, especialmente por computadoras, programas y algoritmos, podría generar un cinismo generalizado, desalentar la participación pública e incluso debilitar la vida social apolítica. En última instancia, este proceso podría socavar la responsabilidad individual y la rendición de cuentas, con un impacto destructivo en las relaciones de las personas entre sí.
Realmente vivimos en tiempos peligrosos. Hay peligro, sin duda. Sin embargo, nuestros mayores problemas acechan en casa, a veces en lugares improbables y confusos, como la IA. Desafortunadamente, no existe una solución sencilla.
Como primer paso, debemos reconocer los peligros, que son reales y graves. La preocupación por los derechos humanos no debe perderse en una moderna “fiebre del oro” alimentada por la codicia irresponsable de los inversores o la sed de control social por parte del Estado y otros actores institucionales poderosos. La defensa de los derechos humanos requerirá un esfuerzo internacional, pero debemos empezar por casa.
El próximo paso requerirá que superemos nuestros desacuerdos por el bien común. Quienes valoran la libertad pueden y deben unirse en torno a la necesidad de proteger los derechos humanos de una letanía de nuevos peligros en la era de la IA. ¿Quién más defenderá nuestra sociedad libre o los principios democráticos sobre los que se basa?