En su primer viaje a Europa como vicepresidente, JD Vance no perdió tiempo en establecerse como una fuerza a tener en cuenta en los asuntos globales, primero en una Cumbre de Acción de IA en París y luego en la Conferencia de Seguridad de Munich. Aunque la controversia sobre las políticas de Europa sobre la migración y la libertad de expresión puede haber llegado a los titulares más grandes, la conferencia de IA puede resultar más significativa a largo plazo. En el discurso ante los líderes y ejecutivos de tecnología globales, Vance hizo una apuesta audaz para asegurar el liderazgo estadounidense en la carrera armamentista global de IA contra China, y reprendió a los líderes de la UE por su regulación dura de las empresas tecnológicas estadounidenses.
A primera vista, el discurso de Vance persiguió precisamente los dos extremos, uno podría esperar que cualquier estadista de “América primero” avance en el extranjero. Primero, insistió en “esta administración asegurará que la tecnología de IA estadounidense continúe siendo el estándar de oro en todo el mundo”. Traducción: Deepseek de China podría ser impresionante, pero Europa sería muy imprudente para incursionar en las asociaciones tecnológicas con China, lo que apenas tiene sus mejores intereses en el corazón. En segundo lugar, Vance argumentó que “la regulación excesiva del sector de la IA podría matar una industria transformadora tal como está despegando”, y pidió a la UE que afloje las restricciones de seguridad y privacidad que estaban encadenando a las empresas estadounidenses y favoreciendo intereses atrincherados.
Sin embargo, debajo de estos temas familiares de dominio estadounidense y la libertad de la interferencia gubernamental acechaban una visión más matizada de la regulación tecnológica de lo que muchos comentaristas reconocieron, pero también algunas tensiones profundas.
Vance no pidió tanto la desregulación de la manta como proponer una distinción entre mala regulación y bien. Hasta la fecha, se quejó, la mayoría de la regulación de la IA había sido impulsada por un ismo de seguridad que codificaba a los consumidores y una agenda de control de información de DEI que equivalía a propaganda (como en las imágenes generadas por IA de un George Washington negro). Pero mientras pedía un retorno de tales reglas a favor de la “libertad de expresión”, Vance fue igualmente inflexible al pedir un régimen de gobierno de IA que fomentó los fines positivos, específicamente los intereses de los trabajadores.
“Siempre centraremos a los trabajadores estadounidenses en nuestra política de IA”, declaró. “Nos negamos a ver la IA como una tecnología puramente disruptiva que inevitablemente automatizará nuestra fuerza laboral. Creemos y lucharemos por las políticas que aseguran que la IA haga que nuestros trabajadores sean más productivos ”.
Dichas políticas, por supuesto, requerirán formas de regulación: cerrar ciertos usos de la IA que simplemente destruirían los empleos y canalizar la innovación hacia otros usos que aprovechen las habilidades humanas y dignificarían el trabajo humano. Y, presumiblemente, requerirán una inversión gubernamental agresiva y estratégica, en lugar de dejar la innovación exclusivamente para el sector privado. Pero esta es una agenda de la regulación de la IA que trata a los adultos como adultos, como productores que necesitan estar facultados con las mejores herramientas, no los consumidores que necesitan estar protegidos de malas ideas.
Sin embargo, implícito en tal agenda es la necesidad de hacer una discriminación cuidadosa entre lo que es apropiado para los adultos y lo que es apropiado para los niños. Las regulaciones de IA que evitarían que los modelos de idiomas grandes devuelvan los resultados “racialmente insensibles” son una cosa. Las regulaciones que protegerían a los niños de la pornografía de Deepfake son otra muy distinta. Vance lo observó mucho de pasada, pero hay que decir mucho más. No es “seguridad” para resaltar los peligros reales de quizás la tecnología más poderosa de la historia.
Del mismo modo, si vamos a usar AI para mejorar en lugar de reemplazar la habilidad humana, tendremos que asegurarnos de que se implementa de manera apropiada para la edad: un programador maestro de 30 años que usa ChatGPT para ayudar a escribir código no es lo mismo que un niño de 12 años que lo usa para hacer su tarea por él. Sin embargo, Vance habló suavemente de la necesidad de que las escuelas “enseñen a los estudiantes cómo administrar, cómo supervisar y cómo interactuar con las herramientas habilitadas para AI”.
Más fundamentalmente, una ambigüedad profunda acecha bajo la superficie de la apuesta de Vance para preservar el dominio de la IA estadounidense: ¿es un imperativo de seguridad nacional o un imperativo del mercado? Por un lado, las semejanzas con la carrera armamentista nuclear no son difíciles de detectar. Al igual que la energía nuclear, la IA es uno de los mayores avances tecnológicos de la historia, uno con un profundo potencial destructivo productivo y profundo. Como en la década de 1940 y 1950, Estados Unidos está a la vanguardia del avance, pero un rival geopolítico autoritario está muy cerca; Una vez más, Europa es un campo de batalla entre los dos. Por lo tanto, en ambos casos, demasiadas manos sobre la seguridad podría tener graves consecuencias: es mejor poner un producto peligroso en manos estadounidenses que dejar que la industria sea dominada por nuestros enemigos.
Sin embargo, a diferencia de la energía nuclear, la IA se puede implementar en casi cualquier lugar. Por lo tanto, mientras el gobierno de los Estados Unidos mantuvo un control bastante apretado no solo en las armas nucleares, sino incluso en la energía nuclear del sector privado, la IA se está desplegando en nuestras economías en una competencia vertiginosa por las ganancias inesperadas. Una verdadera primera agenda de América para la IA requeriría una subordinación de los imperativos del mercado a los intereses nacionales, pero con grandes ejecutivos de tecnología que se alinean fuera de la Oficina Oval, ¿es algo para lo que la nueva administración está lista?