¿No eres tan inteligente después de todo?

En un principio, Internet se presentó como “la autopista de la información”, pero resultó ser más parecida a la autopista de Los Ángeles que aparece al principio de la película. La La Land: un bloqueo hasta donde alcanza la vista, aunque al menos con muchos buenos videos musicales para pasar el tiempo. A medida que se acumula más y más información, cada vez nos desesperamos más de poder clasificarla o separar los hechos de la ficción. Como sucede tan a menudo, hemos esperado resolver nuestros problemas tecnológicos con más tecnología; en este caso, robots de inteligencia artificial que son tan inteligentes que pueden responder cualquier pregunta, resolver cualquier problema, investigar cualquier artículo por usted. Pero ¿y si no son tan inteligentes después de todo?

Hasta ahora, si bien la IA ha demostrado ser desconcertantemente buena en tareas creativas (incluidas algunas que creíamos que eran exclusivamente humanas), ha tendido a decepcionar en lo que podríamos haber considerado la tarea más básica de decir la verdad. Tanto los investigadores como los usuarios ocasionales han descubierto que las principales plataformas de IA como SearchGPT o Perplexity arrojan regularmente datos completamente inventados con serena confianza. Se ha descubierto que los abogados que se basan precipitadamente en esos modelos para sus investigaciones citan casos que nunca ocurrieron. Parece que la IA puede ser incluso más humana de lo que quisiéramos que fuera, tan propensa como nosotros a embellecer historias, imaginar recuerdos e inventar pruebas para corroborar sus afirmaciones.

Aunque a primera vista parezca chocante, la recurrencia de las “alucinaciones” de la IA (como las llaman los programadores) tiene sentido como una característica casi inevitable de las tecnologías y una imagen inquietante de nuestros propios procesos de pensamiento. Frente a grandes cantidades de información, la IA hace lo mismo que nosotros, solo que mucho más rápido: intenta formar una imagen coherente, relacionando la información nueva con la información existente y, cuando encuentra una brecha de conocimiento, adivina o predice algo que pueda llenarla de manera plausible.

Los filósofos llevan mucho tiempo debatiendo entre un modelo de verdad denominado de “correspondencia” y un modelo de “coherencia”. El primero refleja la convicción de sentido común de que el propósito del conocimiento es apropiarse del mundo real, de que algo es “verdadero” en la medida en que corresponde a la realidad. Sin embargo, según los coherentistas, dado que no tenemos un acceso inmediato e imparcial a la realidad, lo máximo que podemos aspirar es a una coherente Mapa mental, uno en el que nuestras diversas creencias encajan y no se contradicen. Si bien esta evaluación es demasiado pesimista, refleja con precisión la forma en que a menudo operamos, y para la IA, es totalmente acertada. Tenemos algún tipo de acceso a la realidad, pero nuestros robots no. Si nuestro feed X nos dice que hay una tormenta afuera, siempre podemos, en caso de apuro, verificar los hechos saliendo por la puerta principal. ChatGPT no puede. No puede decirnos qué es cierto, solo que siente verdadero.

Parece que la IA puede ser más humana de lo que quisiéramos: tan propensa como nosotros a embellecer historias, imaginar recuerdos e inventar pruebas para corroborar sus afirmaciones.

En sí, esto no tiene por qué ser demasiado preocupante. Después de todo, es la limitación con la que nos topamos todos los días cuando hablamos con la gente corriente. Sabemos que no son infalibles, que a veces recuerdan mal las cosas, que tienden a tener sesgos de confirmación y que probablemente intentan presentarse como personas con más conocimientos de los que realmente tienen. Si los robots de inteligencia artificial reflejan estas debilidades humanas, no nos llevarán más lejos de lo que ya estamos. De hecho, incluso podrían resultar útiles, recordándonos lo generalizada que es nuestra propia tendencia a intentar que los hechos encajen en nuestras narrativas.

El problema, sin embargo, es que los chatbots pueden sonido Mucho más fidedignos. De hecho, ya nos hemos encontrado con este problema en Internet en general. Por mucho que sepamos que las falsedades circulan en línea con facilidad, nos vemos fácilmente engañados por los “hechos” que encontramos en la red, y los citamos con confianza para probar nuestro punto de vista. Precisamente por la impersonalidad del medio, parecen mucho más objetivos y confiables que el mero testimonio personal.