¿Es menos probable que las personas que saben más sobre IA confíen en ella? Recientemente, el periódico The Guardian publicó una historia sobre trabajadores de IA que advierten a otros que se mantengan alejados de la IA. Los entrevistados eran personas que habían trabajado para entrenar IA. Expresaron su preocupación por los sesgos no controlados, la necesidad de evaluar respuestas a asuntos médicos para los que no estaban calificados para abordar, las instrucciones poco claras, la falta de capacitación y los plazos excesivamente cortos. Muchos de ellos ahora advierten a sus amigos y familiares sobre los peligros de la IA y han prohibido a sus hijos usarla.
Las acusaciones de desinformación o parcialidad en la IA no son nuevas. El artículo de The Guardian, sin embargo, es interesante porque refleja las opiniones de personas a las que normalmente nadie piensa preguntar: evaluadores de IA con experiencia de primera mano en las horas de trabajo humano mal remunerado detrás de cada lanzamiento de IA. Cuando expertos de alto perfil en IA hablan sobre los riesgos de la IA, es más probable que la gente escuche. El grupo de campaña Pause AI tiene una lista de Probabilidad de perdición de la IA, basada en lo que diferentes personas dicen que es la probabilidad de un “resultado muy malo” de la IA. La lista incluye expertos en inteligencia artificial que han escrito libros y artículos académicos sobre los peligros de la inteligencia artificial.
Incluso los grandes intermediarios de la IA, con un gran interés en que las personas financien y se suscriban a la IA, instan a tener precaución a la hora de confiar ciegamente en la IA. En el podcast de OpenAI de junio de 2025, el director ejecutivo Sam Altman dijo: “La gente tiene un grado muy alto de confianza en ChatGPT, lo cual es interesante porque la IA alucina. Debería ser la tecnología en la que no confías tanto”. Sin embargo, a diferencia de los entrevistados de The Guardian, Altman no desalienta por completo a las personas a usar ChatGPT.
¿Qué hacen los evaluadores de IA?
Al igual que los trabajadores de IA entrevistados por The Guardian, he cumplido mi condena en las trincheras de los trabajos de calificación de IA. Me imagino que muchos escritores independientes han hecho lo mismo durante sus períodos de tranquilidad. Esto fue para empresas de terceros que todavía están reclutando activamente, por lo que todavía hay una gran demanda de trabajadores. En mi caso, nunca supe qué producto de IA de la empresa estaba ayudando a dar forma.
Se le asignan tareas como evaluar las respuestas de la IA en comparación con puntos de referencia o redactar indicaciones de IA que prueban cosas como la capacidad de un LLM para realizar solicitudes de varias etapas o manejar instrucciones poco claras. Algunas tareas implicaron intentar deliberadamente que el LLM violara sus propias reglas sobre contenido ofensivo. Muchos de los entrevistados de The Guardian dijeron que el tiempo asignado para completar las tareas era demasiado corto para permitir un resultado considerado y completo, lo cual también fue mi experiencia. Como lo expresó un trabajador de IA: “Se espera que ayudemos a mejorar el modelo, pero a menudo recibimos instrucciones vagas o incompletas, una capacitación mínima y límites de tiempo poco realistas para completar las tareas”.
¿La experiencia de ser parte de un sistema que priorizaba tiempos de respuesta rápidos por encima de todo me hizo desconfiar de la IA? Como escritor humano que escribe sobre IA, mi relación con ella es complicada. Me encanta la tecnología, pero odio la cantidad de IA de baja calidad que produce. Tengo un saludable escepticismo sobre la calidad del contenido que produce, pero no le diría a la gente que no lo use. Y si bien todas las preocupaciones expresadas por los entrevistados en el artículo son válidas, vale la pena recordar que los evaluadores humanos de IA son sólo una parte del proceso cuando se trata de probar y ajustar los modelos de IA.
¿Cómo se entrenan los modelos de IA?
Hay dos etapas principales al entrenar un modelo de lenguaje grande GPT. Se trata de modelado y ajuste del lenguaje. Durante la etapa de modelado del lenguaje, la IA se entrena con enormes cantidades de datos, incluidas páginas web, libros y otros datos basados en texto. Utiliza estos datos para aprender los patrones generales del lenguaje. Es durante la etapa de ajuste cuando participan los evaluadores humanos. Las personas revisan y clasifican las respuestas del modelo, en un proceso que tiene como objetivo hacerlo más seguro y útil, y garantizar que responda de una manera que los humanos comprendan y puedan identificarse. Empresas como OpenAI emplean ingenieros de investigación de alto nivel para llevar a cabo los desafíos más especializados, mientras que gran parte del trabajo de evaluación de rutina se subcontrata a terceros y es asumido por trabajadores de todo el mundo.
Gran parte de las pruebas están en curso y continúan después del lanzamiento de cada versión del modelo. Por ejemplo, “equipo rojo” es una frase que se utiliza para los trabajadores que deliberadamente prueban el modelo en busca de errores, sesgos o comportamientos inseguros. Están tratando efectivamente de romperlo, y los problemas que descubren se utilizan para mejorar el entrenamiento posterior. Las empresas de inteligencia artificial también alientan a las personas a informar errores y dar retroalimentación sobre la calidad de las respuestas.
A pesar de todos estos procesos, la IA todavía comete errores. Y a veces estos errores son francamente peligrosos. The Guardian investigó recientemente los consejos médicos proporcionados por Google AI Overviews y encontró ejemplos en los que la descripción general respondía incorrectamente preguntas sobre los resultados de las pruebas de función hepática, lo que significaba que las personas con problemas de salud graves podían creer que estaban bien. Como resultado del informe de los periódicos, Google actualizó la IA y eliminó la descripción general para preguntas sobre pruebas de función hepática.