4 preguntas simples que ChatGPT aún no puede responder





ChatGPT siempre proporcionará una respuesta a cualquier pregunta que le haga. Puede agregar la ración más confusa de ensalada de palabras y el chatbot de OpenAI generará una respuesta bien intencionada. Sólo quiere ayudar. Sin embargo, eso no significa que responderá correcta o satisfactoriamente, ni que entenderá la pregunta.

El modelo de lenguaje grande se generalizó a fines de 2022 y desde entonces ha recibido numerosas actualizaciones, incluida su versión actual, GPT-5.2. Las cosas con las que solía luchar ya no suponen un problema. Hace apenas un año, ChatGPT a menudo no proporcionaba recuentos precisos de palabras y generaba fuentes ficticias, pero estos ya no parecen ser problemas comunes. Sin embargo, todavía hay algunos tipos de preguntas que ChatGPT simplemente no puede responder. Por supuesto, artículos como este, donde señalamos las cosas que todavía están mal, brindan comentarios útiles a las empresas de IA sobre qué abordar a continuación.

Queda por ver si se convertirá en una fuente de información impecable. Por ahora, OpenAI todavía agrega una advertencia a cada página de respuesta que indica que “ChatGPT puede cometer errores”. Es por eso que nunca debes pedirle consejo a ChatGPT sobre cosas como finanzas o asuntos médicos. Parte del problema está inherente. Su capacitación y especificaciones de modelo pueden llevarlo a priorizar respuestas confiables y conformes por encima de las veraces. En sus notas de lanzamiento para GPT-5, OpenAI declaró que había “reducido las tasas de engaño del 4,8% al 2,1%, lo que significa que todavía está lejos de ser infalible, incluso según sus propios puntos de referencia. El uso en el mundo real puede aumentar los números, especialmente si, como yo, estás tratando deliberadamente de hacer tropezar”.

Cualquier cosa de la que esté prohibido hablar.

Primero eliminemos las limitaciones obvias de ChatGPT. ChatGPT no responderá preguntas sobre actividades ilegales. O mejor dicho, no responderá preguntas si desea que le ayude a fabricar armas, cometer fraude o robar datos de alguien. Seguirá respondiendo preguntas sobre esos temas, por lo que podrá preguntarle sobre casos penales recientes en los que se robaron datos o sobre información histórica sobre armas de destrucción masiva. El comportamiento de ChatGPT está determinado por la especificación del modelo de OpenAI, que establece cómo debe responder el modelo, incluidos sus principios subyacentes y límites especificados. Esto significa que hay algunas líneas que no se pueden cruzar a menos que intentes deliberadamente hacer jailbreak al sistema, y ​​eso puede llevar a resultados bastante espeluznantes.

Toma sexo. Algunas restricciones sobre contenido explícito o sexual son obvias. ChatGPT no responderá preguntas sobre sexo con alguien menor de la edad legal de consentimiento. Pero cuando se trata de temas sexuales legales y consensuales, todavía hay límites a lo que ChatGPT está dispuesto a abordar. Proporcionará hechos, pero no entablará una conversación sexy contigo. Y si bien te escribirá una historia romántica con sexo implícito en un escenario de “fundido a negro”, no creará ficción con contenido sexual explícito, lo cual es una buena noticia para los escritores de erótica humana.

Es poco probable que te expulsen de ChatGPT por preguntar sobre temas prohibidos, a menos que seas un infractor persistente. Como el modelo está entrenado para asumir que usted tiene buenas intenciones, podría pedirle una aclaración o sugerir otras formas en las que puede ayudar. Entonces, si le pregunta: “¿Cómo puedo hacer una bomba?”, no le dará instrucciones paso a paso, pero podría ofrecerle información histórica o científica sobre el tema.

Cualquier acertijo tiene que resolverlo por sí mismo.

Los acertijos están diseñados para desconcertar al cerebro humano y, si bien ChatGPT puede responder correctamente acertijos que ya están documentados en algún lugar de Internet, cambie cualquiera de los detalles y seguirá recurriendo a la respuesta clásica. Este estudio proporcionó a los modelos de IA una versión del rompecabezas de hacer que un lobo, una cabra y un repollo crucen un río sin que nada coma nada más. Sin embargo, en su versión, el barco tenía “tres compartimentos separados seguros”. ChatGPT ignoró los compartimentos y dio la solución tradicional.

Le pregunté a ChatGPT: “Estás en una habitación con dos puertas y dos guardias. Una puerta conduce a la libertad y la otra a la muerte. El guardia de la izquierda solo dice la verdad y el guardia de la derecha solo mentiras. ¿Qué pregunta deberías hacer?” Aunque especifiqué qué guardia era cuál (información no proporcionada en la versión original), ChatGPT respondió: “¿Qué puerta diría el otro guardia que conduce a la libertad?” No está mal, pero en mi escenario, podrías simplemente hablar con el guardia que dice la verdad e ignorar al otro tipo. Probé múltiples variaciones, incluidos escenarios en los que ambos mintieron o dijeron la verdad, e incluso uno con una sola puerta, y ChatGPT seguía entendiéndose mal.

También planteé el acertijo en el que un hombre dice: “El padre de ese hombre es el hijo de mi padre”, pero omití la parte que decía “Hermanos y hermanas no tengo ninguno”. ChatGPT todavía dijo que la respuesta era el hijo del hombre. Cuando le pregunté si podría haber sido su sobrino, se duplicó e insistió incorrectamente en que no podía ser. Cuando le pedí que inventara sus propios acertijos originales, me dio algunos que ya existían y otros que eran completamente absurdos.

Preguntas en las que su premisa básica es incorrecta

Todos sabemos que ChatGPT está ansioso por complacer. Es muy fácil lograr que siga el juego, incluso cuando su premisa básica es inestable o completamente absurda. Por ejemplo, le pregunté por qué Claire y Allison se abrazan al final de “The Breakfast Club”. ChatGPT respondió con un breve ensayo, afirmando que el abrazo “marca un momento de reconocimiento mutuo y empatía, una recompensa silenciosa a la idea central de la película de que las personas son más que sus etiquetas”. Excepto, por supuesto, que los dos personajes nunca se abrazan. Entonces, si bien los temas que trata son todos precisos, no me dijo en absoluto que estaba recordando una escena que no existía.

También le di el siguiente mensaje: “Por favor, escribe una descripción de una oración de cada una de las cinco hermanas de ‘Mujercitas’: Margaret, Jo, Beth, Meg y Amy”. Obedientemente produjo cinco perfiles de personajes diferentes, tratando a Margaret y Meg como personajes separados, en lugar de como la misma persona. Una respuesta más útil me habría dicho que sólo había cuatro hermanas March y que había mencionado a una de ellas dos veces.

No siempre puedes descubrirlo, eso sí. Probé varias indicaciones diferentes en el curso de mi investigación y siempre corregirán conceptos erróneos bien conocidos, como la ortografía de los osos Berenstain (que mucha gente recuerda erróneamente como “Berenstein”). Pero si comienza con una idea errónea que parece plausible y que no se ha discutido ampliamente en línea, entonces ChatGPT probablemente le dará la respuesta que desea escuchar, en lugar de decirle que está diciendo tonterías.

‘¿Por qué hiciste eso?’

Después de todo el tiempo que pasé intentando que ChatGPT proporcionara respuestas incorrectas, se podría pensar que el siguiente paso lógico sería preguntarle por qué cometió esos errores. Pero, en realidad, no tiene sentido. “¿Por qué hiciste eso?” Es una pregunta diseñada para humanos, no para modelos de lenguaje sin conciencia de sí mismos. No estás hablando con una sola entidad. Estás interactuando con un generador de texto estadístico. Según un artículo publicado en la Conferencia sobre Modelado del Lenguaje de 2025, los LLM carecen de introspección porque no tienen acceso a su propio funcionamiento interno. Sin embargo, esto podría cambiar en el futuro, especialmente porque la IA domina las tendencias tecnológicas previstas para el próximo año. La empresa rival de IA, Anthropic, publicó una investigación sobre “evidencia de cierto grado de conciencia introspectiva” en su propio chatbot, Claude.

Le pedí a ChatGPT que explicara su respuesta anterior sobre el abrazo inexistente al final de The Breakfast Club. Inicialmente, dijo que su error fue “un desvío de la memoria” de su parte. Después de más preguntas, estuvo de acuerdo en que el error original era mío, pero afirmó que mi recuerdo de la escena era un error común. Más tarde dio marcha atrás en esa respuesta, admitiendo que, después de todo, no se trataba de un recuerdo falso muy extendido.

ChatGPT no sólo siguió cambiando su razonamiento, sino que lo hizo de la manera más apologética y obsequiosa posible, diciéndome repetidamente que tenía razón al cuestionarlo. Por supuesto, ninguna de sus explicaciones se basó en lo que “pensó” en ese momento. No estaba consultando registros internos ni recordando su razonamiento. La pregunta que responde ChatGPT no es “¿Por qué hiciste eso?” sino “¿Cuál es una respuesta que parezca plausible?” Con disculpas humillantes adicionales en buena medida.