¿Por favor? La mejor manera de hablar con una IA

Desde ser educado hasta fingir que estás en Star Trek, los consejos que recibes sobre hablar con chatbots pueden ser realmente extraños y totalmente inútiles. Aquí te contamos lo que realmente funciona.

Cuando un grupo de investigadores decidió probar si el «pensamiento positivo» hacía que los chatbots de IA fueran más precisos, obtuvieron resultados sorprendentes. Al formular preguntas a varios chatbots, intentaron llamar a las IA «inteligentes», las animaron a pensar con cuidado e incluso terminaron sus preguntas con «¡Esto será divertido!». Ninguna de estas preguntas tuvo un impacto consistente, pero una técnica destacó . Cuando hicieron que una inteligencia artificial simulara estar en Star Trek, mejoró en matemáticas básicas. «Transpórtame», supongo.

Las personas utilizan todo tipo de estrategias inusuales para obtener mejores respuestas de los grandes modelos de lenguaje (LLM), la tecnología de IA que sustenta herramientas como ChatGPT. Algunos juran que la IA funciona mejor si se la amenaza , otros creen que los chatbots son más cooperativos si se es educado , y hay quienes les piden a los robots que actúen como expertos en el tema en el que estén trabajando. La lista continúa. Forma parte de la mitología en torno a la «ingeniería de indicaciones» o la «ingeniería de contexto»: diferentes maneras de construir instrucciones para que la IA ofrezca mejores resultados. La cuestión es la siguiente: los expertos me dicen que gran parte de la sabiduría popular sobre la indicación de la IA simplemente no funciona. En algunos casos, incluso podría ser peligroso. Pero la forma en que se le habla a una IA sí importa, y algunas técnicas realmente marcan la diferencia.

«Mucha gente cree que existe un conjunto mágico de palabras que permiten a los LLM resolver un problema», afirma Jules White, profesor de informática que estudia IA generativa en la Universidad de Vanderbilt (EE. UU.). «Pero no se trata de la elección de palabras, sino de cómo se expresa fundamentalmente lo que se intenta hacer».

¿Cuida tus modales?

En 2025, un usuario de X (anteriormente Twitter) publicó un tuit preguntando: «Me pregunto cuánto dinero ha perdido OpenAI en electricidad por las llamadas de «por favor» y «gracias» a sus modelos». Sam Altman, director ejecutivo de OpenAI, fabricante de ChatGPT, respondió: «Decenas de millones de dólares bien gastados», dijo. «Nunca se sabe».

La mayoría de la gente interpreta la última línea como una referencia descarada a la idea de un posible apocalipsis de la IA, aunque es difícil saber con qué seriedad tomar esa cifra de «decenas de millones de dólares» . Pero la cortesía también es una cuestión práctica.

Serenity Strull/ BBC Algunos estudios sugieren que ser amable con la IA genera mejores respuestas; otros encuentran lo contrario (Crédito: Serenity Strull/ BBC)Serenity Strull/ BBC
Algunos estudios sugieren que ser amable con la IA genera mejores respuestas; otros encuentran lo contrario (Crédito: Serenity Strull/ BBC)

Los LLM funcionan fragmentando tus palabras en pequeños fragmentos llamados «tokens», antes de analizarlos mediante estadísticas para generar una respuesta adecuada. Esto significa que cada palabra que dices, desde la elección de palabras hasta una coma de más, afectará la respuesta de la IA. El problema es que es extremadamente difícil de predecir. Se han realizado numerosas investigaciones que buscan patrones en pequeños cambios en las indicaciones de la IA, pero gran parte de la evidencia es contradictoria y no concluyente.

Por ejemplo, un estudio de 2024 reveló que los LLM daban respuestas mejores y más precisas cuando preguntaban con cortesía en lugar de simplemente dar órdenes. Aún más extraño, existían diferencias culturales. En comparación con el chino y el inglés, los chatbots que hablaban japonés obtuvieron un rendimiento ligeramente inferior si se les excedía un poco la cortesía.

Pero no te apresures a comprarle una tarjeta de agradecimiento a tu IA. Otra pequeña prueba reveló que una versión anterior de ChatGPT era más precisa al insultarla. Y, en general, no se han realizado suficientes investigaciones sobre este tema para llegar a conclusiones sólidas. Además, las empresas de IA actualizan constantemente sus chatbots, lo que significa que la investigación queda obsoleta al instante. 

Los expertos dicen que los modelos de IA han mejorado drásticamente en tan solo unos años, lo que ha hecho que técnicas como adular, ser educado, insultar o amenazar sean una pérdida de tiempo si el objetivo es que la IA sea más precisa.

Mantenerse al tanto

Thomas Germain es periodista senior de tecnología en la BBC. Escribe la columna »  Keeping Tabs»  y copresenta el podcast  «The Interface» . Su trabajo desvela los sistemas ocultos que rigen tu vida digital y cómo vivir mejor en ellos.

«En aquel entonces, era pura suerte», afirma Rick Battle, ingeniero de aprendizaje automático aplicado en Broadcom y coautor del estudio de Star Trek. Aunque dicho estudio se realizó en 2024, las cosas ya han cambiado. Hoy, Battle y otros afirman que los modelos de IA más recientes que se encuentran en cualquier producto convencional, como ChatGPT, Gemini o Claude, son mejores a la hora de captar las partes más importantes de la instrucción. Probablemente no se dejarán influir por estos pequeños cambios en el lenguaje, al menos no de una forma consistente que se pueda aprovechar. 

La conclusión es inquietante a su manera. Las empresas diseñan IA como ChatGPT o Gemini de Google para que se comporten como personas, así que es lógico que a veces parezcan tener estados de ánimo o personalidades que se pueden controlar. No se dejen engañar. Las herramientas de IA son imitadores, no seres vivos. Simplemente simulan el comportamiento humano. Si quieren mejores respuestas, dejen de tratar a la IA como a una persona y empiecen a tratarla como una herramienta. 

Cómo hablar con tu chatbot

La IA presenta algunos problemas muy reales, desde preocupaciones éticas hasta su posible impacto ambiental . Algunas personas se niegan a involucrarse con ella por completo . Pero si va a utilizar un LLM, aprender a obtener lo que desea con mayor rapidez y eficiencia le resultará beneficioso, y probablemente también reducirá la energía que consume en el proceso. Estos consejos le ayudarán a empezar. 

«Supongamos que quieres generar una descripción de puesto. Dile a la IA: ‘Quiero que me hagas preguntas, una a una, hasta que hayas recopilado suficiente información para escribir una oferta de trabajo convincente'», dice White. «Al hacerlo pregunta por pregunta, puede adaptarse a tus respuestas».

Tenga cuidado con los juegos de rol

«Se creía que si se le decía a la IA que era un profesor de matemáticas, por ejemplo, tendría mayor precisión al responder preguntas de matemáticas», afirma Sander Schulhoff, emprendedor e investigador que ayudó a popularizar la idea de la ingeniería rápida. Sin embargo, cuando se busca información o se formulan preguntas con una sola respuesta correcta, Schulhoff y otros afirman que los juegos de rol pueden reducir la precisión de los modelos de IA . 

«Eso puede ser realmente peligroso», dice Battle. «En realidad, estás fomentando la alucinación porque le estás diciendo que es un experto y que debería confiar en su conocimiento paramétrico interno». En esencia, puede hacer que la IA actúe con demasiada confianza.

Pero para tareas muy abiertas sin una única respuesta, el juego de roles es eficaz (piensa en consejos, lluvia de ideas y resolución creativa o exploratoria de problemas). Si te ponen nervioso las entrevistas de trabajo, pedirle a un chatbot que imite a un gerente de contratación podría ser una buena práctica; consulta también otros recursos.

Mantente neutral

«No le des pistas al testigo», dice Battle. Si estás intentando decidir entre dos coches, no digas que te inclinas por el Toyota. «Si no, esa es la respuesta que probablemente recibirás».

Por favores y gracias 

Según una encuesta del Pew Research Center de 2019 , más de la mitad de los estadounidenses dicen «por favor» al hablar con sus altavoces inteligentes. Parece que esta tendencia continúa. Una encuesta de 2025 de la editorial Future reveló que el 70 % de las personas son educadas con la IA cuando la usan. La mayoría afirmó que son amables porque es lo correcto, aunque el 12 % afirmó que lo hacen para protegerse en caso de rebeliones robóticas.

La cortesía quizá no te proteja de los robots enojados ni haga que los LLM sean más precisos, pero hay otras razones para seguir practicándola.

Más como esto:

•  Hackeé ChatGPT y Google en 20 minutos

¿  No estás en TikTok? Te siguen rastreando de todas formas.

•  Las palabras que no puedes decir en Internet

«Para mí, lo más importante es que decir ‘por favor’ y ‘gracias’ te haga sentir más cómodo al interactuar con la IA», dice Schulhoff. «No mejora el rendimiento del modelo, pero si te ayuda a usarlo más porque te sientes más cómodo, entonces es útil».

También hay que considerar la ternura de nuestra propia naturaleza humana. El filósofo Immanuel Kant argumentó que una razón por la que no deberíamos ser crueles con los animales es que también nos perjudica a nosotros mismos. En esencia, ser hostil con cualquier cosa nos hace más crueles. No podemos herir los sentimientos de una IA porque no los tiene, pero quizá deberíamos ser amables de todos modos. Es un hábito que podría beneficiar otros aspectos de nuestra vida. 

Para recibir más noticias e información sobre tecnología, suscríbase a nuestro boletín Tech Decoded mientras que The Essential List le envía una selección cuidadosamente seleccionada de funciones e información a su bandeja de entrada dos veces por semana.