“No soy yo, sos vos”, dijo ChatGPT

Con la llegada de los agentes conversacionales multimodales y multipropósitos como ChatGPT, Gemini, Claude, DeepSeek, etc., la gente creyó haber encontrado todas las respuestas a sus problemas. Entendieron -o les hicieron creer- que basta con escribir una pregunta para obtener, en segundos, una buena respuesta, amigable y convincente.
Recibí las noticias en tu email
Accedé a las últimas noticias desde tu emailSin embargo, al poco tiempo, también llegaron las desilusiones. “Respondió cualquier cosa”, “no me entendió”, “inventó cosas”, “alucinó”. ¿El problema? Muchos piensan que la culpa es de la inteligencia artificial. Pero, como suele pasar cuando algo no funciona, no siempre es culpa del otro. A veces, el problema somos nosotros.
La llegada de estos grandes modelos de lenguaje está cambiando por completo la forma en que nos relacionamos con la tecnología. Ya no estamos frente a chatbots de atención al cliente. Tampoco es Google. Es algo completamente distinto. Son herramientas que escriben, responden, hacen imágenes, videos, argumentan e incluso simulan pensar. Y ahí es donde empezamos a tropezar: cuando hablamos con una máquina que suena cada vez más humana, pero seguimos tratándola como si fuera una más del resto.
Uno de los principales obstáculos para el uso adecuado de estas herramientas es la falta de alfabetización tecnológica. Nos falta aprender a conversar con estos modelos. No se trata solo de hacer preguntas, sino de saber cómo preguntar, cuándo hacerlo y qué esperar de sus respuestas. La interacción con estos sistemas responde a una lógica nueva, una lógica que, si no comprendemos, nos deja atrapados en el desencanto o, peor aún, en confiar ciegamente en lo que dicen.
El segundo gran problema es el desconocimiento de los límites que estas tecnologías aún tienen. Porque claramente los tienen. Aunque parezcan saberlo todo, no lo saben. Su conocimiento no es actual, ni completo, ni infalible. No tienen acceso directo a internet (salvo excepciones y según su configuración), no razonan como lo haría una persona y no comprenden lo que dicen. Generan textos coherentes, pero eso no significa que sean correctos. Si uno pregunta por algo empático o por jurisprudencia argentina, puede que el modelo improvise, acierte o invente. Y si no lo sabemos, corremos el riesgo de tomar decisiones basadas en respuestas que suenan bien, pero no son fiables.
El tercer error, justamente, es confiar ciegamente en las respuestas. No solo por su contenido, sino por su forma. Muchas veces, los textos generados incluyen frases que delatan su origen: “¿Querés que te lo explique con un ejemplo?”, “Acá tenés un resumen en viñetas”, “¿Deseás un mapa mental?”. Estas fórmulas, diseñadas para facilitar la lectura, si luego se copian y pegan como si fuesen propias, generan graves problemas. Por eso no se trata de un estilo, sino que es una cuestión de responsabilidad ¿Validamos lo que nos devuelve el modelo? ¿Lo revisamos? ¿Lo contrastamos con otras fuentes? ¿O simplemente lo usamos y lo hacemos propio?
Frente a estos desafíos, el conocimiento marca la diferencia. El prompt engineering es la habilidad necesaria para interactuar con la inteligencia artificial generativa. No es un don reservado a especialistas en programación ni mucho menos. Es una competencia nueva, que todos podemos y deberíamos desarrollar si queremos usar estas herramientas de manera adecuada, estratégica y responsable.
Esta nuevo concepto se apoya en cinco claves fundamentales:
Alfabetización tecnológica: comprender qué es y cómo funciona la inteligencia artificial generativa. No hace falta ser ingeniero, pero sí entender lo básico -cómo se entrenan estos modelos, qué pueden y qué no pueden hacer, por qué a veces “alucinan”, es decir, inventan información, y cómo podemos prevenirlo.
Elección crítica de plataforma y modelo: no todas las herramientas sirven para lo mismo. Algunos modelos son mejores para redactar textos, otros para programar, otros para traducir o resumir, etc. Saber qué usar según la tarea -y saber cuándo no usar inteligencia artificial- es parte de la estrategia.
Diseño y ejecución del prompt: saber pedir implica saber delimitar el rol, el objetivo, el estilo, el contexto, el formato de la respuesta, e incluso los datos que se le brindan (respetando, claro, la tan pisoteada normativa vigente sobre privacidad y protección de datos).
Ajuste, verificación y validación: ninguna respuesta debe usarse sin revisión. Es clave analizar si lo que el modelo generó es correcto y resulta aplicable. Contrastar con fuentes, revisar el estilo y verificar su consistencia es parte de la tarea. Y si no estamos conformes, ajustar el prompt y volver a intentar.
Responsabilidad en el uso: el uso de IA puede tener consecuencias éticas, sociales, penales, etc. ¿Qué impacto tiene delegar tareas en una máquina? ¿Qué sesgos puede reproducir? ¿Quién se hace responsable del contenido generado? La trazabilidad, la transparencia y la conciencia del alcance son esenciales para un uso prudente. Hoy en día lo que más valoran las empresas y organizaciones a nivel mundial no es solo que se sepa usar inteligencia artificial, sino que se obtengan resultados rápidos y precisos con ella. En ese contexto, saber interactuar con un modelo de lenguaje ya es una ventaja competitiva concreta. Y no se trata de conocer fórmulas de prompts, sino de tener criterio, pensar en forma deliberada y saber cómo pedir exactamente lo que se necesita.
ChatGPT, Gemini, Claude y compañía no vinieron a reemplazarnos. Vinieron a desafiarnos, a obligarnos a reflexionar sobre cómo pensamos, cómo preguntamos y cómo decidimos.
Nos exigen más, no menos. Porque si fallamos al usarlos no es por lo que son, sino porque todavía no entendimos cómo funcionan ni cómo debemos interactuar con ellos.
Los modelos de lenguaje no piensan por nosotros, pero sí nos invitan a pensar mejor. No toman decisiones, pero nos obligan a revisar las nuestras. Y ese es, quizás, su mayor valor: desafiarnos a ser más críticos, más precisos, más conscientes del uso que hacemos de la tecnología.
Al final de cuentas, no es ChatGPT, sos vos.