Durante años, en entornos de trabajo tradicionales, pedir resultados a una persona implicaba brindar un nivel relativamente bajo de instrucciones explícitas. Se asumía la existencia de un contexto compartido, construido a partir de la experiencia, la formación y la interacción previa dentro del equipo. Bajo ese esquema, quien recibía la tarea no solo ejecutaba, sino que también interpretaba, completaba vacíos y tomaba decisiones en función de su criterio profesional. Esta dinámica descansaba en una confianza implícita: la de que el conocimiento tácito sería suficiente para alcanzar un resultado adecuado sin necesidad de detallar cada aspecto del encargo.
Sin embargo, la irrupción de los sistemas de inteligencia artificial en los procesos de trabajo ha puesto en evidencia un cambio significativo en la forma en que formulamos pedidos y estructuramos instrucciones. A diferencia de lo que ocurre con las personas, cuando interactuamos con una IA tendemos a proporcionar un nivel de detalle considerablemente mayor. Explicamos el objetivo, definimos el contexto, especificamos el formato de salida, aclaramos restricciones, brindamos ejemplos y, en muchos casos, incluso anticipamos posibles errores. Este nivel de explicitación incluye aspectos que, en una interacción humana, serían considerados obvios o innecesarios de mencionar.
Lo interesante de este fenómeno no radica únicamente en la diferencia de tratamiento, sino en que, pese a esta asimetría en la comunicación, la expectativa de calidad del resultado permanece inalterada. Esperamos que tanto una persona como un sistema de inteligencia artificial produzcan resultados correctos, coherentes y útiles. No reducimos el estándar cuando interactuamos con humanos ni lo elevamos artificialmente cuando trabajamos con IA. La vara es la misma, pero el camino que recorremos para llegar a ese resultado es sustancialmente distinto.
Este contraste se vuelve particularmente evidente en el ámbito del desarrollo de software. Cuando se asigna una tarea a un integrante del equipo, rara vez se especifica el lenguaje de programación a utilizar si este ya forma parte del stack tecnológico del proyecto. Tampoco se detallan conceptos básicos asociados a frameworks, patrones de diseño o estructuras arquitectónicas, ya que se asume que forman parte del conocimiento esperado. Incluso en tareas complejas, gran parte de la carga interpretativa recae en quien ejecuta, quien debe traducir un requerimiento general en una solución técnica concreta.
En cambio, al trabajar con inteligencia artificial, el proceso suele invertirse. Se explicita el lenguaje, el framework, el enfoque arquitectónico, el estilo de implementación y el formato esperado del resultado. Se agregan ejemplos de entrada y salida, se delimitan las condiciones de borde y se aclaran posibles ambigüedades. Este nivel de detalle no surge únicamente de una limitación técnica de la IA, sino también de una adaptación de quien formula el pedido, que aprende rápidamente que la calidad del resultado está directamente relacionada con la calidad de la instrucción.
A partir de esta diferencia emerge una cuestión relevante: la forma en que reaccionamos frente a resultados insatisfactorios. Cuando una persona del equipo no cumple con las expectativas, la interpretación habitual tiende a centrarse en el desempeño individual. Se evalúa si comprendió correctamente la tarea, si posee las habilidades necesarias o si está alineada con los objetivos del equipo. En función de esa evaluación, pueden tomarse decisiones que van desde la corrección puntual hasta medidas más estructurales, como la reasignación de responsabilidades o, en casos extremos, la desvinculación.
Por el contrario, cuando un sistema de inteligencia artificial produce un resultado inadecuado, la reacción más frecuente no es descartar la herramienta, sino revisar la instrucción. Se asume que el problema puede residir en la forma en que se formuló el pedido, en la falta de contexto o en la ambigüedad de las indicaciones. En consecuencia, se ajusta el prompt, se agregan detalles, se reformula la consigna y se vuelve a intentar. Este proceso iterativo es aceptado como parte natural del trabajo con IA, sin que ello implique un cuestionamiento inmediato de la capacidad del sistema.
Esta diferencia en la tolerancia a la iteración introduce un punto de análisis relevante. En el caso de la inteligencia artificial, la iteración no solo es esperada, sino que se considera una herramienta fundamental para mejorar los resultados. En cambio, en el trabajo con personas, la iteración suele tener un margen más acotado, en parte porque se asume que la instrucción inicial debería haber sido suficiente. Esta expectativa puede generar tensiones, especialmente cuando la definición del problema no ha sido lo suficientemente precisa desde el inicio.
En este sentido, la experiencia con inteligencia artificial pone en evidencia un aspecto que históricamente ha sido subestimado en la gestión de equipos: la calidad de las instrucciones. Definir con claridad el objetivo, explicitar las restricciones, proporcionar el contexto necesario y establecer criterios de aceptación no son prácticas nuevas, pero su aplicación sistemática no siempre ha sido una prioridad. La interacción con IA, al exigir un mayor nivel de precisión, actúa como un catalizador que obliga a mejorar estas prácticas.
A su vez, este fenómeno permite cuestionar el uso de supuestos implícitos en la comunicación dentro de los equipos. La idea de que ciertas cosas “se sobreentienden” puede ser funcional en entornos con alta homogeneidad de conocimiento, pero se vuelve problemática cuando se busca escalar, incorporar nuevos integrantes o abordar problemas complejos que requieren una coordinación más precisa. En estos casos, la falta de explicitación puede derivar en interpretaciones divergentes y, en consecuencia, en resultados inconsistentes.
Otro aspecto relevante es la relación entre claridad y eficiencia. Existe una percepción extendida de que detallar en exceso una instrucción puede ser una pérdida de tiempo, especialmente cuando se trabaja con perfiles experimentados. Sin embargo, la evidencia sugiere que una mayor claridad inicial puede reducir significativamente la necesidad de correcciones posteriores, retrabajos y malentendidos. En otras palabras, el tiempo invertido en definir mejor el problema puede traducirse en una mayor eficiencia en la ejecución.
La comparación con la inteligencia artificial refuerza esta idea. Cuando se formula un prompt de manera ambigua o incompleta, el resultado suele reflejar esa ambigüedad. La mejora no proviene de exigirle más al sistema, sino de mejorar la calidad de la entrada. Este principio, que resulta evidente en el contexto de la IA, es igualmente aplicable al trabajo con personas, aunque no siempre se reconozca de forma explícita.
A partir de estas observaciones, surge una pregunta central: ¿hasta qué punto los problemas de ejecución en los equipos de trabajo son en realidad problemas de comunicación? Si la calidad del resultado depende en gran medida de la claridad de la instrucción, entonces una parte significativa de las fallas podría estar vinculada a cómo se formulan los pedidos, más que a la capacidad de quienes los ejecutan. Esta hipótesis no implica eliminar la evaluación del desempeño, pero sí equilibrarla con una revisión crítica de los procesos de comunicación.
En este contexto, la tolerancia a la iteración adquiere un nuevo significado. En lugar de interpretarse como una señal de ineficiencia, puede entenderse como una herramienta de mejora continua. Iterar no implica necesariamente que el primer intento haya sido un fracaso, sino que el problema está siendo refinado progresivamente hasta alcanzar una solución más adecuada. Este enfoque, ampliamente adoptado en el trabajo con IA, podría trasladarse con mayor énfasis al trabajo en equipo.
Finalmente, la incorporación de inteligencia artificial en los procesos productivos no solo introduce nuevas capacidades tecnológicas, sino que también expone patrones de comportamiento que antes pasaban desapercibidos. La necesidad de ser más explícitos, de definir mejor los objetivos y de aceptar la iteración como parte del proceso no es una característica exclusiva del trabajo con máquinas, sino una práctica que puede mejorar significativamente la colaboración humana.
En consecuencia, la discusión no debería centrarse únicamente en las capacidades de la inteligencia artificial, sino en cómo su uso está transformando nuestras prácticas de trabajo. La claridad en las instrucciones y la disposición a iterar no son solo herramientas para interactuar con sistemas automatizados, sino principios que pueden fortalecer la calidad de los resultados en cualquier contexto. La pregunta que queda abierta es si estamos dispuestos a aplicar estos principios de manera consistente en nuestros equipos y organizaciones, reconociendo que, en muchos casos, mejorar la comunicación puede ser tan relevante como mejorar la ejecución.

