Esta semana se cumplieron cinco años desde el lanzamiento del libro Guayaquil Historias a Color. Cinco años. Dicho así suena cercano, casi reciente. Pero en términos de tecnología, cinco años son una eternidad. Es mirar atrás y encontrarse con un paisaje que ya no existe, o que al menos se ve muy distinto desde aquí.
Si me hubieran preguntado hace diez años si era posible crear un libro con fotografías de hace cien años, traídas de vuelta a la vida mediante colorización con inteligencia artificial, probablemente hubiera dicho que sí. Pero también habría añadido, casi por reflejo, que eso de la IA todavía estaba lejos de ser algo cotidiano, accesible, doméstico. En ese momento la inteligencia artificial era más promesa que herramienta, más laboratorio que escritorio.
También te puede interesar: El legado de Guayaquil Historias a Color
Cuando trabajamos en el libro —yo como coordinador editorial— la IA no era lo que es hoy. Existían algoritmos, sobre todo enfocados en colorización, pero no había servicios como los que ahora usamos casi sin pensar. No había nano banana, no había Midjourney, no había esa sensación de tener un poder descomunal al alcance de un prompt bien escrito.
Y sin embargo, el libro se hizo.


Hay una frase que se me quedó grabada de varias conversaciones con los autores: estamos viviendo los últimos tiempos en que el hombre va a crear algo por sí solo; la IA va a suplantar pronto al ser humano en la creación. En ese momento sonaba fuerte, incluso provocadora, pero al trabajar en el libro no se sentía así. No todavía.
La restauración de las fotos, antes siquiera de pensar en colorizarlas, era profundamente humana. Muchas imágenes estaban gastadas, rotas, manchadas por el tiempo. Requerían horas de trabajo manual, de retoques casi artesanales. Solo cuando una foto estaba “lista”, cuando había sido rescatada lo mejor posible, entraba la IA en escena para colorizarla.
Y aun así, el resultado no era definitivo. Era un punto de partida. Algunas colorizaciones eran sorprendentes; otras tenían detalles que simplemente no encajaban. Colores improbables, sombras extrañas, elementos que no correspondían. Había que corregirlos a mano. Luego venía la diagramación del libro, otro proceso completamente humano. Ninguna IA decidió márgenes, ritmos visuales o secuencias narrativas.
Si soy honesto, una gran parte del trabajo la hizo el ser humano. Pero el aporte de la inteligencia artificial fue vital. La colorización redujo a meses un trabajo que, de haberse hecho píxel por píxel, habría tomado años. Ahí estuvo la verdadera revolución: no en reemplazar al humano, sino en amplificarlo.
Hoy el escenario es otro. Hoy tomas una foto gastada, la llevas a nano banana y, si eres lo suficientemente astuto con el prompt, obtienes resultados impresionantes. La mejoras, la restauras, la colorizas. El resultado se ve muy bien, a veces demasiado bien. Pero aquí aparece una trampa sutil: al final, probablemente ya no sea la misma foto.



Nos olvidamos —o preferimos olvidarlo— de que la IA es generativa. No está “revelando” el pasado, está creando algo nuevo a partir de lo que le damos. Se va a parecer mucho, sí, pero es otra cosa. Una interpretación plausible, no una verdad histórica.
Donde sí veo un estancamiento claro es en Photoshop. Lleva un par de años con filtros neurales. Al inicio nos parecieron increíbles, en parte porque no teníamos con qué compararlos. Hoy, frente a modelos mucho más potentes, su colorización se siente mediocre. Funciona, pero ya no sorprende. Y en tecnología, cuando algo deja de sorprender, empieza a quedarse atrás.
Una de las cosas que más me fascinaba cuando alguien veía el libro por primera vez era la reacción. La pregunta casi siempre era la misma: ¿cómo se colorizó esto? Y aunque lo explicáramos, la gente imaginaba algo parecido a una máquina del tiempo, como si la IA hubiera viajado al pasado y regresado con la respuesta correcta. Otra pregunta recurrente era: ¿cómo supo que ese era el color?
En algún punto dejé de explicar y empecé a decir simplemente: magia.
La realidad es menos romántica. La IA no sabe. Sabe lo que le han enseñado. Si fue entrenada con millones de imágenes y, por casualidad, entre ellas hay edificios de época, ropa similar, contextos urbanos parecidos, usará esa base para generar una respuesta. Por eso algunos resultados no eran correctos, y no había discusión posible: tocaba corregirlos a mano.
Hoy la diferencia es que podemos interactuar. Si la IA no nos da lo que esperamos, iteramos. Probamos otra vez. Ajustamos el prompt. Volvemos a intentar. Siempre que sepamos cómo hacerlo. Y ahí entra un concepto que me gusta usar sin mucha vergüenza: hay que ser astuto.
Astuto porque uno puede seguir todos los manuales de prompt engineering y aun así no llegar a lo que quiere. Es en ese punto donde nuestra inteligencia tiene que entrar en juego, no para competir con la IA, sino para hacer match. Para ponerse a su nivel, entender cómo “piensa” y darle la mejor instrucción posible.
El contexto lo es todo. Siempre lo ha sido. Pienso que escribirle un prompt efectivo a una IA se parece mucho a describir una imagen a una persona no vidente, o a alguien que nunca ha visto eso en la realidad. No puedes asumir nada. Tienes que ser preciso, pero también sensible. Técnico, pero humano.
Cinco años después de Guayaquil Historias a Color, miro atrás y no veo solo un libro. Veo un punto en el tiempo. Un momento en el que la inteligencia artificial todavía era una herramienta poderosa, pero no omnipresente. Un momento en el que crear seguía siendo, en gran medida, un acto humano asistido por máquinas.
No sé si aquella frase sobre el fin de la creación humana sea cierta. Pero sí sé algo: mientras más poderosa se vuelve la IA, más importante se vuelve nuestra capacidad de pensar, contextualizar y decidir. Quizás no estemos llegando al fin de la creación humana, sino al fin de crear sin pensar.
Y eso, tal vez, no sea tan malo.