Reconocen lo evidente
Por: Juan José Ruvalcaba
Lo que empezó como burla en redes terminó como confirmación oficial. El caso de Florencia Melany Franco Fernández, empleada de la Secretaría de Hacienda, dejó de ser “contenido manipulado” para convertirse en un hecho reconocido por el propio gobierno.
Durante días se intentó instalar la narrativa de que las imágenes donde aparece asoleándose en una ventana de Palacio Nacional eran producto de inteligencia artificial. El argumento era conveniente: desacreditar el contenido y cerrar la conversación. Pero la presión pública hizo lo suyo.
La presidenta Claudia Sheinbaum terminó por reconocer que sí ocurrió, que no era un montaje digital ni una alteración con IA. El problema ya no fue la imagen, sino la reacción inicial del gobierno.
Se empieza a normalizar el reflejo automático de culpar a la inteligencia artificial cada vez que surge un contenido incómodo. Ese recurso, que en teoría busca proteger la verdad, termina debilitando la credibilidad cuando se usa sin sustento.
El fondo del tema no es una funcionaria tomando el sol en una ventana. Es la rapidez con la que una institución intenta negar, minimizar o desviar una situación que claramente tiene impacto público.
La lógica de gobierno es, si todo lo incómodo se puede etiquetar como “fake” o “generado con IA”, entonces la verdad deja de depender de los hechos y pasa a depender de quién controla la narrativa.
Pero el ciudadano ya no sólo duda de la imagen, también duda de la respuesta oficial.
La inteligencia artificial se ha convertido en un escudo político improvisado; pero cuando ese escudo falla, el daño a la credibilidad es mayor.
No fue la imagen lo que generó el problema. Fue la negación.


