A mediados de este año, las imágenes generadas por inteligencias artificiales generativas que se compartan en Instagram y Facebook mostrarán una etiqueta que identificará su origen, un “sello” que dejará claro que no se trata de fotografías reales. En la etiqueta se podrá leer, simplemente, “AI Info” bajo el nombre de la persona que publica la imagen, aunque la compañía aún están considerando otras formas de destacar el origen de una imagen.
Con ese texto Meta se une a varias grandes empresas tecnológicas, como Adobe o Microsoft, que están tratando de crear sistemas de identificación universales que ayuden a frenar campañas de desinformación que se apoyen en imágenes generadas con motores generativos como Midjourney o Stable Diffusion. “A medida que la diferencia entre el contenido humano y el sintético se difumina, la gente quiere saber dónde están los límites”, explica Nick Clegg, responsable de asuntos globales de Meta.
El problema es complejo de solucionar porque requiere de la participación activa de todas las partes implicadas en la generación de las imágenes. Meta, por ejemplo, mostrará esta etiqueta en fotos que provengan de motores generativos de Google, Microsoft, OpenAI, Adobe, Midjourney y Shutterstock, pero necesita que esas empresas añadan los códigos necesarios en los metadatos (información adicional que se adjunta al archivo gráfico) de la foto.