¿Recuerda la imagen viral del Papa Francisco con una chaqueta acolchada blanca y un crucifijo enjoyado, como si hubiera salido de una pasarela de ropa urbana? Hemos visto deepfakes antes, pero pocos han tenido tanto impacto. Ahora, Google ha lanzado una herramienta para evitar que imágenes como esta se difundan sin control.
Presentamos SynthID: cómo funciona
DeepMind, un laboratorio de investigación de inteligencia artificial adquirido por Google, anunció recientemente el lanzamiento de SynthID, una herramienta de marca de agua diseñada específicamente para identificar imágenes generadas por IA.
"Ser capaz de identificar contenido generado por IA es fundamental para que las personas sepan cuándo interactúan con los medios generados y para ayudar a prevenir la difusión de información errónea", afirmó el equipo de DeepMind. A diferencia de las técnicas tradicionales de marcas de agua que se basan en marcas de agua visibles o metadatos, que pueden perderse, DeepMind incorpora una marca de agua digital directamente en los píxeles de una imagen. Esto significa que incluso si la imagen se modifica mediante recorte, cambio de tamaño, filtros o ajustes de brillo, la marca de agua permanece intacta. Si bien el ojo humano no lo detecta, el software de detección puede identificarlo.
No se revela mucho más sobre la tecnología. El director ejecutivo, Demis Hassabis, explicó a The Verge que "cuanto más revele sobre cómo funciona, más fácil será para los piratas informáticos y las entidades nefastas sortearlo". Actualmente en versión beta, SynthID está disponible para los usuarios de Imagen, un producto de Google Cloud, que utilizan IA de vértice, una plataforma de aprendizaje automático basada en la nube. Los clientes pueden crear, compartir e identificar de manera responsable imágenes generadas por IA. Sin embargo, Hassabis señala que la tecnología no es infalible contra las "manipulaciones extremas de imágenes", pero es un paso en la dirección correcta.
¿Qué sigue para SynthID?
El equipo de DeepMind está trabajando para ampliar el acceso a SynthID, con el objetivo de ponerlo a disposición de terceros e integrarlo en más productos de Google. Este anuncio se produjo poco después de que Google y seis importantes actores de la IA asistieran a una cumbre en la Casa Blanca donde se comprometieron a invertir en herramientas de seguridad de la IA e investigación para un uso responsable. La Casa Blanca solicitó una nueva tecnología de marcas de agua como medio para que las empresas de inteligencia artificial se ganen la confianza del público. De acuerdo a The Verge, el software probablemente se extenderá al contenido de audio y visual.
Esta cumbre es parte del esfuerzo continuo del gobierno para combatir los deepfakes. En 2021, el Comité de Asuntos Gubernamentales y del Departamento de Seguridad Nacional aprobó la Ley del Grupo de Trabajo Deepfake. En el lado más ligero, los deepfakes pueden diseñar con humor al Papa a la moda. En el lado más oscuro, pueden conducir a inestabilidad política, fraude y manipulación de acciones.
En 2021, Adobe cofundó la organización sin fines de lucro. Coalición para la procedencia y autenticidad del contenido (C2PA) estandarizar el etiquetado de contenidos de los medios y combatir la desinformación. Sirven como sello de aprobación y muestran a los consumidores que un activo no fue manipulado. Debido al auge de la IA, la membresía de C2PA ha crecido un 56% en los últimos seis meses, como señaló MIT Technology Review. A finales de julio, Shutterstock anunció que integraría el protocolo técnico de C2PA en sus sistemas de inteligencia artificial y herramientas de creatividad, incluido el generador de imágenes de inteligencia artificial.
La comida para llevar
Con la creciente presión gubernamental, las empresas de IA, grandes y pequeñas, deben priorizar los esfuerzos responsables en materia de IA. Ya sea que esté utilizando o creando herramientas de inteligencia artificial, hay más supervisión en el horizonte.