Falsificaciones de IA en la guerra entre Israel y Hamás
10 de noviembre de 2023¿Cómo funciona la inteligencia artificial? ¿A qué narrativas sirven las falsificaciones de IA en la guerra entre Israel y Hamás? La verificación de datos de DW responde a las preguntas más importantes sobre el papel de la IA en el conflicto entre Israel y Hamás en Gaza.
¿Cómo funcionan las falsificaciones generadas por IA?
La IA está ahora en todas partes, incluso en la guerra. La aplicabilidad de la inteligencia artificial ha mejorado mucho este año. Casi cualquiera puede ahora utilizar generadores de IA comunes para crear imágenes que parezcan reales, al menos a primera vista. Para hacer esto, los usuarios tienen que "alimentar” herramientas como Midjourney o Dall-E con indicaciones, es decir, especificaciones e información. Luego, las herramientas las convierten en imágenes. Algunos crean ilustraciones más artísticas, otros crean imágenes fotorrealistas. El proceso de generación se basa en el llamado aprendizaje automático. Gracias a cada vez más aportaciones y mejoras técnicas, las herramientas han mejorado mucho en los últimos años y meses, y están aprendiendo más de manera constante.
Esto funciona también así en el caso de las imágenes del conflicto del Cercano Oriente. Los usuarios utilizan las herramientas para crear escenas más o menos realistas que, según nuestras observaciones, a menudo pretenden representar momentos emotivos para difundir determinadas narrativas. En este conflicto, "en el que las emociones están muy, muy en alto”, dice el experto en inteligencia artificial Hany Farid, la desinformación, incluido el uso de imágenes de inteligencia artificial, funciona particularmente bien. El endurecimiento de ambos frentes es el caldo de cultivo perfecto para crear y difundir contenidos falsos y amplificar las emociones, dice Farid, que trabaja como profesor de Ciencia Forense Digital en la Universidad de Berkeley, California.
¿Cuántas imágenes de IA circulan en la guerra entre Israel y Hamás?
Durante la guerra de Ucrania, las imágenes y videos creados con la ayuda de la inteligencia artificial contribuyeron a la desinformación, y siguen haciéndolo. Debido a que las herramientas de IA se han desarrollado rápidamente en los últimos tiempos, muchos observadores esperaban una presencia aún mayor de IA en la guerra entre Israel y Hamás. Pero, según los expertos, la gran avalancha de imágenes de IA no se ha producido hasta ahora.
"No vemos un uso masivo de imágenes generadas por IA", afirma Tommaso Canetta, del Observatorio Europeo de Medios Digitales. "La cantidad es bastante pequeña si la comparamos con otras formas de desinformación, como imágenes y videos antiguos que ahora se redistribuyen de forma engañosa". Sin embargo, eso no significa que la tecnología no desempeñe ningún papel.
El experto Hany Farid explica en una entrevista a DW que no considera relevante el número de falsificaciones de IA. "Ya solo dos imágenes que se vuelven virales y son vistas por cientos de millones de personas pueden tener un impacto enorme". La principal eficacia de las falsificaciones de IA y otras formas de desinformación es que "contaminan el ecosistema de la información”.
¿A qué narrativas sirven las falsificaciones de la IA en la guerra entre Israel y Hamás?
Las imágenes de IA que circulan en las redes sociales suelen provocar fuertes emociones en quienes las visualizan. El experto Canetta identifica dos categorías principales: imágenes que se centran en el sufrimiento de la población civil y despiertan compasión por las personas que se muestran en ellas. Y falsificaciones de IA que fingen un exagerado apoyo a Israel, Hamás o los palestinos, y apelan a sentimientos patrióticos.
La primera categoría, por ejemplo, incluye la imagen que se ve aquí arriba, de un padre con sus cinco hijos frente a una montaña de escombros, que fue compartida muchas veces en X (antes Twitter) o Instagram, y fue vista cientos de miles de veces en relación con el bombardeo de Israel a la Franja de Gaza. La imagen ahora tiene, al menos en X, un aviso a la comunidad que dice que es falsa. Puede reconocerse como tal por varios errores e inconsistencias que (todavía) son típicos de las imágenes de IA. El hombro derecho del hombre está desproporcionadamente alto. Las dos extremidades que emergen desde abajo también son extrañas, como si surgieran del suéter. También llaman la atención que las manos de los dos niños, que rodean el cuello de su padre con sus brazos, se fusionan. Y aunque hay varias manos y pies en la imagen, hay demasiados o muy pocos dedos de las manos y los pies.
Anormalidades similares también se pueden ver en la siguiente falsificación de IA que se volvió viral en X, y que muestra supuestamente a una familia palestina comiendo entre los escombros.
En la segunda categoría está la imagen que se puede ver aquí debajo, en la que soldados israelíes caminan por un asentamiento lleno de casas bombardeadas ondeando banderas israelíes. Las cuentas que difundieron la imagen en Instagram y X parecen ser proisraelíes y acogen con agrado los acontecimientos descritos. DW también encontró la imagen como foto de un artículo en un periódico en línea búlgaro, que no la reconoció ni la etiquetó como generada por IA.
Lo que parece falso aquí es la forma en que ondean las banderas israelíes. Además, la calle parece demasiado limpia en el centro, mientras que los escombros parecen muy uniformes. Los edificios destruidos también parecen ser idénticos, y se encuentran ubicados a intervalos bastante regulares. En definitiva, la impresión visual es demasiado "limpia” para ser real. Esta perfección, que hace que las imágenes parezcan pintadas, también es típica de la IA.
¿De dónde provienen las imágenes de IA?
La mayoría de las imágenes creadas con inteligencia artificial se distribuyen a través de cuentas privadas en las redes sociales. Los publican perfiles tanto auténticos como evidentemente falsos. Sin embargo, las imágenes generadas por IA también se pueden utilizar en periodismo. Actualmente en muchas empresas de medios se debate si esto puede ser útil o sensato y en qué casos.
La empresa de software Adobe ha causado revuelo al añadir imágenes generadas por IA a su gama de fotografías de archivo a finales de 2022. Estas se proporcionan con una nota correspondiente en la base de datos.
Ahora Adobe también ofrece a la venta allí imágenes de IA de la guerra de Oriente Medio, por ejemplo, de explosiones, personas protestando o nubes de humo detrás de la mezquita de Al Aqsa. Los críticos encuentran esto muy cuestionable. Y algunos sitios en internet y medios de comunicación han seguido usando las imágenes, sin etiquetarlas como generadas por IA; esta imagen, por ejemplo, aparece en la página Newsbreak, sin previo aviso. Lo descubrimos mediante una búsqueda inversa de imágenes.
Incluso el Servicio de Investigación del Parlamento Europeo ilustró un texto en línea sobre el conflicto de Oriente Medio con una de las falsificaciones de la base de datos de Adobe, también sin etiquetarlo como una imagen generada por IA. Tommaso Canetta, del Observatorio Europeo de Medios Digitales, pide a los periodistas y profesionales de los medios que tengan mucho cuidado con las imágenes de IA. Canetta desaconseja usarlas, especialmente cuando se trata de acontecimientos reales como la guerra de Oriente Medio. Las cosas son diferentes cuando se trata de ilustrar temas abstractos como las tecnologías del futuro.
¿Cuánto daño causan las imágenes de IA?
El conocimiento de que circula contenido de IA hace que los usuarios se sientan inseguros acerca de todo lo que encuentran en internet. Farid, investigador de Berkeley, explica: "La capacidad de manipular imágenes, audio y video hace que todo se cuestione". A veces sucede que las imágenes reales se tildan incorrectamente de no auténticas.
Esto es lo que sucedió en este caso: una imagen que se dice que muestra el cadáver carbonizado de un bebé israelí fue compartida en X, entre otros, por el primer ministro israelí, Benjamín Netanyahu, y el comentarista conservador estadounidense Ben Shapiro. El controvertido influencer antiisraelí Jackson Hinkle afirmó luego que la imagen fue creada utilizando inteligencia artificial.
Como supuesta evidencia, Hinkle adjuntó a su publicación la captura de pantalla del detector AI or not, que clasificó la imagen como generada por IA. La afirmación de Hinkle en X fue vista más de 20 millones de veces y dio lugar a acaloradas discusiones. Hany Farid también dijo a DW que no pudo encontrar ninguna discrepancia en la imagen que indicara que es una IA falsa.
¿Cómo sucede eso? Los detectores de IA que se pueden utilizar para comprobar si una imagen o un texto pueden haber sido generados por IA siguen siendo muy propensos a errores. Dependiendo de la imagen examinada, hacen juicios correctos o incorrectos, a menudo sólo con una afirmación de probabilidad, y no con una afirmación del 100%. Por eso son ideales como herramienta adicional, pero no única, para comprobar falsificaciones de IA.
El equipo de verificación de datos de DW tampoco encuentra signos claros de manipulación por parte de la IA en la imagen, que presumiblemente muestra el cadáver de un bebé. Curiosamente, cuando lo probamos nosotros mismos, AI or not no clasificó la imagen como generada por IA y señaló que la calidad de la imagen era mala. Otro detector de IA (Hive Moderation) también llega a la conclusión de que la imagen es real.
(cp/ers)