Google recibió más de 250 denuncias a nivel global sobre el uso de su modelo de inteligencia artificial (IA), Gemini, para crear material terrorista ultrafalso, conocido como 'deepfake' en inglés, según informaron este jueves las autoridades australianas.
El Gobierno de Australia reclamó en marzo de 2024 a Google, Meta, Telegram, Reddit y X que explicaran los pasos que han dado contra la publicación y actividades en línea vinculadas al terrorismo y la violencia extremista.
La Comisión de Seguridad Electrónica de Australia (eSafety) indicó hoy, en un informe que recoge las respuestas de las compañías tecnológicas, que estas empresas pueden "hacer más para abordar la proliferación de material y actividades terroristas y de extremismo violento en sus plataformas".
"Google nos dijo que durante el período del informe (del 1 de abril de 2023 al 29 de febrero de 2024) recibió 258 denuncias de usuarios sobre material terrorista ultrafalso generado por (el modelo conversacional de IA) Gemini", subraya el informe.
La gigante tecnológica informó también de que en el mismo plazo recibió otras "86 denuncias de usuarios sobre material sospechoso de explotación y abuso sexual infantil generado por IA".
La multinacional no dijo cuántas de las quejas verificó, según el regulador.
La comisionada de eSafety, Inman Grant, remarcó que estos datos "ponen en relieve lo importante que es para las empresas que desarrollan la IA incorporar y probar la eficacia de las medidas de seguridad para evitar que se genere este tipo de material".
El ente australiano reseñó además que Telegram, WhatsApp y Messenger de Meta "no emplearon medidas para detectar retransmisiones en directo de actos terroristas", a pesar de que en 2019 un supremacista blanco retransmitió por Facebook un ataque contra dos mezquitas en la ciudad neozelandesa de Christchurch, que acabó con 51 muertos y 49 heridos.
"Nos preocupan las deficiencias de seguridad que aún existen en Facebook, ya que los usuarios no pueden denunciar la retransmisión de terrorismo si lo están viendo sin iniciar la sesión de su cuenta", dice el informe al comentar que sucede lo mismo en YouTube.
La respuesta de las plataformas a las denuncias de los usuarios son demasiado lentas, según eSafety, y de media WhatsApp tardó un día en responder, Reddit tardó 1,3 días y Threads (de Meta) tardó 2,5 días.
En febrero, eSafety multó a Telegram por retrasarse cinco meses en responder a las cuestiones. Mientras que X, que también fue multado y ha apelado la sanción, aún no ha respondido, por lo que el informe no incluye las medidas de esta plataforma.
Australia, que en 2021 aprobó la Ley de Seguridad en Línea para reclamar la cooperación de las tecnológicas, mantiene una férrea posición para controlar a las plataformas de internet y el pasado noviembre aprobó que los menores de 16 años tengan prohibido el acceso a redes sociales.
Melbourne / EFE