A partir del próximo 2024, Meta exigirá a todos los anunciantes de sus plataformas Facebook e Instagram notificar si en sus campaña usaron Inteligencia Artificial (IA) u otro software para crear o alterar imágenes o audios en publicidad destinada al ámbtio de la política.
PUBLICIDAD
Mediante una publicación en la red social Threads, el presidente de asuntos globales de Meta, Nick Clegg, explicó que “los anunciantes que hagan publicidad de problemas sociales, elecciones y política con Meta tendrán que decir si la imagen o el sonido han sido creados o alterados digitalmente, incluso con AI, para hacer decir a gente real cosas que no han hecho o dicho”.
Disminuir los Deepfake
Las imágenes sintéticas denominadas como “deepfakes”, han alcanzado un nivel de sofisticación que impide su detección a simple vista. Su creación se basa en el desarrollo de herramientas de inteligencia artificial generativa como el reconocido programa, ChatGPT.
Stuart Wells, responsable de Tecnología de Jumio, advierte que “esta práctica son cada vez mejores y más difíciles de detectar sin la ayuda de la inteligencia artificial”, situación que pone en serios riesgos al mundo virtual ante la posible oleada de estafas virtuales o fake news mediante la utilización del rostro y voz falso de importantes personalidades mundiales.
La verificación de Meta intenta contrarestar a los impostores, ya que entre los más grandes temores acerca de la cada vez más poderosa IA está el potencial fraude a los votantes durante las próximas elecciones presidenciales en los Estados Unidos.
Otra de las empresas más importante del mundo de las tecnologías, como es el caso de Microsfot, ya adelantó que se encuenta en la búsqueda para controlar esta gran problemática, prometiendo que entre sus servicios el lanzar a principios de 2024 herramientas que permitan a los candidatos o campañas incluir “credenciales” en imágenes o video que ellos produzcan.