Voces de IA en TikTok y otras redes sirven para propagar desinformación
🔵Videos en TikTok con voces generadas por inteligencia artificial imitando a figuras como Barack Obama propagan desinformación de forma engañosa.
Investigaciones de NewsGuard detectaron 17 cuentas difundiendo teorías conspirativas con audios falsos de celebridades y políticos, logrando millones de vistas.
Si bien TikTok ha eliminado algunos contenidos, estas voces clonadas con herramientas como ElevenLabs son un nuevo desafío para combatir la desinformación antes de elecciones de 2024.
Expertos advierten del poder de persuasión del audio y video falsos sobre textos. Las plataformas buscan soluciones técnicas para detectar estos contenidos, pero los propagadores pueden evadir los controles.
Especialistas recomiendan mayor colaboración entre empresas de IA y redes sociales para limitar el uso de estas voces. También piden más transparencia en el etiquetado, pero los infractores no suelen declarar el contenido como alterado.
Lo anterior evidencia cómo tecnologías como el audio sintético se suman a los riesgos de los deepfakes y desinformación automatizada en redes sociales con fines políticos. Si quieres profundizar en el tema puedes revisar un articulo de Stuart A. Thompson y Sapna Maheshwari, escrito para el New York Times y que puedes revisar dando clic aquí
Fuente: Agencia MI
Investigaciones de NewsGuard detectaron 17 cuentas difundiendo teorías conspirativas con audios falsos de celebridades y políticos, logrando millones de vistas.
Si bien TikTok ha eliminado algunos contenidos, estas voces clonadas con herramientas como ElevenLabs son un nuevo desafío para combatir la desinformación antes de elecciones de 2024.
Expertos advierten del poder de persuasión del audio y video falsos sobre textos. Las plataformas buscan soluciones técnicas para detectar estos contenidos, pero los propagadores pueden evadir los controles.
Especialistas recomiendan mayor colaboración entre empresas de IA y redes sociales para limitar el uso de estas voces. También piden más transparencia en el etiquetado, pero los infractores no suelen declarar el contenido como alterado.
Lo anterior evidencia cómo tecnologías como el audio sintético se suman a los riesgos de los deepfakes y desinformación automatizada en redes sociales con fines políticos. Si quieres profundizar en el tema puedes revisar un articulo de Stuart A. Thompson y Sapna Maheshwari, escrito para el New York Times y que puedes revisar dando clic aquí
Fuente: Agencia MI