Voces de IA en TikTok y otras redes sirven para propagar desinformaci贸n
馃數Videos en TikTok con voces generadas por inteligencia artificial imitando a figuras como Barack Obama propagan desinformaci贸n de forma enga帽osa.
Investigaciones de NewsGuard detectaron 17 cuentas difundiendo teor铆as conspirativas con audios falsos de celebridades y pol铆ticos, logrando millones de vistas.
Si bien TikTok ha eliminado algunos contenidos, estas voces clonadas con herramientas como ElevenLabs son un nuevo desaf铆o para combatir la desinformaci贸n antes de elecciones de 2024.
Expertos advierten del poder de persuasi贸n del audio y video falsos sobre textos. Las plataformas buscan soluciones t茅cnicas para detectar estos contenidos, pero los propagadores pueden evadir los controles.
Especialistas recomiendan mayor colaboraci贸n entre empresas de IA y redes sociales para limitar el uso de estas voces. Tambi茅n piden m谩s transparencia en el etiquetado, pero los infractores no suelen declarar el contenido como alterado.
Lo anterior evidencia c贸mo tecnolog铆as como el audio sint茅tico se suman a los riesgos de los deepfakes y desinformaci贸n automatizada en redes sociales con fines pol铆ticos. Si quieres profundizar en el tema puedes revisar un articulo de Stuart A. Thompson y Sapna Maheshwari, escrito para el New York Times y que puedes revisar dando clic aqu铆
Fuente: Agencia MI
Investigaciones de NewsGuard detectaron 17 cuentas difundiendo teor铆as conspirativas con audios falsos de celebridades y pol铆ticos, logrando millones de vistas.
Si bien TikTok ha eliminado algunos contenidos, estas voces clonadas con herramientas como ElevenLabs son un nuevo desaf铆o para combatir la desinformaci贸n antes de elecciones de 2024.
Expertos advierten del poder de persuasi贸n del audio y video falsos sobre textos. Las plataformas buscan soluciones t茅cnicas para detectar estos contenidos, pero los propagadores pueden evadir los controles.
Especialistas recomiendan mayor colaboraci贸n entre empresas de IA y redes sociales para limitar el uso de estas voces. Tambi茅n piden m谩s transparencia en el etiquetado, pero los infractores no suelen declarar el contenido como alterado.
Lo anterior evidencia c贸mo tecnolog铆as como el audio sint茅tico se suman a los riesgos de los deepfakes y desinformaci贸n automatizada en redes sociales con fines pol铆ticos. Si quieres profundizar en el tema puedes revisar un articulo de Stuart A. Thompson y Sapna Maheshwari, escrito para el New York Times y que puedes revisar dando clic aqu铆
Fuente: Agencia MI

