En Taiwán, durante las elecciones
presidenciales de enero, Microsoft detectó un nivel aún mayor de sofisticación
con el uso de un clip de audio falso, creado mediante IA, que pretendía ser de
un ex candidato presidencial apoyando a uno de los candidatos actuales. “Fue
donde vimos el resultado de lo que estaban aprendiendo al utilizar la IA”,
afirmó Burt, remarcando la mejora en la calidad de las imágenes y la
información usada en estas operaciones.
El jefe de Seguridad de Microsoft,
Tom Burt, transmitió ya la evidencia que sugiere un aumento significativo
de este tipo de operaciones encubiertas. Estas se caracterizan por el
lavado de información falsa a través de cuentas apócrifas en plataformas de
redes sociales, con el objetivo de sembrar división mediante la exacerbación de
cuestiones políticas internas. En particular, han surgido informes sobre la
manipulación de temas polémicos en Estados Unidos, como el uso de drogas,
políticas de inmigración y tensiones raciales; incluso se ha llegado a pedir
opiniones sobre candidatos presidenciales para obtener información sobre las
preferencias políticas de los votantes. Según Microsoft, algunas de estas
maniobras han incluido imágenes generadas por IA generativa, lo que
demuestra un paso hacia métodos más elaborados que los anteriormente
observados.
Según Microsoft en Taiwán, durante las elecciones presidenciales de enero, se detectó un nivel aún mayor de sofisticación con el uso de un clip de audio falso, creado mediante IA, que pretendía ser de un ex candidato presidencial apoyando a uno de los candidatos actuales. “Fue donde vimos el resultado de lo que estaban aprendiendo al utilizar la IA”, afirmó Burt, remarcando la mejora en la calidad de las imágenes y la información usada en estas operaciones.
No hay comentarios.:
Publicar un comentario