Skip to Content

En plena campaña electoral, republicanos publican un video falso generado con IA de James Talarico

Por Daniel Dale, CNN

Los republicanos del Senado publicaron esta semana un anuncio en línea en el que una versión falsa pero de apariencia real de un candidato demócrata, creada con inteligencia artificial, parece hablar directamente a la cámara durante más de un minuto.

El video falso de James Talarico, candidato demócrata en la contienda por el Senado de Estados Unidos en Texas, fue difundido por el Comité Nacional Republicano del Senado (NRSC, por sus siglas en inglés). Es el más reciente de una serie de contenidos generados con inteligencia artificial por la organización nacional de campaña del Partido Republicano durante el último año. Pero es el primero que presenta una versión falsa de un candidato hablando de forma tan realista durante tanto tiempo, un ejemplo de cuánto ha avanzado la tecnología de IA en poco tiempo y un indicio de hacia dónde podrían dirigirse los anuncios de ataque político.

“El rostro y la voz son muy buenos. Hay una ligera desincronización entre el audio y el video, pero por lo demás es hiperrealista y no creo que la mayoría de las personas se dé cuenta de inmediato de que es falso”, dijo en un correo electrónico Hany Farid, profesor de la University of California, Berkeley especializado en análisis forense digital.

El uso de contenidos falsos creados con IA en publicidad electoral plantea una serie de preguntas éticas. También ha provocado llamados bipartidistas para que se apruebe legislación federal o regulación sobre esta práctica, aunque esas propuestas también han enfrentado resistencia por preocupaciones relacionadas con la Primera Enmienda de la Constitución de Estados Unidos.

El anuncio, de 85 segundos, muestra a un “Talarico” creado con IA que parece leer con orgullo fragmentos de tuits de 2021 en los que el verdadero Talarico hizo comentarios sobre temas transgénero, raza y religión, así como un tuit de 2013 en el que recordó haber asistido a un evento de Planned Parenthood cuando era adolescente. Además, el anuncio muestra al falso “Talarico” haciendo nuevos comentarios elogiosos sobre sí mismo que no hay evidencia de que los haya pronunciado, elogiando esos tuits con frases como “oh, este es muy conmovedor” y “oh, este también me encanta”.

El anuncio comienza y termina con un narrador que lo describe como una “lectura dramática”, y aparece en pantalla un aviso que indica “GENERADO POR IA” durante casi todo el video. Sin embargo, el texto es pequeño, en gran parte tenue y está limitado a una esquina inferior de la pantalla. Mientras tanto, el falso “Talarico”, que aparece con saco y camisa abierta en el cuello, se parece de forma inquietante al candidato real.

Una fuente familiarizada con el pensamiento del NRSC describió la IA como una forma “consistentemente efectiva” de resaltar declaraciones de candidatos rivales y afirmó: “Estas son las palabras reales de Talarico… todo lo que hemos hecho es visualizarlas para los votantes utilizando una herramienta moderna, dentro de todos los parámetros legales y éticos”. La fuente, sin embargo, dijo no tener comentarios sobre los comentarios adicionales atribuidos al “Talarico” ficticio que parecen haber sido inventados para el anuncio.

La directora de comunicación del NRSC, Joanna Rodriguez, afirmó en un correo electrónico que los demócratas están “entrando en pánico después de escuchar las propias palabras de James Talarico”. El portavoz de la campaña de Talarico, JT Ennis, afirmó en un mensaje de texto que son los candidatos que compiten en las primarias republicanas quienes “tienen miedo de James Talarico” y añadió que “Mientras ellos pasan su tiempo haciendo videos deepfake con IA para engañar a los texanos, nosotros estamos uniendo a la gente de Texas para ganar en noviembre”.

Texas tiene una de las leyes estatales más estrictas del país sobre contenidos falsos políticos, pero solo se aplica durante el mes previo a una elección. Una ley aprobada en Texas en 2019 convirtió en delito menor, castigado con hasta un año de cárcel, la creación de un video falso y su publicación o distribución dentro de los 30 días previos a una elección si fue “creado con la intención de engañar” y con el objetivo de perjudicar a un candidato o influir en el resultado electoral.

El día de las elecciones de mitad de mandato de noviembre de 2026 será a comienzos de noviembre, mientras que la segunda vuelta de las primarias republicanas se celebrará a finales de mayo. Y aunque aproximadamente la mitad de los estados han aprobado alguna ley relacionada con deepfakes en campañas, muchos otros simplemente exigen que se revele cuando un anuncio fue creado con inteligencia artificial. El senador demócrata Andy Kim, de New Jersey, reaccionó al anuncio contra Talarico con un llamado a tomar medidas a nivel nacional. En una publicación en X escribió: “Estos deepfakes son peligrosos y están mal. Necesitamos protecciones no solo para la política, sino para todos los estadounidenses que podrían ser objetivo de ellos”.

Las palabras “GENERADO POR IA” aparecen en texto pequeño en la esquina inferior derecha del anuncio contra Talarico, encima del logotipo del NRSC, durante unos tres segundos poco después de que comienza. Luego, mientras el falso “Talarico” habla, las palabras reaparecen en un texto aún más pequeño y tenue en la misma esquina, permaneciendo en pantalla durante más de un minuto. El aviso ligeramente más grande y oscuro vuelve a aparecer durante los últimos cinco segundos del anuncio.

En campañas políticas anteriores se utilizó inteligencia artificial sin ningún aviso. Por ejemplo, en 2023, la campaña presidencial republicana del gobernador de Florida, Ron DeSantis, publicó imágenes falsas del presidente Donald Trump abrazando al doctor Anthony Fauci, mezcladas con imágenes reales. También hubo un escándalo en 2024 relacionado con llamadas automatizadas, cuando un consultor que trabajaba para la campaña presidencial demócrata del representante Dean Phillips contrató a alguien para crear una versión generada con IA de la voz del presidente Joe Biden instando a los votantes de New Hampshire a no votar en las primarias.

Sarah Kreps, profesora y directora del Tech Policy Institute at Cornell University, dijo que la advertencia incluida en el anuncio contra Talarico “refleja la dirección en la que parecen avanzar la tecnología y las normas en torno a ella”.

“Las campañas parecen estar empezando a tratar los medios sintéticos menos como algo encubierto, quizás porque eso resultó contraproducente al percibirse como deshonesto y engañoso, cualidades que no se esperan de funcionarios electos, y más como algo que puede utilizarse abiertamente siempre que los espectadores sepan lo que están viendo”, dijo Kreps en un correo electrónico.

Sin embargo, es discutible si esa nota en letra pequeña constituía realmente una información transparente.

“No creo que una fuente pequeña y tenue en la esquina inferior derecha se acerque siquiera a una divulgación adecuada, porque la persona promedio que está desplazándose sin parar en X o YouTube simplemente no lo notará, de hecho, yo no lo noté cuando vi el video por primera vez”, dijo Farid.

“También creo que, si los tuits de Talarico son reales, ver al candidato leerlos produce un efecto diferente y puede considerarse razonablemente engañoso. No creo que las campañas o los candidatos deban abrir esta caja de Pandora”, añadió.

El uso de contenido falso generado con IA se ha multiplicado durante el ciclo electoral de las elecciones de mitad de mandato de 2026, a medida que los rápidos avances en esta tecnología han hecho que los videos falsos sean más convincentes y más fáciles de crear que nunca.

Texas es un ejemplo claro. Como señaló el medio The Texas Tribune el mes pasado, múltiples anuncios y publicaciones en redes sociales han utilizado videos e imágenes creados con IA durante las disputadas primarias republicanas al Senado entre el senador John Cornyn y el fiscal general de Texas Ken Paxton.

Un anuncio de ataque de la campaña de Paxton utilizó ampliamente una versión falsa de “Cornyn” bailando alegremente con la representante demócrata Jasmine Crockett. Un texto pequeño al final del anuncio señalaba que “cierto video” era sátira generada con IA y “no representa hechos reales”. Por su parte, un anuncio de la campaña de Cornyn mostró clips falsos del ex candidato republicano Wesley Hunt sosteniendo un perro de raza pomerania en escenas inventadas para retratarlo como un simple “perro de exhibición”. Ese anuncio no incluyó ningún aviso sobre el uso de IA.

Diversos demócratas también han utilizado esta tecnología. El gobernador de California, Gavin Newsom, publicó un video ficticio que muestra a Trump y a altos funcionarios de su Gobierno llorando mientras están esposados, además de otros contenidos generados con IA, aunque muchos de ellos claramente falsos y satíricos. La fallida campaña de Crockett en las primarias al Senado tampoco respondió directamente cuando medios de Texas preguntaron si una imagen llamativa de la candidata frente a una multitud masiva había sido generada con IA.

El NRSC, como otros actores políticos, ve pocas desventajas en el uso de deepfakes en anuncios. Incluso cuando algunos espectadores expresan indignación o los medios cubren la historia de un video falso, el anuncio y los mensajes que intenta destacar reciben más atención. Kreps afirmó que los medios sintéticos probablemente se convertirán en “una herramienta habitual de campaña” para ambos partidos.

“Lo que probablemente estamos viendo es una especie de competencia por empujar los límites: una vez que una campaña demuestra una táctica, otras la adoptan para no arriesgarse a quedar en desventaja”, dijo.

The-CNN-Wire
™ & © 2026 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.

Article Topic Follows: CNN - Spanish

Jump to comments ↓

CNN Newsource

BE PART OF THE CONVERSATION

KION 46 is committed to providing a forum for civil and constructive conversation.

Please keep your comments respectful and relevant. You can review our Community Guidelines by clicking here

If you would like to share a story idea, please submit it here.