José Antonio Kast: investigación destapa red de bots que acosó a rivales y tensó la campaña

José Antonio Kast: investigación destapa red de bots que acosó a rivales y tensó la campaña sep, 12 2025

Un hallazgo que sacude la campaña

Una red de cuentas automáticas operando durante años para hostigar a rivales políticos, manipular conversaciones y empujar rumores. Eso es lo que describe la investigación de la unidad de reportajes de El Mostrador sobre el ecosistema digital que rodea a José Antonio Kast. El informe, basado en análisis de trazabilidad y monitoreo de redes, plantea que desde la campaña de 2021 se habrían combinado “bots amplificadores” para impulsar sus mensajes y “bots polarizadores” para atacar a competidores, con especial foco en Evelyn Matthei, figura clave de Chile Vamos.

El episodio más crudo citado por el equipo de investigación fue la circulación de videos manipulados que insinuaban que Matthei padecía Alzheimer. Ella lo calificó de “campaña asquerosa” y advirtió acciones legales que no terminó presentando. Esa pieza sintetiza el método: contenido adulterado, replicado en cadena por cuentas coordinadas, diseñado para sembrar dudas emocionales y dañar reputaciones en tiempo real.

La diputada Ana María Gazmuri (Acción Humanista) no se quedó en matices: habló de “un ejército de bots de ultraderecha operando en la sombra, manipulando la opinión pública”. Críticos del fenómeno añaden que no se trata solo de propaganda dura, sino de una estrategia que “instala odio” y normaliza el acoso digital como herramienta política. El informe dice estar respaldado por decenas de académicos de universidades chilenas que revisaron patrones y metodologías.

Kast, por su parte, tomó distancia. Negó cualquier relación con campañas de este tipo, señaló que su partido no practica estas tácticas y afirmó que solo puede responder por su propia cuenta. Aseguró, además, que sus adherentes “son respetuosos”. En su defensa está el punto central de todos estos casos: probar autoría es difícil cuando las operaciones se dispersan entre cuentas anónimas, intermediarios y canales cerrados.

El Gobierno recogió el guante. La ministra vocera, Camila Vallejo, leyó una declaración en la que remarcó el compromiso con la convivencia cívica y la democracia. Defendió el debate libre, pero advirtió que las mentiras orquestadas y el discurso de odio degradan el espacio público. Ese mensaje coloca el asunto en un marco institucional: no es solo un pleito entre partidos, es un riesgo para cómo se informa el electorado.

Cómo funciona la maquinaria y por qué importa

Cómo funciona la maquinaria y por qué importa

Los investigadores distinguen dos capas. La primera, de “amplificación”: cuentas automatizadas que replican mensajes del candidato, los citan, comentan con textos prefabricados y empujan hashtags para forzar tendencias. La segunda, de “polarización”: perfiles que responden de forma agresiva a líderes rivales, inundan con insultos o dudas, y publican piezas engañosas para mover el eje del debate. La combinación busca volumen, velocidad y efecto dominó.

¿Cómo se detecta? A través de señales repetidas. Publicaciones clonadas que aparecen en minutos, perfiles recién creados que crecen en bloque, horarios de actividad calcados, uso de las mismas plantillas de texto, y cruces entre cuentas que se retroalimentan sin pausas. El análisis de trazabilidad observa esas huellas y las conecta con campañas, eventos y picos de conversación.

El informe describe, además, el salto a plataformas de mensajería. En WhatsApp —en grupos abiertos y cerrados— circulan cadenas, memes y recortes de video ajustados para ser fáciles de reenviar. Ese circuito es difícil de auditar por su encriptación y su estructura de círculos de confianza: un contenido falso que llega por un grupo de vecinos o del colegio tiene más credibilidad que el mismo mensaje en una red abierta. La investigación sostiene que esta infraestructura viene operando al menos desde hace cinco años.

Otra pieza del rompecabezas es la administración de la huella pública del candidato. Según el reporte, los mensajes emitidos por su cuenta principal muestran un cálculo fino: timing, tono y coordinación con ecosistemas afines que entran a “empujar” el post en cuestión. No hace falta que el propio equipo ejecute los bots para que la maquinaria funcione; basta con que el andamiaje se active cada vez que hay un contenido útil para su causa.

La crítica transversal va más allá de lo técnico. La diputada Gael Yeomans pidió elevar el estándar de transparencia para quienes hacen campaña con la bandera de la probidad. Su argumento: si alguien promete limpiar la política, no puede beneficiarse de engranajes digitales que difunden basura informativa. Organizaciones civiles llevan años pidiendo trazabilidad de la publicidad online y protocolos claros para diferenciar militancia real de automatización.

El marco legal chileno corre detrás. La Ley 19.884, que regula el gasto electoral, obliga a reportar desembolsos en propaganda —incluida la digital—, pero no aborda de forma directa el uso de cuentas automatizadas. La Ley 19.628 sobre protección de datos y la Ley 21.459 de delitos informáticos fijan límites a suplantaciones y accesos indebidos, y el Código Penal contempla injurias y calumnias. Aun así, la línea gris persiste: no todo uso de automatización es delito, pero sí puede vulnerar normas electorales o derivar en faltas civiles cuando hay difamación, acoso o suplantación.

¿Y las plataformas? Tienen políticas contra el comportamiento inauténtico y la manipulación coordinada. X (ex Twitter), Meta e Instagram anuncian desmontes periódicos de redes, y WhatsApp impone límites de reenvío. El problema es de escala: los equipos de moderación detectan campañas cuando ya impactaron. En contextos electorales, horas bastan para torcer una conversación o instalar una etiqueta falsa que condiciona a periodistas, líderes locales y votantes indecisos.

Chile no es una isla. En Estados Unidos, Brasil, México y Europa hay antecedentes documentados de automatización con fines políticos y de operaciones híbridas —parte orgánicas, parte artificiales—. El patrón se repite: piezas emocionales, supuestas “filtraciones”, videos cortos sacados de contexto y un ritmo que premia la indignación. Los bots no crean la grieta, pero la ensanchan y la vuelven rentable en términos de atención.

En el terreno, los síntomas son ya conocidos por usuarios activos: hilos que de pronto se llenan de cuentas con pocos seguidores, respuestas idénticas en cascada, y ataques coordinados contra periodistas o académicos que reportan hallazgos incómodos. La investigación alude a “fuerzas de choque” digitales que aparecen para desincentivar testimonios o corregir el encuadre de temas complejos con consignas simples.

La pregunta es qué protege hoy al votante. Hay avances desde la sociedad civil: iniciativas de verificación, manuales de alfabetización digital y equipos en universidades que rastrean narrativas falsas. Para el usuario común, tres pistas ayudan: desconfiar de mensajes categóricos sin fuente, observar si una cuenta opina de todo con la misma plantilla, y mirar el historial de publicaciones —si nació ayer y ya es “experta” en todo, mala señal—.

El caso Matthei ilustra el daño reputacional. Un video trucado no solo afecta a la destinataria; arrastra a su entorno, contamina propuestas y devora tiempo de campaña que se va en desmentir. Aunque ella desechó judicializar el episodio, el rastro digital permanece y puede reactivarse en cualquier momento ante una crisis o un nuevo hito electoral.

¿Qué viene? Transparencia radical en las campañas digitales: identificar piezas pagadas, publicar bibliotecas de anuncios y detallar segmentaciones. Auditorías independientes de actividad sospechosa —antes, durante y después de la elección—. Un código de conducta entre comandos para no usar automatización con fines de acoso. Y, cuando corresponda, sanciones administrativas por parte del Servel si se prueba financiamiento o coordinación con estructuras que violen las reglas.

En el plano político, el foco se desplazó al estándar ético. Incluso si se admite que la propaganda digital llegó para quedarse, hay un límite entre amplificar propuestas y contaminar el debate con falsedades. La negación de Kast abre otro frente: si no hay vínculo con su comando, ¿quién financia la red?, ¿con qué objetivos y bajo qué incentivos? Esas preguntas requieren más que desmentidos; exigen trazabilidad de flujos y responsabilidades.

La prensa y la academia cumplen un rol incómodo y necesario. Este tipo de investigaciones, con respaldo metodológico y revisión de pares, tensiona a los actores políticos pero también ordena la conversación pública. Obligan a las plataformas a explicar por qué ciertos comportamientos no fueron detectados y dan herramientas a la ciudadanía para entender que no todo lo que “se vuelve tendencia” es espontáneo.

El Gobierno ya encendió la alerta institucional, pero no basta con la declaración. En ciclos electorales, cada semana cuenta. Lo que se decida ahora —reglas, fiscalizaciones, compromisos— marcará la campaña que viene. Y, sobre todo, definirá si el voto se forma en un espacio competitivo de ideas o en un ruido de fondo moldeado por programas que nadie eligió y cuentas que nadie conoce.

14 Comentarios

  • Image placeholder

    Scarlett Baeza

    septiembre 14, 2025 AT 07:43
    Esto no es solo un problema de bots, es un problema de democracia. Si no controlamos esto, el voto se vuelve un espectáculo. La gente cree lo que ve en redes, sin preguntar. Y eso es peligroso.

    Hay que exigir transparencia en la publicidad digital. No puede ser que alguien gaste millones en bots y nadie lo rastree.
  • Image placeholder

    Terra Flora

    septiembre 16, 2025 AT 07:02
    La complejidad del fenómeno radica en la hibridación entre agentes orgánicos y artificiales. La narrativa se construye no solo por algoritmos, sino por la resonancia emocional que estos amplifican en comunidades ya polarizadas. La regulación legal no alcanza si no se aborda la psicología del consumo de desinformación.
  • Image placeholder

    sebastian sepulveda jofre

    septiembre 17, 2025 AT 02:06
    Es inaceptable que en una democracia se utilicen herramientas automatizadas para difamar a opositores. El derecho a la reputación y la integridad del proceso electoral deben prevalecer sobre cualquier táctica de campaña. Se requiere una acción inmediata del Servel y las plataformas digitales.
  • Image placeholder

    Roberto R Bravo

    septiembre 18, 2025 AT 03:37
    Aunque suene duro, esto es lo que pasa cuando la política se convierte en un juego de atención. La gente quiere emociones fuertes, no debates. Pero si no cambiamos esto, perdemos más que elecciones: perdemos la confianza en todo.
  • Image placeholder

    Mariano Valenzuela Blásquez

    septiembre 19, 2025 AT 15:31
    jajaja que loco que kast diga que no tiene nada que ver con esto como si no fuera su equipo el que se pone a hacer memes de la matthei con pañales jajaja yo creo que ni él sabe lo que pasa en su red
  • Image placeholder

    Maria Fernanda Valenzuela Flores

    septiembre 20, 2025 AT 13:10
    Entonces... si alguien crea un video falso y lo sube, y miles lo reenvían, ¿quién es el responsable? ¿El que lo hizo? ¿El que lo compartió? ¿O el que lo vio y lo creyó?
  • Image placeholder

    Gricel Dahyanna Sepúlveda Rozas

    septiembre 20, 2025 AT 17:08
    jajajajaja la matthei no tiene alzheimer pero si tiene cara de abuela que se olvida donde puso las llaves jajajaja y kast es el unico que no sabe nada de nada porque el es puro angelito de luz jajajaja
  • Image placeholder

    Camila Yañez

    septiembre 20, 2025 AT 22:26
    Cuando la verdad se vuelve una mercancía, y el odio, una moneda de cambio... ¿qué queda del ser humano? No es solo una campaña sucia. Es la deshumanización del debate público. Y nos estamos acostumbrando. Eso es lo más aterrador.

    ¿Cuántas veces hemos visto esto y no hemos hecho nada?
  • Image placeholder

    Sebastian Veliz Donoso

    septiembre 22, 2025 AT 04:17
    esto es lo que pasa cuando la política se convierte en un reality show 😤
    ya no importa si es verdad, importa si da clics. y los bots son los actores que nadie eligió pero todos consumen. 🤖🔥
  • Image placeholder

    Jaime Toro

    septiembre 23, 2025 AT 11:00
    ¿y quién paga esto? porque si no es Kast... entonces quien? ¿un millonario misterioso? ¿un grupo de fans obsesivos? ¿o es el mismo estado? 😏 #teoríadelconspiraciónperocondatos
  • Image placeholder

    Eduardo Cerda

    septiembre 23, 2025 AT 14:50
    Yo creo que todos estamos cansados de esto. No es solo Kast o Matthei. Es que ya no sabemos qué es real. Me encantaría que alguien hiciera un curso de cómo identificar esto en las redes. Yo quiero entender, no solo reaccionar.
  • Image placeholder

    Rodrigo Reveco

    septiembre 25, 2025 AT 01:44
    La técnica no es nueva. Lo nuevo es la escala. La guerra digital no se gana con ideas, sino con la repetición constante de una emoción. Y eso no se combate con leyes, sino con una cultura de escepticismo activo.
  • Image placeholder

    Viviana Pérez Anave

    septiembre 25, 2025 AT 04:51
    No es culpa de Kast si su base hace cosas extremas... pero tampoco es inocente. Si no controla su ecosistema, entonces está permitiendo el caos. Y en política, permitir es consentir.

    Hay que pedirle que limpie su equipo. No solo decir que no sabe nada.
  • Image placeholder

    CHI-Lucrecia Maureira

    septiembre 26, 2025 AT 08:39
    Miren, yo viví en los 90 cuando la política se hacía en los bares y en los carteles de la calle. Hoy se hace en los grupos de WhatsApp y en los comentarios de X. Y lo peor no es que haya bots, es que la gente los cree. Porque ya no confiamos en nada.

    Yo no sé si esto es legal o no. Pero sé que si mi tía ve un video de que Matthei tiene Alzheimer y lo comparte con toda la familia, ¿qué pasa? ¿Ella vota por Kast por eso? ¿Y si lo hace, es su elección? ¿O es la de un algoritmo?

    Esto no es política. Es una guerra de memoria. Y si no enseñamos a pensar, si no enseñamos a dudar, si no enseñamos a verificar... entonces no tenemos democracia. Tenemos un teatro de sombras.

    Las leyes van a tardar. Pero nosotros, aquí, ahora, podemos hacer algo: no compartir sin verificar. No reenviar sin pensar. No creer porque suena fuerte. Porque si no lo hacemos, el próximo que se va a caer no es un político. Es la verdad.

Escribir un comentario