José Antonio Kast: investigación destapa red de bots que acosó a rivales y tensó la campaña

José Antonio Kast: investigación destapa red de bots que acosó a rivales y tensó la campaña sep, 12 2025

Un hallazgo que sacude la campaña

Una red de cuentas automáticas operando durante años para hostigar a rivales políticos, manipular conversaciones y empujar rumores. Eso es lo que describe la investigación de la unidad de reportajes de El Mostrador sobre el ecosistema digital que rodea a José Antonio Kast. El informe, basado en análisis de trazabilidad y monitoreo de redes, plantea que desde la campaña de 2021 se habrían combinado “bots amplificadores” para impulsar sus mensajes y “bots polarizadores” para atacar a competidores, con especial foco en Evelyn Matthei, figura clave de Chile Vamos.

El episodio más crudo citado por el equipo de investigación fue la circulación de videos manipulados que insinuaban que Matthei padecía Alzheimer. Ella lo calificó de “campaña asquerosa” y advirtió acciones legales que no terminó presentando. Esa pieza sintetiza el método: contenido adulterado, replicado en cadena por cuentas coordinadas, diseñado para sembrar dudas emocionales y dañar reputaciones en tiempo real.

La diputada Ana María Gazmuri (Acción Humanista) no se quedó en matices: habló de “un ejército de bots de ultraderecha operando en la sombra, manipulando la opinión pública”. Críticos del fenómeno añaden que no se trata solo de propaganda dura, sino de una estrategia que “instala odio” y normaliza el acoso digital como herramienta política. El informe dice estar respaldado por decenas de académicos de universidades chilenas que revisaron patrones y metodologías.

Kast, por su parte, tomó distancia. Negó cualquier relación con campañas de este tipo, señaló que su partido no practica estas tácticas y afirmó que solo puede responder por su propia cuenta. Aseguró, además, que sus adherentes “son respetuosos”. En su defensa está el punto central de todos estos casos: probar autoría es difícil cuando las operaciones se dispersan entre cuentas anónimas, intermediarios y canales cerrados.

El Gobierno recogió el guante. La ministra vocera, Camila Vallejo, leyó una declaración en la que remarcó el compromiso con la convivencia cívica y la democracia. Defendió el debate libre, pero advirtió que las mentiras orquestadas y el discurso de odio degradan el espacio público. Ese mensaje coloca el asunto en un marco institucional: no es solo un pleito entre partidos, es un riesgo para cómo se informa el electorado.

Cómo funciona la maquinaria y por qué importa

Cómo funciona la maquinaria y por qué importa

Los investigadores distinguen dos capas. La primera, de “amplificación”: cuentas automatizadas que replican mensajes del candidato, los citan, comentan con textos prefabricados y empujan hashtags para forzar tendencias. La segunda, de “polarización”: perfiles que responden de forma agresiva a líderes rivales, inundan con insultos o dudas, y publican piezas engañosas para mover el eje del debate. La combinación busca volumen, velocidad y efecto dominó.

¿Cómo se detecta? A través de señales repetidas. Publicaciones clonadas que aparecen en minutos, perfiles recién creados que crecen en bloque, horarios de actividad calcados, uso de las mismas plantillas de texto, y cruces entre cuentas que se retroalimentan sin pausas. El análisis de trazabilidad observa esas huellas y las conecta con campañas, eventos y picos de conversación.

El informe describe, además, el salto a plataformas de mensajería. En WhatsApp —en grupos abiertos y cerrados— circulan cadenas, memes y recortes de video ajustados para ser fáciles de reenviar. Ese circuito es difícil de auditar por su encriptación y su estructura de círculos de confianza: un contenido falso que llega por un grupo de vecinos o del colegio tiene más credibilidad que el mismo mensaje en una red abierta. La investigación sostiene que esta infraestructura viene operando al menos desde hace cinco años.

Otra pieza del rompecabezas es la administración de la huella pública del candidato. Según el reporte, los mensajes emitidos por su cuenta principal muestran un cálculo fino: timing, tono y coordinación con ecosistemas afines que entran a “empujar” el post en cuestión. No hace falta que el propio equipo ejecute los bots para que la maquinaria funcione; basta con que el andamiaje se active cada vez que hay un contenido útil para su causa.

La crítica transversal va más allá de lo técnico. La diputada Gael Yeomans pidió elevar el estándar de transparencia para quienes hacen campaña con la bandera de la probidad. Su argumento: si alguien promete limpiar la política, no puede beneficiarse de engranajes digitales que difunden basura informativa. Organizaciones civiles llevan años pidiendo trazabilidad de la publicidad online y protocolos claros para diferenciar militancia real de automatización.

El marco legal chileno corre detrás. La Ley 19.884, que regula el gasto electoral, obliga a reportar desembolsos en propaganda —incluida la digital—, pero no aborda de forma directa el uso de cuentas automatizadas. La Ley 19.628 sobre protección de datos y la Ley 21.459 de delitos informáticos fijan límites a suplantaciones y accesos indebidos, y el Código Penal contempla injurias y calumnias. Aun así, la línea gris persiste: no todo uso de automatización es delito, pero sí puede vulnerar normas electorales o derivar en faltas civiles cuando hay difamación, acoso o suplantación.

¿Y las plataformas? Tienen políticas contra el comportamiento inauténtico y la manipulación coordinada. X (ex Twitter), Meta e Instagram anuncian desmontes periódicos de redes, y WhatsApp impone límites de reenvío. El problema es de escala: los equipos de moderación detectan campañas cuando ya impactaron. En contextos electorales, horas bastan para torcer una conversación o instalar una etiqueta falsa que condiciona a periodistas, líderes locales y votantes indecisos.

Chile no es una isla. En Estados Unidos, Brasil, México y Europa hay antecedentes documentados de automatización con fines políticos y de operaciones híbridas —parte orgánicas, parte artificiales—. El patrón se repite: piezas emocionales, supuestas “filtraciones”, videos cortos sacados de contexto y un ritmo que premia la indignación. Los bots no crean la grieta, pero la ensanchan y la vuelven rentable en términos de atención.

En el terreno, los síntomas son ya conocidos por usuarios activos: hilos que de pronto se llenan de cuentas con pocos seguidores, respuestas idénticas en cascada, y ataques coordinados contra periodistas o académicos que reportan hallazgos incómodos. La investigación alude a “fuerzas de choque” digitales que aparecen para desincentivar testimonios o corregir el encuadre de temas complejos con consignas simples.

La pregunta es qué protege hoy al votante. Hay avances desde la sociedad civil: iniciativas de verificación, manuales de alfabetización digital y equipos en universidades que rastrean narrativas falsas. Para el usuario común, tres pistas ayudan: desconfiar de mensajes categóricos sin fuente, observar si una cuenta opina de todo con la misma plantilla, y mirar el historial de publicaciones —si nació ayer y ya es “experta” en todo, mala señal—.

El caso Matthei ilustra el daño reputacional. Un video trucado no solo afecta a la destinataria; arrastra a su entorno, contamina propuestas y devora tiempo de campaña que se va en desmentir. Aunque ella desechó judicializar el episodio, el rastro digital permanece y puede reactivarse en cualquier momento ante una crisis o un nuevo hito electoral.

¿Qué viene? Transparencia radical en las campañas digitales: identificar piezas pagadas, publicar bibliotecas de anuncios y detallar segmentaciones. Auditorías independientes de actividad sospechosa —antes, durante y después de la elección—. Un código de conducta entre comandos para no usar automatización con fines de acoso. Y, cuando corresponda, sanciones administrativas por parte del Servel si se prueba financiamiento o coordinación con estructuras que violen las reglas.

En el plano político, el foco se desplazó al estándar ético. Incluso si se admite que la propaganda digital llegó para quedarse, hay un límite entre amplificar propuestas y contaminar el debate con falsedades. La negación de Kast abre otro frente: si no hay vínculo con su comando, ¿quién financia la red?, ¿con qué objetivos y bajo qué incentivos? Esas preguntas requieren más que desmentidos; exigen trazabilidad de flujos y responsabilidades.

La prensa y la academia cumplen un rol incómodo y necesario. Este tipo de investigaciones, con respaldo metodológico y revisión de pares, tensiona a los actores políticos pero también ordena la conversación pública. Obligan a las plataformas a explicar por qué ciertos comportamientos no fueron detectados y dan herramientas a la ciudadanía para entender que no todo lo que “se vuelve tendencia” es espontáneo.

El Gobierno ya encendió la alerta institucional, pero no basta con la declaración. En ciclos electorales, cada semana cuenta. Lo que se decida ahora —reglas, fiscalizaciones, compromisos— marcará la campaña que viene. Y, sobre todo, definirá si el voto se forma en un espacio competitivo de ideas o en un ruido de fondo moldeado por programas que nadie eligió y cuentas que nadie conoce.