Durante años pensamos que la desinformación era un problema de contenido: noticias falsas, titulares engañosos, propaganda disfrazada. Pero esa lectura hoy resulta insuficiente, casi ingenua. Lo que enfrentamos no es una crisis de información, sino una crisis de infraestructura.
La desinformación dejó de ser una pieza aislada para convertirse en un sistema optimizado. Un sistema que produce, distribuye, mide y mejora narrativas a escala industrial. Un sistema donde los bots no son anomalías, sino piezas funcionales dentro de una maquinaria más grande: la economía de la atención.
Y en ese sistema, la pregunta ya no es qué es verdad, sino qué logra circular mejor.
El paso de internet humano a internet automatizado
Internet alguna vez fue un espacio con fricción. Publicar requería esfuerzo, y la distribución dependía de enlaces y comunidades relativamente estables. Pero ese modelo colapsó.
Hoy vivimos en un “internet de ranking”: plataformas donde lo que ves no es lo más relevante, sino lo más optimizado para generar reacción. Likes, comentarios, tiempo de visualización. Todo convertido en señales que alimentan algoritmos.
Este cambio introdujo un bucle peligroso: lo que provoca emociones intensas —indignación, miedo, identidad— obtiene más visibilidad, lo que a su vez incentiva su reproducción.
La evidencia es incómoda: lo falso no solo existe, sino que se difunde más rápido, más lejos y con mayor alcance que lo verdadero. Y no necesariamente porque haya más bots, sino porque hay más humanos dispuestos a interactuar con lo que les impacta emocionalmente .
Aquí aparece el primer quiebre conceptual importante: los bots no crean la desinformación por sí solos. La amplifican dentro de un sistema que ya está predispuesto a favorecerla.
Qué son realmente los bots hoy
La imagen clásica del bot —una cuenta automatizada que repite mensajes— está desactualizada.
Hoy los bots son híbridos. Combinan automatización con intervención humana. Se coordinan, aprenden, se adaptan. Y sobre todo, no buscan convencerte directamente: buscan alterar el entorno en el que decides qué creer.
Un bot moderno puede:
- Inflar artificialmente la popularidad de un tema
- Simular consenso social
- Generar hostigamiento coordinado
- Activar algoritmos de recomendación
En ese sentido, su función es más estructural que narrativa. No importa tanto lo que dicen, sino lo que hacen parecer real.
El concepto clave aquí es “comportamiento inauténtico coordinado”: redes de cuentas que actúan juntas para manipular la percepción pública. No se trata de una cuenta falsa, sino de una campaña completa operando como sistema .
La nueva desinformación: cuando la IA escribe la realidad
El salto más importante de los últimos años no es la existencia de bots, sino su evolución gracias a la inteligencia artificial.
Los modelos generativos —los mismos que hoy usamos en herramientas como ChatGPT— han reducido drásticamente el costo de producir contenido. Ya no se trata de copiar y pegar mensajes, sino de generar miles de variaciones creíbles, adaptadas culturalmente y optimizadas para diferentes audiencias.
Esto cambia todo.
Antes, la limitación era humana: escribir, traducir, adaptar. Hoy, esa barrera desaparece. Un operador puede generar:
- Comentarios en múltiples idiomas
- Narrativas adaptadas a contextos locales
- Identidades completas (perfiles, biografías, tono)
- Respuestas automáticas en tiempo real
La desinformación deja de ser estática y se vuelve dinámica, iterativa. Se prueba, se mide, se optimiza. Exactamente como una campaña de marketing.
En BiTech ya lo hemos visto desde otro ángulo: cuando analizamos el uso real de herramientas como ChatGPT, queda claro que su valor no está solo en responder preguntas, sino en automatizar procesos completos. El problema es que esa misma lógica se aplica también a la manipulación.
Casos reales: cuando la teoría se vuelve operación
Hablar de bots puede sonar abstracto hasta que se observan casos concretos.
En procesos electorales, investigaciones han documentado operaciones completas que combinan cuentas falsas, anuncios segmentados y contenido diseñado para explotar divisiones sociales. El objetivo no es necesariamente convencer, sino generar ruido, polarización y desconfianza .
En Europa, campañas como “Doppelganger” han replicado sitios de medios legítimos para distribuir contenido falso con apariencia real. No se trata de mentir abiertamente, sino de simular credibilidad.
En mercados financieros, especialmente en criptomonedas, los bots se utilizan para generar expectativas artificiales —el clásico pump and dump— donde la desinformación no busca persuadir, sino coordinar comportamiento económico.
Y en plataformas de video y redes sociales, se han detectado patrones como “comentarios en cascada”: una publicación inicial seguida por múltiples respuestas coordinadas que simulan conversación orgánica.
Lo interesante no es solo que existan estos casos, sino que comparten una lógica común: manipular señales que los algoritmos interpretan como relevancia.
El rol de las plataformas y sus incentivos
Aquí es donde la conversación se vuelve incómoda.
Las plataformas no fueron diseñadas para difundir verdad. Fueron diseñadas para maximizar engagement.
Y eso tiene consecuencias.
Cuando un sistema premia la interacción, inevitablemente favorece contenido que genera reacción. No importa si es verdadero, falso o ambiguo. Lo que importa es que funcione.
Esto no significa que las plataformas “quieran” desinformar. Significa que su modelo de negocio crea condiciones donde la desinformación puede prosperar.
Incluso estudios recientes muestran que cambiar el feed algorítmico por uno cronológico modifica qué tipo de contenido se consume, pero no resuelve el problema de fondo. Porque el problema no es solo el algoritmo, sino todo el ecosistema: usuarios, creadores, incentivos económicos .
En este contexto, las demandas contra plataformas tecnológicas no son solo legales. Son síntomas de una tensión más profunda: quién es responsable de la infraestructura informativa global.
Por qué este problema no es un accidente
Es tentador pensar que la desinformación es una falla del sistema. Pero la evidencia sugiere lo contrario. Es una consecuencia del sistema.
Cuando el costo de producir contenido tiende a cero (gracias a la IA) y la recompensa por captar atención sigue siendo alta, el resultado es predecible: sobreproducción de contenido optimizado para enganchar, no para informar.
En ese escenario, la desinformación no es una anomalía. Es una estrategia rentable. Y como toda estrategia rentable, genera una industria:
- Operadores políticos
- Empresas de influencia
- Granjas de engagement
- Redes de fraude financiero
Todos explotando las mismas dinámicas.
Cómo detectar (o no) la manipulación
Aquí viene otra verdad incómoda: detectar bots no es sencillo.
No existe una prueba definitiva. Solo probabilidades.
Las señales tradicionales —actividad constante, lenguaje repetitivo— siguen siendo útiles, pero cada vez menos. La IA ha mejorado la calidad del contenido, haciendo más difícil distinguir entre humano y máquina.
Por eso, el foco está cambiando: de detectar cuentas individuales a identificar patrones de coordinación.
Sincronización de publicaciones. Repetición de estructuras. Redes que se activan juntas.
Y aun así, la atribución sigue siendo uno de los mayores desafíos. Saber que hay manipulación no implica saber quién está detrás.
En paralelo, los deepfakes añaden otra capa de complejidad. Ya no basta con ver un video o escuchar un audio. La evidencia audiovisual ha perdido su estatus privilegiado.
El resultado es un fenómeno aún más peligroso: no solo aumenta la posibilidad de engaño, sino también la plausibilidad del negacionismo. Todo puede ser falso. O todo puede ser desestimado como falso.
LATAM: un laboratorio silencioso
En Latinoamérica, este fenómeno adquiere características particulares. Primero, por la infraestructura: alta penetración de redes sociales y mensajería, especialmente WhatsApp, donde la trazabilidad es baja y la verificación es difícil.
Segundo, por el contexto político: procesos electorales intensos, polarización creciente y menor confianza institucional.
En Chile, por ejemplo, estudios recientes han detectado actividad de bots durante la elección presidencial de 2021, evidenciando diferencias en cómo operaban en torno a distintas candidaturas .
También se ha documentado la circulación de desinformación en grupos públicos de WhatsApp durante procesos como el Consejo Constitucional 2023.
A nivel institucional, existen esfuerzos —como la Comisión Asesora contra la Desinformación— pero el marco regulatorio sigue siendo fragmentado y tensionado por debates sobre libertad de expresión.
Esto posiciona a la región en un lugar complejo: altamente expuesta, pero con menos herramientas para responder.
El impacto en la sociedad: de la mentira al cinismo
El efecto más profundo de la desinformación no es que la gente crea cosas falsas. Es que deja de creer en cualquier cosa. Ese es el verdadero daño estructural: la erosión de la confianza.
Cuando todo parece manipulable, la respuesta natural es el cinismo. Y el cinismo es terreno fértil para la inacción, la polarización y la deslegitimación de instituciones.
En ese sentido, la desinformación no necesita convencerte de una mentira específica. Basta con hacerte dudar de todo. Y en ese mundo, la verdad pierde valor como categoría operativa.
Conclusión: el problema no es el contenido, es el sistema
La discusión sobre bots suele enfocarse en tecnología. Pero el problema real es más profundo. No es que existan bots. Es que funcionan.
Funcionan porque operan dentro de un sistema que premia la visibilidad por sobre la veracidad. Funcionan porque explotan debilidades humanas amplificadas por algoritmos. Funcionan porque son rentables.
Y mientras ese sistema no cambie, cualquier solución será parcial.
La pregunta entonces no es cómo eliminar la desinformación. Es si estamos dispuestos a rediseñar la infraestructura que la hace inevitable. Porque en la era de los bots, la verdad ya no compite contra la mentira.
Compite contra sistemas optimizados para ignorarla.






