×
Versión Impresa
versión impresa
Secciones
Última Hora
Podcasts
Encuestas
Servicios
Plaza Libre
Efemérides
Cumpleaños
RSS
Juegos
Herramientas
Más
Contáctanos
Sobre Diario Libre
Aviso Legal
Redes Sociales
bots
bots

Los bots: aliados y amenazas digitales

Estos software son muy útiles en la vida diaria pero también sirven para fines perniciosos

Expandir imagen
Los bots: aliados y amenazas digitales
Realizan labores automatizadas en los equipos digitales. (FREEPIK)

Los bots son tan comunes como invisibles. Son programas automatizados capaces de ejecutar acciones repetitivas con gran eficiencia: buscar información, indexar páginas web, responder mensajes, publicar contenido en redes sociales.

Como explica el periodista tecnológico Isaac Ramírez, los social bots “son software que corren algo llamado script, pequeños programas que pueden hacer tareas de forma automática”. Ese es el núcleo: automatizar lo que a una persona le tomaría horas.

Su papel no es menor. Se estima que cerca de la mitad del tráfico en internet es generado por bots, muchos de ellos legítimos. Ahí entran los bots de indexación de motores de búsqueda como Google o Bing, que recorren sitios web para mantener los resultados de búsqueda actualizados; los asistentes de atención al cliente que responden preguntas básicas; los bots que monitorean palabras clave y arman reportes en tiempo real. Sin ese trabajo de fondo, la web sería más lenta, más caótica y menos navegable.

Pero el mismo poder que los hace útiles los convierte en un riesgo cuando se usan con malas intenciones. En manos equivocadas, los bots sirven para manipular opinión pública, fabricar fama falsa, acosar, hundir reputaciones, empujar fraudes y hasta influir en decisiones emocionales de menores de edad. Lo que sigue no es teoría: son prácticas que ya están ocurriendo.

Herramientas útiles

No todos los bots son malos. Hay bots que avisan sobre terremotos o mal clima casi al instante. Bots que publican automáticamente información oficial en redes sociales. Otros analizan grandes volúmenes de datos médicos o financieros y entregan resúmenes digeribles. En esencia, un bot es una herramienta.

Lo que cambia es el propósito del que lo controla. Ahí aparece la línea fina: el mismo mecanismo que te da un servicio inmediato puede ser usado para empujar una mentira a escala industrial.

Formas de abuso

Los usos maliciosos más comunes ya están bastante claros:

  • Inflar artificialmente la popularidad: comprar visualizaciones, “me gustas”, seguidores o comentarios falsos para simular relevancia o apoyo masivo.
  • Manipulación política y desinformación: coordinar cuentas automatizadas para posicionar etiquetas, instalar narrativas, distorsionar un debate público o influir en un proceso electoral.
  • Acoso y silenciamiento: hostigar a periodistas, activistas o ciudadanos con ataques coordinados para intimidar y callar voces.
  • Fraudes financieros: crear un supuesto “boom” alrededor de una acción o una criptomoneda para enganchar inversionistas ingenuos y luego sacar provecho.
  • Spam y malware: distribuir en masa enlaces maliciosos, estafas y phishing a través de cuentas que parecen normales.

En varios de estos casos, no se trata solo de bots 100% automáticos, sino de redes mixtas: personas que escriben y bots que amplifican. El resultado es el mismo: volumen artificial y engañoso.

Manipulación de redes 

Una de las prácticas más agresivas hoy son las llamadas “granjas de bots”. Visualízalo: racks llenos de decenas o cientos de teléfonos, todos conectados, todos manejados por software.

Cada teléfono tiene múltiples cuentas falsas en distintas plataformas. Esas cuentas actúan como si fueran usuarios reales: dan “me gusta”, comentan, comparten enlaces, reproducen videos, retuitean consignas. Miles de interacciones falsas en minutos.

¿Para qué? Para engañar al algoritmo. Plataformas como Instagram, YouTube, Facebook o X (Twitter) detectan un pico repentino de actividad y asumen que cierto contenido “está explotando”. Entonces lo empujan a más usuarios. Lo que empezó siendo ruido fabricado se convierte en alcance real.

Meta, la empresa dueña de Facebook e Instagram, llama a esto “comportamiento inauténtico coordinado”: actividad masiva, sincronizada y falsa, diseñada para parecer orgánica. El problema es que, cuando las cuentas están bien armadas (foto creíble, publicaciones antiguas, interacción simulada entre ellas) distinguir lo falso de lo humano se vuelve muy difícil.

Este tipo de operación ya no es solo comercial (marcas que quieren inflar su popularidad). También es política. Expertos en ciberseguridad han documentado que redes de bots han sido utilizadas por actores vinculados a países como Rusia, China, Irán, Turquía y Corea del Norte para amplificar narrativas específicas, atacar adversarios o sembrar desconfianza en instituciones.

Es el mismo método: aparentar que “la gente” dice algo, cuando en realidad lo dice un enjambre automático. En las elecciones estadounidenses de 2016 hubo un precedente claro: miles de cuentas automatizadas ayudaron a empujar desinformación y propaganda, reforzando mensajes polarizantes y explotando divisiones sociales.

El riesgo es obvio: si controlas la conversación aparente, condicionas qué cree la gente que es opinión mayoritaria.

Esto tiene un efecto directo: trending topics fabricados, apoyo simulado, rechazo simulado. Lo que el público percibe como “lo que piensa todo el mundo” puede haber sido decidido por un operador con un panel de control y un presupuesto.

Acoso automatizado

El segundo gran abuso es el acoso coordinado. Aquí el objetivo no es inflar a alguien, sino destruirlo. Funciona así: un grupo organiza una red de cuentas (muchas de ellas bots) para atacar a una persona específica.

Lluvia de insultos, hostigamiento directo, amenazas, campañas de desprestigio. Esa avalancha crea la impresión de que hay una multitud real indignada. El blanco puede ser una periodista, una activista, un estudiante, quien sea.

Exoperadores de estas redes han descrito cómo dentro de estas campañas existían cuentas dedicadas solo a agredir, conocidas internamente como “troles beta”. Su tarea era responder rápido y sucio a cada publicación de la víctima hasta cansarla, aislarla o intimidarla.

El método funciona: mucha gente, bajo ese bombardeo, empieza a autocensurarse o directamente abandona el espacio público. Este es el punto. No es debate. Es silenciamiento estratégico.

Para las plataformas, frenarlo es complicado. El atacante puede borrar una cuenta y abrir otra en minutos. Y mientras esas cuentas parezcan humanas. Todo esto, lo que persigue es ensuciar el discurso público, y la víctima, que es una persona real, paga el costo emocional.

Fraude financiero

Bots y dinero van juntos. En foros bursátiles y grupos de criptomonedas circulan mensajes masivos estilo “esta acción va a explotar, compra ahora”. Muchas veces no hay nada detrás, excepto el interés del que empuja la alerta para inflar el precio y luego vender antes del derrumbe. Es manipulación del mercado disfrazada de consejo viral. Y sí, hay gente que ha perdido ahorros así. En paralelo están los bots dedicados al spam y el phishing. Cuentas automáticas que publican o envían enlaces a supuestas ofertas, sorteos falsos, “premios”, inversiones mágicas. Su trabajo es volumen puro. También existen botnets que se usan como armas: por ejemplo, para lanzar ataques de denegación de servicio (DDoS), saturando servidores con tráfico para servicios o extorsionar empresas.

TEMAS -

Periódico líder de República Dominicana centrado en las noticias generales y el periodismo innovador.