×
Versión Impresa
Secciones
Última Hora
Podcasts
Encuestas
Servicios
Plaza Libre
Efemérides
Cumpleaños
RSS
Juegos
Herramientas
Más
Contáctanos
Sobre Diario Libre
Aviso Legal
Redes Sociales

La inteligencia artificial y la hora de los límites

Los modelos generativos pueden producir información incorrecta con apariencia de veracidad, amplificar sesgos o reproducir exclusiones que luego se naturalizan en procesos internos

Expandir imagen
La inteligencia artificial y la hora de los límites
La inteligencia artificial no es, por definición, una amenaza. Tampoco es neutral. Amplifica lo que somos y la forma en cómo decidimos actuar. (SHUTTERSTOCK)

Hace apenas unos días, la herramienta de generación de video por inteligencia artificial Seedance, desarrollada por la empresa china ByteDance, acaparó la conversación en medios especializados.

La plataforma produce clips con la nitidez y coherencia visual que, hasta hace muy poco, solo podían lograrse con equipos de producción de alto nivel.

En uno de los ejemplos más comentados, el actor Will Smith aparecía comiendo espaguetis, ensuciándose el rostro y bromeando con la boca llena. La escena resultaba imposible de distinguir de una grabación real.

No es un caso aislado. ElevenLabs ya ofrece clonación de voz con un realismo inquietante y comercializa chatbots para empresas que buscan atención permanente. En paralelo, plataformas como Jira, Miro o Trello integran funciones predictivas que hace apenas unos años no formaban parte del paisaje cotidiano del trabajo corporativo.

Las ventajas

Desde el punto de vista operativo, la ganancia es evidente. Más velocidad, menos costos, mejores entregables. Hoy una presentación puede incorporar simulaciones visuales o recreaciones de producto que antes requerían presupuestos elevados y equipos especializados. La democratización tecnológica es real.

Pero la discusión no puede agotarse ahí. Cada ola tecnológica trae consigo una narrativa de entusiasmo que tiende a eclipsar las preguntas incómodas.

Y en el caso de la inteligencia artificial, esas preguntas no son menores.

A inicios de año, la circulación masiva de imágenes manipuladas de figuras públicas generadas con herramientas como Grok —vinculada a la red social X— puso en evidencia la facilidad con la que la línea que separa lo real de lo fabricado puede diluirse.

Poco después, miles de usuarios, incluyendo líderes políticos y figuras del entretenimiento, participaron en dinámicas virales pidiendo a modelos generativos que los caricaturizaran con base en los datos que supuestamente "sabían" de ellos.

La inteligencia artificial funciona a partir de datos. Siempre. Cuando una organización utiliza estos sistemas para definir estrategias, analizar escenarios o redactar narrativas, introduce información —en ocasiones "sensible"— en plataformas que no controla plenamente.

Incluso en entornos empresariales cerrados, la arquitectura tecnológica y las reglas de gobernanza de datos responden a terceros. Este hecho debería obligar a una reflexión más sesuda.

Ética y seguridad

Existe además una dimensión ética relevante. Los modelos generativos pueden producir información incorrecta con apariencia de veracidad, amplificar sesgos o reproducir exclusiones que luego se naturalizan en procesos internos. En manos inexpertas o simplemente descuidadas, la eficiencia técnica puede convertirse en un atajo riesgoso que erosione en horas la reputación construida durante décadas.

El debate, por tanto, ya no es si usar o no usar inteligencia artificial. Esa discusión quedó atrás. Apple intentó retrasar su integración plena en este terreno, pero terminó incorporando estas capacidades ante la presión competitiva. Google reaccionó tras la llegada de OpenAI y el lanzamiento de ChatGPT. La tendencia, irreversible.

La pregunta verdaderamente importante es otra: ¿dónde trazamos la línea? En comunicación corporativa, salvaguardar la voz institucional es una responsabilidad estratégica. Y aquí aparece un fenómeno interesante.

Por más sofisticado que sea el prompting, los modelos actuales comparten patrones semánticos y estéticos reconocibles. Hay un estilo común en muchos textos generados por IA. Si la organización no tiene claridad sobre su identidad narrativa, corre el riesgo de difuminar su diferenciación.

El segundo límite es la seguridad. No se trata únicamente de evitar filtraciones evidentes. También implica impedir que, de manera inadvertida, se construyan bases de datos externas capaces de anticipar decisiones, identificar prioridades o reconstruir la lógica interna de una empresa.

Proteger la información dejó de ser un asunto puramente técnico y pasó a convertirse en una parte central de la estrategia reputacional.

Estamos ante un momento bisagra. La inteligencia artificial seguirá avanzando y lo hará más rápido de lo que pensamos. Precisamente por eso, las organizaciones necesitan reglas claras: qué información puede compartirse, en qué procesos la supervisión humana es obligatoria, cómo se auditan los resultados y bajo qué criterios éticos se toman decisiones apoyadas en algoritmos.

La eficiencia es deseable. La innovación también. Pero ninguna de las dos puede sustituir la responsabilidad.

La inteligencia artificial no es, por definición, una amenaza. Tampoco es neutral. Amplifica lo que somos y la forma en cómo decidimos actuar. En comunicación corporativa, donde lo principal es la confianza, hablar de límites no es un gesto conservador. Es una señal de valentía, responsabilidad y madurez.

TEMAS -

Profesional de la comunicación, especializado en la dirección y planificación de estrategias alineadas a los objetivos de negocio. Es director de Cuentas en Newlink Dominicana.