En 2024, la IA está amplificando silenciosamente la desinformación, afectando tanto a campañas políticas como a empresas, que deben adoptar medidas proactivas para proteger su reputación.
En un año clave para la política global, 2024 se perfilaba como el escenario donde la inteligencia artificial (IA) tendría un impacto significativo en los procesos electorales, especialmente en Estados Unidos. Sin embargo, la realidad está tomando un rumbo distinto al esperado.
Lejos de ver una avalancha de deepfakes o noticias fabricadas que cambien la opinión pública, la IA está actuando de una manera más sutil y peligrosa: amplificando la desinformación ya existente y profundizando la
polarización social. Y no solo los políticos son vulnerables; el sector privado, especialmente las empresas con alta visibilidad pública, está igualmente expuestas y tienen mucho que aprender de este fenómeno.
Las empresas que se encuentran en momentos de alta exposición mediática —como lanzamientos de productos, rebranding o fusiones— son objetivos atractivos para ataques de desinformación. Las estructuras de recompensa de las redes sociales han cambiado y ahora impulsan la compartición rápida y sensacionalista de información, lo que fomenta la propagación de noticias falsas a gran escala.
Este riesgo afecta tanto a las empresas como a los políticos y se ha vuelto esencial para el sector privado aprender de lo que ocurre en el entorno político para proteger su reputación. «Nos preocupaba que la IA inundara las elecciones con noticias falsas y videos deepfake, creando realidades paralelas; pero lo que hemos visto es una amenaza menos obvia: la IA amplifica y distribuye contenido engañoso de manera casi imperceptible para el público», señala Adolfo Corujo, socio y director general corporativo de talento e innovación de LLYC, en el podcast «Esto es lo que AI».
«Esta amenaza sutil está cambiando la forma en que las campañas manejan la comunicación y obliga a
las marcas y candidatos a estar más vigilantes que nunca».
Un estudio reciente del Pew Research Center, reveló que el 57% de los adultos estadounidenses están muy preocupados de que la IA se utilice para difundir información falsa sobre los candidatos.
Aunque algunos ejemplos como la imagen falsa de Taylor Swift apoyando a Donald Trump han acaparado titulares, el peligro real está en la capacidad de la IA para amplificar teorías conspirativas y manipular el discurso público en redes sociales, algo que se extiende a las empresas y marcas.
Un análisis más profundo del fenómeno revela que, en las elecciones de Reino Unido y Europa de 2024, no hubo pruebas de que la desinformación habilitada por IA influyera significativamente en los resultados, según un estudio de The Alan Turing Institute 2 .
La razón es que la mayoría del contenido manipulado fue visto por usuarios que ya compartían esas creencias políticas, lo que consolidó sus perspectivas en lugar de cambiar la opinión de los votantes indecisos. Esto mismo puede suceder en el entorno corporativo: la desinformación no siempre busca alterar la opinión pública general, sino reforzar ideas preconcebidas entre grupos específicos de consumidores o accionistas.
Además, un estudio de la Universidad del Sur de California (USC) mostró que un pequeño grupo de usuarios tiene un impacto desproporcionado en la difusión de información falsa. Solo el 15% de los usuarios más activos en compartir noticias fueron responsables de entre el 30% y el 40% de las noticias falsas distribuidas en redes sociales 3 .
Esto es preocupante porque demuestra cómo un grupo reducido puede influir enormemente en la percepción pública, algo que también afecta la imagen y la reputación de las empresas cuando se enfrentan a campañas de desinformación.
Asimismo, las empresas que tienen directores ejecutivos con alta visibilidad en redes sociales o aquellas que están involucradas en transacciones públicas importantes, como una oferta pública (IPO) o una fusión, son objetivos preferidos para los ataques de desinformación.
Estos ataques pueden aprovechar la IA para crear contenidos que se diseminan rápidamente, distorsionando la percepción pública. este panorama, LLYC, firma global de Marketing y Corporate Affairs, sugiere que las empresas adopten estrategias proactivas para proteger su identidad y reputación:
1. Monitorear y aprovechar las redes sociales: Es fundamental vigilar los canales sociales
en tiempo real para anticipar y detectar posibles campañas de desinformación en sus
primeras etapas.
2. Blindar la identidad de la marca: Crear una estrategia sólida que fortalezca la credibilidad
de la empresa ante posibles ataques de desinformación, anticipando riesgos antes de que
se materialicen.
3. Desarrollar un plan de recuperación: Integrar un plan de respuesta a la desinformación
dentro del programa de gestión de crisis de la empresa, para actuar rápida y efectivamente
ante cualquier amenaza que afecte la reputación de la marca.