Hay una curiosa proporción inversa en cómo la IA se está incorporando al sector de eventos corporativos. Cuanto más visible es el uso de IA durante una jornada, peor suele ser su balance riesgo/beneficio; cuanto más invisible —metido en logística, en personalización, en análisis posterior—, mayor su utilidad real. La explicación combina tres factores: regulatorio (lo que el AI Act exige a partir de agosto de 2026), económico (el problema de las "tecnologías so-so" en términos de Acemoglu) y de validez (los efectos producidos por novedad no son los efectos producidos por aprendizaje).
IA front-stage: sistema percibido por los participantes, presentado como parte de la experiencia (avatar, chatbot interactivo, deepfake, generación en directo). IA back-stage: sistema operando en logística, personalización o análisis, no expuesto al usuario final. Casi todos los problemas legales, reputacionales y de medición se concentran en el primer grupo. Casi todo el valor real, en el segundo.
El hype cycle aplicado al sector
El modelo de Gartner del ciclo de hype tecnológico es útil aquí, aunque tenga sus críticas metodológicas. Después del lanzamiento masivo de modelos generativos en 2022-2023, la curva paso por su pico de expectativas infladas y, durante 2024-2025, ha entrado en una fase de desencanto donde los proyectos empresariales que prometían transformar todo no han producido los retornos esperados. Las cifras que han ido publicando McKinsey, BCG y Stanford AI Index entre 2024 y 2026 muestran una distancia notable entre adopción declarada y productividad medida.
En el sector de eventos corporativos, la curva ha sido similar pero con dos años de retraso. La oferta de "experiencias con IA" se multiplicó a partir de 2024. Avatares de directivos generados con clones de voz. Chatbots interactivos que hablan con los participantes durante una actividad. Deepfakes de personajes históricos para sesiones formativas. Imágenes generadas en directo a partir de aportaciones del público. La pregunta operativa para quien diseña y compra estas jornadas no es si funcionan en el sentido vago de "los participantes lo recuerdan" —novedad genera recuerdo, eso no es ciencia—; es si producen el efecto buscado mejor que la alternativa sin IA, y si lo producen sin abrir flancos legales o reputacionales.
La respuesta empírica, en mi experiencia hasta ahora, es que no compensan. Pero antes de entrar en por qué, conviene poner sobre la mesa la distinción que hace el resto de este texto inteligible.
Front-stage vs back-stage
La distinción entre front-stage y back-stage la tomo prestada de Erving Goffman, que la usaba para hablar de la presentación del yo en la vida cotidiana. Aplicada a la IA en eventos: front-stage es lo que el participante ve, identifica como IA y experimenta como parte central del evento. Back-stage es lo que opera fuera de la atención del participante: el algoritmo que asigna mesas para maximizar diversidad, el sistema que ajusta el contenido de cada bloque a las características del equipo, el modelo de NLP que procesa los comentarios libres de la encuesta de cierre y produce un informe accionable.
Las dos tienen costes y beneficios distintos. La IA front-stage genera percepción de modernidad y facilita la venta del evento como tecnológicamente avanzado. La IA back-stage no genera ese marketing, pero sí genera más valor operativo y, en general, no tiene los flancos legales que se han vuelto centrales en 2025-2026. El argumento del resto de este texto es que el balance se inclina muy claramente a favor del segundo, y que parte del trabajo de un buen diseño de jornada con IA es resistir la tentación del primero.
Cinco usos ordenados por riesgo
La forma más práctica de pensar este terreno es ordenar los usos posibles en una escala que combina exposición regulatoria, riesgo reputacional y validez del efecto. Lo hago aquí en cinco categorías, desde la menos problemática hasta la más.
Logística predictiva
IA aplicada a optimización de agendas, asignación de transporte, distribución por mesas considerando restricciones alimentarias y compatibilidades, predicción de tiempos de tránsito según el día, optimización de cadena de proveedores. Es donde la IA paga las facturas y nadie la nota. No toca datos sensibles más allá de lo que ya se manejaba con hojas de cálculo. Riesgo legal: prácticamente nulo. Beneficio operativo: alto, especialmente en eventos grandes.
Análisis de feedback post-evento
NLP sobre encuestas y comentarios libres, agrupación automática de temas, análisis de sentimiento. Útil con dos cautelas. Primera: el análisis de sentimiento de modelos abiertos sigue teniendo errores significativos en español, especialmente con ironía, lo que exige revisión humana antes de presentar conclusiones. Segunda: si los comentarios identifican personas, entran en RGPD; el procesamiento por IA debe documentarse en el registro de actividades de tratamiento. No es prohibitivo, pero no es trivial.
Personalización del contenido por equipo
Adaptar dinámicas, tiempos y formatos según el perfil del equipo —tamaño, distribución demográfica, sector, antigüedad— usando un sistema de recomendación entrenado con histórico. Útil cuando el catálogo de actividades es grande y hay datos suficientes. Riesgos: sesgos heredados del histórico de entrenamiento (si los equipos tecnológicos siempre han recibido escape rooms, el modelo seguirá recomendando escape rooms a equipos tecnológicos aunque haya mejores opciones), y necesidad de revisión humana antes de aplicar la recomendación.
IA conversacional en directo
Asistentes durante actividades (preguntas y respuestas a un bot entrenado), traducción simultánea en equipos multilingües, asistencia accesible para personas con discapacidad sensorial. Aquí entra ya el artículo 50 del AI Act: desde agosto de 2026, los participantes deben ser informados explícitamente de que están interactuando con una IA. La etiqueta no es opcional ni cosmética; forma parte de la trazabilidad. Si la conversación recoge datos personales, RGPD se suma encima.
IA generativa como espectáculo
Deepfakes de directivos como sorpresa, avatares con clon de voz, generación de imágenes o vídeos en directo a partir del input del público, "personajes históricos" interactivos. Aquí se acumulan tres problemas: obligación legal de etiquetado visible (Art. 50 AI Act, vigente desde agosto de 2026), riesgo de derecho a la propia imagen y a la voz de las personas representadas, y un problema de validez: la novedad tiene un coste de atención que se paga en otra parte del programa. Mi posición es directa: en este momento del ciclo, los desaconsejamos por defecto y, si el cliente los pide, planteamos sustituciones.
El orden no es casual. Cuanto más arriba, más invisible al participante y más útil al organizador. Cuanto más abajo, más visible y más expuesto. Hay excepciones, pero la regla general aguanta bien la prueba del caso real.
Lo que ya obliga el AI Act
El Reglamento (UE) 2024/1689, conocido como AI Act, entró en vigor el 1 de agosto de 2024 y se aplica de forma escalonada. Para cualquier empresa que use IA en sus eventos profesionales, el calendario relevante es este:
- Desde el 2 de febrero de 2025aplican las prohibiciones del artículo 5 y las obligaciones de alfabetización en IA del artículo 4. Quedan prohibidos los sistemas que reconocen emociones en el lugar de trabajo, los de manipulación subliminal y los de social scoring. Cualquier herramienta que infiera estados emocionales de participantes en una jornada (mediante cámara, voz o lenguaje corporal) entra en este perímetro.
- Desde el 2 de agosto de 2025aplican obligaciones a proveedores de modelos de propósito general (GPAI) y entran en funcionamiento los órganos nacionales de supervisión.
- Desde el 2 de agosto de 2026aplica el grueso del Reglamento, incluido el artículo 50: obligación de informar al usuario cuando interactúa con un chatbot, etiquetado obligatorio de contenido generado por IA y, específicamente, marcado claro y visible de deepfakes. La etiqueta debe ser legible por máquina además de por humanos.
- Desde el 2 de agosto de 2027aplicarán las obligaciones más estrictas para los sistemas de IA considerados componentes de seguridad de productos regulados (Artículo 6).
Las sanciones del Reglamento son significativas: hasta 35 millones de euros o el 7 % de la facturación anual global para infracciones del artículo 5, escalando a la baja para el resto de incumplimientos. No es un régimen pensado para asustar; es un régimen pensado para que el incumplimiento sea económicamente irracional.
Una nota práctica importante: el AI Act tiene aplicación extraterritorial similar al RGPD. Si una empresa española organiza una jornada en Lisboa con un proveedor de IA estadounidense, el régimen se aplica si el output del sistema de IA se usa dentro de la UE. La excusa "el proveedor está en California" no exime.
Tecnologías "so-so" (Acemoglu)
Daron Acemoglu, profesor del MIT y premio Nobel de Economía 2024, junto con Pascual Restrepo, propuso en su artículo de 2020 The Wrong Kind of AI? Artificial Intelligence and the Future of Labour Demand una distinción que resulta especialmente útil para evaluar las aplicaciones de IA en este sector. Distinguen entre tecnologías que complementan el trabajo humano —aumentan productividad sin sustituir habilidades— y tecnologías que simplemente automatizan tareas humanas con resultados mediocres y sin compensación productiva real. A las segundas las llaman "so-so technologies".
La distinción complemento / sustitución pobre (Acemoglu & Restrepo)
Una tecnología "so-so" automatiza una tarea humana de forma que el resultado es solo ligeramente peor que el humano y mucho más barato. La empresa la adopta porque ahorra coste, pero la sociedad pierde porque no hay aumento real de productividad: solo se redistribuye el valor. Aplicado a IA en eventos: un avatar generado en directo sustituye una habilidad humana de facilitación con un resultado peor que un facilitador competente, ahorrando coste pero sin entregar más valor al participante.
Acemoglu & Restrepo, "The Wrong Kind of AI?", Cambridge Journal of Regions, Economy and Society, 2020. Marco extendido en Acemoglu & Johnson, "Power and Progress", 2023.La pregunta operativa que sale de aquí es directa: ¿esta aplicación de IA está complementando una habilidad humana que el equipo organizador no tiene, o está sustituyendo una habilidad humana que tiene a un coste menor pero con resultado peor? Si es lo primero, suele compensar. Si es lo segundo, normalmente no, aunque la cuenta de resultados a corto plazo diga lo contrario, porque el cliente percibe la diferencia y los efectos se desinflan.
Aplicada a los cinco usos del apartado anterior, esta lente confirma el ranking. Logística predictiva y análisis de feedback complementan habilidades humanas (nadie iba a optimizar manualmente la asignación de mesas para 200 personas con 14 restricciones cruzadas; nadie iba a leer 800 comentarios libres y agruparlos por temas en una hora). IA generativa como espectáculo, en cambio, sustituye habilidades de facilitación, narrativa y conexión humana —habilidades caras de entrenar pero realmente diferenciales— con un sucedáneo más barato y peor.
Implicaciones de diseño
De lo anterior se siguen tres principios que aplico a cualquier propuesta donde aparece IA. Tres preguntas, no tres reglas, porque las reglas se quedan obsoletas más rápido que las preguntas.
La primera: ¿esta IA opera back-stage o front-stage? Si front-stage, ¿por qué tiene que ser visible para el participante? Si la respuesta honesta es "para que parezca más moderno", probablemente convenga sacarla del programa. Si la respuesta es "para resolver una limitación que de otro modo no se podría —por ejemplo, accesibilidad, traducción simultánea, escala—", entra con ojo a la trazabilidad regulatoria.
La segunda: ¿la IA está complementando una capacidad inexistente o sustituyendo una existente? Si sustituye, ¿el resultado es comparable al de la versión humana o peor? Si peor, ¿el ahorro lo justifica desde la perspectiva del participante, no desde la del organizador? El participante es el cliente último; si para él el resultado es peor, da igual cuánto ahorre el proveedor.
La tercera: si esta IA estuviera obligatoriamente etiquetada (como ya está pasando desde agosto de 2026 con deepfakes y desde el mismo momento con chatbots), ¿la propondríamos igual? Si no, es que estábamos contando con que el participante no se diera cuenta. Eso, en términos de Goffman, es lo opuesto de una buena puesta en escena: es engaño cosmético que se cae cuando alguien tira del hilo.
Una última cosa que conviene decir explícitamente, porque a veces se pierde en la conversación. Esto no es un texto en contra de la IA en eventos. Yo soy ingeniero, llevo años trabajando con datos y modelos, y la mitad de la mejora operativa de Froggy en los últimos dos años viene de back-stage IA en logística y análisis. Es un texto en contra de un uso concreto, dominante y vendible: el de la IA como espectáculo cosmético cuyo balance riesgo/beneficio, una vez que el AI Act está plenamente aplicable y una vez que pasa el efecto novedad, está bastante claro. La IA útil en team building es la que el participante no nota. Es la que hace su trabajo en silencio mientras el equipo organizador se concentra en lo que ningún modelo está a punto de sustituir: diseño humano, facilitación con criterio, lectura del grupo, decisión sobre el momento.
Si una propuesta vende la IA como protagonista de la jornada, casi siempre estás pagando dos veces: una al proveedor, y otra en flancos legales y validez. La IA bien usada en este sector es invisible.
Las cosas que no nota el participante pero sí mejoran su experiencia —menos esperas, mejor distribución, contenido mejor ajustado, análisis posterior accionable— son donde el dinero rinde. Las cosas que el participante nota como IA suelen estar pagando atención prestada por novedad, una atención que no se traslada al objetivo del evento. Y desde febrero de 2025, además, vienen acompañadas de un perímetro regulatorio que conviene tomarse en serio.