Tecnología · Cultura

Inteligencia artificial en el team building: la IA útil es la que no se ve durante la jornada

El sector está en plena fase de hype: cada vez más eventos venden "experiencia con IA" como diferenciador, casi siempre con avatares de directivos, chatbots de atrezzo o deepfakes con licencia. La evidencia y la nueva regulación europea apuntan en otra dirección. Cinco usos ordenados por riesgo, lo que ya obliga el AI Act y por qué la IA visible es la más expuesta a problemas legales y de validez.

Adrián Azpilicueta, cofundador de Froggy Events Por Adrián Azpilicueta · Cofundador · 13 min de lectura

Hay una curiosa proporción inversa en cómo la IA se está incorporando al sector de eventos corporativos. Cuanto más visible es el uso de IA durante una jornada, peor suele ser su balance riesgo/beneficio; cuanto más invisible —metido en logística, en personalización, en análisis posterior—, mayor su utilidad real. La explicación combina tres factores: regulatorio (lo que el AI Act exige a partir de agosto de 2026), económico (el problema de las "tecnologías so-so" en términos de Acemoglu) y de validez (los efectos producidos por novedad no son los efectos producidos por aprendizaje).

Distinción operativa

IA front-stage: sistema percibido por los participantes, presentado como parte de la experiencia (avatar, chatbot interactivo, deepfake, generación en directo). IA back-stage: sistema operando en logística, personalización o análisis, no expuesto al usuario final. Casi todos los problemas legales, reputacionales y de medición se concentran en el primer grupo. Casi todo el valor real, en el segundo.

El hype cycle aplicado al sector

El modelo de Gartner del ciclo de hype tecnológico es útil aquí, aunque tenga sus críticas metodológicas. Después del lanzamiento masivo de modelos generativos en 2022-2023, la curva paso por su pico de expectativas infladas y, durante 2024-2025, ha entrado en una fase de desencanto donde los proyectos empresariales que prometían transformar todo no han producido los retornos esperados. Las cifras que han ido publicando McKinsey, BCG y Stanford AI Index entre 2024 y 2026 muestran una distancia notable entre adopción declarada y productividad medida.

En el sector de eventos corporativos, la curva ha sido similar pero con dos años de retraso. La oferta de "experiencias con IA" se multiplicó a partir de 2024. Avatares de directivos generados con clones de voz. Chatbots interactivos que hablan con los participantes durante una actividad. Deepfakes de personajes históricos para sesiones formativas. Imágenes generadas en directo a partir de aportaciones del público. La pregunta operativa para quien diseña y compra estas jornadas no es si funcionan en el sentido vago de "los participantes lo recuerdan" —novedad genera recuerdo, eso no es ciencia—; es si producen el efecto buscado mejor que la alternativa sin IA, y si lo producen sin abrir flancos legales o reputacionales.

La respuesta empírica, en mi experiencia hasta ahora, es que no compensan. Pero antes de entrar en por qué, conviene poner sobre la mesa la distinción que hace el resto de este texto inteligible.

Front-stage vs back-stage

La distinción entre front-stage y back-stage la tomo prestada de Erving Goffman, que la usaba para hablar de la presentación del yo en la vida cotidiana. Aplicada a la IA en eventos: front-stage es lo que el participante ve, identifica como IA y experimenta como parte central del evento. Back-stage es lo que opera fuera de la atención del participante: el algoritmo que asigna mesas para maximizar diversidad, el sistema que ajusta el contenido de cada bloque a las características del equipo, el modelo de NLP que procesa los comentarios libres de la encuesta de cierre y produce un informe accionable.

Las dos tienen costes y beneficios distintos. La IA front-stage genera percepción de modernidad y facilita la venta del evento como tecnológicamente avanzado. La IA back-stage no genera ese marketing, pero sí genera más valor operativo y, en general, no tiene los flancos legales que se han vuelto centrales en 2025-2026. El argumento del resto de este texto es que el balance se inclina muy claramente a favor del segundo, y que parte del trabajo de un buen diseño de jornada con IA es resistir la tentación del primero.

Cinco usos ordenados por riesgo

La forma más práctica de pensar este terreno es ordenar los usos posibles en una escala que combina exposición regulatoria, riesgo reputacional y validez del efecto. Lo hago aquí en cinco categorías, desde la menos problemática hasta la más.

01
Back-stage · Riesgo bajo

Logística predictiva

IA aplicada a optimización de agendas, asignación de transporte, distribución por mesas considerando restricciones alimentarias y compatibilidades, predicción de tiempos de tránsito según el día, optimización de cadena de proveedores. Es donde la IA paga las facturas y nadie la nota. No toca datos sensibles más allá de lo que ya se manejaba con hojas de cálculo. Riesgo legal: prácticamente nulo. Beneficio operativo: alto, especialmente en eventos grandes.

02
Back-stage · Riesgo bajo-medio

Análisis de feedback post-evento

NLP sobre encuestas y comentarios libres, agrupación automática de temas, análisis de sentimiento. Útil con dos cautelas. Primera: el análisis de sentimiento de modelos abiertos sigue teniendo errores significativos en español, especialmente con ironía, lo que exige revisión humana antes de presentar conclusiones. Segunda: si los comentarios identifican personas, entran en RGPD; el procesamiento por IA debe documentarse en el registro de actividades de tratamiento. No es prohibitivo, pero no es trivial.

03
Back-stage · Riesgo medio

Personalización del contenido por equipo

Adaptar dinámicas, tiempos y formatos según el perfil del equipo —tamaño, distribución demográfica, sector, antigüedad— usando un sistema de recomendación entrenado con histórico. Útil cuando el catálogo de actividades es grande y hay datos suficientes. Riesgos: sesgos heredados del histórico de entrenamiento (si los equipos tecnológicos siempre han recibido escape rooms, el modelo seguirá recomendando escape rooms a equipos tecnológicos aunque haya mejores opciones), y necesidad de revisión humana antes de aplicar la recomendación.

04
Front-stage · Riesgo medio-alto

IA conversacional en directo

Asistentes durante actividades (preguntas y respuestas a un bot entrenado), traducción simultánea en equipos multilingües, asistencia accesible para personas con discapacidad sensorial. Aquí entra ya el artículo 50 del AI Act: desde agosto de 2026, los participantes deben ser informados explícitamente de que están interactuando con una IA. La etiqueta no es opcional ni cosmética; forma parte de la trazabilidad. Si la conversación recoge datos personales, RGPD se suma encima.

05
Front-stage · Riesgo alto

IA generativa como espectáculo

Deepfakes de directivos como sorpresa, avatares con clon de voz, generación de imágenes o vídeos en directo a partir del input del público, "personajes históricos" interactivos. Aquí se acumulan tres problemas: obligación legal de etiquetado visible (Art. 50 AI Act, vigente desde agosto de 2026), riesgo de derecho a la propia imagen y a la voz de las personas representadas, y un problema de validez: la novedad tiene un coste de atención que se paga en otra parte del programa. Mi posición es directa: en este momento del ciclo, los desaconsejamos por defecto y, si el cliente los pide, planteamos sustituciones.

El orden no es casual. Cuanto más arriba, más invisible al participante y más útil al organizador. Cuanto más abajo, más visible y más expuesto. Hay excepciones, pero la regla general aguanta bien la prueba del caso real.

Diseño de jornadas
Si te interesa explorar IA en eventos sin abrir flancos legales, hablemos del balance front-stage/back-stage.
Contactar

Lo que ya obliga el AI Act

El Reglamento (UE) 2024/1689, conocido como AI Act, entró en vigor el 1 de agosto de 2024 y se aplica de forma escalonada. Para cualquier empresa que use IA en sus eventos profesionales, el calendario relevante es este:

Las sanciones del Reglamento son significativas: hasta 35 millones de euros o el 7 % de la facturación anual global para infracciones del artículo 5, escalando a la baja para el resto de incumplimientos. No es un régimen pensado para asustar; es un régimen pensado para que el incumplimiento sea económicamente irracional.

Una nota práctica importante: el AI Act tiene aplicación extraterritorial similar al RGPD. Si una empresa española organiza una jornada en Lisboa con un proveedor de IA estadounidense, el régimen se aplica si el output del sistema de IA se usa dentro de la UE. La excusa "el proveedor está en California" no exime.

Tecnologías "so-so" (Acemoglu)

Daron Acemoglu, profesor del MIT y premio Nobel de Economía 2024, junto con Pascual Restrepo, propuso en su artículo de 2020 The Wrong Kind of AI? Artificial Intelligence and the Future of Labour Demand una distinción que resulta especialmente útil para evaluar las aplicaciones de IA en este sector. Distinguen entre tecnologías que complementan el trabajo humano —aumentan productividad sin sustituir habilidades— y tecnologías que simplemente automatizan tareas humanas con resultados mediocres y sin compensación productiva real. A las segundas las llaman "so-so technologies".

Marco económico

La distinción complemento / sustitución pobre (Acemoglu & Restrepo)

Una tecnología "so-so" automatiza una tarea humana de forma que el resultado es solo ligeramente peor que el humano y mucho más barato. La empresa la adopta porque ahorra coste, pero la sociedad pierde porque no hay aumento real de productividad: solo se redistribuye el valor. Aplicado a IA en eventos: un avatar generado en directo sustituye una habilidad humana de facilitación con un resultado peor que un facilitador competente, ahorrando coste pero sin entregar más valor al participante.

Acemoglu & Restrepo, "The Wrong Kind of AI?", Cambridge Journal of Regions, Economy and Society, 2020. Marco extendido en Acemoglu & Johnson, "Power and Progress", 2023.

La pregunta operativa que sale de aquí es directa: ¿esta aplicación de IA está complementando una habilidad humana que el equipo organizador no tiene, o está sustituyendo una habilidad humana que tiene a un coste menor pero con resultado peor? Si es lo primero, suele compensar. Si es lo segundo, normalmente no, aunque la cuenta de resultados a corto plazo diga lo contrario, porque el cliente percibe la diferencia y los efectos se desinflan.

Aplicada a los cinco usos del apartado anterior, esta lente confirma el ranking. Logística predictiva y análisis de feedback complementan habilidades humanas (nadie iba a optimizar manualmente la asignación de mesas para 200 personas con 14 restricciones cruzadas; nadie iba a leer 800 comentarios libres y agruparlos por temas en una hora). IA generativa como espectáculo, en cambio, sustituye habilidades de facilitación, narrativa y conexión humana —habilidades caras de entrenar pero realmente diferenciales— con un sucedáneo más barato y peor.

Implicaciones de diseño

De lo anterior se siguen tres principios que aplico a cualquier propuesta donde aparece IA. Tres preguntas, no tres reglas, porque las reglas se quedan obsoletas más rápido que las preguntas.

La primera: ¿esta IA opera back-stage o front-stage? Si front-stage, ¿por qué tiene que ser visible para el participante? Si la respuesta honesta es "para que parezca más moderno", probablemente convenga sacarla del programa. Si la respuesta es "para resolver una limitación que de otro modo no se podría —por ejemplo, accesibilidad, traducción simultánea, escala—", entra con ojo a la trazabilidad regulatoria.

La segunda: ¿la IA está complementando una capacidad inexistente o sustituyendo una existente? Si sustituye, ¿el resultado es comparable al de la versión humana o peor? Si peor, ¿el ahorro lo justifica desde la perspectiva del participante, no desde la del organizador? El participante es el cliente último; si para él el resultado es peor, da igual cuánto ahorre el proveedor.

La tercera: si esta IA estuviera obligatoriamente etiquetada (como ya está pasando desde agosto de 2026 con deepfakes y desde el mismo momento con chatbots), ¿la propondríamos igual? Si no, es que estábamos contando con que el participante no se diera cuenta. Eso, en términos de Goffman, es lo opuesto de una buena puesta en escena: es engaño cosmético que se cae cuando alguien tira del hilo.

"La pregunta no es si la IA es el futuro del team building. Es si esta aplicación concreta de IA paga su factura, regulatoria y de validez, en este evento concreto."

Una última cosa que conviene decir explícitamente, porque a veces se pierde en la conversación. Esto no es un texto en contra de la IA en eventos. Yo soy ingeniero, llevo años trabajando con datos y modelos, y la mitad de la mejora operativa de Froggy en los últimos dos años viene de back-stage IA en logística y análisis. Es un texto en contra de un uso concreto, dominante y vendible: el de la IA como espectáculo cosmético cuyo balance riesgo/beneficio, una vez que el AI Act está plenamente aplicable y una vez que pasa el efecto novedad, está bastante claro. La IA útil en team building es la que el participante no nota. Es la que hace su trabajo en silencio mientras el equipo organizador se concentra en lo que ningún modelo está a punto de sustituir: diseño humano, facilitación con criterio, lectura del grupo, decisión sobre el momento.

Si una propuesta vende la IA como protagonista de la jornada, casi siempre estás pagando dos veces: una al proveedor, y otra en flancos legales y validez. La IA bien usada en este sector es invisible.

Las cosas que no nota el participante pero sí mejoran su experiencia —menos esperas, mejor distribución, contenido mejor ajustado, análisis posterior accionable— son donde el dinero rinde. Las cosas que el participante nota como IA suelen estar pagando atención prestada por novedad, una atención que no se traslada al objetivo del evento. Y desde febrero de 2025, además, vienen acompañadas de un perímetro regulatorio que conviene tomarse en serio.

Han hablado de Froggy Events

RTVE La 1 Cadena SER Madrid Actual Madridiario El Confidencial Digital
Adrián Azpilicueta, cofundador de Froggy Events

Adrián Azpilicueta

Cofundador de Froggy Events

Cofundó Froggy Events junto a Laura Hernández y dirige el diseño de las dinámicas. Ingeniero telemático con máster en blockchain, llegó al sector del team building desde el lado del análisis de equipos en proyectos tecnológicos. Le interesan especialmente las aplicaciones reales de IA en eventos profesionales y el cumplimiento normativo del Reglamento (UE) 2024/1689 cuando esa IA toca a personas en contexto laboral.

Preguntas frecuentes

¿Qué dice el AI Act sobre el uso de IA en eventos corporativos?
El Reglamento (UE) 2024/1689, en vigor desde agosto de 2024, prohíbe desde el 2 de febrero de 2025 los sistemas de detección de emociones en el lugar de trabajo (artículo 5). Desde el 2 de agosto de 2026, el artículo 50 obliga a etiquetar de forma legible por máquina los deepfakes y los contenidos generados por IA, e informar a las personas cuando interactúan con un chatbot. Aplican también obligaciones de alfabetización en IA (artículo 4) ya en vigor desde febrero de 2025.
¿Es legal usar deepfakes de directivos como sorpresa en una jornada?
Desde agosto de 2026, el artículo 50 del AI Act obliga a etiquetar visiblemente cualquier contenido generado por IA que represente personas reales, incluidos deepfakes. Esto convierte el uso "sorpresa" en jurídicamente problemático: o se etiqueta y deja de ser sorpresa, o se incumple la norma. A esto se suman riesgos de derecho a la propia imagen y de protección de datos si la persona representada no ha consentido por escrito. Como práctica, lo desaconsejamos completamente.
¿Qué es un sistema de detección de emociones según el AI Act?
El AI Act define como sistema de reconocimiento de emociones aquel que infiere emociones o intenciones a partir de datos biométricos (expresión facial, tono de voz, lenguaje corporal). Su uso está prohibido en contextos laborales y educativos desde febrero de 2025, salvo excepciones muy limitadas (uso médico o de seguridad). Esto afecta a herramientas que analizan caras de participantes durante una actividad o que clasifican estados emocionales de un equipo en directo.
¿Qué son las tecnologías "so-so" de Acemoglu?
Daron Acemoglu y Pascual Restrepo, en "The Wrong Kind of AI?" (2020), distinguen entre tecnologías que complementan el trabajo humano y aumentan la productividad (good AI) y las que simplemente automatizan tareas humanas con resultados mediocres y sin compensación productiva real ("so-so technologies"). Buena parte de la IA visible en eventos cae en la segunda categoría: sustituye habilidades humanas (facilitación, contacto, narrativa) sin mejorar el resultado, solo cambiando el coste.
¿Qué usos de IA son razonables en team building?
Los usos back-stage —logística predictiva, análisis de feedback post-evento, personalización del contenido por equipo— tienen el mejor balance riesgo/beneficio. Los usos front-stage añaden riesgo legal, reputacional y de validez sin aportar normalmente más que efecto novedad. La regla operativa: si la IA está diseñada para ser percibida por los participantes como protagonista de la jornada, es probablemente la peor inversión que se puede hacer en este momento del ciclo.
¿Qué se requiere para cumplir las obligaciones de alfabetización en IA?
El artículo 4 del AI Act, en vigor desde febrero de 2025, obliga a proveedores y empresas usuarias de sistemas de IA a asegurar un nivel suficiente de alfabetización en IA en su personal: comprensión de capacidades, limitaciones y riesgos del sistema. Para una empresa que usa IA en sus eventos, esto implica formar al equipo organizador y dejar trazabilidad documental de esa formación. No es una obligación cosmética: es exigible y forma parte del régimen sancionador.

¿Diseñamos una jornada con la IA correcta, en el sitio correcto?

Antes de la actividad, mapeamos qué IA tiene sentido back-stage en tu caso y qué uso visible te ahorras. Diseño basado en lo que el AI Act ya exige y en lo que la evidencia muestra que vale.

Hablamos del programa →