hola
icono Buzzwords

Buzzwords:
Convierte el ruido tecnológico en conocimiento accionable.

Aquí puedes leer la edición 77

⚡️Casos para tener una gobernanza IA como ventaja competitiva

En las últimas semanas ha pasado algo más importante: la IA ha dejado de sugerir y ha empezado a ejecutar. El desafío ya no es si la IA puede hacer algo, es decidir qué debería poder hacer sin preguntarte primero.

Un ejemplo concreto que probablemente ya esté pasando en tu empresa: tu equipo de marketing usa Microsoft Copilot en Teams. Alguien le pide que resuma las últimas 50 conversaciones con clientes. Copilot lo hace, pero para hacerlo, acaba de leer conversaciones privadas, datos de clientes que quizá no deberían circular y propuestas comerciales confidenciales.

¿Quién aprobó ese acceso? Nadie. Simplemente lo tiene porque está conectado a tu SharePoint y tu OneDrive. Porque nadie se sentó a definir qué puede leer y qué no.

McKinsey publicó en abril de 2026 un dato que merece leerse dos veces: casi dos tercios de las empresas han experimentado con agentes, pero menos del 10% han logrado escalarlos generando valor real. El 80% de las compañías citan sus limitaciones de datos y gobernanza como el principal obstáculo. La mayoría está construyendo pisos sobre cimientos que no soportan el peso.

El cambio que lo explica todo

Hace seis meses, la IA te sugería. Tú decidías, editabas y enviabas. El control era tuyo al 100%. Hoy, un agente en Copilot con Dynamics 365 o Azure OpenAI lee el email de un cliente, consulta su historial en el CRM, revisa la política de devoluciones en SharePoint y envía la respuesta directamente. Tú te enteras cuando revisas la bandeja de enviados —si la revisas—.

La diferencia no es técnica, es de responsabilidad. Cuando Copilot sugiere, tú decides. Cuando un agente ejecuta, alguien tiene que haber decidido antes qué puede ejecutar. Y esa decisión no puede ser «lo que sea capaz de hacer».

Este paper publicado en febrero de 2026 por economistas del MIT, Washington University y UCLA —«Some Simple Economics of AGI», de Catalini, Hui y Wu— lo formaliza con precisión: hay dos curvas de coste en colisión:

  • El coste de automatizar cae exponencialmente. 
  • El coste de verificar está biológicamente limitado —depende de tiempo humano, experiencia, capacidad de atención—.

La brecha entre ambas curvas —el Measurability Gap— es exactamente el espacio donde viven todos los problemas que vas a ver a continuación.

Las cuatro preguntas que tu empresa no está respondiendo

  1. ¿Qué puede hacer exactamente cada agente?

Una empresa de logística en Madrid configuró un flujo en Power Automate para gestionar confirmaciones de entrega. Funciona perfecto hasta que el transportista envía: «No pudimos entregar, cliente ausente. Reintentaremos el lunes». Copilot lee «entrega», actualiza el estado a «Entregado» y notifica al cliente.

El lunes, el cliente llama furioso. El pedido no estaba.

No falló el agente. Falló que nadie definió qué palabras invalidan una confirmación, qué casos requieren revisión humana, qué límites no puede cruzar solo. Si no tienes eso documentado para cada agente en producción, no tienes control.

  1. ¿Con qué datos puede trabajar?

Una fintech en Ciudad de México construyó un agente con Copilot Studio para responder consultas de cuenta. Un cliente pregunta: «¿Cuánto debo?» El agente busca en toda la base de datos y responde mezclando datos suyos con los de otro cliente de nombre similar.

El error técnico era simple: faltaba un filtro por cliente. Pero el problema real era más profundo. McKinsey advierte que sin una capa semántica que defina el significado compartido de los datos —no solo su estructura—, los agentes actúan sobre interpretaciones contradictorias de la misma información. El problema no es solo a qué datos tiene acceso el agente. Es si entiende lo que esos datos significan en contexto de negocio.

  1. ¿Quién responde cuando el agente se equivoca?

Una empresa B2B española usa Copilot en Dynamics 365 para calificar leads. Un lead con puntuación 85/100 recibe seis horas de trabajo del comercial estrella. Cuando presenta, el lead dice que solo investigaba para un MBA. El agente había detectado 15 visitas a pricing y descargas de whitepapers. No había detectado que el dominio era .edu.

¿Quién responde? Nadie sabe. Y ese es el problema.

Los economistas que antes mencionaba, Catalini, Hui y Wu tienen nombre para esto: Trojan Horse Externality. Cuando despliegas un agente sin verificación suficiente, consume recursos reales pero genera deuda oculta. Los indicadores suben, el flujo continúa, el riesgo se acumula por debajo sin que nadie lo contabilice.

McKinsey propone la respuesta organizativa: gobernanza federada. Los dominios de negocio son dueños de la gobernanza diaria de sus agentes. Los equipos centrales de datos e IA mantienen los guardrails y la supervisión de segundo nivel. No es burocracia. Es saber quién tiene la llave y quién tiene la alarma.

En la práctica: cada agente en producción necesita un dueño de negocio —no un perfil técnico— que responda de si el agente hace lo que debería, si las decisiones son correctas y si hay patrones de error. Y necesita logs auditables que alguien revise.

  1. ¿Cuánto control cedes antes de que sea demasiado?

Una telco en Colombia implementó Copilot for Service para gestionar devoluciones. Si el producto está dentro del plazo de 30 días, aprobación automática. Primer mes: 89% de casos resueltos en menos de 2 minutos, satisfacción 4.2/5. Tercer mes: devoluciones fraudulentas subieron un 340%. Los clientes descubrieron que podían comprar, usar 29 días y devolver sin consecuencias.

La lógica del agente era técnicamente correcta. El problema era estratégico: ceder el 100% del control en devoluciones fue una señal al mercado de que no hay criterio humano.

La solución no fue quitar el agente. Fue redefinir los límites: menos de 100€ automático; entre 100 y 500€ una pregunta adicional; más de 500€ siempre a un humano; más de 3 devoluciones en 90 días, revisión. Eficiencia al 82%, fraude al nivel pre-IA.

Para cada agente en producción necesitas tres niveles definidos: verde (el agente ejecuta solo), amarillo (el agente sugiere, humano aprueba), rojo (siempre humano). Los criterios no son técnicos. Son de negocio.


El framework mínimo: 4 páginas en un Google Doc

No hace falta software complejo. McKinsey lo llama modelo de gobernanza operativa. Yo lo llamo lo mínimo que separa a las empresas que escalan con control de las que se estrellan.

Página 1 — Inventario: Para cada agente, qué herramienta es, qué hace, quién es el responsable de negocio, a qué datos tiene acceso.

Página 2 — Permisos: Qué puede hacer, qué no puede hacer, qué requiere aprobación humana. Con umbrales concretos: montos, plazos, tipos de decisión.

Página 3 — Responsables: Un dueño de negocio y un contacto técnico por agente. Frecuencia de revisión. Qué se revisa.

Página 4 — Incidentes: Cuando algo sale mal: qué pasó, impacto, acción correctiva, si se actualizó el agente.

Una tarde de trabajo. Protección contra problemas de seis cifras.

Para cerrar

El camino sin gobernanza lleva a lo que los economistas del MIT llaman Hollow Economy: alta actividad nominal, colapso del control real. Ya hemos visto versiones localizadas —el Flash Crash de 2010, el colapso de Zillow Offers, el fallo de la red eléctrica de Texas—. Sistemas optimizando métricas visibles mientras acumulaban riesgo invisible. Lo que se viene es lo mismo, a otra escala.

El camino contrario —escalar verificación junto con ejecución— lo llaman Augmented Economy. Agentes que multiplican capacidad humana en lugar de sustituirla sin control. Esa bifurcación no la resuelven los modelos de IA. La resuelven las decisiones que toman empresas como la tuya.

Cuando algo sale mal, nadie pregunta «¿qué hizo el agente?». Preguntan: «¿Por qué dejasteis que lo hiciera?»

Necesitas una respuesta mejor que «no sabíamos que podía hacer eso».

📚 TENDENCIAS interesantes elegidas para ti

🌎En el terreno geopolítico: 

Claude Mythos es el problema de todos

(The Atlantic, abril 2026)

¿Por qué es interesante leerlo?

Anthropic ha revelado Claude Mythos Preview: un modelo capaz de identificar miles de vulnerabilidades en todos los sistemas operativos y navegadores principales, incluyendo un fallo de casi 30 años en uno de los sistemas más seguros del mundo. Un nivel de capacidad ofensiva hasta ahora reservado a unidades de élite patrocinadas por estados. El modelo no se lanzará al público: Anthropic lo canaliza a través del Proyecto Glasswing, una coalición de Apple, Microsoft, Google, NVIDIA y JPMorgan, para parchear vulnerabilidades antes de que capacidades similares caigan en manos equivocadas. La pregunta que queda: si Anthropic ya tiene esto, ¿cuánto tardan sus competidores —incluidos los chinos— en tenerlo también?

📊En el terreno empresarial: 

“KKR mapea la cadena de valor de la infraestructura de IA”

(@TheIcahnist, X, abril 2026)

¿Por qué es interesante leerlo?

KKR ha publicado el análisis que debería estar en el escritorio de cualquier directivo o inversor: la cadena de valor completa de la infraestructura que hace funcionar la IA. El tráfico global de datos crecerá un 1.031% entre 2015 y 2025, y un 452% adicional hasta 2035. La demanda de energía de los centros de datos en EE.UU. crecerá un 358% en esa misma década. La conclusión de KKR no es sobre los modelos de IA, sino sobre lo que los alimenta: redes de fibra, torres, data centers, redes eléctricas y plantas renovables representan algunas de las oportunidades de consolidación más atractivas en mercados privados hoy. Clientes con inelasticidad de precios, alta retención y mercado fragmentado. La IA no es solo software. Es infraestructura física masiva.

⚖️En el terreno legislativo: 

“La guerra de las wikis: ¿puede Grokipedia destronar a Wikipedia?”

(Quillette, abril 2026)

¿Por qué es interesante leerlo?

Elon Musk lanzó Grokipedia en octubre de 2025 a través de xAI con una premisa radicalmente distinta: en lugar de crowdsourcing humano, una IA rastrea internet continuamente para escribir, actualizar y resolver controversias sin intervención humana. Es la primera vez en 25 años que Wikipedia tiene un rival con un modelo diferente —y por tanto, potencialmente competitivo. En su versión actual es inferior en artículos y actualizaciones, pero ya supera a Wikipedia en algo clave: es mucho más difícil de manipular por activistas, porque la IA rechaza ediciones sin fuentes sólidas en segundos. El monopolio informativo de Wikipedia durante dos décadas empieza a tener grietas.

ℹ️ Mi segundo libro ya está a la venta

“La inteligencia artificial y tú”

ℹ️ ¿Cómo hago Buzzwords?

No tengo superpoderes, he utilizado la mayor cantidad de fuentes posibles, particularmente me gustan: The Information, Wired, … Aparte utilizo inteligencia artificial generativa, como GPT-5, Claude o Genspark, para traducir y mejorar los textos.