La IA entró al directorio como entran las tecnologías que cambian el juego: con promesas, urgencias y algo de ansiedad. Pero la pregunta relevante no es “qué herramienta usamos”, sino bajo qué condiciones la organización la incorpora sin erosionar confianza, responsabilidad y calidad de deliberación.
El riesgo principal no es “tecnológico”. Es de gobernanza: qué se comparte, quién responde, cómo se evalúan resultados y cómo se preserva la identidad. La IA puede elevar la calidad de una deliberación… o puede degradarla si se usa sin criterios y sin límites.
Primero, la capa fiduciaria: seguridad y deber de cuidado.
Un director tiene deber de cuidado, y hoy ese deber incluye una pregunta incómoda: ¿qué pasa con la información que se sube o copia en plataformas de IA? ChatGPT, Gemini, Grok y otras soluciones abiertas que no son anónimas; y aun en entornos “cerrados” o corporativos, como copilotos integrados a suites empresariales, persiste la inquietud: ¿dónde quedan los datos, quién puede acceder, cómo se registra y cómo se borra? Antes de “usar IA”, un directorio debiera exigir un estándar de seguridad de la información y trazabilidad.
Eso se traduce en reglas simples pero decisivas: (i) clasificar información (pública, interna, confidencial, sensible) y definir qué puede y qué no puede ingresar a una IA; (ii) privilegiar entornos controlados por la organización con políticas explícitas de retención/uso de datos; (iii) establecer registros de uso en decisiones relevantes; (iv) exigir pruebas de cumplimiento del proveedor (seguridad, auditoría, controles).
Segundo, la capa estratégica: de eficiencia a ventaja competitiva.
Superada la discusión de seguridad, la pregunta cambia: ¿dónde la IA crea valor diferencial? Un directorio estratégico no “adopta IA”, sino que define un portafolio de apuestas: casos de uso priorizados, métricas de negocio, riesgos aceptables y capacidades internas a desarrollar. La IA puede apoyar decisiones críticas con mejor información, anticipar señales del mercado, reconfigurar procesos y rediseñar experiencia de clientes; pero el valor aparece cuando hay foco, cuando se evita el “piloto eterno” y cuando la dirección ejecutiva se alinea con prioridades claras del directorio.
Tercero, la capa reflexiva/generativa: la pregunta correcta.
El rol reflexivo no se contenta con “¿cuál es el plan?”. Va más allá: “¿cuál es la pregunta?”. Aquí el directorio define límites humanos, resguarda cultura, evita sesgos y dependencia de proveedores, y aprende del uso real para ajustar. En otras palabras: gobernar con IA no es entregarle el timón a un algoritmo.
Una pista útil viene de Donald Nordberg y la ética del cuidado: en el directorio, las decisiones se juegan en interacciones múltiples y el quiebre de confianza puede ser más dañino que el error puntual. Por eso, es necesario cuidar la calidad de la conversación, la transparencia sobre supuestos y la responsabilidad colectiva.
La secuencia importa. Seguridad y deber fiduciario primero; estrategia para crear valor después; y, finalmente, una mirada reflexiva que cuide la humanidad de la decisión. Y un último matiz: “inteligencia artificial” es un nombre atractivo, pero engañoso. La inteligencia, en sentido pleno, es orgánica, humana; lo que hoy llamamos IA son sistemas de procesamiento y predicción extraordinariamente veloces, que requieren supervisión permanente, criterios de uso, y un responsable identificable. Solo así la IA deja de ser moda y se convierte en herramienta al servicio de la gobernanza.
