Inicio Cultura El aprendizaje debe ser continuo: Patsy Doerr de LRN sobre por qué...

El aprendizaje debe ser continuo: Patsy Doerr de LRN sobre por qué la cultura y el gobierno definen el éxito de la IA.

15
0

En una mañana gris de miércoles en Londres, LRN, un proveedor de soluciones de ética, cumplimiento y cultura corporativa, reunió a un grupo de mujeres de la profesión de cumplimiento para una discusión de desayuno sobre el papel evolutivo de las mujeres en el campo.

La conversación se movió fácilmente entre los temas de autenticidad y toma de riesgos inteligente, anclada por una conversación junto al fuego entre Rebecca Mayfield, directora de cumplimiento y abogada sénior de Merlin Entertainments, y Patsy Doerr, directora de personas y cultura de LRN.

Fue durante esa discusión que la conversación se volvió, inevitablemente, hacia la IA. A medida que las organizaciones continúan experimentando con la tecnología, las preguntas sobre la cultura, la gobernanza y la comprensión a nivel de la junta directiva se vuelven cada vez más difíciles de ignorar. Después de la sesión, me puse al día con Doerr para explorar esas preguntas en más profundidad.

Doerr, que se unió a LRN en febrero de 2026, aporta experiencia de roles sénior en UDR, Credit Suisse y Thomson Reuters. Su perspectiva se alinea estrechamente con los hallazgos del Informe de Efectividad del Programa 2026 de LRN, que se basa en conocimientos de más de 2.500 profesionales de ética y cumplimiento a nivel mundial.

Los datos sugieren que, si bien el 39 por ciento de las organizaciones ahora están utilizando la IA en al menos una función de cumplimiento, muchas aún tienen dificultades para explicar cómo mejora los resultados. Los programas de alto impacto están avanzando, con el 42 por ciento implementando capacitación mejorada con IA en comparación con el 30 por ciento de sus pares. Sin embargo, la gobernanza sigue subdesarrollada, con una documentación limitada sobre el propósito del modelo, la procedencia de los datos y la validación. El resultado es una brecha cada vez mayor entre la adopción y la supervisión efectiva.

Es dentro de este contexto que la cultura, como explica Doerr, se convierte en el factor definitorio. A medida que la adopción de la IA continúa a un ritmo acelerado, ella cree que el mayor desafío no es de naturaleza tecnológica, sino cultural. «En mi experiencia, este es el caso con cualquier cosa que tenga un impacto tan grande», dice. «Hay muchas cosas que las empresas necesitan hacer, pero destacan algunas consideraciones culturales clave».

En la parte superior de la lista está la resistencia al cambio. «En general, todos tienen una capacidad diferente para el cambio, por lo que entender esa capacidad en relación con la IA es fundamental», explica, señalando las preocupaciones sobre la pérdida de empleo y la falta de capacidad como factores clave. «Eso hace que la resistencia al cambio sea aún más importante».

Estrechamente ligado a esto están las brechas persistentes en habilidades. «Soy una firme creyente de que la educación está en el corazón de todo», dice Doerr. «Pero existen brechas de habilidades porque esta es una nueva tecnología». Algunas de estas brechas son generacionales, mientras que otras reflejan una exposición desigual dependiendo del rol. Esto ayuda a explicar por qué, a pesar de que el 39 por ciento de las organizaciones utilizan ahora la IA en al menos una función de cumplimiento, muchas aún tienen dificultades para articular su impacto.

Para Doerr, la alineación es igualmente importante. «Las empresas también necesitan pensar en la alineación con sus valores y cómo encaja la IA dentro de esos valores», dice. «Las organizaciones necesitan claridad sobre cómo se utilizará la IA y cómo eso se alinea con lo que representan». Sin esa claridad, la adopción corre el riesgo de fragmentarse, un desafío reflejado en el hallazgo del informe de que muchas organizaciones carecen de un enfoque coherente para la gobernanza de la IA.

Subyacente a todo esto hay un problema más práctico con implicaciones culturales. «También hay un gran problema con la calidad de los datos», señala. «En la mayoría de las organizaciones, los datos se encuentran en diferentes departamentos sin procesos sólidos para integrarlos». Si bien a menudo se presenta como un problema técnico, el impacto es cultural, afectando la colaboración y participación entre funciones.

Sin embargo, la intención de liderazgo sigue siendo el factor definitorio. «La aprobación del liderazgo siempre es crítica», dice Doerr. «No solo hablando, sino realmente poniendo en práctica lo que se dice».

Esa intención de liderazgo no siempre se traduce limpiamente a través de la organización. El nivel medio de la gestión, argumenta, a menudo es el punto donde los esfuerzos de transformación pierden impulso. «Lo que suele pasar es que el liderazgo se compromete con una estrategia, pero a medida que fluye a través de la organización, el mensaje evoluciona o cambia», dice. «Es como el juego del teléfono que jugábamos de niños, en el que el mensaje cambia en el camino».

Con la IA, esa distorsión se amplifica por la incertidumbre. «Existen desafíos adicionales en torno a la comprensión, el miedo y el cambio», dice. Para contrarrestar esto, los gerentes deben asumir un papel más activo en la interpretación y traducción de la estrategia. «Los gerentes intermedios necesitan educarse para comprender cómo la IA puede apoyarlos y ayudar a aliviar los temores sobre la pérdida de empleo», dice, agregando que el enfoque debería centrarse en las oportunidades. «Deberían centrarse más en las oportunidades que ofrece la IA, especialmente en términos de análisis de datos y pasar más tiempo en ideas y acciones en lugar de simplemente recopilar datos».

Al mismo tiempo, el elemento humano no puede pasarse por alto. «También necesitan mantenerse enfocados en su gente, ayudándoles a navegar por el cambio», dice. «Los gerentes deben mantener la comunicación abierta, transparente y sincera a medida que las cosas continúan evolucionando».

Si hay una sola capacidad que sustenta una adopción exitosa, es la agilidad para aprender. «Tengo una opinión muy firme, basada en la investigación, de que la agilidad para aprender es uno de los principales predictores, si no el principal predictor, del éxito», dice Doerr. En la práctica, esto significa más que programas de capacitación. «Es fundamental que los líderes, gerentes y empleados practiquen la agilidad para aprender», explica, enfatizando la necesidad de «aprender de cada experiencia, aceptar retroalimentación y adaptar el comportamiento intencionalmente».

Esto requiere un diseño cultural deliberado. «Necesitamos construir sistemas que creen activamente un entorno donde la agilidad para aprender sea abrazada en toda la empresa», dice. Ese entorno depende de la transparencia, la inclusión y la seguridad psicológica. «Las personas deben sentirse seguras para desafiar la norma, admitir lo que no saben sobre la IA y hacer preguntas sin temor a represalias».

Estos principios se extienden a la sala de juntas. «La gobernanza es crítica», dice Doerr. «Establecer pautas claras sobre cómo se utilizará la tecnología, asegurando que opere dentro de un marco de ética, cumplimiento, transparencia e intención positiva». Sin embargo, muchas organizaciones todavía están poniéndose al día en esta área, con una documentación limitada sobre el propósito del modelo y la procedencia de los datos que continúa obstaculizando la supervisión efectiva.

Para que el aprendizaje perdure, debe ir más allá de intervenciones esporádicas. «La capacitación esporádica no funciona, especialmente con algo que evoluciona tan rápido como la IA», dice. «El aprendizaje debe ser continuo y debe integrarse en cómo realmente se lleva a cabo el trabajo». Eso significa integrar herramientas en los flujos de trabajo diarios y reforzar comportamientos con el tiempo. «Las organizaciones deben construir sistemas y procesos donde el aprendizaje sea parte del día a día, no algo separado de él».

Igualmente importante es cómo se mide y se recompensa ese aprendizaje. «Si no estamos reforzando y reconociendo los comportamientos de aprendizaje, no perdurarán», dice. «Las organizaciones deben pensar en cómo recompensan la curiosidad, la adaptabilidad y el crecimiento no solo los resultados».

A medida que las empresas continúan experimentando con la IA, encontrar el equilibrio adecuado entre la innovación y el control se vuelve crítico. «Aquí es donde la seguridad psicológica y la responsabilidad tienen que ir de la mano», dice Doerr. «Quieres fomentar la experimentación, porque así es como las organizaciones aprenden e innovan, pero tiene que suceder dentro de un marco claro».

Ese marco debe comunicarse claramente. «Los empleados necesitan entender cómo se ve un uso responsable», dice, señalando la importancia de las pautas sobre ética, uso de datos y cumplimiento. Dentro de esos límites, debería haber un verdadero estímulo para probar, aprender e iterar. «Los líderes tienen que modelar que está bien probar cosas, aprender de los errores y mejorar», dice, reforzando que «la experimentación no significa falta de disciplina».

Este equilibrio también está dando forma a cómo las organizaciones abordan prioridades culturales más amplias como ESG o DEI. «Lo que estamos viendo es un movimiento hacia la incorporación de estos conceptos en cómo operan las organizaciones, en lugar de tratarlos como iniciativas independientes», dice Doerr. En el contexto de la IA, ese cambio se vuelve más pronunciado. «Las preguntas de equidad, sesgo, transparencia e inclusión son centrales», explica. «El enfoque debería ser cómo esos principios se manifiestan en el diseño, despliegue y gobernanza de la IA».

La IA, en este sentido, está acelerando la integración. «Obliga a las organizaciones a ser más explícitas sobre sus valores y cómo se ponen en práctica», dice, especialmente al requerir perspectivas diversas en la toma de decisiones y un enfoque más intencional para identificar el sesgo.

Finalmente, una cultura lista para la IA se define por la integración y la intención. «Una cultura lista para la IA es aquella en la que la tecnología está totalmente integrada en cómo la organización piensa, opera y toma decisiones, no algo que está en un rincón», dice Doerr. Los rasgos distintivos incluyen «un alto grado de agilidad para aprender», «transparencia en cómo se está utilizando la IA» y «una base sólida de confianza porque los empleados comprenden tanto las oportunidades como los límites».

La distinción entre una adopción significativa y una adopción superficial es cada vez más clara. «Las organizaciones que lo están haciendo bien tienden a tener una comunicación muy abierta, una colaboración sólida entre funciones y líderes que están activamente comprometidos», dice. Por el contrario, las aproximaciones más débiles son fáciles de detectar. «Se ven muchos proyectos piloto desconectados, poca comprensión entre los empleados y falta de claridad sobre el propósito», señala. «Eso suele ser un signo de que los cimientos culturales aún no se han establecido completamente».