Inicio Cultura Gobernanza del Talento, Cultura y Capital Humano

Gobernanza del Talento, Cultura y Capital Humano

13
0

Introducción: El Paisaje en Evolución del Capital Humano

La rápida evolución de la tecnología, la regulación y las expectativas de la fuerza laboral en 2025 ha transformado fundamentalmente las prioridades de supervisión de la junta directiva. La adopción de inteligencia artificial (IA), los modelos de trabajo híbridos y los cambiantes estándares de diversidad, equidad e inclusión (DEI) ahora se intersectan con los imperativos ambientales, sociales y de gobernanza (ESG), lo que requiere que las juntas directivas gestionen proactivamente el talento, la cultura y los riesgos del capital humano. Además de impulsar el desempeño y la resiliencia, las juntas deben ver cada vez más la gobernanza del capital humano como una función clave de gestión de riesgos, con fallos en la supervisión exponiendo a las empresas a un escrutinio más estricto por parte de los reguladores, agencias de cumplimiento y otros interlocutores gubernamentales. Dada la actual situación regulatoria y política, las juntas deben esperar que las revelaciones sobre el capital humano sean reinterpretadas selectivamente por activistas, demandantes o formuladores de políticas para avanzar en campañas, obligar a la producción de información o alegar desajustes entre los compromisos declarados y las realidades operativas del día a día.

Impacto Transformador de la Tecnología: IA y Trabajo Híbrido

Inteligencia Artificial

La IA ya no es opcional; está transformando fundamentalmente las operaciones comerciales y las dinámicas de la fuerza laboral a todos los niveles. En 2025, el 72% de las empresas del S&P 500 revelaron al menos un riesgo material de IA en sus informes 10-K, un aumento respecto al 12% en 2023. La adopción de IA también está remodelando las estructuras organizativas y los procesos de toma de decisiones. Según Gallup, en 2025 la proporción de empleados en Estados Unidos que utilizan IA en sus trabajos casi se duplicó en los últimos dos años, pasando del 21% al 40%, con un aumento similar en el uso frecuente. A medida que las tareas rutinarias y algunas funciones directivas se automatizan, las juntas directivas deben guiar a la dirección en la reasignación de responsabilidades para centrarse en trabajos de mayor valor. Además de orientar a la dirección en la reorganización de la fuerza laboral, las juntas deben asegurarse de que existan estructuras adecuadas de gobernanza y supervisión de la IA, que incluyan líneas claras de responsabilidad de gestión, informes periódicos a la junta y evaluaciones de riesgos documentadas que aborden la fiabilidad, los sesgos, la protección de datos y el cumplimiento normativo. Las juntas deben exigir actualizaciones periódicas sobre cómo se están implementando las herramientas de IA en toda la organización y sobre cómo se identifican, monitorean y mitigan los riesgos relacionados.

La regulación de la IA está evolucionando rápidamente, con la Unión Europea (UE) y Estados Unidos trazando caminos distintos. El AI Act de la UE establece el primer marco legal integral y basado en riesgos para la IA en el mundo, imponiendo obligaciones detalladas a los proveedores y usuarios de sistemas de IA de alto riesgo y de propósito general. Entró en vigor el 1 de agosto de 2024, con plena aplicabilidad 24 meses después de su implementación, el AI Act introduce un enfoque basado en el riesgo, categorizando los sistemas de IA en cuatro niveles: (i) riesgo inaceptable (prácticas prohibidas como puntajes sociales manipulativos de IA y vigilancia biométrica), (ii) riesgo alto (obligaciones estrictas para la IA en infraestructuras críticas, educación, empleo y aplicación de la ley), (iii) riesgo de transparencia (requisitos de divulgación para IA generativa y deep fakes) y (iv) riesgo mínimo o ninguno (sin nuevas reglas para aplicaciones de bajo riesgo). Estas reglas requieren evaluaciones de riesgos sólidas, transparencia y supervisión humana.

En contraste, la administración Trump ha avanzado en un enfoque innovador, regulatorio que prioriza la competitividad nacional, la preeminencia federal sobre leyes estatales más restrictivas y la eliminación de iniciativas anteriores de supervisión federal de la IA. Órdenes ejecutivas en 2025, incluidas «Eliminación de Barreras al Liderazgo Estadounidense en Inteligencia Artificial» y «Asegurar un Marco de Política Nacional para la Inteligencia Artificial», revocan disposiciones de la era Biden como la EO 2023 «Desarrollo y Uso Seguros, Seguros y Confiables de la Inteligencia Artificial» y ordenan a las agencias que rescindan o revisen políticas percibidas como obstaculizadoras de la innovación. Estas medidas instruyen a las agencias federales a desafiar los regímenes estatales de IA inconsistentes con un marco nacional unificado e incorporan el Plan de Acción de IA de América y nuevas estructuras asesoras en la política federal, enfatizando la «dominación global de la IA de EE. UU.» mediante la inversión en infraestructura y la promoción de sistemas de IA «ideológicamente neutrales», en lugar de restricciones detalladas específicas de casos de uso comparables al AI Act de la UE.

Las empresas estadounidenses que operan a nivel internacional deben asegurarse de que sus estrategias de IA puedan cumplir con los estándares prescriptivos de la UE mientras se adaptan a normas menos uniformes y que cambian rápidamente en EE. UU. Esto exige controles internos sólidos en torno a la gobernanza de datos, la mitigación de sesgos y la transparencia, así como el compromiso proactivo con el asesoramiento legal para monitorear los desarrollos normativos y mantener el cumplimiento en todas las jurisdicciones. En este entorno, la supervisión estratégica y la adaptabilidad son esenciales para una gobernanza efectiva de la IA.

Estrategias Prácticas para la Gobernanza de la Junta de Asuntos de la IA

  • Evaluar la Evolución de los Roles: La IA está eliminando las tareas tradicionales de nivel de entrada e introduciendo roles especializados (por ejemplo, científicos de datos de IA, oficiales de ética). Las juntas deben verificar que las estrategias de talento y las estructuras organizativas reflejen estos cambios.
  • Capacitar y Recalificar: Priorizar la formación continua en fundamentos de IA, aplicaciones específicas de roles y validación de resultados.
  • Fortalecer la Gobernanza: Las regulaciones que gobiernan la IA están evolucionando rápidamente a nivel estatal y federal, por lo que las juntas directivas deben implementar marcos de supervisión para abordar los riesgos de fiabilidad, sesgo y privacidad. Consultar regularmente al asesor legal para actualizar las políticas a medida que cambien las leyes.
  • Ética y Cumplimiento: Implementar protocolos para detectar y corregir sesgos de IA (derivados de sus programadores, los datos introducidos en los sistemas de IA y los algoritmos utilizados) y «alucinaciones» (salidas falsas o engañosas) y revisar el cumplimiento con las regulaciones cambiantes.
  • Privacidad de los Datos: Prohibir el uso de plataformas de IA públicas para información sensible; exigir soluciones seguras aprobadas por la empresa.
  • Monitorear y Auditar: Utilizar auditorías periódicas y encuestas a empleados para identificar brechas en la formación de IA y oportunidades de mejora en los procesos.

Trabajo Híbrido

La adopción generalizada de modelos de trabajo híbridos y remotos ha transformado fundamentalmente las dinámicas de la fuerza laboral e introducido nuevas complejidades para las juntas directivas. Los arreglos flexibles se han convertido en una necesidad competitiva, con el indicador de trabajo híbrido de Gallup para 2025 informando que aproximadamente seis de cada diez empleados capaces de trabajar de forma remota buscarían un nuevo empleo si su organización eliminara la flexibilidad del trabajo remoto, subrayando el riesgo de retención de las mandatos rígidos de regreso a la oficina. Al mismo tiempo, los roles totalmente en el sitio siguen disminuyendo a medida que se amplían los arreglos híbridos. Según Robert Half International, los puestos híbridos representaron aproximadamente el 24% de las nuevas ofertas de trabajo para el segundo trimestre de 2025, frente al 15% en el segundo trimestre de 2023, con el 88% de los empleadores encuestados proporcionando alguna opción de trabajo híbrido.

Sin embargo, si bien los arreglos flexibles se han convertido en una necesidad competitiva, también presentan desafíos para mantener la cultura, la productividad y el compromiso de los empleados. Las juntas deben asegurarse de que las políticas de trabajo remoto y híbrido cumplan con una compleja variedad de leyes federales, estatales y locales, incluidos los requisitos de salario y horario conforme a la Ley de Normas Razonables de Trabajo (FLSA), las obligaciones de no discriminación y de adaptación de la Ley de Derechos Civiles y la Ley de Estadounidenses con Discapacidades (ADA), así como, cuando corresponde, las obligaciones de negociación colectiva bajo la Ley Nacional de Relaciones Laborales (NLRA). Los empleados remotos generalmente tienen derecho a las mismas protecciones salariales, de horas extra, contra la discriminación y de licencia bajo la ley federal y estatal que los trabajadores en la oficina.

El panorama de cumplimiento se complica aún más por una creciente diversidad de leyes estatales de privacidad en los EE. UU. Por ejemplo, las enmiendas a la Ley de Privacidad del Consumidor de California (CCPA) llevaron los datos de solicitantes de empleo, empleados y contratistas plenamente dentro del alcance del CCPA a partir del 1 de enero de 2023, y las regulaciones posteriores de 2025 extendieron ese marco a través de nuevas obligaciones de evaluación de riesgos centradas en RRHH a partir del 1 de enero de 2026. Otras estatutos estatales integrales de privacidad (como Colorado y Connecticut, entre otros) no han eliminado las exenciones generales para los datos de empleo, por lo que los datos de empleados y solicitantes en esos estados siguen en gran medida fuera de los regímenes básicos de privacidad «del consumidor», aunque las normas específicas del sector y de privacidad en el lugar de trabajo siguen siendo aplicables. Otras leyes estatales, incluida la enmienda de 2024 sobre Identificadores Biométricos y Datos a la Ley de Privacidad de Colorado y la Ley de Privacidad de Illinois sobre Información Biométrica (BIPA), imponen requisitos sobre las prácticas de gestión y monitoreo de datos, lo que puede afectar la manera en que las organizaciones monitorean los dispositivos, la actividad en línea, el control de tiempo, la verificación de identidad y la productividad de los trabajadores remotos. Las regulaciones específicas del sector, como la Ley de Portabilidad y Responsabilidad del Seguro de Salud (HIPAA) y, para las organizaciones multinacionales, el Reglamento General de Protección de Datos (GDPR) de la UE, que, a diferencia de la ley estadounidense, impone límites estrictos en la monitorización de empleados y transferencias de datos transfronterizas, complican aún más el cumplimiento.

Las juntas directivas también deben mantener una supervisión cuidadosa de la monitorización de empleados, las transferencias transfronterizas de datos y las prácticas de mantenimiento de registros en entornos de trabajo híbridos. La Comisión de Valores y Bolsa de EE. UU. (SEC) ha intensificado sus esfuerzos de aplicación en la era del trabajo remoto, aprovechando análisis avanzados de datos para detectar violaciones de operaciones con información privilegiada y de mantenimiento de registros, incluyendo casos en los que se accedió o se discutió información material no pública en entornos domésticos. Las acciones recientes en virtud de los requisitos de mantenimiento de registros la Ley del Mercado de Valores de 1934 (según enmendada, la Ley del Mercado de Valores) Regla 17a-4(b)(4) y las requisitos de mantenimiento de registros de la Ley de Asesores de Inversiones de 1940 destacan que los corredores de bolsa y los asesores de inversión registrados deben mantener y conservar comunicaciones relacionadas con la empresa en dispositivos personales y plataformas fuera del canal. La dirección también debe mantener políticas, controles y capacitación sólidos para proteger la información material no pública, gobernar el uso de dispositivos personales y herramientas de colaboración y cumplir con los requisitos de mantenimiento de registros y vigilancia, reconociendo que el fracaso en adapt