Ventana Modal

Este contenido se reemplaza via ajax por el del html externo.

×

Opinión

  • | 2019/09/25 00:01

    Gestión humana en la era digital: ¿cuál es la bala mágica?

    Las máquinas son más precisas que los humanos, hacen ciertas cosas mejor y más rápido, pero, ¿podemos dejarles tomar decisiones de alto impacto sobre las personas?

COMPARTIR

En unos recientes artículos de HRExaminer, portal experto en temas de tecnología aplicada a los temas de RRHH, se cuestionaban por qué es tan tensa la relación entre la alta dirección y sus departamentos de Gestión Humana (GH). Mientras los primeros piden resultados más tangibles sobre la efectividad de sus prácticas, los segundos se excusan en las dificultades para estandarizar todos los procesos relacionados con los muy impredecibles seres humanos. Y esta tensión se ve estimulada, principalmente, a la forma como evalúan y compensan a los altos directivos, la manera como los accionistas fijan objetivos altamente volcados en resultados de corto plazo y prioritariamente económicos, y cómo los directivos de GH interpretan su rol y su función dentro de las empresas.

Hoy se ofrecen ‘balas mágicas‘ en la forma de un sinfín de soluciones tecnológicas, que se apoyan en investigaciones dudosas y encuestas de internet para problemas que están lejos de ser nuevos, sino más de lo mismo cuando se trata de “problemas de gente”. 

Irónicamente, afirma uno de los autores, pintan estas respuestas mágicas como fáciles “porque funcionaron en Google”, aun si las soluciones no aplican necesariamente a cualquier entorno o tipo de empresa. Y si hay detrás un componente tecnológico, muchas empresas lo compran sin entender para qué les servirá. Pero, en apariencia, quizá sirva para complacer a las necesidades de inmediatez de la alta dirección en temas que no necesariamente lo permiten.

Es muy útil utilizar herramientas sofisticadas de software para organizar información dispersa, pero es más difícil pensar sobre qué tanto resolverán los problemas de gente los algoritmos predictivos. El talento capaz de trabajar con este tipo de tecnologías y comprender sus implicaciones es bastante escaso y principalmente al servicio de las grandes firmas de tecnología. 

Las máquinas hacen ciertas cosas mejor y más rápido que los humanos, pero, ¿podemos dejarles tomar decisiones de alto impacto sobre las personas? Según John Sumser, uno de los expertos de HRExaminer, el dilema está en: ¿cuál es la probabilidad de que los humanos sean capaces de tomar decisiones eficaces el 80 % del tiempo y repetir esa efectividad de forma constante, en comparación con una máquina? Al contrario, ¿ese 80 % se refiere al más vital o el más trivial de los posibles problemas en la gestión de personas?

Esto merece cuidado porque un proceso de toma de decisiones aparentemente muy operativo, como cruzar datos y palabras incluidas en miles de currículos para selección de personal, puede terminar por configurar el futuro de ciertos departamentos o de organizaciones completas, a partir de cuáles supuestos incluyó el diseñador del respectivo algoritmo. Amazon, por ejemplo, debió terminar con su proyecto de selección hecho por AI, cuando se demostró que esta tecnología siempre terminaba discriminando a las mujeres, hasta el punto de ser un error imposible de corregir. Adicionalmente, hay cientos de demandas en Estados Unidos por la forma como estas herramientas se usan también para discriminar a la gente por edad y hacer inviable la empleabilidad para la población mayor a 45 años. 

Big Data, propiamente dicho, aplicaría a todos los anuncios sobre vacantes en el mundo y todas las hojas de vida, así como todas las comunicaciones entre empleados de las empresas de más de 100.000 empleados, o la data de los empleados de empresas con más de 250.000 empleados (como las Fuerzas Militares, Walmart, McDonalds, o todos los empleados estatales). Entretanto, en las empresas normales, dice Sumser, no hay tanta data disponible para correr modelos predictivos 100 % confiables y útiles; la data codificada tampoco es de calidad suficiente ni de mucha utilidad. Las grandes empresas de tecnología, aun cruzando la data de todos sus clientes, si acaso pueden encontrar patrones de repetición para hacer benchmark entre firmas. 

El aprendizaje de máquinas (machine learning) hace sus análisis a partir de patrones de data y sus variaciones, esperando facilitar predicciones como quién estaría en riesgo de renunciar, qué departamento podría experimentar altas tasas de rotación, o cuáles empleados tienen mayor potencial de tener éxito, partiendo de una combinación de factores (asistencia, antigüedad, evaluaciones de desempeño, estudios, horas extras, etcétera). 

Los sistemas NLP (procesadores de lenguaje natural) pueden analizar textos e identificar categorías de emociones y opiniones en documentos escritos, útiles para búsquedas que partan de vectores de palabras. Estos podrían encontrar currículos similares a los de sus mejores empleados o descubrir ciertos patrones de comunicación en el contexto de las comunicaciones corporativas, útiles de cara a predecir temas importantes para el clima laboral o el nivel de engagement

Entretanto, los bots recogen data de internet o de los sistemas internos y los chatbots se usan para automatizar procesos altamente repetidos y dar las respuestas más esperadas a solicitudes usuales, lo cual es útil en tareas muy concretas y acotadas. Algunas empresas ya los usan para seleccionar y contratar entre cientos o miles de candidatos para cargos operativos de alta demanda, reduciendo las entrevistas a árboles de decisiones, libres de interpretaciones subjetivas. 

Sin embargo, todas estas herramientas están actualmente en fases de experimentación, cuyas respuestas últimas pueden ser muy diferentes de lo que inicialmente han previsto y plantean diversos retos éticos. 

Para Hebert, las metas de GH (transformar la cultura, comprometer a la gente, desarrollar soft skills, alinear el desempeño, encontrar y formar sucesores para cargos clave, mejorar el clima u obtener una paz laboral estable) difícilmente van al ritmo de las metas trimestrales del CEO. Sin embargo, se ha inducido la creencia de que, si introducen tecnología, quizá tengan indicadores para mostrar algún tipo de avance. 

En realidad, los grandes problemas de talento de los gerentes se relacionan más con mejorar los niveles de desarrollo, diseñar políticas coherentes y facilitar un soporte experto y confiable para las decisiones sobre los colaboradores. Y la solución de GH difícilmente puede ser que “les di herramientas a los gerentes, pero no las usan”. 

Sería ideal pensar en una tecnología que mejore la probabilidad de aumentar el rendimiento de un equipo o área, pero ¿esperaríamos que una máquina pueda decidir si nos contratan, nos estancan la carrera o nos despiden, bajo la supuesta probabilidad de que hagamos un fraude, fracasemos en desarrollar nuevas competencias o rotemos pronto a la competencia? 

Señalaba un artículo de la semana pasada en el Boston Globe, que –comparados con los humanos- los algoritmos pueden evitar la subjetividad y las emociones en las decisiones y sus sesgos son más fáciles de evidenciar cuando se ven sus efectos, mientras que las personas intentan ocultarlos. Y los algoritmos no se resisten al cambio impuesto cuando se les ordena que dejen de discriminar. Pero no olvidemos que estos son el producto de gente que discrimina y que tiene sesgos inconscientes, por lo que los algoritmos, por sí mismos, no son la única ni la mejor respuesta para tomar decisiones sobre la gente.

Frente a la elevada complejidad de las relaciones interpersonales, las máquinas son muy susceptibles a equivocarse y requieren aun mucha supervisión humana. Más aun, una señal de que las personas somos libres, radica en que somos bastante impredecibles, aun para quienes nos conocen relativamente bien. Y eso hace que las personas seamos difíciles de estandarizar como máquinas perfectamente calibradas. Así que debemos ser precavidos, en lugar de asumir que a estas herramientas les compete tomar decisiones o hacer recomendaciones que hasta hoy han estado principalmente bajo la responsabilidad de seres humanos que, imperfectos como somos, nos siguen generando más confianza.

¿Tiene algo que decir? Comente

Para comentar este artículo usted debe ser un usuario registrado.

EDICIÓN 562

PORTADA

¿Qué va a hacer Carrasquilla después de la regla fiscal?

Las últimas semanas han sido bastante agitadas desde la perspectiva empresarial y económica. El comité consultivo de la regla fiscal decidió conceder un margen de maniobra al Gobierno en materia de gasto y endeudamiento, al flexibilizar algunos puntos el nivel de déficit fiscal permitido para 2019 y 2020.

Queremos conocerlo un poco,
cuéntenos acerca de usted:

Maria,

Gracias por registrarse en DINERO Para finalizar el proceso, por favor valide su correo a través del enlace que enviamos a:

correo@123.com

Maria,

su cuenta aun no ha sido activada para poder leer el contenido de la edición impresa. Por favor valide su correo a través del enlace que enviamos a:

correo@123.com
Su código de suscripción no se encuentra activo.