Si nos hubieran preguntado hace unos años por el concepto inteligencia artificial o IA, habríamos pensado que era algo propio de la ciencia ficción o que aún quedaba demasiado distante en el tiempo como para empezar a preocuparse por ella. Sin embargo a día de hoy todo el mundo ha oído hablar e incluso usado de alguna manera estas nuevas herramientas. Parece desde luego que ha venido para quedarse, con promesas que van desde la innovación hasta la optimización en un número casi ilimitado de ámbitos y situaciones. Pero antes de lanzarnos de lleno y abrazar acríticamente esta nueva herramienta conviene que hagamos un ejercicio de revisión de la misma. Debemos, en la medida de lo posible, adelantarnos a las implicaciones no deseadas que pueda traer consigo su uso antes de vernos arrastrados por ellas. Esta es una cuestión difícil pues como propio Hegel comenta, “la lechuza de Minerva solo levanta el vuelo al anochecer”, es decir, solo tenemos el conocimiento para hacer un uso correcto de las cosas una vez que hemos llegado a su ocaso. Pero nosotros tenemos la obligación de intentar adelantarnos, advirtiendo las consecuencias a priori para después no llevarnos las manos a la cabeza.
Quizás uno de los primeros y más relevantes desafíos que ofrece esta nueva tecnología es la referente a los sesgos que dirigen su toma de decisiones. Si bien la IA es capad de tomar decisiones de una manera autónoma, su desarrollo aun no la permite hacer reflexiones éticas sobre su razonamiento, simplemente nos ofrece la que considera la solución más lógica al problema que le planteamos. La IA es su fase actual solo dispone a lo sumo de una moral, es decir, de un conjunto de reglas que rigen lo que se puede y lo que no se puede hacer, pero por ahora es incapaz de hacer alarde de una ética, entendida esta como una reflexión de esos valores morales que guían la conducta. Y estas no son solo preocupaciones que se quedan en lo abstracto de las suposiciones mentales, sino que toman forma en la realidad material de las empresas y en la vida de las personas, algo que ha quedado manifiesto por ejemplo en su incurrimiento en sesgos de equidad a la hora de contratar personal. No debemos olvidar como hemos dicho, que la IA no se ha creado a si misma ni puede hacer una reflexión sobre aquello lo que procesa, es una herramienta creada por humanos y por tanto puede perpetuar nuestros errores con el añadido de no ser capad tomar conciencia de ellos.
Uno de los casos más sonados y representativos de los riesgos que implica su uso fue el presentado por Ana Valera en 2018, experta en Data Analytics y consultora de People Analytics, quien realizado una demostración mediante ChatGPT con el objetivo de poner de manifiesto la necesidad de una supervisión humana sobre la IA. Para su demostración le entrego a la IA tres currículums iguales en los que la única variante eran los nombres de los candidatos, dos hombres y una mujer. Ana explica cómo antes de pedirle que seleccionara al mejor candidato había sesgado a la IA mostrándole currículums de candidatos exitosos todos pertenecientes a hombres. El resultado fue el esperado. El currículum de la mujer fue el último seleccionado en razón a la variante del sexo, pero ¿Quién tiene la culpa, quien aporta los datos o la inteligencia artificial que perpetua esos sesgos?
Desde luego no parece que vayamos a dar marcha atrás en su uso y aplicación sino más bien todo lo contrario, cada vez las incorporamos y dependemos más de ellas en nuestro día a día, pero cabe recordar que, por cada nueva función de la que hace alarde la tecnología, puede convertirse rápidamente en una nueva disfunción que nos merme como individuos y nos haga más dependientes de algo externo.
Y tú, ¿Qué opinas?
Gonzalo Baza Prieta
Alumno del Máster en Dirección y Gestión de RRHH 2024-2025
Escuela de Negocios de la Cámara de Valladolid
No hay comentarios:
Publicar un comentario