La inteligencia artificial no solo es el término de moda en la industria de la tecnología. Es su salvación. Es el punto de partida hacia el futuro, pero los actuales sistemas de computación inteligente, basados en algoritmos y modelos de «aprendizaje automático», succionan sin embargo sesgos y
comportamientos ideológicos heredados, ¡oh vaya!, de sus «entrenadores». No solo a nivel sociocultural, sino que las máquinas que estamos diseñando en estos momentos replican actitudes sexistas e, incluso racistas.
Un camino oscuro que, según perfilaba un recomendable estudio presentado el pasado año, traza todo lo contrario que se pretendía cuando se desarrollaron las primeras máquinas «pensantes». No solo las «inteligencias artificiales» son, en muchos casos, machistas, sino que está tomando los vicios de los seres humanos occidentales. Más que nada porque los ingenieros y desarrolladores de los algoritmos empezaron su tarea de investigar la autonomía y lógica de los sistemas informaticos sin conjura alguna. Lo hicieron a las bravas, sin reparar en que el futuro que se está diseñando podría oponerse a integrar los mismos vicios de las actuales sociedades.
Así que, conocido ese magma de problemas, las grandes empresas del sector que están metidas en el ajo aspiran a corregir ese viento en contra. Les toca bogar por los recovecos de la tecnología para devolverlos al cauce correcto, porque, tal vez, se está todavía a tiempo. Una de las firmas más implicadas en esta materia, IBM, ha desarrollado un nuevo servicio de software a través de su plataforma en la «nube» que está orientada a «detectar sesgos en las decisiones tomadas por las herramientas basadas en la Inteligencia Artificial (IA)».
El objetivo es incorporar a las máquinas valores y ética. Un desafío que diversas alianzas internacionales compuestas por grandes gurús y expertos llevan tiempo defendiendo a capa y espada. Con ello, la veterana firma tecnológica pretende hacer que la IA sea más «transparente» y «explicable» cuando toma decisiones. «Estos desarrollos dan respuesta a la preocupación de las empresas por una mayor transparencia en la toma de decisiones de la Inteligencia Artificial», apunta en un comunicado Beth Smith, directora general de Watson AI de IBM.
Estas nuevas herramients están orientadas en principio a las emrpesas que utilizan la IA para lograr «una mayor transparencia y control para afrontar el riesgo potencial de una toma de decisiones errónea», añade por su parte David Kenny, vicepresidente sénior de Soluciones Cognitivas de IBM. Con ello se da un pequeño salto a la evolución de estos sistemas inteligentes.
Estos nuevos desarrollos, disponibles en IBM Cloud, funcionan con modelos construidos a partir de una amplia variedad de entornos de «machine learning» -aprendizaje automático- y entornos personalizados de IA como Watson, Tensorflow, SparkML, AWS SageMaker y AzureML. Los algoritmos responsables también fomra parte del interés de otras cmopañías como Accenture, que recientemente presentaba una herramienta llamada AI Fairness.
Las preocupaciones acerca de las posibles implicaciones de la IA en la sociedad son muy habituales. En su libro «Armas de destrucción matemática», la científica y matemática Cathy O’Neil pone de relieve que las decisiones que toman esos famosos algoritmos «aumentan la desigualdad», provocando que sean las máquinas quienes concedan o no un préstamo, evalúen a los empleados, monitoricen la salud de los ciudadanos y, además, lleguen a influir en el criterio de los potenciales votantes en unas elecciones.
Una situación en la que coincide el activista Eli Pariser, quien ha desarrollado una teoría bautizada como el «filtro burbuja». La mayor parte de los buscadores y páginas webs de noticias -relata- cuentan en la actualidad con este tipo de programas, y su objetivo no es precisamente que «el usuario cambie de opinión y amplíe sus horizontes». «Estas empresas deciden qué opciones tenemos de menú», lamenta. De ahí que si la intención del ser humano es que las máquinas sean mejores que las personas, es indudable que vamos por el mal camino.
No hay comentarios:
Publicar un comentario