Una inteligencia artificial… y parcial

Existen muy pocos sistemas completamente imparciales, y de hecho existen varios tipos de parcialidad y la mayoría pasan desapercibidos

0
186 views
Existen muy pocos sistemas completamente imparciales, y de hecho tienen varias formas de ser parcial y la mayoría pasan desapercibidas

Solemos pensar que las máquinas, los robots sobre todo, son fríos, calculadores e imparciales. Creemos que los coches autónomos no tienen preferencia sobre vida o muerte en situaciones de accidente. Y confiamos ciegamente en que el cajero de nuestro banco no sea parcial y nos robe dinero.

En la práctica no son más que pequeños errores en los algoritmos que rigen su inteligencia. Las máquinas no tienen –de momento– libre albedrío ni casi raciocinio, aunque ya conozcamos alguna que puede herir a humanos por supuesta voluntad propia.

Pero la realidad es diferente. Existen muy pocos sistemas completamente imparciales, y de hecho existen varios tipos de parcialidad. La mayoría pasan desapercibidos, pero hay que comprenderlas para evitar problemas más adelante. Estas son algunas de las más curiosas:

Parcialidad basada en datos

Para cualquier sistema que aprenda por sí mismo los resultados vienen determinados por los datos que reciben. Esto no es nuevo, simplemente solemos olvidarlo cuando vemos los sistemas haciendo millones de ejemplos. La cantidad de datos que manejan nos sobrepasan.

Pero si la base está sesgada, los resultados también lo estarán.

Un buen ejemplo de esta inteligencia parcial lo tenemos en las cámaras de Nikon, que no eran capaces de diferenciar entre distintas caras orientales. Son fallos corregibles y completamente accidentales, pero demuestran los problemas que puede dar una IA mal calibrada.

Interacción parcial

Los sistemas que aprenden por interacción pueden llegar a cierta parcialidad por lo que van captando. Un ejemplo de esto es el Microsoft Tay, un chatbot para Twitter diseñado para aprender de los usuarios y que, en poco tiempo, se volvió misógino y racista. La empresa de Gates decidió apagar el robot en menos de 24 horas desde que lo activó.

¿Y si ese sistema hubiera sido un profesor? Es para pensárselo. Gracias al ejemplo de Tay vimos que la parcialidad que puede heredar un sistema es la del entorno que le rodea.

Metas conflictivas

A veces los sistemas que están diseñados para algo en concreto acaban sufriendo una parcialidad, aunque de forma completamente imprevista.

El mejor ejemplo de este caso concreto lo escribió Isaac Asimov en ‘Yo, robot’, en uno de cuyos relatos puso en conflicto dos de sus propias leyes. Los problemas en nuestro mundo no son particularmente graves, más allá de una ineficiencia del sistema.

No sabemos si lograremos crear inteligencias artificiales con la capacidad de decidir. Lo que sabemos es que, hasta la fecha, tenemos que andar con cuidado y procurar enseñarles de la forma más coherente posible.

No hay comentarios

Dejar respuesta