Ética para robots: la guía científica definitiva

Según el Instituto Británico de Estándares la mejor forma de hacer que la gente se sienta segura es hacer el diseño de la IA transparente. Esto es más complicado de lo que parece. Incluso si la programación de los robots fuera accesible libremente, no nos garantizaría saber por qué hacen lo que hacen

0
124 views
Los robots reciben sus nuevas leyes éticas

Hace décadas que Isaac Asimov escribió sus célebres leyes sobre la robótica. Esas leyes que dictaminaban cómo debían comportarse los robots con la humanidad.

Hace no demasiado descubrimos un robot que se saltaba la primera de esas leyes: no dañar a un ser humano. Ahora, el Instituto Británico de Estándares (BSI por sus siglas en inglés) ha lanzado su propia versión de esas tres leyes.

Leyes de la Robótica de Asimov
  1. Los robots no podrán dañar ni permitir por inacción que un humano sufra daño
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª ley
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª ley

Las leyes presentadas por este instituto son, como comprenderás, mucho más complejas que las de Asimov. Aunque se parecen, como no podría ser de otra forma.

“Los robots no deben ser diseñados solo para matar o dañar humanos”, dicta el documento. También resalta que los humanos son responsables de las acciones de los autómatas. De esta forma, si un robot no actuara éticamente podríamos localizar al responsable.

Otra de las leyes presentadas es una modificación de la primera de Asimov: no herir ni discriminar a ningún ser humano. El texto con todas las reglas se puede comprar en la web del BSI por £79. Unos 92 euros.

Según el BSI la mejor forma de hacer que la gente se sienta segura es hacer el diseño de la IA transparente. Esto es más complicado de lo que parece. Incluso si la programación de los robots fuera accesible libremente, no nos garantizaría saber por qué hacen lo que hacen.

En el caso de las redes neuronales las decisiones son el producto del aprendizaje profundo. No hay nada que puedas señalar en estas redes que cree cierto resultado de la misma forma que puedes hacerlo con código de programación.

Los robots y el deep learning

Si una inteligencia artificial basada en aprendizaje profundo (deep learning) se usa en derecho y empieza a usar comportamientos racistas, podría ser complicado descubrir por qué. Tendríamos que volver a programarlo.

De todas formas el BSI quiere ir más allá y especula con ideas como los vínculos emocionales con robots. ¿Es correcto amar a un robot? No hay una respuesta concreta, pero será un problema en el futuro.

¿Y si nos volvemos totalmente dependientes de la AI? Si confiamos del todo en que los robots hagan todo el trabajo y lo hagan bien, seguramente no nos daremos cuenta si su comportamiento empieza a dar resultados menos óptimos.

O de si están empezando a almacenar armamento para acabar con la humanidad.

El autor recomienda

No hay comentarios

Dejar respuesta