¿Los robots tienen ética y moral?

La robótica e inteligencia artificial está creciendo a pasos agigantados, cada vez se crean mejores, más efectivos y por sobre todo más inteligentes máquinas que lo hacen casi todo mejor que los humanos.

Los robots, creación de los humanos, no son nuevos, se vienen creando desde hace décadas de hecho, pero en esta última están tomando un rol protagónico en muchas industrias.

Un robot es una máquina creada, diseñada y programada por humanos. Como tal, se han creado para automatizar procesos y mejorar producciones, costos y tiempos, en cualquier industria.

Sin embargo, se ha abierto un gran debate últimamente sobre la inteligencia artificial y robots que pueden auto programarse por aprender por si mismos y tomar decisiones autónomas, es decir, sin necesidad de un programador.

inteligencia artificial etica y moral

Esto ha dado lugar a que nos hagamos la pregunta: ¿tienen conciencia los robots sobre el bien y el mal? ¿los robots tienen ética y moral?

Robots: la ética y moral de la inteligencia artificial

Los robots de antes se basaban 100% en instrucciones que un programador escribía en el código del software que corren.

Sin embargo los robots inteligentes de hoy en día se basan en la experimentación para aprender, es decir, aprenden de su entorno y de las nuevas interrogantes que surgen, para elegir por si mismos cómo responder.
Esto nos lleva a pensar, imaginemos que un robot policía se enfrenta al dilema de salvar la vida de un humano, o de dejarlo a su suerte en una situación límite. ¿Realmente podemos confiar en su razonamiento propio influenciado por sus principios de ética y moral?

Existen investigaciones como la de Ian Winfield, que trabaja para el Bristol Robotics de Inglaterra, donde trabaja activamente generando publicaciones sobre ética e inteligencia artificial como “Standardizing ethical design for artificial intelligence and autonomous systems“, entre otros.

Winfield a modo de experimento programó un robot que se basaba en los principios que rigen la ética de los humanos.

Luego debía interactuar para salvar una vida, y lo curioso fue que el robot pudo salvar a una persona en una situación determinada donde corría peligro su vida.

Es decir, el robot uso los principios humanos que se le habían programado. Sin embargo, este tipo de pruebas no ns llevan a responder la interrogante de las decisiones de robots inteligentes a nivel de su autonomía de razonamiento y auto-programación a futuro.

¿Puede existir un pensamiento ético en la inteligencia artificial de la robótica moderna?

El mismo experimento llevo al robot a una situación un poco más compleja.

En la segunda prueba, Ian puso la ética del robot en su mejor fase de análisis, y es que se le presentó un nuevo reto.

Diferente al primer caso, en esta segunda prueba se le presentaron dos casos de peligro para dos personas diferentes en un mismo escenario.

La gran pregunta de los científicos era: ¿a cuál salvaría? ¿salvaría a alguno de los dos o los dejaría correr peligro?

Luego de muchas pruebas los resultados resultaron bastante curiosos.

En muchos casos el robot logró salvar a las dos personas al mismo tiempo, lo que denota que ambos tenían el mismo valor de vida según su ética, tal como vemos en el vídeo.

Sin embargo, en algunas de las pruebas sólo podía lograr salvar a uno sólo. Según la revista NewCientists  Ante esto, el robot no lograba solucionar la situación, es decir, no lograba resolver el dilema moral y ético de a quién elegir por sobre el otro.

En el siguiente vídeo la revista lo ha ejemplificado de forma gráfica para ver cómo reaccionaba el robot ante los diferentes desafíos éticos.

En esta prueba nos mostró claramente que la ética no logró hacer que el robot tomara una decisión, los dos supuestos humanos teóricamente perdieron la vida, quizás por la simple razón de que no era un razonamiento lógico, sino de carácter ético y moral.

Así como este robot decidió salvar a los humanos, y más allá del resultado logrado de que aveces lo logró y otras no, lo que nos permite esto es también generar nuevas interrogantes como:

¿Qué pasaría si un robot inteligente comienza a razonar que los humanos somos el causante de la contaminación y destrucción del mundo, y que para mejorar el mundo (en caso de que esa sea su máxima y parte de su ética), decidiera exterminarnos? ¿O directamente no salvarnos en situaciones donde debería pensar que si?

Veremos qué depara el futuro de la robótica e inteligencia artificial sobre la ética y moral. ¿Nos sorprenderán para bien? ¿O se transformarán en un peligro para los humanos? ¿Qué opinas tu?


Artículos relacionados