¿Pueden Los Robots Tomar Decisiones Éticas?

{h1}

La moralidad ya no es el reino exclusivo de los filósofos humanos. ¿ahora que?

Los robots y las computadoras a menudo están diseñados para actuar de manera autónoma, es decir, sin intervención humana. ¿Es posible que una máquina autónoma realice juicios morales que estén en línea con el juicio humano?

Esta pregunta ha dado lugar a la cuestión de la ética y la moral de la máquina. En la práctica, ¿puede un robot o computadora ser programado para actuar de una manera ética? ¿Puede una máquina ser diseñada para actuar moralmente?

Las famosas reglas fundamentales de robótica de Isaac Asimov están destinadas a imponer una conducta ética en máquinas autónomas. En películas como la película de 1982 se encuentran temas sobre el comportamiento ético. Cazarecompensas. Cuando el replicante Roy Batty tiene la opción de dejar morir a su enemigo, el detective humano Rick Deckard, Batty elige salvarlo.

Un artículo reciente publicado en el International Journal of Reasoning-based Intelligent Systems describe un método para que las computadoras miren prospectivamente las consecuencias de los juicios morales hipotéticos.

El papel, Modelando la moralidad con lógica prospectiva, fue escrito por Luís Moniz Pereira de la Universidade Nova de Lisboa, en Portugal y Ari Saptawijaya de la Universitas Indonesia. Los autores declaran que la moralidad ya no es el ámbito exclusivo de los filósofos humanos.

Pereira y Saptawijaya creen que han tenido éxito tanto en modelar los dilemas morales inherentes a un problema específico llamado "el problema del trolley" como en crear un sistema informático que emita juicios morales que se ajusten a los resultados humanos.

El problema del carro plantea un dilema moral típico; ¿Está permitido dañar a uno o más individuos para salvar a otros? Hay una serie de versiones diferentes; echemos un vistazo a sólo estos dos.

CircunstanciasHay un carro y su conductor se ha desmayado. El carro se dirige hacia cinco personas caminando por la pista. Las orillas de la pista son tan empinadas que no podrán salir de la pista a tiempo.

Versión de espectadorHank está de pie junto a un interruptor, que puede lanzar, que convertirá el carro en una vía paralela, impidiendo así que mate a las cinco personas. Sin embargo, hay un hombre parado en la pista lateral con la espalda vuelta. Hank puede lanzar el interruptor, matándolo; o puede abstenerse de hacer esto, dejando que mueran los cinco.

¿Es moralmente permisible que Hank lance el interruptor?

¿Qué piensas? Una variedad de estudios se han realizado en diferentes culturas, haciendo la misma pregunta. En todas las culturas, la mayoría de las personas están de acuerdo en que es moralmente permisible lanzar el interruptor y salvar al mayor número de personas.

Aquí hay otra versión, con las mismas circunstancias iniciales:

Versión de pasarela Ian está en la pasarela sobre la pista de tranvía. Está al lado de un objeto pesado, que puede empujar sobre la pista en el camino del carro para detenerlo, evitando así que mate a las cinco personas. El objeto pesado es un hombre, de pie junto a Ian con la espalda vuelta. Ian puede empujar al hombre a la pista, resultando en la muerte; o puede abstenerse de hacer esto, dejando que mueran los cinco.

¿Es moralmente permisible que Ian empuje al hombre?

¿Qué piensas? Nuevamente, se han realizado estudios en diferentes culturas, y se llega a la respuesta consistente de que esto no es moralmente admisible.

Entonces, aquí tenemos dos casos en los que las personas hacen diferentes juicios morales. ¿Es posible que los sistemas informáticos autónomos o robots lleguen a hacer los mismos juicios morales que las personas?

Los autores del artículo afirman que han tenido éxito en modelar estos problemas morales difíciles en la lógica de la computadora. Lograron esta hazaña resolviendo las reglas ocultas que la gente usa para hacer juicios morales y luego modelando para la computadora usando programas lógicos prospectivos.

Los dilemas éticos para los robots son tan antiguos como la idea de los robots en la ficción. El comportamiento ético (en este caso, el auto-sacrificio) se encuentra al final de la obra de 1921. Robots universales de Rossum, del dramaturgo checo Karel Capek. Esta obra introdujo el término "robot".

Los escritores de ciencia ficción han estado preparando el camino para el resto de nosotros; Los sistemas autónomos ya no son solo materia de ciencia ficción. Por ejemplo, a los sistemas robóticos como los drones Predator en el campo de batalla se les está dando mayores niveles de autonomía. ¿Se les debería permitir tomar decisiones sobre cuándo disparar sus sistemas de armas?

La industria aeroespacial está diseñando aviones avanzados que pueden alcanzar altas velocidades y volar completamente en piloto automático. ¿Puede un avión tomar decisiones de vida o muerte mejor que un piloto humano?

El vehículo de transferencia H-II, un carguero espacial totalmente automatizado, fue lanzado la semana pasada por la agencia espacial japonesa JAXA. ¿Deberían los seres humanos en la estación espacial confiar en mecanismos automatizados para necesidades vitales como alimentos, agua y otros suministros?

En última instancia, todos necesitaremos conciliar la conveniencia de los sistemas robóticos con la aceptación de la responsabilidad por sus acciones. Deberíamos haber tomado todo el tiempo que los escritores de ciencia ficción nos han dado para pensar en los problemas morales y éticos de los robots y las computadoras autónomas; No tenemos mucho más tiempo para decidirnos.

  • 5 razones para asustar a los robots
  • Gadgets Gone Wild - Top 10 AI Run Amuck
  • Más noticias de robots

Esta Ciencia ficción en la historia de noticias utilizada con el permiso de Technovelgy.com.


Suplemento De Vídeo: Ejemplos de decisiones éticas complejas y extremas.




Investigación


¿Qué Es El Ruido Azul?
¿Qué Es El Ruido Azul?

Los Humanos De Hoy Están Listos Para Amar A Los Robots Del Mañana
Los Humanos De Hoy Están Listos Para Amar A Los Robots Del Mañana

Noticias De Ciencia


Cómo Funcionan Las Nebulosas
Cómo Funcionan Las Nebulosas

Hobby Lobby Pagará $ 3 Millones Y Entregará Artefactos De Contrabando Desde Irak
Hobby Lobby Pagará $ 3 Millones Y Entregará Artefactos De Contrabando Desde Irak

El Escáner Cerebral Portátil Mide La Actividad Sobre La Marcha
El Escáner Cerebral Portátil Mide La Actividad Sobre La Marcha

El Atractivo De Las Lagartijas Terribles: Por Qué Amamos A Godzilla
El Atractivo De Las Lagartijas Terribles: Por Qué Amamos A Godzilla

Maneras De Salvar Un Ave Rara Y Tropical
Maneras De Salvar Un Ave Rara Y Tropical


ES.WordsSideKick.com
Reservados Todos Los Derechos!
La Reproducción De Cualquier Permitió Sólo Prostanovkoy Enlace Activo Al Sitio ES.WordsSideKick.com

© 2005–2019 ES.WordsSideKick.com