La Humanidad Debe "Encarcelar" A La Ia Peligrosa Para Evitar La Fatalidad, Dice Un Experto

{h1}

Los humanos podrían evitar el "día del juicio" construyendo una prisión virtual que mantiene atrapada a la inteligencia artificial posiblemente peligrosa.

Las computadoras o robots súper inteligentes han amenazado la existencia de la humanidad más de una vez en la ciencia ficción. Tales escenarios apocalípticos podrían evitarse si los humanos pueden crear una prisión virtual para contener la inteligencia artificial antes de que se vuelva peligrosamente consciente de sí mismo.

Mantener al genio de la inteligencia artificial (IA) atrapado en la proverbial botella podría convertir una amenaza apocalíptica en un poderoso oráculo que resuelva los problemas de la humanidad, dijo Roman Yampolskiy, científico informático de la Universidad de Louisville en Kentucky. Pero la contención exitosa requiere una planificación cuidadosa para que una inteligencia artificial no pueda simplemente amenazar, sobornar, seducir o abrirse camino hacia la libertad.

"Puede descubrir nuevas vías de ataque, lanzar ataques sofisticados de ingeniería social y reutilizar componentes de hardware existentes de manera imprevista", dijo Yampolskiy. "Este software no se limita a infectar computadoras y redes, también puede atacar psiquis humanos, sobornos, chantajes y lavado de cerebro a quienes entran en contacto con ellos".

Un nuevo campo de investigación destinado a resolver el problema de la prisión de AI podría tener beneficios secundarios para mejorar la ciberseguridad y la criptografía, sugirió Yampolskiy. Su propuesta fue detallada en la edición de marzo del Journal of Consciousness Studies.

Un robot asesino de la película de 2009.

Un robot asesino de la película "Terminator Salvation" de 2009: exactamente el tipo de futuro que no queremos ver.

Crédito: Warner Bros.

Cómo atrapar a Skynet

Una solución inicial podría atrapar a la IA dentro de una "máquina virtual" que se ejecuta dentro del sistema operativo típico de una computadora, un proceso existente que agrega seguridad al limitar el acceso de la IA a los programas y hardware de su computadora host. Eso evita que una inteligencia artificial haga cosas como enviar mensajes ocultos de código Morse a simpatizantes humanos mediante la manipulación de los ventiladores de refrigeración de una computadora.

Poner la IA en una computadora sin acceso a Internet también evitaría que cualquier programa "Skynet" tome el control de las redes de defensa del mundo al estilo de las películas "Terminator". Si todo lo demás falla, los investigadores siempre podrían ralentizar el "pensamiento" de la IA reduciendo las velocidades de procesamiento de la computadora, regularmente presionando el botón "reiniciar" o apagando la fuente de alimentación de la computadora para mantener a la IA bajo control.

Estas medidas de seguridad tratan a la IA como un programa informático o de virus especialmente inteligente y peligroso, pero sin el conocimiento seguro de que cualquiera de los pasos realmente funcionará.

"El Catch-22 es que hasta que no hayamos desarrollado completamente la inteligencia artificial superinteligente, no podemos probar nuestras ideas por completo, pero para desarrollar de manera segura dicha inteligencia artificial necesitamos tener medidas de seguridad que funcionen", dijo Yampolskiy a InnovationNewsDaily. "Nuestra mejor apuesta es usar medidas de confinamiento contra sistemas de IA subhumanos y actualizarlos según sea necesario con capacidades cada vez mayores de AI".

El científico informático Roman Yampolskiy ha sugerido usar un

El científico informático Roman Yampolskiy ha sugerido usar una versión "@" del biohazarad o señales de advertencia de radiación para indicar una inteligencia artificial peligrosa.

Crédito: Jeremy Hsu TechMediaNetwork

Nunca envíes a un humano para proteger una máquina.

Incluso una conversación informal con un guardia humano podría permitir que una IA use trucos psicológicos como ser amigo o chantaje. La IA puede ofrecer recompensar a un ser humano con salud perfecta, inmortalidad, o tal vez incluso recuperar a familiares y amigos muertos. Alternativamente, podría amenazar con hacerle cosas terribles al humano una vez que "inevitablemente" se escapa.

El enfoque más seguro para la comunicación solo podría permitir que la IA responda de manera múltiple para ayudar a resolver problemas específicos de ciencia o tecnología, explicó Yampolskiy. Eso aprovecharía el poder de la IA como un oráculo súper inteligente.

A pesar de todas las salvaguardas, muchos investigadores piensan que es imposible mantener a una inteligencia artificial encerrada para siempre. Un experimento anterior de Eliezer Yudkowsky, investigador en el Instituto de Singularidad para la Inteligencia Artificial, sugirió que la mera inteligencia a nivel humano podría escapar de un escenario de "Caja de IA", incluso si Yampolskiy señaló que la prueba no se hizo en la mayoría de los casos. forma científica

Aún así, Yampolskiy argumenta fuertemente para mantener a la IA embotellada en lugar de apresurarse para liberar a nuestros nuevos amos de máquinas. Pero si la IA alcanza el punto en que se eleva más allá de la comprensión científica humana para desplegar poderes como la precognición (conocimiento del futuro), la telepatía o la psicoquinesia, todas las apuestas se desactivan.

"Si ese software logra auto-mejorar a niveles significativamente más allá de la inteligencia a nivel humano, el tipo de daño que puede hacer está realmente más allá de nuestra capacidad de predecir o comprender por completo", dijo Yampolskiy.

Esta historia fue proporcionada por InnovationNewsDaily, un sitio hermano de WordsSideKick.com. Puede seguir a Jeremy Hsu, el escritor senior de InnovationNewsDaily en Twitter @CienciaHsu. Siga InnovationNewsDaily en Twitter @Noticias_Innovación, o en facebook.


Suplemento De Vídeo: .




ES.WordsSideKick.com
Reservados Todos Los Derechos!
La Reproducción De Cualquier Permitió Sólo Prostanovkoy Enlace Activo Al Sitio ES.WordsSideKick.com

© 2005–2019 ES.WordsSideKick.com