'Rise Of The Machines' No Es Un Futuro Probable (Op-Ed)

{h1}

Parece haber un creciente temor público a una toma de posesión robótica, una en la que la inteligencia artificial se apodera de la sociedad humana, pero ese escenario no está bien fundamentado en la realidad, argumenta el investigador de robótica de la universidad brown michael littman.

Michael Littman es profesor de ciencias de la computación en la Universidad de Brown. Es co-líder de la Iniciativa de Robótica Centrada en la Humanidad de Brown, que tiene como objetivo documentar las necesidades y aplicaciones sociales de la investigación de la interacción entre humanos y robots, así como las cuestiones éticas, legales y económicas que surgirán con su desarrollo. Littman contribuyó este artículo a WordsSideKick.com's Voces de expertos: Op-Ed y Insights.

Cada nueva tecnología trae sus propios escenarios de pesadilla. La inteligencia artificial (IA) y la robótica no son excepciones. De hecho, la palabra "robot" fue acuñada para una obra de 1920 que dramatizó precisamente un día de juicio final para la humanidad.

A principios de este mes, una carta abierta sobre el futuro de la IA, firmada por varios científicos y empresarios de alto perfil, incitó a una nueva ronda de titulares desgarradores como "Los principales científicos tienen una advertencia siniestra sobre la inteligencia artificial" y "Expertos en inteligencia artificial Promesa de proteger a la humanidad de las máquinas ". La implicación es que las máquinas un día desplazarán a la humanidad.

Aclaremos una cosa: un mundo en el que los humanos son esclavizados o destruidos por máquinas superinteligentes de nuestra propia creación es puramente ciencia ficción. Como cualquier otra tecnología, la IA tiene riesgos y beneficios, pero no podemos dejar que el miedo domine la conversación o guíe la investigación de la IA.

Sin embargo, la idea de cambiar drásticamente la agenda de investigación de AI para centrarse en la "seguridad" de AI es el mensaje principal de un grupo que se llama a sí mismo el Instituto de Futuro de la Vida (FLI). FLI incluye a un puñado de pensadores profundos y figuras públicas como Elon Musk y Stephen Hawking, y se preocupa por el día en que la humanidad se ve arrollada por poderosos programas que funcionan mal. [Los robots inteligentes superarán a los humanos para el año 2100, dicen los expertos]

Como lo describió elocuentemente el libro "Superinteligencia: Caminos, Peligros, Estrategias" (Oxford University Press, 2014), por el miembro de la junta asesora de FLI y el filósofo Nick Bostrom, la trama se desarrolla en tres partes. En la primera parte, aproximadamente donde estamos ahora, la potencia computacional y el software inteligente se desarrollan a un ritmo cada vez mayor a través del trabajo de los científicos e ingenieros. A continuación, se hace un gran avance: se crean programas que poseen inteligencia a la par con los humanos. Estos programas, que se ejecutan en computadoras cada vez más rápidas, se mejoran extremadamente rápido, lo que resulta en una "explosión de inteligencia" fuera de control. En el tercer y último acto, una súper-inteligencia singular se apodera: es más astuta, más astuta que las maniobras y, en última instancia, supera a la totalidad de la humanidad y tal vez a la vida misma. Escena final

Echemos un vistazo más de cerca a esta historia apocalíptica. De las tres partes, la primera está ocurriendo ahora y Bostrom proporciona vislumbres convincentes e iluminadoras de la tecnología actual y del futuro próximo. La tercera parte es un juego filosófico que explora las consecuencias de las máquinas supersmart. Es la segunda parte, la explosión de inteligencia, que viola de manera demostrable lo que sabemos de la informática y la inteligencia natural. [Historia de A.I.: Inteligencia Artificial (Infografía)]

¿Inteligencia fuera de control?

La noción de la explosión de inteligencia surge de la Ley de Moore, la observación de que la velocidad de las computadoras ha aumentado exponencialmente desde la década de 1950. Proyecte esta tendencia hacia adelante y veremos computadoras con el poder computacional de toda la raza humana en las próximas décadas. Sin embargo, es un paso para pasar de esta idea al crecimiento descontrolado de la inteligencia de la máquina.

Primero, el ingenio no es el único cuello de botella para desarrollar computadoras más rápidas. Las máquinas necesitan ser construidas realmente, lo que requiere recursos del mundo real. De hecho, la ley de Moore viene con un aumento exponencial de los costos de producción, ya que la producción masiva de electrónica de precisión no es barata. Además, hay leyes físicas fundamentales (límites cuánticos) que limitan la rapidez con que un transistor puede hacer su trabajo. Las tecnologías sin silicio pueden superar esos límites, pero tales dispositivos siguen siendo altamente especulativos.

Además de las leyes físicas, sabemos mucho sobre la naturaleza fundamental de la computación y sus límites. Por ejemplo, en general, se cree que algunos de los programas rápidos no pueden resolver algunos rompecabezas computacionales, como descubrir cómo factorizar un número y, por lo tanto, descifrar los esquemas de criptografía en línea. Son parte de una clase de problemas matemáticamente definidos que son "NP-completos", lo que significa que son exactamente tan difíciles como cualquier problema que se pueda resolver de manera no determinista (N) en el tiempo polinomial (P), y se han resistido a cualquier intento en solución escalable. Como resultado, se sabe que la mayoría de los problemas computacionales que asociamos con la inteligencia humana están en esta clase. [¿Qué tan inteligente es la inteligencia artificial avanzada? Prueba el nivel preescolar]

Espera un segundo, podrías decir. ¿Cómo se las arregla la mente humana para resolver problemas matemáticos que los científicos de la computación creen que no se pueden resolver? Nosotros no En general, hacemos trampa. Construimos un modelo mental de dibujos animados de los elementos del mundo en el que estamos interesados ​​y luego probamos el comportamiento de este mini mundo inventado. Existe un equilibrio entre la integridad y la capacidad de tratamiento en estos microcosmos imaginados. Nuestra capacidad para proponer y reflexionar y proyectar futuros creíbles tiene un costo de precisión.Incluso teniendo en cuenta la posibilidad de que existan computadoras considerablemente más rápidas que las que tenemos hoy en día, es una imposibilidad lógica que estas computadoras puedan simular con precisión la realidad más rápido que la realidad misma.

Si usted es un experto de actualidad, investigador, líder empresarial, autor o innovador, y desea contribuir con un artículo de opinión, envíenos un correo electrónico aquí.

Si usted es un experto de actualidad, investigador, líder empresarial, autor o innovador, y desea contribuir con un artículo de opinión, envíenos un correo electrónico aquí.

Contrarrestar la causa anti-IA

Ante el escepticismo general en las comunidades de inteligencia artificial y de informática sobre la posibilidad de una explosión de inteligencia, FLI todavía quiere ganar apoyo para su causa. La carta del grupo exige una mayor atención para maximizar los beneficios sociales del desarrollo de la IA. Muchos de mis estimados colegas firmaron la carta para mostrar su apoyo a la importancia de evitar los peligros potenciales de la tecnología. Pero unas pocas frases clave en la carta como "nuestros sistemas de inteligencia artificial deben hacer lo que queremos que hagan" son tomadas por la prensa como una admisión de que los investigadores de inteligencia artificial creen que podrían estar creando algo que "no se puede controlar". También implica que los investigadores de la IA están dormidos al volante, ajenos a las siniestras posibilidades, lo cual es simplemente falso. [Inteligencia artificial: ¿Amistosa o aterradora?]

Para ser claros, de hecho, existen inquietudes sobre el futuro a corto plazo de la IA: los comerciantes algorítmicos que golpean la economía o las redes eléctricas sensibles reaccionan exageradamente a las fluctuaciones y cortan la electricidad para grandes sectores de la población. También existe la preocupación de que los prejuicios sistémicos dentro de la academia y la industria impiden que las minorías subrepresentadas participen y ayuden a dirigir el crecimiento de la tecnología de la información. Estas preocupaciones deben jugar un papel central en el desarrollo y despliegue de nuevas ideas. Pero las temidas predicciones de las computadoras que de repente se despiertan y se activan no son realistas.

Acojo con satisfacción una discusión abierta sobre cómo la inteligencia artificial puede ser robusta y beneficiosa, y cómo podemos diseñar máquinas y sistemas inteligentes que mejoren la sociedad. Pero, mantengamos la discusión firmemente dentro del ámbito de la razón y dejemos los levantamientos de robots a los guionistas de Hollywood.

Siga todos los temas y debates de Expert Voices, y forme parte de la discusión, en Facebook, Twitter y Google+. Las opiniones expresadas son las del autor y no necesariamente reflejan las opiniones del editor. Esta versión del artículo se publicó originalmente en WordsSideKick.com.


Suplemento De Vídeo: The Rise of the Machines – Why Automation is Different this Time.




ES.WordsSideKick.com
Reservados Todos Los Derechos!
La Reproducción De Cualquier Permitió Sólo Prostanovkoy Enlace Activo Al Sitio ES.WordsSideKick.com

© 2005–2019 ES.WordsSideKick.com