Lo que la inteligencia artificial realmente puede hacer hoy
Lo que la inteligencia artificial realmente puede hacer hoy
Anonim

Alerta de spoiler: todavía falta mucho tiempo para el levantamiento de las máquinas.

Lo que la inteligencia artificial realmente puede hacer hoy
Lo que la inteligencia artificial realmente puede hacer hoy

Cuando Elon Musk presenta el robot humanoide Tesla Bot, parece que una nueva revolución científica está a la vuelta de la esquina. Un poco más, y la inteligencia artificial (IA) superará a los humanos, y las máquinas nos reemplazarán en el trabajo. Sin embargo, se pide a los profesores Gary Marcus y Ernest Davis, ambos reconocidos expertos en inteligencia artificial, que no se apresuren a sacar tales conclusiones.

En Artificial Intelligence Reboot, los investigadores explican por qué la tecnología moderna está lejos de ser ideal. Con el permiso de la editorial "Alpina PRO", Lifehacker publica un extracto del primer capítulo.

En este punto, existe una gran brecha, un verdadero abismo, entre nuestra ambición y la realidad de la inteligencia artificial. Este abismo ha surgido debido a la falta de resolución de tres problemas específicos, cada uno de los cuales debe tratarse con honestidad.

El primero de ellos es lo que llamamos credulidad, que se basa en el hecho de que los humanos realmente no hemos aprendido a distinguir entre humanos y máquinas, y esto hace que sea fácil engañarnos. Atribuimos inteligencia a las computadoras porque nosotros mismos hemos evolucionado y vivido entre personas que basan en gran medida sus acciones en abstracciones como ideas, creencias y deseos. El comportamiento de las máquinas suele ser superficialmente similar al comportamiento de los humanos, por lo que rápidamente asignamos a las máquinas el mismo tipo de mecanismos básicos, incluso si las máquinas no los tienen.

No podemos evitar pensar en las máquinas en términos cognitivos (“Mi computadora cree que borré mi archivo”), sin importar cuán simples sean las reglas que las máquinas realmente siguen. Pero las conclusiones que se justifican a sí mismas cuando se aplican a humanos pueden ser completamente erróneas cuando se aplican a programas de inteligencia artificial. En deferencia a un principio básico de la psicología social, llamamos a esto el error de validez fundamental.

Uno de los primeros casos de este error ocurrió a mediados de la década de 1960, cuando un chatbot llamado Eliza convenció a algunas personas de que realmente entendía las cosas que le decían. De hecho, Eliza simplemente tomó palabras clave, repitió lo último que la persona le dijo y, en una situación sin salida, recurrió a trucos de conversación estándar como "Cuéntame sobre tu infancia". Si mencionas a tu madre, te preguntará sobre tu familia, aunque no tenía idea de qué es realmente la familia o por qué es importante para las personas. Fue solo una serie de trucos, no una demostración de verdadera inteligencia.

A pesar de que Eliza no entendía en absoluto a las personas, muchos usuarios se dejaron engañar por los diálogos con ella. Algunos pasaron horas escribiendo frases en el teclado, hablando de esta manera con Eliza, pero malinterpretando los trucos del chatbot, confundiendo el discurso del loro con un consejo útil y sincero o con simpatía.

Joseph Weisenbaum Creador de Eliza.

Las personas que sabían muy bien que estaban hablando con una máquina pronto olvidaron este hecho, al igual que los amantes del teatro dejan de lado su incredulidad por un tiempo y olvidan que la acción que presencian no tiene derecho a ser llamada real.

Los interlocutores de Eliza a menudo exigían permiso para una conversación privada con el sistema y después de la conversación insistieron, a pesar de todas mis explicaciones, que la máquina realmente los entendía.

En otros casos, el error al evaluar la autenticidad puede ser fatal en el sentido literal de la palabra. En 2016, un propietario de un automóvil Tesla automatizado confiaba tanto en la aparente seguridad del modo de piloto automático que (según las historias) se sumergió por completo en ver las películas de Harry Potter, dejando que el automóvil hiciera todo por sí solo.

Todo salió bien, hasta que en algún momento se puso mal. Después de haber conducido cientos o incluso miles de millas sin un accidente, el automóvil chocó (en todos los sentidos de la palabra) con un obstáculo inesperado: un camión blanco cruzó la carretera y Tesla se precipitó justo debajo del remolque, matando al propietario del automóvil en el acto.. (El automóvil pareció advertir al conductor varias veces que tomara el control, pero el conductor parecía estar demasiado relajado para reaccionar rápidamente).

La moraleja de esta historia es clara: el hecho de que un dispositivo pueda parecer "inteligente" por un momento o dos (e incluso seis meses) no significa en absoluto que lo sea realmente o que pueda hacer frente a todas las circunstancias en las que una persona reaccionaría adecuadamente.

El segundo problema lo llamamos ilusión de progreso rápido: confundir el progreso en inteligencia artificial, asociado con la resolución de problemas fáciles, con el progreso, asociado con la resolución de problemas realmente difíciles. Esto, por ejemplo, sucedió con el sistema IBM Watson: su avance en el juego Jeopardy! parecía muy prometedor, pero de hecho el sistema resultó estar mucho más lejos de comprender el lenguaje humano de lo que los desarrolladores habían anticipado.

Es posible que el programa AlphaGo de DeepMind siga el mismo camino. El juego de go, como el ajedrez, es un juego de información idealizado donde ambos jugadores pueden ver todo el tablero en cualquier momento y calcular las consecuencias de los movimientos por la fuerza bruta.

En la mayoría de los casos, en la vida real, nadie sabe nada con total certeza; nuestros datos suelen estar incompletos o distorsionados.

Incluso en los casos más simples, existe mucha incertidumbre. Cuando decidimos si ir al médico a pie o tomar el metro (ya que el día está nublado), no sabemos exactamente cuánto tiempo nos llevará esperar el tren subterráneo, si el tren se atasca en la carretera, si nos apretujaremos en el carruaje como arenques en un barril o nos mojaremos con la lluvia afuera, sin atrevernos a tomar el metro, y cómo reaccionará el médico ante nuestra tardanza.

Siempre trabajamos con la información que tenemos. Jugando a Go consigo mismo millones de veces, el sistema DeepMind AlphaGo nunca se ha ocupado de la incertidumbre, simplemente no sabe qué falta de información o su incompletitud e inconsistencia, sin mencionar las complejidades de la interacción humana.

Hay otro parámetro que hace que los juegos mentales sean muy diferentes del mundo real, y esto nuevamente tiene que ver con los datos. Incluso los juegos complejos (si las reglas son lo suficientemente estrictas) se pueden modelar casi a la perfección, por lo que los sistemas de inteligencia artificial que los juegan pueden recopilar fácilmente las enormes cantidades de datos que necesitan para entrenar. Así, en el caso de Go, una máquina puede simular un juego con personas simplemente jugando contra sí misma; incluso si el sistema necesita terabytes de datos, los creará él mismo.

De este modo, los programadores pueden obtener datos de simulación completamente limpios con un coste mínimo o nulo. Por el contrario, en el mundo real, los datos perfectamente limpios no existen, es imposible simularlos (ya que las reglas del juego cambian constantemente), y tanto más difícil es recolectar muchos gigabytes de datos relevantes por prueba. y error.

En realidad, solo tenemos unos pocos intentos para probar diferentes estrategias.

No somos capaces, por ejemplo, de repetir una visita al médico 10 millones de veces, ajustando gradualmente los parámetros de decisiones antes de cada visita, con el fin de mejorar drásticamente nuestro comportamiento en términos de elección de transporte.

Si los programadores quieren entrenar un robot para ayudar a los ancianos (por ejemplo, para ayudar a acostar a los enfermos), cada dato valdrá dinero real y tiempo humano real; no hay forma de recopilar todos los datos necesarios mediante juegos de simulación. Incluso los maniquíes de prueba de choque no pueden reemplazar a personas reales.

Es necesario recopilar datos sobre personas mayores reales con diferentes características de movimientos seniles, en diferentes tipos de camas, diferentes tipos de pijamas, diferentes tipos de casas, y aquí no se pueden cometer errores, porque dejar caer a una persona incluso a una distancia de varios centímetros de la cama sería un desastre. En este caso, lo que está en juego es un cierto progreso (hasta ahora el más elemental) en esta área que se ha logrado utilizando los métodos de la inteligencia artificial estrecha. Se han desarrollado sistemas informáticos que juegan casi al nivel de los mejores jugadores humanos en los videojuegos Dota 2 y Starcraft 2, donde en un momento dado solo se muestra a los participantes una parte del mundo del juego y, así, cada jugador se enfrenta a la problema de la falta de información, que con la mano ligera de Clausewitz se llama "la niebla de lo desconocido". Sin embargo, los sistemas desarrollados aún permanecen muy restringidos y su funcionamiento es inestable. Por ejemplo, el programa AlphaStar que se juega en Starcraft 2 solo ha aprendido una raza específica de una amplia variedad de personajes, y casi ninguno de estos desarrollos se puede jugar como cualquier otra raza. Y, por supuesto, no hay razón para creer que los métodos usados en estos programas sean adecuados para hacer generalizaciones exitosas en situaciones de la vida real mucho más complejas. vidas reales. Como IBM ha descubierto no una vez, sino dos veces (¡primero en el ajedrez y luego en Jeopardy!), El éxito en los problemas de un mundo cerrado no garantiza en absoluto el éxito en un mundo abierto.

El tercer círculo del abismo descrito es una sobreestimación de la fiabilidad. Una y otra vez, vemos que tan pronto como las personas con la ayuda de la inteligencia artificial encuentran una solución a algún problema que puede funcionar sin fallas por un tiempo, automáticamente asumen que con revisión (y con una cantidad de datos un poco mayor) todo Funcionará de manera confiable. Pero este no es necesariamente el caso.

Retomamos coches sin conductor. Es relativamente fácil crear una demostración de un vehículo autónomo que se conducirá correctamente a lo largo de un carril claramente marcado en una carretera tranquila; sin embargo, la gente ha podido hacer esto durante más de un siglo. Sin embargo, es mucho más difícil conseguir que estos sistemas funcionen en circunstancias difíciles o inesperadas.

Como Missy Cummings, directora del Laboratorio de Humanos y Autonomía de la Universidad de Duke (y ex piloto de combate de la Marina de los EE. UU.), Nos dijo en un correo electrónico, la pregunta no es cuántas millas puede viajar un automóvil sin conductor sin un accidente. al que estos coches son capaces de adaptarse a situaciones cambiantes. Según su Missy Cummings, correo electrónico a los autores el 22 de septiembre de 2018., los vehículos semiautónomos modernos "por lo general sólo operan en un rango muy estrecho de condiciones, que no dicen nada acerca de cómo pueden operar en condiciones menos que ideales".

Verse completamente confiable en millones de millas de prueba en Phoenix no significa tener un buen desempeño durante el monzón en Bombay.

Esta diferencia fundamental entre cómo se comportan los vehículos autónomos en condiciones ideales (como días soleados en carreteras suburbanas de varios carriles) y lo que podrían hacer en condiciones extremas puede convertirse fácilmente en una cuestión de éxito y fracaso para toda una industria.

Con tan poco énfasis en la conducción autónoma en condiciones extremas y que la metodología actual no ha evolucionado en la dirección de garantizar que el piloto automático funcione correctamente en condiciones que apenas comienzan a considerarse reales, pronto quedará claro que miles de millones de dólares se han invertido en métodos de fabricación de vehículos autónomos que simplemente no ofrecen una fiabilidad de conducción similar a la humana. Es posible que para alcanzar el nivel de confianza técnica que necesitamos, se requieran enfoques fundamentalmente diferentes a los actuales.

Y los automóviles son solo un ejemplo de muchos similares. En la investigación moderna sobre inteligencia artificial, su fiabilidad se ha subestimado a nivel mundial. Esto se debe en parte a que la mayoría de los desarrollos actuales en esta área implican problemas que son altamente tolerantes a errores, como recomendar publicidad o promocionar nuevos productos.

De hecho, si le recomendamos cinco tipos de productos y solo le gustan tres de ellos, no ocurrirá ningún daño. Pero en una serie de aplicaciones de inteligencia artificial críticas para el futuro, incluidos los automóviles sin conductor, el cuidado de personas mayores y la planificación de la atención médica, la confiabilidad similar a la humana será fundamental.

Nadie comprará un robot doméstico que pueda llevar con seguridad a su abuelo anciano a la cama solo cuatro de cada cinco veces.

Incluso en aquellas tareas en las que la inteligencia artificial moderna debería aparecer teóricamente de la mejor manera posible, ocurren fallas graves con regularidad, a veces con un aspecto muy divertido. Un ejemplo típico: los ordenadores, en principio, ya han aprendido bastante bien a reconocer lo que está (o está pasando) en esta o aquella imagen.

A veces, estos algoritmos funcionan muy bien, pero a menudo producen errores completamente increíbles. Si muestra una imagen a un sistema automatizado que genera subtítulos para fotografías de escenas cotidianas, a menudo obtiene una respuesta que es notablemente similar a lo que escribiría un humano; por ejemplo, para la escena siguiente, donde un grupo de personas está jugando al frisbee, el sistema de generación de subtítulos de Google, muy publicitado, le da exactamente el nombre correcto.

Figura 1.1. Grupo de jóvenes jugando frisbee (pie de foto plausible, generado automáticamente por AI)
Figura 1.1. Grupo de jóvenes jugando frisbee (pie de foto plausible, generado automáticamente por AI)

Pero cinco minutos después, puedes obtener fácilmente una respuesta absolutamente absurda del mismo sistema, como sucedió, por ejemplo, con esta señal de tráfico, en la que alguien pegó pegatinas: la computadora llamada Los creadores del sistema no explicaron por qué ocurrió este error., pero estos casos no son infrecuentes. Podemos suponer que el sistema en este caso particular clasificó (quizás en términos de color y textura) la fotografía como similar a las otras imágenes (de las que aprendió) etiquetadas como "un refrigerador lleno de mucha comida y bebidas". Naturalmente, la computadora no entendió (lo que una persona podría entender fácilmente) que tal inscripción sería apropiada solo en el caso de una gran caja de metal rectangular con varios (e incluso no todos) objetos adentro. esta escena es "un refrigerador con mucha comida y bebida".

Arroz. 1.2. Refrigerador lleno de montones de alimentos y bebidas (título totalmente inverosímil, creado por el mismo sistema que el anterior)
Arroz. 1.2. Refrigerador lleno de montones de alimentos y bebidas (título totalmente inverosímil, creado por el mismo sistema que el anterior)

Asimismo, los autos sin conductor a menudo identifican correctamente lo que “ven”, pero a veces parecen pasar por alto lo obvio, como en el caso de Tesla, que regularmente choca contra camiones de bomberos estacionados o ambulancias en piloto automático. Los puntos ciegos como estos pueden ser aún más peligrosos si están ubicados en sistemas que controlan las redes eléctricas o son responsables de monitorear la salud pública.

Para cerrar la brecha entre la ambición y las realidades de la inteligencia artificial, necesitamos tres cosas: una conciencia clara de los valores en juego en este juego, una comprensión clara de por qué los sistemas de IA modernos no realizan sus funciones de manera suficientemente confiable y, finalmente, una nueva estrategia de desarrollo pensando en la máquina.

Dado que lo que está en juego en la inteligencia artificial es realmente alto en términos de empleo, seguridad y el tejido de la sociedad, existe una necesidad urgente de que todos nosotros, profesionales de la inteligencia artificial, profesiones relacionadas, ciudadanos comunes y políticos, comprendamos el verdadero estado de las cosas. en este campo con el fin de aprender a evaluar críticamente el nivel y la naturaleza del desarrollo de la inteligencia artificial actual.

Así como es importante que los ciudadanos interesados en las noticias y las estadísticas comprendan lo fácil que es engañar a las personas con palabras y números, aquí hay un aspecto cada vez más importante de la comprensión para que podamos averiguar dónde está la inteligencia artificial. Solo publicidad, pero donde es real; lo que es capaz de hacer ahora, y lo que no sabe cómo y, tal vez, no aprenderá.

Lo más importante es darse cuenta de que la inteligencia artificial no es magia, sino solo un conjunto de técnicas y algoritmos, cada uno de los cuales tiene sus propias fortalezas y debilidades, es adecuado para algunas tareas y no apto para otras. Una de las principales razones por las que nos propusimos escribir este libro es que mucho de lo que leemos sobre inteligencia artificial nos parece una fantasía absoluta, que surge de una confianza infundada en el poder casi mágico de la inteligencia artificial.

Mientras tanto, esta ficción no tiene nada que ver con las capacidades tecnológicas modernas. Desafortunadamente, la discusión sobre la IA entre el público en general ha estado y está muy influenciada por la especulación y la exageración: la mayoría de la gente no tiene idea de lo difícil que es crear inteligencia artificial universal.

Aclaremos más discusión. Aunque aclarar las realidades asociadas con la IA requerirá serias críticas de nuestra parte, nosotros mismos no somos de ninguna manera oponentes a la inteligencia artificial, realmente nos gusta este lado del progreso tecnológico. Hemos vivido una parte importante de nuestra vida como profesionales en este campo y queremos que se desarrolle lo más rápido posible.

El filósofo estadounidense Hubert Dreyfus escribió una vez un libro sobre lo que, en su opinión, la inteligencia artificial nunca puede alcanzar. De esto no se trata este libro. Se centra en parte en lo que la IA no puede hacer actualmente y por qué es importante entenderlo, pero una parte significativa habla de lo que se podría hacer para mejorar el pensamiento informático y extenderlo a áreas donde ahora tiene dificultades para hacer primero. Pasos.

No queremos que desaparezca la inteligencia artificial; queremos que mejore, además, radicalmente, para que podamos realmente contar con él y solucionar con su ayuda los múltiples problemas de la humanidad. Tenemos muchas críticas sobre el estado actual de la inteligencia artificial, pero nuestra crítica es una manifestación de amor por la ciencia que hacemos, no un llamado a darnos por vencidos y abandonarlo todo.

En resumen, creemos que la inteligencia artificial puede transformar seriamente nuestro mundo; pero también creemos que muchas de las suposiciones básicas sobre la IA deben cambiar antes de que podamos hablar sobre un progreso real. Nuestra propuesta de "reinicio" de la inteligencia artificial no es en absoluto una razón para poner fin a la investigación (aunque algunos pueden entender nuestro libro exactamente con este espíritu), sino más bien un diagnóstico: dónde estamos atrapados ahora y cómo salimos de él. situación actual.

Creemos que la mejor manera de avanzar puede ser mirar hacia adentro, enfrentando la estructura de nuestra propia mente.

Las máquinas verdaderamente inteligentes no tienen que ser réplicas exactas de los humanos, pero cualquiera que observe la inteligencia artificial con honestidad verá que todavía hay mucho que aprender de los humanos, especialmente de los niños pequeños, que en muchos aspectos son muy superiores a las máquinas en el mundo. su capacidad para absorber y comprender nuevos conceptos.

Los científicos médicos a menudo caracterizan a las computadoras como sistemas "sobrehumanos" (de una forma u otra), pero el cerebro humano sigue siendo muy superior a sus homólogos de silicio en al menos cinco aspectos: podemos entender el lenguaje, podemos entender el mundo, podemos de forma flexible adaptarnos a nuevas circunstancias, podemos aprender rápidamente cosas nuevas (incluso sin grandes cantidades de datos) y podemos razonar frente a información incompleta e incluso contradictoria. En todos estos frentes, los sistemas modernos de inteligencia artificial están irremediablemente detrás de los humanos.

Reinicio de inteligencia artificial
Reinicio de inteligencia artificial

Inteligencia artificial: Reboot interesará a las personas que quieran comprender las tecnologías modernas y comprender cómo y cuándo una nueva generación de IA puede mejorar nuestras vidas.

Recomendado: