Los autos autónomos enfrentan un obstáculo de la IA



Los problemas de los autos autónomos
Los problemas de los autos autónomos

Los escépticos dicen que la autonomía total podría estar más lejos de lo que admite la industria

Si crees en los CEOs, un automóvil completamente autónomo podría estar a solo unos meses de distancia. En 2015, Elon Musk predijo un Tesla totalmente autónomo para 2018; también lo hizo Google. El sistema Level 4 de Delphi y MobileEye está programado actualmente para 2019. El mismo año que Nutonomy planea desplegar miles de taxis sin conductor en las calles de Singapur. GM pondrá en producción un automóvil totalmente autónomo en 2019, sin volante ni capacidad para que intervengan los conductores. Hay dinero real detrás de estas predicciones. Las apuestas se basan en la suposición de que el software será capaz de ponerse al día con la expectativa.

La autonomía completa parece más cercana que nunca. Waymo ya está probando autos autónomos en caminos limitados pero públicos en Arizona. Tesla y una serie de otros imitadores ya venden una forma limitada de piloto automático, contando con los conductores para que intervengan si ocurre algo inesperado. Hubo algunos bloqueos, algunos mortales. Pero mientras los sistemas sigan mejorando, según la lógica, no podemos estar tan lejos de no tener que intervenir en absoluto.

Pero el sueño de un automóvil completamente autónomo puede ser más difícil de lo que creemos. Existe una creciente preocupación entre los expertos en AI de que pueden pasar años, sino décadas, antes de que los sistemas de conducción automática puedan evitar accidentes de manera confiable. A medida que los sistemas autodidácticos lidian con el caos del mundo real, expertos como Gary Marcus de NYU se preparan para una recalibración dolorosa de las expectativas. Una corrección que a veces se llama “EI invierno de la inteligencia artificial”. Esa demora podría tener consecuencias desastrosas para las empresas de la tecnología de la conducción autónoma. Poniendo la autonomía total fuera del alcance de toda una generación.

Los autos autónomos son como un experimento científico en donde no se conoce la respuesta

Es fácil ver por qué las compañías automotrices son optimistas con respecto a la autonomía. En los últimos diez años, el aprendizaje profundo, un método que utiliza algoritmos de aprendizaje automático en capas para extraer información estructurada de conjuntos de datos masivos, ha impulsado un progreso casi impensable en IA y la industria tecnológica. Potencia a Google Search, Facebook News Feed, algoritmos para convertir voz a texto y sistemas champion Go-playing. Fuera de internet, también utilizamos el aprendizaje profundo. Para detectar terremotos, predecir enfermedades del corazón y detectar comportamientos sospechosos con sistemas de cámaras. Junto con innumerables innovaciones que de otro modo hubieran sido imposibles.

Pero el aprendizaje profundo requiere cantidades masivas de datos de entrenamiento para funcionar correctamente. Incorpora casi todos los escenarios que el algoritmo encontrará. Sistemas como Google Images, por ejemplo, son excelentes para reconocer animales siempre y cuando tengan datos de entrenamiento para mostrarles cómo es cada animal. Marcus describe este tipo de tarea como “interpolación”. Se toma una encuesta de todas las imágenes etiquetadas como “ocelote” y se decide si la nueva imagen pertenece al grupo.

Los ingenieros pueden ser creativos en cuanto a dónde provienen los datos y cómo están estructurados. Pero imponen un límite estricto a la medida en que puede alcanzar un determinado algoritmo. El mismo algoritmo no puede reconocer a un ocelote a menos que haya visto miles de imágenes de un ocelote. Incluso si se han visto imágenes de gatos domésticos y jaguares, y sabe que los ocelotes están en algún punto intermedio. Ese proceso, llamado “generalización”, requiere un conjunto diferente de habilidades.

Las dificultades del aprendizaje profundo

Durante mucho tiempo, los investigadores pensaron que podrían mejorar las habilidades de generalización con los algoritmos correctos. Pero investigaciones recientes han demostrado que el aprendizaje profundo convencional es peor aún de lo que pensamos peor al generalizar. Un estudio encontró que los sistemas convencionales de aprendizaje profundo tienen dificultades, incluso para generalizar a través de diferentes cuadros de un video. Etiqueta al mismo oso polar como un mandril, mangosta o comadreja dependiendo de pequeños cambios en el fondo. Con cada clasificación basada en cientos de factores en conjunto, hasta pequeños cambios en las imágenes pueden cambiar completamente el juicio del sistema. Algo que otros investigadores han aprovechado en los conjuntos de datos contradictorios.

Marcus señala la fiebre del chatbot como el ejemplo más reciente de exageración que se enfrenta al problema de la generalización. “Nos prometieron bots de chat en 2015”, dice. “Pero no sirven porque no se trata solo de recopilar datos”. Cuando hablas con una persona en línea, no solo quieres que repita las conversaciones anteriores. Deseas que respondan a tus inquietudes. Aprovechando las habilidades de conversación más amplias para producir una respuesta que sea única para ti. El aprendizaje profundo no podía hacer ese tipo de chatbot. Una vez que el entusiasmo inicial se desvaneció, las empresas perdieron la fe en sus proyectos de chatbot. Todavía hay muy pocos en desarrollo activo.

Los autos autónomos y el aprendizaje profundo

Eso deja a Tesla y otras compañías de la autonomía con una pregunta aterradora. ¿Continuarán mejorando los autos autónmos, como la búsqueda de imágenes, el reconocimiento de voz y otras historias de éxito de la inteligencia artificial? ¿O se encontrarán con el problema de generalización como los chatbots? ¿Es la autonomía un problema de interpolación o un problema de generalización? ¿Qué tan imprevisible es conducir, realmente?

Puede ser muy pronto para saberlo. “Los autos autónomos son como un experimento científico en el que no conocemos la respuesta”, dice Marcus. Nunca antes hemos sido capaces de automatizar la conducción en este nivel, por lo que no sabemos qué tipo de tarea es. En la medida en que se trata de identificar objetos familiares y seguir reglas, las tecnologías existentes deberían estar a la altura de la tarea. Pero a Marcus le preocupa que conducir bien en escenarios propensos a los accidentes sea más complicado de lo que la industria quiere admitir. “En la medida en que suceden cosas nuevas sorpresivas, no es algo bueno para el aprendizaje profundo”.

Los accidentes de los autos autónomos

Los datos experimentales que tenemos provienen de informes públicos de accidentes. Cada uno de los cuales ofrece algunas aristas inusuales. Una colisión fatal de 2016 vio a un Modelo S conducir a toda velocidad en la parte trasera de un remolque blanco. Se econtraba confundido por la alta altura de marcha del remolque y el reflejo brillante del sol. En marzo, un accidente automovilístico en Uber mató a una mujer que empujaba una bicicleta, luego de que saliera de un cruce peatonal no autorizado. Según el informe de NTSB, el software de Uber primero identificó erróneamente a la mujer como un objeto desconocido. Luego como un vehículo, y finalmente como una bicicleta, actualizando sus proyecciones cada vez. En un accidente de California, un Modelo X se dirigió hacia una barrera y aceleró en los momentos previos al impacto. Las razones que aún no están claras.

Cada accidente parece un caso extremo, el tipo de cosa que los ingenieros no pueden predecir con anticipación. Pero casi todos los accidentes automovilísticos implican algún tipo de circunstancia imprevista. Sin capacidad de generalizar, los autos autónomos tendrán que enfrentar cada uno de estos escenarios como si fuera la primera vez. El resultado, una serie de accidentes casuales que no se vuelven menos comunes o menos peligrosos a medida que pasa el tiempo. Para los escépticos, un giro en los informes de desvinculación manual muestra que ese escenario ya está en marcha. Y que el progreso ya está llegando a un punto crítico.

El rol de la sociedad en la seguridad de los autos autónomos

El fundador de Drive.AI, Andrew Ng, ex ejecutivo de Baidu y uno de los impulsores más prominentes de la industria, argumenta que el problema no es construir un sistema de conducción perfecto. Sino entrenar a los transeúntes para que anticipen el comportamiento de conducción autónoma. En otras palabras, podemos hacer que las carreteras sean seguras para los autos, en lugar de al revés. Como ejemplo de un caso impredecible, a la pregunta si creía que los sistemas modernos podían manejar a un peatón en un pogo saltarín. Incluso si nunca habían visto uno. “Creo que muchos equipos AV podrían manejar a un usuario de pogo saltarín en el cruce de peatones”. Dijo Ng. “Habiendo dicho eso, rebotar en un palo de pogo en el medio de una carretera sería realmente peligroso”.

“En lugar de construir AI para resolver el problema del pogo saltarín, deberíamos asociarnos con el gobierno. Pedirles a las personas que sean legales y considerados”, dijo. “La seguridad no se trata solo de la calidad de la tecnología de inteligencia artificial”.

¿Hay otras opciones al aprendizaje profundo para los autos autónomos?

El aprendizaje profundo no es la única técnica de IA, y las compañías ya están explorando alternativas. Se sabe esto a pesar de que las técnicas están estrechamente protegidas dentro de la industria. Basta mirar la reciente demanda de Waymo contra Uber. Muchas empresas han pasado a la IA basada en reglas. Una técnica anterior que permite a los ingenieros codificar conductas específicas o lógica en un sistema que de otro modo sería autodirigido. No tiene la misma capacidad para escribir sus propios comportamientos simplemente estudiando los datos. Precisamente, es lo que hace que el aprendizaje profundo sea tan emocionante. Pero le permite a las compañías evitar algunas de las limitaciones del aprendizaje profundo. Pero con las tareas básicas de la percepción aún profundamente moldeadas por las técnicas de aprendizaje profundo, es difícil decir con qué éxito los ingenieros pueden poner en cuarentena los posibles errores.

Ann Miura-Ko, una capitalista de riesgo que forma parte del directorio de Lyft, dice que cree que parte del problema son las altas expectativas para los autos autónomos. Clasifica de cualquier cosa menos que la autonomía total como un fracaso. “Esperar que pasen de cero al nivel cinco es un desajuste en las expectativas más que un fracaso de la tecnología”. Dice Miura-Ko. “Veo todas estas micro-mejoras como características extraordinarias en el camino hacia la plena autonomía”.

Los objetivos de seguridad aceptables para los autos autónomos

Aún así, no está claro por cuánto tiempo los autos autónomos pueden permanecer en su limbo actual. Los productos semiautónomos como el piloto automático de Tesla son lo suficientemente inteligentes como para manejar la mayoría de las situaciones. Pero requieren la intervención humana si ocurre algo demasiado impredecible. Cuando algo sale mal, es difícil saber si el culpable es el auto o el conductor. Para algunos críticos, ese híbrido es posiblemente menos seguro que un conductor humano. Incluso si los errores son difíciles de atribuir completamente a la máquina. Un estudio realizado por la corporación Rand calculó que los autos autónomos deberían conducir 275 millones de millas sin una fatalidad para demostrar que son tan seguros como los conductores humanos. La primera muerte relacionada con el piloto automático de Tesla llegó aproximadamente a 130 millones de millas en el proyecto. Esto es está muy por debajo de la marca.

No se trata de un problema fácil de aislar

Pero con el aprendizaje profundo sentado en el corazón de cómo los autos autónomos perciben los objetos y deciden responder, mejorar la tasa de accidentes puede ser más difícil de lo que parece. “Este no es un problema fácil de aislar”, dice la profesora de Duke Mary Cummings. Señalando un accidente de Uber que mató a un peatón a principios de este año. “El ciclo percepción-decisión a menudo está vinculado, como en el caso de la muerte de peatones. Se tomó la decisión de no hacer nada en base a la ambigüedad en la percepción. El frenado de emergencia se apagó porque recibió demasiadas falsas alarmas del sensor “.

Ese accidente terminó con Uber pausando sus esfuerzos de conducción autónoma durante el verano. Un signo ominoso para otras compañías que planean el lanzamiento. En toda la industria, las compañías están compitiendo por más datos para resolver el problema, asumiendo que la empresa con la mayor cantidad de millas construirá el sistema más sólido. Pero cuando las empresas ven un problema de datos, Marcus ve algo mucho más difícil de resolver. “Simplemente están usando las técnicas que tienen con la esperanza de que funcionen”, dice Marcus. “Se apoyan en big data porque esa es la muleta que tienen, pero no hay pruebas de que lleguen al nivel de precisión que necesitamos”.


Sea el primero en comentar

Deje una respuesta

Su dirección de E-mail no será publicada.


*