Loading...
AIMercados

La increíble capacidad de predicción del caos del Machine Learning

Hace medio siglo, los pioneros de la teoría del caos descubrieron que el “efecto mariposa” hace imposible la predicción a largo plazo. Incluso la perturbación más pequeña de un sistema complejo (como el clima, la economía o casi cualquier otra cosa) puede provocar una concatenación de eventos que conduce a un futuro dramáticamente divergente. Al no poder precisar el estado de estos sistemas con la precisión suficiente para predecir cómo se desarrollarán, vivimos bajo un velo de incertidumbre.

Pero ahora los robots están aquí para ayudar.

En una serie de resultados publicados en las revistas Physical Review Letters y Chaos, los científicos han utilizado el aprendizaje automático, la misma técnica computacional detrás de los éxitos recientes en inteligencia artificial, para predecir la evolución futura de los sistemas caóticos en horizontes asombrosamente distantes. El enfoque está siendo alabado por expertos externos como innovador y es probable que encuentre una amplia aplicación.

“Me parece realmente asombroso hasta qué punto en el futuro predicen” la evolución caótica de un sistema, dijo Herbert Jaeger, profesor de ciencias computacionales en la Universidad Jacobs en Bremen, Alemania.

Los hallazgos provienen del veterano teórico del caos Edward Ott y cuatro colaboradores de la Universidad de Maryland. Emplearon un algoritmo de aprendizaje automático llamado computación de yacimientos para “aprender” la dinámica de un sistema caótico arquetípico llamado ecuación de Kuramoto-Sivashinsky. La solución evolutiva de esta ecuación se comporta como un frente de llama, parpadeando a medida que avanza a través de un medio combustible. La ecuación también describe las ondas de deriva en los plasmas y otros fenómenos, y sirve como “un banco de pruebas para estudiar la turbulencia y el caos espaciotemporal”, dijo Jaideep Pathak, estudiante graduado de Ott y autor principal de los nuevos artículos.

Después de capacitarse en los datos de la evolución pasada de la ecuación de Kuramoto-Sivashinsky, la computadora reservorio de los investigadores podría entonces predecir de cerca cómo el sistema flamígero continuaría evolucionando a ocho “tiempos de Lyapunov” en el futuro, ocho veces más adelante que antes. Métodos permitidos, hablando libremente. El tiempo de Lyapunov representa el tiempo que demoran exponencialmente dos estados casi idénticos de un sistema caótico. Como tal, típicamente establece el horizonte de la previsibilidad.

“Esto es realmente muy bueno”, dijo Holger Kantz, un teórico del caos en el Instituto Max Planck para la Física de Sistemas Complejos en Dresde, Alemania, acerca de la predicción del tiempo de ocho Lyapunov. “La técnica de aprendizaje automático es casi tan buena como saber la verdad, por así decirlo”.

El algoritmo no sabe nada acerca de la ecuación de Kuramoto-Sivashinsky; solo ve datos registrados sobre la evolución de la solución a la ecuación. Esto hace que el enfoque de aprendizaje automático sea poderoso; en muchos casos, las ecuaciones que describen un sistema caótico no se conocen, lo que paraliza los esfuerzos de los dinamistas por modelarlos y predecirlos. Los resultados de Ott y de la compañía sugieren que no necesita las ecuaciones, solo datos. “Este documento sugiere que algún día quizás podamos predecir el clima mediante algoritmos de aprendizaje automático y no con modelos sofisticados de la atmósfera”, dijo Kantz.

Además de las predicciones meteorológicas, los expertos dicen que la técnica de aprendizaje automático podría ayudar a controlar las arritmias cardíacas en busca de signos de ataques cardíacos inminentes y a los patrones de activación neuronal en el cerebro para detectar signos de picos neuronales. Más especulativamente, también podría ayudar a predecir olas gigantes, que ponen en peligro a las naves, y posiblemente incluso a los terremotos.

Ott espera particularmente que las nuevas herramientas resulten útiles para advertir por adelantado de las tormentas solares, como la que surgió a lo largo de las 35,000 millas de la superficie solar en 1859. Ese estallido magnético creó una aurora boreal visible en toda la Tierra y apagó algunos sistemas telegráficos. mientras genera suficiente voltaje para permitir que otras líneas operen con su alimentación apagada. Si tal tormenta solar azotara el planeta inesperadamente hoy, los expertos dicen que dañaría gravemente la infraestructura electrónica de la Tierra. “Si sabía que la tormenta se avecinaba, simplemente podría apagar la energía y volver a encenderla más tarde”, dijo Ott.

Pathak y sus colegas Brian Hunt, Michelle Girvan y Zhixin Lu (quien ahora se encuentra en la Universidad de Pennsylvania) lograron sus resultados sintetizando las herramientas existentes. Hace seis o siete años, cuando el poderoso algoritmo conocido como “aprendizaje profundo” estaba empezando a dominar tareas de inteligencia artificial como el reconocimiento de la imagen y el habla, comenzaron a leer sobre el aprendizaje automático y a pensar en formas inteligentes de aplicarlo al caos. Se enteraron de un puñado de resultados prometedores que anteceden a la revolución del aprendizaje profundo. Más importante aún, a principios de la década de 2000, Jaeger y su colega el teórico alemán Harald Haas utilizaron una red de neuronas artificiales conectadas al azar, que forman el “reservorio” en la computación de reservorios, para aprender la dinámica de tres variables coevolutivamente caóticas. Después de entrenar en las tres series de números, la red podría predecir los valores futuros de las tres variables hacia un horizonte impresionantemente distante. Sin embargo, cuando había más de unas pocas variables interactivas, los cálculos se volvieron increíblemente difíciles de manejar. Ott y sus colegas necesitaban un esquema más eficiente para hacer que la computación de yacimientos sea relevante para grandes sistemas caóticos, que tienen un gran número de variables interrelacionadas. Cada posición a lo largo de la parte delantera de una llama que avanza, por ejemplo, tiene componentes de velocidad en tres direcciones espaciales para realizar un seguimiento.

Llevó años encontrar una solución directa. “Lo que explotamos fue la localidad de las interacciones” en sistemas caóticos espacialmente extendidos, dijo Pathak. Localidad significa que las variables en un lugar están influenciadas por variables en lugares cercanos pero no por lugares lejanos. “Al usar eso”, explicó Pathak, “esencialmente podemos dividir el problema en partes”. Es decir, puede paralelizar el problema, usando un reservorio de neuronas para aprender sobre un parche de un sistema, otro reservorio para aprender sobre el próximo parche, y así sucesivamente, con ligeras superposiciones de dominios vecinos para tener en cuenta sus interacciones.

La paralelización permite que el enfoque de la computación de yacimientos maneje sistemas caóticos de casi cualquier tamaño, siempre que se dediquen recursos informáticos proporcionados a la tarea.

Ott explicó la computación de yacimientos como un procedimiento de tres pasos. Digamos que quieres usarlo para predecir la evolución de un incendio en expansión. Primero, mida la altura de la llama en cinco puntos diferentes a lo largo del frente de la llama, y ​​continúe midiendo la altura en estos puntos en la parte frontal a medida que la llama parpadeante avanza durante un período de tiempo. Usted alimenta estos flujos de datos a neuronas artificiales elegidas al azar en el reservorio. Los datos de entrada activan las neuronas para que se activen, activando las neuronas conectadas y enviando una cascada de señales a través de la red.

El segundo paso es hacer que la red neuronal aprenda la dinámica del frente de llama en evolución a partir de los datos de entrada. Para hacer esto, a medida que ingresa datos, también monitorea las intensidades de la señal de varias neuronas elegidas al azar en el reservorio. Poner en peso y combinar estas señales de cinco maneras diferentes produce cinco números como salidas. El objetivo es ajustar los pesos de las distintas señales que intervienen en el cálculo de las salidas hasta que esas salidas coincidan constantemente con el siguiente conjunto de entradas: las cinco alturas nuevas se miden un momento después a lo largo del frente de la llama. “Lo que quieres es que la salida debería ser la entrada en un momento un poco más tarde”, explicó Ott.

Para aprender los pesos correctos, el algoritmo simplemente compara cada conjunto de salidas, o alturas de llama pronosticadas en cada uno de los cinco puntos, con el siguiente conjunto de entradas, o alturas de llama reales, aumentando o disminuyendo los pesos de las distintas señales cada vez en De cualquier forma que hubieran hecho sus combinaciones darían los valores correctos para las cinco salidas. De un paso de tiempo a otro, a medida que se ajustan los pesos, las predicciones mejoran gradualmente, hasta que el algoritmo es capaz de predecir el estado de la llama un paso de tiempo.

“En el tercer paso, realmente haces la predicción”, dijo Ott. El reservorio, una vez que aprendió la dinámica del sistema, puede revelar cómo evolucionará. La red se pregunta esencialmente qué sucederá. Las salidas se retroalimentan como nuevas entradas, cuyas salidas se retroalimentan como entradas, y así sucesivamente, haciendo una proyección de cómo evolucionarán las alturas en las cinco posiciones en el frente de la llama. Otros reservorios que trabajan en paralelo predicen la evolución de la altura en otras partes de la llama.

En una trama en su artículo de PRL, que apareció en enero, los investigadores muestran que su pronta solución a la llama de la ecuación de Kuramoto-Sivashinsky coincide exactamente con la verdadera solución con ocho tiempos de Lyapunov antes de que el caos finalmente gane, y los estados reales y predichos de sistema divergente.

El enfoque habitual para predecir un sistema caótico es medir sus condiciones en un momento con la mayor precisión posible, utilizar estos datos para calibrar un modelo físico y luego evolucionar el modelo hacia adelante. Como estimación aproximada, tendría que medir las condiciones iniciales de un sistema típico 100,000,000 veces más exactamente para predecir su evolución futura ocho veces más adelante.
Enviar comentarios

Es por eso que el aprendizaje automático es “un enfoque muy útil y poderoso”, dijo Ulrich Parlitz, del Instituto Max Planck para la Dinámica y la Autoorganización en Göttingen, Alemania, quien, como Jaeger, también aplicó el aprendizaje automático a sistemas caóticos de baja dimensión en el principios de los años 2000. “Creo que no solo funciona en el ejemplo que presentan, sino que es universal en cierto sentido y se puede aplicar a muchos procesos y sistemas”. En un artículo que pronto se publicará en Chaos, Parlitz y un colaborador aplicaron la computación de yacimientos para predecir la dinámica. de “medios excitables”, como el tejido cardíaco. Parlitz sospecha que el aprendizaje profundo, aunque es más complicado y computacionalmente intensivo que el cómputo de yacimientos, también funcionará bien para enfrentar el caos, al igual que otros algoritmos de aprendizaje automático. Recientemente, los investigadores del Instituto de Tecnología de Massachusetts y ETH Zurich lograron resultados similares al equipo de Maryland al usar una red neuronal de “memoria a largo plazo a largo plazo”, que tiene bucles recurrentes que le permiten almacenar información temporal durante mucho tiempo.

Desde el trabajo en su documento de PRL, Ott, Pathak, Girvan, Lu y otros colaboradores se han acercado a una implementación práctica de su técnica de predicción. En una nueva investigación aceptada para publicación en Chaos, mostraron que las mejores predicciones de sistemas caóticos como la ecuación de Kuramoto-Sivashinsky se hacen posibles al hibridar el enfoque de aprendizaje automático basado en datos y la predicción tradicional basada en modelos. Ott ve esto como una vía más probable para mejorar la predicción del tiempo y esfuerzos similares, ya que no siempre tenemos datos completos de alta resolución o modelos físicos perfectos. “Lo que deberíamos hacer es usar el buen conocimiento que tenemos donde lo tenemos”, dijo, “y si tenemos ignorancia, deberíamos utilizar la máquina de aprendizaje para llenar los vacíos donde reside la ignorancia”. Las predicciones del yacimiento pueden esencialmente calibrar los modelos; En el caso de la ecuación de Kuramoto-Sivashinsky, las predicciones precisas se extienden a 12 tiempos de Lyapunov.

La duración de un tiempo de Lyapunov varía para diferentes sistemas, desde milisegundos hasta millones de años. (Son unos días en el caso del clima). Cuanto más corto es, más sensible o más propenso al efecto mariposa es un sistema, con estados similares que se alejan más rápidamente para futuros diferentes. Los sistemas caóticos están en todas partes en la naturaleza, se vuelven locos más o menos rápido. Sin embargo, extrañamente, el caos en sí es difícil de precisar. “Es un término que la mayoría de las personas en los sistemas dinámicos usan, pero se asemejan mientras lo usan”, dijo Amie Wilkinson, profesora de matemáticas en la Universidad de Chicago. “Te sientes un poco cursi por decir que algo es caótico”, dijo, porque atrae la atención de las personas sin tener una definición matemática acordada o condiciones necesarias y suficientes. “No hay un concepto fácil”, estuvo de acuerdo Kantz. En algunos casos, ajustar un solo parámetro de un sistema puede hacer que pase de ser caótico a estable o viceversa.

Wilkinson y Kantz definen el caos en términos de estiramiento y plegado, al igual que el estiramiento y el plegado repetidos de la masa en la fabricación de hojaldres. Cada parche de masa se estira horizontalmente debajo del rodillo de amasar, separándose exponencialmente rápidamente en dos direcciones espaciales. Luego, la masa se dobla y se aplana, comprimiendo los parches cercanos en la dirección vertical. Kantz dijo que el clima, los incendios forestales, la superficie tormentosa del sol y todos los demás sistemas caóticos actúan de esta manera. “Para tener esta divergencia exponencial de trayectorias, necesita este estiramiento, y para no huir hasta el infinito, necesita algo de plegado”, donde el plegado proviene de relaciones no lineales entre variables en los sistemas.

El estiramiento y la compresión en las diferentes dimensiones corresponden a los “exponentes de Lyapunov” positivos y negativos de un sistema, respectivamente. En otro artículo reciente en Chaos, el equipo de Maryland informó que su computadora reservorio podría aprender con éxito los valores de estos exponentes característicos de los datos sobre la evolución de un sistema. Exactamente por qué la informática de yacimientos es tan buena para aprender la dinámica de los sistemas caóticos aún no se comprende bien, más allá de la idea de que la computadora sintonice sus propias fórmulas en respuesta a los datos hasta que las fórmulas repliquen la dinámica del sistema. La técnica funciona tan bien, de hecho, que Ott y algunos de los otros investigadores de Maryland ahora pretenden usar la teoría del caos como una forma de comprender mejor las maquinaciones internas de las redes neuronales.

Historia original de Quanta Magazine, una publicación editorial independiente de la Fundación Simons cuya misión es mejorar la comprensión pública de la ciencia al cubrir los desarrollos de investigación y las tendencias en matemáticas y ciencias físicas y de la vida.

Fuente y foto: https://www.wired.com/story/machine-learnings-amazing-ability-to-predict-chaos/