Cillian Murphy en la película Oppenheimer
Cillian Murphy en la película Oppenheimer | Foto: Tomada de Instagram @oppenheimermovie

CINE

Lo que hicieron los científicos de Los Álamos y la película ‘Oppenheimer’ no cuenta

Finalizada la Segunda Guerra Mundial, Los Álamos siguió trabajando en el diseño y perfeccionamiento de armas nucleares

Redacción Semana
8 de septiembre de 2023

Uno de los grandes avances tecnológicos de la Segunda Guerra Mundial fue la creación de la bomba atómica. La película de Christopher Nolan Oppenheimer recoge ese momento histórico en el que la ciencia ocupó las portadas de todos los periódicos del mundo. Para conseguir un bomba tan mortífera, el gobierno de los EE. UU. reclutó a los mejores científicos de la época en unas instalaciones secretas (Los Alamos Scientific Laboratory, actualmente Los Alamos National Laboratory, en Estados Unidos). Allí dieron forma al Proyecto Manhattan (1942-1946). La primera detonación de la bomba atómica, la prueba Trinity se produjo el 16 de julio de 1945.

OPPENHEIMER - Tráiler Oficial - Doblado - (Universal Studios) - HD

Pero en Los Álamos ocurrieron muchas más cosas. Entre ellas, el avance tecnológico que hizo posible el uso de computadoras para simulaciones numéricas, algo que permitiría predecir el efecto de las potentísimas ondas de choque del artefacto que estaban creando. Sobre el papel, existía una mínima probabilidad de que generaran un efecto en cadena que acabaría con el mundo.

Cálculo de las ondas de choque de la bomba

Lo menos conocido de lo que ocurrió en Los Álamos es que el desarrollo de la bomba atómica (y años posteriores) fue el origen de la dinámica de fluidos computacional (término acuñado por Chia-Kun Chu probablemente a partir de 1960). Esta rama de la Mecánica de Fluidos se basa en el uso de computadoras –a través de algoritmos– para resolver problemas hidrodinámicos. Entre ellos, claro, las ondas de choque que genera una bomba atómica.

Los científicos del Proyecto Manhattan no solo desarrollaron las herramientas numéricas para describir las ondas de choque debido a las explosiones. También el uso de computadoras para realizar la complejidad de los cálculos. Los trabajos del matemático John von Neumann sentaron las bases para la fundación moderna de la simulación numérica.

El físico teórico estadounidense Dr. J. Robert Oppenheimer (1904 - 1967) enciende su pipa sentado detrás de su escritorio en el Instituto de Estudios Avanzados de Princeton, Nueva Jersey, a fines de la década de 1940. (Foto de PhotoQuest/Getty Images)
El físico teórico estadounidense Dr. J. Robert Oppenheimer (1904 - 1967) enciende su pipa sentado detrás de su escritorio en el Instituto de Estudios Avanzados de Princeton, Nueva Jersey, a fines de la década de 1940. (Foto de PhotoQuest/Getty Images) | Foto: Getty Images

John von Neumann trabajó en el Proyecto Manhattan como asesor en la División Teórica. El líder de dicha división fue Hans Bethe. De 1941 a 1943, Von Neumann elaboro varios informes para el gobierno de los EE. UU. sobre teoría de ondas de choque, detonaciones y ondas de choque oblicuas.

“Estoy pensando en computadoras”

Recordemos que la bomba desarrollada (de tipo implosión) consistía en una esfera de plutonio rodeada de explosivos. Las cargas, al explosionar, comprimían el núcleo causando la fisión de los átomos. La reacción nuclear descontrolada provocaba la explosión y destrucción total del perímetro.

El mayor desafío de la implosión del núcleo fue diseñar los explosivos que garantizaran una onda de choque simétrica. Los científicos se percataron de que las simplificaciones teóricas eran totalmente inadecuadas. La manera de tratar las complejas ecuaciones era resolverlas numéricamente. “Estoy pensando en algo mucho más importante que las bombas. Estoy pensando en computadoras”.

John von Neumann

La aportación más ingeniosa del matemático se produjo en 1944. John von Neumman se percato del potencial que podrían tener las computadoras electrónicas. Por aquellos años la Universidad de Pensilvania también desarrollaba el ENIAC, el primer ordenador digital de propósito general de la historia. Hasta aquel momento el término “computadora” se refería a “persona que realiza cálculos matemáticos”.

Oppenheimer aprendiendo de Einstein (Foto de © CORBIS/Corbis vía Getty Images)
Oppenheimer aprendiendo de Einstein (Foto de © CORBIS/Corbis vía Getty Images) | Foto: Corbis via Getty Images

En abril de ese año llegaron a Los Álamos las primeras computadoras IBM 601, calculadoras basadas en tarjetas perforadas. Para resolver numéricamente las ecuaciones fluido-dinámicas, primero se traducían a un sistema de ecuaciones algebraicas. Luego dicho sistema se codificaba en las tarjetas y se enviaban en lotes a través de una secuencia de computadoras.

John von Neumann pasó dos semanas cableando las computadoras y familiarizándose con los cálculos. Richard Feynmann estuvo a cargo de la codificación. Finalmente, el primer informe sobre simulación numérica fue publicado el 20 de junio de 1944.

La importancia de la estabilidad numérica

Se utilizaron dos métodos numéricos para el cómputo de las ondas de choque: el shock fitting desarrollado por Rudolf Peierls y el shock capturing por Von Neumann. Sin embargo, el método de Von Neumann falló catastróficamente. Era necesario añadirle disipación a la onda de choque para que fuera estable.

A raíz de esto, en 1950 logro mejorar su método (artificial viscosity method) y formalizar una teoría para la estabilidad numérica (Von Neumann stability analysis). Tras el Proyecto Manhattan y hasta su muerte en 1957, Von Neumann participó en el diseño de la EDVAC. Desarrolló una arquitectura de computadoras propia y la IAS machine. Finalmente, encontró un uso hoy sobradamente conocido para las computadoras: la predicción meteorológica.

El MANIAC y la era IBM

Finalizada la Segunda Guerra Mundial, Los Álamos siguió trabajando en el diseño y perfeccionamiento de armas nucleares. También la construcción de la computadora MANIAC I en 1949. Uno de los objetivos era simular las condiciones necesarias para detonar una bomba H tipo Teller-Ulam. Los cálculos previos se realizaron con el ENIAC, pero no fueron concluyentes.

Tres de los hombres que desempeñaron papeles destacados en el desarrollo de la bomba atómica visitan la exposición atómica de la Sociedad Química Estadounidense en el Grand Central Palace. Mirando una foto de la explosión atómica sobre Nagasaki, Japón, de izquierda a derecha, Brig. Gen. K. D. Nichols, Prof. H.D. Smythe, quien escribió el informe atómico del gobierno y J.R. Oppenheimer, director del laboratorio atómico de Los Alamos, Nuevo México.
Tres de los hombres que desempeñaron papeles destacados en el desarrollo de la bomba atómica visitan la exposición atómica de la Sociedad Química Estadounidense en el Grand Central Palace. Mirando una foto de la explosión atómica sobre Nagasaki, Japón, de izquierda a derecha, Brig. Gen. K. D. Nichols, Prof. H.D. Smythe, quien escribió el informe atómico del gobierno y J.R. Oppenheimer, director del laboratorio atómico de Los Alamos, Nuevo México. | Foto: Bettmann Archive

Con la llegada de las grandes computadoras de la compañía IBM en 1953 a los Álamos, el grupo T-3, liderado por Francis Harlow, propició otra gran revolución en la dinámica de fluidos computacional.

La revolución numérica tras la bomba atómica

Durante más de tres décadas desarrollaron métodos numéricos que aún a día de hoy son referentes. Destacan la formulación Streamfunction-Vorticity para flujos incompresibles 2D, el método Marker-and-cell para flujos con lámina libre y el modelo de turbulencia k-epsilon. Aunque la versión final de este modelo se debe a Launder y Spalding (1972), del Imperial College London.

Merece la pena destacar el trabajo de Reed y Hill en 1973. Desarrollaron la primera versión de un método de Galerkin discontinuo para resolver la ecuación de transporte de neutrones, e,cuación que describe el flujo de neutrones a través de un medio fisible no homogéneo, como en un reactor nuclear.

Lo vivido en Los Álamos desde su creación fue una verdadera explosión –tanto metafórica como literal– de ingenio para resolver los complejos cálculos. Allí, grandes genios desarrollaron una nueva manera de proceder con los problemas hidrodinámicos e inspiraron a muchos otros científicos sobre la modelización numérica sin la que hoy en día difícilmente podríamos explicar el mundo.

Por: Víctor Javier Llorente Lázaro

Investigador en Matemática Aplicada, Universidad de Granada

Artículo publicado originalmente en The Conversation

The Conversation