21 may. 2017

El Lego atómico de Ketterle

Nota: La entrada es un complemento (y no un sustituto) de la conferencia de Wolfgang Ketterle que encontrarás al final.

Wolfgang Ketterle es un físico alemán formado en Munich y profesor en el MIT que ganó el Nobel en 2001 “por conseguir la condensación de Bose-Einstein en gases diluidos de átomos alcalinos y por sus tempranos y fundamentales estudios de propiedades de los condensados”. Como era de esperar, la charla que impartió el 10 de mayo en el Aula Magna de la Facultad de Ciencias Físicas (UCM) giró en torno al comportamiento electromagnético (ya que, en órdenes de magnitud del tamaño atómico, el resto de fuerzas fundamentales son casi despreciables) de la materia a temperaturas cercanas al cero absoluto. Ketterle introdujo y esbozó numerosos conceptos sin profundizar demasiado en ninguno; por lo que, a mi juicio, la función principal de la charla fue presentar abundantes ideas para que el oyente interesado las investigue por otros medios. A mí me llamaron especialmente la atención dos de ellas: el efecto Hall cuántico (entero y fraccionario) y la mariposa de Hofstadter.

La conferencia fue preludiada por Fernando Sols, catedrático de Física de la materia condensada en la UCM, que resaltó que el nobel de Física cambió de área de investigación al principio de su carrera, lo cual habría sido burocráticamente impensable en España, debido a la ineficiente rigidez de nuestro sistema de becas. Ketterle empezó mencionando el motivo para enfriar casi al máximo los átomos: se minimizan las interacciones (en sus condiciones de trabajo, comentó que éstas tenían un comportamiento casi idéntico a la delta de Dirac), lo que facilita su manipulación, permitiéndonos simular materiales y estudiarlos en profundidad (como él comentó, “I have the coolest Lego pieces you can imagine”). Asimismo, es interesante estudiar el comportamiento atómico de sistemas de muchas partículas, en contraste con otras líneas de investigación como la del CERN, que experimenta con partículas aisladas.

Foto que saqué a una diapositiva de Ketterle (de ahí su resolución)

Una clave fundamental implícita en la charla (en la que, desgraciadamente, Ketterle no hizo hincapié) es el doble papel del láser: por un lado, nos permite estudiar la estructura interna de un cuerpo, observando la red de difracción proyectada al atravesarlo con un haz (se puede profundizar en el tema leyendo este divulgativo artículo sobre la determinación de la estructura interna de una pluma mediante difracción). Por otro, sirve para enfriar los átomos. Este fenómeno puede parecer sorprendente, ya que un láser suele aportar energía al sistema: en las obras de ciencia ficción, siempre se usa para calentar (¡y mucho!).


¡¿Cómo que el láser enfría?! [creo que se da por hecho, pero... Foto utilizada sin permiso de Lucasfilm™]


Vamos a ver cómo, mediante efecto Doppler, podemos reducir el momento lineal (producto de la masa por la velocidad: p=m v) de un conjunto de átomos (lo cual es el equivalente microscópico de enfriar). Primero, hemos de comprender el propio efecto Doppler: cuando un objeto se desplaza en sentido opuesto al de propagación de una onda, percibe que la frecuencia de la misma aumenta, ocurriendo lo contrario si se mueven en la misma dirección y sentido. Por eso, cuando se aleja una ambulancia, escuchas su sirena más grave que cuando se acerca.

Visualización del efecto Doppler 
[GIF de Charly Whisky 18:20, 27 enero 2007 - Own work, CC BY-SA 3.0]

Asimismo, hemos de tener en mente que un átomo sólo absorbe radiaciones de frecuencias muy concretas (las que hacen que su corteza entre en resonancia), motivo por el que, por cierto, vemos las cosas de distintos colores. Cuando un átomo absorbe luz, su momento lineal varía, puesto que se suma al del haz incidente. Piénsalo así: si atropellas a alguien y el cadáver se queda pegado al parachoques, tu velocidad disminuye porque el momento lineal (p) siempre se conserva y la persona, o lo que queda de ella, sólo contribuye a la ecuación p=m v añadiendo masa (y a p constante, si aumenta la masa, disminuye la velocidad).

Combinando estos dos conceptos, tenemos una técnica potentísima para refrigerar átomos, que se visualiza genial en esta imagen:

Imagen de Cmglee - Own work, CC BY-SA 3.0

Las condiciones experimentales son las siguientes: tenemos un conjunto de átomos moviéndose en direcciones arbitrarias que entran en resonancia con (es decir, absorben) la luz azul. Los iluminamos con luz verde que se mueve de derecha a izquierda. Este es el desarrollo esquematizado por la imagen:


  1. Si un átomo no se mueve significativamente en la dirección del haz, no se produce efecto Doppler y percibe el haz verde con su frecuencia original, por lo que no hay absorción y su momento no varía.
  2. Si un átomo se mueve en el sentido del haz, percibirá una frecuencia más baja y tampoco lo absorberá. Su momento tampoco varía.
  3. 1. Si un átomo se mueve lo suficientemente rápido en sentido contrario al del haz, percibirá una frecuencia alta (azul) y absorberá la radiación. Como el momento del haz tiene sentido opuesto al del átomo, su momento disminuirá (y con él, su velocidad). Las dos últimas imágenes ilustran la reemisión del fotón absorbido.

El equipo de Ketterle no utiliza este método concreto de enfriamiento por láser, pero es el más sencillo de captar.


Para concluir, cuando escribo sobre matemáticas o física fundamental, siempre insisto en que la investigación en ciencia básica no está orientada a resultados directos, aunque siempre acabe teniendo muchas aplicaciones. Los desarrollos de Cornell, Wieman y Ketterle (los tres galardonados), además de ser espectaculares desde el punto de vista teórico (permiten estudiar la superfluidez y crear láseres atómicos) abren la puerta a importantísimas aplicaciones prácticas como la simulación cuántica de materiales y la medición ultra precisa, gracias al minucioso control del momento y la posición de las partículas a una temperatura tan solo millonésimas de grado centígrado (o de Kelvin, para los cientófilos) superior al cero absoluto, la mínima temperatura posible.


Como advertía al principio de la entrada, ésta está inspirada en la siguiente charla, que os recomiendo escuchar:








7 may. 2017

Contando infinitos

Matemáticamente, los números naturales están bien definidos por los axiomas de Peano. En nuestra cabeza, también tenemos claro su significado y el proceso de contar, pero resulta extremadamente interesante desarrollarlo desde el punto de vista de la teoría de conjuntos: lo que hacemos todos al contar es establecer una relación entre una lista que hemos memorizado de pequeños (1,2,3,...) y un grupo de cosas. Hay dos aspectos muy profundos de este hecho aparentemente trivial. Uno, el proceso de contar consiste en establecer una biyección (esto es, asociar los elementos uno a uno) entre un subconjunto de la lista de números naturales que nos sabemos y el conjunto de cosas que estamos contando. Dos, no hay ningún impedimento intelectual que nos imposibilite establecer una biyección entre la totalidad de nuestra lista memorizada y otro conjunto de cosas.

Biyección entre conjuntos [dominio público]

Como hemos quedado en que contar es establecer biyecciones (entre conjuntos de cosas y nuestra lista), y la lista que nos sabemos es infinita (no los tenemos todos en la memoria, pero conocemos las técnicas para nombrar números todo lo grandes que queramos, pudiendo extender indefinidamente nuestra lista mental); la conclusión lógica es que, desde el punto de vista teórico e intelectual (evidentemente, no desde el biológico ni el termodinámico), podríamos contar el infinito.

Demos un paso más; digamos que contar algo es demostrar que existe una biyección entre un conjunto patrón (por ejemplo, la lista mental mencionada) y los elementos de ese algo. Éste es un paso de gigante, ya que nos permite contar algo "a lo vago": no hace falta que vaya enumerando de una en una las 10 naranjas que tengo en el cesto si demuestro que hay una biyección entre el conjunto {naranjas de mi cesto} y el conjunto {1,2,3,4,5,6,7,8,9,10} (que es un conjunto patrón que uso para contar, igual que una regla tiene una longitud pautada que uso para medir, mediante comparación).

Para números pequeños, probablemente sea más cómodo contar las naranjas a mano que idear una demostración que pruebe la biyección entre ambos conjuntos, pero definitivamente no es así para conjuntos de infinitos elementos. Si lo piensas, con esta definición de contar (tengo 10 naranjas porque he establecido una relación biunívoca entre ellas y los elementos de mi "conjunto patrón 10"), no tengo ningún problema para definir un conjunto patrón de infinitos elementos y llamar infinito a todo conjunto cuyos elementos podamos relacionar 1 a 1 con éste. Y así, podemos mirar a la cara al infinito, violando la advertencia gaussiana de tratar al infinito sólo como un límite, no como un objeto matemático en sí mismo:
"I protest against the use of infinite magnitude as something completed, which is never permissible in mathematics. Infinity is merely a way of speaking, the true meaning being a limit which certain ratios approach indefinitely close, while others are permitted to increase without restriction"
Carl Friedrich Gauss

Pero seríamos muy ingenuos si creyéramos haber sometido matemáticamente al infinito, ya que ¡hay conjuntos infinitos cuyos elementos no podemos relacionar 1 a 1 con los de éste! El conjunto infinito que hemos usado como patrón es sólo una especie de la familia de los infinitos, y por ello deberíamos cambiarle el nombre a algo como "infinito 1" o "infinito numerable", ya que lo hemos creado a partir de nuestra lista de números naturales, pero creo que el nombre que mejor capta la esencia de este conjunto es "infinito listable" (perdón, RAE), porque todos los conjuntos infinitos que podemos enumerar por completo en una única lista pueden ser relacionados mediante biyección con éste. Una de las demostraciones más bellas de las matemáticas por ser a la vez extremadamente sencilla y profunda es el argumento de la diagonal de Cantor, que prueba que no todos los infinitos son relacionables con nuestro infinito numerable (en concreto, prueba que es imposible enumerar o listar el conjunto de los números reales). Os recomiendo que leáis este artículo de Gaussianos para entender esta preciosa demostración.

El autor de la misma, Georg Cantor, miró a la cara al infinito y creó un nuevo tipo de números para cuantificarlo: los números transfinitos, que nos permiten "contar" distintas especies de infinitos, entenderlas y trabajar con ellas. Si os fijáis, la idea no es tan rara: era de esperar que habiendo un "infinito 1", haya también un "infinito 2". Sólo que él empezó en el cero (el eterno debate...) y los llamó ℵ0, ℵ1,...

Es toda una hazaña intelectual que nos demuestra lo filosóficas que son las matemáticas y que plasma como una idea simple (contar un conjunto es relacionarlo con otro conocido) puede llevarnos al asombroso descubrimiento de que unos infinitos son más grandes que otros y podemos clasificarlos, evaluar su magnitud y hasta establecer un sistema de numeración para trabajar con ellos.







"The fear of infinity is a form of myopia that destroys the possibility of seeing the actual infinite, even though it in its highest form has created and sustains us, and in its secondary transfinite forms occurs all around us and even inhabits our minds"
Georg Cantor








30 abr. 2017

Sierpinski: ¿Cuántos triángulos ves en esta imagen?

Si no se presentan adecuadamente, los fractales pueden parecer objetos totalmente artificiales, que no emergen de manera natural al hacerse preguntas matemáticas intuitivas. El triángulo de Sierpiński es el antídoto perfecto contra esta conclusión, debido la simplicidad con la que se representa, sus profundas propiedades y su (cuasi)omnipresencia (en el sentido de que existen numerosos algoritmos de muy diversas ramas de las matemáticas que lo producen). Por ello, es la figura idónea si queremos introducirnos en el psicodélico mundo fractal. Además, sería la forma ideal para uno de esos anuncios que preguntan ¿cuántos triángulos ves en esta imagen?


Triángulo de Sierpinski obtenido con el código de Matlab que comparto más abajo.

La facilidad de representación del triángulo se basa en que la iteración (acción que ejecutamos repetidamente para conseguir algo) que hemos de realizar es muy simple:

  1.  Imagina un triángulo (equilátero, por simplicidad) de cartulina negra.
  2. Haz tres cortes que unan los puntos medios de los lados (sin cortar del todo en los extremos, para que no se separe ningún trozo de la cartulina), de manera que obtengas la forma 1 de la imagen de abajo.
  3. Repite el paso 2 con los tres triangulitos pequeños que has obtenido (quedará como la figura 2).
  4. Repite el paso 2 sucesivamente (en todos los triangulitos que vayas obteniendo)

Primeras iteraciones del algoritmo de obtención del triángulo de Sierpinski por sustracción de triángulos. Sacado [sin permiso, como siempre] de http://fractalfoundation.org/OFC/OFC-2-1.html


¿Qué forma te quedaría si repites el paso 4 indefinidamente? Sí, como sospechabas, el triángulo de Sierpinski. ¿Cómo podemos dibujarlo entonces, siendo necesarios infinitos pasos? La verdad es que no podemos, como tampoco podemos trazar una circunferencia perfecta. Éstas son ideas platónicas que solo existen en nuestra mente, pero es posible representarlas aproximadamente y trabajar con ellas como si fueran "las de verdad". Por eso, cuando vemos un fractal (en especial, uno con autosemejanza simple, como este triángulo), hemos de emplear nuestra imaginación para visualizar mejor su estructura y poder maravillarnos más allá de la dictadura de nuestras limitaciones técnicas y físicas.

Puede ser que no creas que una figura como ésta sea digna de una entrada, ¿qué interés tiene un triángulo infinitamente agujereado? Mucho, al menos para mí: además de ser estéticamente bello (podemos encontrarlo decorando varios suelos romanos), tiene propiedades muy interesantes. Una, común a todos los fractales, es su autosemejanza (si haces zoom continuamente en una zona del triángulo, se repetirá siempre el mismo patrón). Otra, es que tiene área nula, ya que en cada iteración sustraemos un cuarto del área restante (lo que es equivalente a decir que multiplicamos su área por 3/4). Por ello, tras infinitas iteraciones, su área es cero: $\lim_{n \to \infty} (\frac{3}{4})^n = 0$

Suelo fractal del Vaticano. [Tomado de https://es.pinterest.com/pin/411516484682135052/ ]

Sierpinski en Santa Maria in Trastevere (Roma), siglos XII y XIII [Foto de Francesco De Comité]

Además, nuestro triángulo contiene infinitos puntos, lo cual no es tan sorprendente, ya que pertenecen a él tres segmentos (sus lados) que de por sí ya contienen infinitos puntos. Esta propiedad sí que nos chocará mucho cuando hablemos de otro fractal: el conjunto de Cantor.

Pero aún no hemos tratado el aspecto más sorprendente del fractal: las numerosísimas maneras que hay de llegar a él.
A parte de eliminar área de un triángulo "macizo" como hicimos antes, podemos dibujar triángulos internos que dividan al original en 4 triangulitos iguales; o coger un triángulo, reducirlo a escala 1:4, hacer dos copias y colocarlos debajo formando un triángulo (y repetir esta acción infinitamente). Es un poco lioso, así que he hecho un GIF para que veáis claramente el proceso (aquí os dejo sólo la sucesión de imágenes porque Blogger no me deja subir gifs):


Míralo animado aquí: https://twitter.com/RadioRho/status/858665187385245697

Curiosamente, no hace falta que empecemos con un triángulo para obtener el fractal, ya que lo importante es la iteración que realicemos, no la figura de partida (piensa que, tras infinitas iteraciones, esta será simplemente un "punto" en nuestro fractal). He aquí un ejemplo:

Animación aquí: https://twitter.com/RadioRho/status/858665187385245697


Para los impasibles que todavía piensen que el triángulo no es para tanto, vamos con la traca final. Podemos obtener la figura a través de la curva arrowhead (punta de flecha), que va describiendo formas hexagonales:

Mira la animación aquí: https://twitter.com/RadioRho/status/858687881803694080
Enigma para el lector: ¿Por qué se va viendo cada vez más rojo el triángulo?
Puedes dar tu respuesta en los comentarios.
¿No es increible que una figura aparentemente bidimensional se obtenga a través de una sola curva fractal? Si tuvieras tiempo infinito, podrías dibujar el triángulo de Sierpinski sin levantar el lápiz del papel (esto sí que es un desafío y no lo de pintar una casa cutre de un solo trazo).

Otra forma computacionalmente sencilla de dibujarlo es mediante un código probabilístico (basado en el juego del caos): solo tenemos que elegir un punto P al azar de un triángulo equilátero y pintar el punto equidistante a P y uno de los tres vértices del triángulo (elegido aleatoriamente). Repitiendo este proceso (que, como ya sabes, llamamos iteración), vamos obteniendo aproximaciones cada vez mejores:
Échale un ojo a la animación: https://twitter.com/RadioRho/status/858704117425991680

Para acabar, este triángulo emerge de otro de los más famosos en matemáticas, el de Pascal, como ilustra este vídeo de Toby Langford:



Y por si aún no estás suficientemente desorientado, te dejo con este "sueño de Sierpinski" hecho por Mehrdad Garousi, en el que aparece el hermano tridimensional de nuestro querido tríangulo (la pirámide de Sierpinski) y su primo, la esponja de Menger.