15.12.08

Un Dinosaurio Gallina de la Argentina

Durante muchos años, se ha tenido la hipótesis de que en los animales que tienen más relación con los dinosaurios son las aves. Se piensa que un grupo de dinosaurios pequeños comenzó a tener plumas hace 150 millones de años; posteriormente las plumas facilitaron el desarrollo de las alas y finalmente los animales se diversificaron en las aves que vemos actualmente. De acuerdo a esta hipótesis, las aves más primitivas, y por ende más similares a sus predecesores dinosaurios, son las que no pueden volar, como las gallinas.

Un hallazgo reciente (septiembre de 2008) en la Argentina reveló más pruebas para sustentar esta teoría. Se encontró el fósil de un dinosaurio carnívoro de aproximadamente 10 metros de cabeza a cola, con indicios de haber tenido un sistema respiratorio similar al de las aves de la actualidad. El hallazgo fue un logro conjunto de la Universidad de Michigan (EEUU), Nacional de San Juan (Argentina) y McGill (Canadá). El equipo fue liderado por el doctor Jeffrey Wilson de Michigan.



El sistema respiratorio de las aves es diferente al resto de los animales terrestres, en lugar de pulmones nada más, tienen un conjunto de bolsas que pueden inflar para propiciar mayor flujo de aire es sus pulmones; esto también ayuda a que puedan volar. Los huesos del dinosaurio encontrado, muestran rastros de dichas bolsas. Al dinosaurio de le llamó “aerosteon ricoloradensis”, del griego huesos de aire y del río Colorado pues es sus cercanías se encontró.

La siguiente pregunta a resolver es ¿porqué evolucionó de esa forma? Es decir, ¿qué ventaja le daba ese tipo sistema respiratorio? El grupo de científicos tienen tres hipótesis: Primero, este animal era un predador, necesitaba moverse ágilmente para poder atrapar a sus presas. Un sistema respiratorio más eficiente sería de gran ayuda. Segundo, si bien esta modificación no serviría para volar, sí reduciría la masa corporal en la parte superior; lo cual, como a los futbolistas o hockeyistas bajitos, ayudaría a tener más control en sus movimientos drásticos, haciéndolo un predador más eficaz. Finalmente, este cambio ayudaría a liberar el calor excedente. Pensemos que las aves no tienen glándulas sudoríparas, por lo que precisas otro tipo de mecanismos para mantener su cuerpo en una temperatura óptima después de agitarse.

Cualquiera de las tres hipótesis, o cualquier combinación entre ellas puede haber sido determinante para la evolución de estos animales. Sin lugar a dudas es interesante ver otro eslabón en la complicadísima evolución y continuar con sus misterios. De lo que sí estamos seguros, es que en la actualidad podemos ver en la Argentina parvadas de rheas (avestruz nativa de Sudamérica) que corren a cerca de 180 km/h ya sea para perseguir marmotas o para huir de gauchos con boleadoras.

10.11.08

¡Igualito que su Padre!

Sin lugar a dudas, la frase: “¡Igualito que su mamá/papá!” es recurrente en la plática coloquial. Esta frase puede referirse a similitudes físicas, como cuando nace un niño y los padres, tíos, abuelos y demás parientes encuentran parecidos increíbles al infante con sus padres. Pero también puede referirse a actitudes, como la forma de enojarse, de afrontar problemas o situaciones en general. Como cuando a cierta persona la expulsaron de un partido de fútbol, y al final del partido quiso regresar a pegarle al árbitro… con sus once años. La mamá no pudo más que decir: “¡Igualito que su padre”!

Ahora tomemos la perspectiva científica. Esto nos indica de cierta forma que en los genes se transmite más que simplemente la parte física. También se transmiten actitudes e ideas. Un ejemplo muy común y muy bueno por ser general e intrigante a la vez, es el miedo que todos tenemos a las víboras. Un niño no necesita haber visto una víbora antes para tenerle miedo la primera vez que la ve. ¿Cómo se transmite esto? Hay varios experimentos que lo confirman. Pobres niños… igual salieron ilesos…

Los profesores Clayton, Fernald y Robinson de la universidad Urbana-Champaign publicaron este mes en la revista Science un artículo en que revisan lo que sabemos en cuanto a relación de genes con actividad social. Quizás debemos comenzar por entender que la conexión entre genes y actividad social se da a través del cerebro; tal vez la parte menos entendida y más intrigante de nuestra anatomía.
Por mucho tiempo se creyó que el genoma (secuencia del ADN) era como los planos para el organismo y no se modificaba durante la vida del mismo. Esta concepción es errónea. Nuestro ADN se modifica continuamente de acuerdo a impulsos externos; la parte correspondiente a las interacciones sociales no son la excepción. Se tiene una serie de experimentos en diferentes animales en los que se puede ver la variación en la expresión genética cuando su medio cambia. ¿Cómo funciona esto? En pocas palabras, la interacción social es percibida por diferentes sentidos y se traduce a impulsos cerebrales; que a su vez cambian la forma del genoma.

Uno de los experimentos que dieron los primeros indicios fue uno hecho en ratas. Comenzando con un grupo de cachorros ratas genéticamente iguales, se les dieron a dos grupos de mamás ratas diferentes. Unas lamían y cuidaban a sus ratitas mientras las otras los descuidaban. Las primeras mantuvieron su comportamiento regular, pero las descuidadas se estresaban más fácilmente y eran más descuidadas con sus hijos. La herencia genética de sus padres se descarta pues son los mismos que de las ratas no afectadas. Posteriormente se encontraron diferencias genéticas.
Algo interesante de este fenómeno es que no termina ahí; como el mismo experimento de las ratas lo sugiere, el círculo se cierra. La modificación que tuvieron estas ratas en su genética después afectó a sus hijos. En otras palabras, la modificación genética también se tradujo en modificación del comportamiento social.



Es interesante ver el mapa de la publicación en Science, en él se muestra como se retroalimentan el cerebro, las interacciones sociales y el genoma; a través de diferentes reguladores. Las líneas continuas se refieren a interacciones que se dan en un tiempo corto, en el día a día, las líneas punteadas se refieren a las interacciones que se pasan de generación en generación y las de líneas cortadas a cambios después de muchas generaciones… la evolución. Los cambios epigenéticos se refieren a las mutaciones que a la larga se convertirán en la evolución.

Al final es interesante ver como la ciencia va encontrando algunos caminos de la naturaleza que regulan nuestra vida. Es impresionante pensar como el medio al que somos expuestos día a día y las decisiones que tomamos, afectarán nuestras reacciones y la forma en que tomemos decisiones en el futuro… y las de nuestras próximas generaciones.

23.10.08

El Origen del Universo

La teoría más aceptada en la actualidad, con respecto al origen del universo, es la del Big Bang. Como alguna vez vimos en la prepa, o platicando con amigos, esta teoría dice en pocas palabras que al principio todo el universo estaba en un punto muy pequeño y que explotó. Bien, esta es una descripción simplista y sencilla, pero que tanto nos dice y que tanto entendemos realmente.

De acuerdo a la teoría fundamental más aceptada actualmente, la teoría de cuerdas, el universo está hecho de elementos indivisibles llamados cuerdas… de ahí el suspicaz nombre… En fin, estas cuerdas son más pequeñas que los átomos, los electrones son un ejemplo de cuerdas, pero los protones y neutrones se creen hechos de quarks, que son otros ejemplos de cuerdas. Pero entender estas cuerdas conceptualmente no es tan simple como parece. Absolutamente todo es cuerdas de acuerdo a esta teoría… y estas cuerdas no sólo son el espacio sino también son el tiempo. Así que “en el origen todo el tiempo y todo espacio estaba en un punto” Parece libro sagrado… pero no es, es la teoría científica más aceptada en la actualidad. En algún momento, este origen explotó y es lo que llamamos Big Bang. Esta explosión estiró estas cuerdas y el universo se expandió, en tiempo y espacio.



Ahora la pregunta es ¿qué tanto entendemos lo que pasó en ese momento? Bien, la respuesta es: muy poco. Sabemos que las leyes de la física como las conocemos ahora, no funcionaban igual; o tenían correcciones que no conocemos. Uno de los fundamentos de la física, que es más filosófico que nada es que: “Las leyes de la física son han sido las mismas siempre y en todo lugar” Así suponemos que si los rayos que nos llegan de una estrella son como los que saca el helio… la estrella es de helio. Pero en realidad es la primera asunción de algo que jamás hemos comprobado y jamás comprobaremos. Lo que sí tenemos certeza es que si planteamos que todo el universo estaba en el mismo lugar en un momento y lo dejamos “evolucionar” con las leyes de la física que usamos ahora, no llegamos al universo que conocemos. Algo está incompleto. Algunas de estas preguntas serán respondidas con el LHC, el acelerador del que hablamos antes. Pero no sabemos hasta que punto.



Por otro lado, la asunción de que hubo una gran explosión o un “Big Bang” no tiene fundamento conocido. Es decir, si todo estaba en ese lugar; ¿qué lo hizo explotar? Esta pregunta se parece mucho a una de las pruebas de la existencia de Dios que hacía Santo Tomás basado en Aristóteles. El primer movimiento en el universo, fue hecho por Dios. Y aquí volvemos a un punto muy filosófico. La ciencia no acepta respuestas como “porque Dios lo hizo” o “porque Dios lo quiso”, así que la labor de la ciencia es explicar estos fenómenos sin recurrir a estos axiomas. Sin embargo la complejidad del problema lo acerca a este tipo de respuestas.

Finalmente, en la ciencia no hay un consenso absoluto de que el Big Bang haya sido el origen del universo, sino más bien un estado intermedio. Hay respuestas que aseguran el universo siempre existió, sólo pasó por una nueva contracción y re expansión. Según este modelo, es como un universo palpitante entre máxima extensión y máxima compresión.

Varios modelos y varias teorías tienen cierta validez explicando el origen del universo, pero las asunciones hechas nos obligan a dejar la pregunta aún en el aire sin una respuesta contundente. Quizás el LHC nos aclare tanto las ideas que tengamos una solución muy aceptada. Quizás sólo nos deje más preguntas.

2.10.08

Algoritmos Genéticos

En el año de 1859, Charles Darwin publicó uno de los pilares de la ciencia moderna: “El origen de las especies”. Darwin escribió este libro tras un viaje alrededor del mundo; patrocinado por la corona inglesa y con fines totalmente científicos. En este trabajo describe las interacciones e interconexiones entre las especies. Pero es en las islas Galápagos, un territorio bastante aislado, donde tras analizar las variaciones en los animales que habitan las diferentes islas, concluye que han ido cambiando para adaptarse a su medio, también cambiante. Posteriormente extrapola estas conclusiones a la población de todo el planeta y nace la teoría evolutiva.



El ser humano, en muchas ocasiones, ha mejorado su tecnología inspirándose en diseños de la naturaleza; como los aviones y sus alas de pájaros, como los submarinos con sus vejigas flotatorias de peces, y la infinidad de materiales inspirados en tejidos naturales. Pero esto no se ha limitado a la tecnología “física”, los algoritmos evolutivos son formas de resolver problemas inspirados en la evolución, la forma de resolver problemas de optimización de la naturaleza. Un caso particular de estos algoritmos, el más popular, es el de los algoritmos genéticos.

Para tener un algoritmo genético, lo primero que necesitamos definir es el “dominio” y la “función de aptitud”. Por ejemplo, si tenemos el típico problema de las líneas aéreas y sus rutas; el dominio son las rutas posibles y los pasajeros que hay que llevar de un punto a otro; la función de aptitud es bajar los costos y transportar la mayor parte de pasajeros, o todos en un caso óptimo.
La solución del problema puede comenzar con las rutas actuales, o con rutas aleatorias. Ahora lo que hay que definir es ¿cómo cambiar las rutas?, ¿cómo evoluciona el sistema? Es aquí donde se tiene el más grande paralelismo con la genética de Darwin, las operaciones que se tienen son herencia (mantener ciertas rutas) y mutación (cambiar ciertas rutas). Ahora entra la función de aptitud, tomamos las rutas que más pasajeros transportan al menor costo; esta es la selección, como la selección natural de Darwin. Ahora entra la recombinación de los grupos de rutas que sobrevivieron y el proceso puede continuar indefinidamente. Pero en algún momento las soluciones que estemos encontrando serán lo suficientemente buenas para nuestro problema y las tomamos como resultado final.



Los algoritmos genéticos comenzaron a usarse en 1954 con los trabajos de Nils Aall Barricelli y poco a poco fueron más populares hasta llegar a su máximo en la década de los noventa, máximo que han mantenido. Actualmente su aplicación es muy diversa, va desde las finanzas y las ingenierías hasta la biología evolutiva y el control.

15.9.08

Inteligencia Artificial

La inteligencia artificial o IA es una rama de una ciencia aún más general, la cibernética. Primero, entendamos que es la cibernética. En el diccionario se le define como “El estudio teórico de la comunicación y el control de los procesos en sistemas biológicos, mecánicos y electrónicos; especialmente la comparación entre procesos biológicos y los de sistemas artificiales.” Es justamente en esta comparación donde entra la inteligencia artificial; de acuerdo al mismo diccionario, la IA es: “La habilidad de una computadora o una máquina para reproducir actividades que normalmente se asocian a la inteligencia.” Pero al leer esta definición, inmediatamente tenemos una duda, ¿qué entendemos por inteligencia? Al hacer esta pregunta, en este contexto, es inevitable hablar de Turing.
Alan Turing fue un pionero de la inteligencia artificial, desarrolló “la máquina de Turing” que en realidad es un sistema lógico capaz de resolver cualquier problema que pueda ser solucionado usando un algoritmo. Esta es la base de la lógica usada en la computación. En sus divagaciones Turing se cuestionaba ¿qué tan inteligente podría ser un sistema totalmente artificial? ¿Cuándo podríamos llamar a un sistema artificial inteligente? En su artículo “Maquinaria Computacional e Inteligencia” Turing propone una prueba para distinguir sistemas inteligentes. La prueba consiste en tener un humano “A” que por medio de una pantalla se comunica con dos entes más, otro humano y una máquina. Si el humano “A” no es capaz de contundentemente distinguir entre los dos, la máquina pasa la prueba de Turing. Este experimento que originalmente fue mental, sigue teniendo reproducciones en varios niveles y causando controversia.

A partir de las bases sentadas por Turing, se han diseñado muchos sistemas lógicos para poder tener máquinas más inteligentes, algoritmos de diferentes tipos. Entre estos destacan fuertemente los “algoritmos genéticos” que como muchos de los mejores diseños humanos, están basados en un diseño de la naturaleza; pero en este caso se copia el diseño para diseñar. Muy interesante sin lugar a dudas. Este algoritmo consiste en tener reglas simples de premio y castigo, como sucede en la naturaleza. Sus resultados han sido muy buenos. Esto mismo ha levantado gran controversia pues una muy buena parte de la comunidad científica asegura que este tipo de algoritmos demuestra que nuestra propia inteligencia es el resultado de premios y castigos del mundo que nos rodea; haciendo muy estrecha o incluso nula la diferencia entre nosotros y las máquinas. De los animales ni hablar.

En cuanto al estado actual de la IA, es una de las áreas de la ciencia que más atención capta por las implicaciones que tiene por un lado y en la parte práctica, por los resultados que ha dado. Como buena parte de estas áreas con mayor atención en los últimos años, es interdisciplinaria, pues su dominio cae dentro de las matemáticas, la lógica, la computación, la medicina, la sicología, la filosofía, la neurociencia, la lingüística y otras.

2.9.08

Materia Oscura

La materia oscura, en pocas palabras, es materia que está en el universo pero no la podemos ver. El razonamiento natural tras escuchar esta definición es: si no podemos verla, ¿Cómo sabemos que está ahí? Para entender esto, vale la pena hablar un poco sobre Fritz Zwicky, astrofísico suizo que propuso la existencia de dicha materia.
Sucede que en el año de 1937 Zwicky realizaba algunas de sus mediciones en el observatorio cuando se percató que la velocidad a la que se movían los grandes cúmulos de galaxias era demasiado grande como para que se mantuvieran juntas; era como si hubiera visto un puño de arena que alguien avienta y en lugar de esparcirse, viajara todo junto. Lo que nosotros podríamos pensar es que el puño de arena tiene algo de pegamento, y aunque lo aventemos muy rápido, se mantiene unido. Justamente lo mismo pensó él, pero el único pegamento conocido para unir galaxias, era la gravedad, y para tener gravedad se necesita tener masa, o materia. De modo que propuso que hay cierta materia en estos cúmulos, que genera el campo gravitacional necesario para mantener unidas las galaxias, pero no emite luz; ni tampoco la refleja… por eso es oscura. Los hoyos negros son un ejemplo de materia oscura, aunque los neutrinos son otro ejemplo con una característica interesante, los podemos tener aquí en la tierra y hacer experimentos directamente con ellos. De cualquier manera, se cree que la naturaleza de la mayor parte de la materia oscura aún está por descubrirse.
Pero la materia oscura no llegó sola, trajo también a su contraparte: la energía oscura; que como podrán imaginarse, no es más que energía que ni emite ni refleja luz. A la energía oscura la podemos entender como un fenómeno parecido a la radiación electromagnética, pero con un origen diferente, que ni emite ni refleja luz por si mismo, como radiación nuclear por ejemplo. El razonamiento que nos llevo a proponer la existencia de la energía oscura fue muy similar al de la materia oscura, pero al mismo tiempo contrario, pues la energía oscura actúa repeliéndose entre sí. Las distancias entre los cúmulos de galaxias eran demasiado grandes respecto a las atracciones que existen entre ellas. Así que debía haber algo, que no podíamos ver, pero que las mantenía alejadas.
Las últimas mediciones señalan que la materia y la energía visibles son solamente el 4% del total del universo, mientras que la materia oscura representa un 23 % y la energía oscura un 73 %. El balance entre materia oscura y energía oscura es crucial para la evolución del universo; sabemos que actualmente se está expandiendo, lo cual es una consecuencia del “dominio” de la energía oscura. Pero, ¿cuánto más? Pues sabemos que la materia se puede transformar en energía y viceversa. Al mismo tiempo nos surgen preguntas sobre el pasado, sobre el origen mismo del universo. Se cree que durante el Big-Bang pequeñas fluctuaciones dieron forma al universo como lo conocemos, y determinaron las proporciones de materia oscura, energía oscura y sus contrapartes luminosas.
Para entender mejor la “naturaleza” oscura, hay dos lugares donde ver, el espacio exterior y los experimentos en la tierra. En cuanto al espacio, en 2008, gracias al observatorio Hubble, se termino el mapa más detallado de materia oscura en el espacio. El cual confirmó que la concentración más elevada de materia oscura se encuentra en los cúmulos de galaxias.
Para entender esto es imprescindible hacer experimentos que generen materia y energía oscura en la tierra; el más ambicioso es el Gran Colisionador de Hardones (GCH) del que hablamos en los primeros artículos. Se espera que en octubre comencemos a tener resultados que nos digan más sobre la naturaleza “oscura” y el origen del universo.

18.8.08

La cuántica y yo 3/3

Bien, la vez pasada nos quedamos en que cuando tenemos partículas muy pequeñas, es imposible saber precisamente “donde está”; lo único que podemos saber es con qué probabilidad está en ciertos puntos.
Tras la entrega anterior hubo un comentario muy bueno respecto a la relatividad, y es justamente hacia ese punto al que quería ir. Si nunca podemos saber exactamente donde está una partícula pequeña, ¿Qué tan relativo es todo realmente? Pues bien, primero pensemos en el mundo macroscópico en el que vivimos. Sabemos por experiencia personal, que si soltamos una pelota, se cae; y si la soltamos de la misma cien veces, cien veces cae igual… pero según la cuántica sólo había probabilidades, cierto, pero cuando, como en una pelota, tenemos billones de partículas interactuando entre ellas, las probabilidades se juntan y al final nos queda una respuesta conjunta con una probabilidad de 99.9999999999999 % de que la pelota caiga. Existe cierta probabilidad de que se mueva horizontalmente por un instante pero es tan pequeña, que para nosotros jamás sucederá… y es cierto, jamás sucederá porque cada vez que la pelota interactúe con lo que sea (aire, polvo, otras partículas de ella misma) volverá a tener el mismo casi 100 % de probabilidad de caer… es decir, va a caer. De modo que sí, es relativo, pero para nuestra percepción del mundo, esa relatividad ya no existe.
Pero que sucede si nos vamos a experimentos más pequeños, y más relacionados con nuestro cuerpo. Como por ejemplo los neurotransmisores, las partículas que transmiten las señales en nuestro cuerpo. Si tocamos algo caliente, estas son las partículas encargadas de transmitir la sensación al cerebro; y sucede que estas partículas son iones muy pequeños, están conformadas por dos o tres átomos, donde los efectos cuánticos empiezan a ser relevantes: Sin embargo, nuestra experiencia personal nos dice que eso no es tan relativo, cuando tocamos algo caliente, siempre nos damos cuenta si estamos saludables. Y es verdad, lo que sucede es que el cuerpo no se arriesga con un solo ion, sino que manda muchísimos que en realidad no hacen el viaje completo, pero entran salen de las neuronas cambiando las condiciones internas, pero eso es tema de otra entrega. A lo que iba es que teniendo muchos iones en el sistema sucede lo mismo que teniendo muchos átomos en la pelota, matamos la relatividad y el experimento se vuelve determinístico.
Ahora vamos a otro sistema aún más íntimo. Pensemos en el cerebro; ¿qué tanto sabemos de él? En realidad muy poco. Sabemos que cuando lo tenemos en uso, tenemos actividad electromagnética en ciertas regiones, tenemos iones y electrones moviéndose de un lugar a otro en algunos lugares. Los electrones son mucho más pequeños que los iones de los que hablamos antes, por lo tanto más sujetos a las leyes cuánticas. Son justamente esos electrones los que juegan el papel más importante cuando hacemos operaciones abstractas o tomamos decisiones… tomamos decisiones. Esa frase nos conecta mundos que por mucho tiempo pensamos totalmente independientes. Son muchos los científicos, teólogos, psicólogos y demás que han tomado esta área para incorporar un alma o nuestro yo independiente. Roger Penrose es quizás el más conocido físico que ha hablado al respecto. Tiene un libro llamado “el nuevo traje del emperador”, en el que hace referencia a la fábula del traje invisible del emperador, comparándola con la inteligencia artificial que a su parecer jamás podrá sustituir a la inteligencia humana. Pero por el otro lado también hay muchos científicos que hablan del determinismo “escondido”; argumentan que no tenemos aún una teoría precisa, que la cuántica está incompleta, es decir, no porque no sepamos la regla quiere decir que no exista.
En fin, hay argumentos para los dos lados y lo más objetivo científicamente, es reconocer nuestro desconocimiento de la materia a profundidad, lo cual nos deja con muchas preguntas filosóficas más que físicas.

4.8.08

La cuántica y yo 2/3

Recapitulando, en el artículo anterior nos quedamos en que el modelo que tenemos del mundo, cuando lo analizamos con física cuántica, está compuesto por “ondas-partículas” que son imposibles de localizar totalmente bien. Ahora pensemos en ¿cómo podría modelarse una onda partícula? o más a fondo ¿cómo interactúan?

En otros modelos más clásicos, cuando hablábamos de partículas, se describe la posición “x” con un número y no había ambigüedad; pero en cuántica, como ya mencionamos, no podemos dar exactamente la posición. La solución a este problema fue uno de los más grandes avances desde el punto de vista filosófico de la ciencia. Se propuso describir a la partícula como una “función de onda”; lo cual es una distribución de probabilidades. En lugar de decir en donde está la partícula, decimos que probabilidad tiene la partícula de estar en cierto lugar. Por ejemplo, imaginemos que tenemos una canica en una caja cerrada, que mide 1 cm, la función de onda podría ser como el dibujo, en donde la caja va de 0 a 1. La canica tiene que estar adentro de la caja y por eso, la función de onda es cero afuera, quiere decir que no es posible que esté afuera, pero tiene que estar adentro y no sabemos exactamente donde está adentro así que tiene la misma probabilidad de estar en cualquier lugar adentro.


Esto es exactamente lo que pasa a niveles más pequeños, como con los electrones, aunque las funciones de onda suelen parecerse más al siguiente dibujo:



Donde podemos ver que hay un lugar con mayor probabilidad y luego se va haciendo menos hasta que podemos ya considerarlo cero. Estas funciones pueden ser muy complicadas, pero siempre solemos aproximarlas con funciones más simples como la que vemos aquí.

Ahora ¿cómo interactúan estas ondas? Ya tenemos bien definido el modelo, ahora hay que estudiar las reglas. Pues sucede que cuando se encuentran entre ellas, interactúan como si estuvieran en un solo lugar. Lo cual fue otra paradoja para el modelo… primero nos tuvimos que convencer de que no podíamos saber exactamente dónde estaban, y salimos con la idea de que podíamos conocer las probabilidades de su localización, y ahora sucede que cuando se encuentran entre ellas sí tienen un lugar definido… Pero esos lugares definidos siempre siguen esas funciones de probabilidad que llamamos funciones de onda. Es decir si en lugar de una, tenemos varias partículas iguales con la misma interacción, los resultados corresponden a las probabilidades que da la función de onda. Y esto da lugar a la primera gran discusión que se tiene en la actualidad alrededor de la cuántica: ¿estas reglas que inventamos se pueden aplicar a una sola “onda-partícula” o sólo aplican a cuando tenemos muchas? A fin de cuentas la única forma de “ver” una partícula es mediante su interacción, así que jamás podremos ver realmente una función de onda de una sola partícula, lo que hacemos es medir muchas e inferir. Imaginemos abrimos la caja de la canica 100 veces diferentes y encontramos que la canica está con la misma probabilidad en el centro a la izquierda o a la derecha, esa sería la función de onda plana que tenemos arriba. Pero imaginemos que en la caja hay imanes y la canica está imantada ahora de las 100 veces que abrimos la caja, 50 encontramos a la canica del lado izquierdo, 30 al centro y 20 a la derecha. Entonces tendríamos una función de onda más o menos así:



Pero no tenemos forma de saber realmente lo que está pasando adentro, porque cuando la abrimos ya estamos interactuando con ella, con la luz o cualquier forma que usemos para saber donde está.

Entonces bien, se podría concluir que la cuántica funciona sólo para cuando tenemos muchas partículas y ya. Pero existen varios experimentos que usan una sola partícula y tienen los mismos resultados… Durante buena parte del siglo pasado, y el actual, se han tratado de hacer muchos experimentos para romper la paradoja, pero jamás se ha conseguido satisfactoriamente. Este era uno de los problemas que más atormentaba a Einstein pues tras pensar que sólo había probabilidades para saber dónde estaba una partícula, meditaba con respecto a la interacción divina, y solía decir: “Dios no juega a los dados”.

En el siguiente artículo concluiremos el tema hablando de algunos experimentos más concretos junto con las implicaciones filosóficas y teológicas que esto tiene; pensemos en el determinismo…

21.7.08

La cuántica y yo 1/3

La física, en pocas palabras, es la ciencia que se encarga de estudiar la naturaleza. Lo primero que tenemos que definir para estudiar cualquier fenómeno, es los elementos con los que vamos a trabajar, es decir, el modelo a seguir.
Por ejemplo, si fuéramos a jugar al fútbol de los play-móvil, primero necesitamos decir que hay cierto número de muñecos play-móvil, una canica que funciona como pelota y una cancha en la que todo sucede. Después ya decimos o definimos cuales son las reglas del juego. Esto, en términos científicos es el modelo (los muñecos, la pelota y la cancha) y luego podemos ya hablar de reglas del juego, que desde el punto de vista científico, son las leyes físicas.

A lo largo de la historia, hasta principios del siglo xx, poco se había hablado del modelo; parecía siempre muy natural pensar que cualquier elemento tenía sus fronteras bien definidas, una pelota era un sólido redondo y ya. Por otro lado se estudiaban también ondas de sonido, que eran ondas y ya.
La luz, que siempre fue motivo de discusiones, era entendida como una onda, incluso el físico Thomas Young en 1804 había demostrado que interfería consigo misma, lo cual era una característica exclusiva de las ondas. Pero nuestro entendimiento fue sacudido cuando en los años 20 el físico estadounidense Arthur Compton demostró que la luz chocaba con otras partículas, lo cual era entendido como exclusivo de las partículas.
A partir de ese momento, se hicieron muchos experimentos relacionados, queriendo desambiguar esta situación, pero el resultado era siempre el mismo, la luz se comporta como una onda y como una partícula. Así que se decidió cambiar el modelo, entendiendo la luz como una “onda-partícula”, lo cual era un cambio radical.

Los experimentos continuaron y poco a poco se fue entendiendo mejor la situación. Quizás la contribución conceptual más grande vino de parte del francés De Broglie que llevo la idea de la onda-partícula a otro nivel, afirmando que todas las partículas son en realidad ondas-partículas, aunque la parte ondular es casi imperceptible por ser una onda tan pequeña. De Broglie no fue tomado muy en serio al principio, un poco porque fue su tesis de doctorado (normalmente no se proponen cosas tan aventuradas ahí) y un poco porque su nombre completo era: Louis-Víctor-Pierre-Raymond, 7mo duque de Broglie y pertenecer a la realeza jugaba en su contra en el ambiente científico. Pero los experimentos continuaron y confirmaron su tesis.

Una de las dificultades que presentaba este modelo de onda-partícula, es la localización. Una partícula es fácil de localizar, pero una onda es más complicada. Tras mucho pensar y experimentar, se concluyó que era imposible decir exactamente donde se localizan las ondas-partículas a un cierto tiempo. Este es el principio de incertidumbre de Heisenberg, que todos vimos en la preparatoria de una forma simplificada. Ese “exactamente donde” es importante entenderlo bien; claro que es posible saber dónde está algo, aunque con un error de ±.00000000001 cm aproximadamente, y algo por el estilo sucede para el tiempo en el que se hace la medición.

Así que ahora el modelo que tenemos del mundo, está compuesto de ondas-partículas que ni siquiera sabemos bien donde están… sí, eso es el modelo fundamental de la física moderna, en la segunda parte hablaré un poco de las reglas del juego, de las leyes físicas que gobiernan este mundo cuántico y finalmente sobre sus implicaciones filosóficas e incluso teológicas. Hasta la quincena que viene.

7.7.08

Seremos Biónicos

En los últimos años, las dos áreas de mayor interés para la comunidad científica han sido la nanociencia (el desarrollo de dispositivos tan pequeños como para medirlo en nanómetros) y la biofísica (estudiar sistemas biológicos con herramientas típicamente de la física). Aunque más recientemente se ha podido vislumbrar el siguiente paso: la unión de estas dos áreas. Ya han comenzado ha darse investigaciones muy ambiciosas con esta combinación. Las consecuencias pueden ser fabulosas.

Hablemos un poco del desarrollo en la nanoescala. Hay básicamente dos formas de construir dispositivos de este tamaño: Miniaturizar los procedimientos que conocemos a escalas mayores (como se hacen los microchips), o inducir interacciones moleculares a niveles muy pequeños (que es un área nueva para la tecnología).

La inducción de interacciones moleculares parece ir ganando la carrera; Esto porque con las condiciones adecuadas, se puede inducir el “auto ensamblaje”, es decir, con los materiales necesarios en el lugar adecuado, el dispositivo podría ensamblarse solo, tal como se ensamblan las proteínas. Además se piensa podrían ser más compatibles con sistemas biológicos ya existentes, como nuestros cuerpos o los de cualquier especie.

Dentro de los principales objetivos a mediano plazo, se encuentra el desarrollo de membranas sintéticas compatibles con sistemas biológicos y que puedan desarrollar funciones útiles, como el transporte eléctrico y de señales, modulación de presiones y flujos en general, reconocimiento molecular y generación de energía.

En particular, un proyecto que me parece muy interesante, es el de una batería biocompatible, que pueda recargarse por medio de un metabolismo natural. Es decir, se quiere generar electricidad por medio de un proceso que ya existe en el cuerpo humano. Ahora, lo más interesante es la aplicación que se le quiere dar: fuente de energía para implantes permanentes, como una cámara que transforme la luz que entra al ojo en señal cerebral… Entre los avances que se tienen hasta ahora en esta línea, el grupo del doctor Eric Jakobsson en la Universidad de Illinois, ha desarrollado una red de células sintéticas que producen un voltaje entre ellas. El mecanismo es el mismo que el de la anguila eléctrica. El reto actual está en la conexión con la retina sintética, que ha sido desarrollada con anterioridad en varios grupos como el del Dr. Mark Humayun de la Universidad del Sur de California.

Como podemos ver, existe una línea de investigación seria, con resultados preeliminares existentes, para tener un ojo completamente biónico… fabricado por el hombre, obviamente copiando el modelo natural; pero el punto es que en unos años, no sabemos cuantos, se podría erradicar la ceguera.

Así como este, muchos problemas se están atacando con la colaboración de científicos de todas las áreas convergiendo en un proyecto con un fin común. Sin lugar a dudar la revolución tecnológica que veremos gracias a la unión de la nanotecnología y la biofísica será increíble.

23.6.08

Buscando la partícula de Dios

El año 2008 será, sin lugar a dudas, uno de los más importantes para la ciencia, especialmente para la física de partículas, pues a mediados de julio se espera tener los primeros experimentos en el Gran Colisionador de Hadrones (LHC por sus siglas en ingles). Éste será, sencillamente, el acelerador de partículas más grande del mundo.

¿Qué implica esto? Pues bien, desde el punto de vista científico, esperamos tener respuestas a preguntas fundamentales desde hace muchos años; quizás la más importante sea la existencia de la presunta “partícula de Dios”, o el bosón de Higgs en términos más académicos. A esta partícula se le achaca la fuerza de gravedad, y de existir completaría la tabla periódica de partículas elementales propuesta por el “modelo estándar”; que es la teoría física mas aceptada en cuanto a partículas elementales se refiere. De no existir, en pocas palabras, muy buena parte de la física que se ha venido haciendo desde hace casi un siglo estaría en problemas y tendría que ser reformulada.

Independientemente de la existencia de la “partícula de Dios”, los experimentos que tendrán lugar en el LHC también nos darán respuestas acerca del origen del universo, pues el aparato está diseñado para alcanzar energías cercanas a las que existían unos instantes después del Big Bang. Energías que jamás se han alcanzado. Esto nos dará un mapa mas completo sobre qué pasó en esos momentos; nos dirá qué partículas existían y cómo interactuaban entre sí. Los niveles de energía que se pretende alcanzar en el LHC son de 7 Tera eV. Para tener una idea de lo que esto significa, pensemos que las energías de estas partículas (protones y otras), en condiciones normales, se miden en eV o decenas de eV. Es decir, las partículas aceleradas por el LHC van a tener aproximadamente 7 billones (millones de millones) de veces la energía que tendrían en su ambiente natural. Antes del LHC, las energías mas altas alcanzadas habían sido de 50 Giga eV, 140 veces inferiores, por lo que los experimentos que veremos están, por decirlo coloquialmente, en una liga que nunca hemos visto. El nivel de energías pretendido por el LHC también aclarará preguntas acerca de la materia oscura y la energía oscura, temas íntimamente ligados al origen del universo.

Físicamente, el aparato es una gran dona de 27 kilómetros de circunferencia y que está a una profundidad aproximada de 100 metros bajo la superficie terrestre; está localizado al pie de los Alpes, hospedado por el Centro Europeo de Estudios Nucleares (CERN por sus siglas en francés), a las afueras de Ginebra, en la frontera entre Suiza y Francia.

El LHC también es un gran ejemplo de lo que es capaz la humanidad trabajando unida. Para la realización del proyecto, se requirió participación de prácticamente toda la comunidad europea más Japón, Estados Unidos, Rusia, India, Israel y Turquía. La idea original data de 1980, pero su construcción fue aprobada hasta 1994 y el apoyo de Japón, que fue clave para su continuidad, se dio en 1995. La construcción de los túneles y sótanos se comenzó en 1998 y los primeros elementos propiamente del LHC se comenzaron a instalar en el año 2000. Este gran proyecto comprende varios detectores en los que se medirán diferentes características de distintas partículas. Entre los detectores podemos mencionar a ALICE, a TOTEM y a ATLAS, que ocupan un sótano tan grande que podría albergar a la propia catedral metropolitana.

Sin lugar a dudas los resultados de este experimento serán esperados con ansiedad, pues podrían cambiar la concepción física que tenemos de nuestro universo, y consecuentemente nuestra tecnología.

Para mayor información del proyecto, visite la página oficial:

http://lhc.web.cern.ch/lhc/

30.5.08

¿Qué tanto dice tu ADN?

En 2003, la genética tuvo quizás el más grande logro en su historia moderna: el genoma humano. Para no hacer la historia demasiado larga, diremos que por primera vez se analizó toda la secuencia del ADN de un ser humano. Para poder realizar este trabajo, se desarrollaron tecnologías muy poderosas de reconocimiento de ADN; pensemos que se secuenciaron los 46 cromosomas humanos y que cada uno consta de entre 20 y 25 mil genes. Esta información es invaluable para el futuro de las ciencias, además de tener gran aplicación en el sector salud y áreas afines.
Una de las aplicaciones que ha tenido gran éxito económico ha sido el examen genético de ancestros. El servicio puede ser de dos tipos: “Y-DNA” (sólo aplicable a varones) para rastrear el lado paterno, o “mt-AND” para rastrear el lado materno. Estos dos analizan diferentes cromosomas y evidentemente el resultado es distinto. Los costos del “Y-ADN” oscilan alrededor de los 200 dólares y los del “mt-ADN” alrededor de 120 dólares, claro que se ofrecen paquetes de ambos exámenes por un precio especial.
Pero… ¿cómo funciona el examen? Bien, si usted decide tomar el examen, empresas como DNAancestryproject.com, DNA Print Genomics, Inc. y ancestry.com le mandarán a su hogar un “kit” con todo lo necesario. Usted se tomará una muestra del interior de la boca, y la regresará al laboratorio. Unas semanas después, usted recibirá un mapa del mundo indicando los orígenes más probables de sus genes, junto con los caminos más probables que han tomado hasta llegar a su ubicación actual. Además, podrá validar las relaciones familiares y, de ser afortunado, podrá encontrar primos perdidos que también se han practicado el examen. Incluso, si decide contratar los servicios de dnatribes.com sabrá a qué “tribu” pertenece de acuerdo a su ADN.
Sin embargo, ¿hasta dónde podemos confiar en esta información? Pues esta pregunta ha despertado polémica en la comunidad científica. Un artículo publicado el mes de octubre del 2007, en la revista Science, por la doctora Deborah A. Bolnick, cuestiona la confiabilidad de los exámenes y las actitudes de las personas frente a sus resultados.
Primero hay que entender cómo funcionan estos exámenes. Evidentemente no se analiza la totalidad del ADN, ni mucho menos; se analiza menos del 1% a través de ciertos segmentos predeterminados. Posteriormente se compara con la base de datos de otros individuos y se tiene una respuesta. Pero entre las consideraciones que suelen hacerse, está la de que hay cuatro grandes grupos raciales definidos y con mínima mezcla: indo-europeos, africanos, asiáticos del este y amerindios; lo cual para nosotros los mexicanos, que generalmente tenemos algo de amerindios y algo de indo-europeos nos representa resultados menos confiables.
El mencionado artículo también criticaba la postura de ciertas personas tras efectuarse el examen, pues los resultados han afectado de forma drástica su conducta. Ha habido quienes han incrementado su racismo y quienes han tenido problemas emocionales al no tener el resultado esperado. El examen ha sido especialmente popular entre las personas de raza negra en Estados Unidos, pues son quienes menos datos históricos tienen sobre su origen. Incluso ha sido relativamente común el caso del individuo que, al saber la comunidad africana en la que más probablemente tiene su origen, ha decidido apoyarla económicamente.
Pero las críticas en el artículo antes mencionado evidentemente no fueron muy bien recibidas por dichas compañías y el jefe de científicos de DNA Print Genomics Inc., el señor Tony Frudakis, respondió en la misma revista Science, en febrero de 2008. Frudakis aclara que su compañía emplea buena parte de sus recursos en explicar a sus clientes que la genética y la raza están imperfectamente relacionados con la geografía. De hecho, hasta donde sabemos ahora, cuando se mezcla el ADN para formar un nuevo individuo, el proceso es bastante probabilístico, lo cual siempre deja cierto margen de error para cuando se quieren recuperar los orígenes. Lo que el doctor Frudakis nos dice es que ellos no engañan a nadie, sólo muestran la información y el que se engaña es el cliente cuando confía demasiado en una prueba abiertamente no perfecta y que en teoría no debería tener implicaciones sociales.
A fin de cuentas los orígenes siempre serán un tema que nos intrigue a los seres humanos… aunque jamás sepamos a ciencia cierta de donde venimos, ni como llegamos aquí.