28.5.10

¿Vida Artificial?

    Esta semana el mundo de la ciencia se hizo escuchar fuertemente; se anunció la creación de la primera célula sintética, ni más ni menos. La noticia salió del Instituto Creig Venter  (San Diego, California) y fue por una investigación conducida por el mismo Creig Venter, Daniel Gibson y una larga lista de colaboradores/empleados.

    Pero este éxito de la ciencia, como todos,  tiene una historia. El primer objetivo que tuvieron que alcanzaron en el instituto Creig Venter, fue el poder transplantar DNA sintético por natural, lo cual lograron en 2007. Este experimento consistió en sintetizar computacionalmente el ADN de la bacteria (unicelular) genitalium, añadiéndole un trozo que indicara su origen sintético, y transplantarlo a una célula viva.

    La idea ahora era transplantar un ADN sintético diferente al de la célula receptora, para esto se eligió el ADN de la bacteria mycoides, la célula más simple con capacidad de reproducción; y se eligió a la bacteria capricolum para recibir el transplante. La semana pasada se dieron los primeros resultados positivos; se transformó una célula en otra, a base de un DNA sintético.

    Estos resultados son muy interesantes, pues en un futuro cercano, se podrá usar DNA diseñado por humanos en lugar del DNA de células conocidas. Esto abre la posibilidad a crear células que se reproduzcan rápido y sinteticen sustancias útiles como combustibles, encimas, vacunas e incluso medicinas. Esto quizás tome muchos años, pero la posibilidad está abierta.

    Como diría el Hombre Araña: “Con un gran poder vienen grandes responsabilidades”. En el comunicado, el grupo de científicos termina con una invitación a la discusión filosófica y ética con respecto a la generación de vida sintética. Personalmente, me parece una discusión bizantina, pues vida es vida sin importar por que proceso se halla llegado. No creo que los niños de probeta merezcan tratos éticos o concepciones filosóficas diferentes. Además me parece que la invitación del Dr. Venter es más bien por ser políticamente correcto que por una preocupación genuina.

Otro aspecto en el que se tendrá que debatir, es respecto a las patentes. Hay dos tipos de patentes que ha querido registrar el instituto Creig Venter, unas por los métodos de síntesis y otras por las secuencias de ADN desarrolladas. La primera no crea tantos conflictos, pero las segundas son literalmente patentar vida… pero ese será tema de otro día.

27.5.10

Patas de ADN

    Como he mencionado antes, estamos viviendo una revolución genética. No existe área de la ciencia que este siendo relacionada de una u otra forma a los códigos genéticos o a las biomoléculas que lo codifican, es decir los ácidos nucléicos, ya sea en forma de ADN, ARN o cualquiera de sus variantes. La robótica no es la excepción, y como prueba, la revista Nature de esta semana publica dos artículos en los que se habla de pequeñísimos “robots” (nanobots los llaman) hechos de una proteína en la “cabeza” y “patas” de ADN. Pero para llegar a estos nanobots, primero se tuvieron que desarrollar ciertas técnicas que aunque no se supiera a ciencia cierta para que serían útiles, siempre fueron muy interesantes.

    La primera que mencionaré, es la del origami de ADN, que consiste en doblar secciones de ADN en planos de dos dimensiones, o sea sólo una molécula de ADN de profundidad. Fue usando esta técnica que se hizo la famosa cara feliz de la foto que acompaña al artículo, publicada también en Nature en el 2006 por Paul Rothemund, a quien se le atribuye la creación de esta técnica

    Otra  técnica que podríamos decir fue primero desarrollada por la naturaleza, y ahora sólo intentamos copiar, es la de los caminadores. Dentro de cada una de nuestras células tenemos una red de fibrecillas que cubre la totalidad del interior celular, se llama citoesqueleto y por él “caminan” ciertas proteínas que transportan nutrientes y partes necesarias para el funcionamiento de la célula. Hasta cierto punto ya se había podido imitar el funcionamiento de estos nanobots de la naturaleza, pero con muy poco control sobre ellos.

     Los estudios publicados esta semana en la revista Nature, combinan estos dos aspectos. Usan el origami de ADN para construir un plano por el que pueden  caminar los nanobots de forma determinada, sólo que en lugar de usar ciertas proteínas para moverse, como sucede en la naturaleza, les han puesto cuatro patas de ADN, una para anclarse al plano y tres móviles. El primer diseño fue desarrollado por el doctor Seeman y sus colaboradores de la Universidad de Nueva York y el modo de andar consiste en el reconocimiento del extremo de una pata del robot (que no está en forma de hélice, sino de media hélice sin completar) por un punto en el plano; cada paso que da, va separando el ADN del plano, por lo que el camino sólo puede ser usado una vez. Por el contrario, la técnica, desarrollada por el doctor Hao Yan de la Universidad estatal de Arizona, usa una serie de “dobleces lógicos” en el origami de ADN, que quieren decir “vuelta a la derecha”, “alto” y cosas por el estilo, por lo que el camino puede ser usado en múltiples ocasiones.

     Independientemente del uso que se les pueda llegar a dar, ambas técnicas son muy interesantes y nos hacen pensar que tanto podemos controlar la naturaleza a esos niveles.

Lo Neandertales que Somos

     A mediados del siglo pasado, en el valle de Neander, cerca de Dusseldorf, Alemania, se encontraron por primera vez los restos de un primate extremadamente parecido al ser humano. Pruebas posteriores, junto con otros descubrimientos similares nos enseñaron que esta especie se había extinto hace aproximadamente 30 mil años. Las similitudes a un ser humano eran tan grandes que dieron lugar a muchas especulaciones muy interesantes, se dijo que se habían extinto después de una terrible guerra que sostuvieron con los Homos Sapiens, o sea nosotros. Se especuló también que en realidad no se habían extinguido del todo, sino que se habían mezclado con los Sapiens de la región, y a fuerza de mezclarse su sangre se había diluido tanto, que su influencia ahora era prácticamente imperceptible. Todas estas especulaciones se hicieron en base a mediciones de los huesos encontrados, y sus similitudes con los huesos humanos. Pero ahora que en cuanto a investigación se refiere estamos viviendo la revolución genética, se pueden tener pruebas más contundentes sobre la fortuna que vivieron los Neandertales. El doctor Svante Paabo del Instituto Max Planck de Antropología de la Evolución, en Leipzig, Alemania, y su grupo de colaboradores publican esta semana en la revista Scicence el primer estudio que compara un bosquejo del genoma del Neandertal, con genomas humanos y genomas de chimpancés.

     El doctor Paabo uso 5 genomas humanos de diferentes regiones del mundo que son independientes, y representativas para las migraciones humanas: Francia, sur de África, oeste de África, China y Papua Nueva Guinea. El resultado más general en este aspecto, fue que todos los grupos, menos los africanos, poseen entre uno y cinco por ciento de genes de origen Neandertal, es decir, no se extinguieron, se mezclaron. De acuerdo a estos resultados se cree que la mezcla se dio hace aproximadamente 60 mil años, cuando un grupo de Sapiens había salido de África al medio oriente, antes de dividirse en el gran grupo que fue pobló Eurasia y el gran grupo que pobló Asia oriental. Desafortunadamente, entre los genomas usados en el estudio, no hay ninguno de origen americano, pero si pensamos que este grupo fue la migración más reciente y es una mezcla de los que cruzaron por Bering y los que cruzaron por Groenlandia, bastante después de cuando se estima la mezcla Neandertal-Sapiens, podemos asumir que tendrá aproximadamente el mismo porcentaje de mezcla.

     El doctor Paabo asegura que, por ahora, sus estudios no revelan ningún gen de origen Neandertal, que sea de crucial importancia para la adaptación, de los grupos que lo tienen, como podría haber sido adaptación al frío de latitudes más al norte. Sin embargo no podemos descartar esta posibilidad cuando el estudio tenga mayor profundidad. Sin lugar a dudas estos resultados serán muy ilustrativos sobre la selección que sufrimos los humanos antes de llegar a lo que somos en la actualidad.

Las Intricadas Causas de la Esclerosis Múltiple

    En 2008, la comunidad científica mexicana tuvo uno de los logros de mayor impacto a nivel internacional, cuando los doctores Adolfo Martínez Palomo del CINVESTAV, y Julio Sotelo Morales del Instituto Nacional de Neurología y Neurocirugía Manuel Velasco Suárez publicaron sus investigaciones sobre la esclerosis múltiple (EM). Sus resultados pueden resumirse en que encontraron que la EM es causada por el mismo virus que cause la varicela, sólo que atacando de forma diferente; lo encontraron en el líquido encéfalo raqueo de los pacientes.

     Desde que se descubrió la EM, y se comenzó a diagnosticar comúnmente, se ha tenido un fuerte debate sobre sus causas. Al principio se pensó que la enfermedad era totalmente genética, pues la gran mayoría de los individuos enfermos eran de origen judío o nórdico. Posteriormente se encontró que no era estrictamente racial, sino que estos grupos, y específicamente los pacientes, venían de familias en las que habían sido comunes los matrimonios intrafamiliares. Esta mezcla de genes con poca variabilidad provoca que algunos de ellos se sobre representen y tomen cierta relevancia poco saludable.

     Ahora tenemos por un lado un estudio clínico que nos dice que la enfermedad es viral. Por otro lado tenemos una correlación demasiado sugerente, apuntando a que la enfermedad es genética. Para poder conciliar estos puntos, la hipótesis ahora es que la genética da cierta propensión, pero no es determinante, y el virus necesita estar presente para que se manifieste la enfermedad.

     Para entender mejor esta situación, el doctor Stephen Kingsmore del Centro Nacional de Estudios Genómicos de Santa Fé de Nuevo México se propuso encontrar diferencias genéticas en gemelos idénticos, de los cuales uno tiene la enfermedad y el otro no, que pudieran explicar la causa de la enfermedad. Cabe mencionar, que con el pasar del tiempo, vamos teniendo pequeñas pero claramente identificables modificaciones genéticas. Tras examinar exhaustivamente el genoma de cinco pares de gemelos con estas condiciones, no se encontraron indicios de que existan diferencias en los genes relevantes para la enfermedad. Por lo tanto, aunque la correlación genética y racial existe, parece que la infección viral tiene un peso mayor, en la adquisición de la enfermedad.

     Este estudio, aunado al de los doctores Sotelo y Martínez, darán un mayor impulso a los estudios orientados a atacar el virus y sus formas de actuar. Enhorabuena pues el hecho de que sea más bien viral, quiere decir que es más bien curable.


*A mi padre, por mantener la entereza y la cabalidad paternal después de casi 25 años de padecer la enfermedad.

Un Paño de Invisibilidad

     Como he dicho antes en esta columna, muchas veces es difícil saber en donde localizar la frontera entre la ciencia y la fantasía. Un experimento que pudiera haber salido del mundo del “Señor de los Anillos”, o del closet de “Harry Potter” es el de un paño de invisibilidad, una tela que al cubrir algún objeto, lo hace invisible.

     Durante muchos años, ha habido intentos serios de lograr algo parecido, seguramente podríamos encontrar antecedentes de la idea entre los alquimistas de la edad media y el renacimiento, pasando por los ilusionistas del siglo XIX y llegando a científicos formales como los conocemos hoy en día. La idea detrás de esta posibilidad, no es actualmente muy diferente a la de los ilusionistas, pensemos que su truco consiste en una serie de espejos que hacen ver al observador lo que se encuentra detrás del objeto “desaparecido”. Aunque el experimento está muy limitado, por la iluminación adecuada y el ángulo para el observador, funciona. El principio es desviar la luz, guiarla alrededor de algún objeto y regresarla a su trayectoria original; basándose en éste, se lograron fabricar cajas rígidas que hacen invisible su contenido, aunque sólo funcionan si se les ve directamente a una de sus caras.

     Uno de los pasos más impactantes hacia la invisibilidad, lo hizo el doctor Susumi Tachi en la Universidad de Tokio, que logró dar flexibilidad a estos materiales. La foto de este artículo no es efecto especial, es la foto de uno de los estudiantes del doctor Tachi usando una chamarra del material que desarrollaron. La gran limitante viene con el ángulo para el que funciona, como podemos ver en la foto, cuando el ángulo del observador no es perpendicular al plano del material, parece una tela hasta cierto punto ordinaria.

     Sin embargo, el doctor Martin Wegner del Instituto Tecnológico Karlsruhe de Alemania, y su grupo de colaboradores han logrado que el ángulo del observador sea de hasta 60 grados, bastante cerca de los 90 máximos. Ahora la limitante viene por otro lado. El material desarrollado es lo que llamamos un cristal (flexible), es decir, es la repetición ordenada de cierta estructura, lograr mantener este orden para estructuras más grandes es muy complicado. Por ahora el doctor Wegner sólo ha logrado obtener paños de unos cuantos micrómetros, mil veces más pequeños que un milímetro. El problema es un caso típico de la frontera entre la ciencia y la ingeniería. La teoría existe y el experimento ha sido exitoso, pero no se han logrado controlar mejor los experimentos para poder usar el fenómeno a placer.

     De acuerdo al mismo Dr. Wegner, aún estamos lejos (por lo menos 10 años) de realmente tener paños que logren la invisibilidad, y quizás jamás lo logremos. Por un lado me da mucha curiosidad verlos en acción, por el otro, todos los usos que se me han ocurrido son éticamente cuestionables. Seguramente el ejército será la principal fuente de recursos para estas investigaciones, veremos.

La Agencia Espacial Mexicana

    Esta semana se anunció con bombo y platillo que con 280 votos a favor, dos en contra y cuatro abstenciones, la cámara de diputados había aprobado la creación de la Agencia Espacial Mexicana, AEM. Mi primera impresión fue bastante positiva, y en general lo sigue siendo (tengo esperanza), aunque como siempre que se cruzan la política y la ciencia, hay muchas aristas sobre los que vale la pena comentar.

    Lo primero que me llamó la atención, fue el presupuesto con el que fue aprobada, 10 millones de pesos “para empezar”. No queda claro para qué son estos 10 millones, el boletín oficial no habla de ningún presupuesto anual. Pensemos que solamente el salario de un buen investigador en los EEUU anda rondando los 2 millones de pesos al año, ¿cuántos cerebros podremos retener ante esta oferta? ¿y con que salario? Por otro lado, no sé bien que equipo se esté pensando adquirir, pero para poder hacer investigación relevante a nivel mundial, es necesario adquirir equipo muy caro. Estos 10 millones no son, ni por mucho, suficientes para mantener una agencia espacial respetable. Sin embargo, el Lic. Jaime Herrera y el Ing. Fernando de la Peña, promotores de AEXA, así como el astronauta de origen mexicano José Hernández, han mencionado que se esperan obtener recursos también por parte de la iniciativa privada. Lo cual me parece fabuloso pues podría ser una agencia que detone este tipo de cooperaciones en nuestro país. Si funcionan bien algunos proyectos, seguramente las empresas privadas se darán cuenta de los beneficios que puede tener el desarrollar su propia tecnología. En el primer mundo, estas cooperaciones han formado importantes círculos virtuosos entre la industria y la ciencia.

    Otro aspecto importante, es que vamos a poder participar en proyectos de la estación espacial internacional, lo cual es importante desde el punto de vista científico y político. Es como decir “presente” en un selecto grupo de países con la capacidad de desarrollar proyectos científicos importantes. Seguramente esto ya lo tienen en mente los directores de la AEXA, esperemos trabajar bien los primeros años para poder entrar a las grandes ligas.

    En la escena local, los gobiernos de Hidalgo y Chihuahua ya saltaron para pedir ser la sede. Es bueno que se tenga esta disposición, ahora habrá que ver los planes y las ofertas en concreto.

     Por otro lado los gobiernos de Quintana Roo y Yucatán, alentados por algún científico que les quiso dar esperanza, ya se propusieron para tener un sitio de lanzamiento. Me puse a pensar en la viabilidad del tema y sólo hice bilis, así que le ahorraré el enojo, estimado lector, y me limitaré a decirle que por los próximos 20 años, ese proyecto no tiene ni pies ni cabeza. Es un ejemplo de que si no tenemos cuidado, se puede generar un círculo muy vicioso entre política y ciencia.
   
    Para concluir sólo diré que espero se le asigne más presupuesto a la iniciativa, pues es buena, se le administre bien, pues es necesario para su buen funcionamiento, y se logre interesar positivamente a la industria privada y a los gobiernos locales, pues detonaría a la ciencia en México. De otra forma, me temo que la AEXA se quedará en un poco más de atole con el dedo… con un saborcillo de ilusión.

Empatía Entre Roedores


    Es difícil pensar que creaturas como los ratones y las ratas, sean capaces de desarrollar sentimientos de empatía. Y es que el primer problema que encontramos es que la empatía no está muy bien definida. Para estar hablando de la misma situación, definámosla como la capacidad de generar emociones al ver la situación de otro individuo. En primera instancia, parecería que es un fenómeno demasiado humano como para que los roedores lo presenten, quizás un perro o algún otro mamífero superior, pero ¿un ratón?
    El Dr. Daejong Jeon del Centro de Ciencias Neurológicas del Instituto Coreano de Ciencia y tecnología realizó un experimento para saber dos cosas, primero: si existe la empatía entre los ratones, y segundo: ¿qué papel tiene la amígdala cerebral en este fenómeno? Pues esta parte del cerebro es fundamental para la generación de emociones en los mamíferos, y nos podría decir algo sobre nosotros mismos.

    El experimento, que seguramente fue muy criticado por las asociaciones protectoras de animales, consistió en tener dos ratones en jaulas contiguas; al primero se le administraron choques eléctricos, mientras el segundo miraba. La reacción del segundo fue de evidente miedo, incluso se paralizó por momentos. Además, fue la misma reacción que mostró al día siguiente, con simplemente entrar a la jaula en donde había sido testigo. También fue muy interesante ver que la reacción era mayor cuando el ratón torturado era su hermano, o había sido su compañero de jaula por cierto tiempo. Esto nos respondió contundentemente la primera pregunta… los ratones sí tienen capacidad de sentir empatía.

    En la segunda parte del experimento, se usaron ciertos fármacos para bloquear el núcleo lateral de la amígdala cerebral en diferentes momentos del experimento. Como dije antes, la amígdala cerebral es fundamental para mostrar reacciones emocionales, por lo que se cree también fundamental para la empatía. En efecto, al estar bloqueada la amígdala, los ratones no mostraban empatía al ver a su compañero maltratado, y tampoco al día siguiente al regresar a la jaula. Sin embargo, un grupo de ratones primero tuvieron la experiencia en vivo, y después se les bloqueó la amígdala, lo cual no evitó que los ratones sintieran miedo al regresar a la jaula al día siguiente. Estos resultados son importantes e interesantes pues demuestra que, por lo menos en los ratones, la amígdala es básica para generar reacciones emocionales, pero no para recordarlas como se había argumentado en otras ocasiones.

     Al parecer, la empatía funciona de manera similar a los mecanismos de imitación, como hacen los changos, o como cuando aprendemos al imitar a otros individuos. De alguna forma, podríamos decir que los ratones sí pueden experimentar en cabeza ajena.

El Nuevo Pariente

    Cuenta el Dr. Lee Berger, que en una de sus expediciones, en busca de fósiles al norte de Johannesburgo, su hijo, Matthew, guiado por el olfato de su perro, encontró los restos de una nueva especie de homínido.

     La nueva especie fue nombrada Australopitecos Sediba, lo cual quiere decir “fuente” o “manantial” en seSotho, la lengua local. El lugar del halazgo también tiene un nombre en la misma lengua: Malpa, que quiere decir: “granja”. El Dr. Berger de la Universidad de Witwatersrand relata sus estudios en dos fósiles para el último número de  la revista Science. Un fósil al parecer femenino, completamente desarrollado, y otro masculino con un desarrollo del 95%, podríamos decir que era un adolescente de aproximadamente 14 años.

     Si quisiéramos resumir las características del A. Sediba en una sola palabra, sin lugar a dudas esta sería transición. De acuerdo a los estudios realizados en los huesos fósiles, es claro que fue una especie que dejó de tener en los árboles su principal morada para pasar mayor tiempo en el piso, muestra extremidades largas, manos fuertes y una postura erguida. También comenzó a dar pasos más largos, similares a los que damos ahora; además muestra un cambio en el tamaño, pues ambos fósiles tienen una estatura estimada en 1.27 m y un peso en 33 Kg., aunque el masculino podría haber crecido un poco más. Se cree que los A. Sediba evolucionaron del Australopitecos Africanus y posiblemente sean el vínculo al Homo Erectus, lo cual lo convertiría no sólo en un pariente, sino en un ancestro del Homo Sapiens… como usted lector. Pero hay otro aspecto interesante en estas especulaciones, los fósiles en cuestión, parecen tener una antigüedad poco menor a los dos millones de años; dos millones menos que Lucy, el fósil etíope que ha dado la vuelta al mundo. Además, habrían convivido con los Homo Erectus, lo cual hace pensar que cuando se dio la mutación del Sediba al Erectus, no se extinguieron todos los Sediba. Aunque siempre queda la posibilidad de que sean dos especies sin relación evolutiva alguna. Sería interesante saber en qué condiciones se encuentra el ADN de los fósiles, pues se podría comparar con el del Erectus y el de Lucy, para ilustrarnos en esta pregunta.

     Siempre es interesante enterarnos de nuestro orígenes y de la evolución de los monos; se sabe que el África es el continente de mayor interés, ahora es su punta sur la que nos da un par de respuestas.

Éxito en el Colisionador

    La madrugada del 31 de marzo, el CERN (Centro Europeo de Investigaciones Nucleares) publicó un boletín informativo titulado “Yes we did it” una variante del ahora cliché mundial. Pero el título no podría ser más acertado, pues por primera vez se logró colisionar protones con energías de 7 TeV (Tera electrón Volts) en el gran colisionador de hadrones. Un éxito sin precedentes para la comunidad científica mundial, y si me apuran un poco, para la raza humana. Se logró que prácticamente todos los países desarrollados y semi-desarrollados (México incluido), cooperaran económica e intelectualmente para alcanzar éxitos que para un solo país, hubieran sido simplemente imposibles. El proyecto ha consumido 10 mil millones de dólares y 16 años de arduo trabajo.

    Alrededor de 10,000 científicos se encontraban en el CERN esa mañana y narran las diferentes voces que se podían respirar la ansiedad, la emoción, la impaciencia, la expectativa… y el miedo. Ya se había logrado llegar a 3.5 TeV, pero era el tercer intento de dar el salto a 7 TeV. Aunque los dos fallos anteriores estaban prácticamente contemplados, habían dejado a la comunidad un poco nerviosa. Pero cuando el rayo de protones finalmente colisionó con la energía adecuada en el detector Alice y se fueron confirmando las lecturas exitosas en los otros tres detectores, la algarabía explotó. El emocionante evento fue transmitido en vivo a través de Internet.

    En el futuro próximo, se espera doblar de nuevo la energía que se logró: llegar a 14 TeV, lo cual es el máximo proyectado para el colisionador. Cada uno de estos experimentos exitosos, son millones de colisiones diminutas que arrojar cantidades inimaginables de datos. Ahora el principal trabajo de los científicos será analizarlos y poder mostrar sus conclusiones en la primera gran conferencia programada para julio, en París. Entonces, se nos dirá con mayor detalle que tanto hemos realmente aprendido sobre los orígenes del universo, la materia oscura y el bosón de Higgs entre otras cosas.

    Para concluir, cito a Sergio Bertolucci, director científico del CERN: "Es un paso a lo desconocido y lo importante de la investigación básica es precisamente abordar lo que no se sabe. En cuanto a los descubrimientos... lo más interesante seguramente será lo inesperado".

A Ver… ¿un Átomo?

    A lo largo de la historia, el ser humano ha tenido una curiosidad por lo pequeño, los lentes fueron la primera forma de acercarnos a ese mundo. Hubo y hay auténticos maestros expertos en la fabricación de lentes; es todo un arte. Sin embargo llega un punto en el que si queremos tener más aumento, un lente no es suficiente, pues los fotones, las partículas de la luz, que normalmente se usan para estas prácticas son muy grandes, o mejor dicho, tienen una longitud de onda demasiado larga, y no permiten llegar a la resolución que queremos. Se puede aumentar la energía de los fotones para disminuir su longitud de onda y ver cosas más pequeñas, pero al aumentar la energía, quemamos lo que queríamos ver… La solución a este dilema fue usar electrones pues tienen una longitud de onda mucho más corta. De ahí los microscopios electrónicos. El primero se desarrollo en 1935 por tres físicos alemanes, Ruska, Knoll y Jhener.

     A partir de entonces, se han venido modificando las técnicas de obtención de imágenes, algunas se basan en la transmisión de los electrones, otras en su interferencia y muchos otros fenómenos físicos que no vale la pena enumerar uno a uno. El método del que hoy me interesa hablar está relacionado con la transmisión de electrones. Si la muestra a analizar es una película delgada, como las de las cámaras viejitas, hay ciertos electrones que se transmiten, es decir pasan al otro lado de la película, como los fotones cuando vemos a contraluz los rollos del cine. Este principio, es la base del microscopio de transmisión electrónica que se usa con diversas variaciones.

     Un grupo de investigadores por demás interesante, pues está compuesto por gente de la compañía privada Nion Co., del laboratorio nacional estadounidense de Oak Ridge y de la Universidad de Vanderbilt, ha logrado por primera vez identificar átomos individualmente. Su técnica está basada en la trasmisión de electrones antes mencionada, pero digamos que van más allá de lo evidente. Cuando se transmiten los electrones por la película, no pasan por todos lados, hay pequeños puntos en donde quedan huecos, son las áreas que corresponden a los núcleos de los átomos. Pero si se filtran toda la señal, menos justamente la que pasa por esos huecos, podemos comprobar que no estaban del todo vacíos, sino que simplemente la señal ahí, tenía mucho menos intensidad. Analizando esta señal, que contiene información sobre el núcleo, el grupo liderado por el Dr. Stephen Penycook logró identificar específicamente a qué átomo correspondía cada hueco. El primer experimento logró identificar átomos de Carbono, Nitrógeno, Boro y Oxígeno.

     Debido a la naturaleza de la técnica, el procedimiento está limitado a átomos que sean resistentes a la radiación y que estén en películas delgadas, sin embargo es suficiente para tener infinidad de aplicaciones en la llamada nanotecnología. En hora buena.

Avances Hacia el Parque Jurásico

    En la ciencia ficción, podríamos decir que hay vario niveles de balance entre ciencia y ficción. Existen temas que, si bien tienen cierto sustento teórico del lado científico, son más bien ficción pura, como los viajes en el tiempo y la tele-transportación. Otros temas son más balanceados y no sólo tienen sustento teórico sino también experimental; aunque los experimentos sólo indiquen que la parte ficticia quizás será posible en el futuro. En este nivel está la idea del parque jurásico: tomar el ADN de especies extintas, y clonándolas, lograr que habiten el planeta de nuevo.

    Esta semana, el doctor Michael Bunce de la universidad de Murdoch en Perth, Australia y un gran grupo de colaboradores presentan un trabajo en la extracción de ADN. Lograron extraer buenos segmentos de ADN del cascarón de diferentes especies extintas como patos de Nueva Zelanda, pájaros elefante de Madagascar y búhos de Australia. Algunos de los cascarones tenían más de 19 mil años de existencia.

    El DNA en los cascarones ofrece una mejor alternativa que el DNA en los huesos fósiles porque tiene 125 veces menos bacteria y en general es más estable. Debido a esto, el doctor Bunce también sugiere que el cascarón (o un substrato similar) podría ser podría ser un buen contenedor para la preservación del ADN en el futuro; sobretodo por haber demostrado su estabilidad en climas cálidos como los de Madagascar y Australia.

    Para dar el siguiente paso al auténtico parque jurásico, ahora se tiene que lograr clonar a estas especies, lo cual no es sencillo en absoluto. Por un lado, tenemos el código genético, pero no tenemos los óvulos adecuados ni la matriz necesaria para lograr la clonación. Es como haber encontrado un buen disco de acetato, pero sin el tocadiscos. Quizás se podrían usar ovarios y matrices similares. No sería la primera vez, de hecho ya se ha logrado resucitar a una especie extinta. La cabra montes de los Pirineos, en algún momento fue muy común en todo el norte de España y algunas partes del sur de Francia. Sin embargo, debido a la caza inmoderada en el siglo xix, se redujo su población drásticamente y para 1973 sólo había 30 ejemplares. En el año 2000, murió la última ejemplar. De su cadáver se guardaron secciones de ADN por si en un futuro se lograba clonar. Pasó casi una década para que el doctor José Folch, del Centro de Investigación y Tecnología de los Alimentos de Aragón, en Zaragoza, España, lograra clonar a la cabra usando los óvulos y la matriz de una cabra doméstica. Sin embargo el éxito no fue del todo rotundo pues el clon de cabra montes murió poco después de haber nacido por un problema en sus pulmones. Además, para lograr esta clonación “exitosa”, se tuvieron que  generar 439 embriones, de los cuales 57 se intentaron implantar teniendo sólo la aceptación de 7. Como se ha de imaginar, de estos 7 sólo uno logró nacer y no vivió por mucho tiempo. Algo parecido a lo que pasó con Dolly, la primera oveja clonada.   

    Como vemos, la clonación es posible, pero aún muy poco exitosa. Podríamos decir que aún tiene mucho de ficción. En el futuro veremos como se mejoran las técnicas y nos sorprenderemos con las implementaciones que se les puedan dar. Por lo pronto, para quien se interese en un parque jurásico, el doctor Bunce ya tiene listas algunas secuencias.

Prediciendo lo que te Interesa

    ¿Se ha dado cuenta de que los anuncios que saltan en su computadora mientras navega la red, se han ido acercando a sus gustos cada vez más? Si algún día le dedico algún tiempo a la interrogante, seguramente concluyó, que de alguna forma, lo estaban observando y analizando. Terrorífico en principio, pero como casi todo, si se hace siguiendo algunos lineamientos éticos no tendría porqué espantar a nadie. Lo están observando por medio de las cookies que se van quedando en su computadora mientas pasa por diversas páginas. Es como una lista de los lugares que ha visitado, basándose en esta lo están analizando para mostrarle anuncios que creen, serán de su interés.

    Dejando de lado la ética y sus pormenores, el análisis que están haciendo es por demás interesante. Este tipo de algoritmos que tratan de predecir los intereses de la gente, no se limitan a la publicidad, también son usados para sugerir libros, páginas de Internet (stumbleupon.com) o películas, basándose siempre en las elecciones pasadas y sus calificaciones. Literalmente se ha generado un nuevo campo de estudio que combina la psicología, la mercadotecnia, la programación y la ciencia en general.

     Para hacer buenas sugerencias hay dos factores que considerar. Por un lado se quieren sugerir opciones similares a las elecciones pasadas, pero las opciones más obvias (sugerir “El Señor de los Anillos II” a quien vio y le gustó “El Señor de los Anillos I”, o poner un anuncio de la página en la que se  acaba de visitar justo antes de la actual) seguramente ya han sido contempladas por el usuario, así que, por el otro lado, las sugerencias no deben ser tan evidentes. Estos dos aspectos se contraponen y complican el algoritmo. Para resolver este dilema, el doctor Zhang de la Universidad de Fribourg en Suiza y sus colaboradores propusieron un algoritmo híbrido que balancea ambos aspectos.

     El algoritmo es también interesante por estar basado en modelos matemáticos que normalmente representan la difusión aleatoria de partículas y la difusión del calor. Podríamos decir que este nuevo tipo de problemas, los estamos resolviendo con tácticas conocidas. Otro ejemplo de las analogías y su poder.

De Memorias Caducas y Perennes

    El hipocampo es un componente del cerebro localizado dentro del lóbulo temporal medio,  prácticamente detrás de los ojos, a la altura de las orejas. Su nombre de debe al parecido que tiene con el caballito de mar, que en realidad es a dos caballitos amarrados por la cola. Dentro de nuestro limitado conocimiento del funcionamiento cerebral, es bien sabido que el hipocampo es responsable de la generación de nuevas memorias y la ubicación espacial. Para combatir nuestra ignorancia al respecto, el doctor Anthony Wagner (el auténtico Dr. Wagner) y su equipo en Stanford, se propusieron investigar un poco más sobre los mecanismos necesarios para generar nuevas memorias y conocimientos.

     El experimento consistía de tres sesiones similares. En la primera, se mostraban varios pares de fotografías con título. Digamos que estos pares eran de la forma AB, siempre A del lado izquierdo y B del derecho. Asociado a cada par se tenía un premio pequeño de 10 centavos, o grande, de 2 dólares. Posteriormente se mostraba una foto A y se preguntaba ¿cuál era la fotografía B que formaba el par? En la segunda sesión se les mostraron a los pacientes otro conjunto de pares de fotos con sus recompensas; lo interesante es que algunos de estos pares repetían algunas fotografías de la primera sesión, digamos que eran pares de la forma AC, siempre con la foto repetida A del lado izquierdo y la nueva foto C del lado derecho; aunque también había pares totalmente nuevos, de forma AB. Se les volvió a preguntar ¿qué foto del lado derecho, estaba asociada con que foto del lado izquierdo? Se les informó del monto al que habían sido acreedores, y pasaron a la tercera sesión, que era la realmente interesante. Esta consistía en mostrarles una foto A, y preguntarles ¿cuál era la foto B a la que primero la habían asociado? Como hemos dicho, en algunos casos, la foto A, sólo había sido asociada con una foto. En los casos de una sola asociación para la foto, cerca del 55% de las preguntas con premio grande fueron respondidas correctamente, mientras que para premio pequeño, el porcentaje de aciertos fue de 50%. Cuando sí se había asociado una segunda foto, los porcentajes bajaron cerca de 5% cuando el premio de la segunda foto era pequeño, y 7% cuando era grande.

     Existen dos mecanismos identificados en la generación de nuevas memorias: completar patrones y separar patrones. El hipocampo es responsable de ambos y se le estuvo monitoreando durante el experimento. En los casos en que había dos memorias compitiendo (AB vs. AC) y se les logró identificar exitosamente, el hipocampo mostró una mayor actividad, además reveló que en estos casos, al memorizar AC, primero se recuperó AB. En otras palabras, las memorias que se guardaron a largo plazo (AB), pasaron por un proceso de reforzamiento (al guardar AC). Este proceso es conocido, es el mecanismo de “completar patrones” del hipocampo y el experimento lo corrobora como principal responsable de la buena memoria. Una de sus manifestaciones más comunes se da cuando al dormir, recordamos lo que hicimos durante el día, aunque, como en el experimento, lo hacemos también despiertos y se ha comprobado que es aún más eficaz.

    Así las cosas. De acuerdo al auténtico Dr. Wagner, o reforzamos las memorias o las perdemos. Recordemos lo bueno. ¡Salud!

Aprendamos de Roger

     Esta semana, se llevó a cavo la reunión de la Sociedad Biofísica, en San Francisco, California; más de 6,000 asistentes provenientes de todos los rincones del planeta, incluyendo a las más grandes personalidades de todas las especialidades del área. Para quienes nos dedicamos a estas artes, es como un vive latino o como un Woodstock a seis pistas. Es difícil decidir a que plática asistir pues siempre hay más de una que resulta interesante y uno nunca sabe dónde se va a encontrar una agradable sorpresa.

     Este año la sorpresa fue, para fortuna de todos los asistentes, en la plática plenaria. Prácticamente los 6,000 estábamos presentes. El responsable fue Roger Tsien, ganador del premio Nobel de química del 2008, por el descubrimiento y desarrollo de la proteína verde fluorescente.

     Roger Tsien es un bioquímico norteamericano de ascendencia china. De hecho se sabe descendiente de la familia real del antiguo reino de Wuyue (alrededor del año 1000). Sus padres fueron ambos profesores del MIT y su hermano Richard, es también un reconocido científico en Stanford. Digamos que en su familia se da eso de la ciencia.

     Durante su plática, el Dr. Tsien habló de sus más nuevos descubrimientos: Una innovadora técnica en la que usando proteínas fosforescentes y procesamiento de imágenes, puede marcar los tumores y los nervios del enfermo. Estas imágenes se muestran en vivo y el doctor que está quitando un tumor, puede ver muy claramente que tejido hay que remover y cual dejar, además de tener especial cuidado al cortar alrededor de tejido nervioso. Su elocuencia y claridad al exponer sus descubrimientos hicieron de su plática de lo más interesante, entretenida e ilustrativa.

     Pero el Dr. Tsien no es un científico común en ningún aspecto. Se ha mantenido muy activo tras obtener el premio Nobel (cosa poco común), ha mantenido su laboratorio de tamaño mediano, de forma que pueda desarrollar varios proyectos, pero aún pueda mantener una comunicación efectiva con todos sus investigadores. Durante los otros días de la reunión, era común verlo cambiando de sección, buscando la plática que más le interesaba, haciendo preguntas y provocando la sana discusión. Un científico admirable en todos los aspectos. El último día, después de entender el punto al que quería llegar el Dr. Tsien con una pregunta, me quedé pensando… estaría mucho mejor la ciencia y el mundo si tuviéramos más Rogers…

Un Par de Átomos de Profundidad

    En los últimos años, hemos venido escuchando, cada vez con más frecuencia, que la nanotecnología va avanzando muy rápidamente y se usa cada vez en más lados. Pero… ¿a qué se refieren? ¿Por qué se ha vuelto tan importante?

    La nanotecnología es en pocas palabras, toda la tecnología que usa componentes con dimensiones cercanas a los nanómetros. En un milímetro hay un millón de nanómetros. Nos estamos acercando a las escalas de los átomos y es esto justamente lo que la hace interesante. En las escalas en que vivimos, de los metros y los milímetros, los átomos están siempre en conglomerados y los fenómenos que vemos son el resultado de la suma de sus contribuciones, pero individualmente interactúan de otra forma. El primer paso para ver fenómenos diferentes es estudiar las interfases. Por ejemplo, todos sabemos que el agua se evapora aproximadamente a 100°, pero entonces ¿cómo se evaporan los charcos? Lo que sucede es que las moléculas de agua están en constante movimiento, y en la superficie, de vez en cuando una de ellas se mueve con suficiente velocidad como para escaparse del charco y convertirse en humedad del ambiente. Fenómenos similares suceden siempre que se tiene una interfase, muchos de ellos tienen un trasfondo eléctrico.

    Lo que sucede a nivel nano, es que casi todo es interfases y las reglas del juego cambian. Uno de los sistemas más populares y en estudio son los nano-tubos de carbón. Sin embargo el número uno de la actualidad es el grafeno, que es una capa de carbono con muy pocos átomo de profundidad, incluso se ha llegado a la monocapa. De cualquier forma, interfase por un lado y por el otro. A estos dos sistemas se les han encontrado muchas propiedades eléctricas y mecánicas muy interesantes.

    Hasta la semana pasada, el grafeno y los nano-tubos eran los únicos sistemas en el área, pero ahora tienen competencia pues Alexander Balandin y su equipo de la Universidad de California en Riverside han logrado hacer una película delgadísima (1 nm aprox.) de bismuto y telurio. Ya han encontrado que la película tiene una alta conductividad eléctrica y una baja conducción térmica, propiedades que normalmente van de la mano. Este hallazgo sin lugar a dudas, abre la puerta a una ola de estudios con el nuevo material, y ofrece un nuevo jugador para las nuevas nanotecnologías.

Post Data: Yvo de Boer renunció a la secretaría de clima de la ONU. Evidentemente frustrado por no alcanzar acuerdos en la cumbre de Copenhague.

El Genoma más Antiguo

     Actualmente, en el mundo de la ciencia, estamos viviendo una “revolución genética”; su origen se remonta a 1953 cuando Watson y Crick descubrieron la estructura del DNA. Aunque realmente el impacto se comenzó a ver en 2003 con la publicación del genoma humano (catálogo de genes). Desde entonces hemos tenido continuos y enormes avances en la materia. Pero estos avances no se podrían tener sin innovaciones tecnológicas y especialistas en diferentes áreas. El danés Eske Willerslev es amo y señor de la decodificación de materiales genéticos antiguos. En su haber encontramos publicaciones sobre el DNA de mamuts, bisontes y una gran variedad de plantas y animales que existieron hace miles de años.

    Pero este tipo de estudios son aún más interesantes cuando se trata de humanos. Willerslev se propuso decodificar la totalidad del genoma de un hombre bautizado como Inuk, que perteneció a la cultura Saqqaq y se encontró atrapado en el hielo de Groenlandia hace aproximadamente 4000 años. Era un reto técnicamente, pues a pesar del hielo, el tiempo no dejó una secuencia intacta; las muestras se tomaron del pelo y fue necesario usar varios núcleos celulares para después correlacionarlos. Pero dicen los colegas de Willerslev que logra cualquier cosa que se propone, y esta no fue la excepción. Sus resultados fueron publicados en la revista Nature de esta semana.

    Entre los resultados que arroja el genoma, encontramos que el hombre tipo de sangre A positivo, era de piel morena, tenía ojos cafés y tendencia a la calvicie. Por otro lado, también revela que su grupo racial está más relacionado con los antiguos pobladores del este de Siberia, en particular con la cultura Chukchis. Esto deja en claro que su migración (alrededor de 5,500 atrás) fue diferente a la gran migración que dio lugar a los actuales esquimales y nativos de Norteamérica.

    Hasta ahora sólo se habían resuelto ocho genomas humanos, un yoruba africano, cuatro europeos, un chino y dos coreanos; ahora se agregara el genoma de Inuk. Este estudio es muy trascendente por ser el primero, pero en los siguientes años veremos muchos más de ellos.

En Coma y Respondiendo

     El coma es un estado de conciencia rodeado de misterio. Se puede llegar a él por un golpe muy fuerte en la cabeza, por una intoxicación o por un ataque cerebral entre otros. Pero, ¿qué pasa cuando estamos en coma? Desde el punto de vista médico se tiene bastante bien clasificado, se sabe que hay varios niveles y se les entiende moderadamente. Pero no se tiene claro como se evoluciona de un nivel al otro, qué nivel de conciencia se tiene en cada uno, ni mucho menos como hacer para salir del coma.

     Hasta ahora el entendimiento que tenemos sobre el nivel de conciencia que se tiene en el coma es bastante especulativo. Es parecido a lo que sabemos sobre los sueños, no podemos negarlos, todos los hemos tenido, pero en realidad, desde un punto de vista científico, sabemos muy poco de ellos. Sin embargo, con la llegada de mejores tecnologías para tener imágenes magnéticas del cerebro, hemos entendido un poco más sobre su naturaleza. Los hemos logrado comparar con la actividad cerebral de personas despiertas y concientes. Partiendo de esta idea, el maestro Audrey Vanhaudenhuyse de la universidad de Liege en Bélgica, y el doctor Martin Monti de la universidad de Cambridge, han estudiado la actividad cerebral de 54 pacientes comatosos.

     Para entender el nivel de conciencia y de actividad cerebral de estos pacientes, se formularon una serie de preguntas personales con simples respuestas de sí/no. Como por ejemplo ¿tu padre es Andy? Siempre cerciorándose de que el investigador que realizaba las preguntas, no supiera la respuesta. En 5 casos, se tuvieron resultados positivos, es decir, el paciente respondió coherentemente a las preguntas sólo utilizando su cerebro. La actividad cerebral no fue exactamente la misma de una persona saludable (ver imagen), pero fue lo suficientemente cercana, y las respuestas lo suficientemente acertadas como para concluir que el paciente fue capaz de escuchar, procesar y responder las preguntas. Un aspecto interesante es que estos 5 pacientes habían caído al coma por traumas, es decir, golpes en la cabeza.

    Este estudio es interesantísimo en si mismo, peor además abre la puerta a tener cierto tipo de conversación con pacientes comatosos y entender un poco más ¿qué sucede cuando estamos ahí?

La alternativa a la alternativa

     En estos tiempos en que tanto se habla del cambio climático y todos los demonios que lo acompañan, es importante enterarse de las alternativas que existen para remplazar los métodos de generación energética que se han venido usando. Una cosa es lo que se dice de ellas cuando están en el laboratorio, y otra muy diferente su uso práctico. He de aclarar, aunque seguramente ya lo sabe, lector culto, que no existe la perfección. Todas las formas de generar energía tienen un costo de una u otra forma, las hidroeléctricas modifican drásticamente el ecosistema, las nucleares tienen desechos peligrosísimos, los derivados del petróleo emiten muchos gases, las celdas solares contienen materiales altamente tóxicos y los aerogeneradores sólo funcionan cuando hay viento, y son muy molestos para la gente que vive cerca de ellos (el ruido constante y en algún momento del día, cuando la sombra da hacia la casa, es como si se prendiera y apagara la luz cada tres segundos, esta es en serio la principal queja en países que lo han implementado en cantidades significativas).

            Para sustituir la gasolina de los coches se ha hablado de varias alternativas: las celdas de hidrógeno (aunque en realidad son baterías, no generadores) y el biodiesel principalmente. El biodiesel va ganando la carrera principalmente por tres razones: primero, las modificaciones a los motores actuales, y por lo tanto a la industria actual, son mínimas, segundo, genera más energía en menos tiempo, lo que permite que los coches puedan acelerar como lo hacen ahora, y tercero, ya se usa en Brasil y Argentina. En cuanto a contaminación, es debatible pues las celdas de hidrógeno son baterías. Además en realidad este factor no preocupa demasiado ni a la industria, ni al inversor, ni al consumidor cuando se trata de su dinero. Sin embargo sí existe un factor que no es tan fácil de ignorar, sobretodo en países como México; para generar biodiesel necesitamos insumos que normalmente se usan para generar alimentos, llámese campo y agua. Sería perverso aumentar el precio de los alimentos por usar biodiesel. Pero el doctor Jay D. Keasling y un grupo de colaboradores principalmente de la Universidad de California en Los Ángeles y en Berkeley han desarrollado una alternativa para esta fuente de energía… alternativa.

            El doctor Keasling ha encontrado una forma de modificar genéticamente a la bacteria escherichia coli para procesar hemicelulosa y obtener diversos compuestos químicos como alcoholes grasos, ceras y una molécula que funciona igual que el diesel normal, lo podríamos poner en los tanques para diesel que existen hoy. Otro aspecto importante de esta investigación, es que la hemicelulosa se encuentra en la fibra de las plantas; de modo que podríamos usar, por ejemplo, lo que sobra de la cosecha del maíz en lugar del maíz mismo. Además, el biodiesel generado por este proceso tiene 85% menos emisiones que el diesel normal.

Al principio del artículo dije que la perfección no existe, pero bien podemos ver que este método se acerca bastante. Esperemos ver su evolución como tecnología y su llegada al consumidor. En los próximos años, veremos un incremento en los coches que usan diesel. Seguramente también serán híbridos.

Música Para tus Zumbidos

     A todos nos ha pasado después de ir a un antro, o a un concierto, o de escuchar una molestísima alarma o cualquier sonido con volumen alto por tiempo suficiente. En los oídos se nos queda un zumbidito re molesto, que normalmente se va en unas horas; pero ese sonidito (das kleine ton) puede quedarse. Si lo buscas, lo encuentras. La repetida exposición a ese tipo de agresiones para los oídos, provoca que el mentado zumbido se haga permanente. Tiene el nombre formal de tinnitus o acúfeno.

     De acuerdo a un estudio realizado en 2004 por el doctor J. J. Eggermont, entre 1 y 3%  de la población de sociedades industrializados, muestra un nivel de acúfenos suficiente para afectar su calidad de vida. Ante este problema, los doctores Pantev, Okamoto y sus colaboradores de la universidad Westfalian Wilhelms en Muenster, Alemania, decidieron echar ojo a las causas de este mal, las analizaron y propusieron un tratamiento para corregirlo.

     Encontraron que, no obstante se puede dar por varias causas, la gran mayoría de los casos se deben a una adaptación malograda en la reorganización de la corteza cerebral. Más inteligiblemente, lo que sucede es que la corteza cerebral está constantemente reorganizándose  de acuerdo a las “necesidades” que tenemos. En este caso, cuando escuchamos algún sonido muy intensamente, se reorganiza de tal manera que, las frecuencias que prácticamente no están presentes, de cualquier forma se escuchen. Al no estar ese ruido intenso presente más, la reconfiguración trabaja como micrófono para esa frecuencia y nos hace escucharla constantemente. Es casi una venganza.

     Pero los doctores Pantev y Okamoto encontraron un remedio para la situación. Partiendo de que esa frecuencia que el cerebro nos repite de más, es porque por algún tiempo lo estimulamos de más con ella, podríamos dejar de escucharla por otro tiempo, y la corteza cerebral se reconfigurará de tal forma que nos libraremos del sonidito. ¡Bingo! Lo que hicieron estos doctores fue filtrar esta frecuencia de música de la que el paciente es fan, y le pidieron que la escuchara a placer. Después de un año, prácticamente todos quedaron curados.

     Una simple y excelente solución, para el molesto mal. Ahora sólo falta que se ofrezca “filtrado” de música para cada paciente, pues las frecuencias son diferentes en cada uno. Quizás lo veremos en el hospital, quizás en e-bay, o cualquier página de internet.

Los Cánceres y sus Vecinos

      En la actualidad, el cáncer es uno de los males que más afectan a la humanidad. Las cifras son variables, y cambian cada año, pero de acuerdo a la dirección general adjunta de epidemiología, en el 2001, los diferentes tipos de cáncer fueron responsables del 13.1% del total de las muertes. En la actualidad se estima que la cifra ronda el 16 %. En Estados Unidos, se estima que el 13.1% de sus muertes son causadas por algún tipo de cáncer.

    Esta situación ha creado toda una industria alrededor del cáncer, y motivado a cientos de doctores y científicos a enfocar sus esfuerzos a combatirlo. Se tienen hospitales inmensos dedicados en su totalidad a librar esta batalla.

    Para entender un poco el combate al cáncer, tenemos que entender lo que es el mismo; una modificación al código genético de las células afectadas, lo que hace que se comporten de forma no apropiada derivando en ocasiones a simples tumores “benéficos” y otras en la sustitución de las células funcionales, deteriorando el correcto funcionamiento del tejido, el órgano y finalmente el organismo, causando la muerte. Ha habido muchísimas propuestas para “curar” el cáncer. Desde el lógico procedimiento de retirar a las células afectadas a punta de navajazos y confiando en el talento del cirujano, pasando por la radiación y la quimioterapia (procedimientos en donde no se distingue entre células buenas y malas, con los evidentes negativos efectos secundarios), hasta las técnicas más modernas (aún en fase experimental, pero un poco de moda en la comunidad científica), en las que se pretende diseñar una medicina para cada paciente, que detecte el código afectado, diferente en cada caso, y mate las células. Tristemente, debo mencionar que los resultados de estas técnicas no han sido los que se esperaban, y aunque sectores de la comunidad científica sigue pensando que es una buena vía, está muy lejos de solucionar el problema de los enfermos reales.

    En medio de este lío, el doctor Yasuyuki Fujita del University College de Londres, en su última publicación (J Cell Sc 123,171-180), , nos hace un sutil y elegante señalamiento. El cuerpo tiene un mecanismo natural  para eliminar células cancerosas. ¿Por qué no estudiarlo un poco más? El doctor Fujita y sus colaboradores modificaron algunas células de un cultivo de tejido de riñón canino con el gen canceroso Src. Observaron que las células afectadas fueron expulsadas del tejido, como lo suponían. Lo más trascendente de su investigación, es que pudieron identificar como responsables de dicho fenómeno a las proteínas myosin II  y FAK dentro de las células expulsadas. Además señaló que esta expulsión se dio en dirección opuesta a la requerida para tener metástasis (reproducción celular). Este fenómeno también lo observaron en células embrionarias de pez cebra.

     En la figura vemos en el lado izquierdo células enfermas, marcadas y expulsadas por células sanas, mientras en el derecho, las células marcadas están rodeadas de más células enfermas, y no son expulsadas. Al parecer, como con todos los venenos, el problema está en la dosis. ¿Podremos mantenerla siempre baja? Continúe sus estudios doctor Fujita.

¿Qué Pasa con las Abejas?

     Muy probablemente, por ahí ha usted escuchado, en una plática coloquial, que las abejas del mundo se están muriendo. Aunque increíble, es cierto. No están amaneciendo cientos de panales deshabitados de un día para otro. El proceso es más bien lento, se habla de que ahora hay un poco menos de la mitad de las abejas que había al final de la segunda guerra mundial; aunque en los otoños de 2006 y 2007, principalmente en Estados Unidos, se tuvo una disminución más representativa. Este paso lento nos permite estudiar el caso mejor y quizás incluso revertirlo.

     Un aspecto muy interesante de la situación, es que no se ha encontrado una causa  específica, a la que se pueda atribuir la desaparición de las abejas. Simplemente se encuentran panales sin abejas adultas, pero con comida y demás. A este fenómeno se le ha llamado “Desorden de Colapso de la Colonia”. Algo parecido a lo que se supone pasó en Teotihuacan.

     Pero los científicos, y la comunidad en general, no se han quedado sin hipótesis. Se ha culpado a las telecomunicaciones, a la cosecha de frutas y verduras transgénicas, al uso excesivo de pesticidas, la deforestación, a nuevas pandemias, al calentamiento global, y hasta a la falta de fe.

     Pero los estudios más aceptados, concluyen cada vez más contundentemente, que en la muerte de las abejas tiene que estar involucrado el ácaro Varroa destructor; que siempre está presente en todo el mundo, menos en Australia, donde las abejas no están muriendo. Sin embargo, el ácaro por si sólo no mata a las abejas. Sino más bien todo apunta a ser un virus que carga, el virus Kashmir. Aunque también se tiene evidencia de que el virus se puede transmitir entre abejas.

     Por otro lado, el ácaro y su virus no son los únicos que se han encontrado responsables de la muerte de colonias enteras. No siempre se encuentran en las colmenas muertas. Sabemos bastante bien que algunos pesticidas también matan a las abejas en menor medida, y evidentemente la deforestación afectará el ciclo natural de las abejas. En un artículo publicado esta semana en la revista Science se pide tiempo para continuar con los estudios y tener resultados más contundentes. A mi me parece que podemos dar tiempo, pero por lo pronto dejar de usar esos pesticidas y parar la deforestación.

Los Tres Grandes del 2009

     Para cerrar el año en Cienciando, voy a nombrar los tres descubrimientos del año que a mi parecer (y de la comunidad científica) fueron más relevantes.

     Comenzando por el tercer lugar: un grupo de investigadores de la NASA, enviaron a la Luna una nave de recolección de datos llamada LCROSS. En esta expedición, literalmente se bombardeó a la Luna para recavar muchos datos sobre la composición de la Luna y de su atmósfera. El resultado más importante: se confirmó la presencia de agua en estado líquido, sólido y gaseoso.

     En segundo lugar: Sheng Ding y sus colegas, del instituto de investigación Scripps de La Jolla, usaron escherichia coli para insertar ciertos genes a células cutáneas de ratón, para convertirlas en células que actúan como células madre. A la par de este logro, se debe mencionar a Robert Lanza Kwang-Soon Kim que lograron hacer la misma transformación, pero con células humanas.
   
     He de mencionar que en mi opinión, este es el descubrimiento que tendrá más impacto tanto en la comunidad científica, pues abre muchas líneas de investigación, como en la sociedad, pues las células madre pueden regenerar cualquier tipo de tejido y por lo tanto revolucionar la medicina. Dejo a la imaginación del lector los beneficios que esto puede traer.
   
     Finalmente, en primer lugar, Tim White de la Universidad de California en Barkley, junto con un gran grupo de colaboradores, reportaron detalles sobre el esqueleto de un homínido más antiguo del que se tenga registro, 4.4 millones de años. Pero la importancia de este homínido no es sólo su antigüedad, sino que sugiere que los humanos evolucionamos por una línea independiente a los chimpancés como se creía. A este homínido se le llamó Ardi y se le encontró en Etiopía. Ardi ya caminaba erguido a diferencia de los chimpancés.
   
     Desde un punto de vista meramente científico, la importancia de Ardi es inmensa, pues podríamos decir es el eslabón perdido del que hablaba Darwin. Aunque bien sabemos que para completar la cadena hace falta más de un eslabón. Por el otro lado, en nuestras vidas cotidianas, es poco el impacto que Ardi puede tener.

Vergüenza Climática (Climate Shame)

La cumbre de Copenhague ha resultado ser, por donde se le vea, un fracaso. Desde los primeros días, los organizadores no se dieron abasto para atender a la cantidad de gente a la que le habían permitido acceso. Se dieron cuenta de que la cantidad de observadores era enorme y que todos los que habían pedido permiso, de hecho habían asistido. Su solución fue revocar el permiso a una buena cantidad de ellos, lo cual evidentemente no sentó bien y causó protestas. Los observadores se unieron a los manifestantes que de por sí había afuera de la cumbre.

Pero el verdadero fracaso de la cumbre no fue por parte de los organizadores sino de los asistentes mismos. Los líderes del mundo vieron en la cumbre la oportunidad de hacer escuchar su voz, y resonar en todo el mundo. Así que gritaron lo que quisieron, y dejaron de lado la parte del cambio climático. Los medio tampoco ayudaron mucho; se atendieron a muy pocas las voces de expertos científicos. En otras palabras, en este encuentro “amistoso” entre la ciencia y la política, la política tuvo el dominio del balón 80% del tiempo y el marcador final fue, increíblemente, negativo para ambas partes.

El primer gran indicio de que sería difícil llegar a verdaderos acuerdos se dio cuando Yvo de Boer (primer oficial para el clima de la ONU) advirtió que el miércoles se habían detenido las negociaciones. El problema fue el enfrentamiento entre naciones ricas y pobres, hablando del derecho a contaminar y el dinero que debían las naciones ricas invertir en hacer la industria tercermundista más limpia. Europa salió con que “sería muy malo no llegar a acuerdos” pero no dio brazo a torcer. Sarkozy acusó a China de no monitorear sus emisiones; a lo que China respondió “estar dispuesta a cooperar, mientras no se intervenga su soberanía”. El problema es que dentro de esa soberanía consideran las emisiones. Chávez salió de la cumbre muy enojado pues no se le había dado a Venezuela el mismo papel que a los EEUU, y en sus mismas palabras “todos los países son iguales”. Evo Morales le hizo segunda y se quejó de la explotación que sus hermanos aimara y la madre tierra han recibido durante siglos de parte del hermano blanco. Cierto, pero la queja no lleva a ningún acuerdo.

Los mexicanos también tuvimos nuestra participación en esta serie de actos circenses. Marcelo presumió la ciclo-pista y la mejora en el transporte público. Habló también de varios planes a futuro y no puedo hablar mal de esto pues la ciudad ya era un caos ambiental, y por lo menos existe un plan. Pero lo que sí criticaré, es que no perdió oportunidad para decir que si sus resultados no eran tan buenos era por culpa del gobierno federal. La ropa sucia en público. También Calderón tuvo su participación, y al ver que no había acuerdos posibles, habló de los probables en la siguiente cumbre, que será en México, en Noviembre del 2010.

Para cerrar este circo a tres pistas digno de la feria del rábano, en la pista principal tuvimos al acto de payasos más grande. Obama, en su más puro estilo “que la mano izquierda no sepa lo que hace la derecha” salió a decir que: “no venía a hablar (mientras hablaba) sino a actuar (mientras no firmaba ni el acuerdo de Kioto, ni nada)”. Continuó proponiendo que se llegaran a acuerdos, sin importar lo “imperfectos” que fueran. Para rematar con toda elegancia, se reunió en privado con Wen Jiabao de China, tras una hora y sin acuerdos firmados, ambas partes calificaron la reunión de “constructiva”. ¡Los dos países que más contaminantes emiten, salen sin llegar a ningún acuerdo y califican a la reunión como “constructiva”! Me dejaron sin palabras.

Resumiendo, a los ilusos que creímos que los líderes del mundo se moverían para mejorar en conjunto el clima global, se nos dio un recordatorio al estilo Clinton: “es el dinero… estúpido” (lo que los mueve).

¿Copenhague?

 Desde el día 7 de diciembre y hasta el 18 del mismo se celebra en Copenhague la conferencia de las naciones unidas sobre el cambio climático. Expertos en el área y líderes poderosísimos del mundo discutiendo las principales causas y efectos del cambio climático.

Para la comunidad científica es, sin lugar a dudas, motivo de felicidad, pues “aiga sido como aiga sido”, el mundo entero está poniendo atención a uno de nuestros temas actuales. Sin embargo, y es aquí donde el “aiga sido como aiga sido” cobra importancia, negociar entra países siempre requiere consenso entre los líderes políticos. Involucrar a los gobiernos de los diferentes países, incluye también los intereses y las condiciones de los países y sus grupos de poder. Nada perverso detrás de esto, naturaleza humana como diría Fito Páez.

Sin embargo, sí hemos encontrado que ciertos grupos de poder han saltado de la naturaleza humana, y su afán de defender lo propio a movimientos más perversos. En noviembre de este año, un hacker se robó mails e información confidencial de la Universidad de East Anglia, en Inglaterra; 160 MB con más de mil correos electrónicos y tres mil documentos de varios científicos líderes en la investigación del cambio de temperatura. Phil Jones, director del centro de investigación dijo que los documentos parecían auténticos. En ellos, presuntamente se demuestra que “masajearon” los datos (borraron los que quisieron) para demostrar que la temperatura del mundo ha subido mucho más de lo que realmente ha sido.

El incidente, aunado a sospechas anteriores ha alimentado el grupo de los escépticos dentro de la comunidad científica. Es aquí donde se debe ser especialmente suspicaz, ¿Escéptico de qué? Ciertamente no se ha juntado información por tiempo suficiente, en localidades suficientes para aseverar que el calentamiento global ha sido causado por los seres humanos. Eso es cierto y por eso la temperatura global, no debía ser nuestra principal medición.

Pero ese es sólo un tema en el cambio climático, también tendríamos que hablar de partículas de CO2 y otros contaminantes de los que estamos seguros ser responsables (aunque ciertamente ha habido niveles más altos de CO2 en la Tierra). En lo personal, la deforestación me parece el tema más importante en el cambio climático, pues sabemos que no es fácil hacer que los terrenos vuelvan a ser como eran y estamos bien seguros de que los árboles los tiramos nosotros. Bien sabemos que los bosques y selvas mantienen la humedad distribuida más uniformemente, y evitan que se formen grandes cúmulos de agua en algunas partes y grandes sequías en otras. México ha sido un país especialmente afectado por ambas caras de la moneda, quizás haríamos bien en acabar con al tala inmoderada en nuestra sierra madre.

México tiene un lugar especial en las negociaciones de este año, se rumora que aceptará compromisos muy elevados para una economía emergente. Extrañamente, o no, en los compromisos anteriores sí hemos cumplido y con creces. Por otro lado seremos la sede de esta reunión el año entrante.

P.D. o al buen entendedor: Las proyecciones a futuro muestran que las regiones que serán más afectadas por el cambio climático, son México (desertificación) y Europa (gran enfriamiento).