La semana pasada, un seguidor de Twitter llamó mi atención sobre una noticia en un periódico online, cuyo titular era «La NASA construye la IXS Enterprise». El artículo haría las delicias de Malaprensa por la manifiesta falsedad del titular (la NASA no está construyendo nada, es un diseño teórico), y desataría la ira de los trekkies (en el texto se da a entender que el motor warp en la ficción es creación de las películas de J. J. Abrams, ignorando el casi medio siglo de historia de la saga creada por Gene Roddenberry), pero a lo que a nosotros nos interesa es la mala ciencia. Y ésta aparece en la siguiente frase: «A grandes rasgos, la velocidad warp es mucho más rápida que la velocidad a la que viaja la luz, y equivale a 299.34 kilómetros por segundo.»
¡Ay, ay! ¿299,34 km/s? Supongo que no es necesario recordar que la velocidad de la luz en el vacío es de aproximadamente 300.000 km/s, es decir, un valor tres órdenes de magnitud mayor, y bastante familiar o fácil de contrastar. La cifra exacta es de 299.792.458 m/s, por lo que no alcanzo a entender de dónde ha salido ese 299,34. No parece que se haya tratado de una errata al confundir el punto con la coma decimal.
Lo que sigue no se si se puede calificar como mala ciencia, os implemente como mala explicación. La verdad es que el texto no deja nada claro de qué se está hablando. Intentaré aclararlo un poco.
La problemática de viajar más rápido que la luz es algo a lo que se le lleva dando vueltas desde hace tiempo. Existe la posibilidad teórica de «hacer trampa» al universo, deformando el espacio tiempo a nuestro alrededor, de forma que se comprima delante nuestro y se expanda detrás. Nuestro vehículo estaría dentro de una burbuja warp, en la cual no se supera la velocidad de la luz en ningún momento, pero al haber disminuido la distancia a recorrer, el viaje nos llevaría mucho menos tiempo. A esto se le llama métrica de Alcubierre (por su creador, Miguel Alcubierre), y de momento es un modelo matemático. No está clara su aplicación real, ya que necesitaría cosas «raras» de las que aún no hay evidencia empírica, como materia exótica, o masas negativas.
En este contexto, el ingeniero y físico Harold G. White ha mejorado este concepto, y ha llegado a diseñar y realizar un experimento real, para ver si es posible crear una burbuja warp, aunque a muy pequeña escala: el interferómetro de campo warp de White–Juday. De momento, los resultados han sido inconcluyentes.
Como sabéis, se lleva hablando desde hace tiempo de que los mayas creían que mañana era el fin del mundo. Normalmente no hablo de estas tonterías, ya que no es un problema de mala ciencia, sino de simple sentido común. Pero cuando la cosa va más allá de chistes en la red, campañas publicitarias, y uno ve en las noticias que un multimillonario se ha fabricado un bunker para sobrevivir mañana, entonces empiezo a preocuparme y a perder la esperanza en el género humano.
Veamos. Vamos a pensar un poco. Resulta que unos dicen que hay una profecía maya según la cual el mundo se acaba mañana, 21 de diciembre de 2012. Bien, ¿y? ¿Cómo lo sabían los mayas? ¿Ciencia infusa? ¿Revelación de los dioses? ¿Por qué deberíamos creer con los ojos cerrados en esa profecía?
Pero si leemos un poco, resulta que no, que no existe tal profecía. Lo que pasa es que el calendario maya se termina hoy. Y claro, como no hay más días en su calendario, pues es que el mundo se termina. Eran tan listos que lo sabían, y no malgastaron tiempo en hacer un calendario para después. No importa que muchos otros calendarios (ćomo el gregoriano o el chino) sigan contando los días después de hoy.
¡Ah, no! Esperad, que eso tampoco es cierto. El calendario maya no se termina hoy. Lo que termina es el decimotercero baktún. ¿El qué? Veréis, al igual que en nuestro calendario gregoriano hay varios periodos cíclicos (el día, la semana, el mes, el año, el siglo), el calendario maya (que en realidad eran tres cuentas de tiempo diferentes) también los tiene. El más largo de ellos es el baktún, que consiste en 144.000 días, esto es, unos 394 años aproximadamente. El primer baktún comenzó allá por el 3.114 a.C. y actualmente nos encontramos en el 13º, que comenzó el 18 de septiembre de 1.618. Mañana comenzará el 14º baktún. Y ya. No habrá más consecuencias, igual que no pasa nada cada fin de año de nuestro calendario (salvo muchas juergas y borracheras), ni cada fin de siglo. De hecho, puesto que estamos en el 13º baktún, ya ha habido 12 fines de baktún antes, y no ha pasado nada. El calendario de la pared de mi cocina termina el 31 de diciembre de 2012, pero tengo planes igualmente para el día siguiente.
En fin, perdonadme por comentar sobre algo tan absurdo, pero lo del multimillonario pudo conmigo (espero que haya sido un bulo, error, o maniobra publicitaria).
«¡Pues claro que no!» estaréis pensando tras leer el título. ¿Es que alguien ha dicho lo contrario? Pues resulta que sí. Gracias a un correo de Samuel Cañadas, profesor de biología y blogger de Corbeta Dorada, me entero de que en la web del Colegio Bristol (sí, sí, un colegio), hay una reseña sobre la visita al Zoo Aquarium de Madrid por parte de los alumnos, y el primer párrafo es el siguiente:
¿Os imagináis poder dormir entre tiburones? Pues bien, los alumnos del Colegio Bristol y Afuera tuvieron la oportunidad de disfrutar de una noche difícil de olvidar rodeados de estos aterradores mamiferos marinos en el Zoo Aquarium de Madrid.
Sí, sí. Tal y como leeis: «Mamíferos marinos». Afortunadamente, esta patada ya ha sido corregida, pero a continuación podéis ver una captura de la página sin corregir (pinchad para ver la imagen entera)
Como recordaréis, en el colegio nos enseñaron una clasificación bastante sencilla de los animales vertebrados: mamíferos, aves, reptiles, anfibios y peces (si bien muchos biólogos nos dirían que es una clasificación inexacta y simplista, nos vale para este caso). Los mamíferos (entre los que nos encontramos nosotros), tienen como principal característica la presencia de glandulas mamarias en las hembras, que producen leche con la que alimentar a sus crías. Otras características de los mamíferos (aunque no exclusivas de ellos) son la homeotermia (lo que vulgarmente se conoce como «ser de sangre caliente») o la respiración de aire mediante los pulmones. El tiburón, por el contrario, es un pez, cuya característica principal es que obtienen oxígeno del agua mediante las branquias. Otra característica importante es la ectotermia (lo que vulgarmente se conoce como «ser de sangre fría»). Y por supuesto, lo más importante: no tienen mamas.
Es curioso, porque lo que ocurre a veces es justo lo contrario: pensar que algunos mamíferos acuáticos (como la ballena o el delfín) son peces. Pero llamar mamífero a un tiburón es algo que nunca había visto.
Por diversas cuestiones de índole personal, tenía el blog un poco aparcado. Pero una noticia reciente me ha hecho volver. No podía ser de otra manera. Según me entero por Mapaprensa, y por un mail de uno de vosotros, en un evento electoral en Armenia, unos globos de helio explotan en llamaradas, provocando 140 heridos. Pero hay un pequeño problema con esta noticia. El helio no es inflamable.
En nuestra infancia, el profesor de química nos enseñó que entre los muchos elementos químicos que existen, hay un grupo al que se denomina «gases nobles». Corresponden al grupo 18 de la tabla periódica (VIIIB si sois de mi quinta), esto es, la columna de más a la derecha. Estos elementos tienen una característica común muy interesante: son inertes, esto es, su reactividad es muy baja, o dicho de forma mucho más sencilla, es difícil que formen parte de una reacción química. Eso quiere decir que no pueden formar parte de una combustión, por ejemplo.
El motivo de su baja reactividad también nos lo explicaron en el cole. Los átomos están formados por un núcleo y varias capas de electrones. Sólo la última capa de electrones es relevante en los enlaces químicos, y por tanto, afecta a la reactividad del elemento. Es la llamada capa de valencia. La distribución de las capas de electrones puede ser algo complejo, pero en el colegio nos lo simplificaban de la siguiente forma: para que la capa de valencia esté completa se necesitan 8 electrones, excepto en el caso de sea la única capa (hidrógeno y helio) que se completa con 2. Esta simplificación es suficiente para entender el siguiente paso: un átomo tiene a combinarse con otro para completar su capa.
Veamos un ejemplo (que también se enseña en el colegio). El hidrógeno tiene sólo un electrón, y necesita otro para que su capa de valencia tenga dos. El oxígeno, por otro lado, tiene 6 electrones en su capa de valencia, y necesita 2 para completarla. Por tanto, un átomo de el oxígeno reaccionará fácilmente con dos de hidrógeno, formando una molécula, para compartir electrones de la capa de valencia. El átomo de oxígeno comparte un electrón con cada átomo de hidrógeno, y estos a su vez comparten su único electrón con el oxígeno. Así, con 4 electrones compartidos en total, la capa de valencia del átomo de oxígeno tiene 8 electrones, y la de cada átomo de hidrógeno tiene 2, formando un compuesto estable por todos conocido: H2O (agua).
Pero resulta que los gases nobles ya tienen su capa de valencia completa. El helio tiene 2 electrones (sólo tiene una capa), y el resto tienen 8 electrones en dicha capa. No «necesitan» combinarse con nadie (los nobles no se mezclan con la plebe). Es por ello que son inertes (aunque si «forzamos» las condiciones, podrían reaccionar y formar un compuesto; pero no es el caso). Además, el helio concretamente, es de los más inertes de su selecto grupo. El helio no es inflamable. No arde. Es químicamente imposible.
¿Y esas llamaradas que se ven en el vídeo? Bueno, pues es evidente que los globos no estaban hinchados con helio. Para que un globo flote, y no caiga por su propio peso, debe estar inflado con un gas menos denso que el aire, de forma que el globo y el gas de su interior, pese menos que el mismo volumen de aire. Hay dos gases que cumplen con este requisito: el helio y el hidrógeno. El helio, al ser inerte, es una elección perfecta, ya que es seguro utilizarlo. Sólo tiene un pequeño inconveniente: es caro. El hidrógeno es más barato, pero tiene un inconveniente aún mayor: es altamente inflamable, lo que lo convierte en una elección peligrosa. De hecho, el trágico accidente del Hindenburg, del que se cumplió su 75º aniversario el pasado domingo 6 de mayo, fue causado en parte por el hidrógeno de su interior. Irónicamente, el diseño inicial contemplaba el uso de helio, pero lo alemanes no podían disponer de él a causa un embargo.
Si las llamaradas del accidente en Armenia fueron causadas por los globos, entonces éstos no estaban rellenos de helio. Parece razonable suponer que se usó hidrógeno en su lugar, lo que explicaría las llamas, y daría una mejor noticia a un buen periodista que quisiera aprovecharla.
¿Os acordáis de los famosos neutrinos de hace unos meses, que parecían viajar más rápido que la luz? Bueno, parece que se han descubierto dos posibles causas que podrían haber alterado el resultado final, aunque aún necesitan confirmarlo. Sin embargo, eso no impide a los medios de comunicación hacer afirmaciones categóricas, básicamente diciendo que todo fue un error por culpa de un cable suelto. Gracias a un tweet de Shora (a la que algunos conoceréis por el blog Med Tempus) he llegado a una entrada de Amazings donde reproducen la versión del ¿informativo? de Antena 3. Vedlo, por favor:
¿Por dónde empezar? Imagino que por el principio. Nada más comenzar, al referirse al neutrino, se dice literalmente:
Lo bautizaron como la partícula de Dios y afirmaron que podía viajar más rápido que la luz.
Bueno, esto es lo que se conoce normalmente como «oír campanas y no saber dónde» o también «mezclar churras con merinas».
Veamos, el apelativo «partícula de Dios» nunca se ha aplicado al neutrino, sino al también famoso (por otro motivo) bosón de Higgs. Estas dos partículas no tienen nada que ver, salvo el hecho de ser partículas elementales. Para empezar, el neutrino es una partícula bien conocida y observada desde hace décadas, mientras que el bosón de Higgs aún no se ha observado (de momento, su existencia es una hipótesis). El neutrino tiene una masa pequeñísima, incluso en el contexto del mundo subatómico. De hecho, durante un tiempo se creyó que no tenía masa, como el fotón. Por el contrario, la masa estimada del bosón de Higgs es enorme, mayor que la de un átomo de hierro. Además, el neutrino es un fermión, es decir, una partícula que forma parte de la materia (como el electrón), mientras que el bosón de Higgs, como su nombre indica, es un bosón, es decir, una partícula mediadora de interacciones (como el fotón). En caso de existir, el bosón de Higgs sería el responsable de la existencia de la masa (concretamente, la masa inercial, es decir, la cualidad de la materia de oponer resistencia a las variaciones de movimiento).
Seguimos. Un poco más adelante se oye la siguiente perla:
Lo dijo Albert Einstein hace 107 años: Nada puede viajar más rápido que la luz, ya que hacerlo significaría ir hacia el pasado, y así lo dejó plasmado en su teoría de la relatividad.
Bueno, el motivo de que nada con masa real mayor que cero (no olvidemos este importante matiz) pueda superar la velocidad de la luz, no tiene nada que ver con viajes en el tiempo. Resulta que al aumentar la velocidad de un cuerpo, su masa parece aumentar también (nuevamente, hay cosas que matizar). Esto implica que para obtener la misma aceleración, necesitamos ejercer una fuerza mayor, y por tanto, necesitamos aportar más energía que antes. A velocidades cercanas a la de la luz, un pequeño incremento de velocidad, necesita una enorme aportación de energía. Si quisiéramos acelerar un objeto hasta alcanzar la velocidad de la luz, necesitaríamos una cantidad infinita de energía.
Lo del tiempo sin duda viene por la famosa dilatación temporal. Para un objeto en movimiento, el tiempo transcurre más despacio que para uno en reposo (aunque nuevamente habría que matizar un poco las cosas). Cuanto mayor es la velocidad, más lentamente transcurre el tiempo, llegando a detenerse al alcanzar la velocidad de la luz. Extrapolando, uno puede llegar a la conclusión de que si viajara más rápido que la luz (que no es posible), el tiempo transcurriría hacia atrás. Lo cierto es que en las ecuaciones de la relatividad especial, si calculamos dicho tiempo nos sale la raíz cuadrada de un número negativo. No es exactamente lo mismo, y de hecho, nadie puede estar seguro ni siquiera de si tiene sentido físico un tiempo imaginario.
Otro detalle destacable, aunque tal algunos consideren que es hilar demassiado fino, es el mostrar un par de veces en el vídeo, la conocidísima fórmula E=mc2. Sí, es la fórmula más conocida de Einstein, y sí, forma parte de la relatividad especial. Pero esa fórmula lo que muestra es la equivalencia entre masa y energía. Masa y energía son aspectos diferentes de una misma cosa, de forma que la masa puede transformarse en energía y viceversa. No es algo que tenga mucho que ver con el que la velocidad de la luz sea un límite insuperable.
Lo que sigue podría considerarse más mala prensa que mala ciencia, pero con permiso de Josu, comentaré varios errores más. Antes de continuar, hay que tener claras algunas cosas del experimento de los neutrinos. El experimento recibe el nombre de OPERA (Oscillation Project with Emulsion-Racking Apparatus), y es una colaboración entre el CERN (en Suiza) y el LNGS (Laboratori Nazionali del Gran Sasso, en Italia). El experimento consiste básicamente en que el CERN produce un haz de neutrinos que dirige hacia el LNGS, donde es analizado. Para ello, el CERN utiliza el SPS (Super Proton Synchrotron), que es uno de los aceleradores de partículas que tiene el CERN. El fin del experimento no es saber si los neutrinos violan la relatividad, sino estudiar la oscilación de neutrinos, que es un fenómeno mediante el cual los neutrinos cambian. Hay tres tipos de neutrinos, electrónico, muónico y tauónico, y cualquiera de ellos puede transformarse de un tipo a otro, de forma espontánea (es algo que comenté hace tiempo, por otro motivo). Es decir, y para que quede claro, el LHC (el famoso acelerador del CERN que, según algunos, iba a destruir el mundo) no tiene nada que ver con el experimento de los neutrinos.
Una vez aclarado esto, sigamos. Se menciona en dos ocasiones la «euforia» de los científicos con el descubrimiento, e incluso se muestra un vídeo con unos señores aplaudiendo felices. Bien, esto es una falsedad. No hubo tal euforia, y eso es algo muy sencillo de comprobar, revisando las noticias publicadas en su momento. Se habla de sopresa, de descubrimiento inesperado, de escepticismo y necesidad de revisión, e incluso algunos medios se atreven a mencionar que es un hallazgo «incómodo» (de hecho, este último detalle lo comenté en su día). El vídeo de los científicos aplaudiendo no corresponde en absoluto al OPERA (el experimento de los neutrinos, recordad), sino al llamado LHC First Beam, esto es, la primera vez que un haz de partículas circuló por el LHC, el 10 de septiembre de 2008. De hecho, si os fijáis bien, cuando la cámara muestra unas pantallas antes de los aplausos, se puede ver parcialmente el cartel con la leyenda «LHC first beam». Es decir, el video no corresponde en absoluto con lo que se está contando.
Se menciona también que debido al descubimiento, «empezó a hablarse de dar respuesta a los enigmas del universo», y nos ponen el fragmento de unas declaraciones de un hombre que habla en inglés. La traducción que oímos es la siguiente: «En 2012 podremos responder a la definitiva pregunta de Shakespeare sobre ser o no ser». Bien, este caballero es Rolf-Dieter Heuer, director general del CERN, y de lo que está hablando en realidad es del bosón de Higgs, a raiz de un experimento que proporcionaba indicios de su existencia, allá por diciembre de 2011. Esta partícula sí que tiene que ver con «los enigmas del universo», aunque esa forma de expresarse me parece demasiado «mística». Prefiero decir que saber si existe o no de esta partícula nos ayudará a comprender mejor el universo. Pero recordad, estamos hablando del bosón de Higgs. Nada que ver con los neutrinos. Otra vez, se mezclan churras con merinas.
Pero es que, además, la declaración de Heuer está fragmentada y fuera de contexto. Si veis el vídeo original en la web del canal de noticias KRQE, podréis escuchar lo que dice en realidad:
There are some intriguing fluctuations. However, we still need that data of the year 2012 to make a definite answer on the Shakespeare's question of the Higgs boson: To be or not to be.
Hay algunas fluctuaciones interesantes. Sin embargo, todavía necesitamos esos datos del año 2012 para dar una respuesta definitiva a la pregunta de Shakespeare sobre el bosón de Higgs: Ser o no ser.
La cosa cambia mucho ¿verdad?
Seguimos. La noticia abre con las siguientes frases:
Un cable suelto da al traste con el experimento que cuestionaba la teoría de la relatividad de Einstein. El descubrimiento de los científicos que avanzaron que los neutrinos eran más rápidos que la luz, pudo ser consecuencia de una chapuza.
Un poco más adelante, continua con algo parecido.
Los científicos han pasado de euforia a una sonora decepción. Han reconocido que todo fue un error de cálculo. La culpa fue de un cable suelto.
Y cerca del final, escuchamos lo siguiente:
Pues va a ser que no. En este comunicado el Centro de Investigación Nuclear CERN de Ginebra ha reconocido hoy que todo fue un error debido a una mala conexión de un cable de fibra óptica, que ha hecho inútiles todos sus experimentos.
Aparte del hecho de que el tono general es de burla, se está proporcionando información falsa. Si vais a la web del CERN, no encontraréis tal declaración. Ni siquiera si buscáis en la sección de notas de prensa. Eso es porque el CERN no ha dicho nada semejante. El comunicado hay que buscarlo en la web del OPERA, y en ningún momento asegura que hubo un error debido a un cable suelto o a una mala conexión (que son cosas diferentes, por cierto). Lo que dice el comunicado es que han encontrado dos problemas que podrían haber afectado al resultado, y que uno de ellos está relacionado con una conexión de fibra óptica. Fijaos en el condicional, y fijaos en la expresión «está relacionado con una conexión». Todavía no saben realmente qué ha ocurrido, y si el resultado es fiable o no. Aunque todo parece apuntar a algún error, en realidad aún no están seguros (bueno, el personal del OPERA no; parece que el redactor de Antena 3 sí que lo tiene muy claro). Por cierto que en caso de descubrirse el error, eso no invalidaría en absoluto todos los experimentos del CERN o del OPERA. Sólo la medición de la velocidad de los neutrinos.
Finalmente, la frase que cierra el vídeo es igualmente falsa y tendenciosa:
Al final 27 km de túneles, una construcción de 1.700 millones de € y 1.500 millones anuales de presupuesto para 2.000 científicos de 24 países, no han podido superar esto, el cerebro de un genio: Albert Einstein.
Bien, las cifras que exponen (al igual que las imágenes que acompañan) son del LHC. Nuevamente meten a este acelerador en algo que no tiene nada que ver. Para el OPERA se usa, como ya he dicho, el SPS (bastante más pequeño), por lo que el coste del LHC es irrelevante (por cierto, que el dato sobre el presupuesto anual, parecido al coste de construcción, me chirría un poco ¿alguien puede aportar algo luz sobre el asunto?). Además, como ya he dicho, la misión del OPERA no es comprobar si Einstein se había equivocado o no, sino estudiar un fenómeno diferente.
Por otro lado, expresiones como el «cerebro de un genio», dan a entender una idea equivocada sobre cómo se desarrolló la relatividad. Einstein, sin duda era una persona extremadamente inteligente, pero no se levantó un día y se le ocurrió la relatividad, así sin más. A Einstein se le puede aplicar la frase atribuida a Newton «Si he logrado ver más lejos, ha sido porque he subido a hombros de gigantes». Los gigantes sobre los que se apoyó Einstein fueron entre otros James Maxwell, en cuyas famosas ecuaciones aparece la velocidad de la luz en el vacío como una constante, Abraham Michelson y Edward Morley, cuyo experimento aportó la evidencia empírica de que la velocidad de la luz es la misma para cualquier observador, y Hendrik Lorentz, cuya transformada matemática nos dice cómo varía el espacio, el tiempo y la masa (relativista) con la velocidad. Con esto no quiero quitarle mérito a Einstein. No creo que nadie pueda dudar de que era un genio. Pero no conviene perder de vista que sin el trabajo anterior de estos otros científicos, no hubiera podido desarrollar la relatividad (ni siquiera se le habría ocurrido hacerlo), y que si no hubiera sido Einstein, tarde o temprano, la habría desarrollado algún otro científico brillante. La ciencia avanza así: ladrillo sobre ladrillo.
Pero lo peor de la frase es el mensaje que transmite: «mirad todo el dinero que se han gastado estos, y no han sido más listos que un sólo hombre». Tal vez yo sea muy retorcido o pesimista, pero esa es la impresión que me ha dado. Y me parece un insulto a los científicos que trabajan en el OPERA (o a los del LHC, ya que la noticia confunde constantemente ambas cosas).
Os imagino a todos enterados de las noticias sobre el experimento que ha detectado neutrinos moviéndose a una velocidad superior a la de la luz. Es uno de esos casos raros en los que una noticia de ciencia acapara bastante atención. Y como suele ocurrir, los medios cometen varios errores al respecto. Hay excepciones, naturalmente, y algunas en algún periódico generalista, lo que no está nada mal. Pero la tónica general ha sido la difusión de información errónea, que se puede resumir en los que voy a mencionar a continuación.
El error más grave (afortunadamente, no es el más extendido), se puede resumir más o menos así: «se han descubierto una nueva partícula, el neutrino, que viaja más rápido que la luz». Y va a ser que no. El neutrino no es una partícula nueva, desconocida hasta ese momento. Si hasta se menciona en una pelí de catástrofes y todo (de forma aberrante, pero esa es otra historia). Esta partícula se observó por primera vez en 1956, aunque fue postulado con anterioridad, en 1930. Es decir, los científicos llevan varias décadas conociendo al neutrino.
Además, como imaginaréis, el viajar más rápido que la luz no es una propiedad intrínseca del neutrino, como parece darse a entender. De hecho, todos los neutrinos observados hasta ahora, se desplazaban más lentamente que la luz. La noticia consiste precisamente en que se han observado unos neutrinos que se han desplazado más rápido.
Un segundo error es el que se suele mostrar de forma sensacionalista, con titulares estilo «Einstein se equivocó», o «La Relatividad se derrumba». En casi todos los medios, se menciona que la Teoría de la Relatividad nos dice que nada puede desplazarse más rápido que la luz, y eso no es del todo exacto. La Relatividad nos dice que la velocidad de la luz en el vacío es una constante absoluta, independiente del observador. Es decir, no importa si estoy parado, o viajo en una nave espacial al 99% de la velocidad de la luz. Si mido la velocidad de propagación de la luz o de una onda de radio, voy a obtener el mismo valor en ambos escenarios. Esto trae como consecuencia unas transformaciones a aplicar cuando pasamos de un sistema de referencia a otro. Así, tenemos los conocidos efectos de la dilatación del tiempo, la contracción del espacio, el aumento de la masa (esto no es del todo exacto, pero dejémoslo así) y la relatividad de la simultaneidad.
Lo que nos impide alcanzar la velocidad de la luz es lo siguente: Para aumentar la velocidad de un objeto cualquiera, hay que ejercer una fuerza. La aceleración que recibe el objeto es el cociente de la fuerza entre la masa. Por tanto, cuanto más masa tenga un objeto, menos aceleración obtienes con una misma fuerza. O al reves, más fuerza necesitas para una aceleración determinada. Según la relatividad, la masa aumenta con la velocidad (insisto que no es del todo exacto, pero a efectos prácticos, es como si así ocurriera), por lo que la fuerza debe ser cada vez mayor si queremos mantener la aceleración. Este crecimiento se hace de forma que a velocidades pequeñas (y comparado con la luz, hasta una velocidad orbital es pequeña), este efecto apenas se nota. Pero a velocidades cercanas a la de la luz, la diferencia es cada vez mayor, de forma que con una fuerza enorme, sólo obtenemos una minúscula aceleración. Matemáticamente, la masa sería infinita a la velocidad de la luz, por lo que nunca podríamos alcanzarla.
¿Quiere decir esto que nada puede viajar a la velocidad de la luz? No, y de hecho, los fotones lo hacen, obviamente. Lo que nos dice la Relatividado es que no podemos acelerar un objeto con masa, hasta la velocidad de la luz. Los fotones no tienen masa, y pueden viajar a dicha velocidad. Es más, no podrían viajar a otra velocidad en el vacío. No podemos frenarlos y acelerarlos. Entonces ¿pueden existir objetos que viajen más rápido que la luz? Pues si en las ecuaciones utilizamos como masa un número imaginario, es decir, una raiz cuadrada de un número negativo, resulta que sí. Es más, en este caso, lo que no podríamos hacer es frenar el objeto hasta alcanzar la velocidad de la luz. Siempre tendría que ir más deprisa. Si una partícula, en el momento de su creación, viajara más rápido que la luz, no habría problemas. Estas hipotéticas partículas incluso tienen un nombre: taquiones
¿Tiene sentido físico una masa imaginaria? Pues no lo sé. Pero lo importante es que la Relatividad no impide que un objeto pueda viajar más rápido que la luz. Lo que establece es una especie de barrera infranqueable entre tres mundos: el de los taquiones, el de los fotones, y el del resto de partículas. Así que no se puede decir que la Relatividad se haya derrumbado, o demostrado errónea, o cosas similares, ya que el fenómeno observado, no parece contradecir la misma.
Hay otro punto que quiero considerar, aunque tal vez alguno piense que es demasiado sutil, y no lo considere un error. Hay titulares que expresan el descubrimiento como un ataque a la física, algo peligroso o transgresor, y cosas así. Vamos, como si el hacer un descubrimiento nuevo fuera un problema. Y no es así en absoluto. El que un experimento contradiga una teoría física, no debe ser motivo de preocupación, sino de excitación. Contrariamente a lo que piensan algunos, la ciencia no es un conjunto de dogmas de fe, que si contradices te arriesgas a ser quemado en la hoguera. Es justo lo contrario. Con cada nuevo descubrimiento, la ciencia avanza. Si se descubre que una teoría no es correcta, se investiga y se amplía. Cada error descubierto es un pequeño paso adelante.
Pero eso sí: cuando aparece un experimento que contradice una teoría bien establecida (y ya hemos visto que no es necesariamente el caso), hay que estar muy seguros, verificarlo, repetirlo varias veces, y confirmar los hechos. Y eso es lo que se está haciendo ahora. Sólo cuando se tenga la certeza de que la velocidad obtenida es correcta, y cuando se haya repetido el experimento varias veces, podremos gritar de alegría por haber detectado los primeros taquiones (o por tener la primera prueba experimental de la existencia de más de 4 dimensiones, como plantean algunos). El tiempo lo dirá.
Este fin de semana se produjo un fenómeno astronómico denominado «superluna», en el que nuestro satélite se podía ver un poquito más grande y luminoso que en otras ocasiones. En muchos medios de comunicación se decía que era debido a que la Luna estaba más cerca de nuestro planeta, y que hacía 18 años que no se acercaba tanto.
Sin embargo, esto no es así. Al igual que cualquier otro cuerpo en órbita, la Luna describe una trayectoria elíptica en torno a la Tierra, estando nuestro planeta en uno de los focos de dicha elipse. Por ello, a medida que la Luna se desplaza la distancia que nos separa va variando, alcanzando un máximo llamado apogeo, y un mínimo llamado perigeo. Es bastante obvio que con cada «vuelta» completa, la Luna pasa por el apogeo y el perigeo una vez. Por tanto, la luna no ha sufrido su máxima aproximación desde hace 18 años, sino más bien, desde hace aproximadamente unos 28 días (el periodo de traslación de nuestro satélite).
Entonces ¿por qué tanto bombo? Pues porque lo que sí que hace 18 años que no ocurría, es que el perigeo coincidiera con la luna llena. Es decir, no es que la luna no hubiera estado tan cerca desde hace 18 años, sino que la luna no ha estado tan cerca desde hace 18 años estando en la fase llena. Como veis, es un error muy similar al de 2005, cuando la luna llena coincidió con el solsticio de verano.
Los más avispados os preguntaréis ahora, «si hay una luna llena y un perigeo con cada vuelta, ¿por qué a veces coincide y a veces no?». Bueno, el tiempo que transcurre entre dos perigeos es de 27 días, 13 horas, 18 minutos y 33,2 segundos, y se denomina mes anomalístico. Sin embargo, el tiempo que transcurre entre dos lunas llenas es de 29 días, 12 horas 44 minutos y 2,9 segundos, y se denomina mes sinódico. El motivo de la diferencia entre ambos es evidente si pensáis que el mes sinódico toma como referencia la posición relativa de la Luna, la Tierra y el Sol. Como sabéis, la luna está llena cuando está justo en el «lado contrario» al Sol, con respecto a nosotros. Imaginemos que partimos del instante de luna llena. Una vez la Luna ha completado una órbita completa alrededor de nuestro planeta, como a su vez nosotros nos hemos movido un poco alrededor del Sol, la Luna ya no se va a encontrar en la misma posición con respecto a éste último. Tendrá que desplazarse un poco más (y por tanto, transcurrir más tiempo), hasta que vuelva a estar llena. Los habituales de este blog os sonará de algo esta explicación, ya que el movimiento de la Tierra alrededor del Sol es también el motivo de la diferencia entre el día solar y el día sidéreo, como expliqué en dos ocasiones, hace bastante tiempo.
Como curiosidad, cabe destacar que al igual que ocurre con la órbita terrestre (y con la de todos los planetas), la órbita lunar sufre una precesión, de forma que la elipse que hemos descrito va rotando poco a poco alrededor de la Tierra. Eso quiere decir que si en vez de tomar como referencia el perigeo (o el apogeo), utilizamos las estrellas, el tiempo que tarda la Luna en describir una órbita completa es de 27 días, 7 horas, 43 minutos y 11,5 segundos, y se denomina mes sidéreo o sideral. Como veis, el mes anomalístico y el mes sidéreo son algo diferentes.
Con lo ocurrido en Japón y lo que se cuenta en los medios, es casi inevitable el dedicar un post al tema. Corto, ya que diversas circunstancias no me permiten dedicar todo el tiempo que quisiera, pero creo que suficiente para resaltar los dos mayores errores que he visto.
El primero ya lo comenté cuando el terremoto de Chile, pero no está de más repetirlo. Venga, digamos todos juntos: «La escala de Richter ya no se usa». Como ya comenté, ha sido sustituida por la escala sismológica de magnitud de momento (Mw). Uno de los motivos del cambio es que la escala de Richter no permite diferenciar correctamente terremotos de intensidad superior a 8,5. Como he leído en el callejón del ángel (vía Malaprensa), «es como si la escala fuese "...7, 8, 9, un huevo"». Y precisamente la magnitud del terremoto de Japón ha sido de 9. Por otro lado, la magnitud (al menos en la escala Mw) es un número adimensional que se expresa sin unidades (metedura de pata también mía, en el post sobre el tema; lo corregiré cuando pueda). Es decir, se dice «magnitud 9», y ya.
El segundo, más que error es una desinformación o desconocimiento generalizado de lo relacionado con las plantas nucleares. Se ha llegado a utilizar el calificativo de apocalíptico, y parece que hay un riesgo de una detonación nuclear o algo así. Bueno, es imposible una detonación nuclear. Hace tiempo dediqué un post a cómo funciona una cabeza nuclear, y recordaréis que es necesario juntar o comprimir una cantidad determinada de material fisionable, hasta alcanzar la masa crítica. Como imaginaréis, las cantidades que se utilizan en un reactor nuclear están por debajo de dicha masa.
El peor escenario en un accidente nuclear es la fusión del núcleo. Y puede que la terminología sea parte del problema, ya que por «fusión» no nos referimos a una fusión nuclear (como la que se produce en el interior de las estrellas), sino a la que nos enseñan en el colegio: el cambio de estado de sólido a líquido, como cuando el hielo se derrite. Sin entrar en demasiados detalles, la peligrosidad de una fusión del nucleo es evidente si pensamos que es más difícil contener un líquido (que además, estará por encima de unos 3.000 ºC, ya que es su punto de fusión) que un sólido.
Como mis conocimientos sobre los detalles de una central nuclear son bastante limitados (aunque me da para entender que no puede haber una detonación nuclear), os remito al artículo «Why I am not worried about Japan’s nuclear reactors», del Dr Josef Oehmen, ingeniero y científico del MIT. En realidad se trata de una versión editada por el Departamento de Ciencia e Ingeniería Nuclear (NSE) del propio MIT (que ha abierto una web dedicada a explicar lo que ocurre en Fukushima), ya que el mismo Oehmen reconoce que no es ingeniero nuclear, y animaba a los lectores a que le corrijan, en su post original. Si el inglés no es lo vuestro, podéis leer una traducción del artículo original en el blog Física de Película, o una traducción de la versión más actualizada en Fullmy's Weblog. No voy a decir que las cosas sean de color de rosa, pero se está exagerando mucho en los medios (ya sabéis cómo les gusta).
Para terminar, como se está comparando mucho con lo ocurrido en Chernobyl, os dejo un par de enlaces a Curioso pero Inutil e Historias de la Ciencia, donde en su día se explicó cómo sucedió el accidente y por qué.
Hace varios días fue noticia la constelación de Ofiuco , debido a unas declaraciones del astrónomo Parke Kunkle, del Planetario de Minesota sobre la astrología, y en los medios se podían leer y escuchar cosas como que se había descubierto una nueva constelación, que el horóscopo había cambiado, y cosas así. Pero como ya expliqué en una ocasión, las constelaciones no se descubren, pues son divisiones artificiales de la esfera celeste.
Entre 1928 y 1930 la UAI definió las 88 constelaciones, que consisten en 88 áreas disjuntas que cubren toda la esfera celeste. Toda estrella se encuentra en una y sólo una constelación. Descubrir una constelación nueva es algo que tiene tan poco sentido como descubrir un mes nuevo.
En realidad, todo el culebrón de Ofiuco es simplemente un argumento para demostrar que la astrología carece de base, que ya se empleó hace más de una década, allá por 1995. Uno de los muchos que podrían usarse. Pero para entender bien toda la historia, hay que tener claras algunas nociones de astronomía.
Todos sabéis que la Tierra gira sobre sí misma, y a la vez, se mueve alrededor del Sol. Es fácil ver que a medida que transcurre el año, la cara no iluminada de nuestro planeta, va apuntando en direcciones distintas. Uno puede pensar que, pasados 6 meses, la cara oscura está apuntando justo en dirección contraria, y pasado un año, vuelve a apuntar en la dirección inicial. Así, a lo largo del año, podemos ver un cielo estrellado ligeramente distinto cada noche. Ahora, por ejemplo, la constelación de Orión es visible en el cielo, pero en verano no la podremos ver, pues la luz del cielo diurno nos impide ver las estrellas de día.
El hecho de que no podamos ver las estrellas de día, no significa que no estén ahí. Simplemente, la luz del cielo es mucho más intensa que la de las estrellas. Esta obviedad es algo que las civilizaciones antiguas (como la babilónica o la helénica) sabían, y podían calcular en qué punto de la bóveda celeste, con respecto a las estrellas, se encontraba el sol. Dado que la Tierra se mueve alrededor del Sol, desde nuestra posición el «fondo» de estrellas que hay tras él va cambiando. Así, el Sol traza una línea sobre la esfera celeste a lo largo del año, llamada eclíptica.
Si proyectamos el ecuador terrestre sobre la esfera celeste, tendremos una línea llamada ecuador celeste. Como el eje terrestre está inclinado, el ecuador celeste y la eclíptica no coinciden. Estas líneas se cortan en dos puntos opuestos, y forman un ángulo entre ellas (el mismo que el eje terrestre, lógicamente). Estos dos puntos se denominaban primer punto Aries y primer punto Libra, ya que cuando se calcularon en la antiguedad, estaban en estas dos constelaciones.
Como sabéis, los equinoccios son dos momentos en el año en los que el día dura exactamente lo mismo que la noche, mientras que los solsticios son dos momentos en el año en el que la diferencia entre el día y la noche es máxima. Pues bien, en el momento exacto de un equinoccio, el Sol se encuentra en uno de los puntos de corte entre la eclíptica y el ecuador celeste. Y en el momento exacto del solsticio, el Sol se encuentra en uno de los dos puntos de la eclíptica con máxima separación del ecuador celeste. Concretamente, el equinoccio de primavera se produce cuando el Sol está en el primer punto Aries, y el de otoño cuando está en el primer punto Libra (y por eso, a esos puntos también se los denomina equinoccios).
Más conceptos: la órbita de cada planeta está incluida en un plano que denominamos plano orbital. Los planos orbitales de los planetas no coinciden, pero tienen muy poquita inclinación entre ellos. Así, desde nuestra perspectiva visual, los planetas parece que se mueven siguiento líneas muy próximas a la eclíptica. De hecho, la mayor inclinación la presenta Mercurio, con tan solo 7º.
Puesto que el movimiento aparente del Sol y los planetas está contenido en una franja estrecha en el cielo, y esa franja atraviesa varias constelaciones, se les dio una relevancia especial, y se denominó a esas constelaciones Zodiaco (he leído otras definiciones de zodiaco, como sólo la franja por la que se mueven el Sol y los planetas, o incluso solamente una franja con el mismo grosor que el tamaño aparente del sol). Nuestro zodiaco proviene concretamente de la Grecia Clásica (al igual que muchos nombres de constelaciones).
Ya llegamos al punto crucial. El eje terrestre no se mantiene fijo, con la misma orientación con respecto a las estrellas, sino que se bambolea, al igual que lo hace una peonza. Hace un tiempo dediqué un post a la duración de un año. Ahí vimos la diferencia entre el año trópico (al cuál se intenta adecuar nuestro calendario) y el año sidéreo. El año trópico se mide con respecto a los equinoccios, es decir, un año trópico es el tiempo transcurrido entre dos pasos consecutivos del Sol por el equinoccio de primavera. Y el año sidéreo se mide con respecto a las estrellas, es decir, sería el tiempo transcurrido entre dos pasos consecutivos del sol por el mismo meridiano celeste (la «vertical» de una estrella que elijamos, vamos). Como su duración es distinta, es evidente que año tras año los equinoccios (y toda la eclíptica) van desplazándose poco a poco por la esfera celeste, de forma que año tras año, el Sol está en una posición diferente respecto al fondo de estrellas, para un día del año determinado. Éste desplazamiento es conocido como precesión de los equinoccios, y forma parte de la formación astronómica más básica.
La ecliptica da una vuelta completa a la esfera celeste cada 26.000 años aproximadamente. Eso quiere decir que a día de hoy, el equinoccio de primavera se ha desplazado unos 28º con respecto a la posición que ocupaba cuando se definió dicho punto. En equel entonces, el equinoccio de primavera estaba en la constelación de Aries, mientras que actualmente se encuentra en la de Piscis. A grandes rasgos podemos decir que el Sol lleva «una constelación de retraso» con respecto a hace algo más de 2.000 años.
Con eso ya bastaría para ver que la astrología no tiene ningún fundamento, ya que se basa en el recorrido aparente del Sol con respecto a las estrellas de hace un par de milenios. Es decir, cuando según los astrólogos estamos en el signo de Aries, en realidad el Sol está en Piscis. Pero es que además, las constelaciones zodiacales no tienen el mismo tamaño. Las hay más grandes (como Virgo) y más pequeñas (como Capricornio), por lo que el Sol no tarda el mismo tiempo en recorrer cada una de ellas. Por ejemplo, el Sol tarda unas 4 semanas en recorrer Capricornio, y mes y medio en recorrer Virgo. Sin embargo, los 12 signos astrológicos tienen la misma duración.
Y por último, los planos orbitales no permanecen invariables con el tiempo. Cada plano tiene una ligera oscilación, incluido el nuestro, por lo que desde nuestro punto de vista, la eclíptica también «sube y baja». Y aquí es donde entra en acción el dichoso Ofiuco. Una constelación ya nombrada por los griegos, que debido a las variaciones en los movimientos de nuestro planeta, ahora es atravesada también por la eclíptica.
Por tanto, los astrólogos usan 12 signos zodiacales, que no se corresponden con las constelaciones de igual nombre. Es decir, dividen la eclíptica en 12 regiones iguales, y ya. El que los nombres sean los mismos que los de 12 constelaciones, casi podríamos decir que es una simple curiosidad histórica. Y eso es lo que se pretende mostrar cuando se saca el tema de Ofiuco.
La semana pasada los medios se hicieron eco de una cantante virtual llamada Hatsune Miku, que causaba furor en Japón. Según muchos de ellos se trataba de un holograma que cantaba y bailaba, y en los noticiarios de televisión se mostraba un vídeo de un concierto donde veíamos una animación por ordenador de una chica con estética manga, bailando en un escenario, y aclamada por el público. Las alarmas saltaron inmediatamente en mi cabeza. ¿Un holograma? Precisamente hacía unas semanas, había aparecido en los medios otra noticia, sobre un sistema que permitía transmitir y refrescar una imagen holográfica cada 2 segundos, lo que era un avance extraordinario. Entonces ¿cómo era posible que en unos días, se haya pasado de un refresco de 2 segundos y una calidad de imagen bastante mejorable, a una animación perfecta? Pues fácil, no era posible. Lo que se ve en el vídeo no es un holograma.
Lo primero que hay que tener muy claro es qué es un holograma. Un holograma es una imagen tridimensional real. ¿Qué quiero decir con «real»? Pues que parezca un objeto que está realmente ahí, de forma que si me muevo alrededor de la imagen, la puedo ver desde varios ángulos. Fijáos que esta característica no aparece por ejemplo en la proyecciones 3D tan de moda ahora. Aunque se crea una ilusión de profundidad bastante real (haciendo que cada ojo vea una imagen ligeramente diferente), si nos desplazamos no podremos ver otros ángulos. Si un personaje mira a la cámara, parecerá que nos mira a nosotros, no importa dónde estemos. Con un holograma, sin embargo, si un personaje nos mira, al movernos alrededor de él dejará de mirarnos.
Entonces ¿qué era exactamente lo que se veía en el concierto? Pues no era más que una proyección convencional, sobre una pantalla transparente, situada en el escenario, entre los músicos y el público. Si veis con atención el vídeo que incluyo, podréis comprobar que se ve el público parcialmente reflejado en dicha pantalla. En algún plano, se ve el borde de la misma y la propia luz del proyector. Se aprecian sobre todo en los planos generales con mucha ilumunación (como el que hay a los pocos segundos del inicio). La animación en sí estaba hecha por ordenador, y según se indicaba en algún medio, el movimiento del personaje fue previamente capturado de una persona real.
Lo gracioso es que con toda la atención centrada en el personaje infográfico y su errónea clasificación como holograma, lo más interesante de la noticia (al menos para mí) pasó desapercibido. Resulta que la voz de Hatsune Miku no es real, es decir, no hay una cantante que ponga la voz al personaje (como sucede en las películas de animación). Quien «canta» es un software de síntesis de voz llamado Vocaloid. La voz no es es totalmente sintética, ya que se usan muestras de voz de una actriz de doblaje japonesa llamada Saki Fujita, pero el resto del trabajo (componer palabras, frases, y darles la entonación adecuada) lo hace el software, de forma similar a como funcionan los sintetizadores (instrumentos) modernos.
Hace pocos días recibí un correo electrónico de uno de vosotros (gracias Carlos), comentándome una noticia aparecida en La Razón, en la cual unos científicos proponían una teoría diferente de gravedad, donde la disminución de la misma no es directamente proporcional al cuadrado de la distancia. El origen de esta idea está en la discrepancia entre determinadas observaciones, y lo que predice la teoría gravitatoria, como por ejemplo la velocidad de rotación de muchas galaxias. A la velocidad a la que rotan, la fuerza centrífuga sería superior a la gravitatoria, y las estrellas deberían dispersarse. Pero no lo hacen. Esta discrepancia se explica suponiendo la existencia de materia no observable directamente, denominada materia oscura. La idea de estos científicos es «¿por qué no suponer que la teoría gravitatoria está equivocada, en vez de que hay elementos no observados?». Y lo cierto es que cada vez que una teoría científica no corresponde con las observaciones, los científicos deben plantearse el mismo dilema: ¿está mal la teoría, o hay algo que no hemos tenido en cuenta?
El problema de la noticia es que sólo habla de la ley de gravitación universal de Newton, y entre otras cosas menciona: «La ley física más famosa de la historia, que parecía ser hasta ahora “intocable”, está en entredicho». Bueno, la verdad es que hace mucho que la ley de gravedad de Newton, no sólo se ha tocado y puesto en entredicho, sino que se ha demostrado que es incorrecta. De eso se encargo hace casi un siglo, un tal Albert Einstein, cuando publicó su teoria general de la relatividad.
Hace mucho, dediqué un post a la relatividad general (fue durante el primer año de vida de este blog). Allí conté los aspectos más conocidos (como la curvatura del espacio-tiempo). Lo que no comenté es que la relatividad general «sustituye» a la ley de gravitación de Newton. Al igual que la relatividad especial surgió al unificar la mecánica clásica y el electromagnetismo (que se contradecían entre sí), la relatividad general surgió al unificar la relatividad especial (y extenderla a sistemas de referencia no inerciales) y la gravedad clásica. Uno de los principios de la ley de gravitación universal, es la acción a distancia, que nos dice que la fuerza con la que interactuan varios cuerpos en un instante dado, depende de la posición relativa de esos cuerpos en ese mismo instante. A priori parece algo muy lógico (la gravedad actua a distancia, sin necesidad de que los cuerpos estén en contacto), pero hay un detalle importante a tener en cuenta: según este principio, la fuerza se transmite de forma instantánea. Sin embargo, una de las consecuencias de la relatividad especial es que ningún tipo de información o interacción puede viajar más rápido que la luz; por tanto la gravedad no puede actuar de forma instantánea, sino que debe propagarse a una velocidad finita, al igual que lo hace la luz.
10 años después de publicar su teoría especial de la relatividad, Einstein publicó en 1915 su teoría general de la misma. Entre otras cosas, resolvió un viejo problema de los astrónomos con el movimiento de Mercurio. En dos ocasiones comenté cómo las discrepancias entre las predicciones de la ley de gravitación de Newton y las observaciones realizadas, llevaron a los astrónomos a pensar que debía haber un planeta no descubierto, más cercano al sol que Mercurio (el mismo razonamiento condujo al descubrimiento de Neptuno). Sin embargo nadie era capaz de observar el dichoso planeta. Y eso es porque no existe. Las predicciones de movimiento de la relatividad general coinciden con las observaciones de Mercurio (y con el resto de planetas), por lo que podemos decir sin temor que la ley de gravitación de Newton es errónea. Si queremos hacer cálculos con la gravedad, debemos emplear las ecuaciones de la relatividad general.
¿Por qué se sigue enseñando entonces la ley de Newton en el colegio, si es incorrecta? Pues porque las matemáticas de la relatividad general son bastante complejas, ya que incluyen cálculo tensorial (el propio Einstein tuvo dificultades para aprenderlas, al desarrollar su teoría). Por el contrario, la fórmula de la ley de gravitación universal es muy sencilla (unas pocas multiplicaciones, una división, y una potencia), y es una aproximación suficientemente buena en la mayoría de los casos. Sólo en situaciones particulares, como la de Mercurio (por su proximidad a un cuerpo tan masivo como nuestro Sol), la diferencia entre la ley de Newton y la relatividad general es significativa.
Por tanto, hace casi un siglo que lo que la noticia califica como «la ley más famosa de la historia», fue más que tocada y puesta en entredicho; fue demostrada incorrecta. La teoría gravitatoria actual es la relatividad general, aunque en muchos casos podamos usar la sencilla ley de Newton como aproximación.
Como lo prometido es deuda, vamos a hablar un poco de la forma de medir un terremoto y de las distintas escalas, especialmente la de Richter que tanto gusta a los medios, y su sucesora. Porque como mencioné hace dos posts, los periodistas parecen ignorar que la escala de Richter ya no se usa.
¿Cómo se puede expresar la intensidad o magnitud de un terremoto? Bueno, lo primero que hay que hacer es definir qué es exactamente la intensidad y la magnitud, ya que son conceptos diferentes, aunque relacionados (y muchas veces confundidos). La magnitud de un terremoto expresa la cantidad de energía liberada en el mismo. La intensidad, sin embargo, se refiere a los efectos locales del terremoto. El propio Charles Richter (el creador de la escala que lleva su nombre) explicaba esta diferencia usando la analogía de la radio: la magnitud sería la potencia emitida por la antena, y la intensidad sería la intensidad (valga la redundancia) de la señal que recibimos en un punto determinado.
Fijáos que entonces, la magnitud es unica para un terremoto dado, pero la intensidad varía según nos acercamos o alejamos del epicentro (la proyección en la superficie del centro del terremoto). También, terremotos de igual magnitud pueden tener distinta intensidad a la misma distancia del epicentro, si el hipocentro (el punto real donde se origina el terremoto) está a distinta profundidad. O simplemente, porque las características del terreno sean diferentes y atenúen más o menos las ondas sísmicas.
Así, tenemos dos tipos de escalas diferentes para medir un terremoto: escalas de magnitud y escalas de intensidad. Las escalas de intensidad se basan en la percepción del terremoto por parte de las personas, y en los efectos observados. Por su propia naturaleza, no pueden ser arbitrariamente precisas, ni podemos usar un aparato medidor, sino que simplemente se establecen una serie de niveles o grados de intensidad asociados a determinados efectos, y se les asigna un número. Por razones históricas, las escalas de intensidad suelen usar números romanos para expresar un valor. Una de las primeras escalas de este tipo fue la Rossi-Forel, que define 10 grados de intensidad. Actualmente no hay una única escala de intensidad adoptada de forma global, sino que se usan distintas escalas en distintas regiones, como la Escala de Mercalli Modificada (MM) en EEUU o la Escala Macrosísmica Europea (SME) en Europa (similares entre sí, y ambas con 12 grados).
Las escalas de magnitud, por el contrario, se basan en parámetros medidos por sismógrafos. Como sabéis, estos aparatos son sensibles a las oscilaciones, y nos indican con precisión la amplitud de la oscilación. Supongo que os preguntaréis ¿cómo se puede saber la magnitud de un terremoto si no hay un sismógrafo justo en el centro? Pues usando varios sismógrafos repartidos geográficamente, y calculando diferentes parámetros, cuya variación con la distancia es conocida.
Sin duda, la escala de magnitud más conocida es la de Richter. Su nombre formal es Escala de Magnitud Local (ML), si bien los periódicos popularizaron el nombre de «escala de Richter», al ser creada por el sismólogo Charles Richter.
Antes de explicar cómo se calcula la intensidad en esta escala, debemos recordar algunos detalles sobre las ondas sísmicas (digo recordar, porque esto se estudiaba en lo que antes se conocía como BUP). Básicamente hay tres tipos de ondas sísmicas, llamadas ondas P, ondas S y ondas L, que se propagan a diferente velocidad. Las ondas P o primarias son ondas longitudinales, es decir, la oscilación se produce en la misma dirección de propagación, como ocurre con el sonido. Esto permite que se propaguen tanto en sólidos como en líquidos. Estas ondas son las más rápidas, y por tanto, las primeras en llegar. Las ondas S o secundarias son ondas transversales, es decir, la oscilación se produce en una dirección perpendicular a la dirección de propagación, como ocurre con una cuerda. Debido a ello, sólo pueden propagarse por sólidos. Estas ondas son algo más lentas que las P, y por tanto tardan más en llegar. Finalmente, las ondas L o superficiales, son ondas lentas de baja frecuencia (y por tanto, gran longitud de onda) que se propagan por la superficie, deformándola. Estas ondas son las últimas en llegar, y las que producen la mayor parte de los daños.
Bueno, sigamos. Charles Richter ideó una forma de determinar la magnitud de un terremoto, teniendo en cuenta la intensidad de las ondas P y S, y la separación entre ellas. Cuanto mayor es la amplitud medida en el sismógrafo, mayor es la magnitud. Pero también cuanto mayor es la separación temporal entre las ondas P y S, mayor es la magnitud. Fijaos que al ser las ondas S más lentas que las P, no sólo llegarán más tarde que éstas, sino que cuanto mayor sea el retraso, mayor será la distancia al hipocentro. Y a igualdad de intensidad registrada, el terremoto tiene más magnitud cuanto más lejos esté.
Richter empleo una fórmula logaritmica, es decir, a medida que aumentamos la magnitud en la escala, la energía liberada del terremoto aumenta de forma exponencial (de forma similar a los decibelios en sonido). Concretamente, un incremento en un grado corresponde una energía liberada unas 30 veces superior (un poco más, en realidad, 101,5 veces), y un incremento en dos grados, supone que la energía liberada es 1.000 veces superior (103).
Pero la fórmula utilizada tiene un problema: se satura a partir de valores altos (en torno a 8,5) es decir, indica valores similares para terremotos de muy distinta intensidad. Debido a ello, se desarrolló una nueva escala: La escala sismológica de magnitud de momento (MMS o Mw). Ésta escala se basa en el concepto de momento sísmico, una magnitud que depende entre otras cosas del área afectada en la propia falla, y del desplazamiento medio. Por supuesto, estos valores no se pueden medir directamente, sino indirectamente a través de los datos recogidos por los sismógrafos, datos previamente conocidos del terreno, y realizando cálculos con todos ellos.
La escala se diseñó como sucesora de la de Richter y sigue la misma proporción que ésta (un incremento en un grado supone multiplicar por 101,5 la energía liberada). Es muy similar para valores medios, pero con la ventaja de no saturarse en valores altos. Es decir, es más precisa para grandes terremotos. Sin embargo, estas dos escalas sí que difieren en terremotos pequeños. A día de hoy, la MMS es la escala usada por el USGS para terremotos medianos y grandes.
Y así llegamos al origen de este post. Desde hace años, la magnitud de un terremoto digno de salir en las noticias, se expresa en la escala de magnitud de momento. Por norma general, se expresa simplemente como «X grados», y se ve que cuando pasa por los medios de comunicación, el redactor de turno añade la coletilla «en la escala de Richter» de forma totalmente gratuita, debido a su gran popularidad. Numéricamente, el error cometido no es muy grande, pero conceptualmente sí que lo es, pues el valor no está expresado en dicha escala.
Con tres terremotos de importancia en dos meses, parece obligado hablar de ellos un poco. Sobre todo cuando se menciona constantemente la escala de Richter (que ya no se usa) o uno lee todo tipo de afirmaciones gratuitas, como que se acerca el fin del mundo, que es culpa nuestra por maltratar el planeta, o que son provocados por un arma secreta de los malísimos EEUU.
Dejaré lo de las escalas en las que se mide la intensidad de un terremoto para otro día, y empecemos por lo más básico: ¿Por qué ocurren los terremotos? Bueno, antes de ponernos a ello vamos a recordar algo que nos enseñaron en el colegio: la tectónica de placas. Explicado de forma sencilla, la tectónica de placas nos dice que la corteza terrestre está fragmentada en grandes placas, llamadas placas tectónicas, que flotan sobre el manto y se desplazan (en realidad, lo que está fragmentado es la litosfera, que abarca algo más que la corteza, pero esta visión simplista nos sirve de momento).
Aunque las placas se desplazan, siempre hay contacto entre ellas. En las zonas donde las placas se separan, el manto rellena el hueco dejado, enfriándose para formar parte de la corteza. Esto ocurre por ejemplo en la dorsal atlántica, que corresponde a la separación de las placas norteamericana y sudamericana de las euroasiática y africana. Hace unos cientos de millones de años estos continentes formaban uno solo, y si observamos un mapa o una foto de satélite, se puede ver claramente como el contorno este del continente sudamericano y el contorno oeste del africano, parecen encajar como piezas de un puzzle. Desde entonces se han estado separando, y aún hoy en día siguen haciéndolo, lenta pero constantemente.
En las zonas donde las placas se aproximan, pueden ocurrir dos cosas. Un posibilidad es que una de las placas se doble y se hunda por debajo de la otra. Esto ocurre en el océano o en la costa, formando grandes fosas en el punto de unión, y elevaciones de terreno en la placa que queda encima. Este tipo de unión se produce, por ejemplo, entre la placa de Nazca y la placa sudamericana, formando la fosa de Perú-Chile y la cordillera de los Andes.
Otra posibilidad es que ambas placas queden más o menos a la misma altura, arrugándose en la línea de choque (como la carrocería de un coche), y formando también elevaciones de terreno. Esto ocurre en uniones continentales, como por ejemplo en la unión de la placa euroasiática con la placa india, formando el Himalaya.
Existe una tercera situación, que ya os podréis imaginar: uniones donde las placas ni se separan ni se acercan, sino que simplemente se desplazan lateralmente.
Bien, una vez visto esto, vayamos con los terremotos. La corteza terrestre no es tan rígida como nos puede parecer. Es elástica. En los bordes de unión de placas que no se estén separando, éstas se van comprimiendo, doblando, deformando; en resumen, acumulando energía elástica igual que un muelle. Y llega un momento en el que la dicha energía se libera, provocando un terremoto (como cuando ejerces fuerza sobre un muelle y luego lo sueltas).
Veamos ahora los últimos tres terremotos que han tenido gran cobertura en los medios, y dónde se han producido. Aquí mismo tenéis un dibujo con las principales placas y sus movimientos. Es una versión reducida del que hay en Wikimedia Commons, bastante más grande y que os recomiendo que veais. Observando este mapa vemos que Haití está junto al borde entre las placas norteamericana y la del caribe. Chile está en el unión de las placas de Nazca y sudamericana. Y Taiwan también está en la unión de dos placas. No es extraño, por tanto, que haya habido un terremoto en estas tres zonas.
Me consta además, por un compañero de trabajo chileno, que Chile es una zona muy activa sísmicamente, con unos 10 terremotos anuales de magnitud superior a 6, y numerosos temblores pequeños. De hecho, en Chile se produjo el mayor terremoto jamás registrado, en 1960, con una magnitud de 9,5.
Ayer recibí un correo de un lector informándome de un par de errores en una noticia publicada en El Mundo (gracias Juan), sobre unas imágenes de Encélado (una de las lunas de Saturno) que han sido obtenidas por la sonda Cassini. Resulta que en algunas zonas de esta luna, surgen chorros de partículas de hielo hacia el espacio, y estas nuevas imágenes han aportado nuevos datos para estudiarlos.
El primer error que menciona Juan está en el pie de la foto que acompaña la noticia. Vemos una superficie rugosa con el lema «Una partícula captada en la luna Encélado». Vaya, pues vaya zoom tan extraordinario que debe tener la Cassini para poder ampliar a ese detalle una pequeña partícula. Como podéis sospechar, en realidad la imagen es de la superficie de Encélado, como se puede comprobar en la web del JPL.
El segundo error es mucho más grave, y por desgracia, bastante común. Citando a uno de los que participan en la misión Cassini, se dice: «En la Tierra estas hondonadas serían gélidas, pero son un agradable paraíso si se las compara con el ambiente de menos 370 grados centígrados a su alrededor». Atención, pregunta ¿pueden alcanzarse -370 ºC en algún lugar? Exacto, es totalmente imposible, porque dicha temperatura está por debajo del cero absoluto, la mínima temperatura posible (y que en realidad, la Tercera Ley de la Termodinámica nos impide alcanzar), que corresponde a −273,15 °C.
Es evidente lo que ha pasado, y una lectura rápida de la fuente original en el JPL nos lo confirma. En realidad se trata de -370 ºF, es decir, -223,33 ºC. Lo gracioso de todo es que en la declaración, el hombre dice 50 K (en el mundo de la astronomía se usan más los kelvins), si bien se aclara entre paréntesis que corresponde a -370 ºF. No sé qué es más grave, si desconocer a qué temperatura corresponde (al menos aproximadamente) el cero absoluto (o incluso desconocer por completo su existencia), o ignorar que en EEUU utilizan la escala Fahrenheit, que es diferente a la escala Celsius que utilizamos nosotros. Por que no es que se haya reproducido la cifra sin más, es que en la noticia se dice explícitamente que son grados centígrados, cuando no es así.
El error no aparece únicamente en El Mundo, y eso es lo más grave de todo. La redacción de la noticia proviene de la agencia EFE, y si buscais «menos 370 grados centígrados» en Google, descubriréis multitud de sitios donde se han limitado a copiar y pegar la noticia, sin percatarse del error. Y es realmente alarmante comprobar que no se trata sólo de medios generalistas, sino que aparece en sitios dedicados a la ciencia, como la web de la FECYT, Blogastronomía, o fys (del Colegio Oficial de Físicos). Ante esto, no puedo evitar hacer la misma reflexión que repite Josu en Malaprensa. ¿A esto se ha reducido la divulgación de noticias? ¿A copiar y pegar sin contrastar la información? (posiblemente ni eso, y en muchos casos se trate de un agregador automático que se alimente de varios feeds). Y añado de mi propia cosecha ¿tan bajo es nuestro nivel de cultura científica, que se cuela un error tan garrafal en tantos sitios?
Estos días es noticia las candidaturas de diferentes ayuntamientos a tener un cementerio nuclear, y las numerosas y enérgicas protestas de gente en contra. Escuchando y leyendo declaraciones, puedo comprobar que hay bastante desconocimiento en general sobre todo lo que rodea la radiactividad, y se asocia inmediatamente a algo muy peligroso y dañino, tanto para el hombre como para el medio ambiente. Y sí, la radiactividad puede ser muy dañina, incluso letal, pero no es una fuerza irresistible que atraviesa todo. Se puede aislar, y de hecho, se hace.
¿Que es la radiactividad? Hace tiempo expliqué un poco qué es y que qué produce la radiactividad, pero no está de más recordarlo. Existen isótopos cuyos núcleos atómicos no son estables, por tener «demasiada energía». La naturaleza tiende siempre a la configuración menos energética, por lo que estos isótopos desprenden energía en forma de radiación electromagnética o partículas subatómicas. Durante este proceso, el núcleo ve modificado su número de protones o neutrones (o ambos). Si como resultado, se modifica el número de neutrones, se convierte en otro isótopo del mismo elemento. Y si se modifica el número de protones, el elemento químico cambia (la transmutación de la materia anhelada por los antiguos alquimistas).
Existen tres tipos de radiación: la radiación alfa, que consiste en núcleos de helio (dos protones y dos neutrones «juntitos»), la radiación beta, que consiste en electrones o positrones, y la radiación gamma, que es radiación electromagnética (es decir, fotones). La radiación alfa es muy energética, pero fácilmente bloqueable. Bastan unas hojas de papel para impedir su paso (pensad que después de todo, aunque ligeros, se trata de núcleos atómicos enteros). La radiación beta es algo más penetrante, pero sólo un poco más. Una lámina de aluminio puede deneterla sin problemas. La radiación gamma ya es harina de otro costal. Es muy penetrante y se necesitan barreras bastante más gruesas, y de materiales muy concretos, como el plomo o el hormigón.
¿Por qué es dañina la radiactividad? Bueno, la radiactividad es dañina porque es ionizante, es decir, es capaz de ionizar átomos. ¿Y eso qué quiere decir? Pues que cuando la radiación atraviesa la materia, puede arrancar electrones de los átomos que la componen, alterando algunas propiedades. Si eso ocurre con átomos que forman parte de una estructura celular, ésta puede resultar dañada. Y dependiendo de dónde esté el daño y de su cantidad, será más o menos perjudicial para el ser vivo afectado.
He mencionado la cantidad, y es que la radiactividad no escapa a la cita atribuida a Paracelso: «todo es veneno, nada es veneno; la diferencia está en la dosis» (o algo así; si alguno conoce la cita exacta, le agradecería que me corrigiera). El cuerpo humano puede soportar pequeñas dosis de radiactividad, y de hecho, las soporta diariamente. Existe radiactividad en la naturaleza, que no tiene nada que ver con la actividad humana ¿Os acordáis del artículo en el que comenté la datación por carbono-14? Todos los seres vivos (incluidos nosotros) tienen una cantidad de carbono-14 formando parte de su estructura, y el carbono-14 es un isótopo radiactivo. Y no es el único que podemos encontrar en la naturaleza.
En otro orden de cosas, el hombre utiliza elementos radiactivos y radiaciones ionizantes, para otros fines además de la energía nuclear, como por ejemplo en el campo de la medicina. Los famosos rayos X que se utilizan para realizar radiografías, es radiación ionizante. Y precisamente por eso el paciente se queda solo en la sala, en el momento de la irradiación (una única dosis no es dañina, pero una exposición diaria es otra cosa). La radioterapia utilizada en tratamientos para el cáncer consiste precisamente en matar los tejidos afectados mediante radiación ionizante (pudiendo utilizarse material radiactivo, dependiendo del tipo de tratamiento). Y hay métodos de diagnóstico que consisten en inyectar directamente un isótopo radiactivo en el paciente, que luego es fácilmente detectable desde el exterior, proporcionando información de «por dónde va». Por supuesto, todos estos elementos son manipulados con las debidas precauciones, y las salas donde se utilizan están convenientemente apantalladas.
Antes he mencionado que los isótopos radiactivos lo son porque sus núcleos tienen demasiada energía, y deben liberarla. ¿Qué ocurre cuando ya han emitido esa energía que les sobra? Todos los isótopos radiactivos, al emitir radiación se convierten en otros (recordad que el número de protones y neutrones del núcleo se ve alterado), que pueden ser radiactivos o no. Pero si es radiactivo tendrá que ir decayendo a su vez en otro. Finalmente, todo material radiactivo termina decayendo (directa o indirectamente) a isótopos estables no radiactivos. Existe un concepto llamado periodo de semidesintegración, llamado también semivida, que es intrínseco a cada isótopo radiactivo. Nos dice cuánto tiempo pasa hasta que la mitad del material ha decaído en otro isótopo diferente. Cuanto mayor sea el periodo de semidesintegración, más duradero será el material radiactivo, y cuanto menor sea, antes desaparecerá. Fijaos que todos los materiales radiactivos terminan desintegrándose con el tiempo, precisamente porque sus núcleos son inestables. No ocurre así con los elementos no radiactivos, que pueden durar indefinidamente.
Bueno, una vez hemos asimilado todo esto, vayamos el punto de la polémica: los residuos nucleares y su almacenamiento. En una central nuclear se fisionan elementos radiactivos (por lo general, uranio) para obtener energía. Para ello, el combustible nuclear se dispone en una serie de varillas que se intoducen en el reactor. Durante el proceso, se producen entre otras cosas, otros elementos radiactivos. Una varilla «gastada» contiene dichos elementos, además de parte del combustible nuclear original, que no se ha fisionado. Por otro lado, hay partes del reactor, herramientas y otros utensilios, que tras tanta exposición a la radiación, terminan por volverse algo radiactivos (no porque la radiactividad sea algo «contagioso», sino porque algunos núcleos atómicos, al absorber la radiación, sufren el proceso inverso, adquieren energía y se vuelven inestables). Y no sólo una central nuclear produce residuos radiactivos, sino que un hospital también puede generarlos, como hemos visto.
Los residuos radiactivos se dividen en tres grupos, según su emisión de radiación y su periodo de semidesintegración: de baja actividad, de media actividad y de alta actividad, siendo estos últimos los más peligrosos. Todos estos residuos deben ubicarse en un lugar seguro hasta que decaigan en elementos no radiactivos, y para eso están los vulgarmente llamados cementerios nucleares.
Las expresiones «desechos nucleares» y «cementerio nuclear» evocan algún tipo de bidón metálico lleno de un líquido brillante, que se vierte de cualquier forma en algún lugar condenado. Puede que hace unas décadas esta visión no estuviera demasiado alejada de la realidad, pero a día de hoy, el tratamiento de estos residuos es bien distinto. Precisamente, la misión de estos «cementerios» es almacenar estos residuos de forma que no causen daño al hombre y al medio ambiente en general. Hay dos tipos de estos almacenes: superficiales, para residuos de baja y media actividad, y profundos, para los de alta actividad. Estos almacenes no son simples naves industriales donde se amontonan los resiuduos, sino que están formados por paredes muy gruesas de hormigon, que impiden la salida de la radiación.
Los residuos en sí, también se recubren de hormigón para minimizar la radiación que alcanza el exterior (no olvidéis que se transportan de alguna manera hasta que llegan a su almacenamiento). Y así recubiertos, se introducen en el almacém, que proporciona aún más aislamiento. Si se toman todas las medidas necesarias, la radiactividad en el exterior del cementerio nuclear no debería ser superior a la radiactividad natural.
Con esto no quiero pintarlo todo de rosa. Los materiales radiactivos pueden llegar a ser muy peligrosos, pero precisamente por eso, se toman enormes medidas de seguridad en su uso. Y si se cumplen, no debería haber ningún problema.
En el último número de El País Semanal (para los despistados, el suplemento dominical del diario El País), aparece un artículo titulado 25 oportunidades en tiempos de crisis, donde enumera 25 casos en los que la crisis económica actual ha supuesto en realidad una oportunidad o ventaja. El punto 19 se titula «Tecnología para geeks», y entre otras cosas, dice lo siguiente:
El netbook ha propiciado que los sistemas operativos, los programas generales que hacen funcionar el ordenador, también se abaraten. Pronto serán gratis. Google ha anunciado el lanzamiento de Chrome OS, que se descargará desde Internet sin pagar un euro.
Bueno, no es que los sistemas operativos pronto serán gratis. Es que ya los hay. Y desde hace varios años, además. Imagino que a muchos de vosotros os sonará Linux. No es el único SO gratuito, pero sí es el más conocido. Apareció a inicios de los 90, y si bien al principio no era algo que cualquier usuario pudiera utilizar, hace algunos años que es una alternativa viable al omnipresente Windows (salvo para algunos usuarios concretos, con necesidades específicas). De hecho, ya se pueden adquirir PCs con alguna distribución de Linux preinstalada (creo que desde hace uno o dos años), como el que tengo en casa.
Cuando se habla de estos temas, es habitual confundir una serie de términos, que si bien están relacionados, son cosas diferentes. La mayoría de la gente se queda con el hecho de que determinado software es gratuito, y ya está. Esto es normal, ya que es la ventaja que más directamente puede apreciar. Pero la verdadera cualidad de Linux y de mucho otro software que hay por ahí, es que se trata de software libre.
¿Qué quiere decir eso de libre? Pues que podemos hacer lo que queramos con él. Podemos copiarlo cuantas veces queramos, y darselo a otro. Podemos estudiarlo por dentro, y ver cómo funciona, Podemos incluso modificarlo, para que se ajuste mejor a nuestras necesidades. Obviamente, si tenemos libertad para copiarlo y distribuirlo, el software debe ser gratuito (no tendría sentido cobrar por una copia). Si queremos estudiarlo y modificarlo, debemos poder tener acceso al código fuente del mismo, es decir, a lo que han tecleado los programadores al hacer el programa (el código fuente es posteriormente traducido por otro programa, en código binario entendible por el ordenador). Esto es lo que se conoce como software de código abierto, en el que no sólo se proporcionan los ficheros binarios (lo que la máquina puede ejecutar), sino el código fuente (lo que el programador puede leer y escribir).
Fijáos que, como he mencionado, estos tres conceptos no son el mismo. Un programa puede ser gratuito, pero no de código abierto. Un programa puede ser de código abierto, pero no gratuito. Y también, un programa puede ser gratuito, de código abierto, pero no libre, ya que pueden existir restricciones en la licencia de uso, como el no poder modificarlo (si bien, en la práctica, el acceso al código fuente hace muy difícil hacer efectivas las limitaciones que queramos imponer).
Pero volvamos al artículo de El País Semanal. Como veis, el hecho de que el sistema operativo de Google sea gratuito, no es ninguna novedad. Es más, va a estar construido precisamente sobre el núcleo de Linux (si bien el entorno de ventanas parece que será creado desde cero). Y es que por ser libre, existen muchas distribuciones de Linux, esto es, «paquetes» que incluyen el SO y determinadas aplicaciones, de forma bastante homogenea e interrelacionada. Existen distribuciones de propósito general, pero hay también distribuciones de usos específicos, como las que se centran en la parte multimedia, o en la seguridad y recuperacón de datos.
De hecho, algunas Comunidades Autónomas han realizado su propia distribución, siendo famoso el caso de Extremadura y su LinEx, que llegó a salir en los medios. Esto, unido al hecho de que hace poco fue noticia el debate sobre si los famosos «portátiles por alumno» que anunció el Gobierno, debían llevar Windows o Linux, hace un poco incomprensible la frase «pronto serán gratis» y la novedad de que Chrome OS «se descargará desde Internet sin pagar un euro».
Leo asombrado en el diario 20 minutos (en su edición impresa), que un astrónomo aficionado ha descubierto el impacto de un objeto, de tamaño «mayor que la Tierra», sobre Júpiter. Ante la incredulidad de que en nuestro Sistema Solar haya cuerpos de tal tamaño sin descubrir, y que encima colisione con otro planeta, lo comento con mis compañeros de trabajo, y me dicen que eso mismo contaron en algún telediario, el día anterior (aunque no recuerdan en cuál). Buscando un poco por Internet, descubro que otros medios mencionan el descomunal tamaño del objeto.
Pensemos un poco. Un objeto con un tamaño mayor que la Tierra. Eso quiere decir que también es mayor que Mercurio, Marte y Venus, es decir, mayor que cualquiera de los planetas interiores. Eso no es un asteroide o un cometa; es un planeta con todas las de la ley. ¿Cómo ha podido pasar desapercibido un objeto así?
Fácil, porque tal objeto planetario no existe. Buscando la noticia en otros medios, resulta que lo que tiene ese colosal tamaño, no es el objeto que ha impactado, sino la mancha o «cicatriz» (como la están llamando) en la atmósfera del planeta. Porque lo que se ha detectado es eso: una nueva mancha en la atmósfera de Júpiter. Según el JPL de la NASA, la mancha puede haber sido producida por el impacto de un cometa, pues presenta similitudes con las producidas por el impacto del Shoemaker-Levy 9 en 1994. Pero el impacto en sí, y el objeto, no ha sido observado.
En El País proporcionan más información. Un dato muy relevante es que el diámetro de la mancha oscila entre 3.000 y 5.000 km. Por tanto no es mayor que la Tierra en absoluto, cuyo diámetro es de unos 12.700 km. Ni siquiera sería mayor que Marte. Mencionan también que el diámetro del objeto podría estar entre los 100 y 500 m. Como veis, la cosa cambia mucho.
En otros medios, no cometen el error de decir que el objeto era mayor que la Tierra, pero sí el crater que ha dejado. Pero eso es otro error, ya que no hay crater. Júpiter es un planeta gaseoso, compuesto sobre todo por hidrógeno. Es posible que tenga en su interior un núcleo sólido, pero en cualquier caso, no podemos verlo. Lo que sí vemos es su atmósfera, y los efectos que en ella pueden producir los impactos de otros objetos. Pero nunca cráteres.
Sí, ya sé que al igual que la anterior, esta entrada es más digna de Malaprensa, pero la astronomía es mi debilidad.