lunes, 5 de diciembre de 2011

NOTICIAS DEL ESPACIO...


Un nuevo software acerca la ciencia a los jóvenes

El programa NQuire mejora la comprensión de los escolares y su interés por la investigación.

Investigadores británicos han desarrollado un software para atraer y mantener el interés de los estudiantes por la ciencia. Se trata de NQuire, un programa que ya se ha probado de forma experimental en colegios del Reino Unido, con resultados positivos no sólo en el aprendizaje, porque ha permitido que los alumnos disfruten con las clases de ciencia y desarrollen su capacidad crítica. Por Patricia Pérez.
Niños que juegan a ser científicos reales planificando sus propios experimentos, recopilando datos y poniendo en común los resultados obtenidos, y sin salir de la clase de ciencia. Esto es lo que ha conseguido un grupo de investigadores de las universidades británicas de Nottingham y Open, con un nuevo software desarrollado con el patrocinio del Consejo de Investigación Económica y Social (ESRC) y el de Ingeniería y Ciencias Físicas (EPSRC) del Reino Unido. El programa informático ha sido bautizado con el nombre NQuire.
Según explica el ESRC en un comunicado, el programa se ha utilizado ya de forma experimental durante tres años en colegios de Nottingham y Milton Keynes, revolucionando la didáctica tradicional de la clase de ciencia y consiguiendo un efecto positivo sobre los resultados del aprendizaje de los escolares. Una vez concluida la investigación, NQuire está listo para su lanzamiento.
Tanto en éste como en otros campos de la educación en general, se ha demostrado que el uso de las TIC despierta el interés de los más jóvenes, por lo que la escuela debe adaptarse a los nuevos tiempos. Y especialmente cuando a ciencia se refiere, para echar por tierra la idea de que todo aprendizaje científico es cansado y aburrido.
“La ciencia puede ser difícil de vender a los jóvenes como una opción de estudios superiores o una carrera”, reconoce Mike Sharples, uno de los profesores de la Universidad de Nottingham que codirigió el proyecto, pero es consciente de su importancia en la sociedad actual. “Hoy la gente necesita herramientas de análisis para entenderla y para ver a través de la mala ciencia propagada en los medios de comunicación”, añade.


Cómo funciona
En esta lucha trabajan los desarrolladores de NQuire. Para ello, el programa aborda aspectos de la ciencia que influyen en la vida cotidiana, con investigaciones sobre la frecuencia cardiaca o la alimentación saludable, los microclimas, la sostenibilidad o el efecto de la contaminación acústica sobre las aves.
Los escolares que participaron en el proyecto, con edades comprendidas entre los 11 y los 14 años, utilizaron dispositivos móviles como netbooks y smartphones, equipados con cámaras, sensores de localización y grabadoras de voz, así como sondas de datos para medir las condiciones atmosféricas.
Esto les permitió salir de la clase y crear sus propios temas de investigación, basándose inicialmente en la búsqueda y análisis de datos, para extraer a continuación sus propias conclusiones sobre las hipótesis planteadas.
Los niños podían salir al patio del recreo, a una reserva natural local o al exterior de sus casas para recoger datos, guiados siempre por el software. Sus dispositivos móviles estaban vinculados de forma inalámbrica entre sí, y recopilaban información sobre la luz, el viento y la temperatura. Estos datos se actualizaban a su vez en una base de datos central, permitiendo de esta forma el intercambio y análisis posterior, una vez de vuelta a clase.
Los profesores, por su parte, pudieron seleccionar y modificar mediante NQuire los temas de investigación, además de supervisar y guiar las actividades de los estudiantes. También los padres tuvieron la oportunidad de participar en el trabajo, pues los menores llevaban sus netbooks a casa, integrando así a la familia en el aprendizaje escolar.

Resultados
El estudio ha demostrado, según se detalla en el comunicado antes mencionado, que el programa no sólo incidió en los niveles de aprendizaje, sino que también propició el disfrute de las clases de ciencia y una mejoría, pequeña pero real, en la comprensión del proceso científico.
Otra de los codirectores del proyecto, la profesora Eileen Scanlon, de la Universidad Open, asegura al respecto que “los estudiantes estuvieron en mejores condiciones de comprender los principios que sustentan la práctica científica después de usar el programa”.
Como efecto secundario del experimento, el profesor Sharples sugiere que el software ayudó a los estudiantes a desarrollar una actitud analítica hacia la vida, pues con él se les animó a hacer preguntas, a razonar y a profundizar en los temas.
“Nuestro estudio muestra que este método de investigación personal ayuda a los niños a desarrollar las habilidades necesarias para comprender el impacto de la ciencia en la vida cotidiana y tomar mejores decisiones personales sobre su propia salud, su dieta y su impacto sobre el medio ambiente” añade el profesor. Quién sabe si de aquí saldrán los científicos del mañana.  
La simulación Bolshoi desvela los misterios del cosmos



Científicos hacen públicos los datos de la simulación computacional del universo más exacta, detallada y extensa de las realizadas hasta ahora
La simulación cosmológica computacional Bolshoi, la más exacta, detallada y extensa de las realizadas hasta ahora, será para físicos y astrónomos una potente herramienta de análisis de misterios del universo que aún no han sido resueltos, como la formación de las galaxias, la materia oscura o la energía oscura. Con esta simulación se ha trazado ya la evolución de la estructura a gran escala del universo, incluyendo el desarrollo y la distribución de los halos de materia oscura en los que las galaxias se unieron y crecieron. Gracias a ella, además, han sido posibles visualizaciones espectaculares de cómo fue el universo en 180 momentos distintos después del Big Bang y hasta el presente. Por Yaiza Martínez.

La simulación cosmológica computacional Bolshoi, la más exacta, detallada y extensa de las realizadas hasta ahora, será para físicos y astrónomos una potente herramienta de análisis de los misterios del universo que aún no han sido resueltos, como la formación de las galaxias, la materia oscura o la energía oscura.
Estudios iniciales realizados con dicha simulación, cuyos resultados ya están disponibles para el público, han demostrado un alto grado de coincidencia entre sus predicciones y las observaciones astronómicas, lo que convierte a Bolshoi en una potencial fuente de datos, y tal vez de respuestas a dichos misterios.
La simulación Bolshoi ha trazado ya la evolución de la estructura a gran escala del universo, incluyendo el desarrollo y la distribución de los halos de materia oscura en los que las galaxias se unieron y crecieron. Gracias a ella, han sido posibles visualizaciones espectaculares de cómo fue el universo en 180 momentos distintos después del Big Bang y hasta el presente, según publica la Universidad de California.


Herramienta de gran precisión
Uno de los desarrolladores de la simulación, el profesor de física de la Universidad de California en Santa Cruz (UCSC), Estados Unidos, Joel Primack, ha afirmado en un comunicado de dicha Universidad que “en un sentido, podría pensarse que los resultados iniciales de esta simulación son un poco aburridos, porque básicamente muestran que nuestro modelo cosmológico estándar funciona. Pero lo que resulta emocionante es que ahora tenemos una herramienta de gran precisión, que proporcionará la base para muchos de los estudios importantes que se harán en los meses y años venideros”.
Primack y Anatoly Klypin, profesor de astronomía de la New Mexico State University (NMSU), han dirigido el equipo que realizó la simulación Bolshoi. Concretamente, Klypin ha sido el desarrollador del código computacional para la simulación, que funciona en el superordenador Pleiades del Ames Research Center de la NASA.
“Estas simulaciones cosmológicas gigantescas son esenciales para la interpretación de los resultados de observaciones astronómicas en proceso, y para la planificación de nuevos análisis del universo, que se espera ayuden a determinar la naturaleza de la misteriosa energía oscura”, explica Klypin.
Por su parte, Primack, que dirige el University of California High-Performance Astrocomputing Center (UC-HIPACC), añade que los datos iniciales de la simulación comenzaron a ser arrojados a principios del pasado mes de septiembre. Desde entonces “hemos obtenido muchos datos que otros astrofísicos pueden empezar a utilizar. Hasta ahora estos datos son de menos del 1% de la producción real, debido a la enorme extensión de ésta, pero habrá nuevos datos adicionales en el futuro”.

Parámetros empleados
El estándar previo de simulaciones cosmológicas a gran escala, la simulación Millenium, ha sido la base de unos 400 informes astronómicos desde 2005. Pero ahora se sabe que los parámetros fundamentales utilizados para Milleinum eran inexactos.
Elaborada por el Consorcio Virgo, formado mayormente por científicos europeos, la simulación Millenium aplicó parámetros cosmológicos basados en el primer conjunto de datos de la misión exploratoria de la NASA, lanzada en 2001, la Wilkinson Microwave Anisotropy Probe (WMAP). WMAP suministró un mapa detallado de las variaciones sutiles de la radiación cósmica de fondo de microondas, que es la radiación primordial producida tras el Big Bang.
Pero los parámetros iniciales de la WMAP1 han sido invalidados por datos posteriores, obtenidos por la WMAP5 (lanzados en 2008) y por la WMAP7 (cuyos datos fueron arrojados en 2010).
La simulación Bolshoi está basada en los parámetros de la WMAP5, acordes con los resultados posteriores, de la WMAP7. “Ahora se sabe que los parámetros cosmológicos de la WMAP1, en los que se basó la simulación Millenium, son erróneos”, explica Primack. “Además, los avances en tecnología de superordenadores nos han permitido hacer una simulación mucho mejor, con una mayor resolución. Así que espero que la simulación Bolshoi tenga un gran impacto en este campo”.


Base teórica de la simulación
La explicación estándar sobre cómo evolucionó el universo después del Big Bang es conocida como Modelo Lambda-CDM (CDM es por Cold Dark Matter o materia oscura fría ), y ha sido la base teórica de la simulación Bolshoi.
Según este modelo, la gravedad actuó inicialmente en fluctuaciones de densidad leve presentes poco después del Big Bang para reunir las primeras masas de materia oscura. Éstas crecieron dando lugar a masas cada vez mayores. Aunque la naturaleza de la materia oscura aún es un misterio, se cree que compone el 82% de la materia del universo.
Por tanto, la evolución de la estructura del universo habría sido impulsada por las interacciones gravitacionales de materia oscura. La materia ordinaria que forma estrellas y planetas habría caído en los “pozos gravitacionales” generados por estas masas de materia oscura, lo que dio lugar a las galaxias en los centros de los halos de dicha materia.


Uno de los principales propósitos de la simulación Bolshoi es calcular y modelar la evolución de estos halos.
Las características de halos y subhalos de materia oscura reflejadas por la simulación Bolshoi han sido presentadas en un artículo ya aceptado para su publicación en el medio especializado Astrophysical Journal. Los autores de este informe han sido Klypin, Sebastián Trujillo Gómez, estudiante graduado de la NMSU, y Primack.
En otro artículo, también aceptado para su publicación en ese mismo medio, se analiza la luminosidad de las galaxias, su masa y su velocidad de distribución a partir de los datos disponibles y de los resultados sobre materia oscura obtenidos por la simulación Bolshoi.
Los autores en este caso fueron Klypin, Trujillo-Gomez, Primack, y el investigador de la UCSC, Aaron Romanowsky. Las comparaciones entre las predicciones Bolshoi y las observaciones galácticas del proyecto de inspección del espacio Sloan Digital Sky Survey (SDSS), han demostrado tener un alto grado de coincidencia, señala Primack.


Dos variantes
La simulación Bolshoi se centró en una sección representativa del universo, cuyo análisis fue completado por los cálculos realizados por el superordenador Pleiades, que ha sido catalogado como el séptimo superordenador más rápido del mundo.
Una variante de la simulación Bolshoi, conocida como BigBolshoi o MultiDark, ha sido puesta en funcionamiento en el mismo superordenador. BigBolhoi ha permitido predecir las propiedades y la distribución de las agrupaciones galácticas y otras estructuras gigantes del universo, ya ha servido de apoyo a proyectos de investigación de la energía oscura, como el proyecto Baryon Oscillation Spectroscopic Survey (BOSS).
Otra variante de la simulación Bolshoi, denominada MiniBolshoi, está en marcha actualmente, también en el superordenador Pleiades. Centrada en una pequeña porción del universo proporcionará una resolución incluso mayor que Bolshoi.
La simulación Bolshoi y sus dos variantes estarán públicamente disponibles para los astrofísicos de todo el mundo a través de la Base de datos MultiDark, que está albergada por el Instituto de Astrofísica Potsdam de Alemania, y es sostenida por ayudas de España y Alemania.  
¿Y si la materia oscura fuera solo una ilusión?



Según un nuevo estudio, recién publicado en Astrophysics and Space Science, la misteriosa y fantasmal sustancia que conocemos como materia oscura podría no ser más que una ilusión creada por la interacción gravitatoria entre partículas virtuales de materia y antimateria en el espacio vacío.
FUENTE: ABC Periódico Electrónico S.A.

De acuerdo con la mayoría de las teorías actuales, la materia oscura es una sustancia invisible (ya que no emite luz) que da cuenta de cerca del 23% del total de la masa del Universo (la materia ordinaria, la que podemos ver, sólo supone un 4%). La idea de su existencia fue propuesta a principios de la pasada década de los treinta, ante la imposibilidad de explicar el movimiento orbital de las galaxias en cúmulos lejanos, mucho más rápido de lo que debería ser si no hubiera más materia de la que se puede ver.
En efecto, las velocidades observadas de las galaxias en sus órbitas deberían ser suficientes para arrojarlas, literalmente, fuera de sus respectivos cúmulos, ya que éstos no contienen la materia suficiente para retenerlas con su gravedad.
Sin embargo, las galaxias permanecen unidas en grupos, lo que hizo suponer a los científicos que "ahí fuera" debe haber mucha más materia de la que podemos detectar. Una materia diferente, oscura e invisible, capaz de aportar la masa extra que los cúmulos galácticos necesitan para evitar que sus miembros se dispersen por el espacio.
Desde entonces, la caza y captura de la materia oscura se ha convertido en una auténtica obsesión, aunque hasta ahora no ha habido ningún resultado positivo. Nadie ha conseguido todavía capturar, ni observar, un átomo de materia oscura. Ni crearlo en laboratorio. Y eso a pesar de los ingentes esfuerzos realizados durante las últimas décadas.


Ahora, el físico Dragan Hajdukovic, del CERN, el gran centro europeo de investigación nuclear, ha propuesto una atrevida explicación alternativa, basada en lo que él mismo llama la "polarización gravitatoria del vacío cuántico". El vacío cuántico es la forma en que los físicos se refieren al vacío espacial. Y es que, en realidad y a pesar de las apariencias, el espacio que hay entre las estrellas, o entre las galaxias, no está vacío, sino que es una especie de mar efervescente en el que de forma continua aparecen y desaparecen partículas y antipartículas virtuales, llamadas así porque su existencia es tan breve que no es posible observarlas ni determinar ninguna de sus propiedades.
Las partículas de antimateria, o antipartículas, son la imagen especular de las partículas ordinarias. Con la única diferencia de que sus cargas eléctricas son opuestas. Por ejemplo, un antiprotón es la versión con carga negativa de un protón, que tiene carga positiva. Y como los científicos saben muy bien, cuando una partícula se encuentra con una antipartícula, ambas se aniquilan liberando una pequeña cantidad de energía. Pero las partículas (y antipartículas) virtuales que continuamente se crean y se destruyen en el vacío cuántico (el vacío espacial) duran tan poco que no es posible observarlas directamente.
Partiendo de estos principios conocidos, Hajdukovic ha construido un nuevo modelo matemático en el que explora la posibilidad de que las partículas virtuales de materia y de antimateria no sean opuestas debido solo a sus respectivas cargas eléctricas, sino también a su fuerza gravitatoria. "La mayor parte de los físicos -afirma Hajdukovic- dan por sentado que sólo existe un tipo de carga gravitatoria, mientras que yo creo que existen dos diferentes".
Una idea atrevida según la cual, pues, la materia tendría una "carga gravitatoria" positiva y la antimateria una negativa. Lo cual significa que, a pesar de que sus cargas eléctricas opuestas hacen que se atraigan, las partículas y las antipartículas (la materia y la antimateria) son "gravitatoriamente repulsivas".
Según el razonamiento de este investigador, si un objeto hecho de antimateria de acercara a la Tierra, que está hecha de materia ordinaria, saldría inmediatamente disparado en dirección contraria. La colisión entre partículas y antipartículas solo sería posible si su repulsión gravitatoria fuera mucho más débil que su atracción eléctrica.


DIPOLOS ELÉCTRICOS
Pero volvamos ahora a la electricidad. Los físicos saben muy bien que en determinadas circunstancias las partículas pueden unirse para crear "dipolos eléctricos", con partículas cargadas positivamente en un extremo y partículas cargadas negativamente en el otro. Según la teoría cuántica, existen incontables dipolos eléctricos, creados por partículas virtuales, en cualquier volumen de vacío espacial que queramos considerar. Y se sabe también que, a pesar de que la orientación de estos dipolos eléctricos es aleatoria, cuando éstos se forman en presencia de un campo eléctrico externo, todos se alinean de inmediato en la misma dirección de ese campo.
La teoría también dice que esta súbita reordenación de los dipolos eléctricos (llamada polarización) genera un campo eléctrico secundario que se combina con el primero y lo hace más fuerte. Pues bien, Hajdukovic sugiere que también con la gravedad se da un fenómeno parecido.
Es decir, que de la misma forma en que se forman dipolos eléctricos, también pueden formarse "dipolos gravitatorios", hechos por partículas virtuales con cargas gravitatorias opuestas. Y que, igual que en el caso de los dipolos eléctricos, la orientación de estos dipolos gravitatorios también sería aleatoria.
Hajdukovic sostiene que, igual que sucede con los dipolos eléctricos, cuando estos dipolos gravitatorios se forman cerca de un campo gravitatorio muy fuerte, como puede ser el de una galaxia, también se polarizan, creando un campo gravitatorio secundario que se suma al principal.


SOLO UNA ILUSIÓN
Si Hajdukovic tiene razón, este mecanismo sería suficiente para hacer más fuerte el campo gravitatorio de las galaxias y conseguir que permanezcan unidas a pesar de su excesiva velocidad orbital. Y todo sin necesidad de recurrir a una cantidad extra de materia, esto es, a la materia oscura. "Mi teoría -afirma el científico- hace a los campos gravitatorios de las galaxias mucho más fuertes sin que se necesite materia oscura".
La materia oscura, pues, no existiría, y sería sólo un espejismo, una mera ilusión provocada por el mecanismo descrito arriba. Por supuesto, antes de dar por buena la teoría de Hajdukovic, será necesario comprobar si efectivamente existen dos tipos de gravedades opuestas, y también si es posible que las partículas virtuales puedan tener cargas gravitatorias que se opongan entre sí.
Así que, por ahora y a pesar de lo interesante de sus planteamientos, Hajdukovic no ha hecho más que sustituir un misterio (el de la materia oscura) por otro.
La solución final a esta cuestión pasa, inevitablemente, por largos años de estudios y comprobaciones. Es posible que, a pesar de todo, alguien encuentre y por fin pueda estudiar al detalle átomos de materia oscura y ponga fin a la discusión. O que nadie lo consiga y se demuestre, por el contrario, que Hajdukovic tiene razón. Solo el tiempo lo dirá.
Autor: José Manuel Nieves  
Richard Panek:
“MI MOTIVACIÓN POR APRENDER PARTIÓ DEL MIEDO QUE LE TENÍA A LA CIENCIA”



El pasado 25 de julio se realizó la conferencia del prestigioso periodista científico, quien viajó a Chile invitado por el Departamento de Astronomía de la Universidad de Chile para presentar su libro titulado “El 4% del universo”, donde menciona el importante aporte de dos astrónomos chilenos a la teoría de la aceleración del universo.
Fue en 1997, cuando los científicos Paúl Perlmutter, Brian Schmidt y sus respectivos equipos comenzaron su camino hacia la consagración, gracias a los resultados de uno de los descubrimientos más revolucionarios en astrofísica: la aceleración del universo.
Hallazgo que para muchos fue difícil de aceptar; el universo no sólo está expandiéndose sino que también acelerándose a gran velocidad. Y para poder llegar a este resultado, importante fue el aporte realizado por dos astrónomos chilenos, Mario Hamuy y José Maza. Sus aportes se plasmaron en el libro “el 4% del Universo”, del periodista norteamericano Richard Panek.


El lado oscuro
Richard Panek ha sido premiado con la prestigiosa beca Guggenheim para escritores científicos y actualmente es columnista del periódico New York Times, entre otros méritos.
“Mi editora estaba buscando a alguien que no fuera científico para que explicará qué era la materia oscura”, dijo el escritor a modo de explicación del porque de la elección del tema central de su libro.
En su conferencia en Chile, Panek no sólo relató su trabajo de introducir a las personas comunes y corrientes en temas científicos, sino que además contó cómo fue su paso desde un periodismo más ligado a la ficción hacia lo científico, hecho que lo llevó a embarcarse en una investigación que culminaría con la publicación de “El 4% del Universo”.
“Cuando comprendí que el tema era importante para los científicos, decidí que debía intentar comprenderlo y comunicarlo”, señaló el periodista, quien habló reiteradamente del concepto de energía oscura, el mismo que utilizó Einstein para explicar en su época, un tipo de energía que funcionaba de manera opuesta a la gravedad llamado “lamba”.
La energía oscura o “lamba” es en términos cuantitativos, la mayor fuente de energía del universo, abarcando más del 75% de todo lo que conocemos de éste y la responsable de la aceleración del universo, según los estudios más importante.
Tres años le tomó a Panek lograr la experticia en estos temas, los cuales plasmó en su libro. “Cuando escribo sobre algo trato de comenzar por el inicio del tema, para entender no sólo yo de qué se trata, sino también lograr que el lector lo comprenda”, aseguró.


Chilenos en conflicto
A principios de los ‘90, dos grupos de investigadores estudiaban la distancia de las supernovas. Uno en Chile y otro en EE.UU. En nuestro país, Mario Hamuy y José Maza, dos astrónomos connotados, el primero del Cerro Tololo y el segundo del Cerro Calan crearon una técnica que permitió el desarrollo posterior del descubrimiento liderado por Perlmutter y Schmidt.
Así, los investigadores chilenos se dedicaron por casi cinco años a perfeccionar lo que les permitiría, más tarde, conocer las distancias existentes en el universo.
En el libro de Panek, incluso, aparece una polémica al respecto. Esto ocurrió en 1994, cuando parte de los datos obtenidos a través de la técnica desarrollada por Hamuy y Maza fueran utilizados por el otro grupo de científicos de Harvard, encabezados por Adam Riess. La polémica comienza cuando Riess invita a Mario Hamuy a conversar sobre sus trabajos. En ese momento, el científico estadounidense se compromete a respetar la fecha de publicación del estudio de los investigadores chilenos, a cambio de que estos los ayudaran con parte de sus datos. Pero esta promesa quedó en nada, cuando los resultados de ambos estudios fueran publicados el mismo día, lo que de algún modo logró eclipsar los logrados por el trabajo de los chilenos.
Al ser consultado sobre el actuar de los astrónomos de Harvard, Panek contestó al diario La Tercera: “No quiero decir que hicieron algo mal, pero lo que hicieron estuvo al límite de la ética”.


De la pena al éxito
“El 4% del Universo” es una novela de no ficción, que cuenta el desarrollo de la historia de un hallazgo científico de proporciones insospechadas, pues las repercusiones históricas del descubrimiento de la aceleración del universo aún están en pañales. “Esto podría ser comparado con la revolución de Copérnico”, señaló el autor, quien además reconoció que el desafío de escribir este libro fue muy difícil al comienzo.
Panek aseguró que, en algún momento, el sólo hecho de preguntar sobre estas materias llegó a ser algo doloroso. Sin embargo, el resultado fue muy enriquecedor. “Mi motivación por aprender de esto nació del miedo que le tenía a la ciencia”, concluyó el investigador, quien anunció que entre sus planes está seguir el futuro de la física y estudiar el problema que se genera al enfrentar el descubrimiento de la aceleración del universo, con la teoría cuántica.
Por Karin Arqueros 
LA CIENCIA NO TIENE TODAS LAS RESPUESTAS


La gente espera demasiado de la ciencia. Existe la creencia que ya hay respuestas para todas las interrogantes. De cualquier tipo. Y eso no es cierto. Está probado que nunca sabremos todo lo que se puede conocer, aunque vamos agregando conocimientos nuevos cada minuto. Pero seguimos sin tener claro todos los dígitos decimales de “pi” (3,14159…) o todos los teoremas posibles de la geometría, ni la demostración de tantos teoremas que no se pueden demostrar siquiera si son ciertos o falsos.
Este año se cumplen 80 años desde que el matemático Kart Gödel demostró su famoso teorema de la incompletitud sobre la naturaleza de las matemáticas. Este afirma que en cualquier sistema formal de axiomas, como por ejemplo las matemáticas actuales, siempre quedan cuestiones que no pueden ser demostradas en afirmativo ni en negativo, sobre la base de los axiomas que definen el sistema. Es decir, Gödel demostró que hay problemas que no pueden ser resueltos por ningún conjunto de reglas o procedimientos. Su demostración destronó la creencia muy extendida de que las matemáticas son un sistema completo y coherente basado en fundamentos lógicos simples. Se sumó así a otras brillantes proposiciones de la física y la matemática que confirman las limitaciones del conocimiento científico.
Por el momento, los cosmólogos no conocen la naturaleza de “materia oscura” que mantiene unida a las galaxias, ni la velocidad de expansión del universo, ni cuando comenzó el universo. Por su parte, los biólogos no saben cómo surgió la vida en la Tierra, ni si hay vida en otros planetas de otros sistemas solares. La evolución misma es un hecho pero su manera de funcionamiento aún encierra profundos misterios. Nadie tiene idea cómo las moléculas orgánicas complejas son capaces de plegarse tan rápidamente para adoptar las formas que les permiten realizar sus funciones en los organismos vivos. Nadie sabe cómo surge la conciencia de la complicada estructura molecular del cerebro. Ni sabemos cómo se las arregla el cerebro para recordar ni dónde –en qué compartimiento estanco, en qué “gaveta” especial- quedan guardados celosamente esos recuerdos.
La lista de lo que no se sabe puede llenar un libro. Las preguntas sobran: ¿Cuál es la base del conocimiento?; ¿De qué forma la vida ha alcanzado la diversidad que hoy conocemos?: ¿Está el cosmos gobernado por el caos?; ¿De qué clase de materia están hechas las galaxias y los cúmulos galácticos? Y las preguntas suman y siguen: ¿Cómo se formaron los océanos y la atmósfera de la Tierra?; ¿Podría el hombre llegar a dominar el clima? Y en otro orden de cosas, ¿Cómo forma la simple célula un organismo de alta complejidad?; ¿Cuál es el papel del azar en el origen de la especie humana?; ¿Por qué la vida en la Tierra adopta la vida que adopta?


Los ambientalistas suelen rasgar vestiduras aduciendo que cada hora desaparecen de la faz de la Tierra decenas de especies –sin citar cuáles son- en circunstancias que de la flora y la fauna conocemos apenas un 20% de sus componentes. El resto, expresado en millones de especies, aún no está identificado. No pensemos solo en los elefantes, ballenas y sequoias –toda la macro flora y fauna- sino en el universo microscópico de seres que habitan los océanos y otros ecosistemas escasamente conocidos.
Isaac Asimov escribió en su autobiografía: “Creo que el conocimiento científico tiene propiedades fractales que por mucho que aprendamos, lo que queda, por pequeño que parezca, es tan infinitamente complejo como el todo por el que empezamos. Ese, creo yo, es el secreto del universo”.
Las preguntas van generando nuevas interrogantes y no hay manera de escapar de aquellas ultra definitivas: ¿Por qué hay algo en lugar de nada, y por qué ese algo está estructurado de esa manera? El filósofo británico Derek Parfit, en un ensayo de 1990 titulado “Why anything?, Why this?” (¿Por qué algo? ¿Por qué esto?), se adentra en forma brillante con la gran cuestión de por qué existe algo. Steve Hawking, por su parte, lo ha dicho de un modo menos duro: ¿Por qué el universo se toma la molestia de existir? El físico y filósofo argentino Mario Bunge agrega otras preguntas, como si faltasen: ¿Cuándo es nunca?; ¿Qué es la nada?; ¿Cómo libera la libertad?; ¿Cuánto valen los valores, o por qué son inmorales los códigos morales ajenos?


Evidentemente, estas preguntas no se podrán responder nunca, lo que no significa que carezcan de sentido emocional. El astrónomo británico John Barrow publicó en 1998 un interesante libro titulado “Impossibility. The Limits of Science and the Science of Limits” (Imposibilidad: Los límites de la ciencia y la ciencia de los límites). En su último capítulo plantea: “La idea de que algunas cosas puedan ser inalcanzables o inimaginables, provoca una explosión de calofríos entre los comentaristas científicos (y no tan científicos). Algunos lo ven como una afrenta al espíritu de la investigación humana, algo así como izar una bandera blanca ante las fuerzas de la ignorancia. Otros temen que hablar de lo imposible haga el juego a los anticientíficos, al ventilar dudas que mejor sería dejar sin decir, no fuera a ser que socavaran la percepción pública de la ciencia como una interminable historia de éxitos”.
El tema central de las preguntas sin respuesta desborda a las ciencias y penetra el ámbito de la filosofía. Precisamente el filósofo Nicholas Pescher, en su libro The Limits of Science (1984), aportó lo que según él es una prueba concluyente de la imposibilidad lógica de que la ciencia llegue a conocerlo todo. Lo que la ciencia sabe hoy es infinitesimal en comparación con lo que sabrá en los próximos diez mil años. Porque, en buenas cuentas, todavía no hemos visto (casi) nada. Aún estamos tanteando la oscuridad.
La ciencia es una búsqueda de nunca acabar porque cada pregunta que se responda genera otra(s) y de esta forma el proceso nunca tendrá fin. La vida humana tiene término, como el día, como el año. Nos arriesgamos a afirmar que todo tiene su término menos la suma del conocimiento que se multiplica no ya cada segundo sino cada nanosegundo. Pero aún así, las grandes interrogantes continuarán en el registro de la historia humana.
Prof. Sergio Prenafeta Jenkin
Universidad de Santiago de Chile 
Astrónomos amateur ayudan al equipo de vigilancia espacial de la ESA


Por primera vez, las observaciones coordinadas por el equipo de vigilancia espacial de la ESA han detectado un asteroide lo suficientemente próximo a la Tierra como para ser clasificado como una posible amenaza. Esta roca espacial fue detectada por un grupo de astrónomos aficionados, lo que destaca el gran valor de la ciencia colaborativa.
FUENTE: Agencia Europea del Espacio (ESA)


El asteroide 2011 SF108 fue descubierto por el equipo de voluntarios TOTAS (Teide Observatory Tenerife Asteroid Survey) el pasado mes de septiembre durante una campaña de observación financiada por el programa de la ESA para el Conocimiento del Medio Espacial (SSA, en su acrónimo inglés).
Esta campaña de observación, de cuatro noches de duración, utilizó el telescopio de 1 metro de apertura de la Estación de Seguimiento Óptico de la ESA en el Teide, en la isla de Tenerife.
Este no es el primer asteroide detectado en las campañas financiadas por el programa SSA, pero es el primero que entra dentro de la clasificación de ‘Objeto Próximo a la Tierra’ o NEO – un objeto cuya órbita pasa lo suficientemente cerca de la Tierra como para suponer una posible amenaza de impacto.


LAS IMÁGENES, ANALIZADAS UNA A UNA
En las observaciones realizadas por el TOTAS, el telescopio realiza observaciones automáticas de varias horas de duración en busca de asteroides, utilizando un software desarrollado por el astrónomo aficionado e ingeniero informático Matthias Busch, del Observatorio Amateur de Starkenburg, en Heppenheim, Alemania.
Sin embargo, es necesario que los astrónomos revisen una a una las imágenes captadas por el telescopio antes de confirmar el hallazgo de un nuevo asteroide.
El equipo de TOTAS está formado por 20 voluntarios, la mayoría de los cuales participó en la revisión manual de las imágenes tomadas durante la sesión de observación de la noche del 28 al 29 de septiembre.


DISTANCIA DE SEGURIDAD: 30 MILLONES DE KILÓMETROS
“Las imágenes del telescopio se distribuyen a todos los miembros del equipo para que las revisen de forma manual, por lo que cualquiera de ellos podría ser el descubridor de un nuevo asteroide”, explica Detlef Koschny, Director de las Actividades de NEOs del programa SSA. “Esta vez, le tocó la lotería a Rainer Kracht”.
“Al ser un trabajo voluntario, es muy gratificante. Cada vez que observas algo, sabes que estás participando en un esfuerzo europeo para protegernos de los peligros que suponen los asteroides”.
La órbita del asteroide 2011 SF108 no se acerca a menos de 30 millones de kilómetros de la Tierra – lo que se considera una distancia más que segura.
Este objeto es el asteroide número 46 descubierto por Kracht, un maestro de escuela jubilado que vive en Elmshorn, cerca de Hamburgo, Alemania. “De los ocho miembros del equipo que estuvimos revisando imágenes esa noche, yo tuve la suerte de ser el que descubrió el asteroide 2011 SF108”, afirma Kracht.
“Este descubrimiento no hubiera sido posible sin el excelente software desarrollado por Matthias Busch, quién también identificó este asteroide en las imágenes tomadas la segunda noche de observaciones, y quien informó del hallazgo al centro MPC de la Unión Astronómica Internacional”.
A día de hoy, se han detectado más de 8.000 objetos NEO, pero se sospecha que existen varios miles más, con un tamaño que oscila entre el metro y los varios cientos de metros de diámetro. Es muy importante detectar y seguir a estos objetos para determinar si podrían llegar a suponer una amenaza para la Tierra.


EL EQUIPO AMATEUR TOTAS SIENTA LAS BASES.
El equipo TOTAS está ayudando a definir las bases de un futuro programa europeo de búsqueda de asteroides, que podría pasar a formar parte del programa SSA de la ESA.
Un programa de este tipo utilizaría varios telescopios de 1 m de apertura para escrutar todo el cielo cada noche, lo que sin duda sería un esfuerzo mucho mayor al realizado hoy en día. Esta iniciativa podría detectar varios objetos NEO cada semana, y estaría integrada por un equipo mixto de astrónomos profesionales y amateur.
Hoy en día, sólo se realizan este tipo de campañas con carácter profesional en los Estados Unidos. La iniciativa amateur más importante de Europa es la LSSS (La Sagra Sky Survey), desarrollada por un grupo de astrónomos aficionados en el sur de España.

No hay comentarios: