Blogia
grafelbergnoticias

TECNOLOGÍA

Con Molinos de viento Alemania busca reducir dependencia del petróleo y gas Molinos de viento que flotan en altamar. La idea es que Alemania reduzca su dependencia del gas y el petróleo extranjeros

Con Molinos de viento Alemania busca reducir dependencia del petróleo y gas  Molinos de viento que flotan en altamar. La idea es que Alemania reduzca su dependencia del gas y el petróleo extranjeros

Los mares alemanes son ya parques de molinos de viento, por lo menos en la mente de entusiastas de esta alternativa energética. Una nueva técnica de torres flotantes revolucionaría el uso de la energía eólica.

 

Alemania tendrá unos 30 inmensos parques eólicos en altamar en 2030. Esta es la ambiciosa meta del Gobierno alemán, anunciada por el ministro de Obras Públicas, el socialdemócrata Wolfgang Tiefensee. La idea es que Alemania reduzca su dependencia del gas y el petróleo extranjeros.

 

 

 

Una nueva técnica que mantiene en pie las torres de los molinos de viento en pleno mar podría masificar su implementación que es, a menudo, criticada por el ruido y la cercanía a costas y playas, constituyéndose en otro  factor de contaminación visual y sonora del paisaje.

 

 

 

Molinos de viento lejos de costas y playas

 

 

 

El primer parque eólico alemán “offshore”, funciona desde 2001. Dicha estación de molinos de viento se ubica empero muy cerca de las playas, debido a que las torres tienen que ser ancladas en el fondo marino. La nueva técnica de “torres flotantes“  permitiría ahora ampliar significativamente la instalación de muchas más y más grandes estaciones en altamar.

 

 

 

El profesor Finn Gunnar Nielsen, de la empresa noruega Statoil-Hydro, presentó en Bremenhaven, en donde tiene lugar por estos días el congreso “Intensidad de viento 8”, sobre energía eólica, la novedosa idea de los molinos de viento flotantes. Nielsen no sabe mucho sobre generación de energía, pero sí es ingeniero de plataformas marinas para la extracción de petróleo y gas, lo que lo convierte en “un experto en operaciones en altamar con material pesado”, como dijo a la radio alemana Deutschlandfunk.

 

 

 

Altamar: duras condiciones atmosféricas y marinas

 

 

 

Las condiciones atmosféricas y la profundidad de las aguas lejos de las costas son incomparablemente difíciles. Y justamente allí, el mencionado consorcio noruego quiere aprovechar su experiencia para utilizar el viento en altamar. Allá en donde el mar es tan profundo que sería impracticable “sembrar” molinos de viento.

 

 

 

“La torre que sostiene el molino de viento flota sobre el agua en posición vertical. La torre se asemeja a una delgada botella de unos 100 metros de longitud sumergida en el agua y que es cada vez más delgada en la parte que sale del agua. Por lo demás, estos molinos son como cualquier otro, con un rotor e inmensas aspas”, explica Nielsen.

 

 

 

Una taza imposible de volcar

 

 

 

El cilindro, como se le llama a la torre que sostiene el molino, está lleno de material pesado por debajo del nivel del mar, mientras por encima de él está lleno de aire que sirve como motor. El principio es comparable con el de una taza redonda que baila sobre plato pero que no cae porque el impulso propio siempre la mantiene en pie, a pesar de que tambalé.

 

 

 

“Manteniendo el centro de gravedad bien bajo y el centro de flotabilidad bien alto se logra una combinación que resulta en la estabilidad”, agrega Nielsen. El punto de gravedad de la torre está ubicado muy cerca de su base mientras el centro de impulso se ubica unos 100 metros arriba. Unas características que convierten a la torre en prácticamente imposible de derribar, así el oleaje sea muy fuerte.

 

 

 

Talleres eólicos en fiordos noruegos

 

 

 

“Este tipo de molinos de viento se pueden armar en tierra y son fácilmente transportables”, asegura Nielsen. El problema es que la “quilla”, o la parte sumergida en el agua, tienen 100 metros de longitud, y es difícil encontrar puertos en aguas de tal profundidad. Por eso Nielsen recomienda realizar esos trabajos en los fiordos noruegos.

 

 

 

Otros molinos de viento, como uno desarrollado por la empresa holandesa Blue H, tienen características semejantes, pero serían menos estable que el prototipo noruego.

 

 

 

José Ospina Valencia

 

Fuente:Deutsche Welle

 

Chile es el país con mayor desarrollo tecnológico en Latinoamérica

Chile es el país con mayor desarrollo tecnológico en Latinoamérica

 

Según los resultados del último estudio del Indicador de la Sociedad de la Información (ISI) para Latinoamérica nuestro país destaca por sus avances en materia de tecnología. 03.07.2008, 18:08

 

La Tercera.com.- Según los datos entregados por el indicador ISI (Indicador de la Sociedad de la Información), Chile obtuvo la puntuación más alta de toda la región en la inserción de elementos tecnológicos como computadores, internet o servidores, obteniendo una puntuación del 5,76 de un máximo de 10.

 

Este resultado -que refleja los datos del último trimestre del 2007, demuestra que los chilenos estamos consumiendo cada vez más tecnología. Sin ir más lejos, por cada mil habitantes, 360 son usuarios de internet, 815 tienen teléfonos portátiles y 260 tienen computadores.

 

El estudio

La investigación es realizada trimestralmente por el Centro de Estudios Latinoamericanos de la Universidad de Navarra y la consultora Everis, quienes miden cómo se están comportando las sociedades en cuanto a las tecnologías de la información y las comunicaciones, como celulares, computadores, dominios de internet y el gasto en tecnología. Junto a ello, también se mide la influencia de aspectos relacionados a la sociedad, como las tasas de desempleo o el crecimiento económico.

 

En este sentido, nuestro país se vio afectado por este último punto, ya que por primera vez en cinco años tuvo un retroceso interanual de un 0,8%, que se explica por las variables de la inflación y el crecimiento del PIB.

 

En cuanto a la realidad regional, Argentina es el país que está creciendo con mayor velocidad, y pese a que recién está saliendo de un período económico negativo, el país trasandino encabezó la expansión regional en número de teléfonos móviles, superando incluso a nuestro país.

 

Además, Chile y Argentina se han transformado en los líderes en la introducción de la telefonía celular, aproximándose a cifras de países como Estados Unidos.

 

El futuro

La proyección realizada por este mismo estudio, indica que nuestro país verá mermada su puntuación debido principalmente a la inflación y a la tasa de desocupación.

 

Otro factor a considerar, es la relentización de la expansión de la telefonía móvil, debido al alto número de personas que ya tienen uno. Las cifras estimadas indican que en Chile, 858 personas -por cada mil- tendrían un móvil en su poder.

 

Pese a ello, podría existir un aumento en el gasto per cápita en tecnologías, que subiría de los cerca de 250.000 mil pesos a los 280 mil. Cifra elevada si se toma en cuenta la realidad latinoamericana, que tendría un promedio cercano a los 190 mil pesos, y baja en relación al resto del mundo, pues por ejemplo cada estadounidense gasta en promedio cerca de dos milones anuales.

 

Aún si con este panorama negativo, los datos y cifras debieran verse modificadas gracias a la puesta en marcha de la Estrategia Digital 2008-2010 que impulsa el Ministerio de Economía. Este programa ayudará a crear conectividad y acceso, usará más la tecnología en la educación y mejorará las condiciones del ambiente.

 

FUENTE:www.mouse.cl

Cine y televisión en Internet

Cine y televisión en Internet

Sony y Google preparan sendos proyectos para distribuir películas y series de televisión a través de la Red.

 

Por Álvaro Torralbo [02-07-2008]

El canal de distribución del contenido audiovisual creado por productoras cinematográficas y cadenas de televisión está viviendo un momento de cambio. Hasta ahora, el contenido creado para cine se proyectaba primero en las salas, pasado unos meses salía en DVD y se emitía por satélite o cable, y posteriormente se pasaba a la TV en abierto.

 

Internet está modificando esta cadena de distribución, añadiendo nuevas opciones y prescindiendo del soporte físico. Un ejemplo es el anuncio de la nueva iniciativa de Sony Pictures Entertainment, que acaba de revelar sus planes para distribuir por Internet la última película de Will Smith, ‘Hancock’, a los usuarios que dispongan del nuevo televisor Sony Bravia con conexión a la Red.

 

 

 

Google, por su parte, acaba de anunciar que ha alcanzado un acuerdo con Seth MacFarlene, el creador de la serie de televisión ‘Padre de Familia’, para producir una serie de cortos de dibujos animados para Internet. El buscador colgará estos episodios en su propio canal de vídeo y en YouTube (también de su propiedad).

 

En la red ya empiezan a extenderse las iniciativas de televisión online, como la plataforma Hulu.com, recientemente lanzada y fruto de la alianza entre News Corp y NBC. Este canal de televisión está financiado por la publicidad y ofrece episodios gratis de muchas series estadounidenses.

 

Fuente: www.vnunet.es

El reconocimiento facial llega por primera vez al portátil

El reconocimiento facial llega por primera vez al portátil

 06/08 - Estefanía Pérez

 

A partir de ahora tu portátil puede saber quién eres con un simple vistazo. La tecnología de reconocimiento facial llega por primera vez al portátil con el objetivo de profundizar en la usabilidad del usuario a través de un sistema de acceso a través de Webcam. Este sistema de reconocimiento ha experimentado además algunos avances importantes en los últimos meses: ya existe un software capaz de procesar una secuencia de imágenes de una persona en posición frontal y en movimiento, reconociendo la expresión de su rostro, y averiguar si se ha levantado con el pié izquierdo o si siente miedo.

 

Investigadores del Departamento de Inteligencia Artificial (DIA) de la Facultad de Informática de la Universidad Politécnica de Madrid (FIUPM), en colaboración con la Universidad Rey Juan Carlos de Madrid, han desarrollado un algoritmo que es capaz de reconocer expresiones faciales en tiempo real (procesando 30 imágenes por segundo), asignando a la persona observada una de las seis expresiones prototípicas: enfado, asco, miedo, alegría, tristeza y sorpresa.

 

El software puede aplicarse a secuencias de vídeo en situaciones realistas, permitiendo identificar la expresión facial de una persona situada frente a la pantalla de un ordenador. Aunque de momento es sólo un prototipo, el software es capaz de realizar su trabajo en un ordenador de sobremesa e incluso en un ordenador portátil.

 

Para quien no quiera esperar a utilizar el reconocimiento facial en un portátil, no tiene porqué hacerlo. La división española de Toshiba ha puesto en el mercado un nuevo ordenador portátil ligero especialmente diseñado para usuarios domésticos, el Satellite U400. Precisamente entre sus principales características se encuentra un sistema de acceso basado en reconocimiento facial del usuario a través de Webcam.

 

“Es una forma de contraseña adicional a las que ya incorpora el portátil, pero nosotros lo vemos más como una facilidad de uso. A través de este sistema el portátil te reconoce como usuario o uno de los usuarios. Dependiendo de la persona que esté enfrente el portátil te dará acceso a un perfil u otro”, explica Pablo Romero, director de marketing de Toshiba, quien cree, además, que con este sistema la informática se hace más “atractiva y moderna”.

 

El Satellite U400, con sólo 1,9 kg de peso, incorpora además puertos USB con tecnología Sleep´n Charge para cargar dispositivos sin tener que encender el equipo y seguro de rotura de pantalla. 

 

La huella dactilar como puerta de entrada

 

La huella dactilar es una característica humana totalmente individual y diferente para cada persona que se utiliza como medio de identificación. Eso la hace idónea para la activación de sistemas de seguridad.

 

Toshiba acaba de lanzar el disco duro externo portátil SecuRed, que incorpora un lector de huella dactilar para el acceso seguro a la información. También dispone de un sistema de acceso mediante contraseña basado en un potente algoritmo AES-256 e integra un motor de software que permite la encriptación de la información elevando aún más la seguridad de la misma.

 

Además, este dispositivo integra distintas tecnologías para hacerlo resistente a caídas y  derrame de líquidos. La protección del SecuRed ante agentes externos es posible debido a que ha sido rugerizado, haciéndolo resiste a derrames de líquidos y caídas. Además, incorpora un sistema de protección del disco duro que detecta las caídas y fuertes vibraciones aparcando la cabeza lectora de los platos imposibilitando que estos y la información resulten

La potencia de la supercomputación se dispara

La potencia de la supercomputación se dispara

 06/08 - Estefanía Pérez

 

La supercomputación se encuentra inmersa en una carrera imparable por elevar su potencia de cálculo, hasta el punto de que ya se ha alcanzado el petaflop o, dicho de otra manera, los mil billones de operaciones por segundo. El supercomputador que ha alcanzado semejante potencia hace honor a su nombre, el Roadrunner, es decir, el Correcaminos. Pero la sed de potencia de cálculo no se acaba ahí: el Barcelona Supercomputing Center (BSC) quiere poner en marcha en 2011 un superordenador que alcance los 10 petaflops. Y la carrera promete continuar…

 

El BSC de IBM, que ya cuenta con el supercomputador MareNostrum, tiene objetivos más ambiciosos: el MareIncógnito un superordenador cien veces más potente que el MareNostrum. El desarrollo de la nueva estrella de la computación española corre a cargo de IBM y de 40 investigadores del BSC, y cuenta con un presupuesto de 2,4 millones de euros.

 

Para entender el porqué de estas enormes necesidades de capacidad de cálculo, Francesc Subirada, director asociado del BSC, lo ilustra con un ejemplo: solo para simular el comportamiento de un avión entero en su interacción con el aire, con una variable de flujo turbulento (las moléculas de aire se mueven de forma dispersa, no lineal), el MareNostrum, que actualmente es capaz de realizar 94,21 billones de operaciones por segundo, tendría que estar trabajando 1.000 años seguidos.

 

“Los proyectos necesitan cada vez una mayor capacidad de cálculo. Por ejemplo, tenemos unos investigadores que están estudiando el origen del universo y ya ellos solos necesitarían un MareNostrum entero”, comenta Subirada, quien asegura que en la supercomputación ocurre como con los gases nobles, ya que “a medida que se van expandiendo necesitan más capacidad”.

 

En estos momentos, el MareNostrum desarrolla tres grandes proyectos en el ámbito de la empresa privada: IBM, con el cual se están desarrollando nuevos superordenadores (ámbito en el que se enmarca el MareIncógnito); Repsol, que utiliza el MareNostrum para buscar petróleo en el golfo de México; y Microsoft, que quiere preparar su software para las Workstation del futuro, que serán multiprocesadores.

 

Proyectos europeos

 

Mientras se le da tiempo de cocción a esos 10 petaflops previstos por el nuevo supercomputador que albergará Barcelona, el BSC se encuentra inmerso en varios proyectos europeos para sumar esfuerzos con otros superordenadores europeos. Bajo esta filosofía, en la primavera del año 2002 surgió la idea de acabar con la división de los recursos de supercomputación en Europa, tanto los referentes a la disponibilidad del sistema como a las aptitudes necesarias para ofrecer un soporte eficiente de supercomputación. De esta forma, se propuso crear una infraestructura distribuida de supercomputación en Europa, y fue así como en mayo de 2004, se inició el proyecto DEISA.

 

Hoy, el consorcio DEISA (en español, Red Europea Distribuida para las Aplicaciones de Supercomputación) se prolonga tres años más dentro del Séptimo Programa Marco de la Unión Europea. Desde el 1 de mayo, la continuación de este proyecto se denomina DEISA2 y pretende orientar la infraestructura europea de altas prestaciones hacia la integración de un ecosistema de supercomputación en Europa.

 

“DEISA es un consorcio que pretende crear una red de supercomputadores a nivel europeo. La idea es que distintos de estos ordenadores europeos, que cuentan con arquitecturas distintas y con especialidades y aplicaciones distintas, puedan compartir ese conocimiento”, explica Subirada.

 

Por otro lado, el incremento de la capacidad de cálculo también está inmerso en el proyecto PRACE, que pretende crear ordenadores que tengan como mínimo diez veces la capacidad de los nacionales, es decir, más de un petaflop.

 

Fuente:www.noticias.com

SUBTEL PUBLICA ESPERADO REGLAMENTO DE VOZ SOBRE INTERNET

SUBTEL PUBLICA ESPERADO REGLAMENTO DE VOZ SOBRE INTERNET

 
 
Tras tres consultas públicas abiertas y una minuciosa revisión de la Contraloría, la Subsecretaría de Telecomunicaciones publicó el pasado 14 de junio en el diario oficial el Reglamento de Servicio Público de Voz sobre Internet, que contiene los derechos y obligaciones para los concesionarios y suscriptores de esta prestación telefónica.
 
La normativa apunta a regular aquellos servicios de Voz que se prestan sobre Internet y que cumplen con las siguientes condiciones: que realicen llamados a la Red Pública Telefónica y reciban llamados desde la Red Pública Telefónica.
 
Por lo tanto, este reglamento no regula las llamadas entre usuarios de Internet, por ejemplo las que se efectúan vía MSN u otras prestaciones similares y tampoco regula servicios que permiten hacer llamados a la Red Pública, pero sin posibilidad de recibir, como ocurre con Skype out y equivalentes.
 
Con referencia a los derechos y obligaciones del concesionario, se contempla lo siguiente:
-          El servicio de voz sobre Internet se considera un Servicio Público, distinto al Servicio Público Telefónico y su prestación requiere una concesión.
-          Se establece un bloque de numeración con características ageográficas, es decir, sin importar donde el usuario esté conectado a Internet, mantiene su número (similar a la telefonía móvil).
-          El concesionario deberá informar al usuario respecto a la calidad de servicio que está prestando.
-          El servicio no está sujeto al uso de multiportador para las comunicaciones de larga distancia.
-          No tiene guía telefónica
-          Podrán interconectarse con la red pública telefónica directa o indirectamente usando medios propios o de terceros, asumiendo el costo de las interconexiones
-          Está sujeto a la interceptación telefónica conforme a las normativas de seguridad pública establecidas por ley.
-          La implementación del acceso a los servicios de emergencia es obligatoria y permanente.
-          Las responsabilidades del concesionario del servicio, se separan de las responsabilidades del prestador del servicio de banda ancha y del proveedor del acceso a Internet (ISP).
-          Están sujetos a cumplir el Reglamento de Resolución de Reclamos.
-          Están sujetos a la obligación de entregar una Cuenta Única.
 
 
Este marco legal, por tanto, permitirá a los usuarios de Internet acceder a servicios de comunicación desde y hacia la red  pública telefónica, teniendo el derecho a reclamar por mal servicio, a recibir una cuenta detallada, a llamar en todo momento a números de emergencia -aún cuando el servicio esté suspendido por no pago- y a poner término al contrato de suministro en forma unilateral en un plazo máximo de 10 días, entre otros derechos.
 
El Subsecretario de Telecomunicaciones, Pablo Bello, calificó este paso como un avance regulatorio "que nos permite cumplir con uno de nuestros compromisos, que es promover la incorporación de los avances tecnológicos necesarios para que los consumidores puedan disponer de más y mejores servicios de telecomunicaciones".
 
El titular de la Subtel destacó que esta regulación es liviana, "pero enfocada en otorgar a los usuarios derechos básicos que ya tienen los clientes de las compañías telefónicas tradicionales, como poder reclamar y recibir respuesta en un plazo legal; tener acceso permanente a números de emergencia como Carabineros, Bomberos y ambulancias; recibir una cuenta con el detalle de los cargos y, sobre todo, poder suspender el contrato cuando quieran sin trabas ni barreras de salida arbitrarias".
 
En otro aspecto, Pablo Bello, resaltó que el paso siguiente es aprobar en el Congreso la ley de neutralidad de red que garantizará entre otras materias, que las prestaciones y aplicaciones sobre Internet como las que define este reglamento, por ejemplo, no puedan ser bloqueadas como medida anticompetitiva.
 

Por culpa de Los Bidis o códigos bidimensionales,el código de barra tiene sus días contados.

Llega la “Versión De Luxe” de los códigos de barras

- Roser Vilar

 

Los códigos bidimensionales (Bidis) son la última tecnología para marketing móvil que permite mejorar las políticas comerciales y de comunicación de las organizaciones. Los Bidis pueden ser leídos y procesados a gran velocidad por distintos dispositivos y ya han popularizado su uso en Japón y Europa. Esta nueva tecnología ha conseguido digitalizar los cupones promocionales, tickets o entradas de cine, conciertos, eventos y las tarjetas de fidelización. Uno de los puntos en los que destaca esta nueva tecnología es que, según los expertos, resulta prácticamente imposible de falsificar, dado que cada Bidi es diferente. De hecho se calcula que harían falta más de 900 años para conseguir duplicar uno fraudulentamente.

 

Los códigos de barras tienen los días contados, o al menos eso parece a tenor del número de nuevas tecnologías que quieren ocupar su lugar en el futuro. Si en otras ocasiones hemos hablado de la tecnología de radiofrecuencia, ahora le toca el turno a los Bidis, unos códigos bidimensionales conocidos como la “versión De Luxe” del código de barras. Su ventaja más evidente es que se puede leer en dos direcciones, y almacenar muchas más información, con lo cual la empresa que los use podrá recopilar muchos más datos de una manera instantánea.

 

Esta también es una posibilidad de la RFID, pero según los expertos los Bidis tienen una utilización más sencilla para los usuarios, mientras que las etiquetas RFID son más adecuadas en procesos de almacenaje o logística.

 

Lo único necesario para poder instalar esta tecnología es un lector que permita validarlos. Estos lectores se instalan de forma sencilla y leen, reconocen y procesan estos códigos tanto si el soporte es papel, tarjeta o soportes digitales como la pantalla de un móvil.

 

Para el campo del marketing publicitario, esta tecnología resulta útil para las campañas de marketing “one to one” ya que se puede hacer un seguimiento de la información recopilada por el Bidi en tiempo real. Esto significa que podemos saber quién ha empleado el código, donde y cuando lo ha usado y a través de qué canal lo ha hecho. También permite recopilar datos sobre el usuario, con lo que se consigue una base de datos fiable y de manera instantánea a la que acudir para próximas promociones.

 

Reino Unido, gran aficionado a los Bidis

 

Los códigos bidimensionales se han convertido en el sistema de canje de cupones de los principales rotativos de Reino Unido, que han sustituido las interminables tiras de cupones descuento por una tarjeta de plástico con un Bidi incorporado. Por un lado, los periódicos ahorran tiempo y dinero porque ya no tienen que imprimir en soporte papel todos los vales descuento para sus lectores, y para el cliente también resulta más cómodo porque sólo necesita mostrar la tarjeta para que el vendedor le entregue su ejemplar. Un total de siete cabeceras, entre las que se encuentra The Daily Telegraph, The Guardian y Daily Mail, han generado 23 millones de códigos bidimensionales.

 

Aunque los Bidis presentan muchas opciones en su aplicación, en España han sido las empresas dirigidas al consumidor las que primero lo han implantado. Campañas de productos de L’Oreal o Clinique emplean estos códigos para lanzar una promoción y de ésta manera, poder estudiar y generar estadísticas rápidamente sobre sus clientes y sus comportamientos.

 

Pero no sólo se emplean de cara a un producto y un consumidor. Muchas empresas están adoptando esta tecnología a la hora de preparar un evento. En vez de enviar la invitación física, se hace llegar un Bidi al teléfono móvil o correo electrónico del invitado, que solo tendrá que pasarlo por un lector para que el sistema le reconozca y le permita el acceso. De esta manera, empresas que organizan acontecimientos que dan cabida a un número importante de invitados, se aseguran que no duplican las entradas a la vez que le dan un aspecto más distinguido al acto.

 fuente:www.noticias.com

Phoenix en Marte

Phoenix en Marte

Luego de un descenso impecable, la sonda Phoenix, de la NASA, comenzó a enviar a la Tierra imágenes de Marte, tomadas con una cámara alemana.

 

 

Las fotos muestran un valle en el polo norte de Marte, bajo el cual se supone la existencia de una capa de hielo. Los científicos se han propuesto investigar si en el planeta rojo existe o existió alguna vez alguna forma de vida.

 

 

Con aplausos y gritos de júbilo celebraron los científicos en la estación terrestre de control en Pasadena, EE. UU., el logrado descenso, que tuvo lugar casi exactamente en el lugar planeado. El descenso es todo un desafío. La mitad de las más de una docena de misiones a Marte hasta ahora han terminado mal, desde que la URSS comenzara con ellas a comienzos de los años 60.

 

 

 

Luego de un viaje de nueve meses, Phoenix entró en la atmósfera de Marte a una velocidad de 21.000 kilómetros por hora. Siete minutos más tarde se había posado levemente sobre la superficie del planeta. Certeza de ello tuvieron los científicos cuando, 15 minutos más tarde, la primera señal de Phoenix alcanzó la Tierra, tras salvar los 679 millones de kilómetros que separan ambos planetas.

 

 

 

Desaceleración y descenso

 

 

 

Particularmente problemática fue la desaceleración de la sonda antes del descenso. Primero se encendieron cohetes de freno, luego se abrió un paracaídas, con lo que la Phoenix se desaceleró hasta alcanzar una velocidad de ocho kilómetros por hora y posarse luego sobre la superficie marciana.

 

 

 

 

La sonda de 350 kilos de peso está dotada de instrumentos que analizarán durante tres meses la composición del hielo en Marte. Phoenix tiene un brazo robot de 2,35 metros de largo, que puede taladrar un agujero en el suelo de un metro de profundidad, donde se supone la existencia del hielo.

 

 

 

La primera prueba está planeada para el martes (27.05.08). Las muestras serán analizadas allí mismo geológica y químicamente, por ejemplo para determinar si existen carbonos, elementos básicos para la vida. Los instrumentos deberán soportar temperaturas de 33 a 73 grados bajo cero. El abastecimiento energético proviene de células solares.

 

 

 

¿Dónde están los marcianos?

 

 

 

Uno de los instrumentos claves de la sonda es una cámara de precisión hecha por el Instituto Max Planck de Alemania. La cámara desempeñará un papel central en la búsqueda de agua helada debajo de la superficie marciana.

 

 

 

Formaciones geológicas permiten deducir que en Marte fluyeron en algún tiempo grandes ríos. La cámara tomará fotos a color de las muestras de material que extraiga el brazo robot.

 

 

 

La cámara es un multitalento y la primera en el espacio cuyo foco es variable. Puede realizar tanto tomas  del suelo con una resolución de hasta 50 micrómetros (la cuarta parte del diámetro de un cabello) hasta fotos de los alrededores e incluso panorámicas del paisaje marciano. La cámara funciona hasta una temperatura de hasta 120 grados bajo cero y necesita muy poca corriente para poder funcionar. Una verdadera sorpresa sería, sin embargo, que transmitiera a la Tierra fotos de marcianos. Con ello no cuentan los científicos en los centros de control.

 

 

 

Pablo Kummetz

 

 

 

 

Fuente: DW-WORLD