domingo, 30 de noviembre de 2014

El Rey: «No podemos permitirnos el lujo de preparar científicos para que salgan al extranjero sin retorno»

El Rey: «No podemos permitirnos el lujo de preparar científicos para que salgan al extranjero sin retorno»

Don Felipe y Doña Letizia, en el 75 aniversario del CSIC

El Rey ha advertido este lunes contra el éxodo de científicos que se está produciendo en España como consecuencia de la crisis económica y ha pedido a todos los implicados, poderes públicos y empresas, que hagan «todo lo posible» para favorecer la ciencia española.
Don Felipe se refirió especialmente a los jóvenes científicos: «No podemos permitirnos el lujo de prepararlos para que salgan al extranjero sin retorno posible», afirmó. El Rey explicó que «es bueno» fomentar las relaciones internacionales de los científicos, pero «de ningún modo lo es que ésta deba ser consecuencia de una tasa de paro inaceptable».
Añadió el Monarca que esa tasa de paro perjudica tanto a los jóvenes que «no ven salida en su patria», como «a nuestra sociedad entera, por quedar desasistida de muchos de sus mejores activos».
El Rey hizo estas afirmaciones durante la conmemoración del 75 aniversario del CSIC, «la Casa de la Ciencia», acto al que asistió acompañado por Doña Letizia. Don Felipe es uno de los Reyes de España más apasionado por la ciencia, pues está convencido de que su avance redunda en progreso para toda la sociedad. Por ello, es uno de los Monarcas que mejor conoce los proyectos y las investigaciones de los científicos pero también los problemas y las dificultades con las que se encuentran.

España, entre los diez primeros

«Frente a percepciones o estereotipos erróneos y negativos -aclaró-, está la realidad de que España se encuentra entre los diez primeros puestos del mundo en producción científica. Esto hay que saberlo, y decirlo mucho y bien alto». Unos resultados que, según Don Felipe, «son posibles gracias a la suma de todos».
Durante su intervención, el Rey recordó su «experiencia personal» con el CSIC. «No son pocas las horas que he pasado en esta casa dialogando con sus equipos directivos e investigadores, conociendo de primera mano la realidad del Consejo, sus proyectos, sus éxitos y sus preocupaciones. He visitado también varios de sus centros e institutos y he comprobado el espíritu y la intensidad con los que se trabaja».
«Sé que el CSIC ha debido afrontar también dificultades por la crisis económica, que demanda una estructura de gestión más moderna y que, como toda la ciencia española, precisa de un empuje renovado», afirmó y advirtió ante «un lapso generacional que nos devolvería a un retraso difícil de remontar».
Además del Rey, intervinieron en el acto el ministro de Economía, Luis de Guindos; el presidente del CSIC, Emilio Lora-Tamayo, el expresidente José Elguero y el presidente del CNRS, Alain Fuchs.
Fuente:

Los raros diamantes llegados en un meteorito

Los raros diamantes llegados en un meteorito

De una dureza excepcional, pueden ser un material prometedor para la industria

Desde hace 50 años, los científicos han creído que los impactos de meteoritos y asteroides en nuestro planeta eran capaces de crear una nueva forma de diamante, el lonsdaleíta, también llamado diamante hexagonal. Fue hallado por primera vez en 1967 en el cráter Cañón del Diablo en Arizona (EE.UU.), formado por el gran meteorito del mismo nombre. Desde entonces, el lonsdaleíta ha sido ampliamente utilizado por la comunidad científica como un indicador de antiguos impactos de asteroides en la Tierra, incluidos los vinculados a la extinciones en masa. Además, se ha pensado que tiene propiedades mecánicas superiores a las del diamante ordinario, lo que le daba un alto potencial en la industria.
Todo esto suscitaba un gran interés en el mineral, aunque nunca han sido encontrados o sintetizados cristales puros del mismo, lo que suponía un enigma. Un grupo de científicos de la Universidad Estatal de Arizona (ASU) ha encontrado una explicación para ello. Según explican en la revista Nature Communications, el lonsdaleíta es, en realidad, un diamante ordinario, pero con una forma estructuralmente desordenada.
«El llamado lonsdaleíta tiene en realidad la larga forma cúbica familiar del diamante, pero está lleno de defectos», dice Péter Németh, investigador de ASU. Estos pueden ocurrir, explica, debido a golpes, deformación plástica o un crecimiento de cristales no equilibrado.
Para llegar a esa conclusión, los científicos examinaron los diamantes del Cañón del Diablo en laboratorio. Utilizando microscopios electrónicos avanzados en el Centro para la Ciencia del Estado Sólido de ASU, el equipo descubrió, tanto en muestras del Cañón del Diablo y como en muestras sintéticas, nuevos tipos de diamantes gemelos, una red cristalina en la que impera la simetría, una complejidad estructural a escala nanométrica. Estos dan lugar a las características atribuidas a lonsdaleíta.

Defectos

«La mayoría de los cristales tienen estructuras que se repiten regularmente, al igual que los ladrillos en un muro bien construido», apunta el científico Peter Buseck, que también ha participado en el estudio. Sin embargo, pueden ocurrir interrupciones en la regularidad, y estas son llamadas defectos. «Los defectos se entremezclan con la estructura normal de los diamantes, como si la pared tuviera medio ladrillo o más ladrillos o una fila de ladrillos que se desplazan ligeramente hacia un lado u otro».
El resultado es que el llamado lonsdaleíta tiene la misma forma cúbica regular del diamante, pero ha sido sometido a golpes o presiones que causaron defectos dentro de la estructura cristalina.
Pero defectuoso no quiere decir inútil. Aunque son diamantes muy pequeños, casi como arenilla, el nuevo descubrimiento sugiere también que la complejidad estructural observada en los diamantes del Cañón del Diablo podría tener propiedades mecánicas interesantes. Tienen una dureza excepcional, más que los que se utilizan en joyería, y por lo tanto, grandes perspectivas como nuevo material para la industria
El cráter de Popigái, en Siberia, podría constituir la mayor reserva mundial de diamantes de este tipo para uso industrial. El agujero, de unos cien kilómetros de diámetro, se formó por la colisión de un meteorito hace unos 35 millones de años.

 Fuente:

Más cerca de la clonación del mamut que rezuma sangre

Más cerca de la clonación del mamut que rezuma sangre 

El ejemplar mejor conservado del mundo es una hembra de 28.000 años hallada en Siberia con carne tan fresca que podría contener ADN intacto

El mamut «Buttercup»
La posibilidad de traer de nuevo a la vida a un mamut, una especie extinta hace 10.000 años, o al menos, crear una quimera que se le parezca, está más cerca gracias al descubrimiento en la isla de Liajovski, en la costa del noreste de Rusia, del especimen mejor conservado que jamás haya sido encontrado. La autopsia del mamut de 28.000 años de edad (en un principio se creyó que era mucho mas antiguo, de 40.000 años) ha revelado la existencia de carne en un estado sorprendentemente fresco que podría contener ADN intacto suficiente para hacer posible la clonación.
Según informa la web del Museo de Historia Natural de Londres, los científicos todavía llevan a cabo pruebas en todo el cuerpo del mamut para comprobar si pueden obtener células que contengan el genoma completo, el código genético necesario para construir un organismo.
El mamut, apodado «Buttercup», fue descubierto en 2013 oculto en el permafrost. La carne estaba muy bien conservada y, para gran sorpresa de todos, rezumaba un líquido rojo oscuro cuando los científicos la cortaron. La noticia dio la vuelta al mundo. Una autopsia realizada por la firma surcoreana Sooam Biotech Research Foundation y en la que ha participado Tori Herridge, paleobióloga del museo británico, entre otros científicos, confirmó que ese líquido era sangre.
«Como paleontólogo, normalmente tiene que imaginar a los animales extintos con los que trabajas -dice Herridge-, así que encontrarme cara a cara con un mamut y sentir el resbaladizo, húmedo y, francamente, bastante maloliente hígado, cuenta como una de las experiencias más increíbles de mi vida».
La sangre no fue el único hallazgo notable de la autopsia. Los análisis de los colmillos del mamut revelaron que era una hembra que había pasado por al menos ocho partos exitosos.
Las tasas de crecimiento del colmillo dependen de si la hembra está embarazada o en período de lactancia, y por los colmillos de «Buttercup», el equipo fue capaz de saber que por lo menos una de sus crías había muerto.
El análisis de sus dientes muestra que «Buttercup» murió a los cincuenta años. Los dientes molares de mamuts y elefantes, que están estrechamente relacionados, son reemplazados seis veces a lo largo de sus vidas. Una vez que el último conjunto se va desgastando, el animal generalmente muere de hambre.
Sin embargo, esta mamut llegó al final antes de tiempo de una forma trágica al quedar atrapada en una turbera y ser devorada viva por los depredadores. A pesar de su brutal muerte, el animal quedó increíblemente bien conservado, por un medio ambiente libre de oxígeno gracias a la turbera y el proceso de congelación.
«La información obtenida de la autopsia de «Buttercup» acerca de su vida y muerte, y los descubrimientos futuros que vendrán de los análisis de sus músculos y órganos internos, se sumarán a nuestra comprensión de estas magníficas bestias de la Edad de Hielo», dice Herridge.

Un debate ético

Aunque ahora estamos más cerca de convertir en realidad resucitar a un mamut, Herridge cree que quizás no es una buena idea. «Dudo de que haya muchas personas en el mundo a las que les gustaría ver un mamut lanudo en la vida real tanto como a mí. Y sin embargo, creo que la clonación sería éticamente dudosa», escribió en un artículo para el diario británico The Guardian esta semana.
Una de las principales objeciones a la clonación del mamut es el hecho de que se necesitarían elefantes asiáticos, en peligro de extinción, para dar a luz un bebé mamut vivo. Y es probable que haga falta experimentar con muchos ejemplares antes del primer nacimiento exitoso.
«¿El beneficio potencial para la humanidad de la clonación de un mamut es mayor que el sufrimiento que una madre de alquiler de elefante asiático podría experimentar? Todavía tengo que escuchar un argumento convincente para eso», apuntaba el investigador. «Así que, ¿por qué deberíamos clonar un mamut? ¿Porque sería genial ver a uno? Me temo que eso no es suficiente», añadía.
Además, muchos investigadores sostienen que el resultado no sería un mamut clonado, sino un trabajo de ingeniería genética que, como mucho, daría paso a una especie de quimera relacionada con el animal extinto. 

Fuente:

 

La mitad de las estrellas del Universo, ¿fuera de las galaxias?

La mitad de las estrellas del Universo, ¿fuera de las galaxias?

 

Si el hallazgo se confirma, se habría resuelto el problema de la «materia ordinaria perdida», una cuestión que obsesiona a los astrónomos desde hace décadas

Un equipo de investigadores del Caltech acaba de sugerir la extraordinaria posibilidad de que la mitad de las estrellas del Universo podrían no estar dentro de las galaxias, sino fuera de ellas, en forma de estrellas solitarias. Si el hallazgo se confirma, se habría resuelto el problema de la "materia ordinaria perdida" en el Universo, una cuestión que obsesiona a los astrónomos desde hace décadas. El estudio se ha publicado recientemente en Science.
Debido a que la luz procedente de las estrellas solitarias es tan debil, su detección ha resultado imposible hasta el momento. Sencillamente, nadie sabía que estaban ahí, aunque los cosmólogos llevan mucho tiempo sospechando que "ahí fuera" podría haber mucho más de lo que parece. Ahora, y utilizando una nueva técnica que permite distinguir a estos "vagabundos estelares", los investigadores han descubierto una enorme cantidad de ellos. Tantos, que podrían incluso resolver el misterio de la "materia ordinaria perdida".
Como todo astrónomo sabe muy bien, no se ha conseguido detectar suficiente masa como para explicar por qué el Universo se mantiene unido. Y la mayor parte de la que falta está constituida por materia oscura, esa "otra clase" de materia que no emite radiación alguna y que, por lo tanto, no puede ser detectada directamente por nuestros instrumentos. Pero incluso cuando se trata de materia ordinaria (la que sí podemos ver formando estrellas y galaxias), las cuentas no se equilibran.
De hecho, y aunque los cálculos indican que la materia ordinaria supone cerca de un 5% de la masa total del Universo (la materia oscura supone otro 23%), los astrónomos solo han podido ver la suficiente para dar cuenta del 2,5%.
Una diferencia importante y que es la base del problema de "la materia ordinaria perdida", a no confundir con el misterio de la materia oscura. En efecto, hagamos lo que hagamos, la materia oscura nunca podrá ser detectada por un telescopio (porque no emite luz), pero sí que podríamos ver la materia ordinaria perdida, si sabemos dónde mirar.

Cadáveres estelares

Los astrónomos han intentado comprender desde hace mucho dónde se esconde toda esa materia ordinaria perdida. Algunos, por ejemplo, creen que podría ocultarse dentro de los agujeros negros. O que podría existir en forma de cadáveres estelares que ya no brillan y que los instrumentos no detectan. Ni siquiera los barridos más detallados del espacio llevados a cabo con el telescopio espacial Hubble y otros grandes intrumentos han conseguido revelar dónde se encuentra toda esta materia "extra".
Lo cual llevó a los astrónomos del Caltech a preguntarse si apuntar los telescopios hacia las grandes fuentes luminosas, como son las galaxias, es la mejor manera de dar con ella. ¿Y si toda esa materia no estuviera dentro de las galaxias, sino fuera de ellas?
Para averiguarlo, el equipo diseñó un nuevo experimento llamado CIBER (Cosmic Infrared Background Experiment) para hacer frente al problema desde una perspectiva totalmente distinta, que consistía no en medir la luz de puntos concretos, sino toda la que provenía de una porción determinada de cielo. De esa forma, incluso las fuentes luminosas más débiles y difusas, que no pueden verse de forma individual, podrían ser detectadas en masa. Sería algo así como averiguar el número de espectadores en un estadio de fútbol basándose en el rugido de la multitud en lugar de ir contándolos de forma individual.
Evidentemente, esa clase de medidas no podían hacerse desde la Tierra, ya que la atmósfera arruinaría cualquier tipo de observación. Y tampoco los telescopios espaciales resultaban adecuados, ya que sus campos de visión son demasiado pequeños. "El campo de visión del Hubble es como un pequeño sello de correos -afirma Michael Zemcov, director de la investigación- mientras que CIBER tiene un campo que es veinte veces mayor que la luna llena".
Para tomar una foto con una exposición lo suficientemente larga, el equipo cargó sus instrumentos en un cohete y los disparó a 300 km de altura, bien lejos de la atmósfera. Después, cuando el cohete empezó a caer hacia la Tierra, una cámara tomó una imagen con una exposición de siete minutos, compartiendo la luz recogida con dos espectrómetros que medían su intensidad en diferentes bandas de color del infrarrojo.

Fantasmal resplandor

La medición de CIBER representaba la luz de millones de galaxias a la vez. Después, los investigadores eliminaron toda la luz que procedía de galaxias conocidas, dejando solo la que venía del espacio teóricamente vacío que hay entre ellas. Y hallaron que ese espacio entre galaxias no estaba del todo oscuro, sino que emitía un débil y fantasmal resplandor de fondo que no tenía explicación conocida.
La única solución posible era que esa luz extra procedía de estrellas que se encuentran fuera de las galaxias. Una luz demasiado debil como para distinguir esas estrellas de forma individual, pero suficiente para que CIBER detectara sus emisiones luminosas combinadas.
¿Y cómo llegaron hasta allí todas esas estrellas? Se sabe que las estrellas nacen siempre dentro de las galaxias, pero también se sabe desde hace décadas que cuando dos galaxias colisionan, muchas estrellas reciben un "golpe gravitatorio" que las expulsa del conjunto.
Para Zemcov, si esas estrellas tuvieran planetas y en ellos hubiera vida inteligente "se encontrarían muy solos. Su cielo nocturno sería profundamente negro y oscuro".
¿Pueden estas estrellas solitarias recién descubiertas aportar el 2,5 % de materia ordinaria que faltaba por observar para equilibrar las cuentas? Los investigadores creen que sí.
De hecho, los resultados de CIBER sugieren que más del 50% de las estrellas que existen podrían estar fuera de las galaxias, lo que equilibraría las cosas definitivamente. Pero son necesarios más estudios para saber si este nuevo "filón" de materia ordinaria recién hallado en el Universo es suficiente, o no, para resolver el problema de la materia ordinaria perdida.

Fuente:

Un guante, tornillos y 70.000 gotas radiactivas: esta basura flota en el espacio

Un guante, tornillos y 70.000 gotas radiactivas: esta basura flota en el espacio

Más de 700.000 objetos de entre uno y 10 cm de diámetro orbitan la Tierra a gran velocidad, un auténtico peligro para naves y satélites

Aunque la basura espacial no representa un peligro para nuestro planeta, sí lo es para aquellos seres humanos que viajan al espacio exterior y para los artefactos y naves que llevamos ahí arriba. A medida que pasa el tiempo, ese riesgo va en aumento de forma exponencial. La basura o chatarra espacial son los desechos de todas las misiones espaciales que han salido de la Tierra hacia otros planetas y también aquellos restos de satélites de experimentos o de explosiones que permanecen en órbita alrededor de la Tierra. La basura espacial contiene de todo: tuercas, tornillos, 70.000 gotas radiactivas procedentes de combustible nuclear de misiones soviéticas, el guante del astronauta Edward White, perdido en 1965, viajando a una velocidad de 28.000 km/h... Si el guante llegara a impactar con la escafandra de un astronauta, la haría polvo. Eso sí que es un verdadero guantazo.
El satélite Vanguard I, lanzado por Estados Unidos en 1958 y operativo hasta 1964 lleva medio siglo sin control y lo convierte en el objeto artificial inactivo más antiguo alrededor de nuestro planeta. Seguirá dando vueltas durante al menos 200 años.
Se han destruido satélites mediante impacto de misiles como ocurrió el 11 de enero de 2007, cuando el ejército de China lanzó uno de ellos al satélite meteorológico Fengyun-1C. Desperdigó por el espacio 150.000 fragmentos de chatarra de más de un centímetro, de los cuales unos 3.000 de ellos tenían más 6 cm. Este suceso es el que más basura espacial ha generado.

Cuánta basura espacial hay

Se ha calculado que orbitan nuestro planeta más de 700.000 objetos de entre 1 y 10 cm de diámetro (algunos científicos hablan de muchos millones), que podrían ser de poca importancia debido a su escaso tamaño, pero el problema no es el tamaño si no la velocidad a la que se desplazan y que es de decenas de miles de km/h. La Estación Espacial Internacional (ISS) evoluciona en su órbita a 27.743 km/h. Un pequeño cuerpo de entre 1 y 10 cm, podría ocasionar daños gravísimos a cualquier nave espacial.
Los objetos mayores de 10 cm pueden ser localizados desde la Tierra con radares y telescopios, el resto no y los pequeños, precisamente por no verlos, son los más peligrosos, capaces de destrozar o hacer graves daños a las naves. Tengamos en cuenta que un cuerpo del tamaño de 1 cm (como una canica) a “solo” 10.000 km/h, libera tanta energía en el impacto como una granada de mano.
Más de 20.000 objetos con un tamaño mayor a 10 cm flotan alrededor de la Tierra. La ISS, que es la mayor nave construida por el hombre, tan grande como un campo de fútbol (100 x 100 m), quedaría completamente destruida al toparse con desechos superiores a los 10 cm. La energía que se liberaría sería enorme, y el desastre, total.
Ya de hecho, los astronautas de la Estación Espacial Internacional, se vieron en serios apuros cuando un grupo de desechos pasó a solo 250 m de ellos. Los seis astronautas se tuvieron que refugiar en dos naves rusas Soyuz, acopladas a la Estación, por si era necesaria la evacuación. En 2009 el satélite de telecomunicaciones estadounidense Iridium 33, que estaba activo y a una altura de 776 km, debería haber pasado según los cálculos a 584 metros del satélite militar ruso Kosmos 2251, fuera de servicio desde 1995, pero los cálculos fallaron y los satélites chocaron dejando 2.000 fragmentos en el espacio de más de 10 cm y cientos de miles de restos más pequeños.

El efecto Kessler

La basura espacial cuesta a los operadores europeos unos 200 millones de euros al año, por daños en los satélites o por los desvíos que estas naves deben hacer para no encontrarse con estos escombros. Ello conlleva un gasto de combustible adicional y la vida útil de los mismos disminuye al agotarse antes el combustible y no poder hacer las maniobras correctas para estabilizarse en una determinada órbita.
La preocupación de las agencias espaciales por el aumento de la basura espacial va en aumento. Tengamos en cuenta que al incrementarse ésta, las posibilidades de colisión entre los escombros espaciales también aumenta. Cuando dos objetos, por pequeños se sean, se encuentran a decenas de miles de km/h se produce un efecto multiplicador de ambos cuerpos, esparciendo decenas o cientos de fragmento por el espacio, alcanzando diversas órbitas. Todos estos fragmentos podrían colisionar entre ellos, aumentando el número a miles. Esto es algo que se denomina el síndrome de Kessler.
Un encuentro entre dos grandes satélites o entre un satélite y la estación espacial dejaría tanta “metralla”, que una parte de las órbitas bajas que emplean muchos satélites, quedaría anulada para el ingreso en ellas de nuevos satélites. Sería inviable, por peligroso, utilizar dichas órbitas.

Cómo limpiar

No se conoce en la actualidad ningún método eficaz y económico para poder limpiar la basura espacial. Aquellos desechos que están más bajos de 500 km de altura podrían deshacerse en su entrada a la atmósfera cuando estos rozaran con las capas más altas. Pero una limpieza natural de este tipo de las órbitas contaminadas más bajas podría llevar cientos de años.
Otra posibilidad es detectar la basura con radares y enviar una nave, tipo camión basura, para recogerla, pero el coste sería enorme.
Desde hace unos años a esta fecha, una de las formas de no aumentar la basura espacial es la reentrada en la atmósfera de todos los satélites que dejan de ser útiles. Una vez que entra en nuestra atmósfera y a las velocidades que lo hacen, se queman y se destruyen, con lo que ayudan a no contaminar más el espacio exterior.
Se intenta hacer realidad un programa que debería contar con un potente rayo láser, que dirigido hacia un objeto en rumbo de colisión con alguna nave y tras impactar el rayo sobre él, desviarlo de su órbita para pasarlo a otra o expulsarlo de la atracción gravitatoria de la Tierra, para ser lanzado a las profundidades del espacio. Pero todavía se desconoce si el proyecto se puede desarrollar ni cuándo va a ver la luz. La puesta en funcionamiento del mismo viene de la mano de la empresa australiana Electro OpticSystems.
Miguel Gilarte Fernández es el Director del Observatorio Astronómico de Almadén de la Plata (Sevilla) y Presidente de la Asociación Astronómica de España.
El Observatorio Astronómico de Almadén de la Plata es el mayor centro de divulgación de la astronomía en España. Está abierto para todo el público, que podrá mirar por sus telescopios y utilizarlos, además de desarrollarse gran cantidad de actividades. Zona de turismo estelar. 

Fuentes:

 

El cometa Siding Spring ha cambiado la atmósfera de Marte

El cometa Siding Spring ha cambiado la atmósfera de Marte

Dejó una tormenta de partículas a su paso por el Planeta rojo

La tormenta de partículas provocada por el paso cercano del cometa Siding Spring "literalmente ha cambiado la química" de la atmósfera superior de Marte.
Procedente de la Nube de Oort, este cometa pasó el 19 de octubre a sólo 135.000 kilómetros de Marte, lo que permitió una oportunidad única de estudio para la flota de naves orbitales y robots en superficie desplegados en el Planeta rojo
"Creemos que este tipo de evento se produce cada ocho millones de años", ha dicho Jim Green, director de la División de Ciencias Planetarias de la NASA, en un foro sobre los hallazgos científicos del sobrevuelo del cometa.
La Nube de Oort es una zona en el extremo más lejano del sistema solar, a 50.000 unidades astronómicas (UA). La zona está llena de objetos de más de mil millones de años, que contienen restos de la formación del Sistema Solar. De vez en cuando, la órbita de uno de estos objetos se interrumpe, forzándole a entrar en el sistema solar interior. Llamados "cometas de período largo", estos objetos pueden tardar miles de años en dar la vuelta al Sol.
"El cometa Siding Spring nos sorprendió", asegura Green. "Modelamos de forma extensiva el ambiente del polvo del cometa, y no pensábamos que causase problemas operativos a nuestras naves en Marte. Sin embargo, las agencias espaciales decidieron modificar las trayectorias de sus naves para refugiarlas detrás del Planeta rojo durante el evento. Después de observar cómo el polvo se estrelló contra la atmósfera superior, me hace muy feliz que se tomase aquella decisión. Realmente creo que ocultarlas las salvó".
Al abrigo de la estela de escombros, los instrumentos de las naves espaciales comenzaron a recoger datos acerca de la composición fundamental del cometa y sus efectos sobre la atmósfera de Marte.

Miles de estrellas fugaces

"El polvo del cometa se estrelló en la atmósfera superior, creando una capa ionosférica masiva y densa y literalmente cambió la química de la atmósfera superior", señala Green. Además de añadir una nueva capa de iones a la atmósfera de Marte, el exceso de velocidad del cometa provocó una lluvia de meteoros, con miles de estrellas fugaces por hora.
Nick Schneider, responsable del espectrógrafo ultravioleta de la nave MAVEN, ha explicado que se detectaron ocho tipos diferentes de iones metálicos en el polvo de cometa: sodio, magnesio, potasio, cromo, manganeso, hierro, níquel y zinc.
Aunque el paso del cometa fue fugaz, su impacto podría tener efectos a largo plazo en el planeta. Cuando el polvo se estrelló en la atmósfera, produjo metales vaporizados. Finalmente, esos metales revirtieron al polvo en un proceso conocido como humo meteórico. La introducción de todo este nuevo polvo a la atmósfera puede producir nubes de gran altitud por encima de la superficie del planeta y podría afectar a la interacción con la luz del Sol. Por otra parte, la química de la atmósfera puede que haya quedado permanentemente alterada.
El interés en examinar las propiedades del polvo del cometa no termina con los efectos en Marte. "Creemos que los cometas se formaron mucho antes que la Tierra", apunta Green. El estudio de Siding Spring puede ofrecer una perspectiva del contenido de la nube que formó el Sistema Solar.
 
Fuente:

 

PlayStation cumple 20 años y la recordamos como merece

PlayStation cumple 20 años y la recordamos como merece

PlayStation cumple 20 años y la recordamos como merece
El próximo día 3 de diciembre PlayStation cumple 20 años y para celebrarlo hemos querido hacer este especial, en el que rendiremos el homenaje que merece a la que fue la primera consola de Sony, y también uno de los mayores éxitos del sector.
La PlayStation original aterrizó en Japón el 3 de diciembre de 1994 como “la nueva”, una consola de la que todos los medios decían maravillas pero que venía a competir contra los dos grandes pesos pesados de la industria, SEGA y Nintendo.
Nadie en aquella época habría imaginado que la primera incursión de la firma nipona en el sector de las videoconsolas iba a tener tanta repercusión y éxito, y mucho menos que sería capaz de ganar por goleada a la Saturn de SEGA, pero así fue, y lo mejor es que PlayStation no sólo lo supo aprovechar los fallos de la firma del erizo azul y el retraso de Nintendo con su N64, sino que Sony también supo jugar muy bien sus cartas y brillar con luz propia.

Inicios

PlayStation partía con un hardware prometedor pero sin el respaldo que y solera que tenía por ejemplo SEGA, algo que hizo que en un primer momento tuviera un éxito bastante parecido a Saturn, una realidad que posteriormente se fue diluyendo hasta dejar cifras abismales en favor de la bestia blanca de Sony.
Tengo grabado a fuego en mi mente el precio que pedían en la “difunta” cadena de tiendas Centro Mail por las primeras unidades de importación de PlayStation y Saturn, 115.000 (690 euros) y 100.000 pesetas (600 euros) de la época, casi nada, el sueldo de un mes, más o menos.
Por suerte el precio de las versiones PAL fue sensiblemente menor, ya que si no me falla la memoria la PlayStation original desembarcó en España de forma oficial con un precio de 60.000 pesetas (unos 360 euros).
¿Qué ofrecía la primera PlayStation? Pues un hardware muy potente, especialmente en capacidades 3D y sobre todo fácil de programar y por tanto de aprovechar, todo lo contrario que Saturn, cuya arquitectura multiprocesador la convertía en un “rompecabezas” para los desarrolladores.

Hardware

  • CPU de 32 bits con arquitectura RISC a 33,8 MHz, con una potencia de cálculo de 30 MIPS, 4 KB de caché de instrucciones y 1 KB de caché de datos.
  • Geometry Transfer Engine como unidad de procesamiento gráfico, con un ancho de banda de 132 MB/s. Estaba dentro de la CPU y contaba con una potencia de 66 MIPS. Entre sus principales cifras destacan su capacidad de manejar hasta 360.000 polígonos con flat shading, la cifra bajaba a 180.000 si añadíamos texturas.
  • Motor de descompresión de datos con una potencia de 80 MIPS y compatible con MPEG-1 y H.261.
  • GPU dedicada para gráficos 2D y separada de todo el conjunto mencionado anteriormente. Podía manejar resoluciones de 256 x 224 píxeles hasta un máximo de 640 x 480 píxeles, ofreciendo además 16,7 millones de colores y hasta 4.000 sprites de 8 x 8 píxeles, con scaling y rotación individual.
  • Chip de sonido DSP, conseguía ofrecer una gran calidad gracias a sus 24 canales y hasta 44,1 kHz.
  • 2 MB de memoria principal de sistema.
  • 1 MB de memoria de vídeo.
  • 512 KB de ROM.
  • 32 KB de buffer para la unidad de CD.
  • Lector de CD 1x.
Estas especificaciones hoy nos parecen totalmente irrisorias, pero en su momento fueron una verdadera bomba y sirvieron para sustentar joyas que marcaron un antes y después en la industria del videojuego.
Recuerdo muy bien lo que ocurrió cuando llegó al mercado Español la primera PlayStation, la fiebre de los gráficos poligonales corría a sus anchas entre casi todos los jugones de la época.
Sí, el consumidor quería juegos en 3D y títulos como Tekken, Ridge Racer, Quake y Battle Arena Toshinden fueron la respuesta de la consola de Sony. Pronto PlayStation dejó claro su superioridad en este sentido frente a Saturn, algo que unido a la falta de juegos realmente interesantes hizo que la gris de Sony consiguiera dejar a la 32 bits de SEGA en una posición de derrota absoluta.
En ciertos mercados como el japonés Saturn tuvo un cierto éxito y recibió juegos realmente buenos, pero que en su mayoría aprovechaban las capacidades 2D de la negra de SEGA y su cartucho de expansión de memoria, dejando claro una vez más que el 3D no era su fuerte.
PlayStation se convirtió en sinónimo de potencia 3D y de un catálogo de juegos amplio y variado, algo que resultó especialmente visible en la segunda y tercera hornada de grandes lanzamientos, donde vimos juegos como Tekken 2 y 3, Resident Evil 2 y 3, Metal Gear Solid y Final Fantasy VII y VIII.

Accesorios y juegos inolvidables


Una de las cosas que más me gustó de la primera PlayStation fue el mando de control, con una cruceta realmente cómoda que daba lo mejor de sí especialmente en juegos de pelea como King of Fighters, por poner un ejemplo muy conocido, y también su ergonomía y colocación de botones.
PlayStation cumple 20 años y la recordamos como merece
Era muy cómodo y ligero, y junto con el de SuperNintendo, en cuyo diseño se inspira, para mi ha sido uno de los mejores mandos de control que han visto la luz hasta la fecha.
Tras la llegada de Nintendo 64, que introdujo un pad de control tan peculiar como funcional gracias a su stick analógico, Sony lanzó el DualShock, una revisión de su mando de control original que incluía dos sticks analógicos y función de vibración, un periférico bien resuelto que, siendo francos, copiaba lo introducido por el pad de Nintendo 64.
PlayStation cumple 20 años y la recordamos como merece
Otro accesorio imprescindible que se trasladó a PlayStation 2 fue la MemoryCard, una tarjeta de memoria en la que podíamos guardar las partidas de nuestros juegos y sin la que era imposible disfrutar adecuadamente de la consola.
PlayStation cumple 20 años y la recordamos como merece
Junto a estos también vieron la luz otros periféricos que consiguieron una cierta popularidad, como el MultiTap que permitía hasta 4 jugadores y abría paso a tardes muertas jugando a Quake II con otros tres amigos a pantalla partida, o la GunCon de Namco, una pistola que hizo las delicias de muchos en juegos como TimeCrisis.
PlayStation cumple 20 años y la recordamos como merece
PlayStation cumple 20 años y la recordamos como merece
Pasando a los juegos podemos decir que PlayStation fue una de las consolas que mayor catálogo de juegos recibió durante todo su ciclo de vida, algo a lo que contribuyó el gran número de unidades vendidas, que hizo que los desarrolladores no la dieran totalmente de lado incluso tras la salida de PlayStation 2.
La lista de juegos es interminable, así que prefiero hacer una pequeña lista con las principales sagas-juegos mas inolvidables que recibió PlayStation:
  • Final Fantasy.
  • Gran Turismo.
  • Tekken.
  • Resident Evil.
  • Silent Hill.
  • Bloody Roar.
  • King of Fighters
  • Street Fighter Alpha.
  • Medievil.
  • Crash Bandicoot.
  • Need For Speed.
  • Tenchu.
  • Wild Arms.
  • Soul Blade.
  • Metal Gear.
  • Chrono Cross.
  • Rival Schools.
  • Driver.
  • Darkstalkers.
  • Spyro The Dragon.
  • Vagrant Story.
  • Ridge Racer.
  • Tomb Raider.
  • Castlevania.
Sí, la gris de Sony recibió muchos más juegos, pero estos son, en esencia, los más grandes e importantes que pudimos ver en tierras europeas y con los que muchos, entre los que se incluye servidor, disfrutamos de horas de diversión tanto en solitario como en buena compañía.

Cifras y notas finales
Como hemos anticipado PlayStation fue un enorme éxito ya que consiguió vender más de 104 millones de unidades en todo el mundo, mientras que por ejemplo la Saturn de SEGA apenas llegó a los 8,82 millones de unidades.
Ese dato habla por sí sólo, pero lo cierto es que PlayStation fue algo más que una superventas, marcó toda una generación, una nueva etapa en la que todos podíamos disfrutar de la calidad de los juegos de las salas recreativas en la comodidad de nuestro hogar, y todo sin necesidad de hacer el enorme desembolso que pedían años antes consolas como la Neo Geo de cartucho.
Es indiscutible, PlayStation marcó un antes y un después, sirviendo además como punto de partida a sagas muy queridas que todavía hoy siguen siendo muy populares.
Por todo lo que nos dio, así como por el legado que nos dejó y que todavía hoy perdura, es justo dar gracias y desear un feliz cumpleaños a la veterana gris de Sony.

Fuente:
http://www.muycomputer.com/2014/11/29/playstation-cumple-20-anos

 

Lightpaper: La luz LED más delgada del planeta

Lightpaper: La luz LED más delgada del planeta

Considera a las luces LED. Positivo, negativo, una pizca de energía, y tienes luz. Ahora, imagina que los LEDs pueden ser mezclados con tinta e impresos sobre una lámina conductora delgada como el papel, sin perder funcionalidad. Bien, no imagines más: La compañía Rohinni lo llama Lightpaper, y llegaría al mercado a mediados de 2015.

Algunas soluciones se manifiestan antes que el problema. Eso es lo que se dijo sobre el láser en su momento, y también se pensó con la tecnología LED. Una cosa es que la práctica alcance a la teoría, y otra completamente diferente es que la práctica encuentre las aplicaciones ideales. Esta última parte de la ecuación es la más importante, y la que suele ser reconocida, como sucedió en el caso del LED azul. Hoy podemos colocar LEDs en casi cualquier parte, sin embargo, ¿qué podríamos hacer con tecnología LED delgada como una hoja de papel? Varias mentes deben gritar: “¡Decoración! ¡Arquitectura! ¡Publicidad!”, y probablemente estén en lo correcto al hacerlo. Pero necesitamos que ese “papel de luz” se haga realidad, tanto para la industria como para el comercio, antes de que llegue a las manos de entusiastas con iniciativas personales. Bienvenidos a Lightpaper.
Lightpaper: La luz LED más delgada del planeta

Su creador Rohinni no se guarda ninguna palabra: “La luz LED más delgada del mundo” es lo que publica en su sitio oficial. Lo que antes demandaba estaño y un PCB, ahora necesita como mucho una impresora. Los detalles técnicos son escasos, pero Lightpaper estaría basado en una mezcla especial de tinta y luces LED. Esta mezcla se imprime sobre una superficie conductora (o conductiva si así lo prefieren), para luego ser sellada entre dos capas adicionales. Los diodos son tan grandes como células rojas, y su ubicación es aleatoria, algo que la compañía espera optimizar para obtener una fuente de luz más uniforme. Lightpaper es más económico que la tecnología OLED, y se anticipa una duración de veinte años.
Esto obviamente nos hace pensar en el “backlight” de televisores y monitores, aunque el CMO de Rohinni Nick Smoot dijo que no son una prioridad. La idea es que Lightpaper se instale en lugares donde pueda hacer una gran diferencia en el tiempo más corto posible, como iluminar el logo en dispositivos móviles o reemplazar las luces tradicionales de los coches. Eso significa que los entusiastas del DIY deberán esperar un poco para posar sus garras sobre Lightpaper… a menos que alguien logre clonarlo.

Fuente:
http://www.neoteo.com/lightpaper-papel-de-luz-led/

 

sábado, 29 de noviembre de 2014

Totalmente Confirmado: el ADN puede sobrevivir a viaje en el espacio y reingreso a Tierra posterior

Totalmente Confirmado: el ADN puede sobrevivir a viaje en el espacio y reingreso a Tierra posterior

 

Confirmado: El cohete Texus-49 en el reciente despegue de su viaje al espacio con bastante material genético demuestra que el material genético puede sobrevivir parece a un vuelo por el espacio y además el reingreso posterior en la atmósfera de la Tierra, conservando igualmente la capacidad de transmitir la información original.
Un estudio realizado por un prestigioso equipo de científicos de la Universidad de Zúrich (Suiza) ha demostrado que el ADN podría sobrevivir a un viaje espacial de larga distancia.
Al parecer, estas asombrosas conslusiones nacen a tenor de la investigación realizada a bordo de los cohetes Texus-49, encargados de llevar ADN al extrerior y devolverlo a la Tierra.
Este experimento ha puesto, por tanto, la capa exterior de la sección de carga en un cohete, con un gran número de pipetas que contienen pequeñas moléculas de ADN del género de doble cadena.
Dichas moléculas volaron al espacio exterior desde la Tierra y volvieron a reingresar en nuestra atmósfera posteriormente, sin perder su carga de información ni verse modificadas.
El lanzamiento, llevado a cabo en un vuelo espacial, demuestra así que las denominadas moléculas de ADN plásmido pueden ser encontradas en todos los puntos de muestra en el cohete de la misión Texus-49.
A tenor de las conclusiones del estudio, el profesor Oliver Ullrich, de la Universidad de Zurich y la sección del Instituto de Anatomía, ha explicado la importancia de la prueba.
En este sentido, Ullrich ha afirmado: "Este estudio proporciona evidencia experimental de que la información genética del ADN es esencialmente capaz de sobrevivir a las condiciones extremas del espacio y de la re-entrada en la densa atmósfera de la Tierra".
No cabe duda de que este avance supone un gran descubrimiento para la ciencia, lo que permitirá en un futuro poder enviar material genético al espacio en caso de que fuera necesario.

Fuente:
http://www.ideal.es/gente-estilo/201411/28/totalmente-confirmado-puede-sobrevivir-viaje-espacio-reingreso-tierra-20141128170308.html

jueves, 27 de noviembre de 2014

Sensor magnético de tres ejes definido por software

Sensor magnético de tres ejes definido por software



Los ingenieros pueden acceder a sus diversos modos de funcionamiento gracias a sus interfaces SPI e I2C: modo continuo; medida única; activación por cambio y modo ráfaga. Además, los ajustes del dispositivo se pueden realizar en pleno funcionamiento dependiendo de las necesidades de la aplicación. El rango programable del ciclo de trabajo en modo ráfaga es del 0,1% al 100%. Al ser más elevado se pueden atender aplicaciones con un rápido tiempo de respuesta. De la misma manera, con el menor ciclo de trabajo el consumo de corriente se ve disminuido para tensiones de alimentación a partir de 2,2V.

“No resulta difícil encontrar en el mercado sensores magnéticos con rangos de sensado lineal de hasta ±2mT, que se dirigen principalmente a aplicaciones en brújulas. No obstante, el MLX90393 es el primer magnetómetro 3D que alcanza una sensibilidad lineal para todo el rango a fondo de escala de 16 bit entre ±5mT y ±50mT. Esto hace que resulte especialmente indicado para la medición de la posición y demuestra uno de los puntos fuertes de la integración de tecnología de efecto Hall ", explica Bruno Boury, responsable de línea de productos de sensado magnético en Melexis.

“Este dispositivo abre todo un abanico de nuevas posibilidades al diseño de sistemas de sensado en los sectores del consumo y la industria”, continúa. “Tiene la capacidad de capturar datos de medida precisos en el campo magnético en las direcciones X, Y y Z, así como temperatura T, o cualquier combinación de ellas. Se puede buscar un compromiso entre consumo, velocidad e integridad de señal. Las múltiples opciones resultantes de este conjunto de funciones programables hacen que la versatilidad de este dispositivo sea insuperable”.

El MLX90393, que puede funcionar en un rango de temperaturas de -40°C a +85°C, se suministra en un encapsulado QFN de 3mm x 3mm.
Melexis ha presentado un nuevo sensor integrado totalmente programable, capaz de medir con precisión cambios en la densidad de flujo magnético a lo largo de sus ejes X, Y y Z. El MLX90393, basado en la tecnología Triaxis, ofrece gran versatilidad en todo tipo de implementaciones de interfaz hombre-máquina, desde joysticks, interruptores deslizantes, pulsadores, niveladores, interruptores oscilantes lineales y botones giratorios, hasta sistemas de medición de la posición en 3D. Está indicado para aplicaciones de muy bajo consumo, consume una corriente de tan solo 2,5 µA en reposo. Utiliza una configuración de célula de píxel magnético monolítico, con una resolución de salida de 16 bits.

IGBTs Gen8 de 1200V: mayor eficiencia y robustez


 IGBTs Gen8 de 1200V: mayor eficiencia y robustez


International Rectifier ha presentado una plataforma tecnológica de transistores IGBT (Insulated Gate Bipolar Transistor) de nueva generación. La plataforma de IGBT de 1200V de 8ª Generación (Gen8) utiliza la tecnología trench gate field stop, suministrada en encapsulados TO-247 estándar, para ofrecer las mejores prestaciones dentro de su categoría en aplicaciones industriales y de ahorro de energía.

Los nuevos dispositivos Gen8 se encuentran disponibles para corrientes de 8A a 60A con una VCE(ON) típica de 1,7V y un tiempo de respuesta ante cortocircuitos de 10µs para reducir la disipación de potencia, dando así como resultado un aumento de la densidad de potencia y una mayor robustez.

“Con el desarrollo de esta nueva tecnología de referencia y de la más avanzada plataforma de silicio para IGBT, IR subraya sus décadas de compromiso con el avance de la tecnología de electrónica de potencia. Nuestra meta es lograr la instalación de inversores en todos los motores eléctricos para un uso más eficiente de la energía eléctrica y un entorno más ecológico”, señaló Alberto Guerra, vicepresidente de marketing estratégico del área de productos para ahorro de energía.

La nueva tecnología ofrece unas características de paso a corte más suaves, ideales para aplicaciones de accionamiento de motores al minimizar dv/dt para reducir el nivel de EMI y la sobretensión, así como para aumentar la fiabilidad y la robustez. Una distribución precisa de los parámetros ofrece un excelente compartimiento de la corriente al conectar en paralelo varios IGBT. La tecnología de oblea fina mejora la resistencia térmica y su máxima temperatura de unión llega a 175°C.

“La plataforma de IGBT Gen8 de IR ofrece una tecnología superior para aplicaciones industriales. Con la mejor VCE(ON) dentro de su categoría, su robustez y excelentes características de conmutación, esta plataforma de IGBT cubre especialmente las exigencias del mercado industrial”, declaró Llewellyn Vaughan-Edmunds, director de marketing de productos IGBT del área de productos para ahorro de energía. en IR.
IGBTs Gen8 de 1200V: mayor eficiencia y robustez.

Fuente:
http://www.elektor.com/news/ES-IGBT-Gen8/

domingo, 23 de noviembre de 2014

Los chips 3D NAND abrirán el camino a SSDs de 10 TB

Los chips 3D NAND abrirán el camino a SSDs de 10 TB

Los chips 3D NAND abrirán el camino a SSDs de 10 TB
Durante un webcast con los inversores Intel ha dejado ver sus planes para el futuro de sus soluciones de almacenamiento, donde gracias al uso de chips de memoria 3D NAND podremos ver SSDs de 10 TB.
Estos chips de memoria son el fruto de la colaboración entre Intel y Micron y los primeros SSDs que sacarán partido de ellos empezarán a llegar durante la segunda mitad de 2015.
Gracias a esta tecnología es posible el apilamiento de 32 capas para conseguir chips de 256 Gb (32 GB) de capacidad de almacenamiento en un único encapsulado MLC. La cifra sube hasta los 384 Gb (48 GB) por encapsulado TLC (triple-bit-per-cell).
Para ayudaros a que os hagáis una idea de hasta qué punto estamos ante una verdadera revolución basta con hacer una pequeña comparación con la memoria V-NAND de Samsung, ya que el gigante coreano sólo ha podido llegar a 86 Gb y 128 Gb por chip en MLC y TLC, respectivamente.
Con este importante avance veremos SSDs de gran capacidad a precios muy económicos, pero también mucho más delgados, ya que en teoría sería posible por ejemplo un SSD de 1 TB y 2 mm de grosor.

Fuente:
http://www.muycomputer.com/2014/11/21/chips-3d-nand-ssds-10-tb

El robot Philae detecta moléculas orgánicas en el cometa

El robot Philae detecta moléculas orgánicas en el cometa

 

El robot Philae, antes de sufrir su apagón al quedarse sin energía, detectó moléculas orgánicas de carbono, los ladrillos fundamentales para la vida en la Tierra, en el cometa 67P/Churyumov-Gerasimenko, según han confirmado científicos del Centro Aeroespacial Alemán (DLR).
El hallazgo tuvo lugar gracias a los experimentos iniciados antes de que el robot entrase en un estado de 'stand-by' tras no poder recargar sus baterías solares. Así, el instrumento COSAC logró entregar estas muestras para el análisis.
También la herramienta MUPUS estuvo trabajando para medir la densidad y las propiedades térmicas y mecánicas de la superficie del cometa, mostrando que no es tan blanda como se creía, sino que hay una capa de material «duro como el hielo».
Descubrir si los compuestos a base de carbono -y, a través de ellos, la vida- fueron traídos a la Tierra primitiva por los cometas, era uno de los objetivos principales de la misión. Este hallazgo apoya la Teoría de la Panspermia, defendida por el sueco Svante Arrhenius y por el codescubridor del ADN, Francis Crick, según la cual las moléculas viajan por el espacio a bordo de cometas y polvo estelar, pudiendo «sembrar» vida si encuentran las condiciones adecuadas, impulsadas por la radiación de las estrellas.
El interés de la misión Rosetta en el cometa recae en que estos cuerpos celestes se consideran reliquias de la formación de nuestro Sistema Solar, hace 4.500 millones de años, y han conservado antiguas moléculas como si se tratase de una cápsula del tiempo. Sin embargo, los científicos alemanes han reconocido no estar seguros todavía de si hay compuestos complejos que forman proteínas entre los hallazgos de Philae.

Fuente:
http://www.elmundo.es/ciencia/2014/11/18/546b9439e2704e31548b458a.html?cid=OTB2220106&s_kw=Outbrain2

viernes, 21 de noviembre de 2014

NAO, el robot y negocio estrella de la robótica

NAO, el robot y negocio estrella de la robótica

NAO, el robot y negocio estrella de la robótica
Madrid acoge desde el pasado miércoles un congreso bajo el título de 'Humanoids', que trata sobre la robótica humanoide. Organizado por la Universidad Carlos III de Madrid está considerado como uno de los encuentros más importantes en esta materia.
Uno de los robots humanoides que no pasa desapercibido en esta edición es NAO, que se vende como juguete por su versatilidad de movimientos y pequeño tamaño, además de realizar labores de plataforma educativa debido a su capacidad para dar clases. Supone un gran avance por la cantidad de acciones que podrá realizar, ya que también puede cuidar enfermos o colaborar en tratamientos terapéuticos, como pueden ser los niños autistas o con problemas de movilidad, a los que es capaz de corregir cuando realizan las cosas mal y les transmite ánimos.
A continuación entramos en detalle sobre las principales características de Nao:
  • Emplea información obtenida de la nube.
  • Cuenta con sensores táctiles.
  • Consigue capturar el sonido en 360º debido a que tiene cuatro micrófonos direccionales.
  • Gracias a sus dos cámaras HD es capaz de reconocer caras, leer libros o imitar acciones.
  • Puede agarrar objetos e intercambiarlos gracias a sus manos.
  • En sus ojos emplea un código de colores para expresar sus emociones o realizar juegos educativos.
  • Es capaz de dar explicaciones, contar historias o reproducir música con sus altavoces.
  • Se desplaza con total libertad porque no está conectado a ninguna fuente de alimentación.
La robótica humanoide está avanzando a pasos agigantados a la hora de convivir con el hombre en lo que se refiere a tareas cotidianas como puede ser la vigilancia y asistencia de personas mayores, el cuidado de los niños por casa o el suministro de medicinas a enfermos. En esta edición, que cumple los catorce años, participan grandes nombres de la materia como son el japonés Masayuki Inaba, de la Universidad de Tokio; Alin Albu-Schäffer, director del departamento de robótica del Centro Aeroespacial de Alemania; Jerry Pratt, del Instituto de Cognición Hombre-Máquina, de Florida, y el español Carlos Balaguer, del Robotics Lab.
Durante este congreso se pueden ver brazos y manos robóticas de gran precisión o robots que pueden desempeñar las labores de un asistente social, camarero o azafata.

Fuente:
http://cincodias.com/cincodias/2014/11/20/emprendedores/1416502682_632170.html

El CERN vuelve a revolucionar la ciencia al observar nuevas partículas nunca vistas

El CERN vuelve a revolucionar la ciencia al observar nuevas partículas nunca vistas



 El Laboratorio Europeo de Física de Partículas (CERN) ha vuelto a revolucionar la ciencia al observar dos nuevas partículas compuestas por quarks, nunca vistas anteriormente. Está previsto que comience a funcionar de nuevo en primavera de 2015 Esta observación ha sido descubierta por el experimento LHCb del Gran Colisionador de Hadrones (LHC) del CERN, el enorme cilindro de 27 kilómetros de largo situado en el subsuelo de Ginebra, según anunció el organismo en un comunicado. Los quarks son un tipo de partículas elementales, componentes de otras partículas subatómicas, como el protón y el neutrón, y que no existen de manera aislada. "Es un resultado emocionante. Gracias a la excelente capacidad de identificación de hadrones del LHCb, único entre los experimentos del LHC, hemos sido capaces de identificar una señal muy clara sobre el fondo. Esto demuestra, una vez más, la sensibilidad y la precisión del detector LHCb", dijo, citado en el comunicado, Steven Blusk, de la Universidad de Siracusa. Del experimento LHCb forman parte 670 científicos y 250 técnicos e ingenieros de 65 instituciones que representan a 16 países. Tras una gran pausa en la que ha recibido mejoras y ajustes, el LHC se está preparando para operar a energías mayores y con haces más intensos. Está previsto que comience a funcionar de nuevo en primavera de 2015.

Fuente:
http://www.20minutos.es/noticia/2301248/0/cern/particulas-nunca-vistas/ciencia/

miércoles, 19 de noviembre de 2014

Tag RFID sin batería, con sensor de humedad relativa y temperatura


[INDUSTRIA] Tag RFID sin batería, con sensor de humedad relativa y temperatura


Tag RFID sin batería, con sensor de humedad relativa y temperatura

El Hygro-Fenix-H221 de Farsens S.L., San Sebastián (España), es un sensor RFID sin batería capaz de transmitir un identificador único y los datos del sensor de humedad relativa y temperatura asociados a dicho identificador, a un lector comercial EPC C1G2 sin necesidad de utilizar baterías en la etiqueta sensora. El dispositivo incluye el sensor de humedad HTS-221 de ST Microelectronics con un rango de humedad entre 20% rH y 80% rH, con una precisión de ±4,5 rH. El tag también ofrece temperatura en un rango entre 0°C y +60°C con una precisión de ±1°C.

El tag está disponible en diferentes tamaños y diseños de antena para adaptar su funcionamiento a la aplicación requerida en la banda 860-960 MHz. La distancia de lectura del tag sensor sin batería es de alrededor de 1,5 metros (5 pies) y puede ser embebido en gran variedad de materiales tales como plásticos o cemento. Existen kits de evaluación.

HygroFenix se utiliza sin necesidad de baterías en absoluto, lo que permite abrir un gran abanico de oportunidades de monitorización de humedad y temperatura en aplicaciones donde el acceso al punto de medida es restringido, o en aquellas en las que no se recomienda el uso de baterías. Dado que las baterías no son necesarias, el usuario no debe preocuparse por la autonomía de los dispositivos.

Dado que el HygroFenix no necesita ni baterías ni cables, este producto es perfecto para aplicaciones como la gestión de infraestructura en centros de datos (control de humedad y temperatura de las salas para optimizar el ciclo de vida de los activos).

  > Más info en la página de Farsens

Fuente:
http://www.elektor.com/news/ES-HygroFenix/

Nuevos PICs de 8 bits de bajo coste con convertidores A/D dobles integrados


[INDUSTRIA] Nuevos PICs de 8 bits de bajo coste con convertidores A/D dobles integrados


Nuevos PICs de 8 bits de bajo coste con convertidores A/D dobles integrados

Microchip anuncia una nueva incorporación a su familia de microcontroladores de 8 bit PIC12/16LF155X con los dispositivos PIC16LF1554 y PIC16LF1559 (PIC16LF1554/9). El PIC16LF1554/9 incorpora dos convertidores A/D independientes de 10 bit y 100K muestras por segundo con soporte de divisor capacitivo de tensión (Capacitive Voltage Divider, CVD) para sensado táctil capacitivo. Esta configuración exclusiva de convertidor A/D permite una adquisición más eficiente del sensor y aporta técnicas avanzadas de sensado táctil para entornos con un niveles extremos de ruido, aplicaciones de bajo consumo, teclados matriciales y diseños resistentes al agua.

Los microcontroladores PIC16LF1554/9 de 14 y 20 patillas combinan hasta 17 canales de conversión A/D con módulos CVD automatizados de hardware para implementar sensado capacitivo y otras aplicaciones de muestreo en la etapa de entrada con una mínima exigencia al software.  En concreto, el CVD de hardware reduce el código para implementar sensado táctil capacitivo en más de un 40%. Estos dispositivos también incluyen hasta 14 KB Flash/512 Bytes RAM, un oscilador interno de a 32 MHz y dos módulos PWM, así como I2C™, SPI y EUSART para comunicaciones. Además ofrecen las características de eXtreme Low Power (XLP) con corrientes en modo activo y dormido de 35 µA/MHz y 30 nA, respectivamente, para aplicaciones en las que la conservación de la energía es primordial. Estas características, junto con el bajo coste y el tamaño reducido del PIC16LF1554/9, hacen que sean adecuados para una amplia variedad de aplicaciones en electrónica de consumo, como controles remotos, reproductores de audio, accesorios para teléfonos móviles, pequeños electrodomésticos, dispositivos portátiles como auriculares, relojes y pulseras para ejercicio físico; en aplicaciones médicas como medidores de presión sanguínea y medidores de pulso cardíaco portátiles; en el mercado del automóvil para controles dentro del habitáculo y paneles de control; y en mercados industriales como RFID y sensores; así como en otras aplicaciones.

Todo el paquete de herramientas de desarrollo de Microchip ofrece soporte a los microcontroladores PIC16LF1554/9, entre ellas el entorno de desarrollo integrado (Integrated Development Environment, IDE) MPLAB X; el PICkit 3 (PG164130) con un precio de 44,95 dólares; el compilador MPLAB XC8 para microcontroladores de 8 bit y el configurador de código MPLAB.

Los microcontroladores PIC16LF1554 ya se encuentran disponibles para muestreo y producción en encapsulados PDIP, TSSOP y SOIC de 14 patillas, y QFN (4 x 4 x 0,9 mm) de 16 patillas. Los microcontroladores PIC16LF1559 se encuentran disponibles para muestreo y producción en encapsulados PDIP, SSOP y QFN (4 x 4 x 0,9 mm) de 20 patillas.

  > Más info en la página de Microchip

Fuente:
http://www.elektor.com/news/ES-PIC16LF1554-9/

Ya disponible MPLAB Harmony para PIC de 32 bits


 [INDUSTRIA] Ya disponible MPLAB Harmony para PIC de 32 bits


Ya disponible MPLAB Harmony para PIC de 32 bits

Microchip anuncia la disponibilidad de MPLAB Harmony Versión 1.0. MPLAB Harmony es una plataforma de desarrollo de firmware flexible, abstracta y totalmente integrada para todos los microcontroladores PIC32 de 32 bit. Toma los principales elementos de diseño modular y orientado a objeto, añade la flexibilidad de utilizar un sistema operativo en tiempo real o de trabajar sin éste, y proporciona un entorno de módulos de software de fácil utilización, configurables según los requisitos de cada diseño y especialmente construidos para funcionar de manera conjunta. Entre las nuevas funciones de esta versión incluye el MPLAB Harmony Configurator para configurar de forma rápida y sencilla el driver y el middleware, gestionar una biblioteca gráfica totalmente compatible y profesional, así como importantes mejoras funcionales y de prestaciones para muchas de las bibliotecas de drivers de Harmony. También se han introducido mejoras en el middleware existente, como la certificación IPv6 de la pila TCP/IP de Microchip.

El nuevo entorno MPLAB Harmony de Microchip reduce el tiempo y los costes de desarrollo al proporcionar una sola plataforma integrada con código fuente comprobado por Microchip, depurado, interoperativo y preparado para producción, además de ofrecer un entorno independiente del sistema operativo en tiempo real. MPLAB Harmony incorpora asimismo un conjunto de librerías de periféricos, drivers y servicios de sistema fácilmente accesibles para el desarrollo de aplicaciones. El entorno ofrece numerosas funciones nuevas y potentes que aportan interoperatividad de código con una arquitectura modular que permite a drivers y bibliotecas funcionar conjuntamente con un mínimo esfuerzo, una única plataforma integrada que permite acortar el tiempo de desarrollo así como una integración sencilla y total del software de terceros, tanto sistemas operativos en tiempo real como middleware, drivers y otros  elementos, en el entorno de software.

El entorno de interface gráfico de usuario MPLAB Harmony Configurator reduce el tiempo necesario para cambiar la configuración de los periféricos en cualquier momento durante el desarrollo, además de eliminar prácticamente la posibilidad de errores en las configuraciones de los periféricos y el middleware. Los diseñadores que busquen una rápida comercialización pueden aprovechar esta solución de desarrollo de código de sencillo manejo, que está más capacitada para cumplir los plazos de diseño cada vez más cortos, así como unos presupuestos cada vez más ajustados.

El entorno de software integrado MPLAB Harmony cuenta con el soporte del entorno de desarrollo integrado MPLAB X gratuito de Microchip.

  > El entorno básico de MPLAB Harmony ya se encuentra disponible mediante descarga gratuita

Fuente:
http://www.elektor.com/news/ES-MPLAB-Harmony/

 

IGBTs de zanja ultrarrápidos de 650V


[INDUSTRIA] IGBTs de zanja ultrarrápidos de 650V


IGBTs de zanja ultrarrápidos de 650V

International Rectifier ha ampliado su catálogo de transistores IGBT (insulated-gate bipolar transistors) tras la incorporación de una familia de dispositivos robustos y fiables de 650V optimizados para aplicaciones de conmutación rápida, incluyendo inversores solares, equipos de soldadura, motores industriales, calentamiento por inducción y sistemas de alimentación ininterrumpida.

La familia IRGP47xx de IGBT, para un rango de corrientes de 15A a 90A, utiliza la tecnología de oblea fina de zanja (trench) con el fin de reducir las pérdidas en conducción y en conmutación y proporcionar una mayor eficiencia al sistema. Los nuevos IGBT, suministrados como dispositivos discretos encapsulados junto con un diodo de recuperación suave con una baja Qrr, están optimizados para conmutación ultrarrápida (8KHz-30KHz), ofrecen un tiempo de respuesta en caso de cortocircuito de 6µs y un coeficiente de temperatura de VCE(ON) positivo para facilitar su conexión en paralelo. Su mayor tensión de ruptura una fiabilidad añadida en caso de variaciones extremas de las condiciones meteorológicas y de inestabilidad de la línea de CA, además de eliminar la necesidad de dispositivos de supresión de tensión.

La familia IRGP47xx está indicada para un amplio rango de frecuencias de conmutación y se caracteriza por una baja VCE(ON) de 1,7V (típica) a 100°C y una baja energía total de conmutación (ETS) para reducir la disipación de potencia. Se ofrecen como dispositivos encapsulados y otras características importantes son una temperatura máxima de unión de 175°C y una baja EMI para una mejor fiabilidad.

La herramienta de selección de IGBTs está disponible en mypower.irf.com/IGBT.

Fuente:
http://www.elektor.com/news/ES-IRGP47xx/

Microchip presenta dos nuevos controladores DEPA para convertidores CC/CC y fuentes de alimentación


[INDUSTRIA] Microchip presenta dos nuevos controladores DEPA para convertidores CC/CC y fuentes de alimentación


Microchip presenta dos nuevos controladores DEPA para convertidores CC/CC y fuentes de alimentación 

Microchip anuncia sus controladores Digitally Enhanced Power Analogue (DEPA) más recientes: el MCP19118 y el MCP19119 (MCP19118/9). Ambos proporcionan un control PWM analógico sencillo pero también efectivo para convertidores CC/CC reductores síncronos de hasta 40V con la capacidad de configuración de un microcontrolador digital. También son los primeros dispositivos del mercado en combinar su funcionamiento a 40V e interfaces de comunicación PMBus. Estas características permiten desarrollar con rapidez un circuito de conversión de potencia con un bucle de control analógico programable en el firmware del núcleo del microcontrolador PIC de 8 bit integrado. Esta integración y flexibilidad son ideales para aplicaciones de conversión de potencia como carga de baterías, control de LED, alimentación USB, fuentes de alimentación en el punto de carga y para el automóvil.

Además del rápido crecimiento de la popularidad de las fuentes de alimentación con control digital, gracias a su capacidad de configuración bajo diversas condiciones de funcionamiento y topologías, los diseñadores de sistemas de alimentación también tienen la creciente necesidad de proporcionar telemetría y comunicación bidireccional, generalmente para supervisión e informes de fallos, todo ello a través de interfaces de comunicación estándar como PMBus. Además, las especificaciones de carga USB anunciadas recientemente, la alimentación USB y el conector USB tipo C incluyen tensiones de carga variables que permiten la carga rápida del dispositivo pero también añaden requisitos de hardware potencialmente complejos.

La integración de un microcontrolador supervisor permite que los dispositivos MCP19118/9 puedan crear fuentes de alimentación programables. Los principales ajustes del sistema, como una frecuencia de conmutación de 100 kHz a 1,6 MHz, la limitación de corriente y los puntos de referencia de tensión se pueden ajustar sobre la marcha en pleno funcionamiento introduciendo comandos de escritura en los registros del dispositivo. Gracias a ello un diseño se puede reutilizar en otras aplicaciones, recurriendo a las actualizaciones de firmware para cambiar la configuración y minimizando así los requisitos de diseño, producción y existencias para múltiples plataformas.

Además el núcleo de microcontrolador integrado se puede utilizar para supervisar otros dispositivos de la aplicación para establecer una secuencia de las operaciones de arranque; gestionar fallos de manera inteligente, así como subtensiones o tensiones inadecuadas; realizar funciones de gestión interna; ajustar la potencia de salida en respuesta a los requisitos de la carga, como carga de baterías o alimentación de puertos USB; y asistir a los interfaces externos del módulo mediante la supervisión o el suministro de señales al usuario o al sistema. Con sus reguladores lineales integrados, generadores PWM, convertidores A/D, controladores de MOSFET, amplificadores analógicos de error y compensación del bucle de control, los dispositivos MCP19118/9 ofrecen una solución en un circuito muy compacto. Este sistema, una vez implementado adecuadamente, es capaz de proporcionar una elevada eficiencia de conversión y una excelente respuesta a transitorios para reducir las pérdidas de potencia del sistema, con unos disipadores de calor más pequeños y una mayor autonomía de la batería en aplicaciones portátiles. Estos dispositivos DEPA también suministran datos a través del interface I2C mediante comandos a medida compatibles con SMBus o PMBus.

La asistencia para programación de los dispositivos MCP19118/9 se ofrece por medio del analizador de diseño MCP19111 y del módulo de interface gráfico de usuario MCP19111 para MPLAB X IDE. Estad dos herramientas de software ya se encuentran disponibles mediante descarga gratuita en la sección “Documentación y Software” de los enlaces anteriores. Además la nota de aplicación AN1541 describe la utilización de estas herramientas.

Todo el paquete de herramientas de desarrollo de Microchip ofrece soporte a los controladores DEPA MCP19118/9 DEPA, incluyendo el entorno de desarrollo integrado MPLAB X, el PICkit 3 (PG164130), el analizador serie PICkit (DV164122) y el compilador MPLAB XC8.

El MCP19118 y el MCP19119 ya se encuentran disponibles para muestras y producción en volumen. El MCP19118 se suministra en un encapsulado PFN de 4x4 mm y 24 patillas, mientras que el MCP19119 se suministra en un encapsulado QFN de 5x5 mm y 28 patillas.

Fuente:
http://www.elektor.com/news/ES-Microchip-MCP19118-9/