domingo, 28 de diciembre de 2014

SEGA volverá a lanzar una consola con la ayuda de Capcom

SEGA volverá a lanzar una consola con la ayuda de Capcom

SEGA volverá a lanzar una consola con la ayuda de Capcom
Para los lectores más veteranos seguro que es un auténtico placer leer que SEGA volverá al sector del hardware doméstico, y lo hará por la puerta grande gracias al apoyo de Capcom, una de las compañías más queridas del sector del videojuego.
Esta nueva consola, conocida como “Project Nihon-Do”, montará una nueva generación de procesadores evolucionados de los RISC SH-4 de Hitachi, similares a los que tuvimos ocasión de ver en la extinta Dreamcast, lo que confirma que SEGA apostará por una estructura multi-procesador que, según las últimas informaciones, nos dejaría un total de 12 núcleos para paliar la falta de potencia bruta que ofrece cada uno de forma invidualizada.
Sí, la compañía japonesa sabe que el márketing es importante y no quiere repetir los errores, por ello ha optado por este tipo de arquitectura, ya que es económica y le permitirá sacar pecho al diciendo ante los medios “nuestra nueva consola tiene 12 núcleos”.
Pero esto no es todo, SEGA sabe también que la RAM es importante, y por ello se comenta que utilizará un total de 16 GB de DDR2, una decisión que obedece a la búsqueda de un equilibrio completo en relación coste-rendimiento.
Finalmente nos queda otro de los puntos más importantes, la GPU. No, no será AMD ni NVIDIA las que potencien la nueva consola de SEGA, sino Intel, ya que en su interior encontraremos una solución basada en Knights Corner, también conocida como Xeon Phi, un monstruo que integrará 8 GB de GDDR5.
De nuevo una importante decisión que tiene mucho que ver con el márketing que SEGA ha querido puntualizar:

“Cuando los usuarios sepan que nuestra nueva consola tiene 12 núcleos y 24 GB de memoria nos la quitarán de las manos“.

No podemos anticipar cómo rendirá esta consola en comparación con PS4 y Xbox One, ya que éstas utilizan una arquitectura muy diferente a la de la “Project Nihon-Do”, pero contará con la ventaja de ofrecer retrocompatibilidad con consolas anteriores de SEGA.
SEGA volverá a lanzar una consola con la ayuda de Capcom
Así, y según ha confirmado la propia Capcom, podrán volver a reeditar clásicos de Mega Drive en formato cartucho, ya que la nueva máquina tendrá ranura para poder utilizarlos, aunque la compañía ha dejado claro que su estrategia en esta nueva etapa de cara a la distribución de juegos antiguos será muy diferente a lo que vivimos en los 80 y 90.
El ejemplo que han dado con Street Fighter II Champion Edition ha sido contundente:
“Obviamente relanzaremos juegos muy queridos, como por ejemplo Street Fighter II Champion Edition, pero el primer cartucho sólo tendrá cuatro personajes jugables. Posteriormente iremos completando el elenco de luchadores mediante cartuchos adicionales a precio reducido”.
Según Capcom esta postura mantiene el interés, como ocurre con los DLCs, y evita saturar al jugador, un beneficio que mantendrán en otros juegos que posteriormente irán llegando a “Project Nihon-Do”, entre los que destacaron novedades importantes como una nueva reedición de Resident Evil Remake con dos trajes nuevos para Jill.
SEGA volverá a lanzar una consola con la ayuda de Capcom
Por desgracia no tenemos detalles sobre su fecha exacta de lanzamiento, aunque SEGA y Capcom aseguran que la veremos a lo largo de 2015 con un precio que podría rondar entre los 200 y los 1.000 dólares, ya que todavía no han terminado de negociar un tema de patentes por la forma cuadrada que tendrá la consola.
En el botón del final de la noticia os dejamos un resumen de especificaciones y una imagen adjunta de la consola (no definitiva) que nos ha pasado Capcom, así que no dudéis en echarle un vistazo.

Fuente:
http://www.muycomputer.com/2014/12/28/sega-consola-capcom
 

 

USBdriveby, el collar USB que hackea cualquier ordenador

 

USBdriveby, el collar USB que hackea cualquier ordenador

  • USNdriveby es un dispositivo USB que contiene chips y software para hackear cualquier PC con OS X o Windows en menos de un minuto
  • Desactiva las protecciones y ofrece acceso remoto al hacker
  • No hay protección porque aprovecha agujeros en el diseño de la ROM de un USB, a través de BadUSB
USBdriveby, el collar USB que hackea cualquier ordenador.
Imagina esta escena: un hacker entra en una sala de ordenadores, y se dirige hacia un PC. Puede ser un hacker bueno, un ángel protector, o un ciberdelincuente, tu decides.
Lleva colgado al cuello un extraño collar con un dispositivo USB. Se lo quita del cuello e introduce el conector USB en el ordenador. Comienzan a abrirse ventanas con distintos mensajes en la pantalla. En menos de un minuto, el dispositivo ha desactivado las barreras de protección del ordenador, y ha otorgado el acceso remoto al hacker. Más inquietante aún: ese acceso remoto seguirá activo incluso aunque el hacker desconecte el dispositivo USB.
No es un comic. No es una película de espias, o de ciencia-ficción. Ese hacker existe, se llama Samy Kamkar. Ese collar USB que hackea cualquier ordenador en menos de un minuto existe, se llama USBdriveby. Puedes verlo en funcionamiento en este vídeo:

 

USBdriveby, el collar USB que hackea cualquier ordenador

  • USNdriveby es un dispositivo USB que contiene chips y software para hackear cualquier PC con OS X o Windows en menos de un minuto
  • Desactiva las protecciones y ofrece acceso remoto al hacker
  • No hay protección porque aprovecha agujeros en el diseño de la ROM de un USB, a través de BadUSB
USBdriveby, el collar USB que hackea cualquier ordenador.
Imagina esta escena: un hacker entra en una sala de ordenadores, y se dirige hacia un PC. Puede ser un hacker bueno, un ángel protector, o un ciberdelincuente, tu decides.
Lleva colgado al cuello un extraño collar con un dispositivo USB. Se lo quita del cuello e introduce el conector USB en el ordenador. Comienzan a abrirse ventanas con distintos mensajes en la pantalla. En menos de un minuto, el dispositivo ha desactivado las barreras de protección del ordenador, y ha otorgado el acceso remoto al hacker. Más inquietante aún: ese acceso remoto seguirá activo incluso aunque el hacker desconecte el dispositivo USB.
No es un comic. No es una película de espias, o de ciencia-ficción. Ese hacker existe, se llama Samy Kamkar. Ese collar USB que hackea cualquier ordenador en menos de un minuto existe, se llama USBdriveby. Puedes verlo en funcionamiento en este vídeo:
Crea un "SuperUSB" de rescate para reparar tu PC
El video muestra el hackeo de un ordenador con OS X, pero el autor dice que funciona exactamente igual con Windows.
Por suerte, Samy Kamkar no es un ciberdelincuente, sino un hacker bueno que comparte con todo el mundo sus descubrimientos.
USBdriveby es un dispositivo USB que a veces lleva colgado al cuello porque es cool, no porque sea necesario. También puedes llevarlo en el bolsillo...
Se trata de una serie de chips y software instalado en la ROM que, al conectarse a un PC, realiza las siguientes acciones:
  • Engaña al ordenador haciéndole creer que es un teclado o un ratón
  • Si está instalado LittleSnitch para monitorear el tráfico de red, desactiva todas sus alarmas
  • Desactiva el cortafuegos de OS X
  • Cambia la configuración DNS para enrutar las páginas webs que visitas, al destino que el hacker quiera
  • Abre una puerta trasera que permite al hacker controlar el ordenador de forma remota, incluso aunque desconecte USBdriveby
  • Cierra todas las ventanas y cambios visibles que ha realizado, para dejar todo como estaba
USBdriveby es inbloqueable porque usa una vulnerabilidad incluida en el estándar USB, llamada BadUSB. El código maligno se esconde en el firmware del conector USB, y es indetectable hasta que ya está dentro del ordenador.
 A partir de aquí, dependerá de las barreras internas que tengas.
Escalofriante, ¿verdad?

Fuente:
http://computerhoy.com/noticias/hardware/usbdriveby-collar-usb-que-hackea-cualquier-ordenador-22235

miércoles, 3 de diciembre de 2014

Sinclair ZX Spectrum Vega o el poder de la nostalgia

Sinclair ZX Spectrum Vega o el poder de la nostalgia

Sinclair ZX Spectrum Vega o el poder de la nostalgia
Seguro que más de un lector descubrió los videojuegos con el mítico Spectrum, uno de los primeros ordenadores pensados para el gran público y que tuvo un éxito comercial espectacular en nuestro país. Más de 30 años después, Sir Clive Sinclair (el creador de la máquina original) y Retro Computers Ltd. buscan financiación a través de la plataforma Indiegogo para lanzar el Sinclair ZX Spectrum Vega.
El proyecto, todavía en fase de prototipo (los diseños que veis en las fotos son conceptuales), consiste en un dispositivo de bajo coste pensado para ejecutar videojuegos de Spectrum. Todo el hardware se integra en una especie de pad que conectaremos al televisor para disfrutar de cualquiera de los 1.000 juegos clásicos que vienen en la memoria interna, aunque aseguran que el Sinclair ZX Spectrum Vega podrá ejecutar cualquiera de los más de 14.000 que se lanzaron para la plataforma.



Para hacer realidad esta idea esperan conseguir 100.000 libras (en este momento llevan más de 21.000), suficiente para lanzar una primera edición de 1.000 unidades a un precio de 100 libras (126 euros). Retro Computers Ltd. asegura que irán ofreciendo más juegos en forma de descargas gratuitas y que podemos añadir los que queramos mediante tarjetas SD, así que la diversión está asegurada. Por otro lado, están negociando acuerdos con propietarios d elos derechos de juegos para donar un porcentaje a Great Ormond Street Hospital For Children, una organización benéfica.
Desde nuestro punto de vista el proyecto puede ser interesante para algunos usuarios, pero limitarlo a juegos nos parece un error y pensamos que necesita cambios en lo relativo a diseño. Por otro lado, habrá que ver cómo realiza el proceso de emulación porque proyectos como Neo Geo X o OUYA, por citar dos ejemplos, se limitaban a correr juegos sobre una base Android que funciona, pero está lejos de la experiencia que pueden buscar coleccionistas o amantes de lo retro (precisamente el target de un producto como este). Esperemos que apelar a la nostalgia no sea su único argumento para convencer.

Fuente:
http://www.muycomputer.com/2014/12/02/sinclair-zx-spectrum-vega

 

domingo, 30 de noviembre de 2014

El Rey: «No podemos permitirnos el lujo de preparar científicos para que salgan al extranjero sin retorno»

El Rey: «No podemos permitirnos el lujo de preparar científicos para que salgan al extranjero sin retorno»

Don Felipe y Doña Letizia, en el 75 aniversario del CSIC

El Rey ha advertido este lunes contra el éxodo de científicos que se está produciendo en España como consecuencia de la crisis económica y ha pedido a todos los implicados, poderes públicos y empresas, que hagan «todo lo posible» para favorecer la ciencia española.
Don Felipe se refirió especialmente a los jóvenes científicos: «No podemos permitirnos el lujo de prepararlos para que salgan al extranjero sin retorno posible», afirmó. El Rey explicó que «es bueno» fomentar las relaciones internacionales de los científicos, pero «de ningún modo lo es que ésta deba ser consecuencia de una tasa de paro inaceptable».
Añadió el Monarca que esa tasa de paro perjudica tanto a los jóvenes que «no ven salida en su patria», como «a nuestra sociedad entera, por quedar desasistida de muchos de sus mejores activos».
El Rey hizo estas afirmaciones durante la conmemoración del 75 aniversario del CSIC, «la Casa de la Ciencia», acto al que asistió acompañado por Doña Letizia. Don Felipe es uno de los Reyes de España más apasionado por la ciencia, pues está convencido de que su avance redunda en progreso para toda la sociedad. Por ello, es uno de los Monarcas que mejor conoce los proyectos y las investigaciones de los científicos pero también los problemas y las dificultades con las que se encuentran.

España, entre los diez primeros

«Frente a percepciones o estereotipos erróneos y negativos -aclaró-, está la realidad de que España se encuentra entre los diez primeros puestos del mundo en producción científica. Esto hay que saberlo, y decirlo mucho y bien alto». Unos resultados que, según Don Felipe, «son posibles gracias a la suma de todos».
Durante su intervención, el Rey recordó su «experiencia personal» con el CSIC. «No son pocas las horas que he pasado en esta casa dialogando con sus equipos directivos e investigadores, conociendo de primera mano la realidad del Consejo, sus proyectos, sus éxitos y sus preocupaciones. He visitado también varios de sus centros e institutos y he comprobado el espíritu y la intensidad con los que se trabaja».
«Sé que el CSIC ha debido afrontar también dificultades por la crisis económica, que demanda una estructura de gestión más moderna y que, como toda la ciencia española, precisa de un empuje renovado», afirmó y advirtió ante «un lapso generacional que nos devolvería a un retraso difícil de remontar».
Además del Rey, intervinieron en el acto el ministro de Economía, Luis de Guindos; el presidente del CSIC, Emilio Lora-Tamayo, el expresidente José Elguero y el presidente del CNRS, Alain Fuchs.
Fuente:

Los raros diamantes llegados en un meteorito

Los raros diamantes llegados en un meteorito

De una dureza excepcional, pueden ser un material prometedor para la industria

Desde hace 50 años, los científicos han creído que los impactos de meteoritos y asteroides en nuestro planeta eran capaces de crear una nueva forma de diamante, el lonsdaleíta, también llamado diamante hexagonal. Fue hallado por primera vez en 1967 en el cráter Cañón del Diablo en Arizona (EE.UU.), formado por el gran meteorito del mismo nombre. Desde entonces, el lonsdaleíta ha sido ampliamente utilizado por la comunidad científica como un indicador de antiguos impactos de asteroides en la Tierra, incluidos los vinculados a la extinciones en masa. Además, se ha pensado que tiene propiedades mecánicas superiores a las del diamante ordinario, lo que le daba un alto potencial en la industria.
Todo esto suscitaba un gran interés en el mineral, aunque nunca han sido encontrados o sintetizados cristales puros del mismo, lo que suponía un enigma. Un grupo de científicos de la Universidad Estatal de Arizona (ASU) ha encontrado una explicación para ello. Según explican en la revista Nature Communications, el lonsdaleíta es, en realidad, un diamante ordinario, pero con una forma estructuralmente desordenada.
«El llamado lonsdaleíta tiene en realidad la larga forma cúbica familiar del diamante, pero está lleno de defectos», dice Péter Németh, investigador de ASU. Estos pueden ocurrir, explica, debido a golpes, deformación plástica o un crecimiento de cristales no equilibrado.
Para llegar a esa conclusión, los científicos examinaron los diamantes del Cañón del Diablo en laboratorio. Utilizando microscopios electrónicos avanzados en el Centro para la Ciencia del Estado Sólido de ASU, el equipo descubrió, tanto en muestras del Cañón del Diablo y como en muestras sintéticas, nuevos tipos de diamantes gemelos, una red cristalina en la que impera la simetría, una complejidad estructural a escala nanométrica. Estos dan lugar a las características atribuidas a lonsdaleíta.

Defectos

«La mayoría de los cristales tienen estructuras que se repiten regularmente, al igual que los ladrillos en un muro bien construido», apunta el científico Peter Buseck, que también ha participado en el estudio. Sin embargo, pueden ocurrir interrupciones en la regularidad, y estas son llamadas defectos. «Los defectos se entremezclan con la estructura normal de los diamantes, como si la pared tuviera medio ladrillo o más ladrillos o una fila de ladrillos que se desplazan ligeramente hacia un lado u otro».
El resultado es que el llamado lonsdaleíta tiene la misma forma cúbica regular del diamante, pero ha sido sometido a golpes o presiones que causaron defectos dentro de la estructura cristalina.
Pero defectuoso no quiere decir inútil. Aunque son diamantes muy pequeños, casi como arenilla, el nuevo descubrimiento sugiere también que la complejidad estructural observada en los diamantes del Cañón del Diablo podría tener propiedades mecánicas interesantes. Tienen una dureza excepcional, más que los que se utilizan en joyería, y por lo tanto, grandes perspectivas como nuevo material para la industria
El cráter de Popigái, en Siberia, podría constituir la mayor reserva mundial de diamantes de este tipo para uso industrial. El agujero, de unos cien kilómetros de diámetro, se formó por la colisión de un meteorito hace unos 35 millones de años.

 Fuente:

Más cerca de la clonación del mamut que rezuma sangre

Más cerca de la clonación del mamut que rezuma sangre 

El ejemplar mejor conservado del mundo es una hembra de 28.000 años hallada en Siberia con carne tan fresca que podría contener ADN intacto

El mamut «Buttercup»
La posibilidad de traer de nuevo a la vida a un mamut, una especie extinta hace 10.000 años, o al menos, crear una quimera que se le parezca, está más cerca gracias al descubrimiento en la isla de Liajovski, en la costa del noreste de Rusia, del especimen mejor conservado que jamás haya sido encontrado. La autopsia del mamut de 28.000 años de edad (en un principio se creyó que era mucho mas antiguo, de 40.000 años) ha revelado la existencia de carne en un estado sorprendentemente fresco que podría contener ADN intacto suficiente para hacer posible la clonación.
Según informa la web del Museo de Historia Natural de Londres, los científicos todavía llevan a cabo pruebas en todo el cuerpo del mamut para comprobar si pueden obtener células que contengan el genoma completo, el código genético necesario para construir un organismo.
El mamut, apodado «Buttercup», fue descubierto en 2013 oculto en el permafrost. La carne estaba muy bien conservada y, para gran sorpresa de todos, rezumaba un líquido rojo oscuro cuando los científicos la cortaron. La noticia dio la vuelta al mundo. Una autopsia realizada por la firma surcoreana Sooam Biotech Research Foundation y en la que ha participado Tori Herridge, paleobióloga del museo británico, entre otros científicos, confirmó que ese líquido era sangre.
«Como paleontólogo, normalmente tiene que imaginar a los animales extintos con los que trabajas -dice Herridge-, así que encontrarme cara a cara con un mamut y sentir el resbaladizo, húmedo y, francamente, bastante maloliente hígado, cuenta como una de las experiencias más increíbles de mi vida».
La sangre no fue el único hallazgo notable de la autopsia. Los análisis de los colmillos del mamut revelaron que era una hembra que había pasado por al menos ocho partos exitosos.
Las tasas de crecimiento del colmillo dependen de si la hembra está embarazada o en período de lactancia, y por los colmillos de «Buttercup», el equipo fue capaz de saber que por lo menos una de sus crías había muerto.
El análisis de sus dientes muestra que «Buttercup» murió a los cincuenta años. Los dientes molares de mamuts y elefantes, que están estrechamente relacionados, son reemplazados seis veces a lo largo de sus vidas. Una vez que el último conjunto se va desgastando, el animal generalmente muere de hambre.
Sin embargo, esta mamut llegó al final antes de tiempo de una forma trágica al quedar atrapada en una turbera y ser devorada viva por los depredadores. A pesar de su brutal muerte, el animal quedó increíblemente bien conservado, por un medio ambiente libre de oxígeno gracias a la turbera y el proceso de congelación.
«La información obtenida de la autopsia de «Buttercup» acerca de su vida y muerte, y los descubrimientos futuros que vendrán de los análisis de sus músculos y órganos internos, se sumarán a nuestra comprensión de estas magníficas bestias de la Edad de Hielo», dice Herridge.

Un debate ético

Aunque ahora estamos más cerca de convertir en realidad resucitar a un mamut, Herridge cree que quizás no es una buena idea. «Dudo de que haya muchas personas en el mundo a las que les gustaría ver un mamut lanudo en la vida real tanto como a mí. Y sin embargo, creo que la clonación sería éticamente dudosa», escribió en un artículo para el diario británico The Guardian esta semana.
Una de las principales objeciones a la clonación del mamut es el hecho de que se necesitarían elefantes asiáticos, en peligro de extinción, para dar a luz un bebé mamut vivo. Y es probable que haga falta experimentar con muchos ejemplares antes del primer nacimiento exitoso.
«¿El beneficio potencial para la humanidad de la clonación de un mamut es mayor que el sufrimiento que una madre de alquiler de elefante asiático podría experimentar? Todavía tengo que escuchar un argumento convincente para eso», apuntaba el investigador. «Así que, ¿por qué deberíamos clonar un mamut? ¿Porque sería genial ver a uno? Me temo que eso no es suficiente», añadía.
Además, muchos investigadores sostienen que el resultado no sería un mamut clonado, sino un trabajo de ingeniería genética que, como mucho, daría paso a una especie de quimera relacionada con el animal extinto. 

Fuente:

 

La mitad de las estrellas del Universo, ¿fuera de las galaxias?

La mitad de las estrellas del Universo, ¿fuera de las galaxias?

 

Si el hallazgo se confirma, se habría resuelto el problema de la «materia ordinaria perdida», una cuestión que obsesiona a los astrónomos desde hace décadas

Un equipo de investigadores del Caltech acaba de sugerir la extraordinaria posibilidad de que la mitad de las estrellas del Universo podrían no estar dentro de las galaxias, sino fuera de ellas, en forma de estrellas solitarias. Si el hallazgo se confirma, se habría resuelto el problema de la "materia ordinaria perdida" en el Universo, una cuestión que obsesiona a los astrónomos desde hace décadas. El estudio se ha publicado recientemente en Science.
Debido a que la luz procedente de las estrellas solitarias es tan debil, su detección ha resultado imposible hasta el momento. Sencillamente, nadie sabía que estaban ahí, aunque los cosmólogos llevan mucho tiempo sospechando que "ahí fuera" podría haber mucho más de lo que parece. Ahora, y utilizando una nueva técnica que permite distinguir a estos "vagabundos estelares", los investigadores han descubierto una enorme cantidad de ellos. Tantos, que podrían incluso resolver el misterio de la "materia ordinaria perdida".
Como todo astrónomo sabe muy bien, no se ha conseguido detectar suficiente masa como para explicar por qué el Universo se mantiene unido. Y la mayor parte de la que falta está constituida por materia oscura, esa "otra clase" de materia que no emite radiación alguna y que, por lo tanto, no puede ser detectada directamente por nuestros instrumentos. Pero incluso cuando se trata de materia ordinaria (la que sí podemos ver formando estrellas y galaxias), las cuentas no se equilibran.
De hecho, y aunque los cálculos indican que la materia ordinaria supone cerca de un 5% de la masa total del Universo (la materia oscura supone otro 23%), los astrónomos solo han podido ver la suficiente para dar cuenta del 2,5%.
Una diferencia importante y que es la base del problema de "la materia ordinaria perdida", a no confundir con el misterio de la materia oscura. En efecto, hagamos lo que hagamos, la materia oscura nunca podrá ser detectada por un telescopio (porque no emite luz), pero sí que podríamos ver la materia ordinaria perdida, si sabemos dónde mirar.

Cadáveres estelares

Los astrónomos han intentado comprender desde hace mucho dónde se esconde toda esa materia ordinaria perdida. Algunos, por ejemplo, creen que podría ocultarse dentro de los agujeros negros. O que podría existir en forma de cadáveres estelares que ya no brillan y que los instrumentos no detectan. Ni siquiera los barridos más detallados del espacio llevados a cabo con el telescopio espacial Hubble y otros grandes intrumentos han conseguido revelar dónde se encuentra toda esta materia "extra".
Lo cual llevó a los astrónomos del Caltech a preguntarse si apuntar los telescopios hacia las grandes fuentes luminosas, como son las galaxias, es la mejor manera de dar con ella. ¿Y si toda esa materia no estuviera dentro de las galaxias, sino fuera de ellas?
Para averiguarlo, el equipo diseñó un nuevo experimento llamado CIBER (Cosmic Infrared Background Experiment) para hacer frente al problema desde una perspectiva totalmente distinta, que consistía no en medir la luz de puntos concretos, sino toda la que provenía de una porción determinada de cielo. De esa forma, incluso las fuentes luminosas más débiles y difusas, que no pueden verse de forma individual, podrían ser detectadas en masa. Sería algo así como averiguar el número de espectadores en un estadio de fútbol basándose en el rugido de la multitud en lugar de ir contándolos de forma individual.
Evidentemente, esa clase de medidas no podían hacerse desde la Tierra, ya que la atmósfera arruinaría cualquier tipo de observación. Y tampoco los telescopios espaciales resultaban adecuados, ya que sus campos de visión son demasiado pequeños. "El campo de visión del Hubble es como un pequeño sello de correos -afirma Michael Zemcov, director de la investigación- mientras que CIBER tiene un campo que es veinte veces mayor que la luna llena".
Para tomar una foto con una exposición lo suficientemente larga, el equipo cargó sus instrumentos en un cohete y los disparó a 300 km de altura, bien lejos de la atmósfera. Después, cuando el cohete empezó a caer hacia la Tierra, una cámara tomó una imagen con una exposición de siete minutos, compartiendo la luz recogida con dos espectrómetros que medían su intensidad en diferentes bandas de color del infrarrojo.

Fantasmal resplandor

La medición de CIBER representaba la luz de millones de galaxias a la vez. Después, los investigadores eliminaron toda la luz que procedía de galaxias conocidas, dejando solo la que venía del espacio teóricamente vacío que hay entre ellas. Y hallaron que ese espacio entre galaxias no estaba del todo oscuro, sino que emitía un débil y fantasmal resplandor de fondo que no tenía explicación conocida.
La única solución posible era que esa luz extra procedía de estrellas que se encuentran fuera de las galaxias. Una luz demasiado debil como para distinguir esas estrellas de forma individual, pero suficiente para que CIBER detectara sus emisiones luminosas combinadas.
¿Y cómo llegaron hasta allí todas esas estrellas? Se sabe que las estrellas nacen siempre dentro de las galaxias, pero también se sabe desde hace décadas que cuando dos galaxias colisionan, muchas estrellas reciben un "golpe gravitatorio" que las expulsa del conjunto.
Para Zemcov, si esas estrellas tuvieran planetas y en ellos hubiera vida inteligente "se encontrarían muy solos. Su cielo nocturno sería profundamente negro y oscuro".
¿Pueden estas estrellas solitarias recién descubiertas aportar el 2,5 % de materia ordinaria que faltaba por observar para equilibrar las cuentas? Los investigadores creen que sí.
De hecho, los resultados de CIBER sugieren que más del 50% de las estrellas que existen podrían estar fuera de las galaxias, lo que equilibraría las cosas definitivamente. Pero son necesarios más estudios para saber si este nuevo "filón" de materia ordinaria recién hallado en el Universo es suficiente, o no, para resolver el problema de la materia ordinaria perdida.

Fuente:

Un guante, tornillos y 70.000 gotas radiactivas: esta basura flota en el espacio

Un guante, tornillos y 70.000 gotas radiactivas: esta basura flota en el espacio

Más de 700.000 objetos de entre uno y 10 cm de diámetro orbitan la Tierra a gran velocidad, un auténtico peligro para naves y satélites

Aunque la basura espacial no representa un peligro para nuestro planeta, sí lo es para aquellos seres humanos que viajan al espacio exterior y para los artefactos y naves que llevamos ahí arriba. A medida que pasa el tiempo, ese riesgo va en aumento de forma exponencial. La basura o chatarra espacial son los desechos de todas las misiones espaciales que han salido de la Tierra hacia otros planetas y también aquellos restos de satélites de experimentos o de explosiones que permanecen en órbita alrededor de la Tierra. La basura espacial contiene de todo: tuercas, tornillos, 70.000 gotas radiactivas procedentes de combustible nuclear de misiones soviéticas, el guante del astronauta Edward White, perdido en 1965, viajando a una velocidad de 28.000 km/h... Si el guante llegara a impactar con la escafandra de un astronauta, la haría polvo. Eso sí que es un verdadero guantazo.
El satélite Vanguard I, lanzado por Estados Unidos en 1958 y operativo hasta 1964 lleva medio siglo sin control y lo convierte en el objeto artificial inactivo más antiguo alrededor de nuestro planeta. Seguirá dando vueltas durante al menos 200 años.
Se han destruido satélites mediante impacto de misiles como ocurrió el 11 de enero de 2007, cuando el ejército de China lanzó uno de ellos al satélite meteorológico Fengyun-1C. Desperdigó por el espacio 150.000 fragmentos de chatarra de más de un centímetro, de los cuales unos 3.000 de ellos tenían más 6 cm. Este suceso es el que más basura espacial ha generado.

Cuánta basura espacial hay

Se ha calculado que orbitan nuestro planeta más de 700.000 objetos de entre 1 y 10 cm de diámetro (algunos científicos hablan de muchos millones), que podrían ser de poca importancia debido a su escaso tamaño, pero el problema no es el tamaño si no la velocidad a la que se desplazan y que es de decenas de miles de km/h. La Estación Espacial Internacional (ISS) evoluciona en su órbita a 27.743 km/h. Un pequeño cuerpo de entre 1 y 10 cm, podría ocasionar daños gravísimos a cualquier nave espacial.
Los objetos mayores de 10 cm pueden ser localizados desde la Tierra con radares y telescopios, el resto no y los pequeños, precisamente por no verlos, son los más peligrosos, capaces de destrozar o hacer graves daños a las naves. Tengamos en cuenta que un cuerpo del tamaño de 1 cm (como una canica) a “solo” 10.000 km/h, libera tanta energía en el impacto como una granada de mano.
Más de 20.000 objetos con un tamaño mayor a 10 cm flotan alrededor de la Tierra. La ISS, que es la mayor nave construida por el hombre, tan grande como un campo de fútbol (100 x 100 m), quedaría completamente destruida al toparse con desechos superiores a los 10 cm. La energía que se liberaría sería enorme, y el desastre, total.
Ya de hecho, los astronautas de la Estación Espacial Internacional, se vieron en serios apuros cuando un grupo de desechos pasó a solo 250 m de ellos. Los seis astronautas se tuvieron que refugiar en dos naves rusas Soyuz, acopladas a la Estación, por si era necesaria la evacuación. En 2009 el satélite de telecomunicaciones estadounidense Iridium 33, que estaba activo y a una altura de 776 km, debería haber pasado según los cálculos a 584 metros del satélite militar ruso Kosmos 2251, fuera de servicio desde 1995, pero los cálculos fallaron y los satélites chocaron dejando 2.000 fragmentos en el espacio de más de 10 cm y cientos de miles de restos más pequeños.

El efecto Kessler

La basura espacial cuesta a los operadores europeos unos 200 millones de euros al año, por daños en los satélites o por los desvíos que estas naves deben hacer para no encontrarse con estos escombros. Ello conlleva un gasto de combustible adicional y la vida útil de los mismos disminuye al agotarse antes el combustible y no poder hacer las maniobras correctas para estabilizarse en una determinada órbita.
La preocupación de las agencias espaciales por el aumento de la basura espacial va en aumento. Tengamos en cuenta que al incrementarse ésta, las posibilidades de colisión entre los escombros espaciales también aumenta. Cuando dos objetos, por pequeños se sean, se encuentran a decenas de miles de km/h se produce un efecto multiplicador de ambos cuerpos, esparciendo decenas o cientos de fragmento por el espacio, alcanzando diversas órbitas. Todos estos fragmentos podrían colisionar entre ellos, aumentando el número a miles. Esto es algo que se denomina el síndrome de Kessler.
Un encuentro entre dos grandes satélites o entre un satélite y la estación espacial dejaría tanta “metralla”, que una parte de las órbitas bajas que emplean muchos satélites, quedaría anulada para el ingreso en ellas de nuevos satélites. Sería inviable, por peligroso, utilizar dichas órbitas.

Cómo limpiar

No se conoce en la actualidad ningún método eficaz y económico para poder limpiar la basura espacial. Aquellos desechos que están más bajos de 500 km de altura podrían deshacerse en su entrada a la atmósfera cuando estos rozaran con las capas más altas. Pero una limpieza natural de este tipo de las órbitas contaminadas más bajas podría llevar cientos de años.
Otra posibilidad es detectar la basura con radares y enviar una nave, tipo camión basura, para recogerla, pero el coste sería enorme.
Desde hace unos años a esta fecha, una de las formas de no aumentar la basura espacial es la reentrada en la atmósfera de todos los satélites que dejan de ser útiles. Una vez que entra en nuestra atmósfera y a las velocidades que lo hacen, se queman y se destruyen, con lo que ayudan a no contaminar más el espacio exterior.
Se intenta hacer realidad un programa que debería contar con un potente rayo láser, que dirigido hacia un objeto en rumbo de colisión con alguna nave y tras impactar el rayo sobre él, desviarlo de su órbita para pasarlo a otra o expulsarlo de la atracción gravitatoria de la Tierra, para ser lanzado a las profundidades del espacio. Pero todavía se desconoce si el proyecto se puede desarrollar ni cuándo va a ver la luz. La puesta en funcionamiento del mismo viene de la mano de la empresa australiana Electro OpticSystems.
Miguel Gilarte Fernández es el Director del Observatorio Astronómico de Almadén de la Plata (Sevilla) y Presidente de la Asociación Astronómica de España.
El Observatorio Astronómico de Almadén de la Plata es el mayor centro de divulgación de la astronomía en España. Está abierto para todo el público, que podrá mirar por sus telescopios y utilizarlos, además de desarrollarse gran cantidad de actividades. Zona de turismo estelar. 

Fuentes:

 

El cometa Siding Spring ha cambiado la atmósfera de Marte

El cometa Siding Spring ha cambiado la atmósfera de Marte

Dejó una tormenta de partículas a su paso por el Planeta rojo

La tormenta de partículas provocada por el paso cercano del cometa Siding Spring "literalmente ha cambiado la química" de la atmósfera superior de Marte.
Procedente de la Nube de Oort, este cometa pasó el 19 de octubre a sólo 135.000 kilómetros de Marte, lo que permitió una oportunidad única de estudio para la flota de naves orbitales y robots en superficie desplegados en el Planeta rojo
"Creemos que este tipo de evento se produce cada ocho millones de años", ha dicho Jim Green, director de la División de Ciencias Planetarias de la NASA, en un foro sobre los hallazgos científicos del sobrevuelo del cometa.
La Nube de Oort es una zona en el extremo más lejano del sistema solar, a 50.000 unidades astronómicas (UA). La zona está llena de objetos de más de mil millones de años, que contienen restos de la formación del Sistema Solar. De vez en cuando, la órbita de uno de estos objetos se interrumpe, forzándole a entrar en el sistema solar interior. Llamados "cometas de período largo", estos objetos pueden tardar miles de años en dar la vuelta al Sol.
"El cometa Siding Spring nos sorprendió", asegura Green. "Modelamos de forma extensiva el ambiente del polvo del cometa, y no pensábamos que causase problemas operativos a nuestras naves en Marte. Sin embargo, las agencias espaciales decidieron modificar las trayectorias de sus naves para refugiarlas detrás del Planeta rojo durante el evento. Después de observar cómo el polvo se estrelló contra la atmósfera superior, me hace muy feliz que se tomase aquella decisión. Realmente creo que ocultarlas las salvó".
Al abrigo de la estela de escombros, los instrumentos de las naves espaciales comenzaron a recoger datos acerca de la composición fundamental del cometa y sus efectos sobre la atmósfera de Marte.

Miles de estrellas fugaces

"El polvo del cometa se estrelló en la atmósfera superior, creando una capa ionosférica masiva y densa y literalmente cambió la química de la atmósfera superior", señala Green. Además de añadir una nueva capa de iones a la atmósfera de Marte, el exceso de velocidad del cometa provocó una lluvia de meteoros, con miles de estrellas fugaces por hora.
Nick Schneider, responsable del espectrógrafo ultravioleta de la nave MAVEN, ha explicado que se detectaron ocho tipos diferentes de iones metálicos en el polvo de cometa: sodio, magnesio, potasio, cromo, manganeso, hierro, níquel y zinc.
Aunque el paso del cometa fue fugaz, su impacto podría tener efectos a largo plazo en el planeta. Cuando el polvo se estrelló en la atmósfera, produjo metales vaporizados. Finalmente, esos metales revirtieron al polvo en un proceso conocido como humo meteórico. La introducción de todo este nuevo polvo a la atmósfera puede producir nubes de gran altitud por encima de la superficie del planeta y podría afectar a la interacción con la luz del Sol. Por otra parte, la química de la atmósfera puede que haya quedado permanentemente alterada.
El interés en examinar las propiedades del polvo del cometa no termina con los efectos en Marte. "Creemos que los cometas se formaron mucho antes que la Tierra", apunta Green. El estudio de Siding Spring puede ofrecer una perspectiva del contenido de la nube que formó el Sistema Solar.
 
Fuente:

 

PlayStation cumple 20 años y la recordamos como merece

PlayStation cumple 20 años y la recordamos como merece

PlayStation cumple 20 años y la recordamos como merece
El próximo día 3 de diciembre PlayStation cumple 20 años y para celebrarlo hemos querido hacer este especial, en el que rendiremos el homenaje que merece a la que fue la primera consola de Sony, y también uno de los mayores éxitos del sector.
La PlayStation original aterrizó en Japón el 3 de diciembre de 1994 como “la nueva”, una consola de la que todos los medios decían maravillas pero que venía a competir contra los dos grandes pesos pesados de la industria, SEGA y Nintendo.
Nadie en aquella época habría imaginado que la primera incursión de la firma nipona en el sector de las videoconsolas iba a tener tanta repercusión y éxito, y mucho menos que sería capaz de ganar por goleada a la Saturn de SEGA, pero así fue, y lo mejor es que PlayStation no sólo lo supo aprovechar los fallos de la firma del erizo azul y el retraso de Nintendo con su N64, sino que Sony también supo jugar muy bien sus cartas y brillar con luz propia.

Inicios

PlayStation partía con un hardware prometedor pero sin el respaldo que y solera que tenía por ejemplo SEGA, algo que hizo que en un primer momento tuviera un éxito bastante parecido a Saturn, una realidad que posteriormente se fue diluyendo hasta dejar cifras abismales en favor de la bestia blanca de Sony.
Tengo grabado a fuego en mi mente el precio que pedían en la “difunta” cadena de tiendas Centro Mail por las primeras unidades de importación de PlayStation y Saturn, 115.000 (690 euros) y 100.000 pesetas (600 euros) de la época, casi nada, el sueldo de un mes, más o menos.
Por suerte el precio de las versiones PAL fue sensiblemente menor, ya que si no me falla la memoria la PlayStation original desembarcó en España de forma oficial con un precio de 60.000 pesetas (unos 360 euros).
¿Qué ofrecía la primera PlayStation? Pues un hardware muy potente, especialmente en capacidades 3D y sobre todo fácil de programar y por tanto de aprovechar, todo lo contrario que Saturn, cuya arquitectura multiprocesador la convertía en un “rompecabezas” para los desarrolladores.

Hardware

  • CPU de 32 bits con arquitectura RISC a 33,8 MHz, con una potencia de cálculo de 30 MIPS, 4 KB de caché de instrucciones y 1 KB de caché de datos.
  • Geometry Transfer Engine como unidad de procesamiento gráfico, con un ancho de banda de 132 MB/s. Estaba dentro de la CPU y contaba con una potencia de 66 MIPS. Entre sus principales cifras destacan su capacidad de manejar hasta 360.000 polígonos con flat shading, la cifra bajaba a 180.000 si añadíamos texturas.
  • Motor de descompresión de datos con una potencia de 80 MIPS y compatible con MPEG-1 y H.261.
  • GPU dedicada para gráficos 2D y separada de todo el conjunto mencionado anteriormente. Podía manejar resoluciones de 256 x 224 píxeles hasta un máximo de 640 x 480 píxeles, ofreciendo además 16,7 millones de colores y hasta 4.000 sprites de 8 x 8 píxeles, con scaling y rotación individual.
  • Chip de sonido DSP, conseguía ofrecer una gran calidad gracias a sus 24 canales y hasta 44,1 kHz.
  • 2 MB de memoria principal de sistema.
  • 1 MB de memoria de vídeo.
  • 512 KB de ROM.
  • 32 KB de buffer para la unidad de CD.
  • Lector de CD 1x.
Estas especificaciones hoy nos parecen totalmente irrisorias, pero en su momento fueron una verdadera bomba y sirvieron para sustentar joyas que marcaron un antes y después en la industria del videojuego.
Recuerdo muy bien lo que ocurrió cuando llegó al mercado Español la primera PlayStation, la fiebre de los gráficos poligonales corría a sus anchas entre casi todos los jugones de la época.
Sí, el consumidor quería juegos en 3D y títulos como Tekken, Ridge Racer, Quake y Battle Arena Toshinden fueron la respuesta de la consola de Sony. Pronto PlayStation dejó claro su superioridad en este sentido frente a Saturn, algo que unido a la falta de juegos realmente interesantes hizo que la gris de Sony consiguiera dejar a la 32 bits de SEGA en una posición de derrota absoluta.
En ciertos mercados como el japonés Saturn tuvo un cierto éxito y recibió juegos realmente buenos, pero que en su mayoría aprovechaban las capacidades 2D de la negra de SEGA y su cartucho de expansión de memoria, dejando claro una vez más que el 3D no era su fuerte.
PlayStation se convirtió en sinónimo de potencia 3D y de un catálogo de juegos amplio y variado, algo que resultó especialmente visible en la segunda y tercera hornada de grandes lanzamientos, donde vimos juegos como Tekken 2 y 3, Resident Evil 2 y 3, Metal Gear Solid y Final Fantasy VII y VIII.

Accesorios y juegos inolvidables


Una de las cosas que más me gustó de la primera PlayStation fue el mando de control, con una cruceta realmente cómoda que daba lo mejor de sí especialmente en juegos de pelea como King of Fighters, por poner un ejemplo muy conocido, y también su ergonomía y colocación de botones.
PlayStation cumple 20 años y la recordamos como merece
Era muy cómodo y ligero, y junto con el de SuperNintendo, en cuyo diseño se inspira, para mi ha sido uno de los mejores mandos de control que han visto la luz hasta la fecha.
Tras la llegada de Nintendo 64, que introdujo un pad de control tan peculiar como funcional gracias a su stick analógico, Sony lanzó el DualShock, una revisión de su mando de control original que incluía dos sticks analógicos y función de vibración, un periférico bien resuelto que, siendo francos, copiaba lo introducido por el pad de Nintendo 64.
PlayStation cumple 20 años y la recordamos como merece
Otro accesorio imprescindible que se trasladó a PlayStation 2 fue la MemoryCard, una tarjeta de memoria en la que podíamos guardar las partidas de nuestros juegos y sin la que era imposible disfrutar adecuadamente de la consola.
PlayStation cumple 20 años y la recordamos como merece
Junto a estos también vieron la luz otros periféricos que consiguieron una cierta popularidad, como el MultiTap que permitía hasta 4 jugadores y abría paso a tardes muertas jugando a Quake II con otros tres amigos a pantalla partida, o la GunCon de Namco, una pistola que hizo las delicias de muchos en juegos como TimeCrisis.
PlayStation cumple 20 años y la recordamos como merece
PlayStation cumple 20 años y la recordamos como merece
Pasando a los juegos podemos decir que PlayStation fue una de las consolas que mayor catálogo de juegos recibió durante todo su ciclo de vida, algo a lo que contribuyó el gran número de unidades vendidas, que hizo que los desarrolladores no la dieran totalmente de lado incluso tras la salida de PlayStation 2.
La lista de juegos es interminable, así que prefiero hacer una pequeña lista con las principales sagas-juegos mas inolvidables que recibió PlayStation:
  • Final Fantasy.
  • Gran Turismo.
  • Tekken.
  • Resident Evil.
  • Silent Hill.
  • Bloody Roar.
  • King of Fighters
  • Street Fighter Alpha.
  • Medievil.
  • Crash Bandicoot.
  • Need For Speed.
  • Tenchu.
  • Wild Arms.
  • Soul Blade.
  • Metal Gear.
  • Chrono Cross.
  • Rival Schools.
  • Driver.
  • Darkstalkers.
  • Spyro The Dragon.
  • Vagrant Story.
  • Ridge Racer.
  • Tomb Raider.
  • Castlevania.
Sí, la gris de Sony recibió muchos más juegos, pero estos son, en esencia, los más grandes e importantes que pudimos ver en tierras europeas y con los que muchos, entre los que se incluye servidor, disfrutamos de horas de diversión tanto en solitario como en buena compañía.

Cifras y notas finales
Como hemos anticipado PlayStation fue un enorme éxito ya que consiguió vender más de 104 millones de unidades en todo el mundo, mientras que por ejemplo la Saturn de SEGA apenas llegó a los 8,82 millones de unidades.
Ese dato habla por sí sólo, pero lo cierto es que PlayStation fue algo más que una superventas, marcó toda una generación, una nueva etapa en la que todos podíamos disfrutar de la calidad de los juegos de las salas recreativas en la comodidad de nuestro hogar, y todo sin necesidad de hacer el enorme desembolso que pedían años antes consolas como la Neo Geo de cartucho.
Es indiscutible, PlayStation marcó un antes y un después, sirviendo además como punto de partida a sagas muy queridas que todavía hoy siguen siendo muy populares.
Por todo lo que nos dio, así como por el legado que nos dejó y que todavía hoy perdura, es justo dar gracias y desear un feliz cumpleaños a la veterana gris de Sony.

Fuente:
http://www.muycomputer.com/2014/11/29/playstation-cumple-20-anos

 

Lightpaper: La luz LED más delgada del planeta

Lightpaper: La luz LED más delgada del planeta

Considera a las luces LED. Positivo, negativo, una pizca de energía, y tienes luz. Ahora, imagina que los LEDs pueden ser mezclados con tinta e impresos sobre una lámina conductora delgada como el papel, sin perder funcionalidad. Bien, no imagines más: La compañía Rohinni lo llama Lightpaper, y llegaría al mercado a mediados de 2015.

Algunas soluciones se manifiestan antes que el problema. Eso es lo que se dijo sobre el láser en su momento, y también se pensó con la tecnología LED. Una cosa es que la práctica alcance a la teoría, y otra completamente diferente es que la práctica encuentre las aplicaciones ideales. Esta última parte de la ecuación es la más importante, y la que suele ser reconocida, como sucedió en el caso del LED azul. Hoy podemos colocar LEDs en casi cualquier parte, sin embargo, ¿qué podríamos hacer con tecnología LED delgada como una hoja de papel? Varias mentes deben gritar: “¡Decoración! ¡Arquitectura! ¡Publicidad!”, y probablemente estén en lo correcto al hacerlo. Pero necesitamos que ese “papel de luz” se haga realidad, tanto para la industria como para el comercio, antes de que llegue a las manos de entusiastas con iniciativas personales. Bienvenidos a Lightpaper.
Lightpaper: La luz LED más delgada del planeta

Su creador Rohinni no se guarda ninguna palabra: “La luz LED más delgada del mundo” es lo que publica en su sitio oficial. Lo que antes demandaba estaño y un PCB, ahora necesita como mucho una impresora. Los detalles técnicos son escasos, pero Lightpaper estaría basado en una mezcla especial de tinta y luces LED. Esta mezcla se imprime sobre una superficie conductora (o conductiva si así lo prefieren), para luego ser sellada entre dos capas adicionales. Los diodos son tan grandes como células rojas, y su ubicación es aleatoria, algo que la compañía espera optimizar para obtener una fuente de luz más uniforme. Lightpaper es más económico que la tecnología OLED, y se anticipa una duración de veinte años.
Esto obviamente nos hace pensar en el “backlight” de televisores y monitores, aunque el CMO de Rohinni Nick Smoot dijo que no son una prioridad. La idea es que Lightpaper se instale en lugares donde pueda hacer una gran diferencia en el tiempo más corto posible, como iluminar el logo en dispositivos móviles o reemplazar las luces tradicionales de los coches. Eso significa que los entusiastas del DIY deberán esperar un poco para posar sus garras sobre Lightpaper… a menos que alguien logre clonarlo.

Fuente:
http://www.neoteo.com/lightpaper-papel-de-luz-led/

 

sábado, 29 de noviembre de 2014

Totalmente Confirmado: el ADN puede sobrevivir a viaje en el espacio y reingreso a Tierra posterior

Totalmente Confirmado: el ADN puede sobrevivir a viaje en el espacio y reingreso a Tierra posterior

 

Confirmado: El cohete Texus-49 en el reciente despegue de su viaje al espacio con bastante material genético demuestra que el material genético puede sobrevivir parece a un vuelo por el espacio y además el reingreso posterior en la atmósfera de la Tierra, conservando igualmente la capacidad de transmitir la información original.
Un estudio realizado por un prestigioso equipo de científicos de la Universidad de Zúrich (Suiza) ha demostrado que el ADN podría sobrevivir a un viaje espacial de larga distancia.
Al parecer, estas asombrosas conslusiones nacen a tenor de la investigación realizada a bordo de los cohetes Texus-49, encargados de llevar ADN al extrerior y devolverlo a la Tierra.
Este experimento ha puesto, por tanto, la capa exterior de la sección de carga en un cohete, con un gran número de pipetas que contienen pequeñas moléculas de ADN del género de doble cadena.
Dichas moléculas volaron al espacio exterior desde la Tierra y volvieron a reingresar en nuestra atmósfera posteriormente, sin perder su carga de información ni verse modificadas.
El lanzamiento, llevado a cabo en un vuelo espacial, demuestra así que las denominadas moléculas de ADN plásmido pueden ser encontradas en todos los puntos de muestra en el cohete de la misión Texus-49.
A tenor de las conclusiones del estudio, el profesor Oliver Ullrich, de la Universidad de Zurich y la sección del Instituto de Anatomía, ha explicado la importancia de la prueba.
En este sentido, Ullrich ha afirmado: "Este estudio proporciona evidencia experimental de que la información genética del ADN es esencialmente capaz de sobrevivir a las condiciones extremas del espacio y de la re-entrada en la densa atmósfera de la Tierra".
No cabe duda de que este avance supone un gran descubrimiento para la ciencia, lo que permitirá en un futuro poder enviar material genético al espacio en caso de que fuera necesario.

Fuente:
http://www.ideal.es/gente-estilo/201411/28/totalmente-confirmado-puede-sobrevivir-viaje-espacio-reingreso-tierra-20141128170308.html

jueves, 27 de noviembre de 2014

Sensor magnético de tres ejes definido por software

Sensor magnético de tres ejes definido por software



Los ingenieros pueden acceder a sus diversos modos de funcionamiento gracias a sus interfaces SPI e I2C: modo continuo; medida única; activación por cambio y modo ráfaga. Además, los ajustes del dispositivo se pueden realizar en pleno funcionamiento dependiendo de las necesidades de la aplicación. El rango programable del ciclo de trabajo en modo ráfaga es del 0,1% al 100%. Al ser más elevado se pueden atender aplicaciones con un rápido tiempo de respuesta. De la misma manera, con el menor ciclo de trabajo el consumo de corriente se ve disminuido para tensiones de alimentación a partir de 2,2V.

“No resulta difícil encontrar en el mercado sensores magnéticos con rangos de sensado lineal de hasta ±2mT, que se dirigen principalmente a aplicaciones en brújulas. No obstante, el MLX90393 es el primer magnetómetro 3D que alcanza una sensibilidad lineal para todo el rango a fondo de escala de 16 bit entre ±5mT y ±50mT. Esto hace que resulte especialmente indicado para la medición de la posición y demuestra uno de los puntos fuertes de la integración de tecnología de efecto Hall ", explica Bruno Boury, responsable de línea de productos de sensado magnético en Melexis.

“Este dispositivo abre todo un abanico de nuevas posibilidades al diseño de sistemas de sensado en los sectores del consumo y la industria”, continúa. “Tiene la capacidad de capturar datos de medida precisos en el campo magnético en las direcciones X, Y y Z, así como temperatura T, o cualquier combinación de ellas. Se puede buscar un compromiso entre consumo, velocidad e integridad de señal. Las múltiples opciones resultantes de este conjunto de funciones programables hacen que la versatilidad de este dispositivo sea insuperable”.

El MLX90393, que puede funcionar en un rango de temperaturas de -40°C a +85°C, se suministra en un encapsulado QFN de 3mm x 3mm.
Melexis ha presentado un nuevo sensor integrado totalmente programable, capaz de medir con precisión cambios en la densidad de flujo magnético a lo largo de sus ejes X, Y y Z. El MLX90393, basado en la tecnología Triaxis, ofrece gran versatilidad en todo tipo de implementaciones de interfaz hombre-máquina, desde joysticks, interruptores deslizantes, pulsadores, niveladores, interruptores oscilantes lineales y botones giratorios, hasta sistemas de medición de la posición en 3D. Está indicado para aplicaciones de muy bajo consumo, consume una corriente de tan solo 2,5 µA en reposo. Utiliza una configuración de célula de píxel magnético monolítico, con una resolución de salida de 16 bits.

IGBTs Gen8 de 1200V: mayor eficiencia y robustez


 IGBTs Gen8 de 1200V: mayor eficiencia y robustez


International Rectifier ha presentado una plataforma tecnológica de transistores IGBT (Insulated Gate Bipolar Transistor) de nueva generación. La plataforma de IGBT de 1200V de 8ª Generación (Gen8) utiliza la tecnología trench gate field stop, suministrada en encapsulados TO-247 estándar, para ofrecer las mejores prestaciones dentro de su categoría en aplicaciones industriales y de ahorro de energía.

Los nuevos dispositivos Gen8 se encuentran disponibles para corrientes de 8A a 60A con una VCE(ON) típica de 1,7V y un tiempo de respuesta ante cortocircuitos de 10µs para reducir la disipación de potencia, dando así como resultado un aumento de la densidad de potencia y una mayor robustez.

“Con el desarrollo de esta nueva tecnología de referencia y de la más avanzada plataforma de silicio para IGBT, IR subraya sus décadas de compromiso con el avance de la tecnología de electrónica de potencia. Nuestra meta es lograr la instalación de inversores en todos los motores eléctricos para un uso más eficiente de la energía eléctrica y un entorno más ecológico”, señaló Alberto Guerra, vicepresidente de marketing estratégico del área de productos para ahorro de energía.

La nueva tecnología ofrece unas características de paso a corte más suaves, ideales para aplicaciones de accionamiento de motores al minimizar dv/dt para reducir el nivel de EMI y la sobretensión, así como para aumentar la fiabilidad y la robustez. Una distribución precisa de los parámetros ofrece un excelente compartimiento de la corriente al conectar en paralelo varios IGBT. La tecnología de oblea fina mejora la resistencia térmica y su máxima temperatura de unión llega a 175°C.

“La plataforma de IGBT Gen8 de IR ofrece una tecnología superior para aplicaciones industriales. Con la mejor VCE(ON) dentro de su categoría, su robustez y excelentes características de conmutación, esta plataforma de IGBT cubre especialmente las exigencias del mercado industrial”, declaró Llewellyn Vaughan-Edmunds, director de marketing de productos IGBT del área de productos para ahorro de energía. en IR.
IGBTs Gen8 de 1200V: mayor eficiencia y robustez.

Fuente:
http://www.elektor.com/news/ES-IGBT-Gen8/

domingo, 23 de noviembre de 2014

Los chips 3D NAND abrirán el camino a SSDs de 10 TB

Los chips 3D NAND abrirán el camino a SSDs de 10 TB

Los chips 3D NAND abrirán el camino a SSDs de 10 TB
Durante un webcast con los inversores Intel ha dejado ver sus planes para el futuro de sus soluciones de almacenamiento, donde gracias al uso de chips de memoria 3D NAND podremos ver SSDs de 10 TB.
Estos chips de memoria son el fruto de la colaboración entre Intel y Micron y los primeros SSDs que sacarán partido de ellos empezarán a llegar durante la segunda mitad de 2015.
Gracias a esta tecnología es posible el apilamiento de 32 capas para conseguir chips de 256 Gb (32 GB) de capacidad de almacenamiento en un único encapsulado MLC. La cifra sube hasta los 384 Gb (48 GB) por encapsulado TLC (triple-bit-per-cell).
Para ayudaros a que os hagáis una idea de hasta qué punto estamos ante una verdadera revolución basta con hacer una pequeña comparación con la memoria V-NAND de Samsung, ya que el gigante coreano sólo ha podido llegar a 86 Gb y 128 Gb por chip en MLC y TLC, respectivamente.
Con este importante avance veremos SSDs de gran capacidad a precios muy económicos, pero también mucho más delgados, ya que en teoría sería posible por ejemplo un SSD de 1 TB y 2 mm de grosor.

Fuente:
http://www.muycomputer.com/2014/11/21/chips-3d-nand-ssds-10-tb

El robot Philae detecta moléculas orgánicas en el cometa

El robot Philae detecta moléculas orgánicas en el cometa

 

El robot Philae, antes de sufrir su apagón al quedarse sin energía, detectó moléculas orgánicas de carbono, los ladrillos fundamentales para la vida en la Tierra, en el cometa 67P/Churyumov-Gerasimenko, según han confirmado científicos del Centro Aeroespacial Alemán (DLR).
El hallazgo tuvo lugar gracias a los experimentos iniciados antes de que el robot entrase en un estado de 'stand-by' tras no poder recargar sus baterías solares. Así, el instrumento COSAC logró entregar estas muestras para el análisis.
También la herramienta MUPUS estuvo trabajando para medir la densidad y las propiedades térmicas y mecánicas de la superficie del cometa, mostrando que no es tan blanda como se creía, sino que hay una capa de material «duro como el hielo».
Descubrir si los compuestos a base de carbono -y, a través de ellos, la vida- fueron traídos a la Tierra primitiva por los cometas, era uno de los objetivos principales de la misión. Este hallazgo apoya la Teoría de la Panspermia, defendida por el sueco Svante Arrhenius y por el codescubridor del ADN, Francis Crick, según la cual las moléculas viajan por el espacio a bordo de cometas y polvo estelar, pudiendo «sembrar» vida si encuentran las condiciones adecuadas, impulsadas por la radiación de las estrellas.
El interés de la misión Rosetta en el cometa recae en que estos cuerpos celestes se consideran reliquias de la formación de nuestro Sistema Solar, hace 4.500 millones de años, y han conservado antiguas moléculas como si se tratase de una cápsula del tiempo. Sin embargo, los científicos alemanes han reconocido no estar seguros todavía de si hay compuestos complejos que forman proteínas entre los hallazgos de Philae.

Fuente:
http://www.elmundo.es/ciencia/2014/11/18/546b9439e2704e31548b458a.html?cid=OTB2220106&s_kw=Outbrain2