viernes, 29 de septiembre de 2017

La Estación Espacial Lunar está en marcha

La Estación Espacial Lunar está en marcha y será clave para las misiones marcianas. La confirmación del proyecto ha llegado de una declaración conjunta entre NASA y Roscosmos, firmada en el congreso internacional de aeronáutica que se está celebrando en Australia.
Además de las agencias espaciales estadounidense y rusa se espera una colaboración internacional completa, incluyendo la ESA europea, Japón o China. El proyecto se llama “Puerta al Espacio Profundo” y su denominación explica el objetivo: servir como plataforma de mantenimiento y lanzamiento para proyectos más avanzados como la exploración de Marte.
“Los dos socios tienen la intención de desarrollar normas técnicas internacionales que serán utilizadas en el futuro, incluyendo la creación de una estación orbital alrededor de la Luna”, explican desde NASA, de este proyecto que continuará la colaboración iniciada en la Estación Espacial Internacional, el proyecto espacial más importante de la historia que se puso en marcha en 1998 y que tiene previsto su final para 2024.
Hace años que se viene hablando de esta Estación Espacial Lunar, proyectada en varios estudios como el del MIT como la manera más fiable y sobretodo económica de llegar a Marte. La instalación lunar no será tan completa como la EEI, pero proporcionaría una parada técnica imprescindible en nuestro satélite, como un puerto espacial avanzado que hemos visto en innumerables películas o videojuegos.
Aquí poco juego. La inversión en exploración espacial se ha reducido y hay que buscar nuevas maneras de llegar más lejos en el Cosmos, aunque sea sumando etapas intermedias. La Estación Espacial Lunar será uno de ellos, con tres módulos iniciales para suministro de energía y mantenimiento, habitáculos para vivienda y entrenamiento de astronautas y laboratorios.
La contribución de Rusia consistirá en crear hasta tres módulos y en desarrollar el dispositivo unificado de acoplamiento para todas las naves que se engancharán a la nueva estación espacial», ha destacado el director general de la corporación espacial rusa Roscosmos.
No se han mostrado detalles concretos de la Estación Espacial Lunar, pero ya nos conformamos con el simple anuncio de la colaboración internacional en el proyecto. “Por ahora ya tenemos la declaración conjunta de intenciones respecto al proyecto de estación espacial en órbita lunar y posteriormente estudiaremos enviar misiones a las superficies de la Luna y Marte”, han declarado desde Roscosmos.
Sí se sabe que el proyecto estará dirigido por NASA y que Rusia proporcionará al menos, el dispositivo unificado de acoplamiento para todas las naves, tres módulos y la mayor parte de los vuelos necesarios para el traslado de materiales a cargo de un supercohete ahora en desarrollo, junto a los Proton-M y Angara.
La Estación Espacial Lunar comenzará a construirse a mediados de la próxima década. Sí, sí, llegaremos a Marte, pero pasando por la Luna. Más información | NASA

Fuente:
https://www.muycomputer.com/2017/09/28/estacion-espacial-lunar/

jueves, 28 de septiembre de 2017

Un bug en Internet Explorer filtra todo lo que escribes en la barra de direcciones

El experto en seguridad Manuel Caballero ha identificado un bug en Internet Explorer que permite filtrar todo lo que escribimos en la barra de direcciones del navegador, tanto las URLs completas como los términos de búsqueda que Bing utiliza de forma automática.
Es un problema importante ya que ese fallo de seguridad presente en Internet Explorer afecta a la privacidad del usuario al permitir que las webs que visita el usuario puedan acceder y recopilar sus hábitos de navegación, pero al mismo tiempo sirve como vía de entrada para realizar ataques mucho más graves.
Según el experto en seguridad que ha descubierto el error atacantes con la formación adecuada podrían aprovechar este fallo de seguridad para seguir recolectando información cuando el usuario abandone una web concreta, o incluso secuestrar la CPU del equipo de forma permanente para minar criptodivisas.
En el vídeo que acompañamos podemos ver el proceso perfectamente descrito e ilustrado por Manuel Caballero, quien además ha aprovechado para lanzar una crítica a Microsoft ya que considera que la compañía de Redmond no está trabajando como debería para cuidar la seguridad de Internet Explorer.
Según sus propias palabras cree que Microsoft quiere deshacerse de forma “silenciosa” de Internet Explorer mediante una política de abandono gradual que lo está dejando en una posición cada vez más complicada.
No hay duda de que Internet Explorer es un navegador que ha perdido totalmente el cariño del gran público y que al final acabará siendo sustituido totalmente por Edge de Microsoft, pero lo cierto es que todavía mantiene una gran cuota de mercado y por tanto los de Redmond deberían preocuparse de mantenerlo en un estado óptimo.

Fuente:
https://www.muycomputer.com/2017/09/28/bug-internet-explorer/

Super Nintendo Classic Mini Edition utiliza el mismo hardware que la NES Classic Mini

Mañana se producirá el lanzamiento oficial de Super Nintendo Classic Mini Edition, una consola que como sabemos mantiene todas las claves básicas que vimos en la NES Classic Mini y sobre la que ya hicimos un repaso a todas sus claves fundamentales en este artículo.
Algunos medios ya han empezado a recibir unidades de la Super Nintendo Classic Mini Edition y gracias a ello hemos podido confirmar que la consola utiliza el mismo hardware que la NES Classic Mini, algo que en el fondo no nos extraña ya que hablamos de un sistema basado en Linux que recurre igualmente a la emulación.

¿Qué especificaciones tiene entonces la nueva “consola retro” de Nintendo?

Pues en su interior nos encontramos con un SoC Allwinner R16 con una CPU de cuatro núcleos Cortex-A7 de 32 bits, GPU Mali 400 MP2, 256 MB de memoria RAM de tipo DDR3 y 512 MB de capacidad de almacenamiento tipo NAND Flash.
Como vemos es un hardware bastante modesto pero más que suficiente para mover las ROMs de juegos de Super Nintendo, que corren sobre un emulador diseñado para funcionar sobre Linux, el sistema operativo que utiliza la Super Nintendo Classic Mini Edition.
Aunque el hardware no sorprenda debemos tener en cuenta que en este tipo de consolas no hace falta un procesador muy potente o una gran cantidad de memoria RAM. La “magia” está en el emulador y en la optimización del mismo para poder mover los juegos incluidos con una calidad acorde a la que tenían los títulos en su plataforma original.
Esto es muy importante ya que si no se cuida la calidad de la emulación podemos llevarnos un chasco tan grande como el que se vivió en su momento con la malograda Neo Geo X Gold.
Por otro lado el hecho de que se haya montando el mismo hardware es una buena noticia para los que quieran ampliar de forma no oficial el catálogo de juegos de la consola, ya que el proceso debería ser igual o muy parecido al que se siguió con la NES Classic Mini.

Fuente:
https://www.muycomputer.com/2017/09/28/super-nintendo-classic-nes-classic/

domingo, 17 de septiembre de 2017

Resident Evil en 16 bits: Descarga la demo de Resident Evil para Sega Mega Drive

Una interesante demake hecha por rusos

Resident Evil, el juego que definió el género survival horror en la Playstation, está tratando de expandir su legado de vuelta a la era de 16 bits. Un grupo de aficionados está desarrollando un Resident Evil en 16 bits para Sega Mega Drive y ya puedes descargar la demo.

Finalmente, después de casi dos meses de trabajo, el sitio web PSCD.ru ha lanzado una demo de Resident Evil en 16 bits para el Sega Mega Drive / Genesis. No se dieron detalles de la historia, pero sobre la base de capturas de pantalla y la demo, parece que Claire Redfield jugará un papel importante en el juego. La demo es muy corta, pero muestra varios conceptos claves de la jugabilidad como una representación de 16 bits de la icónica pantalla de inventario del Resident Evil y una vista isométrica en tercera persona (un detalle muy interesante ya que no hay muchos juegos isométricos para la consola de Sega). El nivel mostrado parece tener lugar en la Mansión Spencer, que se encuentra infestada de zombis, compuesto por largos pasillos, una enorme escalera en medio de un gran vestíbulo, y un garabato sangriento de “RedRum” en una pared de baño en una aparente referencia a la película The Shining del maestro Stanley Kubrick.

Esta versión de Resident Evil en 16 bits está, obviamente, todavía en las primeras etapas de desarrollo, pero el equipo ruso de PSCD está comprometido a seguir adelante para poder terminarlo (siempre y cuando Capcom no decida tomar cartas en el asunto y dar de baja el proyecto como suele ser común en este tipo de casos). Lanzado en 1996 para PlayStation y más tarde adaptado para Windows, Sega Saturn y Nintendo DS, Resident Evil nos presenta a Chris Redfield y Jill Valentine, miembros del grupo de élite S.T.A.R.S., mientras investigan en las afueras de Raccoon City tras la desaparición de los miembros del equipo Bravo. Pronto quedan atrapados en una mansión infestada de zombis y otros monstruos a los cuales deberán enfrentar para poder escapar. La descarga de Resident Evil en 16 bits es un ROM, así que te recomendamos usar el emulador GENS para poder jugarlo sin inconvenientes.

Fuente:
http://www.neoteo.com/resident-evil-en-16-bits-descarga-la-demo-de-resident-evil-para-sega-mega-drive/

 

¿Cómo funcionaba el sistema de trucos «Game Genie»?

Un verdadero clásico para obtener vidas infinitas y más

Algunos juegos podían ser particularmente brutales con su dificultad, y cuando el desarrollador no habilitaba ninguna clase de ayuda, la única opción para los jugadores era adoptar un sistema externo de trucos. Los tres nombres principales del mercado eran Action Replay, GameShark, y el Game Genie, tan repudiado por Nintendo que incluso demandó a uno de sus distribuidores originales. Hoy vamos a ver de cerca el funcionamiento del Game Genie, y a decir verdad, es mucho más complicado de lo que imaginamos…

Existe una vieja frase para describir la dificultad de juegos clásicos, y es «Nintendo Hard». Battletoads, el primer Contra sin códigos Konami, Castlevania, Ghosts ‘n Goblins, Ninja Gaiden, Mega Man, TMNT, Punch-Out!…títulos implacables si los hubo. La idea era que el jugador siempre volviera por más, pero en muchos casos la frustración se hacía tan grande que quedaban a medio terminar. Claro que… llevar la dificultad al máximo no fue algo exclusivo de Nintendo. El resto de las plataformas no se quedaban atrás, y la búsqueda de trucos era constante. Seamos sinceros: La mayoría de las publicaciones dedicadas a los videojuegos en los ’80 y ’90 existían para compartir trucos, trampas y atajos. Sin embargo, eso adquirió otra dimensión con el lanzamiento de los «cheat systems», entre los que se destaca el Game Genie.

El vídeo explica todos los detalles técnicos sobre la interacción entre el Game Genie y las diferentes plataformas para las que fue lanzado. Características esenciales como el procesador de las consolas y el uso de «bank switching» cambiaban radicalmente su funcionamiento, pero en términos relajados podemos decir que el Game Genie es un «hombre en el medio» que intercepta la comunicación entre la ROM del cartucho y la consola. Todo lo que debía hacer el jugador era ingresar un código especial para modificar un par de bytes vinculados a un elemento dentro del juego, por ejemplo, la cantidad de vidas disponibles o el tiempo restante. Cuando el procesador necesita ejecutar o leer algo desde la ROM, el valor dentro del cartucho se almacena en un registro interno. El trabajo del Game Genie es monitorear cada lectura de la ROM, y si uno de los códigos afecta a una ubicación de memoria, «secuestra» la señal para reemplazarla con otro valor.

Esta técnica hace que un código sólo pueda leer y/o modificar una zona de memoria a la vez, por lo tanto, el Game Genie aceptaba entre tres y cinco códigos como máximo. El «bank switching» complica aún más las cosas, porque en el proceso de «intercambio», una dirección de memoria idéntica no siempre corresponde al mismo valor de la ROM. El Game Genie no tenía forma de saber qué banco ROM había sido mapeado en memoria, y su solución parcial era sumar un valor extra de comparación (o chequeo de integridad) en el código. El Game Genie estuvo disponible para NES, Game Boy, Sega Game Gear, Super Nintendo y Genesis/Mega Drive. Muchos jugadores aún creen que el Action Replay y el GameShark son opciones superiores (crear tus propios códigos no daba tantos dolores de cabeza), pero todo truco era bienvenido en aquel entonces, sin importar el sistema usado. 

Fuente:
http://www.neoteo.com/como-funcionaba-el-sistema-de-trucos-game-genie/

 

¿Cuánto espacio libre debes dejar en tu PC con Windows?

Administrar el espacio disponible en un ordenador no es tan complicado en estos días. Un terabyte de capacidad cuesta menos de 50 euros, y las unidades de estado sólido son cada vez más grandes, sin embargo, hay usuarios allá afuera que siempre encuentran la manera de consumir hasta el último byte. Una pregunta clásica de mantenimiento es cuánto espacio debería quedar libre en promedio. Con el paso del tiempo se establecieron ciertas «reglas», pero el software ha cambiado, y las exigencias del usuario son diferentes.

¿Falta espacio en tu ordenador? Un disco duro Seagate de un terabyte no supera los 46 euros, mientras que por el lado de Western Digital queda a las puertas de los 50 euros. Si el presupuesto es demasiado ajustado y no es posible invertir en una unidad nueva, siempre se puede recorrer el camino del «refurbished» o los «pulls» de ordenadores nuevos. Aún así, hay veces en las que el espacio nos falla, y llega la hora de una gestión más profunda. La unidad de sistema empieza a guardar vídeos, juegos, música e imágenes, pero ese contenido compite con el propio Windows y sus actualizaciones masivas. Entonces, ¿cuál es el límite? ¿Cuánto espacio libre debe quedar para que las cosas funcionen de forma más o menos decente?
La unidad C (SSD) es un ejemplo extremo aquí, con 94 GB libres de 111. El disco duro D, aislado del sistema, sólo tiene un 32 por ciento de espacio disponible, sin pérdida de rendimiento.
La famosa «regla del 15 por ciento» surge de la documentación del desfragmentador
Siendo honesto, creo que nadie lo sabe con certeza. Microsoft se ha limitado a sugerir parámetros de «espacio mínimo» en ciertas tareas (como las instalaciones), pero solo eso. Tal vez su dato más firme sea al momento de desfragmentar. La documentación oficial indica que el desfragmentador necesita un 15 por ciento del espacio libre para el proceso completo, o de lo contrario realizará una desfragmentación parcial. En el caso de los SSD esto es irrelevante porque no requieren una desfragmentación clásica, y hay viejas guías que apuntan a un 25 por ciento de espacio libre, aunque en los últimos cinco años las unidades de estado sólido han mejorado en gran medida, y su degradación tarda más en manifestarse. Al mismo tiempo, estamos obligados a destacar que ya no conviene hablar de porcentaje, sino de espacio neto. Después de todo, el 15 por ciento de 3 TB son 450 gigabytes, y no tiene sentido desperdiciarlos.
Aunque siempre voy a apreciar una buena administración, los 3 TB ya están por debajo de los 100 euros…
Regresando a los discos duros, mi recomendación personal sobre cuánto espacio libre debería quedar es «todo el que puedas permitir, con moderación», en especial si hablamos de la unidad que posee la instalación de Windows. No olvidemos que las velocidades de un disco duro no son constantes, y si a esto le sumamos una partición repleta de datos combinada con los efectos de la fragmentación, su rendimiento inevitablemente decae. Esa merma es más tolerable en discos secundarios que sirven como «contenedores», pero la unidad con el sistema operativo, el archivo de intercambio y el archivo de hibernación necesita responder lo más rápido que pueda. Por ese y otros motivos se ha vuelto tan popular la configuración híbrida de SSD+HDD. Deja un pequeño estado sólido para Windows, y que todo lo demás se quede con el disco duro.


Fuente:
http://www.neoteo.com/que-tanto-espacio-libre-debes-dejar-en-tu-pc-con-windows/

La corteza de Marte es menos densa de lo que creían los astrónomos

Gracias a un nuevo método de estudio la NASA ha podido confirmar que la corteza de Marte es menos densa de lo que se creía inicialmente, un descubrimiento interesante que nos da nuevas pistas sobre el planeta rojo.
Ese método de estudio que ha permitido conocer con mayor detalle las características de la corteza de Marte se ha llevado a cabo teniendo en cuenta la topografía (cambios de elevación) en la superficie del planeta, una información que se combinó con los datos del campo de gravedad del mismo.
Los cálculos realizados sobre la base de esos datos permitieron como dijimos concluir que la corteza de Marte es menos densa que la de la Tierra. Esto choca frontalmente con las concepciones anteriores, que estimaban que su corteza debía ser casi tan densa como la de la Tierra.
Según el estudio la densidad de la corteza varía entre las diferentes regiones de Marte y los expertos creen que esa menor densidad se debe a la elevada porosidad de su superficie.
Sander Goossens, jefe del proyecto, nos confirma por qué es importante este descubrimiento:
“La corteza es el resultado final de todo lo que sucedió durante la historia de un planeta, por lo que una menor densidad podría tener importantes implicaciones sobre la formación y la evolución de Marte”.
Dicho de otra forma, gracias a este descubrimiento tenemos una base importante que podría dar pie a la formación de nuevas teorías sobre el pasado y el futuro de Marte, e incluso podría acabar modificando total o parcialmente teorías ya existentes sobre dicho planeta.

Fuente:
http://www.muycomputer.com/2017/09/14/la-corteza-marte-menos-densa/

Viaje final de Cassini, en directo y con nuestro homenaje

La nave/sonda Cassini caerá hoy en la atmósfera de Saturno marcando su final y el de una misión de varias agencias espaciales que comenzó hace casi 20 años (junto a la sonda Huygens) y que nos ha entregado información del planeta y sus satélites como ninguna otra antes. NASA TV retransmitirá el descenso (sobre las 7:55 horas a.m. ET) mortal pero controlado para evitar que pueda contaminar a Titán o Encelado y nos ha parecido adecuado ofrecerte una galería con imágenes seleccionadas como pequeño homenaje a esta gran nave espacial que seguirá trabajando enviando información hasta el último momento de su destrucción en la atmósfera del planeta de los anillos.
* * * * *
Lanzamiento Cassini-Huygens. La nave Cassini y la sonda Huygens en pleno lanzamiento el 15 de octubre de 1997 desde la estación de Cabo Cañaveral con un cohete Titan IVB/Centaur de dos etapas. Entró en órbita alrededor de Saturno el 1 de julio de 2004 y el 25 de diciembre de 2004 la sonda se separó de la nave. Un mes después, Huygens descendió a la atmósfera de Titán y con ello, logró el récord de distancia desde la Tierra de una nave aterrizada.

Fuente:
http://www.muycomputer.com/2017/09/15/cassini-viaje-final/

Corsair presenta la memoria RAM más rápida del mercado ¡DDR4 a 4600 MHz!

Corsair ha presentado un nuevo kit de memorias DDR4 que pasan por ser la RAM más rápida del mercado, alcanzando “de serie” nada menos que 4600 MHz.
El nuevo kit de memorias Corsair se incluye en la serie de alto rendimiento Vengeance LPX y ofrecen una capacidad de 16 GB en dos módulos de 8 GB. Trabaja a 1,5 voltios y su latencia es CL19-26-26-46. Están destinadas preferentemente a trabajar con los procesadores Intel Core X y ha sido desarrollada especialmente para la placa ASRock X299 OC Formula.
Por supuesto tienen soporte completo para Intel XMP 2.0, la tecnología Extreme Memory Profile que permite hacer overclocking en memorias DDR3/DDR4 con los procesadores Intel desbloqueados, aunque la verdad, no sabemos si se podrá sacar algo más de esos increíbles 4600 MHz.
Como todos los módulos de esta serie de gama alta, incluyen un difusor de calor LPX para mejorar la transferencia térmica y garantizar estabilidad bajo cualquier carga. Carga en estaciones de trabajo y PC entusiastas donde están destinados porque su precio se sale totalmente del mercado del gran consumo: 549 dólares para una disponibilidad a partir del 21 de septiembre.
memorias Corsair
Corsair comercializará un segundo kit con disponibilidad inmediata y una frecuencia de 4500 MHz. Su precio oficial es de 479 euros. Impresionantes las nuevas memorias Corsair en rendimiento y precio.

Fuente:
http://www.muycomputer.com/2017/09/15/corsair-memorias/

Esta semana termina la simulación de aislamiento centrada en Marte

Todavía faltan muchos años para que veamos una colonia humana en Marte, pero la NASA ya ha iniciado numerosos proyectos que le permitirán recoger la información que necesita para poder llevar a cabo la primera misión tripulada a dicho planeta.
Uno de los más interesantes ha sido la simulación de aislamiento de seis personas, dos mujeres y cuatro hombres, en una zona volcánica de Hawái que ofrece un paisaje muy similar al que encontraríamos en Marte, y en el que además se han recreado la mayoría de las condiciones que deberían enfrentar dichos sujetos en una misión real.
Además del aislamiento y del paisaje se ha utilizado un sistema de comunicaciones que aplica el retraso de 20 minutos que existiría entre el envío y la recepción de la señal en una misión real en Marte, y los participantes sólo han podido consumir alimentos secos, que serán la base de cualquier misión tripulada al menos durante su etapa inicial.
Decimos esto porque el asentamiento de una auténtica colonia en Marte requeriría de una capacidad de subsistencia que no sería posible mantener con grandes reservas de comida deshidratada. Sería necesario instalar cultivos y producir alimentos de forma sostenible, ya que de lo contrario su sostenibilidad no sería viable.
Este experimento permite como dijimos recopilar una serie de datos que pueden ser de gran utilidad en una futura misión a Marte. Al mismo tiempo también muestra las reacciones y el impacto psicológico que puede tener en las personas y facilita la valoración y determinación de qué participantes serían los mejor cualificados para ir al planeta rojo.

Fuente:
http://www.muycomputer.com/2017/09/16/simulacion-aislamiento-marte/

sábado, 2 de septiembre de 2017

Conoce al Guardían en el nuevo tráiler de The Evil Within 2

Bethesda ha publicado un nuevo tráiler de The Evil Within 2, un juego muy esperado que nos volverá a poner en la piel del detective Sebastián Castellanos y que recupera la apuesta por esa unión de terror puro, psicológico y visceral que vimos en la primera entrega.
En este nuevo tráiler de The Evil Within 2 podemos confirmar que se mantiene además la estructura por capítulos del original y conoceremos a un nuevo enemigo que recibe el nombre de Guardián.
De nuevo Tango Gameworks hace gala de una creatividad macabra para dar forma a una localización asfixiante y abrumadora que se ve rematada por un enemigo imponente. La tensión de la escena que vemos en el vídeo que ve rematada por la aparición de Stefano Valentini, quien lanza un “regalo” al protagonista que ironías del destino al final acaba salvándole la vida.
A nivel de diseño el juego tiene buena pinta y parece que se mantiene todas las claves que hicieron grande al primero. Esa división por capítulos también contribuye a darle un toque narrativo más sencillo y fácil de asimilar por parte del jugador, y al mismo tiempo permite a Tango Gameworks utilizar diferentes localizaciones y enemigos “temáticos”.
The Evil Within 2 mantiene el motor gráfico idTech 5 aunque está fuertemente personalizado para ofrecer una calidad de imagen superior. Habrá que ver si esta vez han cuidado un poco más la optimización.
Su lanzamiento está previsto para el 13 de octubre en Xbox One, PS4 y PC. No conocemos los requisitos, pero si pudisteis mover el primero no deberíais tener problema con esta segunda entrega.

Fuente:
http://www.muycomputer.com/2017/09/01/guardian-nuevo-trailer-the-evil-within-2/

El Hubble indica que podría haber agua en los planetas de Trappist-1

Un equipo internacional de astrónomos ha realizado un estudio de los planetas de Trappist-1, un sistema solar sobre el que ya tuvimos ocasión de hablar en este artículo y que como sabemos destaca por tener un cierto potencial de cara a la existencia de vida alienígena.
Los expertos han recurrido al espectrógrafo de imágenes del Hubble para poder analizar la cantidad de radiación ultravioleta que reciben los planetas de Trappist-1, un fenómeno importante porque la radiación ultravioleta puede descomponer las moléculas de agua en hidrógeno y oxígeno.
El hidrógeno en su forma gaseosa es ligero y puede escapar de la atmósfera del planeta, haciendo que pueda ser identificado fácilmente por el Hubble. Esto a su vez permite a los astrónomos disponer de una fuente de información fiable con la que sacar conclusiones sobre la posible presencia de agua líquida en esos planetas.
Gracias al estudio de la cantidad de radiación ultravioleta emitida por Trappist-1 los expertos creen que los planetas interiores de dicho sistema solar, los más cercanos a su estrella, podrían haber perdido una cantidad de agua enorme (alrededor de veinte océanos terrestres).
Sin embargo los planetas exteriores han sufrido una exposición más limitada a la radiación ultravioleta, por lo que habrían perdido mucho menos agua y por tanto podrían tener una reserva importante en su superficie.
Uno de los máximos responsables del estudio ha querido ser prudente con los resultados y ha matizado que todavía no se puede concluir de forma definitiva que haya agua, y tampoco que los planetas de Trappist-1 sean realmente habitables.

Fuente:
http://www.muycomputer.com/2017/09/01/hubble-agua-planetas-trappist-1/