La Estación Espacial Lunar está en marcha y será clave para las misiones marcianas.
La confirmación del proyecto ha llegado de una declaración conjunta
entre NASA y Roscosmos, firmada en el congreso internacional de
aeronáutica que se está celebrando en Australia.
Además de las
agencias espaciales estadounidense y rusa se espera una colaboración
internacional completa, incluyendo la ESA europea, Japón o China. El
proyecto se llama “Puerta al Espacio Profundo” y su
denominación explica el objetivo: servir como plataforma de
mantenimiento y lanzamiento para proyectos más avanzados como la
exploración de Marte. “Los dos socios tienen la intención de
desarrollar normas técnicas internacionales que serán utilizadas en el
futuro, incluyendo la creación de una estación orbital alrededor de la
Luna”, explican desde NASA,
de este proyecto que continuará la colaboración iniciada en la Estación
Espacial Internacional, el proyecto espacial más importante de la
historia que se puso en marcha en 1998 y que tiene previsto su final
para 2024.
Hace años que se viene hablando de esta Estación
Espacial Lunar, proyectada en varios estudios como el del MIT como la
manera más fiable y sobretodo económica de llegar a Marte. La
instalación lunar no será tan completa como la EEI, pero proporcionaría
una parada técnica imprescindible en nuestro satélite, como un puerto espacial avanzado que hemos visto en innumerables películas o videojuegos.
Aquí
poco juego. La inversión en exploración espacial se ha reducido y hay
que buscar nuevas maneras de llegar más lejos en el Cosmos, aunque sea
sumando etapas intermedias. La Estación Espacial Lunar será uno de
ellos, con tres módulos iniciales para suministro de energía y mantenimiento, habitáculos para vivienda y entrenamiento de astronautas y laboratorios.
La
contribución de Rusia consistirá en crear hasta tres módulos y en
desarrollar el dispositivo unificado de acoplamiento para todas las
naves que se engancharán a la nueva estación espacial», ha destacado el
director general de la corporación espacial rusa Roscosmos.
No se
han mostrado detalles concretos de la Estación Espacial Lunar, pero ya
nos conformamos con el simple anuncio de la colaboración internacional
en el proyecto. “Por ahora ya tenemos la declaración conjunta de
intenciones respecto al proyecto de estación espacial en órbita lunar y
posteriormente estudiaremos enviar misiones a las superficies de la Luna
y Marte”, han declarado desde Roscosmos.
Sí
se sabe que el proyecto estará dirigido por NASA y que Rusia
proporcionará al menos, el dispositivo unificado de acoplamiento para
todas las naves, tres módulos y la mayor parte de los vuelos necesarios
para el traslado de materiales a cargo de un supercohete ahora en
desarrollo, junto a los Proton-M y Angara.
La Estación Espacial Lunar comenzará a construirse a mediados de la próxima década. Sí, sí, llegaremos a Marte, pero pasando por la Luna. Más información | NASA
El experto en seguridad Manuel Caballero ha identificado un bug en Internet Explorer que permite filtrar todo lo que escribimos en la barra de direcciones del navegador, tanto las URLs completas como los términos de búsqueda que Bing utiliza de forma automática.
Es un problema importante ya que ese fallo de seguridad presente en Internet Explorer afecta a la privacidad
del usuario al permitir que las webs que visita el usuario puedan
acceder y recopilar sus hábitos de navegación, pero al mismo tiempo
sirve como vía de entrada para realizar ataques mucho más graves.
Según
el experto en seguridad que ha descubierto el error atacantes con la
formación adecuada podrían aprovechar este fallo de seguridad para
seguir recolectando información cuando el usuario abandone una web
concreta, o incluso secuestrar la CPU del equipo de forma permanente para minar criptodivisas.
En
el vídeo que acompañamos podemos ver el proceso perfectamente descrito e
ilustrado por Manuel Caballero, quien además ha aprovechado para lanzar
una crítica a Microsoft ya que considera que la compañía de Redmond no está trabajando como debería para cuidar la seguridad de Internet Explorer.
Según sus propias palabras cree que Microsoft quiere deshacerse de forma “silenciosa” de Internet Explorer mediante una política de abandono gradual que lo está dejando en una posición cada vez más complicada.
No hay duda de que Internet Explorer es un navegador que ha perdido totalmente el cariño del gran público y que al final acabará siendo sustituido totalmente por Edge de Microsoft, pero lo cierto es que todavía mantiene una gran cuota de mercado y por tanto los de Redmond deberían preocuparse de mantenerlo en un estado óptimo.
Mañana se producirá el lanzamiento oficial de Super Nintendo Classic Mini Edition, una consola que como sabemos mantiene todas las claves básicas que vimos en la NES Classic Mini y sobre la que ya hicimos un repaso a todas sus claves fundamentales en este artículo.
Algunos
medios ya han empezado a recibir unidades de la Super Nintendo Classic
Mini Edition y gracias a ello hemos podido confirmar que la consola
utiliza el mismo hardware que la NES Classic Mini, algo que en el fondo no nos extraña ya que hablamos de un sistema basado en Linux que recurre igualmente a la emulación.
¿Qué especificaciones tiene entonces la nueva “consola retro” de Nintendo?
Pues en su interior nos encontramos con un SoC Allwinner R16 con una CPU de cuatro núcleos Cortex-A7 de 32 bits, GPU Mali 400 MP2, 256 MB de memoria RAM de tipo DDR3 y 512 MB de capacidad de almacenamiento tipo NAND Flash.
Como vemos es un hardware bastante modesto pero más que suficiente para mover las ROMs de juegos de Super Nintendo, que corren sobre un emulador diseñado para funcionar sobre Linux, el sistema operativo que utiliza la Super Nintendo Classic Mini Edition.
Aunque
el hardware no sorprenda debemos tener en cuenta que en este tipo de
consolas no hace falta un procesador muy potente o una gran cantidad de
memoria RAM. La “magia” está en el emulador y en la optimización del mismo para poder mover los juegos incluidos con una calidad acorde a la que tenían los títulos en su plataforma original.
Esto
es muy importante ya que si no se cuida la calidad de la emulación
podemos llevarnos un chasco tan grande como el que se vivió en su
momento con la malograda Neo Geo X Gold.
Por otro lado el hecho de que se haya montando el mismo hardware es una buena noticia para los que quieran ampliar de forma no oficial el catálogo de juegos de la consola, ya que el proceso debería ser igual o muy parecido al que se siguió con la NES Classic Mini.
Resident Evil, el juego que definió el género survival
horror en la Playstation, está tratando de expandir su legado de vuelta a
la era de 16 bits. Un grupo de aficionados está desarrollando un Resident Evil en 16 bits para Sega Mega Drive y ya puedes descargar la demo.
Finalmente, después de casi dos meses de trabajo, el sitio web PSCD.ru ha lanzado una demo de Resident Evil en 16 bits para el Sega Mega Drive / Genesis.
No se dieron detalles de la historia, pero sobre la base de capturas de
pantalla y la demo, parece que Claire Redfield jugará un papel
importante en el juego. La demo es muy corta, pero muestra varios
conceptos claves de la jugabilidad como una representación de 16 bits de
la icónica pantalla de inventario del Resident Evil
y una vista isométrica en tercera persona (un detalle muy interesante
ya que no hay muchos juegos isométricos para la consola de Sega). El
nivel mostrado parece tener lugar en la Mansión Spencer, que se
encuentra infestada de zombis, compuesto por largos pasillos, una enorme
escalera en medio de un gran vestíbulo, y un garabato sangriento de
“RedRum” en una pared de baño en una aparente referencia a la película
The Shining del maestro Stanley Kubrick.
Esta versión de Resident Evil en 16 bits está, obviamente, todavía en las primeras etapas de desarrollo, pero el equipo ruso de PSCD está comprometido a seguir adelante para poder terminarlo (siempre y cuando Capcom
no decida tomar cartas en el asunto y dar de baja el proyecto como
suele ser común en este tipo de casos). Lanzado en 1996 para PlayStation
y más tarde adaptado para Windows, Sega Saturn y Nintendo DS, Resident Evil
nos presenta a Chris Redfield y Jill Valentine, miembros del grupo de
élite S.T.A.R.S., mientras investigan en las afueras de Raccoon City
tras la desaparición de los miembros del equipo Bravo. Pronto quedan
atrapados en una mansión infestada de zombis y otros monstruos a los
cuales deberán enfrentar para poder escapar. La descarga de Resident Evil en 16 bits es un ROM, así que te recomendamos usar el emulador GENS para poder jugarlo sin inconvenientes.
Un verdadero clásico para obtener vidas infinitas y más
Algunos juegos podían ser particularmente brutales con su
dificultad, y cuando el desarrollador no habilitaba ninguna clase de
ayuda, la única opción para los jugadores era adoptar un sistema externo de trucos. Los tres nombres principales del mercado eran Action Replay, GameShark, y el Game Genie, tan repudiado por Nintendo
que incluso demandó a uno de sus distribuidores originales. Hoy vamos a
ver de cerca el funcionamiento del Game Genie, y a decir verdad, es
mucho más complicado de lo que imaginamos…
Existe una vieja frase para describir la dificultad de juegos clásicos, y es «Nintendo Hard».
Battletoads, el primer Contra sin códigos Konami, Castlevania, Ghosts
‘n Goblins, Ninja Gaiden, Mega Man, TMNT, Punch-Out!…títulos implacables
si los hubo. La idea era que el jugador siempre volviera por más,
pero en muchos casos la frustración se hacía tan grande que quedaban a
medio terminar. Claro que… llevar la dificultad al máximo no fue algo
exclusivo de Nintendo. El resto de las plataformas no se quedaban atrás,
y la búsqueda de trucos era constante. Seamos sinceros: La mayoría de las publicaciones dedicadas a los videojuegos en los ’80 y ’90 existían para compartir trucos, trampas y atajos. Sin embargo, eso adquirió otra dimensión con el lanzamiento de los «cheat systems», entre los que se destaca el Game Genie.
El vídeo explica todos los detalles técnicos sobre la interacción entre el Game Genie
y las diferentes plataformas para las que fue lanzado. Características
esenciales como el procesador de las consolas y el uso de «bank switching» cambiaban radicalmente su funcionamiento, pero en términos relajados podemos decir que el Game Genie es un «hombre en el medio»
que intercepta la comunicación entre la ROM del cartucho y la consola.
Todo lo que debía hacer el jugador era ingresar un código especial para
modificar un par de bytes vinculados a un elemento dentro del juego, por
ejemplo, la cantidad de vidas disponibles o el tiempo restante.
Cuando el procesador necesita ejecutar o leer algo desde la ROM, el
valor dentro del cartucho se almacena en un registro interno. El trabajo
del Game Genie es monitorear cada lectura de la ROM, y si uno de los códigos afecta a una ubicación de memoria, «secuestra» la señal para reemplazarla con otro valor.
Esta técnica hace que un código sólo pueda leer y/o modificar una zona
de memoria a la vez, por lo tanto, el Game Genie aceptaba entre tres y cinco códigos como máximo. El «bank switching» complica aún más las cosas, porque en el proceso de «intercambio», una dirección de memoria idéntica no siempre corresponde al mismo valor de la ROM. El Game Genie
no tenía forma de saber qué banco ROM había sido mapeado en memoria, y
su solución parcial era sumar un valor extra de comparación (o chequeo de integridad)
en el código. El Game Genie estuvo disponible para NES, Game Boy, Sega
Game Gear, Super Nintendo y Genesis/Mega Drive. Muchos jugadores aún
creen que el Action Replay y el GameShark son opciones superiores (crear tus propios códigos no daba tantos dolores de cabeza), pero todo truco era bienvenido en aquel entonces, sin importar el sistema usado.
Administrar el espacio disponible en un ordenador no es tan complicado en estos días. Un terabyte de capacidad cuesta menos de 50 euros, y las unidades de estado sólido
son cada vez más grandes, sin embargo, hay usuarios allá afuera que
siempre encuentran la manera de consumir hasta el último byte. Una
pregunta clásica de mantenimiento es cuánto espacio debería quedar libre en promedio. Con el paso del tiempo se establecieron ciertas «reglas», pero el software ha cambiado, y las exigencias del usuario son diferentes.
¿Falta espacio en tu ordenador? Un disco duro Seagate de un terabyte no supera los 46 euros, mientras que por el lado de Western Digital queda a las puertas de los 50 euros. Si el presupuesto es demasiado ajustado y no es posible invertir en una unidad nueva, siempre se puede recorrer el camino del «refurbished» o los «pulls»
de ordenadores nuevos. Aún así, hay veces en las que el espacio nos
falla, y llega la hora de una gestión más profunda. La unidad de sistema
empieza a guardar vídeos, juegos, música e imágenes, pero ese contenido
compite con el propio Windows y sus actualizaciones masivas. Entonces, ¿cuál es el límite? ¿Cuánto espacio libre debe quedar para que las cosas funcionen de forma más o menos decente? La
unidad C (SSD) es un ejemplo extremo aquí, con 94 GB libres de 111. El
disco duro D, aislado del sistema, sólo tiene un 32 por ciento de
espacio disponible, sin pérdida de rendimiento.La famosa «regla del 15 por ciento» surge de la documentación del desfragmentador
Siendo honesto, creo que nadie lo sabe con certeza. Microsoft se ha limitado a sugerir parámetros de «espacio mínimo» en ciertas tareas (como las instalaciones), pero solo eso. Tal vez su dato más firme sea al momento de desfragmentar. La documentación oficial indica que el desfragmentador necesita un 15 por ciento del espacio libre para el proceso completo, o de lo contrario realizará una desfragmentación parcial. En el caso de los SSD esto es irrelevante porque no requieren una desfragmentación clásica, y hay viejas guías que apuntan a un 25 por ciento
de espacio libre, aunque en los últimos cinco años las unidades de
estado sólido han mejorado en gran medida, y su degradación tarda más en
manifestarse. Al mismo tiempo, estamos obligados a destacar que ya no conviene hablar de porcentaje, sino de espacio neto. Después de todo, el 15 por ciento de 3 TB son 450 gigabytes, y no tiene sentido desperdiciarlos. Aunque siempre voy a apreciar una buena administración, los 3 TB ya están por debajo de los 100 euros…
Regresando a los discos duros, mi recomendación personal sobre cuánto espacio libre debería quedar es «todo el que puedas permitir, con moderación»,
en especial si hablamos de la unidad que posee la instalación de
Windows. No olvidemos que las velocidades de un disco duro no son
constantes, y si a esto le sumamos una partición repleta de datos
combinada con los efectos de la fragmentación, su rendimiento
inevitablemente decae. Esa merma es más tolerable en discos secundarios que sirven como «contenedores»,
pero la unidad con el sistema operativo, el archivo de intercambio y el
archivo de hibernación necesita responder lo más rápido que pueda. Por
ese y otros motivos se ha vuelto tan popular la configuración híbrida de SSD+HDD. Deja un pequeño estado sólido para Windows, y que todo lo demás se quede con el disco duro.
Gracias a un nuevo método de estudio la NASA ha podido confirmar que la corteza de Martees menos densa de lo que se creía inicialmente, un descubrimiento interesante que nos da nuevas pistas sobre el planeta rojo.
Ese método de estudio que ha permitido conocer con mayor detalle las
características de la corteza de Marte se ha llevado a cabo teniendo en cuenta la topografía (cambios de elevación) en la superficie del planeta, una información que se combinó con los datos del campo de gravedad del mismo.
Los cálculos realizados sobre la base de esos datos permitieron como
dijimos concluir que la corteza de Marte es menos densa que la de la
Tierra. Esto choca frontalmente con las concepciones anteriores, que
estimaban que su corteza debía ser casi tan densa como la de la Tierra.
Según el estudio la densidad de la corteza varía entre las diferentes
regiones de Marte y los expertos creen que esa menor densidad se debe a
la elevada porosidad de su superficie.
Sander Goossens, jefe del proyecto, nos confirma por qué es importante este descubrimiento:
“La corteza es el resultado final de todo lo que sucedió durante la historia de un planeta, por lo que una menor densidad podría tener importantes implicaciones sobre la formación y la evolución de Marte”.
Dicho de otra forma, gracias a este descubrimiento tenemos una base importante que podría dar pie a la formación de nuevas teorías sobre el pasado y el futuro de Marte, e incluso podría acabar modificando total o parcialmente teorías ya existentes sobre dicho planeta.
La nave/sonda Cassinicaerá hoy en la atmósfera de Saturno
marcando su final y el de una misión de varias agencias espaciales que
comenzó hace casi 20 años (junto a la sonda Huygens) y que nos ha
entregado información del planeta y sus satélites como ninguna otra
antes. NASA TV
retransmitirá el descenso (sobre las 7:55 horas a.m. ET) mortal
pero controlado para evitar que pueda contaminar a Titán o Encelado y
nos ha parecido adecuado ofrecerte una galería con imágenes seleccionadas
como pequeño homenaje a esta gran nave espacial que seguirá trabajando
enviando información hasta el último momento de su destrucción en la
atmósfera del planeta de los anillos.
* * * * *
Lanzamiento Cassini-Huygens. La nave Cassini y la
sonda Huygens en pleno lanzamiento el 15 de octubre de 1997 desde la
estación de Cabo Cañaveral con un cohete Titan IVB/Centaur de dos
etapas. Entró en órbita alrededor de Saturno el 1 de julio de 2004 y el
25 de diciembre de 2004 la sonda se separó de la nave. Un mes después,
Huygens descendió a la atmósfera de Titán y con ello, logró el récord de
distancia desde la Tierra de una nave aterrizada.
Corsair ha presentado un nuevo kit de memorias DDR4 que pasan por ser la RAM más rápida del mercado, alcanzando “de serie” nada menos que 4600 MHz.
El nuevo kit de memorias Corsair se incluye en la serie de alto rendimiento Vengeance LPX y ofrecen una capacidad de 16 GB en
dos módulos de 8 GB. Trabaja a 1,5 voltios y su latencia
es CL19-26-26-46. Están destinadas preferentemente a trabajar con los
procesadores Intel Core X y ha sido desarrollada especialmente para la placa ASRock X299 OC Formula.
Por supuesto tienen soporte completo para Intel XMP 2.0, la tecnología Extreme Memory Profile que
permite hacer overclocking en memorias DDR3/DDR4 con los procesadores
Intel desbloqueados, aunque la verdad, no sabemos si se podrá sacar algo
más de esos increíbles 4600 MHz.
Como todos los módulos de esta serie de gama alta, incluyen
un difusor de calor LPX para mejorar la transferencia térmica y
garantizar estabilidad bajo cualquier carga. Carga en estaciones de
trabajo y PC entusiastas donde están destinados porque su precio se sale
totalmente del mercado del gran consumo: 549 dólares para una disponibilidad a partir del 21 de septiembre.
Corsair comercializará un segundo kit con disponibilidad inmediata y una frecuencia de 4500 MHz. Su precio oficial es de 479 euros. Impresionantes las nuevas memorias Corsair en rendimiento y precio.
Fuente:
http://www.muycomputer.com/2017/09/15/corsair-memorias/
Todavía faltan muchos años para que veamos una colonia humana en Marte,
pero la NASA ya ha iniciado numerosos proyectos que le permitirán
recoger la información que necesita para poder llevar a cabo la primera
misión tripulada a dicho planeta.
Uno de los más interesantes ha sido la simulación
de aislamiento de seis personas, dos mujeres y cuatro hombres, en una
zona volcánica de Hawái que ofrece un paisaje muy similar al que
encontraríamos en Marte, y en el que además se han recreado la mayoría de las condiciones que deberían enfrentar dichos sujetos en una misión real.
Además del aislamiento y del paisaje se ha utilizado un sistema de comunicaciones que aplica el retraso de 20 minutos
que existiría entre el envío y la recepción de la señal en una misión
real en Marte, y los participantes sólo han podido consumir alimentos
secos, que serán la base de cualquier misión tripulada al menos durante
su etapa inicial.
Decimos esto porque el asentamiento de una auténtica colonia en Marte requeriría de una capacidad de subsistencia
que no sería posible mantener con grandes reservas de comida
deshidratada. Sería necesario instalar cultivos y producir alimentos de
forma sostenible, ya que de lo contrario su sostenibilidad no sería
viable.
Este experimento permite como dijimos recopilar una serie de datos
que pueden ser de gran utilidad en una futura misión a Marte. Al mismo
tiempo también muestra las reacciones y el impacto psicológico
que puede tener en las personas y facilita la valoración y
determinación de qué participantes serían los mejor cualificados para ir
al planeta rojo.
Fuente:
http://www.muycomputer.com/2017/09/16/simulacion-aislamiento-marte/
Bethesda ha publicado un nuevo tráiler de The Evil Within 2, un juego muy esperado que nos volverá a poner en la piel del detective Sebastián Castellanos y que recupera la apuesta por esa unión de terror puro, psicológico y visceral que vimos en la primera entrega.
En este nuevo tráiler de The Evil Within 2 podemos confirmar que se mantiene además la estructura por capítulos del original y conoceremos a un nuevo enemigo que recibe el nombre de Guardián.
De nuevo Tango Gameworks hace gala de una creatividad macabra para dar forma a una localización asfixiante y abrumadora que se ve rematada por un enemigo imponente. La tensión de la escena que vemos en el vídeo que ve rematada por la aparición de Stefano Valentini, quien lanza un “regalo” al protagonista que ironías del destino al final acaba salvándole la vida.
A nivel de diseño el juego tiene buena pinta y parece que se mantiene
todas las claves que hicieron grande al primero. Esa división por
capítulos también contribuye a darle un toque narrativo más sencillo y fácil de asimilar por parte del jugador, y al mismo tiempo permite a Tango Gameworks utilizar diferentes localizaciones y enemigos “temáticos”.
The Evil Within 2 mantiene el motor gráfico idTech 5
aunque está fuertemente personalizado para ofrecer una calidad de
imagen superior. Habrá que ver si esta vez han cuidado un poco más la
optimización.
Su lanzamiento está previsto para el 13 de octubre en Xbox One, PS4 y PC. No conocemos los requisitos, pero si pudisteis mover el primero no deberíais tener problema con esta segunda entrega.
Un equipo internacional de astrónomos ha
realizado un estudio de los planetas de Trappist-1, un sistema solar
sobre el que ya tuvimos ocasión de hablar en este artículo y que como sabemos destaca por tener un cierto potencial de cara a la existencia de vida alienígena.
Los expertos han recurrido al espectrógrafo de imágenes del Hubble
para poder analizar la cantidad de radiación ultravioleta que reciben
los planetas de Trappist-1, un fenómeno importante porque la radiación
ultravioleta puede descomponer las moléculas de agua en hidrógeno y oxígeno.
El hidrógeno en su forma gaseosa es ligero y puede escapar de la atmósfera del planeta,
haciendo que pueda ser identificado fácilmente por el Hubble. Esto a su
vez permite a los astrónomos disponer de una fuente de información
fiable con la que sacar conclusiones sobre la posible presencia de agua
líquida en esos planetas.
Gracias al estudio de la cantidad de radiación ultravioleta emitida
por Trappist-1 los expertos creen que los planetas interiores de dicho
sistema solar, los más cercanos a su estrella, podrían haber perdido una cantidad de agua enorme (alrededor de veinte océanos terrestres).
Sin embargo los planetas exteriores han sufrido una exposición más limitada a la radiación ultravioleta, por lo que habrían perdido mucho menos agua y por tanto podrían tener una reserva importante en su superficie.
Uno de los máximos responsables del estudio ha querido ser prudente con los resultados y ha matizado que todavía no se puede concluir de forma definitiva que haya agua, y tampoco que los planetas de Trappist-1 sean realmente habitables.
Fuente: http://www.muycomputer.com/2017/09/01/hubble-agua-planetas-trappist-1/