miércoles, 4 de julio de 2018

Cómo abrir la Bandeja de DVD desde el teclado

A veces puede pasar que la lectora de DVD se encuentra lejos de tu alcance o que el botón para abrir y cerrar la bandeja se encuentre deteriorado, dificultando su uso. Para esos casos ahora es posible abrir la Bandeja de DVD desde el teclado o con el ratón gracias a una pequeña aplicación llamada Door Control.
Si tienes un lector de DVD en el ordenador de sobremesa o portátil, abrir la bandeja es algo que puede ser más sencillo de lo habitual con tan sólo presionar un botón. Sin embargo, esto puede ser un poco molesto si el gabinete de la computadora está debajo de la mesa o si tienes una computadora portátil con la puerta de la unidad de DVD lateral de un lado incómodo. Por suerte, es posible abrir la Bandeja de DVD desde el teclado o con el ratón gracias a una pequeña aplicación llamada Door Control.
Asigna un atajo desde el teclado para abrir la Bandeja de DVD

Cómo abrir la Bandeja de DVD desde el teclado

Una vez que descargues e instales la aplicación, se añadirá el icono de Door Control en la barra de tareas que te permitirá abrir y cerrar la Bandeja de DVD con un sólo clic. También puedes asignar un atajo desde el teclado estableciendo una combinación de teclas para hacer el proceso incluso más cómodo.
Aquí puedes modificar el color del ícono
A diferencia de otros softwares similares, Door Control usa un algoritmo especial para reconocer si las puertas están abiertas o cerradas. Sin dudas, una aplicación ideal si tienes la Bandeja de DVD lejos del alcance de tus manos o si el botón del gabinete está deteriorado. Desarrollado por Digola, Door Control 4.1 es un software que pesa tan solo 469 KB y está disponible para descargar de forma gratuita.

Fuente:
https://www.neoteo.com/como-abrir-la-bandeja-de-dvd-desde-el-teclado/

El error de código de la NASA que costó 150 millones de dólares

22 de julio de 1962. Todo estaba listo para que la NASA lanzara la primera sonda del programa Mariner. Su objetivo era llevar a cabo el primer sobrevuelo no lunar de la historia, con una visita al planeta Venus. El lanzamiento se desarrolló sin incidentes, pero el cohete comenzó a responder de forma errática a los comandos enviados por los sistemas de guía, y el oficial de seguridad no tuvo más opción que ordenar su autodestrucción 294.5 segundos después. ¿Qué fue lo que sucedió? Alguien escribió mal un símbolo matemático en una transcripción, y terminó convertido en un bug de software.

Vamos a iniciar este artículo con una pequeña mala noticia: El lanzamiento del Telescopio Espacial James Webb ha sido demorado otra vez. Una junta de revisión analizó la situación actual del telescopio, y necesitará como mínimo tres años más de trabajo… al igual que una inyección de 800 millones de dólares en su presupuesto. ¿Qué nos confirma esto? Ir al espacio es difícil, y es caro. Ambos factores obligan a los expertos a ser conservadores, o de lo contrario, un simple error podría provocar pérdidas aún mayores. La NASA aprendió esto por las malas en varias oportunidades. Una de las primeras, fue Mariner 1:

El representante original del programa Mariner tuvo un costo de 18.5 millones de dólares en 1962, que ajustados a inflación lo colocan por arriba de los 150 millones de dólares. En la mañana del 22 de julio, Mariner 1 despegó con rumbo a Venus para realizar el primer flyby no lunar de la historia, y obtener datos sobre su atmósfera y temperatura. El rendimiento del cohete Atlas-Agena era correcto… pero no se podía decir lo mismo de su comportamiento. Para mantener la trayectoria, el Mariner 1 utilizaba dos sistemas, uno que medía su velocidad con mediciones de desplazamiento Doppler provenientes de una instalación en tierra, y otro de seguimiento que medía distancia y ángulo relativos a una antena instalada en la zona de lanzamiento. El primer sistema experimentó una falla, y aunque el segundo tenía la capacidad técnica para contener el problema, la naturaleza del error hizo que el vuelo fuera demasiado errático. ¿Por qué?
El código escrito para interpretar tanto la distancia como el ángulo tenía un error: Faltaba una barra horizontal en la parte superior de un símbolo, un vinculum por así decirlo. El rol de la barra era tomar el valor promedio de la primera derivada que marca velocidad (el punto bajo la línea). Al «suavizar» el valor de la velocidad, cualquier fluctuación debería ser eliminada, pero con la ausencia de ese vinculum, el ordenador a bordo del cohete comenzó a recibir información errónea, y con cada intento de compensación se convirtió en un carnaval volador. El origen del error es evidente: No había entornos avanzados de programación ni detección automática de errores. La conversión de código escrito a mano o con máquina de escribir a tarjetas perforadas era lenta, tediosa, y costosa. Por suerte, la NASA encontró el error, aplicó las correcciones necesarias, y Mariner 2 logró lo que su hermano no pudo un mes más tarde.

Fuente:
https://www.neoteo.com/el-error-de-codigo-de-la-nasa-que-costo-150-millones-de-dolares/


lunes, 4 de junio de 2018

Las interferencias mediante ultrasonidos pueden bloquear un disco duro


El sonido puede causar serios daños en seres vivos y también es capaz de romper objetos, una realidad que Blue Note ha llevado a otro nivel gracias al desarrollo de un medio de ataque basado en interferencias con ultrasonidos que puede llegar a bloquear un disco duro.
Los daños no son permanentes si se realiza de forma breve, pero en aquellos casos en los que el ataque con ultrasonidos se mantiene durante un periodo de tiempo determinado se acaba produciendo la corrupción de los archivos del sistema.

¿Cómo funciona?

La idea es bastante fácil de entender. Un disco duro es un componente que tiene piezas mecánicas y que se divide fundamentalmente en el cabezal de actuación y los platos. El proceso de lectura y escritura se realiza a través de dicho cabezal, una parte móvil que es sensible a las vibraciones.
Pues bien, al lanzar un ataque mediante ultrasonidos contra un disco duro se producen fuertes vibraciones que pueden forzar a dicho componente a detenerse para evitar daños. Esto hace que la unidad se bloquee y que pueda recuperarse una vez que se detiene el ataque, pero puede llegar a quedar totalmente inutilizado si como dijimos éste se mantiene de forma indefinida.
Como habréis podido imaginar este problema no afecta a las unidades SSD, ya que son soluciones que carecen de partes mecánicas y que recurren a chips de memoria NAND Flash como sistema de almacenamiento.
En el vídeo que acompañamos en el artículo podéis encontrar la exposición completa que realizó Blue Note explicando todas las claves de este ataque mediante ultrasonidos.

Fuente:
https://www.muycomputer.com/2018/05/29/ultrasonidos-bloquear-disco-duro/

lunes, 7 de mayo de 2018

El fino arte de reparar televisiones: Una práctica maravillosa que se resiste a desaparecer (vídeo)

Su mantenimiento presenta viejos desafíos en una nueva era

Lo primero que le viene a la mente a cualquier persona que todavía conserva un viejo televisor de tubo es tirarlo a la basura, en especial cuando lo compara con la definición, la delgadez y el bajo peso de los nuevos paneles LED. Sin embargo, existe un importante número de entusiastas que se dedican a reparar, restaurar y preservar estos aparatos, a los que se suman un puñado de profesionales como Chi-Tien Lui, ingeniero eléctrico que ha compartido su habilidad con instituciones al nivel del Museo de Arte Moderno, y el Smithsoniano.

Reemplazar un par de capacitores en una fuente de alimentación no es complicado. Todo lo que se necesita es media hora en YouTube, un soldador, un par de sesiones para practicar, y tomar precauciones básicas, como descargar completamente a la fuente antes de trabajar sobre ella (algunas hacen eso solas, otras requieren ayuda). Pero cada dispositivo posee sus propios demonios, y a la hora de enfrentar a una vieja televisión de tubo… digamos que son muchos. Problemas de geometría, ruidos de alto voltaje en el interior, pérdida de audio, colores individuales que fallan y el clásico agotamiento del CRT son algunos de los desafíos más destacados. Acumular experiencia es crítico en la reparación de pantallas de tubo (ya sean televisores comunes, unidades PVM, recreativas o monitores de ordenador), y eso nos traslada a Manhattan, donde un ingeniero eléctrico sigue dando pelea.

Comprar un televisor en los Estados Unidos a fines de los ‘60 era dentro de todo fácil; mantenerlo en funcionamiento, no tanto. Chi-Tien Lui fundó su compañía CTL Electronics en el año 1968, y desde entonces ha sido un testigo privilegiado de la evolución televisiva. La televisión en sí no era solamente un nuevo medio para distribuir información y entretenimiento, sino que cargaba con un potencial artístico impresionante. Su tienda de reparación se convirtió en una especie de templo electrónico que todo artista debía visitar para conocer lo último de lo último en audio y vídeo. Nombres del calibre de Andy Warhol, John Lennon y Francis Ford Coppola pasaron por allí, pero Chi-Tien Lui no se limitaba a venderles equipo. También había un proceso de personalización que respondía a sus deseos y exigencias.
Hoy, Chi-Tien Lui es el hombre al que buscan espacios como el Instituto Smithsoniano, el Met, el Museo Guggenheim de Nueva York y el Museo del Arte Moderno para realizar tareas de conservación. Todas sus obras basadas en electrónica de tubo pueden fallar en cualquier momento, y es él quien las hace regresar de la oscuridad, protegiendo su apariencia original. Es evidente que Chi-Tien Lui se divierte en su trabajo a pesar de las dificultades, y desde cierto punto de vista, lo envidio un poco por eso.

Fuente:
https://www.neoteo.com/el-fino-arte-de-reparar-televisiones-una-practica-maravillosa-que-se-resiste-a-desaparecer-video/

domingo, 6 de mayo de 2018

El Mars InSight de NASA ya vuela rumbo a Marte

NASA ha lanzado con éxito el módulo de aterrizaje Mars InSight a bordo de un cohete Atlas V. Tras algo más de seis meses de viaje se posará sobre Marte con la misión de estudiar el subsuelo del planeta rojo.
Mars InSight (abreviatura de Interior Exploration using Seismic Investigations, Geodesy and Heat Transport) es otro de los lander que deben estudiar Marte antes del comienzo de las apasionantes misiones tripuladas. Estos aterrizadores han sido todo un éxito especialmente sus versiones móviles que conocemos como rovers, el Spirit, Opportunity. Es la la primera nave espacial de la NASA en despegar desde que el rover Curiosity comenzó su viaje al espacio profundo en noviembre de 2011.
Mars InSight no correteará por el planeta sino que estudiará la corteza del planeta durante dos años, medirá calor y presión, detectará vibraciones por los terremotos marcianos, ataques de meteoritos y en general controlará el puso del planeta. El instrumento principal es un sismómetro de ultraalta precisión alojado en una cámara de vacío. Dicen que lo de “ultra” no es exagerado porque podrá detectar vibraciones más pequeñas que un átomo de hidrógeno.

El aterrizador tiene un brazo robótico que será el encargado de situar al sismógrafo, una sonda de calor, cámaras, un taladro para perforar la superficie, paneles solares para alimentación y otros instrumentos que han sido construidos por varios países.
El objetivo de la NASA es dotarnos de una mejor comprensión de lo que hay debajo de la superficie de Marte y de cómo se formó inicialmente el planeta, con la esperanza de arrojar luz sobre la formación de la Tierra y de otros planetas rocosos “dándonos una idea del tamaño del núcleo, el manto, la corteza, y nuestra capacidad para comparar eso con la Tierra”, dicen desde NASA. Marte es mucho menos activo geológicamente que nuestro propio planeta, por lo que los científicos esperan sea más fácil estudiar el proceso entre su creación y su estado actual.
Además del aterrizador, NASA ha lanzado dos pequeños satélites del tamaño de un maletín que se utilizan generalmente para recopilar datos en órbita baja de la Tierra. Estos CubeSats son los primeros de su tipo en ir al espacio profundo e intentarán transmitir información del aterrizador. La NASA señala que los satélites no son necesarios para la misión InSight, pero servirán para probar la recogida y envío de datos lejos de la Tierra.
Se espera que InSight y los CubeSats trabajen en Marte al menos durante dos años en otra misión que nos acerca a las primeras misiones tripuladas al planeta rojo. Mars InSight | NASA

Fuente:
https://www.muycomputer.com/2018/05/06/mars-insight/

miércoles, 25 de abril de 2018

PS5 de Sony; todo lo que sabemos (y esperamos) de la nueva generación

PS5 (PlayStation 5) es el nombre con el que conocemos a la que será la próxima consola de Sony, un sistema de nueva generación que sucederá a las actuales PS4 y PS4 Pro y que en teoría debería mantener el esquema de nombres habitual.
Esto quiere decir que no esperamos que Sony opte por un cambio de nombres y que aunque no esté confirmado oficialmente todavía podemos dar casi por seguro que su próxima consola se llamará PS5.
Con PS4 vendiendo como rosquillas a pesar de tener más de cuatro años en sus espaldas y PS4 Pro lanzada hace relativamente poco es normal que Sony no tenga prisa por hablar de PS5, pero sabemos que la consola está en desarrollo y tenemos numerosas predicciones y filtraciones que nos han dejado ver algunos de sus detalles más importantes.
Sabemos que muchos de nuestros lectores tienen ya la mirada puesta en PS5, así que hemos querido hacer este artículo especial en el que os contaremos todo lo sabemos de la nueva consola de Sony. Tened en cuenta que vamos a unir predicciones de analistas con filtraciones y que completaremos la información con nuestra propia intuición, así que no se trata de datos definitivos, aunque sí bastante probables.

PS5, un vistazo al concepto base

La consola de próxima generación de Sony va a mantener la arquitectura que hemos visto en PS4 y PS4 Pro. Esto quiere decir que se utilizará de nuevo un procesador x86 de 64 bits y que no se volverá a las soluciones personalizadas como ocurrió en su momento con PS3 por ejemplo, que como sabrá la mayoría de nuestros lectores estaba basada en una CPU Cell de IBM (arquitectura PowerPC).
Dicho de una manera más simple esto significa que la base de PS5 volverá a ser la misma que la de un PC convencional, una clave importante que además tiene una razón de ser que no debemos pasar por alto, y es que esto facilita y simplifica las adaptaciones de juegos de consola a PC.
En efecto, al mantener la arquitectura x86 se facilita a los desarrolladores la creación de juegos sobre la base de PS5 y su posterior adaptación a PC. Al utilizar ambas plataformas la misma arquitectura se reducen los tiempos de desarrollo y los costes y se mantiene a la consola como la plataforma de referencia sobre la que partirán todos los desarrollos multiplataforma.
También se da por hecho que Sony mantendrá la arquitectura de memoria unificada. Esto también es importante ya supone la integración de un bloque completo de memoria que trabaja de forma unificada sobre un mismo bus y que actúa como VRAM (memoria gráfica) y RAM (memoria del sistema), a diferencia de un PC que tiene dos bloques de memoria diferenciados; RAM instalada sobre la placa base y la memoria gráfica que incluye la tarjeta gráfica.
A diferencia de la memoria unificada que comparte un mismo bus y trabaja a una misma frecuencia en un PC tenemos dos tipos de memoria funcionando a frecuencias distintas sobre buses diferentes. Por ejemplo PS4 Pro tiene 8 GB de GDDR5 (más 1 GB de DDR3 reservado al sistema) que trabaja a 6,8 GHz sobre un bus de 256 bits, mientras que un PC Gaming estándar tendría 8 GB de RAM DDR4 a 3 GHz sobre un bus de 128 bits (doble canal) y 4 GB de memoria gráfica GDDR5 a 8 GHz sobre un bus de 256 bits (tarjeta gráfica).
Por lo demás Sony debería mantener la unidad óptica, el sistema operativo personalizado con base FreeBSD y la unidad de almacenamiento para instalar juegos. ¿Será un disco duro o un SSD? No lo sabemos, pero por tema de costes lo más probable es que vuelvan a optar por un HDD.

Posibles especificaciones técnicas de PS5

Una de las claves más importantes de PS5 será sin duda el kit específico de desarrollo que facilitar la creación de juegos que aprovechen al máximo sus posibilidades con el mínimo esfuerzo. Esta ha sido una de las ventajas más importantes que han tenido las consolas de nueva generación (PS4 y Xbox One) desde el principio frente a los desarrollos de juegos para PC, que requieren trabajo extra por las diferentes combinaciones de hardware y drivers que existen.
La optimización vía software volverá a ser clave, pero esperamos una importante evolución en términos de hardware que marcará un salto cualitativo y cuantitativo. Con la llegada de las consolas de nueva generación hemos visto una mejora importante en términos de calidad gráfica, pero el salto no ha sido tan marcado como el que vivimos con PS3 y Xbox 360.
Tanto PS4 como Xbox One y sus versiones “Pro” y “X” tienen un importante cuello de botella en la CPU que ha actuado como límite claro en el desarrollo de juegos. Prueba de ello la tenemos en la casi nula evolución que hemos vivido en lo que respecta a las animaciones en los juegos, las físicas y el dominio de los 30 FPS, aunque tampoco debemos olvidar los límites derivados de la memoria disponible en ambas consolas (alrededor de los 5,5 GB compartidos tras descontar lo que consume el sistema).
Con PS5 se espera una mejora fundamental a nivel de CPU, GPU y memoria unificada que permitirá el desarrollo de juegos más complejos, con mayor calidad gráfica pero también mejores animaciones, mundos más abiertos y mejores físicas.
Partiendo de las especificaciones que hemos visto en PS4 Pro y Xbox One X estoy totalmente convencido de que PS5 tendrá unas especificaciones muy parecidas a estas:
  • Procesador de ocho núcleos de nueva generación con un alto IPC (Ryzen+ o superior) a 3 GHz como mínimo.
  • 16 GB de memoria unificada GDDR6, acompañada de memoria GDDR5 reservada al sistema.
  • GPU Radeon de AMD personalizada basada en Navi, integrada en el mismo encapsulado o en formato MCM (módulo multi-chip) con un rendimiento similar al de una Radeon RX Vega 64 (al nivel de una GTX 1080).
  • Unidad de almacenamiento de 2 TB.

Fecha de lanzamiento, precio y otros datos de interés

La mayoría de los analistas y expertos coinciden en que PS5 debería llegar al mercado como muy pronto a finales de 2019, aunque la postura mayoritaria apuesta por un anuncio en 2019 y un lanzamiento en 2020. Esta última tiene mucho sentido, ya que permitiría a Sony exprimir al máximo PS4 y PS4 Pro, y evitaría generar malestar entre los que compraron el segundo modelo hace poco más de un año.
Sobre el precio hay posturas enfrentadas. Algunos analistas creen que es mala idea lanzar una consola de nueva generación por más de 400 euros, pero lo cierto es que viendo el aumento de costes que estamos viviendo en el mundillo tecnológico y la mejora a nivel técnico que marcará frente a la generación actual creemos que lo más probable es que acabe rondando los 500-600 euros.
Hay rumores que dicen que PS5 coexistirá con PS4 y con PS4 Pro y que será compatible con todos sus juegos, una información muy interesante que tiene bastante sentido ya que permitiría a Sony estirar un poco más el ciclo de vida de ambas consolas, que quedarían como alternativa económica a PS5. Al mismo tiempo serviría a la firma nipona para mostrar al mundo las mejoras de la nueva generación, aunque podría complicar las cosas a los desarrolladores.

¿Y qué podemos esperar en términos de potencia?

PS5 será una auténtica consola 4K, de eso no nos cabe duda, pero esto no quiere decir que vaya a ser capaz de ofrecer una experiencia perfecta (calidad ultra y 60 FPS). PS4 es una consola 1080p pero pensada para funcionar en 30 FPS y calidades medias, así que es muy probable que tengamos una fórmula similar en PS5.
La nueva consola de Sony debería ser capaz de mover juegos más complejos, con un nivel de calidad alta en resolución 4K nativa (sin trampa ni cartón) manteniendo entre 30 y 60 FPS. Si hablamos de resoluciones inferiores no hay duda de que su hardware podrá con 1080p y 1440p en calidades máximas sin problemas, pero al final todo dependerá de la evolución en términos de complejidad que experimenten los videojuegos de nueva generación.
Antes de terminar un apunte, y es que podéis tener claro que con la llegada de PS5 se elevarán los requisitos de los juegos para PC, que pasarán a ser adaptaciones de los desarrollos de consola. En este sentido podéis dar por hecho que los 16 GB de RAM serán el nuevo estándar, que los procesadores de más de cuatro núcleos empezarán a ser aprovechados de verdad y que las GTX 1060 de 6 GB y las Radeon RX 580 de 8 GB podrían convertirse en un “requisito mínimo”.

Fuente:
https://www.muycomputer.com/2018/02/11/ps5-sony-sabemos-consola/

viernes, 20 de abril de 2018

En un curso de electricidad, danto la parte de motores de todo tipo, ahora con uno de lavadora. Como curiosidad, lo pongo aquí.

Ver vídeo:

Siguiendo el proyecto.