Algunos juegan con baterías, otros con capacitores, y después están los que disfrutan del alto voltaje. Muy alto voltaje.
Con un poco de tiempo y varios billetes invertidos en eBay cualquiera
puede crear su propia plataforma, transformarla en un sistema de
ignición, o en el primo lejano de un arma de electrochoques. Sin
embargo, el canal FPS Weapons en YouTube tomó otra ruta al construir un generador de «pulso electromagnético» que deja fuera de combate a smartphones, tablets y consolas portátiles por un buen rato…
Muchos trabajos en cine y literatura han explorado este concepto hasta
el cansancio, y no siempre del modo correcto: Una bomba nuclear, un
dispositivo experimental, una red de satélites o una combinación de las
tres opciones genera un pulso electromagnético
lo suficientemente poderoso para destruir a su alcance todo lo que sea
electrónico, desde pequeños relojes hasta flotas enteras. Por supuesto,
en algunas ocasiones la realidad supera a la ficción, y es probable que
nuestros lectores recuerden al llamado Evento Carrington de 1859, un «EMP solar» (técnicamente tormenta geomagnética) que de repetirse hoy causaría billones de dólares en daños. Dicho eso… ¿y si fuera posible hacer un generador de pulso electromagnético portátil? El canal FPS Weapons en YouTube explora esa teoría, y aquí están sus resultados:
Ahora, ¿es esa caja un arma EMP de verdad? Bueno… sí y no. A menos que esté particularmente equivocado (y todos quedan invitados a corregirme), lo único «electromagnético» es el entrehierro con la chispa que permanece oculto dentro de la caja, mientras que el nocaut a los dispositivos es pura inducción. Aún así, se trata de un «accesorio» fácil de fabricar. Una caja que proteja todos los componentes, una batería de litio (puede ser 18650 o similar), un interruptor, un «convertidor de alto voltaje»(léase «generador de pulso», «módulo de ignición», etc.) cuyas especificaciones han sido terriblemente exageradas por sus fabricantes chinos (esos 1.000 KV deben ser en realidad 20 o 30),
y una cantidad suficiente de cobre en la bobina. Imagino que sería
viable sumar un capacitor para optimizar el circuito, pero el vídeo es
contundente.
El generador logra reiniciar un Game Boy Advance SP casi a voluntad, resetear un iPhone, y apagar a un smartphone Android… al que no vemos regresar de su siesta.
Quien desee experimentar con este dispositivo en su laboratorio queda
invitado a hacerlo, pero no creo que sea una buena idea sacarlo a la
calle. Aún si su rango es limitado, lo último que queremos es algo así
afectando a un marcapasos, independientemente de su blindaje. Y como
siempre, cuidado. Esto es alto voltaje, y merece respeto.
Dejemos a un lado los drones que cazan drones, las bazucas, las águilas entrenadas,
y los entusiastas de las armas que practican tiro en sus patios
traseros. La forma más eficiente y segura de limitar el alcance de un
dron es hackeando su sistema, y tomando control directo del mismo mientras está en el aire. Eso es exactamente lo que puede hacer Icarus, compatible con el popular protocolo de comunicación DSMx. Una vez hackeado, el piloto original queda aislado, dejando en evidencia los serios problemas de seguridad que sufren los drones.
En agosto último, una mujer del estado de Virginia derribó de un escopetazo a un dron
que pertenecía a dos paparazzis interesados en capturar imágenes de la
estancia en la que vive el actor Robert Duvall. La información indica
que no se presentaron cargos, pero es una situación que se está
repitiendo alrededor del globo, y en especial al otro lado del charco:
Muchas personas no quieren ver drones, y sus acciones para retirarlos
podrían «disparar» un conflicto legal. Después de todo, la capacidad que tiene una escopeta de convertir a un objeto potencialmente peligroso en muchos ya fue comprobada, y alguien va a salir herido,
es sólo cuestión de tiempo. La alternativa, aunque parezca mentira,
explota las serias deficiencias en seguridad que poseen los drones. Ordenar su aterrizaje es apenas el comienzo. Ahora, se los puede secuestrar en pleno vuelo.
El nuevo sistema bautizado Icarus fue presentado por Jonathan Andersson
en la última edición de la conferencia PacSec. Los detalles técnicos
específicos no se encuentran disponibles, pero lo que sí se sabe es que
Icarus ataca a los drones que utilizan el protocolo de comunicación DSMx.
El funcionamiento de Icarus aprovecha una falla en DSMx al no ofuscar
correctamente una pieza de información compartida entre el dúo transmisor-receptor. El «secreto»
puede ser reconstruido con una simple observación del protocolo, y un
poco de fuerza bruta. A esto se suma una vulnerabilidad frente a ataques de timing
que habilita la inyección de un paquete malicioso, el cual hace que el
receptor acepte nueva información de control. La combinación de ambos
factores lleva al secuestro efectivo del dron.
Por el momento, Icarus no es algo que se compre en una tienda, y los expertos ya destacaron los límites de su alcance (drones y vehículos de radiocontrol que usen DSMx), pero la historia está muy lejos de terminar. DSMx es un protocolo extremadamente popular, lo que complica cualquier estrategia de actualizaciones. Sólo un puñado de transmisores permiten updates de su firmware, sin embargo, quienes en verdad necesitan un hotfix son los receptores. La respuesta de Horizon Hobby, compañía que licencia a DSMx, rozó lo vergonzoso. Nadie en su sección de relaciones públicas fue autorizado a responder, y cualquier duda debía ser dirigida al departamento legal.
SmachZ, la primera consola
portátil para juegos de PC, diseñada y fabricada al cien por cien en
España, estará lista en abril de 2017 y su "lanzamiento global se
producirá entre finales de 2017 o principios de 2018", según ha
explicado el CEO de Smach Team, la empresa mallorquina responsable de
este proyecto, Daniel Fernández.
En
una entrevista concedida a Europa Press, Fernández -que está estos días
en la Madrid Games Week presentando el proyecto-, ha explicado que tras
detener la primera campaña de financiación en Kikcstarte, la nueva
campaña traspasó la meta de 250.000 euros en menos de 48 horas y tienen
de tiempo para recaudar hasta el 19 de noviembre.
Mientras sigue la campaña de
micromezenazgo, la versión normal tiene un precio de preventa de 299
euros, y la versión PRO, con el doble de RAM y disco duro, cámara, 4G y
otros extras, cuesta 499 euros.
Según detalla, la videoconsola
es un PC portátil modular adaptado para jugar a los juegos del catálogo
de Steam, la mayor plataforma de juegos de ordenador desarrollada por la
compañía estadounidense Valve.
Así, destaca que la idea surgió
tras el anuncio por parte de esta empresa de su propia línea de
ordenadores/consolas, las Steam Machines. Pensaron, según cuenta, que
faltaba una portátil y a ello se pusieron, él y sus compañeros de Mutant
Games, su empresa de videojuegos, que cuenta con 10 juegos en el
mercado y cuatro más en desarrollo.
El nombre de la videoconsola
proviene, según revela, de la contracción de las palabras Steam y
Machine; aunque comenzó llamándose Steamboy Project en referencia
también a la Gameboy, la popular consola portátil de Nintendo. "Era un
nombre para comunicar el concepto, nunca tuvo la intención de ser el
definitivo", aclara.
Sobre el sistema modular, el
CEO detalla que la consola está pensada para tener un hardware
actualizable. "Tanto el procesador de la memoria RAM, como el disco
duro", pone como ejemplos, "se podrán intercambiar mediante el cambio de
módulos". "No será como una consola tradicional que tendrás que
comprarte una nueva con el cambio de generación", añade.
Respecto al rendimiento, dice
que "las pruebas están siendo realizadas con juegos triple A actuales
--juegos que suelen tener un gran presupuesto y suelen necesitar
requerimientos técnicos altos-- y los está moviendo a 720p (alta
definición) y entre 30 y 40fps (imágenes por segundo)".
Cinco horas de batería
Por otra parte, asegura que su objetivo es que la batería dure de
media unas cinco horas o más, "según las estimaciones de I+D". "Pero",
añade, "hasta que no tengamos la versión final no quiero poner las manos
en el fuego, pero ese el objetivo y por eso estamos usando una batería
de 1.000 amperios y trabajando para que el consumo sea mínimo".
En relación a los controles,
dice que tienen como referencia el esquema del Steam Controller --el
periférico desarollado por Valve-- que puede configurarse, mediante
accesos directos, para jugar incluso a videojuegos de rol multijugador
masivos en línea (Mmorpg) que suelen requerir el uso de un gran número
de teclas para jugar.
Cabe destacar que si el diseño
de Smach Z se produce en Mallorca, la producción y el desarrollo se hace
junto al partner tecnológico valenciano ImasD, que cuenta con más de 10
años de experiencia en la producción de hardware, dispositivos móviles y
tablets y son propietarios de la tecnología ClickARM.
Sobre trabajar en Mallorca, el
CEO lo tiene claro: "Con Internet se puede llegar a todo el mundo y
tiene sus ventajas ya que al haber menos empresas se puede atraer más la
atención del talento dentro de la Isla".
En un futuro robótico, las máquinas limpiarán nuestras casas y hasta
nos harán la comida, pero por ahora la mayoría de los ciudadanos tienen
que seguir haciendo por sí mismos estas tareas, aunque ya se van
introduciendo pequeños sistemas automáticos. Es el caso de la aspiradora Roomba, el famoso robot circular que se dedica a dar vueltas por la casa para limpiar toda la suciedad y el polvo del hogar.
Aunque es capaz de ahorrar tiempo y esfuerzo físico, su elevado coste supone
una barrera de entrada para que muchos se decidan a probarla: sus
populares iRobots cuestan entre 500 y 1.100 euros en su página web. Aswinth Raj,
un ingeniero apasionado por la electrónica, se ha inspirado en esta
aspiradora para fabricar un autómata que imita sus funciones, aunque de
manera más rudimentaria.
Además, ha publicado una extensa guía para construir el aparato, que incluye motores eléctricos, baterías, infrarrojos y sensores de ultrasonidos para evitar los obstáculos que puedan estar por el suelo, como las patas de una mesa.
Si eres un poco manitas y quieres dejar de aspirar tu casa sin
necesidad de desembolsar una considerable cantidad de dinero, puedes
probar a construir tu propio robot. Quizás el diseño no sea muy
profesional, pero el objetivo es que el sistema funcione más o menos
bien. Aunque difícilmente llegará a tener la precisión de una Roomba, al
menos podrás presumir de haberla construido por ti mismo.
Como es obvio, lo primero que se necesita es una pequeña aspiradora
portátil, como la que se puede enchufar en el encendedor de los coches.
Puedes hacerte con una diferente, pero hay que tener en cuenta que el
robot a construir va a utilizar una batería de 12 voltios con una
capacidad de carga de 20 amperios/hora. Además de este aparato, se
requiere un microcontrolador, varios sensores, motores, material que
pueda hacer de chasis para el robot y una batería.
Uno de los elementos más importantes es el cerebro de la aspiradora. Por eso, su elección es muy importante. Lo más común es optar por una placa Raspberry Pi que puedes encontrar en el mercado a muy bajo coste, en torno a los 20 euros. Otra opción es un Arduino,
un sistema de ‘hardware’ libre que sirve para automatizar dispositivos y
su rango de precios es muy variado. Raj se ha decantado por utilizar
estas placas azules nacidas en Italia que se pueden utilizar para automatizar tu hogar.
Si el Arduino es el cerebro, podríamos decir que los sensores son los sentidos
del robot, pues a través de ellos se recoge la información del exterior
para que la aspiradora pueda detectar los obstáculos y moverse por la
casa. El consejo de este inventor es incorporar un sensor de infrarrojos
y uno o dos de ultrasonidos. Como su propio nombre indica, el primero
de ellos es capaz de medir la luz en el espectro de infrarrojos y así se
obtiene información para calcular las distancias. El sensor de
ultrasonidos también ayuda a medir las longitudes a través de un cálculo con la velocidad y el tiempo del sonido.
Como la batería es bastante grande y pesada, se van a necesitar cuatro motores. Quizás la parte más complicada del proceso es construir el esqueleto
que sostenga todos los elementos. Lo más sencillo es utilizar madera
para componer la estructura: aunque no sea el elemento más resistente,
es muy fácil de trabajar. También puedes optar por hacer un flamante
chasis de plástico con una impresora 3D, herramienta imprescindible para
cualquier ‘maker’. Por otro lado, el metacrilato es resistente, pero se necesitan herramientas especiales para perforarlo y trabajar con él.
Cuando construyas el chasis, ten en cuenta que la aspiradora tiene
que estar colocada de tal manera que se encuentre ligeramente inclinada,
simplemente para que pueda aspirar bien, igual que si la utilizáramos
manualmente.En la página web puedes acceder al código necesario para programar el Arduino.
Allí se muestran los comentarios y las instrucciones para que los
aventureros no se pierdan construyendo su robótica aspiradora.
Al resultado final le puedes ir añadiendo nuevas funcionalidades y
mejoras, como unos cepillos similares a los que lleva Roomba. El proceso
te resultará más o menos difícil dependiendo de tus conocimientos y
habilidades, pero el camino se augura entretenido y muy provechoso para
seguir aprendiendo electrónica.
Con creatividad y perseverancia, convertirse en un manitas
tecnológico te ahorrará dinero, al no tener que gastarte una gran
cantidad en productos fabricados, y tiempo, al dejar que las máquinas se
ocupen de las tareas del hogar. Ya puedes comenzar a construir y
comprobar por ti mismo si te convence este pequeño robot que dejará tu
casa sin una mota de polvo.
Amazon anunció a su asistente hogareño Echo en noviembre de 2014, y los consumidores inmediatamente quisieron saber más. Siete meses después, el Echo se transformó en un producto completo, y su versión revisada Echo Dot saldrá al mercado el próximo 20 de octubre. Sin embargo, puedes crear tu propio Amazon Echo con la ayuda de un Raspberry Pi.
El tutorial y las órdenes para el asistente vienen en inglés, pero el
proyecto es otra prueba contundente de la flexibilidad que ofrece el Pi,
y un punto a favor de Amazon por abrir (en parte) a su plataforma Alexa.
Construye tu propio Amazon Echo con un Raspberry Pi
El Amazon Echo está por ingresar en su segunda generación. El nuevo dispositivo bautizado «Echo Dot» es mucho más económico que su hermano mayor (50 dólares frente a 180),
y aunque eso implica una construcción simplificada, todas sus funciones
mayores siguen allí. Por supuesto, la verdadera magia detrás del Echo es Alexa, y al ser una pieza de software no deberían existir grandes obstáculos para trasladar esa magia hacia otra plataforma.
Por suerte, Amazon brinda acceso a los recursos necesarios si te
registras como desarrollador, descargas todo el código relevante, y
combinas a un Raspberry Pi 3(puede ser una versión anterior, pero el WiFi integrado es una gran ventaja) con un altavoz y un micrófono de buena calidad. Alexa necesita escucharte, y los micrófonos genéricos chinos no se encuentran a la altura de las circunstancias.
El proceso completo es largo, pero sencillo.
Registrarse como desarrollador en Amazon se divide en trece pasos, y
una vez terminados, debemos clonar e instalar el código de Alexa en el
Raspberry Pi con la última versión de PIXEL. Si hay un «inconveniente» en esta edición alternativa del Amazon Echo, es que el servicio Web de Alexa debe ser iniciado a mano cada vez
que encendemos al Raspberry Pi. Se supone que el dispositivo
permanecerá en línea por un tiempo prolongado, pero conectar un teclado y
una pantalla se vuelve tedioso. El último paso es optimizar la calidad
del audio. Básicamente, en este punto interviene el clásico «alsamixer», que nos permite modificar el volumen captura. Reitero: La calidad del micrófono es importante.
Al final del día, este experimento bautizado PiLexa
es muy interesante por el lado del software, aunque la historia es
diferente desde lo económico. Tal y como lo mencioné más arriba, el Echo
Dot tendrá un precio de 50 dólares, una suma similar a la que
deberíamos invertir para obtener todos los componentes. De todos modos,
el DIY no siempre apunta a un precio menor. Lo que importa aquí es la
experiencia.
La compañía japonesa confirmó que está trabajando en el remake de Resident Evil 2, uno de los mejores títulos de la conocida franquicia de zombis y también uno de los más esperados, aunque no tenemos claro cuándo podía acabar llegando al mercado.
En una reciente entrevista con Masachika Kawata, productor de Resident Evil 7, se ha podido confirmar que dicho remake continúa en desarrollo
y que esperan tener cosas para mostrar “pronto”. No pudo concretar nada
ya que los equipos de desarrollo y producción de ambos juegos son
distintos, pero imaginamos que con esto se refiere a que lo más seguro
es que el año que viene veamos contenido “en movimiento”.
Sobre Resident Evil 7 confirmó que no habrá modo multijugador,
ya que es un juego centrado en el terror y creen que la mejor
experiencia posible en este sentido se consigue jugándolo a solas, cosa
que entendemos perfectamente.
También dijo que la demo, que de momento es exclusiva para PS4, podría llegar también a Xbox One y PC,
aunque de nuevo no dio fechas concretas así que es posible que la misma
se vaya casi al mismo punto que el lanzamiento final del juego.
Si todo va según lo previsto Resident Evil 7 será lanzado oficialmente en enero de 2017
en PS4, Xbox One y PC, aunque el modo de realidad virtual será
exclusivo de la primera durante un año, según los últimos rumores.
Como recordaréis los que nos leéis a diario Próxima b es un planeta parecido a la Tierra que se encuentra situado a unos 4,25 años luz, justo en la zona habitable de Próxima Centauri, una enana roja que se considera como la más cercana al Sol.
Desde su descubrimiento se ha hablado mucho sobre su potencial para albergar vida gracias a las grandes similitudes que presenta con nuestro planeta,
y en contra de las opiniones iniciales algunos científicos consideran
que podría incluso tener océanos de agua líquida en su superficie.
Es importante tener en cuenta que aunque Próxima b se encuentre en la
zona habitable esto no quiere decir que nuestra supervivencia en dicho
planeta sea posible o esté garantizada sin esfuerzo, una realidad que los expertos han querido dejar clara desde el principio.
Para entenderlo mejor han puesto como ejemplo a Marte, un planeta que
también se encuentra en lo que podemos considerar como zona habitable y
que además tiene hidrógeno y agua, pero en el que los humanos no podríamos sobrevivir sin hacer grandes esfuerzos.
Por otro lado hay que tener que cuenta que aunque se cree que Próxima
b es un planeta rocoso como la Tierra algunos expertos han señalado la
posibilidad de que tenga elementos que lo asemejen a Neptuno, como por ejemplo una gran capa gaseosa que cubra toda su superficie.
Todavía no hay nada seguro y las opiniones de los científicos no son
absolutas, pero si se llegan a confirmar Próxima B podría acabar siendo uno de los grandes objetivos de la exploración espacial a largo plazo.
El mercado PC sigue en caída libre, según los datos de venta preliminares de la consultora Gartner correspondientes al tercer trimestre de 2016.
Las ventas de PCs en todo el mundo habrían caído un 5,7 por ciento interanual
frente al mismo trimestre de 2015, que ya fue malo de por sí. De hecho,
lo peor es la tendencia, ya que se trata del octavo trimestre
consecutivo de descenso.
El global acumulado por el mercado PC es demoledor porque suma la caída de mayor duración temporal de toda la historia de la industria del ordenador personal.
Por fabricantes, Gartner apunta a un empate técnico a la cabeza del
mercado entre Lenovo y HP, si bien éste logra crecer mientras que la
firma china retrocede. También ganan mercado los dos siguientes, Dell y
ASUS, confirmando que las ventas -en época de crisis- se están concentrando entre los mayores fabricantes. Lo peor llega de Apple y Acer con caídas de dos
dígitos. La firma de Taiwán está en pleno proceso de recuperación
mientras que los de Cupertino necesitan urgentemente una actualización
del catálogo de Mac que esperamos para este trimestre. Ni siquiera Apple
es capaz de “vender” un catálogo con equipos de cuatro años de antiguedad.
¿Por qué el mercado PC sigue en caída libre?
Los motivos de la caída se repiten trimestre a trimestre y van desde la crisis económica en algunas regiones mundiales al mayor atractivo de otros segmentos
como el de móviles inteligentes o tabletas electrónicas, pasando por el
retraso en las migraciones empresariales o la debilidad de la demanda
en países emergentes.
El cliente del PC hoy “aguanta” cada vez más sus equipos informáticos.
Frente a un ciclo de actualización estimada en una media de 4 años,
hemos pasado a 6 años en un corto espacio de tiempo
temporal. Simplemente, el consumidor actual no ve motivaciones en la compra de un nuevo PC y la retrasa, a pesar que nunca ha habido más y mejor oferta de equipos informáticos.
Intel, mayor vendedor de procesadores y base del 85% de todos los PCs
mundiales, tiene varias plataformas de procesamiento en el mercado
que han ido mejorando en algún aspecto (rendimiento o consumo) pero no
lo suficiente para obligar a renovar y procesadores Broadwell, Haswell e
incluso anteriores, trabajan todavía en millones de máquinas. Lo mismo
podemos decir de las plataformas de procesamiento de AMD: hoy un Phenom
x4 va sobrado para el 95% de los usuarios.
También relevante la falta de aporte de otro sostén de la alianza
“Wintel” que dominó con mano de hierro la informática mundial las
últimas dos décadas, Microsoft. El lanzamiento de Windows 10 ha tenido -hasta ahora- un impacto mínimo en las ventas, al
contrario de lo que había venido sucediendo en general con cada nuevo
lanzamiento de Windows. El caso se explicaría ante la gratuidad del
sistema para actualizaciones desde Windows 7 y Windows 8.1 y su nivel
contenido de requisitos de hardware. Puede gustar más o menos, pero más
allá de alguna incompatibilidad, Windows 10 funciona muy bien en equipos
anteriores.
¿Hay futuro para el mercado PC?
El PC ni ha muerto ni morirá. Es insustituible para múltiples tareas
aunque quizá no vuelva a repetir las ventas registradas en sus mejores
años. Ciertamente, a pesar de los datos de venta, nunca en la historia
hubo PCs tan atractivos, potentes, versátiles y con mejor precio por
valor.
Lo único positivo es que la adaptación a la era de la movilidad
es un hecho y por ello frente al descenso del PC de sobremesa clásico,
vemos aumento de venta en otros segmentos como 2 en 1,
convertibles, Ultrabooks o portátiles ultraligeros. Ese parece ser el
futuro, un PC móvil para usar en el trabajo y en el hogar. Junto a
ellos, se observa un interesante aumento por segmentos como
miniordenadores y también por los PC para juegos. Las -retrasadas-
migraciones empresariales deberían ser un revulsivo.
También interesante la venta de componentes, periféricos y accesorios
que no se cuentan en estos listados de equipos nuevos pero que suponen
un aporte de ingresos muy importante para todo el sector informático. No
hay datos precisos, pero se cree que este segmento está mejorando a
medida que los usuarios actualizan sus equipos, reemplazando discos
duros con SSD, aumentando la cantidad de RAM, mejorando la tarjeta
gráfica o comprando un nuevo monitor.
A pesar de las caídas, Gartner sigue observando algunos signos de estabilización y crecimiento para el futuro
con una recuperación del mercado en 2017. Será imposible recuperar los
mejores tiempos del PC pero al menos sí frenar la caída e impulsar el
sector con los nuevos formatos. Veremos. Este trimestre es el más
importante del año en ventas por la temporada navideña.
Tanto PS4 como Xbox One llegaron al mercado con un conector SATA II,
un hecho que ciertamente no es un problema cuando utilizas un disco
duro mecánico, pero que actúa como cuello de botella si tienes pensado
instalar un SSD.
Parece que Sony ha sido consciente de este problema, tal y como podemos ver en la confirmación de que PS4 Pro vendrá con SATA III, una interfaz que permitirá aprovechar sin problemas cualquier SSD estándar actual.
Es una buena noticia para aquellos que tengan pensado comprar la consola y que quieran sustituir el disco duro que traerá por un SSD para reducir los tiempos de carga,
aunque debemos tener en cuenta que con lo que ocupan los juegos de hoy
en día sólo tendremos una experiencia verdaderamente óptima si montamos
una unidad de 1 TB, y su precio es bastante elevado.
Si no vamos a montar un SSD el salto a SATA III no supone ventaja alguna, ya que los discos duros tradicionales, incluidas las unidades híbridas,
no son capaces de saturar el ancho de banda del puerto SATA II, así que
no pueden llegar a aprovechar en lo más mínimo la mayor velocidad de
transferencia que permite su sucesor.
Os lo explico de una forma más sencilla para que os quede lo más claro posible:
SATA II ofrece velocidades máximas de 300 MB/s, SATA III llega a los 600 MB/s.
Con un HDD híbrido como el SSHD Seagate de 2 TB a 7.200 RPM y 8 GB de memoria Flash llegamos a picos de unos 190 MB/s, mientras que un SSD Samsung Evo 850 de 500 GB superamos sin problemas los 500 MB/s.
El jefe de la división Xbox
de Microsoft ha confirmado abiertamente que la retrocompatibilidad con
los juegos de Xbox es algo que no han descartado, y que le gustaría encontrar el tiempo necesario para llevarlo a cabo.
Hablamos de los juegos de la Xbox original, la
primera, esa enorme caja negra con el círculo verde que tantas y tantas
horas de diversión nos dejó hace ya más de una década, y que tiene en su
haber algunos juegos exclusivos realmente atractivos, entre los que
destacan por ejemplo los dos Otogi, Panzer Dragoon Orta, Shenmue II o
Gun Valkyrie.
La idea de añadir la retrocompatibilidad con Xbox 360 en Xbox One
ha sido una idea excelente ya que ha contribuido a mejorar el valor
calidad-precio de la consola de nueva generación de Microsoft, y desde
luego si son capaces de llevar los juegos de Xbox acabarían poniendo “la
guinda al pastel”.
No debemos emocionarnos demasiado ya que estamos hablando de una simple posibilidad
que aunque es vista con buenos ojos por “el jefazo” de Xbox no se
considera como algo prioritario, y que por tanto no tiene porque acabar
materializándose.
Con todo si al final consiguen hacerlo darían una gran alegría a los usuarios de Xbox One, y también podrían animar a los compradores indecisos a apostar por dicha consola.
No es ningún secreto que Microsoft está tratando de acabar con el panel de control clásico y todo indica que ello ocurrirá en Redstone 2, la próxima actualización mayor de Windows 10.
La última build 14942 de Windows 10, a prueba en el canal de testeo Insider, ha eliminado el acceso directo al panel de control
que estaba situado en el menú de usuario alternativo que se abre al
pulsar el botón derecho sobre el menú de inicio o con la tecla rápida
“Windows + X”.
Comentan en Softpedia
que puede ser una señal de la próxima eliminación de este panel de
control que está presente en Windows desde tiempos inmemoriales.
Por supuesto, sus funciones no se van perder porque
son de suma importancia para la gestión del sistema operativo. Muchas de
estas funciones ya están en la herramienta de “Configuración” aunque no
todas.
Panel de control VS Configuración
Las funciones se duplican en ambas de una forma bastante innecesaria y es esperable que Microsoft termine la transición y las coloque todas en la configuración de Windows 10.
Parece que sucederá en Redstone 2. Si estás probando las nuevas build
de Insider y no ves el acceso al panel de control, ya sabes, se ha
eliminado. Si quieres acceder a él, puedes hacerlo -por ejemplo-
tecleando “panel de control” en la barra de direcciones del explorador de archivos.
Fuente:
http://www.muycomputer.com/2016/10/14/panel-de-control-redstone-2
Gracias a la cámara de visión de
energía oscura del Telescopio Victor Blanco, situado en Chile, ha sido
posible descubrir un pequeño planeta que está situado más allá de Plutón, y que de momento ha sido bautizado como 2014 UZ224.
Este planeta cuadra perfectamente con la definición de planeta enano ya que tiene un diámetro aproximado de 530 kilómetros,
lo que lo convierte en un cuerpo más pequeño que Ceres, otro planeta
enano que está ubicado en el cinturón de asteroides que hay entre Marte y Júpiter.
Como habréis imaginado por el dato que hemos dado al inicio 2014
UZ224 se encuentra situado en la parte más “cercana” del cinturón de
asteroides de Kuiper, aunque eso no quiere decir que podamos llegar
fácilmente a él ya que su distancia a la Tierra es de más de 13.000 millones de kilómetros.
Por si esto no os sorprende os diremos que tarda unos 1.100 años en dar una vuelta completa al Sol, cosa que la Tierra hace en 365 días.
Un descubrimiento único en el que debemos reconocer el esfuerzo
realizado por los investigadores detrás del mismo, ya que desarrollaron un software capaz de detectar objetos que se han movido en las capturas periódicas que realiza dicho telescopio.
Sin dicho software todo esto no habría sido posible, ya que el
telescopio y su cámara de visión de energía oscura no están dirigidos
a captar objetos tan “cercanos” como 2014 UZ224.
Seamos honestos, ¿quién no pasó por una situación así? Nuestra vejiga se siente igual que un globo aerostático gigante, pero no hay ningún lugar que nos permita «evacuar» como la física y la biología lo demandan. La solución temporal, y deberíamos decir instintiva, es aguantar hasta que la oportunidad correcta se manifieste, sin embargo, ¿qué tan mal nos puede hacer esa resistencia? La respuesta varía de acuerdo a cada persona, pero extender la espera por demasiado tiempo carga con algunos riesgos.
¿Qué tan peligroso es resistir las ganas de orinar?
Una buena cantidad de mis historias están relacionadas con ese lugar especial de «meditación» al que todos debemos visitar tarde o temprano. Mi «delicadez estomacal» se ha extendido durante años, obligándome a visitar extraños e improvisados lugares con tal de encontrar un inodoro, aunque el llamado «número uno» también tiene su cuota de traiciones. Vamos: ¿Quién no se despertó alguna vez y salió corriendo como un guepardo para vaciar ese equivalente al Mar Ibérico que sentimos en la vejiga? Cuando hay que ir… hay que ir, pero en ocasiones debemos posponer la visita,
varias veces. Una reunión, una película en el cine, una fiesta con tres
o cuatro cervezas en nuestro sistema, un local de comida rápida después
de terminar una de sus gaseosas supergigantes… la lista sigue.
Obviamente, esa resistencia puede llegar a tener consecuencias. ¿Qué tan
bien las conocemos?
Infecciones, problemas de retención, y hasta una ruptura de la vejiga figuran en la lista de posibles problemas
La vejiga humana promedio puede guardar casi medio litro de orina, mientras que por las noches, la vejiga aumenta su volumen lo suficiente para almacenar el doble,
lo que definitivamente explica nuestros récords de velocidad de la cama
al baño. La vejiga está equipada con una serie de receptores que al
detectar cierto límite envían una señal a nuestro cerebro, indicando la
necesidad de orinar. La primera acción del cerebro es ordenar una
contracción del músculo detrusor, generando esa sensación de urgencia que todos conocemos. El esfínter interno de la vejiga se abre como respuesta a la inevitable evacuación, pero la última «válvula de seguridad» es el esfínter distal. Esto lleva a un duelo entre el músculo detrusor y el esfínter distal, que de un modo u otro gana el primero. Ahora, ¿cuáles son las alternativas? ¿Qué pasa si ese mecanismo se quiebra?
En un caso normal, sentiremos la «corriente caliente» bajando por nuestras piernas. Si la vejiga se encuentra deteriorada por algún razón, aguantar demasiado podría llevar a una ruptura,
lo que implica un drenaje con un catéter para retirar la orina del
abdomen. Aún así, el riesgo principal de una contención prolongada se
manifiesta a través de una infección en el tracto urinario,
que deriva en la sensación constante de orinar aún cuando la vejiga
está vacía, una mayor frecuencia en las visitas al baño, y por supuesto,
el hecho de sentir que orinamos lava. Otra complicación es la
retención urinaria, la cual sucede cuando el músculo detrusor no puede
vaciar la vejiga por completo. En resumen: Resistir con moderación.
Cuando llega la alerta, tu cuerpo no se equivoca, y como siempre, si sientes que algo no está bien, consulta a un especialista.
Llegar a Marte
es todo un desafío, de eso no hay duda, pero poder montar y mantener
una colonia allí es un reto aún mayor, sobre todo porque tendremos que aprender a vivir y a aprovechar los recursos que el planeta rojo ponga a nuestra disposición.
En este sentido el robot minero que acaba de presentar la NASA tendrá un gran protagonismo y será desde luego una pieza clave en esa idea de colonizar Marte, ya que facilitará la extracción de recursos de la superficie del planeta.
Lo que vemos en el vídeo se conoce como Regolith Advanced Surface Systems Operations Robot (RASSOR), un robot minero
con todas las letras que como vemos tiene un diseño imponente y muy
alejado del que presentan los “delicados” rover que se vienen utilizando
en la exploración espacial.
Gracias a su construcción es capaz de resistir condiciones de trabajo
duras y puede trabajar en condiciones de gravedad casi inexistente con
total fiabilidad, un detalle que unido a su capacidad para trepar y darse la vuelta en caso de caída lo convierten en un “bicho todoterreno”.
Quizá alguno no pueda evitar pensar que todavía no hemos llegado a
Marte y ya estamos pensando en expoliarlo, pero debemos ser realistas y
tener claro desde el principio que para colonizarlo con garantías no hay otra opción.
Tenemos una nueva ronda de información
interesante sobre Nintendo NX, la consola de nueva generación que
presentará la compañía japonesa el próximo año y que como sabemos sería
un híbrido entre portátil y sobremesa.
Varias fuentes apuntan ahora a que dicha consola vendría equipada con un SoC Tegra de NVIDIA,
en concreto una solución que montará una gráfica basada en Pascal y no
en Maxwell, cosa que ya os habíamos anticipado nosotros tirando de
intuición.
Gracias a ello Nintendo NX tendría una GPU que sería entre tres y
cuatro veces más potente que la de Wii U, algo que es bueno pero que
obviamente debemos matizar, ya que la solución gráfica que monta Wii U
es muy poco potente, tanto que equivale a una Radeon HD serie 5000 de gama baja.
Con esto queremos decir que esa nueva consola tendría hasta el
cuádruple de potencia de una solución gráfica floja y encuadrada en una
generación gráfica que debutó hace ya unos seis años, lo que haciendo
cuentas nos dejaría un nivel de rendimiento similar al de Xbox One.
Obviamente la potencia gráfica no lo es todo, todavía quedarían por ver otros aspectos importantes como la cantidad y el tipo de memoria RAM
utilizada y la cantidad y velocidad de los núcleos del procesador, que
obviamente deberían estar basados en la arquitectura ARM.
Por lo demás se mantiene la idea de que Nintendo NX será una consola híbrida, algo que ya os explicamos con más detalle en este artículo. No soportaría ni reescalado 4K ni HDR.
La compañía japones ha confirmado que su robot Kirobo Mini será lanzado oficialmente a finales de este mismo año, aunque su lanzamiento inicial estará limitado a algunas zonas concretas de Japón y que habrá pocas unidades, una situación que mejorará en 2017.
Este pequeño robot ha sido concebido para actuar como “copiloto”
de aquellos conductores que quieran algo de compañía en sus largos y
solitarios viajes, aunque en realidad puede compartir su saber estar y
su compañía con cualquier persona y en casi cualquier entorno.
Entre sus principales prestaciones destaca la capacidad de mantener conversaciones sencillas, realizar pequeños movimientos y detectar el estado anímico de sus “compañeros humanos”, gracias a su cámara integrada.
En teoría también es capaz de adaptar su comportamiento y sus respuestas al estado de ánimo de cada persona, tal y como podemos ver en el vídeo que acompañamos en el encabezado de la noticia.
La propia Toyota confirmó en su momento que este robot también iba a
servir para recopilar información sobre todo lo relacionado con los
hábitos de conducción de sus propietarios, aunque parece que al final
dicha característica habría sido cancelada.
¿Y cuanto costará esta simpática monada? Pues 392 dólares, unos 350 euros, pero sin incluir los correspondientes impuestos.
Los chicos de WCCFTech han analizado a fondo un artículo publicado por DigitalFoundry y han llegado a la conclusión de que PS4 Pro tiene “secretos” que conseguirán mejorar el rendimiento de la consola, de manera que pueda ir más allá de lo que le permitiría su potencia bruta.
Haciendo un resumen sencillo y para que se entienda lo mejor posible debemos tener claro en primer lugar que la optimización y el trabajo duro del desarrollador es algo imprescindible, ya que de lo contrario esas “bondades ocultas” no se podrán aprovechar adecuadamente.
Dicho esto entramos a ver los puntos clave. El primero es que gracias
a los avances que ha introducido AMD con su nueva generación gráfica
Polaris, utilizada en la GPU de PS4 Pro, es posible completar dos operaciones de coma flotante de 16 bits en el mismo tiempo que PS4 logra completar una.
La segunda clave tiene que ver con la introducción de nuevas instrucciones
en PS4 Pro que permitirían, en teoría, conseguir una mejora de
rendimiento que estaría por encima de lo que cabría esperar si nos
limitamos a mirar las especificaciones sobre papel de la consola.
No tenemos datos concretos, pero según DigitalFoundry parece que cuando Mark Cerny dijo que PS4 Pro tenía características gráficas superiores a las que podemos encontrar en la gama Polaris de consumo para PC no se estaba marcando un farol.
¿Será suficiente para maquillar las otras limitaciones que tiene esta consola a nivel de CPU y RAM? Probablemente no,
algo que parece respaldar Mantis Burn Racing, el primer juego en 4K y
60 FPS para PS4 Pro, que como podemos ver en el vídeo tiene un acabado
bastante simple y está lejos de ser un triple A.
SSD M.2 PCIe es el formato de unidades
de estado solido más avanzado del mercado del almacenamiento. Unidades
capaces de soportar NVMe, un estándar que ha sido
diseñada desde cero aprovechando la baja latencia y el paralelismo de
las líneas PCI Express, obteniendo una mejora de rendimiento enorme sobre las unidades de estado sólido conectadas al bus SATA y dejando a los discos duros a una distancia abismal.
Las SSD M.2 PCIe se pinchan a conectores dedicados estandarizados M.2 soportados en placas base de ordenadores portátiles o sobremesas. En éstos, también se pueden “pinchar” directamente en slots PCI-E
con un adaptador a modo de tarjeta. Son más caras que las SSD SATA
(aunque los precios siguen acortándose) y menos compatibles porque no
todas las plataformas las soportan.
A cambio, son lo mejor de lo mejor que puedes utilizar para almacenamiento masivo,
sumando un mayor rendimiento a todas las ventajas de SSD, menor consumo
y un tamaño muy reducido, 80 x 20 mm en su versión más utilizada aunque
hay otras aún más pequeñas. Bajo una plataforma que soporte NVMe (Intel X99,
Z97 o Z170 – AMD Bristol Ridge o los próximos Zen) el equipo arranca
directamente desde estos dispositivos M.2, por lo que podemos reemplazar
completamente los discos duros o usarlos junto a ellos u otras SSD
SATA.
Comparativa SSD M.2 PCIe
HotHardware ha analizado una de las últimas unidades de este tipo en llegar al mercado, la Intel SSD 600P. Es la primera unidad de estado sólido de Intel que emplea las nuevas memorias TLC 3D NAND de Micron y ofrece un buen rendimiento a precio moderado, en capacidades de almacenamiento desde 128 a 1024 Gbytes.
Para las pruebas se ha utilizado un PC con chipset Z170, procesador
Skylake Core i7-6700K, 16 Gbytes de memoria DDR4, tarjeta de vídeo
integrada Intel HD 530 y Windows 10 Pro de 64 bits. Lo bueno de estas
pruebas es que la SSD 600P se ha comparado con otras SSD M.2 PCIe como
la Samsung SSD 950 PRO, la Toshiba OCZ RD400 o la Intel 750,
así como a otros modelos M.2 pero conectados a SATA como la SSD 850 EVO
que es una auténtica referencia en unidades de estado sólido de
consumo.
Ello nos permite una buena valoración del rendimiento que podemos
esperar de cada uno de ellas comenzando con las pruebas en
lectura/escritura aleatoria 4K donde los 440.000 IOPS de la Intel 750
brillan por encima del resto:
Las pruebas sobre test sintéticos como SiSoft SANDRA 2015 y ATTO Disk
confirman que las grandes M.2 de Intel y Samsung están a la cabeza y
otro dato que era conocido: la diferencia enorme de rendimiento entre una SSD conectada al puerto PCIe y una que utilice SATA.
HD Tune es otra de las herramientas que valoran el rendimiento de la
unidad, búsqueda de errores, borrado seguro y otras funciones. El más
interesante es el test que muestra la velocidad de transferencia real
de las unidades. La RD400 de Toshiba gana en lectura, la Intel 750 en
escritura, mientras que la 950 Pro es la que ofrece un comportamiento
más equilibrado. Las tres triplican los datos de la 850 SATA.
CrystalDiskMark es otro benchmark sintético synthetic benchmark que
pone a prueba las unidades en transferencia de archivos de pequeño y
mediono tamaño en modos secuenciales y aleatorios.
Finalmente, el PCMark 7 de Futuremark es el que nos ofrece una mayor información del rendimiento de las SSD en pruebas reales sobre diferentes aplicaciones.
El tiempo de apertura de las mismas, importando imágenes, jugado o
editando imágenes. Aquí hay bastante menos diferencias porque los
resultados no dependen exclusivamente de las SSD.
Conclusiones
La Intel SSD 600P,
motivo del análisis y la primera unidad de estado sólido de Intel que
emplea las nuevas memorias TLC 3D NAND de Micron, queda por debajo de
las grandes del sector pero era esperable porque Intel la ha enfocado a
medio camino entre las PCI-E y las SATA y ya tiene otras de rendimiento
superlativo como la 750. A cambio su precio es muy atractivo, 112 dólares la versión de 256 GB.
La diferencia de rendimiento entre las unidades de
estado sólido conectadas a SATA y PCIe es brutal, aunque se muestra en
escenarios que dependan totalmente de la solución de almacenamiento como
en la transferencia de archivos.
El precio entre las SATA y PCIe sigue acortándose. Una de las
mejores del sector, las Samsung 950 PRO está por debajo de los 200 euros
(256 GB).
Si estás preparando un nuevo PC o piensas reemplazar los discos
duros, una de estas SSD M.2 PCIe es la mejor elección siempre que estés
dispuesto a pagar un plus o conformarte con menor capacidad de
almacenamiento a cambio de mayor velocidad.
Todos recordamos a Alan Turing
por su extraordinario esfuerzo al romper el código Enigma, y por la
terrible forma en la que fue tratado, sin embargo, un detalle menos
conocido es que su trabajo dio lugar a desarrollos muy interesantes,
entre los que se destaca la primera canción hecha sobre un ordenador.
Existen varias copias de la canción flotando en la Web, pero la
grabación original fue recientemente restaurada por un equipo de
expertos en Nueva Zelanda.
Restauran la primera canción hecha en un sistema de Alan Turing
Aún existe cierta disputa por el título de «primera canción generada en un ordenador». Un punto fundamental es determinar a qué llamamos «canción», si a un tema completo o solo un fragmento. Varias fuentes citan al ordenador australiano CSIRAC como el primero en reproducir música, pero el problema es que no se conoce ninguna grabación de sus sesiones. Si seguimos la evidencia disponible, el camino nos lleva al Computing Machine Laboratory de la Universidad de Manchester, donde Alan Turing se desempeñó en el rol de director. En 1951, un equipo externo de la BBC llevó a cabo una curiosa grabación con fragmentos de «God Save the King», «Baa Baa Black Sheep», y «In the Mood» de Glenn Miller. Dichos fragmentos no fueron creados usando instrumentos tradicionales, sino con el ordenador que estaba funcionando dentro del laboratorio.
Todo lo que queda de esa grabación, además de las copias digitales
que flotan en la Web, es un disco de acetato de 12 pulgadas.
Lamentablemente, Jack Copeland y Jason Long de la Universidad de Canterbury descubrieron que las frecuencias de la grabación se desplazaron,
provocando que no se pareciera en nada a lo que el ordenador emitió
aquella vez. La clave para el proceso de restauración fueron ciertos
tonos presentes que el ordenador original hubiera sido incapaz de reproducir. A esto debemos sumar varias limitaciones naturales del hardware. Por ejemplo, un tono de 196 Hz tenía como «equivalente»
a uno de 198.41 Hz. Estas diferencias en la frecuencia también
revelaron que la música se reproducía a una velocidad incorrecta. Lo más
probable es que eso haya sido culpa de la «cortadora» de
acetato. El vídeo arriba posee una versión sin tratar, pero si quieres
escuchar la versión en mp3 ya procesada y corregida, puedes descargarla desde aquí.
En cuanto a quién fue responsable por la grabación, la historia nos dice que no fue Turing, sino un amigo de él, el profesor de matemática Christopher Strachey. Al parecer, Turing no demostró interés en crear música, y su plan era desarrollar un sistema de «feedback»
que le permitiera saber qué estaba pasando en el ordenador. Strachey
obtuvo una copia del manual de programación para el ordenador de
Manchester, y después de descubrir su potencial musical, Turing habilitó
el acceso al hardware por una noche. Al día siguiente, todos quedaron
asombrados al escuchar «God Save the King» saliendo por el altavoz, y eso se convirtió en el mejor «curriculum vitae» para Strachey, ya que pocas semanas después se encontraba trabajando en el laboratorio.
Recargar dispositivos móviles
en regiones aisladas puede ser más complicado de lo que imaginamos, en
especial cuando el clima no ayuda y la cantidad de luz solar disponible
es limitada. Eso nos lleva a evaluar otras opciones, incluyendo a la energía eólica. El reciente prototipo de turbina de viento desarrollado por el diseñador alemán Nils Ferber
es un 40 por ciento más liviano que otros sistemas similares, y produce
cinco vatios con menos de 20 kilómetros por hora en la velocidad del
viento.
Turbina eólica portátil para recargar dispositivos
Llevar un smartphone en el bolsillo es simple. Lo difícil es establecer la ruta más conveniente para obtener energía. Podemos llevarla con nosotros del mismo modo que al smartphone, usar sistemas dependientes del fuego(asumiendo que el lugar visitado permita iniciar fogatas), o apelar a la energía solar si hay buena luz. También existe una opción adicional, que es la energía eólica.
No es la primera vez que nos cruzamos con el concepto de turbinas
portátiles. De hecho, algunos diseños buscaron financiamiento en
Kickstarter, y fallaron por completo en su intento de entregar
un producto viable. De allí surge la resistencia que demuestran los
consumidores hacia las turbinas eólicas, sin embargo, creo que debemos
ver a este prototipo un poco más de cerca:
El dispositivo no tiene un nombre oficial más allá de «Mini turbina de viento». Su desarrollo estuvo a cargo del diseñador alemán Nils Ferber, quien además de contar con una página oficial, participa del James Dyson Award.
La turbina se basa en una versión optimizada del diseño Savonius, uno
de los más estables y económicos. El prototipo pesa menos de un
kilogramo, y es un 40 por ciento más liviano que su competidor
directo. Esto le permite enfocar su atención en su rotor, el cual puede
generar energía suficiente aún en condiciones de poco viento. La
información publicada habla de 5 vatios directos con un viento de 18
kilómetros por hora, y en diseños futuros se sumará a la configuración
una batería de 24 Wh.
Si bien es fácil de transportar y su rendimiento se encuentra dentro
de los parámetros necesarios para recargar a un smartphone, creo que el
punto débil de esta mini turbina eólica es la instalación. Concedido:
Quien decida visitar las montañas y pasar algunos días en ellas
básicamente deberá armar un campamento, por lo que la turbina se suma a
la lista de tareas, pero no la veo como una alternativa conveniente bajo
un uso casual. El siguiente paso para Ferber es buscar socios, y
desarrollar una variante comercial.
¿Recuerdan a la ZX Spectrum Vega? La consola completó exitosamente su campaña (después de algunos retrasos),
pero su potencial se vio limitado por la necesidad de una pantalla
externa. El siguiente salto evolutivo para la Vega no fue otro más que
incorporar una pantalla LCD a su diseño, y así es como llegamos a la ZX Spectrum Vega+.
Con casi medio millón de libras sobre la mesa, esta nueva edición
parece tener todo listo, y debutará en el mercado el próximo 20 de
octubre.
ZX Spectrum Vega+, la nueva consola inspirada en el clásico ordenador
El ordenador ZX Spectrum es el responsable de muchos recuerdos, la mayoría de ellos muy agradables. Para una importante cantidad de usuarios fue el «primer ordenador de la casa», y a partir de allí, sus vidas cambiaron por completo. Obviamente, el ZX Spectrum tenía su cuota de bordes filosos, incluyendo el teclado de goma y problemas de interferencia,
pero lo que aprendimos con ese ordenador no nos lo quita nadie. En los
últimos años hemos visto varios intentos para hacer regresar al ZX
Spectrum, y el más exitoso fue la consola ZX Spectrum Vega. Con todas las unidades entregadas (o al menos, esa es la información que circula),
los responsables del proyecto original decidieron dar el siguiente
paso, y convertir a la Vega en una consola verdaderamente portátil.
Así nos cruzamos con la nueva ZX Spectrum Vega+.
Después de haber reunido más de 440 mil libras esterlinas en marzo
pasado, la Vega+ tiene todo listo para enfrentar las demandas de sus
usuarios el próximo 20 de octubre. La consola
incluye un total de mil juegos completamente licenciados, pero también
extiende su compatibilidad al resto del catálogo. La pantalla LCD
integrada es apenas una forma de jugar, y quien desee conectarla a un
panel más grande como el diseño anterior podrá hacerlo sin
inconvenientes. Su ranura microSD habilita la expansión del
almacenamiento interno y actualizaciones manuales del firmware, a lo que
se suma la posibilidad de guardar y resumir juegos, y reproducir pokes. Aquellos que busquen un intérprete BASIC no deben preocuparse, ya que estará allí.
A pesar de que la campaña terminó en marzo, la opción «InDemand» de Indiegogo debería brindar acceso a cualquiera que desee comprar una ZX Spectrum Vega+
ahora. Lo más probable es que dicha compra no sea parte de la primera
ronda de producción, pero lo importante aquí es acceder al precio
diferencial de 100 libras esterlinas(no incluye costos de envío).
Desde hace mucho tiempo, Raspbian sirve como «caballo de batalla» para la mayoría de los usuarios del Raspberry Pi.
El hecho de estar basado en Debian garantiza su compatibilidad y
estabilidad, pero si hay algo que definitivamente quedó en segundo
plano, es su apariencia. Ese detalle nos trae a PIXEL, una especie de «actualización estética» en Raspbian, con una interfaz más pulida, el reemplazo de varios programas, y nuevos fondos de pantalla.
PIXEL: El nuevo sistema operativo de Raspberry Pi
La mayoría de los proyectos basados en el Raspberry Pi comparten el mismo punto de partida: Descargar una imagen de Raspbian. Obviamente, el Raspberry Pi es compatible con otros sistemas operativos,
pero Raspbian supo brindar la comodidad, la familiaridad y la
compatibilidad que muchos jinetes de Linux esperan. Lo curioso es que
Raspbian no tiene el rol de proyecto afiliado a la Fundación Raspberry Pi, y en la página oficial de Raspbian indican que la fundación distribuye «su propia imagen»
del sistema operativo, pero a decir verdad han estado haciendo mucho
más que eso. Durante los últimos dos años, la fundación trabajó en una
versión personal de Raspbian, tomando distancia de su perfil espartano y acercándose a lo que la mayoría de los usuarios visualizan al momento de pensar en un sistema operativo. Hagamos un lugar para PIXEL.
Todo comienza así ahora, reportando el número de versión
No tengo idea sobre qué opinará Google del nombre, pero PIXEL equivale a «Pi Improved Xwindows Environment, Lightweight». El primer cambio a destacar es que el «muro de texto» en la inicialización de Raspbian fue reemplazado por una «splash screen»
que presenta el número de versión. Los desarrolladores aseguran que la
presencia de esa pantalla no hará más lento al proceso de arranque, y
que los tiempos serán idénticos. Después pasamos a otros elementos
estéticos, como las ventanas, los iconos, y los fondos de pantalla.
Ligeras curvas en las ventanas, un nuevo diseño de iconos que busca
equilibrar la balanza entre productividad y entretenimiento, y un total
de 16 nuevas imágenes para decorar el escritorio marcan el ritmo del
nuevo PIXEL.
Nuevos iconos para optimizar la apariencia…
… y nuevos fondos de pantalla.
Ahora, por el lado técnico también encontramos alteraciones. La primera es el reemplazo del navegador Epiphany (mejor conocido como Web en entornos GNOME) por Chromium. Se trata de un build de Chromium
especialmente preparado para Raspberry Pi, e incluye un par de
extensiones que apuntan a mejorar el rendimiento, comenzando con h264ify. Después aparece RealVNC, lo que debería simplificar en gran medida la administración remota del Raspberry Pi, y finalmente, un emulador Sense HAT. Estas modificaciones hacen un poco más demandante
al sistema operativo en general, y es posible que los modelos
originales del Raspberry Pi no la pasen tan bien con Chromium, pero creo
que vale la pena probarlo. Si las cosas salen mal, siempre se puede
volver a un Raspbian sin modificar.
Que la obsolescencia programada se vaya haciendo un berrinche si quiere. La frase «no es obsoleto si lo sigo usando» se aplica a la perfección en este formidable caso que nos enseña a un clásico como el ordenador Commodore 64, funcionando sin sobresaltos en un taller de Polonia. De acuerdo a la información disponible, el ordenador lleva más de 25 años en su puesto, e incluso sobrevivió a una pequeña inundación. Un veterano de mil batallas, que sin lugar a dudas nos roba una sonrisa.
Un Commodore 64 resiste al paso del tiempo en Polonia
Cuando alguien dice que los ordenadores de ahora «no se fabrican como antes»,
no sólo atraviesa un momento de nostalgia, sino que también dice la
verdad. Por un lado, debemos reconocer que la informática de antaño era
más «simple», y por el otro, los diseños poseían márgenes de
error o redundancias mucho más amplias de las que vemos ahora. Por
supuesto, todo se reduce a una cuestión de costos. Los ingenieros
podrían hacer un smartphone o un ordenador casi indestructible, ¿pero
quién estaría dispuesto a pagar el precio correcto? En la década de los
‘80, comprar un ordenador no era un impulso básico, y había que pensarlo
muy bien. El Commodore 64 debutó en el mercado con 595 dólares en su etiqueta, casi 1.500 dólares
ajustados a inflación en 2016. Quien decidiera obtener uno necesitaba
recuperar su inversión exprimiendo el hardware al máximo, y un
extraordinario ejemplo de ello es este Commodore 64 que continúa alineando ejes de transmisión después de un cuarto de siglo.
El ordenador causó furor en Polonia,
disparando los precios de subastas en línea por otros sistemas similares
(Foto: Michal Jelionek / Trojmiasto.pl)
La gente de Commodore USA publicó la imagen el pasado 26 de septiembre, pero hoy tenemos más datos gracias al perfil Retrokomp / Loaderror
en Facebook. Al parecer, uno de los miembros del grupo, el fotógrafo
Bartek Gatz, se encontró con este ordenador por primera vez durante el
mes de enero, en un taller de la ciudad de Gdansk. El ordenador ha
sobrevivido a una pequeña «inundación», cortesía de una ventana que dejó entrar más agua de la recomendada, los «obsequios» de varias aves, y la típica grasa que podemos encontrar en un entorno así. El sistema es completamente DIY:
El dueño del taller, el ingeniero Jerzy Zygmunt, explica que fue
instalado en 1990, y que el software estuvo a cargo de otro
ingeniero, Andrzeja Piechoty. Si quieren verlo en acción, pueden acceder
a este portal(hay algunos problemas con el embed, por lo tanto, dejaré el enlace).
El ojo entrenado probablemente reconozca que se trata del modelo Commodore 64C, una versión optimizada y más económica del modelo original que fue lanzada (si la memoria no me falla) en 1987. Dos años después cayó el Muro de Berlín (aunque su demolición comenzó en 1990),
al igual que la influencia soviética en el este de Europa, y eso debe
haber permitido a este humilde pero robusto ordenador encontrar su lugar
en un taller de Gdansk, calibrando ejes. Sin virus. Sin actualizaciones espontáneas. Funciona.