lunes, 14 de agosto de 2017

Cómo formatear dispositivos FAT32 mayores a 32 TB


FAT32 es uno de los sistemas de archivos más utilizados en unidades externas/extraíbles por su simplicidad y versatilidad. Una mejora del antiguo FAT creado para MS-DOS y usado en ediciones de consumo de Windows hasta Windows Me, soportado además en otros sistemas como GNU/Linux, FreeBSD y BeOS.
Aunque hay sistemas de archivos más avanzados en Windows (exFAT o NTFS), FAT32 sigue utilizándose en múltiples formatos por las ventajas mencionadas de soporte y portabilidad. El problema es que la herramienta estándar presente en Windows no puede formatear discos externos FAT32 con capacidades mayores a 32 TB, aunque sí puede manejarlos porque su límite teórico sube hasta 16 TB.

FAT32 con herramientas de terceros

Si tienes discos duros externos, pendrives USB o tarjetas microSD con capacidades de 64 GB o superiores, y quieres utilizar FAT32, hay herramientas de terceros que puedes utilizar para salvar la limitación de la herramienta estándar de Windows.
Una de ellas es FAT32 Format. Una aplicación gratuita y portable que no necesita instalación y facilita la tareas de formatear unidades FAT32 con capacidad superior a los 32 GB. Simplemente: descarga (botón Start del enlace), ejecuta, selecciona la unidad, activa el formateo rápido e inicia.

FAT32 con Powershell

La aplicación anterior es la recomendada por facilidad de uso y rapidez de ejecución, pero si quieres utilizar el mismo Windows hay otro método que salva la limitación de la herramienta de formateo estándar. Simplemente accede y usa el comando “format /FS:FAT32 X:” donde “X” es la unidad que queremos formatear:


La consola tarda bastante más tiempo en realizar el formateo por lo que te recomendamos el uso de FAT32 Format. En ambos casos recuerda que el manejo de archivos individuales en FAT 32 es de 4 Gbytes. El límite teórico de la capacidad de la unidad con este tipo de sistema de archivos es de 16 TB, sobrado para toda la base de dispositivos en el mercado.

Fuente:
http://www.muycomputer.com/2017/08/14/fat32/

domingo, 6 de agosto de 2017

Microsoft actualiza los colores de la consola de Windows después de 20 años

La consola de Windows también existe y cuenta con opciones interesantes si se sabe manejar, especialmente en su versión avanzada PowerShell.
Hablamos del símbolo del sistema (Command prompt o CMD), la aplicación utilizada en sistemas basados en NT (Windows XP, Windows 7 o Windows 10) para ejecutar comandos MS-DOS (.exe de 16 bits) y otros como scripts con formato .bat y .sys.
Esta línea de comandos permite comunicarnos directamente con el equipo y realizar una serie de tareas. Escribimos el comando (y sus modificadores en su caso) y la aplicación CMD hace de intérprete para su ejecución. La aplicación funciona en modo texto y no es necesariamente intuitiva, aunque sigue siendo una opción recomendable para usuarios medios o avanzados ya que permite realizar tareas de forma más flexible y rápida o acceder a información o funciones que no están disponibles de ninguna otra manera.
La consola de Windows no ha cambiado sustancialmente a lo largo de su historia, pero Microsoft ha ido realizando cambios ligeros para mejorar su funcionalidad, además de lo que supone la llegada de una característica como Bash para ejecutar binarios de Linux en Windows 10 desde la línea de comandos, scripts Bash, comandos de Linux como sed, awk, grep y herramientas como Ruby, Git o Python, directamente en Windows.
Otro de los cambios ha llegado al canal Insider (a partir de la compilación 16257) y se implementará en la versión final de la próxima versión, Fall Creators Update. Se trata de la actualización de la paleta de color de la consola de Windows, después de 20 años de usar la misma. Un cambio sutil que habían pedido los desarrolladores y que debe mejorar la legibilidad en las pantallas de visualización modernas de alto contraste.
Si quieres introducirte en la consola de Windows no dejes de repasar nuestra guía a los Comandos CMD.

Fuente:
http://www.muycomputer.com/2017/08/04/consola-de-windows-color/

Raspberry Pi 3 Slim, la computadora más delgada del mundo

Raspberry Pi 3 Slim es un proyecto de NODE que pretende adelgazar aún más la última versión del desarrollo más interesante del segmento del Mini-PC de placa única.
Una versión slim que recorta puertos adicionales a la placa de Raspberry Pi 3 y suma un chasis creado mediante impresión 3D. El resultado es un ordenador totalmente funcional que cabe en un bolsillo, más potente que la versión reducida oficial (Raspberry Pi Zero W), con el tamaño de una baraja de cartas y un grosor de 7 mm.
Raspberry Pi 3 Slim
NODE ha eliminado los puertos USB, HDMI, Ethernet y pines GPIO. A cambio, ha añadido tres puertos microUSB soldados a la placa. El desarrollo conserva la conectividad inalámbrica Wi-Fi y Bluetooth, la tarjeta microSD accesible en la parte inferior del dispositivo, el chipset Broadcom BCM2837 con procesador de 64 bits, una GPU VideoCore IV a 400 MHz y el Gbyte de memoria LPDDR2.
Raspberry Pi 3 Slim
Aunque pierde funcionalidad respecto al original, Raspberry Pi 3 Slim es una auténtica chulada, muestra de lo mucho que se puede hacer con Raspberry Pi, un desarrollo responsabilidad de la fundación británica sin ánimo de lucro del mismo nombre, que se está haciendo muy popular en amplios ámbitos más allá de su objetivo original: estimular la enseñanza de ciencias de la computación en las escuelas.
NODE proporciona en GitHub los archivos necesarios para crear el chasis en impresión 3D y distinta información del desarrollo por si terceros se animan a realizarlo.

Fuente:
http://www.muycomputer.com/2017/08/04/raspberry-pi-3-slim/

La NASA capta una enorme tormenta en el polo norte de Júpiter

Gracias a la sonda Juno la NASA ha podido captar imágenes de una tormenta enorme situada en el polo norte de Júpiter. Su forma ovalada ocupa una gran parte del planeta, pero lo más impresionante es que la misma lleva activa varias décadas.
Según las observaciones previas que se han llevado a cabo de esta tormenta, conocida con el nombre de “North North Temperate Little Red Spot 1”, sabemos que está en activo desde 1993 pero su antigüedad podría ser mucho mayor.
En la información oficial que ha dado la NASA hemos podido confirmar que esta tormenta ubicada en el polo norte de Júpiter tiene un diámetro de 6.000 kilómetros y que es de tipo anticiclónico, lo que significa que es una zona de altas presiones en la que su aire interior es más estable que el aire que tiene a su alrededor.
Por tamaño es la tercera tormenta más grande de Júpiter pero además cambia de color. En la imagen podemos ver que la parte más externa de la tormenta aparece en blanco y que su interior, donde se encuentran los vientos más rápidos, tiene un tono anaranjado.
Como sabemos Júpiter es un gigante de gas y por tanto las tormentas y los vientos huracanados son algo habitual en dicho planeta, aunque las acumulaciones tormentosas tan grandes como ésta siempre consiguen sorprendernos.
La sonda Juno también nos permitió ver de nuevo la gran mancha roja de Júpiter, una enorme tormenta que tiene un diámetro de 16.000 kilómetros, cifra que supera de largo los 12.742 kilómetros de la Tierra.

Fuente:
http://www.muycomputer.com/2017/08/04/tormenta-polo-norte-jupiter/

Nanopartículas para facilitar trasplantes y evitar rechazos, un avance importante

Los trasplantes de órganos se han convertido en un auténtico salvavidas para muchas personas. Es un tratamiento esencial que no entiende de edades y que en la mayoría de los casos da una segunda oportunidad a los pacientes, pero al mismo tiempo resulta muy complicado.
Para que sea posible llevar a cabo un trasplante primero hay que encontrar a un donante que sea compatible, luego hay que llevar a cabo una complicada operación y finalmente hay que realizar un tratamiento para reducir las posibilidades de rechazo por parte del sistema inmunitario del paciente, que puede reconocer el nuevo órgano como un cuerpo extraño y atacarlo.
Investigadores de la Universidad de Yale han logrado desarrollar un tratamiento basado en nanopartículas que una vez aplicado interfiere con la actuación de los glóbulos blancos, evitando que éstos consideren a los órganos trasplantados como cuerpos extraño y haciendo que no los ataquen.
No es un tratamiento definitivo ya que tiene una duración máxima de seis semanas, pero ofrece un periodo de tiempo que permite a los médicos prepararse para hacer frente a un posible rechazo y evitar que las consecuencias del mismo escalen con gran rapidez.
La aplicación de este tratamiento se produce de forma totalmente dirigida, es decir gracias a esas nanopartículas es posible llevar los fármacos que evitan el rechazo directamente al órgano que queremos proteger. Esto es muy importante, ya que potencia la eficacia el mismo y a su vez evita que se puedan llegar a producir daños colaterales.
Es un planteamiento muy prometedor dentro del mundo de los trasplantes, pero debemos tener en cuenta que todavía se encuentra en una etapa temprana así que aún queda mucho camino por recorrer antes de que este tratamiento se empiece a aplicar en entornos reales.

Fuente:
http://www.muycomputer.com/2017/08/06/nanoparticulass-facilitar-trasplantes/

IBM y Sony destruyen el récord de almacenamiento en cinta con un cartucho de 330 TB

Y no es más grande que la palma de tu mano

 

El usuario promedio lo ha abandonado hace años, pero el almacenamiento en cinta demuestra una vez más que tiene mucha tela para cortar. Gracias a un nuevo desarrollo en conjunto, IBM Research y Sony lograron crear un prototipo de cinta magnética con una densidad de 201 gigabits por pulgada cuadrada, lo que equivale a un cartucho compacto de 330 terabytes. Si consideramos que la mejor cinta del mercado guarda un máximo de 15 terabytes, nos encontramos ante un avance extraordinario, e imaginamos que el mundo empresarial no puede esperar para clavar sus garras en esta tecnología.

Los usuarios necesitan cada vez más capacidad de almacenamiento en sus ordenadores, cortesía de juegos gigantescos y contenido 4K, entre otras cosas. Tanto Western Digital como Seagate ofrecen unidades de 12 terabytes, y aún recordamos bien a cierto prototipo de SSD con unos escalofriantes 60 terabytes. Sin embargo, cuando nos trasladamos al entorno empresarial, las soluciones en cinta presentan números muy interesantes. La próxima generación del estándar LTO llegará a los 12.8 terabytes, e IBM ya comercializa su cartucho 3592 de 15 TB. Por supuesto, las aplicaciones son muy diferentes, pero eso no le quita méritos a una tecnología que lleva más de 60 años en desarrollo.

En el día de ayer, el almacenamiento magnético dio otro paso gigantesco con la ayuda de IBM Research y Sony. El resultado es una nueva cinta basada en una deposición física de vapor conocida como «sputtering» que guarda un máximo de 201 gigabits por pulgada cuadrada, acompañada por un sistema de cabezales y procesamiento de señales especialmente diseñado para leer y escribir a semejante densidad. Si a eso sumamos el detalle de que Sony puede colocar más de un kilómetro de cinta en un cartucho, los cálculos sugieren una capacidad teórica que pasa de 220 de 330 terabytes sin compresión, en algo tan grande como la palma de nuestra mano.

Lógicamente, IBM visualiza para la nueva cinta aplicaciones de respaldo en la nube, almacenamiento frío y el ocasional entorno WORM, pero esos 201 gigabits por pulgada cuadrada son apenas un escalón. Los voceros de la compañía están convencidos de que la escala del almacenamiento en cinta seguirá subiendo en los próximos años, tal y como lo ha hecho hasta ahora.

Fuente:
http://www.neoteo.com/ibm-y-sony-destruyen-el-record-de-almacenamiento-en-cinta-con-un-cartucho-de-330-tb/
 

martes, 1 de agosto de 2017

Recordando a la Mega 32X, un periférico de 32 bits para Mega Drive

Mega 32X fue un accesorio que SEGA lanzó para intentar alargar la vida útil de Mega Drive, una especie de actualización intergeneracional que llegó después del MegaCD y antes de Saturn, una consola ésta última que representaba el verdadero cambio de generación.
La idea era buena, Mega 32X iba a servir para llevar a Mega Drive juegos en 3D con una calidad cercana a la de las máquinas arcade. Esto permitiría a SEGA seguir aprovechando la base de usuarios de dicha consola tras el lanzamiento de Saturn, pero al final las promesas no se cumplieron y la ejecución acabó siendo un completo desastre.
SEGA prometió una potencia y una calidad que no se acabó cumpliendo ni por asomo, pero además la Mega 32X era una accesorio caro e incómodo de utilizar, ya que contaba con su propio adaptador de corriente y necesitaba conectar un cable de imagen adicional, puesto que el trabajo gráfico se repartía con Mega Drive.
Es cierto, fue un fracaso, pero hay que reconocer que tuvo juegos bastante buenos que demostraron el potencial de la consola, como Virtua Fighter, Virtua Racing Deluxe o After Burner.
Sin embargo, y en contra de lo que mucha gente cree, el problema no fue su falta de potencia sino lo complicado que era desarrollar para ella aprovechando totalmente su potencial.
SEGA integró dos procesadores SH2 de Hitachi en Mega 32X, un error muy grave que luego volvió a cometer con el lanzamiento de Saturn, una consola que estaba llena de posibilidades pero que no pudo brillar como merecía.
Los chicos de Digital Foundry han publicado un interesante vídeo en el que hacen un repaso a las claves más importantes de dicha consola y sus particularidades técnicas, pero además se han propuesto jugar a su catálogo completo para mostrarnos los mejores y los peores juegos que recibió Mega 32X.
Este vídeo es una primera parte así que os recomiendo echar un vistazo a su canal en los próximos días para disfrutar de la segunda parte.




Fuente:
http://www.muycomputer.com/2017/08/01/mega-32x-32-bits-mega-drive/