jueves, 30 de marzo de 2017

Hola mundo para Visual Studio 2017

Nunca es tarde si la dicha es buena.

Microsoft ya tiene libre desde hace semanas su producto de desarrollo de software como Visual Studio 2017 Community para hacer tus aplicaciones.

Descarga

En este Blog se utiliza mucho este IDE para hacer pequeños programas de control sobre el puerto serie y placas de Arduino e incluso los microcontroladores PIC.

Tutorial básico Hola Mundo en Visual C#.

Introducimos al formulario un Button y un label.


Haz docble clic en el botón Hola, luego introduces este código.

label1.Text = "Hola mundo";


Pulsas F5 para compilar y muestra el formulario, luego pulsas el botón Hola.


Código fuente C#:

using System;
using System.Collections.Generic;
using System.ComponentModel;
using System.Data;
using System.Drawing;
using System.Linq;
using System.Text;
using System.Threading.Tasks;
using System.Windows.Forms;

namespace HolaMundo
{
    public partial class Form1 : Form
    {
        public Form1()
        {
            InitializeComponent();
        }

        private void button1_Click(object sender, EventArgs e)
        {
            label1.Text = "Hola mundo";
        }
    }
}

Nota de la versión Visual Studio 2017:

https://www.visualstudio.com/es-es/news/releasenotes/vs2017-relnotes

A disfrutarlo. ;)

Intel comercializa sus primeras memorias Optane para consumo

Intel está comercializando sus primeras memorias Optane para el mercado de consumo. Una solución de caché con potencial para mejorar el rendimiento de cualquier dispositivo, aplicación o servicio que se beneficie de un rápido acceso a grandes conjuntos de datos.
Como sabes, Intel Optane es un conjunto de soluciones de estado sólido con memorias 3D X Point, la primera categoría de memoria no-volátil desde el lanzamiento de flash NAND en 1989. 3D XPoint ha sido desarrollada desde cero por Intel y Micron, combinando las ventajas de rendimiento, densidad, energía, no volatilidad y coste de todas las tecnologías de memoria disponibles en el mercado.
Así, después del lanzamiento de la Intel® Optane™ SSD P4800X para centros de datos, el gigante del chip estrena sus memorias Optane en el mercado de consumo. Intel las llama “memorias” aunque en realidad son módulos que se sitúan a medio camino entre la unidad de almacenamiento y la memoria DRAM del sistema, actuando como una unidad rápida de caché.
Las memorias Optane utilizan un factor de forma M.2 y una interfaz PCIe NVMe 3.0 x2 para ofrecer un gran rendimiento, con velocidades de transferencia de datos de hasta 1350 / 290 Mbytes por segundo en lectura/escritura secuencial. En la práctica, las memorias Optane pretenden acelerar el rendimiento del equipo de manera asequible. Según Intel, si instalamos este tipo de memorias en nuestro PC obtendremos:
  • Reducir a la mitad el tiempo de arranque del PC
  • Aumentar el rendimiento del almacenamiento hasta 14 veces
  • Aumentar el rendimiento general un 28%
  • Inicio de aplicaciones más rápido (por ejemplo, Outlook puede cargar hasta 6 veces más rápido)
  • La búsqueda de archivos es cuatro veces más rápida
Intel® Optane™

Memorias Optane – disponibilidad y precio

Este tipo de memorias tienen un nicho limitado ya que solo funcionan con procesadores Intel “Kaby Lake”, sistema operativo Windows 10 de 64 bits. el mencionado slot M.2 2280 y una BIOS que soporte la tecnología Intel Rapid Storage 15.5. Recalcar que funcionan como caché, no pueden utilizarse para instalar en ellas el sistema operativo.
Estarán disponibles a partir del 24 de abril en módulos de 16 GB por 44 dólares y 32 GB con un coste de 77 dólares. El precio es económico y puede ser adecuado para acelerar el rendimiento de un PC de sobremesa con disco duro, aprovechando las ventajas de capacidad de éste y el rendimiento de una unidad de estado sólido. Suponemos que Intel utilizará esta tecnología para comercializar otras soluciones de estado sólido. Sí está confirmado que se comercializarán soluciones similares para portátiles.

Fuente:
http://www.muycomputer.com/2017/03/29/memorias-optane/

Intel confirma que no todos los chips de 10 nm son iguales


Los procesos de fabricación y la reducción de los mismos juegan un papel muy importante en el sector tecnológico. Ya os hablamos de ello en este artículo y hoy Intel ha destacado algo muy importante en este sentido, que no todos los chips de 10 nm son iguales.
La idea clave es sencilla de entender. Cuando avanzamos en el proceso de fabricación y lo reducimos no es lo mismo hacerlo doblando el número de transistores que elevar ligeramente el conteo de los mismos frente al proceso anterior.
En la gráfica que acompañamos podemos ver perfectamente reflejada esta idea. Si reduces el proceso de fabricación pero sólo aumentas ligeramente el conteo de transistores o incluso lo disminuyes el avance que estás consiguiendo pierde mucho potencial.
Por otro lado debemos tener en cuenta que reducir el proceso de fabricación doblando la densidad de transistores es mucho más complicado, y que por tanto requiere un mayor esfuerzo y una inversión muy grande.
chips de 10 nm (2)
Con eso en mente podemos entender mejor porqué Intel ha seguido aprovechando el proceso de fabricación de 14 nm. Es evidente que el gigante del chip podría haber llevado a cabo una transición a los 10 nm hace tiempo, pero la misma no habría sido auténtica, al menos desde el punto de vista que hemos expresado en este artículo.
Esto quiere decir que chips como el Exynos 8895 y el Snapdragon 835 no han cumplido esa regla de doblar la densidad de transistores al saltar a los 10 nm. La consecuencia directa de esto es que aunque se beneficiarán de las ventajas que ofrece una reducción de proceso no llegarán al mismo nivel que lo habría hecho un chip que hubiera doblado el conteo de transistores.
La mejora que conseguirán esos chips en relación aumento de rendimiento-reducción de consumo será menor, y por tanto no serán comparables a soluciones que de verdad hayan dado el salto siguiendo esa premisa, fijada como sabemos en la Ley de Moore.
Por su parte Intel ha confirmado que sus chips de 10 nm multiplicarán por 2,7 el conteo total de transistores frente al proceso de 14 nm, lo que se traducirá en un aumento del rendimiento de hasta un 25% y una reducción de consumo de hasta un 45%.

Fuente:
http://www.muycomputer.com/2017/03/29/intel-10-nm/

domingo, 26 de marzo de 2017

Consiguen crear hidrógeno metálico

Casi un siglo después de que fuera postulado teóricamente, unos científicos han conseguido crear uno de los materiales más raros y quizá más valiosos del planeta.

El material, hidrógeno atómico metálico, ha sido creado por el equipo de Isaac Silvera y Ranga Dias, de la Universidad Harvard en Cambridge, Massachusetts, Estados Unidos.

Además de ayudar a los científicos a responder preguntas fundamentales sobre la naturaleza de la materia, se cree que el material tendrá una amplia gama de aplicaciones, incluyendo la de superconductor a temperatura ambiente.

“Se trata del santo grial de la física de alta presión”, valora Silvera. “Es la primera muestra de la historia de hidrógeno metálico en la Tierra, así que cuando la miras, estás viendo algo que nunca ha existido antes”.

Para crearla, Silvera y Dias comprimieron una diminuta muestra de hidrógeno bajo una presión de 495 gigapascales, mayor que la del centro de la Tierra. A esas presiones extremas, el hidrógeno molecular sólido se descompone, y las moléculas firmemente ligadas entre sí se disocian para transformarse en hidrógeno atómico, que bajo tales condiciones se comporta como un metal.

Si bien el trabajo abre una puerta hacia un mejor conocimiento de las propiedades generales del hidrógeno, también ofrece pistas atractivas sobre nuevos materiales potencialmente revolucionarios.

[Img #41607]

Imágenes microscópicas de las etapas en la creación de hidrógeno metálico: hidrógeno molecular transparente (izquierda) a unos 200 gigapascales, que es convertido en hidrógeno molecular negro, y finalmente en hidrógeno atómico metálico reflectante a 495 gigapascales. (Fotos: cortesía de Isaac Silvera)

Una predicción muy importante es que el hidrógeno metálico debería ser metaestable. Eso significa que si se le devuelve a la presión ambiental normal de la superficie terrestre, seguirá siendo metálico, de manera similar a la forma en que los diamantes se forman a partir del grafito bajo un calor y una presión intensos, pero siguen siendo diamantes cuando la presión y la temperatura descienden hasta los valores normales en la superficie terrestre.

Averiguar si el material es realmente estable es importante porque se cree que el hidrógeno metálico podría actuar como superconductor a temperatura ambiente. Eso sería revolucionario. Se pierde mucha energía eléctrica debido a la disipación durante la transmisión, así que si pudiéramos fabricar cables de este material, sin la problemática asociada a los superconductores que requieren bajas temperaturas, y utilizarlo en la red eléctrica, ello marcaría un antes y un después en la historia del uso humano de la electricidad.

Un superconductor a temperatura ambiente también podría cambiar radicalmente nuestro sistema de transporte, haciendo mucho más fácil y práctica la levitación magnética de trenes de alta velocidad, así como haciendo más eficientes los coches eléctricos y mejorando el rendimiento de muchos dispositivos electrónicos.

Fuiente:
http://noticiasdelaciencia.com/not/22903/consiguen-crear-hidrogeno-metalico/

Zoología Lunes, 6 marzo 2017 Bioingeniería Logran grabar en ADN y sin errores una película y un sistema operativo de ordenador

La humanidad podría pronto generar más datos de lo que los discos duros u otros sistemas de almacenamiento masivo puedan acoger de manera eficaz, un problema que ha hecho que los científicos presten atención al ADN, la antiquísima solución de la naturaleza para almacenar información.

En un nuevo estudio, Yaniv Erlich y Dina Zielinski, de la Universidad de Columbia en la ciudad estadounidense de Nueva York, han demostrado que un algoritmo diseñado originalmente para streaming de video en un teléfono móvil o celular puede aprovechar casi por completo el potencial de almacenamiento del ADN gracias a poder comprimir mucho más la información en él que en cualquier otro sistema artificial existente de almacenamiento de información. También han demostrado que esta tecnología es muy fiable.

El ADN constituye un medio de almacenamiento ideal porque es ultracompacto y puede durar cientos de miles de años si se le mantiene en un lugar fresco y seco, como se demostró entre 2013 y 2016 con la obtención de ADN de huesos de un antepasado humano de hace 430.000 años, encontrados en una cueva española.

“El ADN no se degradará con el tiempo como sí les ocurrirá a las cintas de casete y a los CDs. No se volverá obsoleto, y si fuera así, los humanos tendríamos problemas mayores”, dice agudamente Erlich.

Erlich y Zielinski eligieron seis archivos para codificar, o escribir, en el ADN: un sistema operativo completo de ordenador, una película francesa de 1895 (“Llegada de un tren a La Ciotat”), una tarjeta de regalo de 50 dólares de Amazon, un virus de ordenador, el contenido de una placa diseñada como mensaje para extraterrestres y que viaja a bordo de las sondas espaciales Pioneer, y un estudio de 1948 del teórico de la información Claude Shannon.

[Img #42213]

Yaniv Erlich y Dina Zielinski. (Foto: New York Genome Center)

Erlich y Zielinski comprimieron los archivos en uno solo, y después dividieron los datos en secuencias cortas de código binario hecho de ceros y unos. Usando un algoritmo de corrección y borrado, empaquetaron aleatoriamente las secuencias en conjuntos denominados gotas, cartografiando los unos y los ceros de cada gota para las cuatro bases de nucleótidos en el ADN: A, G, C y T. El algoritmo excluyó combinaciones de letras conocidas por crear errores, y añadió un código de barras a cada gota para ayudar a reensamblar los archivos más tarde.

En total, generaron una lista digital de 72.000 cadenas de ADN, cada una de 200 bases de largo, y la enviaron en un archivo de texto a la compañía Twist Bioscience, de San Francisco, especializada en síntesis de ADN y en convertir datos digitales en datos biológicos. Dos semanas más tarde, recibieron un frasco conteniendo una pizca de moléculas de ADN.

Para recuperar del ADN sus archivos, utilizaron tecnología moderna de secuenciación que lee las cadenas de ADN, lo que fue seguido por el uso de un software que traduce el código genético de nuevo a código binario. Así, recuperaron sus archivos sin ningún error en absoluto.

También han demostrado que se podría crear una cantidad virtualmente ilimitada de copias con su técnica de codificación, mediante la multiplicación de su muestra de ADN a través de la reacción en cadena de la polimerasa (PCR), y que esas copias, e incluso las copias de sus copias, y así sucesivamente, pueden seguir almacenando, sin errores, la información original.

Finalmente, los investigadores han demostrado que su estrategia de codificación empaqueta 215 petabytes de datos en un único gramo de ADN, 100 veces más que lo conseguido con los métodos publicados por los investigadores precursores del almacenamiento de datos en ADN, George Church de la Universidad Harvard, y Nick Goldman y Ewan Birney del Instituto de Bioinformática Europeo. “Creemos que es el sistema de almacenamiento de datos de densidad más alta creado hasta ahora”, subraya Erlich.

Fuente:
http://noticiasdelaciencia.com/not/23304/logran-grabar-en-adn-y-sin-errores-una-pelicula-y-un-sistema-operativo-de-ordenador/

Tejido cardiaco humano creciendo en hojas de espinaca

Unos investigadores han recurrido al sistema vascular de las plantas para resolver un importante problema de bioingeniería que está bloqueando la regeneración de tejidos y órganos humanos.

Los científicos del sector se enfrentan a un desafío fundamental mientras buscan ampliar la escala de la regeneración de tejidos desde pequeñas muestras de laboratorio a tejidos más extensos, incluyendo piezas óseas e incluso órganos completos, para implantarlos en personas y tratar enfermedades o lesiones graves: cómo establecer un sistema vascular que suministre sangre al interior del tejido en desarrollo.

Las actuales técnicas de bioingeniería, incluyendo la impresión 3D, no pueden fabricar la red ramificada de vasos sanguíneos hasta el nivel capilar que se requiere para proporcionar el oxígeno, los nutrientes y las sustancias esenciales que se precisan para un adecuado crecimiento de los tejidos. A fin de solventar este problema, un equipo de investigación multidisciplinar del Instituto Politécnico de Worcester, la Universidad de Wisconsin-Madison y la Universidad Estatal de Arkansas en Jonesboro, todas estas instituciones en Estados Unidos, ha decidido recurrir a las plantas. Estos investigadores han explorado la posibilidad de usar plantas descelularizadas como andamios, con capacidad de perfusión, para ingeniería de tejidos.

Las plantas y los animales explotan métodos fundamentalmente diferentes para transportar fluidos, sustancias y macromoléculas, pero existen similitudes sorprendentes en sus estructuras de red vascular. El desarrollo de plantas descelularizadas para servir como andamio abre otro capítulo en una nueva rama de la ciencia que investiga el mimetismo entre lo vegetal y lo animal.

[Img #42628]

En esta secuencia, una hoja de espinaca es desprovista de sus células vegetales, un proceso llamado descelularización. El proceso solo deja la vasculatura de la hoja. (Fotos: Worcester Polytechnic Institute)

En una serie de experimentos, el equipo de Glenn Gaudette cultivó células cardiacas humanas que podían latir sobre hojas de espinaca a las cuales se despojó de células vegetales. Hicieron fluir fluidos y microesferas parecidas en tamaño a los glóbulos sanguíneos humanos a través de la vasculatura de la espinaca, y sembraron con éxito las venas de esta última con las células humanas que recubren los vasos sanguíneos. Los investigadores pudieron así cultivar células cardíacas que latían sobre tales hojas descelularizadas.

Esto abre la puerta hacia el uso de múltiples hojas de espinaca para hacer crecer capas de músculo cardiaco sano que permitan dar tratamientos médicos avanzados a pacientes que han sufrido ataques al corazón.

 Fuente:
 http://noticiasdelaciencia.com/not/23595/tejido-cardiaco-humano-creciendo-en-hojas-de-espinaca/

sábado, 25 de marzo de 2017

Hola mundo del nuevo Delphi 10.2 Tokio

Hola:

Aquí se presenta la nueva versión de Delphi 10.2 Tokio.

Novedades:
http://docwiki.embarcadero.com/RADStudio/Tokyo/en/What's_New

Han corregidos 500 reportes por los clientes.
http://edn.embarcadero.com/article/44747

Puedes descargar la versión grauita Delphi Edition Starter.

Descargar

Aquí hice una prueba muy básica sobre Delphi 10.2 Tokio con dos botones, uno para saludar y el otro para despedirse en una etiqueta.



Introduces un label y dos button.

Haz doble clic en el botón del formulario y pon este código:

Label1.Caption := 'Hola mundo.';

Este otro para la despedida:

Label1.Caption := 'Adiós mundo.';

Código fuente completo:

unit Saludar;

interface

uses
  Winapi.Windows, Winapi.Messages, System.SysUtils, System.Variants, System.Classes, Vcl.Graphics,
  Vcl.Controls, Vcl.Forms, Vcl.Dialogs, Vcl.StdCtrls;

type
  TForm1 = class(TForm)
    Label1: TLabel;
    Button_Saludar: TButton;
    Button_Despedir: TButton;
    procedure Button_SaludarClick(Sender: TObject);
    procedure Button_DespedirClick(Sender: TObject);
  private
    { Private declarations }
  public
    { Public declarations }
  end;

var
  Form1: TForm1;

implementation

{$R *.dfm}

procedure TForm1.Button_DespedirClick(Sender: TObject);
begin
  Label1.Caption := 'Adiós mundo.';
end;

procedure TForm1.Button_SaludarClick(Sender: TObject);
begin
     Label1.Caption := 'Hola mundo.';
end;

end.

Se hará tutoriales sobre encender y apagar un Led con Arduino y Delphi mediante puerto serie. ;)

Saludos.

Curiosity captó en Marte nubes sometidas al efecto onda de gravedad


El rover Curiosity sigue de misión en la superficie de Marte, donde el verano pasado logró captar imágenes de las nubes del planeta rojo sometidas al efecto que se conoce como onda de gravedad, algo que como vimos en esta noticia puede ser realmente impresionante.
Como sabrán nuestros lectores más avanzados el fenómeno de onda de gravedad es algo que se produce en muchos planetas, la Tierra incluida, y se describen en este caso como las ondas generadas por los cuerpos nubosos como respuesta a la perturbación que produce la fuerza de gravedad en ellos, intentando alterar su equilibrio inicial.
La atmósfera de Marte presenta una densidad muy baja. A pesar de ello gracias a la exploración llevada a cabo por Curiosity sabíamos que las nubes pueden producirse en formaciones bastante intensas a primera hora de la mañana, pero lo que no nos esperábamos era que se pudiera repetir el fenómeno de la onda de gravedad en la zona ecuatorial del planeta rojo.

Es una pequeña gran sorpresa que demuestra una vez más que Marte es un exotismo que nos recuerda constantemente a nuestro hogar, la Tierra, y que da un poco más de fuerza a esas teorías que nos pintan lienzos de un pasado lejano, en el que esa polvorienta bola anaranjada vistió tonalidades azules y verdosas.
No se puede negar que Marte es muy diferente a la Tierra, pero al mismo tiempo dentro de esas grandes diferencias encontramos parecidos tan grandes y tan claros que se pueden resumir con una frase muy sencilla: Marte es tan diferente a la Tierra que no podríamos vivir directamente sobre él, pero es tan parecido que es el único que podríamos colonizar con “poco esfuerzo”.

Fuente:
http://www.muycomputer.com/2017/03/25/curiosity-marte-nubes-onda-gravedad/

¿Por qué los ordenadores viejos tenían cerraduras?

Los ordenadores antiguos estaban llenos de pequeños detalles muy peculiares, y que en algunos casos eran exclusivos del fabricante: El reloj LED que enseñaba la frecuencia, el botón «Turbo», las teclas especiales, y por supuesto, la cerradura. ¿Por qué era una buena idea poner cerraduras en los sistemas de antaño? Dependiendo de la aplicación, se buscaba impedir el ingreso de comandos, bloquear el acceso al interior de la PC, o evitar su encendido fuera de horario.

Si has llegado a utilizar un ordenador de la «era pre-Windows 95», es probable que recuerdes algunas características de su carcasa. Una de las más llamativas era el botón Turbo. Muchos programas dependían de la frecuencia del CPU para su timing, y a medida que el hardware ganó velocidad, pasaron a funcionar demasiado rápido. «Desactivar el Turbo» ayudaba a esos programas a recuperar el timing, y todos éramos felices. Pero después estaba esa extraña cerradura. «Keylock», indicaban ciertos modelos. El ordenador personal es una demostración contundente del avance tecnológico, y aún así, muchas unidades venían con uno de los elementos más tradicionales en materia de seguridad. ¿Por qué?

El canal de YouTube Lazy Game Reviews, dedicado a retroinformática y juegos clásicos (entre otras cosas), lo explica con precisión. La función más común de la cerradura era desactivar el teclado. Con un giro de la llave, la placa base recibía la orden de ignorar cualquier señal, y evitar así el ingreso de comandos no deseados. Otro de sus objetivos era impedir el acceso al interior del ordenador. Anular la cerradura se limitaba a desconectar un cable con la carcasa abierta, pero muchas cerraduras combinaron ambas funciones. Ciertas cerraduras tenían la capacidad de desactivar el acceso al disco duro, o con el uso de un accesorio externo, bloquear el encendido.
Un IBM 5170. La cerradura está entre el logo y los botones de la carcasa.
El primer fabricante en instalar una cerradura con llaves tubulares fue IBM, a través de su ordenador 5170 (el clásico «IBM AT»). En agosto de 1984, el IBM 5170 costaba seis mil dólares, y los mecanismos de seguridad vía software eran nulos. No había contraseñas, ni perfiles, ni administración remota. El IBM 5150 (IBM XT) no poseía ninguna protección, por lo que el Gigante Azul lanzó una «Keylock Option», cerradura para el interruptor de encendido, que también incluía un «dummy plug» compatible con la toma de energía. El mercado no tardó en copiar a IBM, y otras compañías adoptaron variantes más robustas, como el caso de SGI con su barra de metal. Al final, lo que «mató» a la cerradura fue la llegada de las contraseñas a nivel software (BIOS y sistema operativo), aunque los usuarios hicimos nuestra parte perdiendo llaves con extrema facilidad…

Fuente:
http://www.neoteo.com/por-que-los-ordenadores-viejos-tenian-cerraduras/

Usando smartphones como servidores Linux

La idea de un smartphone Android abandonado en un oscuro cajón es cada vez más frecuente. Si se trata de un modelo demasiado viejo o su reparación no vale la pena, lo más probable es que quede ahí, esperando a una segunda oportunidad que tal vez no llegue nunca. Sin embargo, muchos entusiastas del hardware están explorando usos alternativos para esos smartphones, y uno de ellos es el de servidor Debian.

Los mejores proyectos de hardware pueden comenzar con un accidente. Una pantalla rota, botones que dejan de funcionar, errores en el firmware, la lista sigue. Los fabricantes arrojan la toalla con una velocidad escalofriante al brindar soporte, pero si los espíritus del hacking nos ayudan, puede que haya un poco de información adicional en la Web. Tomemos el ejemplo de los smartphones Android. Se supone que el sistema operativo es abierto, pero los OEM se encargan de modificar las imágenes a un punto tal que se convierten en algo exclusivo para cada modelo. Como si eso fuera poco, los detalles sobre los componentes tienden a ser escasos. Aún con estas dificultades, hay entusiastas allá afuera muy interesados en reutilizar smartphones y tablets, lo que nos lleva al blog de Pete Scargill y sus esfuerzos para crear un servidor Debian.
Linux Deploy es muy interesante, pero su documentación necesita trabajo
Todo comenzó con un teléfono Oukitel K10000 que recibió de un amigo con la pantalla rota. El primer paso fue habilitar el acceso root en el dispositivo a través de kingroot.net, y luego descargó una aplicación de la Play Store llamada Linux Deploy, cuya documentación se encuentra en ruso. Scargill recomienda un smartphone con 16 GB de almacenamiento interno, aunque técnicamente es posible experimentar con unidades de 8 GB (quedarán menos de 2 GB disponibles). Dentro de la app hay un repositorio con una copia de Debian 8 para ARM, y después de algunos ajustes (sin mencionar una larga espera durante su instalación), debería quedar todo listo para acceder al smartphone vía WinSCP o similar.
Con Debian instalado, el smartphone es ahora un servidor. Necesitamos ver más casos como este.
Una de las cosas que instaló Scargill fue Node-Red, y para ello utilizó un script originalmente preparado con el Raspberry Pi en mente. De hecho, su proyecto mantiene cierta relación con el mini ordenador (el usuario en Debian es «pi»), pero al final del día es una bestia muy diferente. El K10000 tiene 2 GB de RAM, y una batería de 10.000 mAh que en esencia funciona como UPS. Otros dispositivos que formaron parte de la prueba son el Xiaomi Redmi 3, el OnePlus One, y la edición 2012 de la tablet Nexus 7.

Fuente:
http://www.neoteo.com/usando-smartphones-como-servidores-linux/

Raspberry Pi Zero W transformado en terminal portátil

El Raspberry Pi Zero W está simplificando mucho la vida de los usuarios gracias a su conectividad inalámbrica integrada. No solo reduce la necesidad de accesorios externos, sino que también permite implementar diseños más sencillos. Así llegamos al Zero Terminal, un proyecto que transforma al Pi Zero W en un ordenador portátil, con su propia batería interna, salida HDMI, y un teclado deslizante pensado para el iPhone 5.


Con el debut del Raspberry Pi Zero W en el mercado, los entusiastas del hardware dijeron adiós a los concentradores USB para conectar adaptadores WiFi y módulos Bluetooth externos. Ahora, todo eso se encuentra en el PCB, y la mejor parte es que su consumo de energía no se disparó (aproximadamente 170 mA en reproducción 1080p). Con ese dato a favor, era una simple cuestión de tiempo para que alguien tomara al nuevo mini ordenador y lo convirtiera en una solución portátil. Ese trabajo llega a nosotros una vez más gracias a los esfuerzos de NODE, que presentó a su «Zero Terminal», tercera versión de su concepto de ultraportátiles Linux.

Uno de los objetivos principales del Zero Terminal fue mejorar su estética en relación a los modelos previos, y entre las piezas más importantes descubrimos un teclado deslizante compatible con el iPhone 5. Ese smartphone cumplirá cinco años en septiembre, pero la disponibilidad de accesorios similares aún es amplia. Una carcasa especial impresa en 3D (dividida en marco y cubierta que se pegan sobre el teclado) tiene espacio suficiente para la pantalla de 3.5 pulgadas (480 por 320), una batería de 1.500 mAh (podría ser más grande con algunos ajustes), y un circuito de carga. NODE utiliza componentes de Adafruit, pero no es obligatorio de ningún modo.
El teclado deslizante es una solución elegante y más económica de lo que aparenta, aunque fue necesario reasignar una tecla para imitar a «CTRL». La salida HDMI y el puerto USB extendido ayudan mucho a la hora de conectar un monitor externo y un ratón o un teclado de tamaño completo. Los archivos 3D de la carcasa van a demorar un poco, pero están en camino.

Fuente:
http://www.neoteo.com/raspberry-pi-zero-w-transformado-en-terminal-portatil/

lunes, 20 de marzo de 2017

La Nintendo Switch ya ha sido hackeada

Un agujero en WebKit es el culpable

Pasaron apenas once días desde que la Nintendo Switch debutó en el mercado. En general podemos hablar de un lanzamiento exitoso, pero al igual que todo producto de primera generación, siempre va a aparecer un borde filoso o dos. En esta ocasión, se trata del software. Técnicamente, la Nintendo Switch no trae un navegador, pero posee un módulo que se comporta como tal para habilitar el ingreso a ciertas redes WiFi. ¿El problema? Ese módulo se basa en una versión muy antigua de WebKit, y todo lo que necesitaron los hackers fue reciclar un viejo exploit de iOS.

El hackeo de las consolas es inevitable. Tarde o temprano, entusiastas del hardware y el software comienzan a estudiar de una punta a otra sus diseños, y a hacer cosas que jamás se le hubieran pasado por la cabeza a los fabricantes. Por supuesto, cualquier idea sobre hacking, modding, emulación y ejecución de código alternativo es oficialmente rechazada, pero todos los reclamos se pierden en el camino. Al final del día, el dueño de la consola hace lo que desea con ella, y si eso implica ejecutar Linux, instalar un emulador o reemplazar su disco duro con un SSD cuando en teoría es imposible, así será. El reciente lanzamiento de la Switch ha convertido a la nueva plataforma de Nintendo en un blanco muy tentador, y con el inicio de la semana, ya surgió la primera vulnerabilidad.

Ahora, debemos hacer énfasis en el término «vulnerabilidad». No se trata de un firmware personalizado, ni nada que permita ejecutar dumps de los cartuchos (por ahora). En términos sencillos, el modo online de la Nintendo Switch es un trabajo en progreso, y se espera que las cosas mejoren con cada nueva actualización. Nintendo indicó en más de una oportunidad que la Switch no iba a contar con un navegador tradicional, sin embargo, lo cierto es que sí existe un navegador integrado, basado en WebKit. Este navegador se activa cuando el usuario conecta la consola a una red WiFi que requiere autenticación o confirmación manual (por ejemplo, a través de un portal cautivo). El problema es que ese navegador utiliza una versión de WebKit muy antigua, la cual carga con un bug de corrupción de memoria, CVE-2016-4657. El bug sirvió como punto de partida para el jailbreak de iOS 9.3, y se remonta a agosto del año pasado.
La gran pregunta aquí es en qué estaba pensando Nintendo cuando decidió implementar una versión de WebKit con más de seis meses y llena de agujeros. El siguiente paso será obviamente lanzar un update, pero hasta que eso suceda, los hackers buscarán vulnerabilidades adicionales que lleven a una elevación de privilegios.

Fuente:
http://www.neoteo.com/la-nintendo-switch-ya-ha-sido-hackeada/

 

Navegando en la Web de hoy… con una Dreamcast

Muchos jugadores aún estamos dolidos por lo que sucedió con la Dreamcast. Sus especificaciones eran más que decentes, y contaba con algunos recursos desconocidos en otras consolas, pero una vez que la PlayStation 2 llegó con su soporte DVD, el compromiso de los desarrolladores y su retrocompatibilidad PS1, fue «game over» para Sega. Aún así, todavía quedan varios locos de la guerra que disfrutan experimentando con la consola, y en esta ocasión, SegaDotNet decidió conectar una Dreamcast a la Web usando dial-up. Un valiente, sin lugar a dudas.

El único juego que terminé completo en la Sega Dreamcast fue Resident Evil 2, y eso me alcanzó para quedar completamente enamorado de la consola, pero llegué muy tarde a la fiesta, y a los pocos meses desapareció del mercado. Si quisiera comprar una hoy debería entregar un riñón como parte de pago, porque hay muchos «coleccionistas» online que deliran con sus precios. En estos últimos años, la Dreamcast recibió varias modificaciones, incluyendo una salida VGA, y soporte para discos duros o tarjetas de memoria, pero hay otros que la disfrutan en su configuración de fábrica. Uno de ellos es Sammy Kennedy, responsable por el canal SegaDotNet en YouTube. ¿Qué fue lo que hizo? La conectó a la Web. Usando dial-up.

El proceso requiere de un cable telefónico estándar para conectar el módem integrado a la línea, uno de los controles, el teclado y el ratón de Dreamcast, y un navegador compatible, en este caso Dreamkey 3.0 (esa fue la última versión de disponibilidad general en Europa, pero también hubo un build 3.1 para España y Portugal). El número de proveedores gratuitos vía dial-up ha disminuido mucho, pero es suficiente con un poco de Google-fu para detectar los servicios que siguen activos. Una vez ingresado el número de teléfono, el nombre de usuario y la contraseña, el resto depende de qué tan severo sea el ataque alérgico de la Web moderna frente a un navegador antiguo.
Obviamente, la experiencia es desastrosa. El motor de búsqueda de Google apenas carga en su versión básica, Facebook se pierde por el camino, y Wikipedia responde con un error. La única excepción fue el viejo portal Dreampipe, optimizado para Dreamkey y otros navegadores de Dreamcast. En resumen: La consola aún puede conectarse sin problemas, pero navegar es otra historia. Ahora, si alguien se tomara la molestia de crear un navegador más actualizado…

Fuente:
http://www.neoteo.com/navegando-en-la-web-de-hoy-con-una-dreamcast/
 

domingo, 19 de marzo de 2017

Viatcheslav Mukhanov: «El Universo surgió de la nada y puede volver a suceder»

Todos los experimentos han dado la razón a este científico ruso que hace 30 años calculó con lápiz y papel cómo fueron los orígenes del Cosmo.

El cosmólogo Viatcheslav Mukhanov (Kanash, antigua URSS, 1952) habla alto y claro, en todos los sentidos. Vehemente e impetuoso, escucharle es todo un espectáculo; por su discurso rápido, rotundo y fulminante, la energía que desprende su voz y un acento que suena en inglés, y en esto hay cierta ternura, a un malo de las películas de James Bond. Con la misma pasión habla del Big Bang, cita a San Agustín o muestra su rechazo a la política de Vladímir Putin. Este catedrático de la Universidad Ludwig-Maximilians de Múnich (Alemania) tuvo hace treinta años una idea brillante que también se le ocurrió a Stephen Hawking. Con toda seguridad el nombre del británico le sonará mucho más, pero ambos llegaron de forma independiente a la misma conclusión: las galaxias, las estrellas, los planetas... todo se formó a partir de un fenómeno microscópico llamado fluctuaciones cuánticas, generadas después del Big Bang. Y tenían razón, dice el científico ruso, «punto por punto». De eso ha hablado en la inauguración de una nueva edición del ciclo de conferencias científicas de la Fundación BBVA en Madrid. La suya se titulaba «De la nada al Universo».
-Entonces, ¿toda la materia surgió de la nada?
-El hecho de que el Universo se origine de la nada no contradice ninguna ley física. En eso incluso estaban de acuerdo los teólogos antes del Medioevo, pero entonces eran palabras y ahora son hechos confirmados experimentalmente. El Universo surgió de la nada y si me pregunta qué había antes...
-¿Qué había?
-La pregunta no tiene sentido, porque el tiempo también fue creado cuando surgió el Universo. San Agustín decía esto mismo.
-Cita a San Agustín... ¿Dios tiene un espacio en esa ecuación?
-Yo diría que las leyes de la física lo explican todo. Ahora, quién es el creador de esas leyes, eso es otra cosa. Es una pregunta abierta.
-Si esto ha sucedido una vez, ¿pudo suceder más veces? ¿Puede volver a suceder?
-Sí, podemos tener múltiples universos. De hecho, no parece una idea nada loca, pero esa tesis está fuera de la física, porque no es una conclusión sin ambigüedad y no sabemos cómo verificarlo. La física se encarga solo de las cosas que se pueden verificar, y la cosmología, gracias a la experimentación de los últimos años, es parte de ella, una ciencia natural.
-Los experimentos sí han confirmado los cálculos que usted hizo una vez con lápiz y papel.
-Durante los últimos 25 años ha habido 70 experimentos que nos han dado la imagen del Universo cuando tenía solo 300.000 años de edad; apenas un «bebé», ya que ahora es muy viejo, tiene 13.700 millones de años. Pues bien, esa «foto» del Cosmos se solapa perfectamente con lo que yo dibujé hace treinta años. Son la misma imagen.
-¿Y no hay nada que le haya sorprendido, algo que no encajara en sus cálculos?
-Lo más sorprendente es que no hubo sorpresa. Todo fue confirmado. Era asombroso que las imágenes coincidieran. Todos los experimentalistas intentaban buscar desviaciones y anomalías, pero finalmente todo coincidía. Era exactamente igual.
-¿Qué experimento fue el definitivo, con el que ya no cabían dudas?
-La última palabra la ha dado la sonda Planck (telescopio espacial de la Agencia Espacial Europea), su contribución es tremenda, enorme, ya que gracias a ella los científicos pudieron establecer la imagen más completa del Universo. El experimento fue 500 veces más sensible comparado con otros anteriores, como el WMAP (Sonda de Anisotropía de Microondas Wilkinson, de la NASA). Con Planck no se puede ir más allá, no se puede mejorar más.
-No puede haber mayor satisfacción para un científico que le den la razón de esa forma...
-Por supuesto. Fue una satisfacción enorme. Fíjate que en los 80 estaba en completa contradicción con todas las observaciones astrofísicas en aquel momento, pero lo que parecía una mala teoría finalmente ganó.
-Y esa teoría hablaba de algo diminuto para explicar las estructuras más grandes conocidas. ¿Cómo es eso?
-Sí, cuando el Universo era recién nacido, el comportamiento de la materia estaba afectado por la mecánica cuántica, que prohíbe el estado de reposo absoluto. La mínima desviación del estado de reposo se llama fluctuación cuántica y, debido a ella, se formarían «semillas» de materia que, por la gravedad, acabarían convirtiéndose en galaxias, estrellas y planetas. Todo eso estaba localizado en algo aún más pequeño que una caja de cerillas. Luego, la mecánica cuántica es también responsable del origen de nuestra propia vida.
-¿Cabe una teoría sobre el Cosmos que no tenga en cuenta el Big Bang?
-No, pero llamémosle mejor Universo en expansión. Hemos esclarecido la razón del Big Bang y era un estado de dominación de la energía oscura. Hace 40 años pensábamos que producir un universo era muy difícil, hoy sabemos que es una tarea fácil si tienes la materia en el estado adecuado.
-El último gran descubrimiento de la cosmología son las ondas gravitacionales. Todo el mundo parece fascinado con ellas, ¿usted también?
-Sí, todo el mundo lo está, y, en efecto, es una nueva ventana abierta al Universo y hay que ir por ese camino, pero creo que el anuncio se hizo demasiado pronto. No hay estadística, y la interpretación de los eventos puede prestarse a sospechas. Parece complicado que esas ondas hayan sido producidas por la fusión de dos agujeros negros de 30 masas solares. No pondría la mano en el fuego por esa interpretación. Quizás pueda ser otra cosa, el agujero en el centro de la galaxia, pero no lo sé.
-¿Cree que los científicos de LIGO (el laboratorio que anunció el descubrimiento de las ondas gravitacionales) se precipitaron?
-Sí, yo hubiera esperado a una confirmación más cuidadosa. No se puede declarar victoria antes de confirmarla realmente. Creo que el anuncio fue demasiado exagerado y se «vendió» muy bien, la forma habitual por parte de los americanos para conseguir dinero y seguir haciendo ciencia. Debemos aprender algo de lo que pasó con el experimento BICEP2 hace dos años, que falló al anunciar el descubrimiento de estas ondas. Hay una tendencia a vender demasiado bien los logros.
-Usted llegó a las mismas conclusiones que Hawking sobre las fluctuaciones cuánticas. ¿Siempre está de acuerdo con él?
-No. Los científicos pensamos de forma diferente, no tenemos que estar en completo acuerdo y esa es una de las razones del progreso de la ciencia. Stephen (con quien compartió el Premio Fronteras del Conocimiento 2015 en Ciencias Básicas que otorga la Fundación BBVA) también un día se puso en desacuerdo consigo mismo y se desdijo. Y eso es importante. En investigación no se puede tener una opinión inamovible.
-Ha trabajado con los científicos que desarrollaron la bomba atómica. ¿Cómo fue?
-Sí, trabajé con varios. Zeldóvich, uno de los principales investigadores de la bomba nuclear, con todos sus secretos; el disidente Sacharov, que luego recibió el Nobel de la Paz, y Ginzburg, que propuso una de las ideas básicas de la bomba de hidrógeno. Pero ninguno de ellos hablaba de eso, porque era supersecreto.
-Suena apasionante, pero peligroso.
-Sí, pero mira, la física nuclear salvó a los físicos de los filósofos. En la época de Stalin, los filósofos decidían lo que deberían hacer o decir los físicos, con ideas como si la mecánica cuántica estaba de acuerdo con el marxismo leninismo o no... Podías ser atacado si te equivocabas, y eso significaba que al día siguiente o bien te mataban o te llevaban a un campo de concentración.
-Qué angustia...
-Pero en el 48, los físicos advirtieron que no podían garantizar la construcción de bombas nucleares con esa presión, así que les dejaron en paz. La ideología es una mala influencia cuando se mete en las ciencias naturales, en particular en la antigua Unión Soviética. Cuando lees lo que sucedía hace no tanto tiempo, hace menos de cien años, no te puedes imaginar que la gente pudiera comportarse así, mucho peor que las peores bestias.
-¿Cómo ve la ciencia ahora en su país de origen?
Yo me fui de Rusia en el año 92. Tengo amigos y colaboradores de siempre, pero no proyectos en común. No puedo hablar desde dentro, pero por lo que veo no creo que el gobierno ruso esté cuidando las ciencias. En general, los gobiernos no entienden que, en realidad, ahorran dinero cuando invierten en ciencia. En Italia, España o Francia, los investigadores se quejan por los recortes de los fondos. Creo que es una política ridícula. En Alemania, donde yo vivo y trabajo, Angela Merkel es física y sabe lo importante que es la ciencia. Allí la situación es la opuesta. A veces hay demasiado dinero y no sabes en qué proyecto invertirlo. Pero si piensas en lo que ha costado aquí salvar los bancos, que ha requerido enormes inversiones, lo de la ciencia no es nada. Y eso comparado con la cantidad de dinero que la gente en la ex Unión Soviética ha robado... Y mira el fútbol, cuánto se invierte y cuál es el resultado práctico de esa actividad, que es igual que jugar en un casino.

Plomo español de hace 2.000 años para descubrir los secretos del Universo

Jamás los españoles que trabajaron hace 2.000 años en la Sierra Minera de Cartagena-La Unión imaginaron que el plomo que extraían iba a convertirse hoy en material precioso a la caza de neutrinos, con vistas a descubrir la naturaleza más íntima de la materia y comprender su comportamiento en similares condiciones a las de los primeros instantes de vida del Universo. Para desvelar el secreto de los neutrinos que los físicos persiguen desde decenios, se echa mano también de la historia y de la arqueología. Ese plomo, descubierto en una antigua nave romana que naufragó en aguas de Cerdeña, ayudará a desvelar algunos de los misterios del universo.

Tan precioso como el oro

El experimento se realiza en el laboratorio subterráneo más grande del mundo, el de Gran Sasso, el pico más alto de la cordillera de los Apeninos, en el centro de Italia, bajo 1.400 metros de roca. «El plomo moderno está constituido con 210 PB, un isótopo radiactivo que necesita una media de 22 años para reducirse a la mitad su radioactividad. Es decir, cualquier plomo extraído en los últimos decenios tendría radiactividad. Esta ya ha desaparecido en el plomo de hace dos mil años conservado bajo el mar, que para nosotros es precioso como el oro», manifiesta a ABC el físico Antonio D’Addabbo, que participa en este experimento extraordinario para verificar un fenómeno de la física de los neutrinos jamás observado hasta ahora y que, si constituye un éxito, se asegura que sería digno de un premio Nobel.
El pecio romano con el plomo fue hallado por un submarinista en 1988 en la costa de Cerdeña
El pecio romano con el plomo fue hallado por un submarinista en 1988 en la costa de Cerdeña- ABC
Para los físicos, la nave romana cargada con 2.000 lingotes de plomo, procedente del puerto de Carthago Nova (Cartagena) hundida en un naufragio entre el 80 y 50 antes de Cristo, constituyó un auténtico tesoro. La descubrió casualmente en 1989 un buzo aficionado, Antonello Azori, apasionado del mar y conocedor de las aguas de la isla de Cerdeña, a lo largo de la costa de Oristán, a unos 30 metros de profundidad. Se ha tratado de uno de los descubrimientos submarinos más significativos de los últimos decenios. La nave, de 36 metros por 12, transportaba además de los lingotes de plomo ánforas de diverso tipo y objetos de uso cotidiano. En época romana, el plomo representaba un mercado riquísimo por sus múltiples usos: tuberías para el agua como las utilizadas en Pompeya, urnas cinerarias, monedas, armamento para las legiones romanas... También se utilizaba en la construcción para sostener unidos bloques de piedra. Cada lingote pesaba 33 kilos, que corresponden a las 100 libras romanas, el peso máximo transportable por ley de un esclavo. Doscientos setenta de los lingotes de la nave romana ya han sido trasladados al Laboratorio Nacional Gran Sasso, un importante centro que aglutina a físicos de todo el mundo.

Proyecto CUORE

Así, pues, para proyectarnos en el futuro de la física, se echa mano del pasado en este experimento, con alma antigua española, denominado CUORE. «El experimento trata de descubrir un proceso llamado “doble desintegración beta sin emisión de neutrinos”, fundamental para comprender la naturaleza de la materia y aspectos de la evolución del universo. Este fenómeno, actualmente rarísimo, tan raro que nunca ha sido observado, podría haber sido frecuente al inicio del universo, inmediatamente después del Big Bang, y haber determinado el predominio de la materia sobre la antimateria», nos dice Antonio D’Addabbo.
Una investigadora trabajando sobre una de las estructuras a temperatura intermedia del criostato de CUORE, que cuenta con metro cúbico más frío del universo, cercana al cero absoluto, todo un récord.
Una investigadora trabajando sobre una de las estructuras a temperatura intermedia del criostato de CUORE, que cuenta con metro cúbico más frío del universo, cercana al cero absoluto, todo un récord.- Yury Suvorov/LNGS-INFN
La función del plomo originario de las minas de Cartagena sirve para proteger y aislar completamente el observatorio del experimento: «Son varios los blindajes. En primer lugar, está la montaña que es protectora natural para reducir muchos de los rayos cósmicos, que son las partículas de energía muy alta producidas en su mayor parte por nuestra estrella, el sol. Por ejemplo, la palma de la mano es atravesada por un rayo cósmico cada segundo, más o menos. Solo algunas partículas logran atravesar la roca y llegar a la zona de nuestro experimento. Para evitarlo, CUORE está protegido por otros dos escudos de plomo colocados al interno del criostato –el recipiente que permite mantener las temperaturas muy bajas-, el más grande jamás construido . Uno de los escudos está formado por el plomo procedente de la nave romana, que para nosotros es precioso como el oro», afirma Antonio D’ Addabbo.
Entre las cosas que sorprenden del experimento CUORE está la temperatura. El detector, gracias a refrigeradores mecánicos y a la dilución de helio, trabaja a 10 milliKelvin, cerca del cero absoluto (-273.15º centígrados). «El núcleo de CUORE es el metro cúbico mas frío del mundo. La infraestructura de tipo criogénico que hemos realizado no tiene precedentes, es un enorme, gigantesco frigorífico. El experimento CUORE ha probado que es posible construir una máquina así y hacerla funcionar, algo en lo que esperaban los cinéticos para hacer otros experimentos», explica Antonio D’Addabbo.
Además de intentar descubrir el proceso llamado «doble desintegración beta sin emisión de neutrinos», el proyecto buscará también huellas de materia oscura y estudiará algunas desintegraciones raras. En particular, se estudiarán los neutrinos, las partículas que impregnan el universo, producidas en grandes cantidades en las estrellas. Las que proceden del sol atraviesan continuamente la Tierra: Al segundo, cada centímetro cuadrado de nuestro cuerpo es atravesado, sin que nos demos cuenta, por 60.000 millones de neutrinos, que viajan a una velocidad próxima a la de la luz.

El misterio de los neutrinos

Se espera que CUORE pueda dar respuesta a un interrogante que nos explica el físico Antonio D’ Addabbo: «Se trata de comprobar si el neutrino es una partícula de Majorana –mítico físico siciliano (1906-1938)-, según el cual el neutrino y el antineutrino eran dos manifestaciones de la misma partícula, como las dos caras de una misma moneda; es decir, el neutrino es al mismo tiempo materia y antimateria y la transición entre materia y antimateria resultaría posible».
Así, pues, se trata de arrojar luz de forma experimental sobre si el neutrino es su propia antipartícula o no, lo que constituye uno de los granes interrogantes de la física de las partículas y que se lleva estudiando 75 años. La investigación se intenta adentrar en el origen del universo, según nos aclara Antonio D’ Addabbo: «Llegar a decir que el neutrino y el antineutrino son la misma partícula, que no hay diferencia entre la partícula de materia neutrino y la partícula de antimateria antineutrino querría decir que no hay distinción entre materia y antimateria, que es la misma cosa. Esto tendrá consecuencias muy importantes para explicar los posibles mecanismos que en el origen del universo han conducido a la generación de la asimetría entre materia y antimateria».

Experimento de Nobel

Se explica así el gran interés que en la comunidad científica ha suscitado el experimento CUORE, en el que se trabajará durante cinco años, con la colaboración internacional de 157 científicos de diversos países, procedentes de 30 instituciones, con participación también de España.
En definitiva, se trata de un experimento revolucionario. Y los científicos no tienen duda: Si llega a buen puerto, sería una investigación de premio Nobel. Se iría más lejos del famoso dicho de que somos polvo de estrellas, al confirmarse que nuestros antepasados, nuestro punto de partida son los neutrinos. Por ellos estaríamos aquí.

Fuente:
http://www.abc.es/ciencia/abci-plomo-espanol-hace-2000-anos-para-descubrir-secretos-universo-201703190118_noticia.html

Hacia un implante nanométrico en la retina capaz de curar ciertas clases de ceguera

Zoología
Lunes, 6 marzo 2017
Bioingeniería

Logran grabar en ADN y sin errores una película y un sistema operativo de ordenador

La humanidad podría pronto generar más datos de lo que los discos duros u otros sistemas de almacenamiento masivo puedan acoger de manera eficaz, un problema que ha hecho que los científicos presten atención al ADN, la antiquísima solución de la naturaleza para almacenar información.

En un nuevo estudio, Yaniv Erlich y Dina Zielinski, de la Universidad de Columbia en la ciudad estadounidense de Nueva York, han demostrado que un algoritmo diseñado originalmente para streaming de video en un teléfono móvil o celular puede aprovechar casi por completo el potencial de almacenamiento del ADN gracias a poder comprimir mucho más la información en él que en cualquier otro sistema artificial existente de almacenamiento de información. También han demostrado que esta tecnología es muy fiable.

El ADN constituye un medio de almacenamiento ideal porque es ultracompacto y puede durar cientos de miles de años si se le mantiene en un lugar fresco y seco, como se demostró entre 2013 y 2016 con la obtención de ADN de huesos de un antepasado humano de hace 430.000 años, encontrados en una cueva española.

“El ADN no se degradará con el tiempo como sí les ocurrirá a las cintas de casete y a los CDs. No se volverá obsoleto, y si fuera así, los humanos tendríamos problemas mayores”, dice agudamente Erlich.

Erlich y Zielinski eligieron seis archivos para codificar, o escribir, en el ADN: un sistema operativo completo de ordenador, una película francesa de 1895 (“Llegada de un tren a La Ciotat”), una tarjeta de regalo de 50 dólares de Amazon, un virus de ordenador, el contenido de una placa diseñada como mensaje para extraterrestres y que viaja a bordo de las sondas espaciales Pioneer, y un estudio de 1948 del teórico de la información Claude Shannon.

[Img #42213]

Yaniv Erlich y Dina Zielinski. (Foto: New York Genome Center)

Erlich y Zielinski comprimieron los archivos en uno solo, y después dividieron los datos en secuencias cortas de código binario hecho de ceros y unos. Usando un algoritmo de corrección y borrado, empaquetaron aleatoriamente las secuencias en conjuntos denominados gotas, cartografiando los unos y los ceros de cada gota para las cuatro bases de nucleótidos en el ADN: A, G, C y T. El algoritmo excluyó combinaciones de letras conocidas por crear errores, y añadió un código de barras a cada gota para ayudar a reensamblar los archivos más tarde.

En total, generaron una lista digital de 72.000 cadenas de ADN, cada una de 200 bases de largo, y la enviaron en un archivo de texto a la compañía Twist Bioscience, de San Francisco, especializada en síntesis de ADN y en convertir datos digitales en datos biológicos. Dos semanas más tarde, recibieron un frasco conteniendo una pizca de moléculas de ADN.

Para recuperar del ADN sus archivos, utilizaron tecnología moderna de secuenciación que lee las cadenas de ADN, lo que fue seguido por el uso de un software que traduce el código genético de nuevo a código binario. Así, recuperaron sus archivos sin ningún error en absoluto.

También han demostrado que se podría crear una cantidad virtualmente ilimitada de copias con su técnica de codificación, mediante la multiplicación de su muestra de ADN a través de la reacción en cadena de la polimerasa (PCR), y que esas copias, e incluso las copias de sus copias, y así sucesivamente, pueden seguir almacenando, sin errores, la información original.

Finalmente, los investigadores han demostrado que su estrategia de codificación empaqueta 215 petabytes de datos en un único gramo de ADN, 100 veces más que lo conseguido con los métodos publicados por los investigadores precursores del almacenamiento de datos en ADN, George Church de la Universidad Harvard, y Nick Goldman y Ewan Birney del Instituto de Bioinformática Europeo. “Creemos que es el sistema de almacenamiento de datos de densidad más alta creado hasta ahora”, subraya Erlich.

Fuente:
http://noticiasdelaciencia.com/not/23304/logran-grabar-en-adn-y-sin-errores-una-pelicula-y-un-sistema-operativo-de-ordenador/

Nace Arbolapp Canarias, una app gratuita para identificar los árboles de las islas

¿Sabías que el último drago descrito en el mundo solo vive en los riscos más inaccesibles de Gran Canaria? ¿O que la resina del lentisco se ha mascado como chicle desde los tiempos de la Grecia clásica? ¿O que los aborígenes canarios usaban varas de acebuche para fabricar sus armas defensivas? Estas son algunas de las curiosidades que recoge Arbolapp Canarias, una aplicación para dispositivos móviles que permite identificar los árboles silvestres del archipiélago.

La nueva aplicación, que ya se puede descargar gratuitamente en dispositivos Android e iOS y cuenta con una versión web , es una iniciativa del Consejo Superior de Investigaciones Científicas (CSIC). En concreto, ha sido desarrollada por su Área de Cultura Científica, el Real Jardín Botánico y el Jardín Botánico Canario ‘Viera y Clavijo’ - Unidad asociada al CSIC del Cabildo de Gran Canaria. Además, el proyecto ha recibido financiación de la Fundación Española para la Ciencia y la Tecnología (FECYT) - Ministerio de Economía, Industria y Competitividad.

Arbolapp Canarias incluye información sobre 92 especies de árboles que pueblan bosques y demás hábitats naturales del archipiélago. Las especies están organizadas en 84 fichas (81 individuales y tres que agrupan los géneros acacia, eucalipto y tamarix). Cada ficha contiene fotografías, mapas que muestran en qué islas está presente el árbol, un texto descriptivo y varias curiosidades.

Para identificar una especie, es posible elegir entre dos tipos de búsqueda. Una guiada, en la que hay que escoger en sucesivas pantallas la alternativa que mejor describe el árbol que se quiere reconocer; y otra abierta, que permite encontrar árboles por isla, tipo de hoja, fruto, flor u otros criterios. Con afán divulgativo, la aplicación incluye además un glosario con todos los términos técnicos.

La nueva aplicación complementa los contenidos de Arbolapp, una app dedicada a los árboles silvestres de la península ibérica creada por el CSIC en 2014 y que a día de hoy supera las 350.000 descargas. “Entonces, muchos usuarios reclamaron que la flora canaria, rica en especies endémicas, no se quedara fuera de la iniciativa; algo para lo que era necesaria la colaboración entre centros de investigación de las islas y de la península”, señala Miguel Ángel Rodríguez, consejero de Medio Ambiente del Cabildo de Gran Canaria.

[Img #42489]

La app está disponible para dispostivos Android e iOS. (Foto: CSIC)

En Arbolapp Canarias, las búsquedas y el glosario están ilustrados con dibujos botánicos que facilitan la comprensión de los textos. “El objetivo del proyecto es trasladar a la ciudadanía el conocimiento científico, en este caso sobre los árboles canarios, a partir de una experiencia que está al alcance de cualquiera”, explica Manuel Nogales, delegado institucional del CSIC en Canarias. Junto a este compromiso, Nogales destaca que “la integración de las TIC y la búsqueda de nuevos formatos es una apuesta del CSIC a la hora de divulgar la ciencia”.

Concebida para que cualquier usuario, con o sin conocimientos de botánica, pueda manejarla, Arbolapp Canarias conjuga el uso de un lenguaje asequible con el rigor científico. “Los contenidos se basan en la investigación del Jardín Botánico Canario ‘Viera y Clavijo’ y en obras de referencia como la Lista de especies silvestres de Canarias o el Atlas de las plantas alóctonas invasoras en España”, comenta Juli Caujapé, director de esta institución.

Durante la elaboración de Arbolapp Canarias, que comenzó en enero de 2016, un equipo multidisciplinar ha intervenido en todo el proceso: desde la selección de las especies, hasta la toma de fotografías, la elaboración de los textos y el desarrollo de la línea gráfica. La bióloga Magui Olangua ha sido la responsable de los contenidos.

Eduardo Actis, coordinador del proyecto, incide en que “esta app es una buena herramienta para que el ciudadano de a pie pueda adquirir conocimientos de botánica de forma entretenida”. “Lo interesante es que una experiencia lúdica, como es pasear por un bosque, se pueda transformar en aprendizaje, aunque creemos que también puede ser un recurso didáctico interesante para el personal docente”, señala.

El lugar idóneo para utilizar la aplicación es el medio natural, por lo que la app funciona de manera autónoma sin conexión a internet. Al centrarse en árboles silvestres, es decir, que crecen espontáneamente sin intervención humana, Arbolapp Canarias no incluye especies que solo se encuentran en parques, jardines, calles o terrenos forestales.

Con el objetivo de llegar a un público lo más amplio posible, la aplicación y la web son accesibles tanto en castellano como en inglés.

Fuente:
http://noticiasdelaciencia.com/not/23498/nace-arbolapp-canarias-una-app-gratuita-para-identificar-los-arboles-de-las-islas/

Es factible cultivar patatas en Marte

Se ha logrado construir una diminuta batería de flujo de reducción-oxidación (reacción redox). Una de sus principales aplicaciones estaría en futuros apilamientos de chips de ordenador, en los cuales los chips individuales son apilados como tortitas para ahorrar espacio y energía. Este dispositivo podría abastecer de energía eléctrica a los chips y al mismo tempo enfriarlos. En una batería de flujo, se emplea una reacción electroquímica para producir electricidad a partir de dos electrolitos líquidos, los cuales son bombeados hasta la célula de la batería desde el exterior, a través de un bucle cerrado electrolítico.

Se puede decir, por tanto, que los chips del ejemplo funcionan eficazmente con un combustible líquido y producen su propia electricidad.

Dado que el equipo de Julian Marschewski y Dimos Poulikakos, del Instituto Federal Suizo de Tecnología en Zúrich (también conocido como Escuela Politécnica Federal de Zúrich) utiliza para la batería dos líquidos de los cuales se sabe que son adecuados para actuar como electrolitos de baterías de flujo y también para ejercer una cierta refrigeración, el calor excesivo puede ser disipado desde el apilamiento de chips a través del mismo circuito.

La batería tiene solo 1 milímetro y medio de grosor aproximadamente. La idea sería montar capa a capa el conjunto de chips apilados: un chip de ordenador, después una microcélula delgada de batería que le proporcione electricidad y lo enfríe, para a continuación colocar otro chip, y así sucesivamente.

Las baterías de flujo anteriores son típicamente voluminosas y se han usado sobre todo en aplicaciones de almacenamiento estático de energía, por ejemplo, junto a centrales eólicas o de energía solar, donde la electricidad sobrante allí producida se almacena temporalmente para su uso posterior.

[Img #42467]

La nueva batería de flujo elimina un obstáculo fundamental hacia el uso cotidiano de conjuntos de chips apilados en ordenadores futuros, ya que baterías como esta, integradas en cada conjunto, podrían tanto energizarlos como enfriarlos. (Imagen: IBM Research Zurich)

Marschewski, Poulikakos y sus colaboradores son, hasta donde saben, los primeros que han construido una batería de flujo así de pequeña y destinada combinar suministro energético y refrigeración.

La generación eléctrica de la nueva microbatería también constituye un récord teniendo en cuenta el tamaño de la misma: 1,4 vatios por centímetro cuadrado de superficie de batería. Aunque restemos la energía necesaria para bombear los electrolitos líquidos hacia la batería, la densidad de energía neta resultante no desciende de 1 vatio por centímetro cuadrado.

En experimentos realizados por el equipo de Marschewski y Poulikakos, se ha demostrado que los líquidos electrolitos pueden efectivamente refrigerar un chip, disipando cantidades de calor muy superiores a la del producido como consecuencia del funcionamiento de la batería generando energía eléctrica.

En el trabajo de investigación y desarrollo también ha participado la empresa IBM Research Zurich.

Fuente:
http://noticiasdelaciencia.com/not/23490/combustible-liquido-para-ordenadores/

¿El desierto del Sahara fue creado por los humanos?

Una nueva investigación en la cual se ha analizado la transición del Sahara desde un paisaje verde y frondoso hace 10.000 años, hasta las condiciones áridas de hoy en día, sugiere que los humanos del pasado podrían haber desempeñado un papel principal en su desertización.

Dicha desertización ha sido desde hace tiempo objeto de investigaciones científicas encaminadas a averiguar cuáles son exactamente los puntos de inflexión climáticos y ecológicos que separan una tierra frondosa como lo fue el Sahara de un desierto como lo es hoy. Conocerlos bien puede ayudar a tomar decisiones bien informadas sobre políticas medioambientales con las que proteger áreas agrícolas y otras tierras verdes. La nueva investigación, realizada por el equipo del arqueólogo David Wright, de la Universidad Nacional de Seúl en Corea del Sur, desafía las conclusiones de la mayoría de estudios hechos hasta la fecha que señalan como fuerzas impulsoras principales de la desertización del Sahara a cambios en la órbita de la Tierra u otros cambios naturales.

Tal como argumenta Wright, existen teorías, defendidas desde hace tiempo, sobre cómo las poblaciones neolíticas cambiaron el paisaje de algunas regiones de forma tan profunda que los monzones dejaron de penetrar tan al interior. Otro indicio a favor es el hecho de que se han documentado huellas antiguas de cambio climático y ecológico provocado por el ser humano, en Europa, Norteamérica y Nueva Zelanda. Wright cree que algo parecido podría aplicarse al Sahara.

Los resultados del nuevo estudio parecen confirmar esta atrevida hipótesis. A partir de hace 8.000 años, empezaron a aparecer comunidades pastorales en las regiones que rodean al río Nilo, extendiéndose hacia el oeste, en cada caso al mismo tiempo que se incrementaba la presencia de vegetación baja.

[Img #42471]

La escasez de vegetación en el desierto del Sahara es perceptible incluso desde el espacio. (Foto: Robert Simmon, Jesse Allen, NASA, USGS, USAID)

La creciente dependencia de la agricultura tuvo un grave efecto en la ecología de la región. A medida que se eliminaba más vegetación frondosa por la introducción de ganado, se alteraba el albedo del suelo de un modo que influyó lo bastante en las condiciones atmosféricas como para reducir las precipitaciones monzónicas. (El albedo es la cantidad de luz solar que se refleja desde la superficie terrestre). Esto, a su vez, provocó una mayor desertización, promoviendo un mecanismo de retroalimentación que acabó extendiéndose por todo el Sahara hasta llegar a la situación actual.

Aún hay mucho trabajo que hacer antes de poder confirmar plenamente esta teoría, pero Wright cree que hay muchísima información bajo la superficie del Sahara. En esa época, la región acogía numerosos lagos, y los antiguos lechos de estos aún deben conservar vestigios de la transformación en la vegetación. Habrá que perforar en esos lechos lacustres antiguos para obtener los registros de vegetación, cotejar la información extraída con la proporcionada por la arqueología, y ver qué influencia ejerció la gente sobre ese entorno.

Si, tal como parece a juzgar por las conclusiones del equipo de Wright, la población humana del Sahara verde provocó sin querer, con su actividad en la zona, su conversión en el desierto que conocemos hoy en día, tenemos ante nosotros una dura advertencia de lo que podría ocurrirles a otras zonas prósperas de la Tierra en un futuro cercano como consecuencia de los drásticos cambios en el uso de la tierra, sobre todo la deforestación, que están produciéndose en los últimos tiempos a raíz de actividades humanas.

Fuente:
 http://noticiasdelaciencia.com/not/23492/-el-desierto-del-sahara-fue-creado-por-los-humanos-/

¿Cuándo irán los humanos a Marte? ¿Montaremos una base?

Enviar humanos a Marte es uno de los objetivos más importantes y también más complicados de todos los que enfrenta actualmente la exploración especial, aunque lo cierto es que ya ha dejado de ser una quimera y poco a poco se ha convertido en un proyecto serio que se acabará cumpliendo.
Sin embargo con toda la vorágine de noticias que han ido apareciendo sobre este tema se ha generado una cierta confusión que creemos necesario aclarar, sobre todo en lo que respecta a dos cuestiones fundamentes que han servido para dar título al artículo: cuándo iremos a Marte y la idea de establecer una base fija en el mismo.
La NASA ha confirmado la década de 2030 como fecha para el envío de una misión tripulada a Marte, una fecha que puede parecer demasiado lejana pero que en el fondo resulta razonable, sobre todo teniendo en cuenta los desafíos técnicos que todavía hay que superar y las medidas de protección que necesitarán los astronautas para sobrevivir tanto al viaje como al día a día en dicho planeta.
Con ello no nos referimos únicamente al tema de la alimentación o el agua potable, sino también a la radiación, uno de los problemas más importantes y más graves que presenta la exploración espacial, sobre todo en misiones de largo recorrido y duración.
Por lo que respecta al tema de establecer una base en Marte firmas como Lockheed Martin han confirmado su interés en emprender un proyecto de ese tipo, pero todavía hay más dudas que respuestas ya que nos encontramos en una etapa que podemos considerar como temprana.
En cualquier caso lo importante es la colonización de Marte es algo real y que su consecución está fijada para dentro de las próximas dos décadas.

Fuente:
http://www.muycomputer.com/2017/03/18/cuando-iran-los-humanos-marte-montaremos-una-base/

Actualizando Windows desde la versión 1 hasta la 10

La primera versión de Windows fue lanzada al mercado en noviembre de 1985. Calculo que muchos de nuestros lectores ni siquiera habían nacido en aquel entonces, pero era una época en la que Windows apenas funcionaba como entorno gráfico untado sobre MS-DOS. Con más de tres décadas sobre los hombros, Windows evolucionó hasta convertirse en un sistema operativo completo por mérito propio, y jamás perdió la capacidad de upgrade, detectando elementos de una versión anterior para incorporarlos a la siguiente. Dicho eso, ¿qué tal suena un vídeo que nos muestra la ruta completa de actualización en Windows, desde la versión 1 a la 10?

Mi ordenador principal tiene pendiente una reinstalación completa de Windows, y básicamente estoy esperando a que Microsoft lance el Creators Update de Windows 10 para que todos sus hotfixes queden integrados en una sola imagen ISO oficial. Si el resultado final no me gusta, supongo que no tendré problema alguno en regresar a Windows 7, más allá de las sesiones de Windows Update que toman tres o cuatro horas (en un buen día). Sin embargo, lo que nos trae aquí hoy no es un downgrade, sino un upgrade. Mejor dicho, es el tatarabuelo de todos los upgrades. En marzo del año 2011, el canal TheRasteri en YouTube publicó un vídeo llamado «Chain of Fools», en el que muestra todo el proceso de actualización desde Windows 1.0 hasta la última edición disponible. Seis años después tenemos tres versiones nuevas de Windows, y la decisión fue actualizar el contenido.
(N. del R: Debo advertir que hay un poco de contenido NSFW. Al narrador le gusta dibujar ciertas cosas en Paint…)


El vídeo comienza con la instalación de IBM PC DOS 3.10, que era una de las versiones más comunes cuando Windows 1.0 llegó al mercado. También destaca la disponibilidad de algunas de las funciones de Windows 1.0 en herramientas independientes, como fue el caso de Aldus PageMaker. Windows 2.0 logró retener la configuración de la interfaz con varios ajustes manuales, mientras que Windows 3.0 importó todo automáticamente, además de detectar aplicaciones previas. La instalación de Windows 3.1 requirió una actualización a MS-DOS 5.0, y como referencia, se instaló un viejo juego de Monty Python. Windows 95 conservó el esquema de colores, y Windows 98 cometió un par de errores (dos versiones de Internet Explorer, 4.0 para W98 y 5.0 para 3.1). A diferencia del vídeo original, esta vez decidió actualizar Windows 98 a Windows ME, sin mayores sobresaltos.
Windows XP demandó la conversión de la partición a FAT32, y fue la primera en descartar la configuración de colores debido a su tema de fábrica, pero todos los programas instalados a partir de Windows 3.0 seguían funcionando, incluso aquellos que no lo hicieron en Windows 9x. Las actualizaciones a Windows Vista (con una conversión a NTFS en el medio) y Windows 7 mantuvieron una retrocompatibilidad similar. Como era de esperarse, Windows 8 dejó la interfaz de cabeza, aunque los viejos programas seguían allí, y la mayoría funcionó bien. Después de pasar por Windows 8.1, el vídeo finaliza con Windows 10, que una vez más ignoró cualquier personalización de interfaz. Sin embargo, al rastrear viejos programas de Windows 2.0 en el disco duro, TheRasteri comprobó que aún se ejecutaban sin problemas, al igual que el juego de Monty Python. En resumen: Es una pesadilla como pocas, pero a la vez confirma que la retrocompatibilidad de Windows resiste casi todo.

Fuente:
http://www.neoteo.com/actualizando-windows-desde-la-version-1-hasta-la-10/

viernes, 17 de marzo de 2017

Facebook vende datos personales de sus usuarios a 47 empresas externas

Investigadores estadounidenses concluyen que las aplicaciones móviles distribuyen información personal de los usuarios con “un número incalculable” de socios comerciales. Según experto en privacidad, el sector está totalmente descontrolado.

acebook recolecta grandes volúmenes de información personal de sus usuarios, la que comparte con empresas externas, totalmente desconocidas para los usuarios. Un proyecto estadounidense independiente indica que las apps de Facebook para iPhone constituyen el peor ejemplo, en cuanto al volumen de información personal de los usuarios que es vendido o intercambiado con empresas externas.
El informe indica que 47 empresas externas son destinatarias de los datos recolectados por la red social Facebook entre sus usuarios. Cinco de ellas reciben el nombre completo del usuario, mientras que 10 de ellas son notificadas de la posición física de este. Entre estas empresas externas se cuentan redes publicitarias desconocidas.
En su informe, la entidad concluye señalando que “el seguimiento digital de los usuarios está totalmente descontrolado, y muy pocos de ellos entienden actualmente las posibilidades, que están siendo aprovechadas actualmente por los actores comerciales, de vincular distintos tipos de registros de información personal de los consumidores”.
Dave Choffness, catedrático de Northeastern University en Boston, Estados Unidos, quien presidió el proyecto de investigación, indicó que al comienzo del sondeo, la mayoría de los 300 usuarios encuestados dijeron no preocuparse mayormente por sus datos personales. “Sin embargo, esta situación cambió cuando se enteraron del número de empresas que sabían exactamente donde habían estado”. Choffness indicó que la recolección de datos ocurre de manera totalmente oculta y que los consumidores ni siquiera se enteran. “El tema no es la indiferencia de la gente frente a la recolección y comercialización de sus datos personales, sino que nada pueden hacer al respecto”, comentó el catedrático, haciendo referencia al hecho que la mayoría de las apps simplemente no funcionan si el usuario no acepta entregar sus datos.
Otro participante en el proyecto, el analista científico Jinyan Zang, de la Universidad de Harvard, constató que incluso para los especialistas es difícil detectar los procedimientos utilizados durante la recolección de datos. “Cuando los datos entran al servidor de la empresa perdemos toda pista de lo que ocurre con ellos posteriormente. Es un proceso totalmente desconocido para nosotros”, indicó el analista.

Fuente:
https://diarioti.com/facebook-vende-datos-personales-de-sus-usuarios-a-47-empresas-externas/103548