En agosto de 2011 la NASA
mandó una enorme sonda conocida como Juno a explorar planeta más grande
del sistema solar. Fue un proyecto ambicioso, complicado y caro (1.000
millones de dólares), pero después de tantos años y de un viaje de más
de 667.000 millones de kilómetros se empiezan a obtener maravillas como éstas imágenes de los polos de Júpiter.
Las imágenes muestran los polos de Júpiter pero además lo hacen con una gran riqueza en detalles, ya que podemos apreciar desde las formaciones nubosas hasta las misteriosas auroras que se producen en los mismos.
Captar estas imágenes no ha sido nada fácil para Juno, sobre todo por el hecho de que Júpiter emite radiaciones que pueden ser muy dañinas
para toda la electrónica que sustenta a la sonda. Para evitar quedar
demasiado expuesta a esa radiación la sonda tiene que moverse realizando
complicadas maniobras zigzagueantes que hacen que capturar imágenes de
calidad se convierta en un gran desafío.
Las imágenes que se recibieron en la NASA estaban en blanco y negro,
pero la agencia aeroespacial ha llevado a cabo un soberbio trabajo de
edición para añadir un toque de color y hacerlas no sólo más atractivas, sino también más interesantes y fáciles de interpretar, incluso por el ojo menos experto.
Júpiter es un gigante de gas y como tal no es habitable, de hecho ni siquiera podríamos llegar a poner un pié en él
ya que no tiene una superficie sólida ni nada mínimamente parecido,
pero es uno de los planetas más interesantes y complejos de nuestro
sistema solar, y también uno de los que más respuestas puede darnos
sobre la formación del mismo. Ya os contamos en nuestro especial dedicado a este planeta que tiene más de proyecto fallido de estrella que de planeta, una realidad que nos permite entender mejor el peso que tiene dentro del sistema solar.
Fuente:
http://www.muycomputer.com/2017/03/30/juno-polos-jupiter/
Tutorial Arduino C++ y Puerto serie. Puedes hacer controlar Arduino y el
puerto serie desde el lenguaje C++ Win32. Hay tres IDE para elegir para
crear tu propio programa en C++ como Visual Studio 2017, Code::Blocks y
C++ Builder Starter.
A pesar de tener en Arduino IDE el Monitor serial para controlar el puerto y la placa Arduino, con C++ podemos potenciarlo, crear menús y muchas otras cosas más que se nos ocurra.
Antes que nada saber que puerto usamos:
// Para crear conexión con los puertos COM1 - COM9.
// Serial* Arduino = new Serial("COM7");
// Para crear conexión con los puertos COM10 en adelante.
// Serial* Arduino = new Serial("\\\\.\\COM10");
Abrir conexión del puerto:
Puerto->IsConnected()
Enviar información a Arduino:
// Encener luz.
cout << "Enviando: " << Luz_ON << endl; // Muestra en pantalla textos.
Puerto->WriteData(Luz_ON, sizeof(Luz_ON) - 1); // Envía al puerto el texto "Luz_ON".
Código de Arduino:
// Encendido y apagado del Led 13 mediante puerto serie.
const byte Led = 13; // Declaramos la variable pin del Led.
char caracter;
String comando;
void setup()
{
pinMode(Led, OUTPUT); // Inicializa el pin del LED como salida:
Serial.begin(115200); // Puerto serie 115200 baudios.
}
void loop()
{
/*
Voy leyendo carácter a carácter lo que se recibe por el canal serie
(mientras llegue algún dato allí), y los voy concatenando uno tras otro
en una cadena. En la práctica, si usamos el "Serial monitor" el bucle while
acabará cuando pulsamos Enter. El delay es conveniente para no saturar el
canal serie y que la concatenación se haga de forma ordenada.
*/
while (Serial.available() > 0)
{
caracter = Serial.read();
comando.concat(caracter);
delay(10);
}
/*
Una vez ya tengo la cadena "acabada", compruebo su valor y hago que
la placa Arduino reacciones según sea este. Aquí podríamos hacer lo
que quisiéramos: si el comando es "tal", enciende un Led, si es cual,
mueve un motor... y así.
*/
// Si le llega el mensaje Luz_ON.
if (comando.equals("Luz_ON") == true)
{
digitalWrite(Led, HIGH); // Enciende el Led 13.
Serial.write("ON - Led encendido."); // Envía este mensaje a C++.
}
// Si le llega el mensaje Luz_ON.
if (comando.equals("Luz_OFF") == true)
{
digitalWrite(Led, LOW); // Apaga el Led 13.
Serial.write("OFF - Led apagado. "); // Envía este mensaje a C++.
}
// Limpiamos la cadena para volver a recibir el siguiente comando.
comando = "";
}
Código C++:
#include #include #include #include "SerialClass.h" using namespace std;
void main() { // Título de la ventana SetConsoleTitle("Control Led Arduino - Visual Studio C++ 2017");
// Puerto serie. Serial* Puerto = new Serial("COM4");
// Comandos para Arduino. char Luz_ON[] = "Luz_ON"; // Envía "Luz_ON" al puerto serie. char Luz_OFF[] = "Luz_OFF"; char lectura[50] = "\0"; // Guardan datos de entrada del puerto.
int opc; // Guarda un 1 o 2 tipo entero queintroduces desde la consola.
while (Puerto->IsConnected()) { cout << endl; // Retorno. cout << "Introduzca la opcion deseada: " << endl; cout << "Pulse 1 para encender el Led, pulse 2 para apagar." << endl << endl; // Muestra texto en pantalla.
cin >> opc; // Aquí introduces un número, el 1 o el 2.
switch (opc) // Espera recibir un 1 o un 2. { case 1: // Encener luz. cout << "Enviando: " << Luz_ON << endl; // Muestra en pantalla textos. Puerto->WriteData(Luz_ON, sizeof(Luz_ON) - 1); // Envía al puerto el texto "Luz_ON". break;
default: // Si haz pulsado otro número distinto del 1 y 2, muestra cout << "Puse del 1 al 2."; // este mensaje. }
Sleep(500); int n = Puerto->ReadData(lectura, 49); // Recibe datos del puerto serie. if (n > 0) { lectura[n + 1] = '\0'; // Limpia de basura la variable. cout << "Recibido: " << lectura << endl; // Muestra en pantalla dato recibido. cout << "-------------------" << endl; }
cin.ignore(256, '\n'); // Limpiar buffer del teclado. } }
En este Blog se utiliza mucho este IDE para hacer pequeños programas de control sobre el puerto serie y placas de Arduino e incluso los microcontroladores PIC.
Tutorial básico Hola Mundo en Visual C#.
Introducimos al formulario un Button y un label.
Haz docble clic en el botón Hola, luego introduces este código.
label1.Text = "Hola mundo";
Pulsas F5 para compilar y muestra el formulario, luego pulsas el botón Hola.
Código fuente C#:
using System;
using System.Collections.Generic;
using System.ComponentModel;
using System.Data;
using System.Drawing;
using System.Linq;
using System.Text;
using System.Threading.Tasks;
using System.Windows.Forms;
namespace HolaMundo
{
public partial class Form1 : Form
{
public Form1()
{
InitializeComponent();
}
private void button1_Click(object sender, EventArgs e)
{
label1.Text = "Hola mundo";
}
}
} Nota de la versión Visual Studio 2017:
Intel está comercializando sus primeras memorias Optane
para el mercado de consumo. Una solución de caché con potencial para
mejorar el rendimiento de cualquier dispositivo, aplicación o servicio
que se beneficie de un rápido acceso a grandes conjuntos de datos.
Como sabes, Intel Optane es un conjunto de soluciones de estado sólido con memorias 3D X Point,
la primera categoría de memoria no-volátil desde el lanzamiento de
flash NAND en 1989. 3D XPoint ha sido desarrollada desde cero por Intel y
Micron, combinando las ventajas de rendimiento, densidad, energía, no volatilidad y coste de todas las tecnologías de memoria disponibles en el mercado.
Así, después del lanzamiento de la Intel® Optane™ SSD P4800X para
centros de datos, el gigante del chip estrena sus memorias Optane en el
mercado de consumo. Intel las llama “memorias” aunque en realidad son
módulos que se sitúan a medio camino entre la unidad de almacenamiento y
la memoria DRAM del sistema, actuando como una unidad rápida de caché.
Las memorias Optane utilizan un factor de forma M.2 y una interfaz
PCIe NVMe 3.0 x2 para ofrecer un gran rendimiento, con velocidades de
transferencia de datos de hasta 1350 / 290 Mbytes por segundo en lectura/escritura secuencial. En
la práctica, las memorias Optane pretenden acelerar el rendimiento del
equipo de manera asequible. Según Intel, si instalamos este tipo de
memorias en nuestro PC obtendremos:
Reducir a la mitad el tiempo de arranque del PC
Aumentar el rendimiento del almacenamiento hasta 14 veces
Aumentar el rendimiento general un 28%
Inicio de aplicaciones más rápido (por ejemplo, Outlook puede cargar hasta 6 veces más rápido)
La búsqueda de archivos es cuatro veces más rápida
Memorias Optane – disponibilidad y precio
Este tipo de memorias tienen un nicho limitado ya que solo funcionan
con procesadores Intel “Kaby Lake”, sistema operativo Windows 10 de 64
bits. el mencionado slot M.2 2280 y una BIOS que soporte la tecnología
Intel Rapid Storage 15.5. Recalcar que funcionan como caché, no pueden
utilizarse para instalar en ellas el sistema operativo.
Estarán disponibles a partir del 24 de abril en módulos de 16 GB por 44 dólares y 32 GB con un coste de 77 dólares. El precio es económico y puede ser adecuado para acelerar el rendimiento de un PC de sobremesa con disco duro,
aprovechando las ventajas de capacidad de éste y el rendimiento de una
unidad de estado sólido. Suponemos que Intel utilizará esta tecnología
para comercializar otras soluciones de estado sólido. Sí está confirmado
que se comercializarán soluciones similares para portátiles.
Fuente:
http://www.muycomputer.com/2017/03/29/memorias-optane/
Los procesos de fabricación y la
reducción de los mismos juegan un papel muy importante en el sector
tecnológico. Ya os hablamos de ello en este artículo y hoy Intel ha destacado algo muy importante en este sentido, que no todos los chips de 10 nm son iguales.
La idea clave es sencilla de entender. Cuando avanzamos en el proceso de fabricación y lo reducimos no es lo mismo hacerlo doblando el número de transistores que elevar ligeramente el conteo de los mismos frente al proceso anterior.
En la gráfica que acompañamos podemos ver perfectamente reflejada
esta idea. Si reduces el proceso de fabricación pero sólo aumentas
ligeramente el conteo de transistores o incluso lo disminuyes el avance
que estás consiguiendo pierde mucho potencial.
Por otro lado debemos tener en cuenta que reducir el proceso de fabricación doblando la densidad de transistores es mucho más complicado, y que por tanto requiere un mayor esfuerzo y una inversión muy grande.
Con eso en mente podemos entender mejor porqué Intel ha seguido
aprovechando el proceso de fabricación de 14 nm. Es evidente que el
gigante del chip podría haber llevado a cabo una transición a los 10 nm
hace tiempo, pero la misma no habría sido auténtica, al menos desde el punto de vista que hemos expresado en este artículo.
Esto quiere decir que chips como el Exynos 8895 y el Snapdragon 835
no han cumplido esa regla de doblar la densidad de transistores al
saltar a los 10 nm. La consecuencia directa de esto es que aunque se
beneficiarán de las ventajas que ofrece una reducción de proceso no llegarán al mismo nivel que lo habría hecho un chip que hubiera doblado el conteo de transistores.
La mejora que conseguirán esos chips en relación aumento de rendimiento-reducción de consumo será menor,
y por tanto no serán comparables a soluciones que de verdad hayan dado
el salto siguiendo esa premisa, fijada como sabemos en la Ley de Moore.
Por su parte Intel ha confirmado que sus chips de 10 nm multiplicarán por 2,7 el conteo total de transistores frente al proceso de 14 nm, lo que se traducirá en un aumento del rendimiento de hasta un 25% y una reducción de consumo de hasta un 45%.
Casi un siglo después de que fuera postulado teóricamente, unos
científicos han conseguido crear uno de los materiales más raros y quizá
más valiosos del planeta.
El material, hidrógeno atómico metálico, ha sido creado por el equipo
de Isaac Silvera y Ranga Dias, de la Universidad Harvard en Cambridge,
Massachusetts, Estados Unidos.
Además de ayudar a los científicos a responder preguntas
fundamentales sobre la naturaleza de la materia, se cree que el material
tendrá una amplia gama de aplicaciones, incluyendo la de superconductor
a temperatura ambiente.
“Se trata del santo grial de la física de alta presión”, valora
Silvera. “Es la primera muestra de la historia de hidrógeno metálico en
la Tierra, así que cuando la miras, estás viendo algo que nunca ha
existido antes”.
Para crearla, Silvera y Dias comprimieron una diminuta muestra de
hidrógeno bajo una presión de 495 gigapascales, mayor que la del centro
de la Tierra. A esas presiones extremas, el hidrógeno molecular sólido
se descompone, y las moléculas firmemente ligadas entre sí se disocian
para transformarse en hidrógeno atómico, que bajo tales condiciones se
comporta como un metal.
Si bien el trabajo abre una puerta hacia un mejor conocimiento de las
propiedades generales del hidrógeno, también ofrece pistas atractivas
sobre nuevos materiales potencialmente revolucionarios.
Imágenes microscópicas de las etapas en
la creación de hidrógeno metálico: hidrógeno molecular transparente
(izquierda) a unos 200 gigapascales, que es convertido en hidrógeno
molecular negro, y finalmente en hidrógeno atómico metálico reflectante a
495 gigapascales. (Fotos: cortesía de Isaac Silvera)
Una predicción muy importante es que el hidrógeno metálico debería
ser metaestable. Eso significa que si se le devuelve a la presión
ambiental normal de la superficie terrestre, seguirá siendo metálico, de
manera similar a la forma en que los diamantes se forman a partir del
grafito bajo un calor y una presión intensos, pero siguen siendo
diamantes cuando la presión y la temperatura descienden hasta los
valores normales en la superficie terrestre.
Averiguar si el material es realmente estable es importante porque se
cree que el hidrógeno metálico podría actuar como superconductor a
temperatura ambiente. Eso sería revolucionario. Se pierde mucha energía
eléctrica debido a la disipación durante la transmisión, así que si
pudiéramos fabricar cables de este material, sin la problemática
asociada a los superconductores que requieren bajas temperaturas, y
utilizarlo en la red eléctrica, ello marcaría un antes y un después en
la historia del uso humano de la electricidad.
Un superconductor a temperatura ambiente también podría cambiar
radicalmente nuestro sistema de transporte, haciendo mucho más fácil y
práctica la levitación magnética de trenes de alta velocidad, así como
haciendo más eficientes los coches eléctricos y mejorando el rendimiento
de muchos dispositivos electrónicos.
La humanidad podría pronto generar más datos de lo que los discos
duros u otros sistemas de almacenamiento masivo puedan acoger de manera
eficaz, un problema que ha hecho que los científicos presten atención al
ADN, la antiquísima solución de la naturaleza para almacenar
información.
En un nuevo estudio, Yaniv Erlich y Dina Zielinski, de la Universidad
de Columbia en la ciudad estadounidense de Nueva York, han demostrado
que un algoritmo diseñado originalmente para streaming de video en un
teléfono móvil o celular puede aprovechar casi por completo el potencial
de almacenamiento del ADN gracias a poder comprimir mucho más la
información en él que en cualquier otro sistema artificial existente de
almacenamiento de información. También han demostrado que esta
tecnología es muy fiable.
El ADN constituye un medio de almacenamiento ideal porque es
ultracompacto y puede durar cientos de miles de años si se le mantiene
en un lugar fresco y seco, como se demostró entre 2013 y 2016 con la
obtención de ADN de huesos de un antepasado humano de hace 430.000 años,
encontrados en una cueva española.
“El ADN no se degradará con el tiempo como sí les ocurrirá a las
cintas de casete y a los CDs. No se volverá obsoleto, y si fuera así,
los humanos tendríamos problemas mayores”, dice agudamente Erlich.
Erlich y Zielinski eligieron seis archivos para codificar, o
escribir, en el ADN: un sistema operativo completo de ordenador, una
película francesa de 1895 (“Llegada de un tren a La Ciotat”), una
tarjeta de regalo de 50 dólares de Amazon, un virus de ordenador, el
contenido de una placa diseñada como mensaje para extraterrestres y que
viaja a bordo de las sondas espaciales Pioneer, y un estudio de 1948 del
teórico de la información Claude Shannon.
Yaniv Erlich y Dina Zielinski. (Foto: New York Genome Center)
Erlich y Zielinski comprimieron los archivos en uno solo, y después
dividieron los datos en secuencias cortas de código binario hecho de
ceros y unos. Usando un algoritmo de corrección y borrado, empaquetaron
aleatoriamente las secuencias en conjuntos denominados gotas,
cartografiando los unos y los ceros de cada gota para las cuatro bases
de nucleótidos en el ADN: A, G, C y T. El algoritmo excluyó
combinaciones de letras conocidas por crear errores, y añadió un código
de barras a cada gota para ayudar a reensamblar los archivos más tarde.
En total, generaron una lista digital de 72.000 cadenas de ADN, cada
una de 200 bases de largo, y la enviaron en un archivo de texto a la
compañía Twist Bioscience, de San Francisco, especializada en síntesis
de ADN y en convertir datos digitales en datos biológicos. Dos semanas
más tarde, recibieron un frasco conteniendo una pizca de moléculas de
ADN.
Para recuperar del ADN sus archivos, utilizaron tecnología moderna de
secuenciación que lee las cadenas de ADN, lo que fue seguido por el uso
de un software que traduce el código genético de nuevo a código
binario. Así, recuperaron sus archivos sin ningún error en absoluto.
También han demostrado que se podría crear una cantidad virtualmente
ilimitada de copias con su técnica de codificación, mediante la
multiplicación de su muestra de ADN a través de la reacción en cadena de
la polimerasa (PCR), y que esas copias, e incluso las copias de sus
copias, y así sucesivamente, pueden seguir almacenando, sin errores, la
información original.
Finalmente, los investigadores han demostrado que su estrategia de
codificación empaqueta 215 petabytes de datos en un único gramo de ADN,
100 veces más que lo conseguido con los métodos publicados por los
investigadores precursores del almacenamiento de datos en ADN, George
Church de la Universidad Harvard, y Nick Goldman y Ewan Birney del
Instituto de Bioinformática Europeo. “Creemos que es el sistema de
almacenamiento de datos de densidad más alta creado hasta ahora”,
subraya Erlich.
Unos investigadores han recurrido al sistema vascular de las plantas
para resolver un importante problema de bioingeniería que está
bloqueando la regeneración de tejidos y órganos humanos.
Los científicos del sector se enfrentan a un desafío fundamental
mientras buscan ampliar la escala de la regeneración de tejidos desde
pequeñas muestras de laboratorio a tejidos más extensos, incluyendo
piezas óseas e incluso órganos completos, para implantarlos en personas y
tratar enfermedades o lesiones graves: cómo establecer un sistema
vascular que suministre sangre al interior del tejido en desarrollo.
Las actuales técnicas de bioingeniería, incluyendo la impresión 3D,
no pueden fabricar la red ramificada de vasos sanguíneos hasta el nivel
capilar que se requiere para proporcionar el oxígeno, los nutrientes y
las sustancias esenciales que se precisan para un adecuado crecimiento
de los tejidos. A fin de solventar este problema, un equipo de
investigación multidisciplinar del Instituto Politécnico de Worcester,
la Universidad de Wisconsin-Madison y la Universidad Estatal de Arkansas
en Jonesboro, todas estas instituciones en Estados Unidos, ha decidido
recurrir a las plantas. Estos investigadores han explorado la
posibilidad de usar plantas descelularizadas como andamios, con
capacidad de perfusión, para ingeniería de tejidos.
Las plantas y los animales explotan métodos fundamentalmente
diferentes para transportar fluidos, sustancias y macromoléculas, pero
existen similitudes sorprendentes en sus estructuras de red vascular. El
desarrollo de plantas descelularizadas para servir como andamio abre
otro capítulo en una nueva rama de la ciencia que investiga el mimetismo
entre lo vegetal y lo animal.
En esta secuencia, una hoja de espinaca
es desprovista de sus células vegetales, un proceso llamado
descelularización. El proceso solo deja la vasculatura de la hoja.
(Fotos: Worcester Polytechnic Institute)
En una serie de experimentos, el equipo de Glenn Gaudette cultivó
células cardiacas humanas que podían latir sobre hojas de espinaca a las
cuales se despojó de células vegetales. Hicieron fluir fluidos y
microesferas parecidas en tamaño a los glóbulos sanguíneos humanos a
través de la vasculatura de la espinaca, y sembraron con éxito las venas
de esta última con las células humanas que recubren los vasos
sanguíneos. Los investigadores pudieron así cultivar células cardíacas
que latían sobre tales hojas descelularizadas.
Esto abre la puerta hacia el uso de múltiples hojas de espinaca para
hacer crecer capas de músculo cardiaco sano que permitan dar
tratamientos médicos avanzados a pacientes que han sufrido ataques al
corazón.
El rover Curiosity sigue de misión en la superficie de Marte,
donde el verano pasado logró captar imágenes de las nubes del planeta
rojo sometidas al efecto que se conoce como onda de gravedad, algo que
como vimos en esta noticiapuede ser realmente impresionante.
Como sabrán nuestros lectores más avanzados el fenómeno de onda de gravedad es algo que se produce en muchos planetas, la Tierra incluida, y se describen en este caso como las ondas generadas por los cuerpos nubosos como respuesta a la perturbación que produce la fuerza de gravedad en ellos, intentando alterar su equilibrio inicial.
La atmósfera de Marte presenta una densidad muy baja. A pesar de ello
gracias a la exploración llevada a cabo por Curiosity sabíamos que las
nubes pueden producirse en formaciones bastante intensas
a primera hora de la mañana, pero lo que no nos esperábamos era que se
pudiera repetir el fenómeno de la onda de gravedad en la zona ecuatorial
del planeta rojo.
Es una pequeña gran sorpresa que demuestra una vez más que Marte es
un exotismo que nos recuerda constantemente a nuestro hogar, la Tierra, y
que da un poco más de fuerza a esas teorías que nos pintan lienzos de
un pasado lejano, en el que esa polvorienta bola anaranjada vistió tonalidades azules y verdosas.
No se puede negar que Marte es muy diferente a la Tierra, pero al
mismo tiempo dentro de esas grandes diferencias encontramos parecidos
tan grandes y tan claros que se pueden resumir con una frase muy
sencilla: Marte es tan diferente a la Tierra que no podríamos vivir
directamente sobre él, pero es tan parecido que es el único que podríamos colonizar con “poco esfuerzo”.
Los ordenadores antiguos estaban llenos de pequeños detalles
muy peculiares, y que en algunos casos eran exclusivos del fabricante:
El reloj LED que enseñaba la frecuencia, el botón «Turbo», las teclas especiales, y por supuesto, la cerradura.
¿Por qué era una buena idea poner cerraduras en los sistemas de antaño?
Dependiendo de la aplicación, se buscaba impedir el ingreso de
comandos, bloquear el acceso al interior de la PC, o evitar su encendido
fuera de horario.
Si has llegado a utilizar un ordenador de la «era pre-Windows 95»,
es probable que recuerdes algunas características de su carcasa. Una de
las más llamativas era el botón Turbo. Muchos programas dependían de la
frecuencia del CPU para su timing, y a medida que el hardware ganó velocidad, pasaron a funcionar demasiado rápido. «Desactivar el Turbo» ayudaba a esos programas a recuperar el timing, y todos éramos felices. Pero después estaba esa extraña cerradura. «Keylock»,
indicaban ciertos modelos. El ordenador personal es una demostración
contundente del avance tecnológico, y aún así, muchas unidades venían
con uno de los elementos más tradicionales en materia de seguridad. ¿Por qué?
El canal de YouTube Lazy Game Reviews, dedicado a retroinformática y juegos clásicos (entre otras cosas), lo explica con precisión. La función más común de la cerradura era desactivar el teclado.
Con un giro de la llave, la placa base recibía la orden de ignorar
cualquier señal, y evitar así el ingreso de comandos no deseados. Otro
de sus objetivos era impedir el acceso al interior del ordenador.
Anular la cerradura se limitaba a desconectar un cable con la carcasa
abierta, pero muchas cerraduras combinaron ambas funciones. Ciertas
cerraduras tenían la capacidad de desactivar el acceso al disco duro, o con el uso de un accesorio externo, bloquear el encendido. Un IBM 5170. La cerradura está entre el logo y los botones de la carcasa.
El primer fabricante en instalar una cerradura con llaves tubulares fue IBM, a través de su ordenador 5170 (el clásico «IBM AT»). En agosto de 1984, el IBM 5170 costaba seis mil dólares,
y los mecanismos de seguridad vía software eran nulos. No había
contraseñas, ni perfiles, ni administración remota. El IBM 5150 (IBM XT) no poseía ninguna protección, por lo que el Gigante Azul lanzó una «Keylock Option», cerradura para el interruptor de encendido, que también incluía un «dummy plug»
compatible con la toma de energía. El mercado no tardó en copiar a IBM,
y otras compañías adoptaron variantes más robustas, como el caso de SGI
con su barra de metal. Al final, lo que «mató» a la cerradura fue la llegada de las contraseñas a nivel software (BIOS y sistema operativo), aunque los usuarios hicimos nuestra parte perdiendo llaves con extrema facilidad…
La idea de un smartphone Android abandonado en un oscuro cajón
es cada vez más frecuente. Si se trata de un modelo demasiado viejo o su
reparación no vale la pena, lo más probable es que quede ahí,
esperando a una segunda oportunidad que tal vez no llegue nunca. Sin
embargo, muchos entusiastas del hardware están explorando usos alternativos para esos smartphones, y uno de ellos es el de servidor Debian.
Los mejores proyectos de hardware pueden comenzar con un accidente.
Una pantalla rota, botones que dejan de funcionar, errores en el
firmware, la lista sigue. Los fabricantes arrojan la toalla con una
velocidad escalofriante al brindar soporte, pero si los espíritus del
hacking nos ayudan, puede que haya un poco de información adicional en
la Web. Tomemos el ejemplo de los smartphones Android.
Se supone que el sistema operativo es abierto, pero los OEM se encargan
de modificar las imágenes a un punto tal que se convierten en algo exclusivo para cada modelo.
Como si eso fuera poco, los detalles sobre los componentes tienden a
ser escasos. Aún con estas dificultades, hay entusiastas allá afuera muy
interesados en reutilizar smartphones y tablets, lo que nos lleva al blog de Pete Scargill y sus esfuerzos para crear un servidor Debian. Linux Deploy es muy interesante, pero su documentación necesita trabajo
Todo comenzó con un teléfono Oukitel K10000 que recibió de un amigo con la pantalla rota. El primer paso fue habilitar el acceso root en el dispositivo a través de kingroot.net, y luego descargó una aplicación de la Play Store llamada Linux Deploy,
cuya documentación se encuentra en ruso. Scargill recomienda un
smartphone con 16 GB de almacenamiento interno, aunque técnicamente es
posible experimentar con unidades de 8 GB (quedarán menos de 2 GB disponibles). Dentro de la app hay un repositorio con una copia de Debian 8 para ARM, y después de algunos ajustes (sin mencionar una larga espera durante su instalación), debería quedar todo listo para acceder al smartphone vía WinSCP o similar. Con Debian instalado, el smartphone es ahora un servidor. Necesitamos ver más casos como este.
Una de las cosas que instaló Scargill fue Node-Red, y para ello utilizó un script originalmente preparado con el Raspberry Pi en mente. De hecho, su proyecto mantiene cierta relación con el mini ordenador (el usuario en Debian es «pi»),
pero al final del día es una bestia muy diferente. El K10000 tiene 2 GB
de RAM, y una batería de 10.000 mAh que en esencia funciona como UPS.
Otros dispositivos que formaron parte de la prueba son el Xiaomi Redmi
3, el OnePlus One, y la edición 2012 de la tablet Nexus 7.
El Raspberry Pi Zero W está simplificando mucho la vida
de los usuarios gracias a su conectividad inalámbrica integrada. No
solo reduce la necesidad de accesorios externos, sino que también
permite implementar diseños más sencillos. Así llegamos al Zero Terminal, un proyecto que transforma al Pi Zero W en un ordenador portátil, con su propia batería interna, salida HDMI, y un teclado deslizante pensado para el iPhone 5.
Con el debut del Raspberry Pi Zero W en el mercado,
los entusiastas del hardware dijeron adiós a los concentradores USB
para conectar adaptadores WiFi y módulos Bluetooth externos. Ahora, todo
eso se encuentra en el PCB, y la mejor parte es que su consumo de
energía no se disparó (aproximadamente 170 mA en reproducción 1080p). Con ese dato a favor, era una simple cuestión de tiempo para que alguien tomara al nuevo mini ordenador y lo convirtiera en una solución portátil. Ese trabajo llega a nosotros una vez más gracias a los esfuerzos de NODE, que presentó a su «Zero Terminal», tercera versión de su concepto de ultraportátiles Linux.
Uno de los objetivos principales del Zero Terminal fue mejorar su estética en relación a los modelos previos, y entre las piezas más importantes descubrimos un teclado deslizante
compatible con el iPhone 5. Ese smartphone cumplirá cinco años en
septiembre, pero la disponibilidad de accesorios similares aún es
amplia. Una carcasa especial impresa en 3D (dividida en marco y cubierta que se pegan sobre el teclado) tiene espacio suficiente para la pantalla de 3.5 pulgadas (480 por 320), una batería de 1.500 mAh (podría ser más grande con algunos ajustes), y un circuito de carga. NODE utiliza componentes de Adafruit, pero no es obligatorio de ningún modo.
El teclado deslizante es una solución elegante y más económica de lo
que aparenta, aunque fue necesario reasignar una tecla para imitar a «CTRL».
La salida HDMI y el puerto USB extendido ayudan mucho a la hora de
conectar un monitor externo y un ratón o un teclado de tamaño completo.
Los archivos 3D de la carcasa van a demorar un poco, pero están en
camino.
Pasaron apenas once días desde que la Nintendo Switch debutó en el mercado. En general podemos hablar de un lanzamiento exitoso, pero al igual que todo producto de primera generación, siempre va a aparecer un borde filoso o dos. En esta ocasión, se trata del software. Técnicamente, la Nintendo Switch no trae un navegador,
pero posee un módulo que se comporta como tal para habilitar el ingreso
a ciertas redes WiFi. ¿El problema? Ese módulo se basa en una versión muy antigua de WebKit, y todo lo que necesitaron los hackers fue reciclar un viejo exploit de iOS.
El hackeo de las consolas es inevitable. Tarde o temprano, entusiastas
del hardware y el software comienzan a estudiar de una punta a otra sus
diseños, y a hacer cosas que jamás se le hubieran pasado por la cabeza a
los fabricantes. Por supuesto, cualquier idea sobre hacking, modding, emulación y ejecución de código alternativo es oficialmente rechazada, pero todos los reclamos se pierden en el camino. Al final del día, el dueño de la consola hace lo que desea con ella,
y si eso implica ejecutar Linux, instalar un emulador o reemplazar su
disco duro con un SSD cuando en teoría es imposible, así será. El
reciente lanzamiento de la Switch
ha convertido a la nueva plataforma de Nintendo en un blanco muy
tentador, y con el inicio de la semana, ya surgió la primera
vulnerabilidad.
Ahora, debemos hacer énfasis en el término «vulnerabilidad». No se trata de un firmware personalizado, ni nada que permita ejecutar dumps de los cartuchos (por ahora). En términos sencillos, el modo online de la Nintendo Switch es un trabajo en progreso, y se espera que las cosas mejoren con cada nueva actualización. Nintendo indicó en más de una oportunidad que la Switch no iba a contar con un navegador tradicional, sin embargo, lo cierto es que sí existe
un navegador integrado, basado en WebKit. Este navegador se activa
cuando el usuario conecta la consola a una red WiFi que requiere
autenticación o confirmación manual (por ejemplo, a través de un portal cautivo). El problema es que ese navegador utiliza una versión de WebKit muy antigua, la cual carga con un bug de corrupción de memoria, CVE-2016-4657. El bug sirvió como punto de partida para el jailbreak de iOS 9.3, y se remonta a agosto del año pasado.
La gran pregunta aquí es en qué estaba pensando Nintendo
cuando decidió implementar una versión de WebKit con más de seis meses y
llena de agujeros. El siguiente paso será obviamente lanzar un update, pero hasta que eso suceda, los hackers buscarán vulnerabilidades adicionales que lleven a una elevación de privilegios.
Muchos jugadores aún estamos dolidos por lo que sucedió con la Dreamcast.
Sus especificaciones eran más que decentes, y contaba con algunos
recursos desconocidos en otras consolas, pero una vez que la PlayStation
2 llegó con su soporte DVD, el compromiso de los desarrolladores y su
retrocompatibilidad PS1, fue «game over» para Sega. Aún así, todavía quedan varios locos de la guerra que disfrutan experimentando con la consola, y en esta ocasión, SegaDotNet decidió conectar una Dreamcast a la Web usando dial-up. Un valiente, sin lugar a dudas.
El único juego que terminé completo en la Sega Dreamcast fue Resident Evil 2,
y eso me alcanzó para quedar completamente enamorado de la consola,
pero llegué muy tarde a la fiesta, y a los pocos meses desapareció del
mercado. Si quisiera comprar una hoy debería entregar un riñón como parte de pago, porque hay muchos «coleccionistas» online que deliran con sus precios. En estos últimos años, la Dreamcast recibió varias modificaciones,
incluyendo una salida VGA, y soporte para discos duros o tarjetas de
memoria, pero hay otros que la disfrutan en su configuración de fábrica.
Uno de ellos es Sammy Kennedy, responsable por el canal SegaDotNet en YouTube. ¿Qué fue lo que hizo? La conectó a la Web. Usando dial-up.
El proceso requiere de un cable telefónico estándar para conectar el módem integrado a la línea, uno de los controles, el teclado y el ratón de Dreamcast, y un navegador compatible, en este caso Dreamkey 3.0 (esa fue la última versión de disponibilidad general en Europa, pero también hubo un build 3.1 para España y Portugal).
El número de proveedores gratuitos vía dial-up ha disminuido mucho,
pero es suficiente con un poco de Google-fu para detectar los servicios
que siguen activos. Una vez ingresado el número de teléfono, el nombre
de usuario y la contraseña, el resto depende de qué tan severo sea el ataque alérgico de la Web moderna frente a un navegador antiguo.
Obviamente, la experiencia es desastrosa. El motor de
búsqueda de Google apenas carga en su versión básica, Facebook se pierde
por el camino, y Wikipedia responde con un error. La única excepción
fue el viejo portal Dreampipe, optimizado para Dreamkey y otros navegadores de Dreamcast. En resumen: La consola aún puede conectarse sin problemas, pero navegar es otra historia. Ahora, si alguien se tomara la molestia de crear un navegador más actualizado…
Todos los
experimentos han dado la razón a este científico ruso que hace 30 años
calculó con lápiz y papel cómo fueron los orígenes del Cosmo.
El cosmólogo Viatcheslav Mukhanov
(Kanash, antigua URSS, 1952) habla alto y claro, en todos los sentidos.
Vehemente e impetuoso, escucharle es todo un espectáculo; por su
discurso rápido, rotundo y fulminante, la energía que desprende su voz y
un acento que suena en inglés, y en esto hay cierta ternura, a un malo
de las películas de James Bond. Con la misma pasión habla del Big Bang,
cita a San Agustín o muestra su rechazo a la política de Vladímir Putin.
Este catedrático de la Universidad Ludwig-Maximilians de Múnich
(Alemania) tuvo hace treinta años una idea brillante que también se le
ocurrió a Stephen Hawking. Con toda seguridad el nombre del británico le
sonará mucho más, pero ambos llegaron de forma independiente a la misma
conclusión: las galaxias, las estrellas, los planetas... todo se formó a
partir de un fenómeno microscópico llamado fluctuaciones cuánticas,
generadas después del Big Bang. Y tenían razón, dice el científico
ruso, «punto por punto». De eso ha hablado en la inauguración de una
nueva edición del ciclo de conferencias científicas de la Fundación BBVA
en Madrid. La suya se titulaba «De la nada al Universo». -Entonces, ¿toda la materia surgió de la nada?
-El
hecho de que el Universo se origine de la nada no contradice ninguna
ley física. En eso incluso estaban de acuerdo los teólogos antes del
Medioevo, pero entonces eran palabras y ahora son hechos confirmados
experimentalmente. El Universo surgió de la nada y si me pregunta qué
había antes... -¿Qué había?
-La pregunta no tiene sentido, porque el tiempo también fue creado cuando surgió el Universo. San Agustín decía esto mismo. -Cita a San Agustín... ¿Dios tiene un espacio en esa ecuación?
-Yo
diría que las leyes de la física lo explican todo. Ahora, quién es el
creador de esas leyes, eso es otra cosa. Es una pregunta abierta. -Si esto ha sucedido una vez, ¿pudo suceder más veces? ¿Puede volver a suceder?
-Sí,
podemos tener múltiples universos. De hecho, no parece una idea nada
loca, pero esa tesis está fuera de la física, porque no es una
conclusión sin ambigüedad y no sabemos cómo verificarlo. La física se
encarga solo de las cosas que se pueden verificar, y la cosmología,
gracias a la experimentación de los últimos años, es parte de ella, una
ciencia natural. -Los experimentos sí han confirmado los cálculos que usted hizo una vez con lápiz y papel.
-Durante
los últimos 25 años ha habido 70 experimentos que nos han dado la
imagen del Universo cuando tenía solo 300.000 años de edad; apenas un
«bebé», ya que ahora es muy viejo, tiene 13.700 millones de años. Pues
bien, esa «foto» del Cosmos se solapa perfectamente con lo que yo dibujé
hace treinta años. Son la misma imagen. -¿Y no hay nada que le haya sorprendido, algo que no encajara en sus cálculos?
-Lo
más sorprendente es que no hubo sorpresa. Todo fue confirmado. Era
asombroso que las imágenes coincidieran. Todos los experimentalistas
intentaban buscar desviaciones y anomalías, pero finalmente todo
coincidía. Era exactamente igual. -¿Qué experimento fue el definitivo, con el que ya no cabían dudas?
-La
última palabra la ha dado la sonda Planck (telescopio espacial de la
Agencia Espacial Europea), su contribución es tremenda, enorme, ya que
gracias a ella los científicos pudieron establecer la imagen más
completa del Universo. El experimento fue 500 veces más sensible
comparado con otros anteriores, como el WMAP (Sonda de Anisotropía de
Microondas Wilkinson, de la NASA). Con Planck no se puede ir más allá,
no se puede mejorar más. -No puede haber mayor satisfacción para un científico que le den la razón de esa forma...
-Por
supuesto. Fue una satisfacción enorme. Fíjate que en los 80 estaba en
completa contradicción con todas las observaciones astrofísicas en aquel
momento, pero lo que parecía una mala teoría finalmente ganó. -Y esa teoría hablaba de algo diminuto para explicar las estructuras más grandes conocidas. ¿Cómo es eso?
-Sí,
cuando el Universo era recién nacido, el comportamiento de la materia
estaba afectado por la mecánica cuántica, que prohíbe el estado de
reposo absoluto. La mínima desviación del estado de reposo se llama
fluctuación cuántica y, debido a ella, se formarían «semillas» de
materia que, por la gravedad, acabarían convirtiéndose en galaxias,
estrellas y planetas. Todo eso estaba localizado en algo aún más pequeño
que una caja de cerillas. Luego, la mecánica cuántica es también
responsable del origen de nuestra propia vida. -¿Cabe una teoría sobre el Cosmos que no tenga en cuenta el Big Bang?
-No,
pero llamémosle mejor Universo en expansión. Hemos esclarecido la razón
del Big Bang y era un estado de dominación de la energía oscura. Hace
40 años pensábamos que producir un universo era muy difícil, hoy sabemos
que es una tarea fácil si tienes la materia en el estado adecuado. -El
último gran descubrimiento de la cosmología son las ondas
gravitacionales. Todo el mundo parece fascinado con ellas, ¿usted
también?
-Sí, todo el mundo lo está, y, en
efecto, es una nueva ventana abierta al Universo y hay que ir por ese
camino, pero creo que el anuncio se hizo demasiado pronto. No hay
estadística, y la interpretación de los eventos puede prestarse a
sospechas. Parece complicado que esas ondas hayan sido producidas por la
fusión de dos agujeros negros de 30 masas solares. No pondría la mano
en el fuego por esa interpretación. Quizás pueda ser otra cosa, el
agujero en el centro de la galaxia, pero no lo sé. -¿Cree que los científicos de LIGO (el laboratorio que anunció el descubrimiento de las ondas gravitacionales) se precipitaron?
-Sí,
yo hubiera esperado a una confirmación más cuidadosa. No se puede
declarar victoria antes de confirmarla realmente. Creo que el anuncio
fue demasiado exagerado y se «vendió» muy bien, la forma habitual por
parte de los americanos para conseguir dinero y seguir haciendo ciencia.
Debemos aprender algo de lo que pasó con el experimento BICEP2 hace dos
años, que falló al anunciar el descubrimiento de estas ondas. Hay una
tendencia a vender demasiado bien los logros. -Usted llegó a las mismas conclusiones que Hawking sobre las fluctuaciones cuánticas. ¿Siempre está de acuerdo con él?
-No.
Los científicos pensamos de forma diferente, no tenemos que estar en
completo acuerdo y esa es una de las razones del progreso de la ciencia.
Stephen (con quien compartió el Premio Fronteras del Conocimiento 2015
en Ciencias Básicas que otorga la Fundación BBVA) también un día se puso
en desacuerdo consigo mismo y se desdijo. Y eso es importante. En
investigación no se puede tener una opinión inamovible. -Ha trabajado con los científicos que desarrollaron la bomba atómica. ¿Cómo fue?
-Sí,
trabajé con varios. Zeldóvich, uno de los principales investigadores de
la bomba nuclear, con todos sus secretos; el disidente Sacharov, que
luego recibió el Nobel de la Paz, y Ginzburg, que propuso una de las
ideas básicas de la bomba de hidrógeno. Pero ninguno de ellos hablaba de
eso, porque era supersecreto. -Suena apasionante, pero peligroso.
-Sí,
pero mira, la física nuclear salvó a los físicos de los filósofos. En
la época de Stalin, los filósofos decidían lo que deberían hacer o decir
los físicos, con ideas como si la mecánica cuántica estaba de acuerdo
con el marxismo leninismo o no... Podías ser atacado si te equivocabas, y
eso significaba que al día siguiente o bien te mataban o te llevaban a
un campo de concentración. -Qué angustia...
-Pero
en el 48, los físicos advirtieron que no podían garantizar la
construcción de bombas nucleares con esa presión, así que les dejaron en
paz. La ideología es una mala influencia cuando se mete en las ciencias
naturales, en particular en la antigua Unión Soviética. Cuando lees lo
que sucedía hace no tanto tiempo, hace menos de cien años, no te puedes
imaginar que la gente pudiera comportarse así, mucho peor que las peores
bestias. -¿Cómo ve la ciencia ahora en su país de origen?
Yo
me fui de Rusia en el año 92. Tengo amigos y colaboradores de siempre,
pero no proyectos en común. No puedo hablar desde dentro, pero por lo
que veo no creo que el gobierno ruso esté cuidando las ciencias. En
general, los gobiernos no entienden que, en realidad, ahorran dinero
cuando invierten en ciencia. En Italia, España o Francia, los
investigadores se quejan por los recortes de los fondos. Creo que es una
política ridícula. En Alemania, donde yo vivo y trabajo, Angela Merkel
es física y sabe lo importante que es la ciencia. Allí la situación es
la opuesta. A veces hay demasiado dinero y no sabes en qué proyecto
invertirlo. Pero si piensas en lo que ha costado aquí salvar los bancos,
que ha requerido enormes inversiones, lo de la ciencia no es nada. Y
eso comparado con la cantidad de dinero que la gente en la ex Unión
Soviética ha robado... Y mira el fútbol, cuánto se invierte y cuál es el
resultado práctico de esa actividad, que es igual que jugar en un
casino.
Jamás los españoles que trabajaron hace 2.000 años en la Sierra Minera de Cartagena-La Unión imaginaron que el plomo que extraían iba a convertirse hoy en material precioso a la caza de neutrinos, con vistas a descubrir la naturaleza más íntima de la materia y comprender su comportamiento en similares condiciones a las de los primeros instantes de vida del Universo.
Para desvelar el secreto de los neutrinos que los físicos persiguen
desde decenios, se echa mano también de la historia y de la arqueología.
Ese plomo, descubierto en una antigua nave romana que naufragó en aguas de Cerdeña, ayudará a desvelar algunos de los misterios del universo.
Tan precioso como el oro
El experimento se realiza en el laboratorio subterráneo más grande del mundo, el de Gran Sasso, el pico más alto de la cordillera de los Apeninos,
en el centro de Italia, bajo 1.400 metros de roca. «El plomo moderno
está constituido con 210 PB, un isótopo radiactivo que necesita una
media de 22 años para reducirse a la mitad su radioactividad. Es decir, cualquier plomo extraído en los últimos decenios tendría radiactividad.
Esta ya ha desaparecido en el plomo de hace dos mil años conservado
bajo el mar, que para nosotros es precioso como el oro», manifiesta a
ABC el físico Antonio D’Addabbo, que participa en este experimento
extraordinario para verificar un fenómeno de la física de los neutrinos
jamás observado hasta ahora y que, si constituye un éxito, se asegura
que sería digno de un premio Nobel. El pecio romano con el plomo fue hallado por un submarinista en 1988 en la costa de Cerdeña- ABC
Para los físicos, la nave romana cargada con 2.000 lingotes de plomo, procedente del puerto de Carthago Nova (Cartagena) hundida en un naufragio entre el 80 y 50 antes de Cristo, constituyó un auténtico tesoro. La descubrió casualmente en 1989 un buzo aficionado, Antonello Azori,
apasionado del mar y conocedor de las aguas de la isla de Cerdeña, a lo
largo de la costa de Oristán, a unos 30 metros de profundidad. Se ha
tratado de uno de los descubrimientos submarinos más significativos de
los últimos decenios. La nave, de 36 metros por 12, transportaba además
de los lingotes de plomo ánforas de diverso tipo y objetos de uso
cotidiano. En época romana, el plomo representaba un mercado riquísimo
por sus múltiples usos: tuberías para el agua como las utilizadas en
Pompeya, urnas cinerarias, monedas, armamento para las legiones
romanas... También se utilizaba en la construcción para sostener unidos
bloques de piedra. Cada lingote pesaba 33 kilos, que corresponden a las
100 libras romanas, el peso máximo transportable por ley de un esclavo.
Doscientos setenta de los lingotes de la nave romana ya han sido
trasladados al Laboratorio Nacional Gran Sasso, un importante centro que
aglutina a físicos de todo el mundo.
Proyecto CUORE
Así,
pues, para proyectarnos en el futuro de la física, se echa mano del
pasado en este experimento, con alma antigua española, denominado CUORE.
«El experimento trata de descubrir un proceso llamado “doble desintegración beta sin emisión de neutrinos”,
fundamental para comprender la naturaleza de la materia y aspectos de
la evolución del universo. Este fenómeno, actualmente rarísimo, tan raro
que nunca ha sido observado, podría haber sido frecuente al inicio del
universo, inmediatamente después del Big Bang, y haber determinado el
predominio de la materia sobre la antimateria», nos dice Antonio
D’Addabbo. Una
investigadora trabajando sobre una de las estructuras a temperatura
intermedia del criostato de CUORE, que cuenta con metro cúbico más frío
del universo, cercana al cero absoluto, todo un récord.- Yury Suvorov/LNGS-INFNLa función del plomo originario de las minas de Cartagena sirve para proteger y aislar completamente el observatorio del experimento:
«Son varios los blindajes. En primer lugar, está la montaña que es
protectora natural para reducir muchos de los rayos cósmicos, que son
las partículas de energía muy alta producidas en su mayor parte por
nuestra estrella, el sol. Por ejemplo, la palma de la mano es atravesada
por un rayo cósmico cada segundo, más o menos. Solo algunas partículas
logran atravesar la roca y llegar a la zona de nuestro experimento. Para
evitarlo, CUORE está protegido por otros dos escudos de plomo colocados
al interno del criostato –el recipiente que permite mantener las
temperaturas muy bajas-, el más grande jamás construido . Uno de los
escudos está formado por el plomo procedente de la nave romana, que para
nosotros es precioso como el oro», afirma Antonio D’ Addabbo.
Entre
las cosas que sorprenden del experimento CUORE está la temperatura. El
detector, gracias a refrigeradores mecánicos y a la dilución de helio,
trabaja a 10 milliKelvin, cerca del cero absoluto (-273.15º
centígrados). «El núcleo de CUORE es el metro cúbico mas frío del mundo.
La infraestructura de tipo criogénico que hemos realizado no tiene
precedentes, es un enorme, gigantesco frigorífico. El experimento CUORE
ha probado que es posible construir una máquina así y hacerla funcionar,
algo en lo que esperaban los cinéticos para hacer otros experimentos»,
explica Antonio D’Addabbo.
Además de intentar descubrir el proceso llamado «doble desintegración beta sin emisión de neutrinos», el proyecto buscará también huellas de materia oscura y
estudiará algunas desintegraciones raras. En particular, se estudiarán
los neutrinos, las partículas que impregnan el universo, producidas en
grandes cantidades en las estrellas. Las que proceden del sol atraviesan
continuamente la Tierra: Al segundo, cada centímetro cuadrado de
nuestro cuerpo es atravesado, sin que nos demos cuenta, por 60.000
millones de neutrinos, que viajan a una velocidad próxima a la de la
luz.
El misterio de los neutrinos
Se espera que CUORE
pueda dar respuesta a un interrogante que nos explica el físico Antonio
D’ Addabbo: «Se trata de comprobar si el neutrino es una partícula de
Majorana –mítico físico siciliano (1906-1938)-, según el cual el neutrino y el antineutrino eran dos manifestaciones de la misma partícula, como las dos caras de una misma moneda; es decir, el neutrino es al mismo tiempo materia y antimateria y la transición entre materia y antimateria resultaría posible».
Así,
pues, se trata de arrojar luz de forma experimental sobre si el
neutrino es su propia antipartícula o no, lo que constituye uno de los
granes interrogantes de la física de las partículas y que se lleva
estudiando 75 años. La investigación se intenta adentrar en el origen
del universo, según nos aclara Antonio D’ Addabbo: «Llegar a decir que
el neutrino y el antineutrino son la misma partícula, que no hay
diferencia entre la partícula de materia neutrino y la partícula de
antimateria antineutrino querría decir que no hay distinción entre
materia y antimateria, que es la misma cosa. Esto tendrá consecuencias muy importantes para explicar los posibles mecanismos que en el origen del universo han conducido a la generación de la asimetría entre materia y antimateria».
Experimento de Nobel
Se explica así el gran interés que en la comunidad científica ha suscitado el experimento CUORE, en el que se trabajará durante
cinco años, con la colaboración internacional de 157 científicos de
diversos países, procedentes de 30 instituciones, con participación
también de España.
En definitiva, se trata de un experimento revolucionario. Y los científicos no tienen duda: Si llega a buen puerto, sería una investigación de premio Nobel.
Se iría más lejos del famoso dicho de que somos polvo de estrellas, al
confirmarse que nuestros antepasados, nuestro punto de partida son los
neutrinos. Por ellos estaríamos aquí.
Logran grabar en ADN y sin errores una película y un sistema operativo de ordenador
La humanidad podría pronto generar más datos de lo que los discos
duros u otros sistemas de almacenamiento masivo puedan acoger de manera
eficaz, un problema que ha hecho que los científicos presten atención al
ADN, la antiquísima solución de la naturaleza para almacenar
información.
En un nuevo estudio, Yaniv Erlich y Dina Zielinski, de la Universidad
de Columbia en la ciudad estadounidense de Nueva York, han demostrado
que un algoritmo diseñado originalmente para streaming de video en un
teléfono móvil o celular puede aprovechar casi por completo el potencial
de almacenamiento del ADN gracias a poder comprimir mucho más la
información en él que en cualquier otro sistema artificial existente de
almacenamiento de información. También han demostrado que esta
tecnología es muy fiable.
El ADN constituye un medio de almacenamiento ideal porque es
ultracompacto y puede durar cientos de miles de años si se le mantiene
en un lugar fresco y seco, como se demostró entre 2013 y 2016 con la
obtención de ADN de huesos de un antepasado humano de hace 430.000 años,
encontrados en una cueva española.
“El ADN no se degradará con el tiempo como sí les ocurrirá a las
cintas de casete y a los CDs. No se volverá obsoleto, y si fuera así,
los humanos tendríamos problemas mayores”, dice agudamente Erlich.
Erlich y Zielinski eligieron seis archivos para codificar, o
escribir, en el ADN: un sistema operativo completo de ordenador, una
película francesa de 1895 (“Llegada de un tren a La Ciotat”), una
tarjeta de regalo de 50 dólares de Amazon, un virus de ordenador, el
contenido de una placa diseñada como mensaje para extraterrestres y que
viaja a bordo de las sondas espaciales Pioneer, y un estudio de 1948 del
teórico de la información Claude Shannon.
Yaniv Erlich y Dina Zielinski. (Foto: New York Genome Center)
Erlich y Zielinski comprimieron los archivos en uno solo, y después
dividieron los datos en secuencias cortas de código binario hecho de
ceros y unos. Usando un algoritmo de corrección y borrado, empaquetaron
aleatoriamente las secuencias en conjuntos denominados gotas,
cartografiando los unos y los ceros de cada gota para las cuatro bases
de nucleótidos en el ADN: A, G, C y T. El algoritmo excluyó
combinaciones de letras conocidas por crear errores, y añadió un código
de barras a cada gota para ayudar a reensamblar los archivos más tarde.
En total, generaron una lista digital de 72.000 cadenas de ADN, cada
una de 200 bases de largo, y la enviaron en un archivo de texto a la
compañía Twist Bioscience, de San Francisco, especializada en síntesis
de ADN y en convertir datos digitales en datos biológicos. Dos semanas
más tarde, recibieron un frasco conteniendo una pizca de moléculas de
ADN.
Para recuperar del ADN sus archivos, utilizaron tecnología moderna de
secuenciación que lee las cadenas de ADN, lo que fue seguido por el uso
de un software que traduce el código genético de nuevo a código
binario. Así, recuperaron sus archivos sin ningún error en absoluto.
También han demostrado que se podría crear una cantidad virtualmente
ilimitada de copias con su técnica de codificación, mediante la
multiplicación de su muestra de ADN a través de la reacción en cadena de
la polimerasa (PCR), y que esas copias, e incluso las copias de sus
copias, y así sucesivamente, pueden seguir almacenando, sin errores, la
información original.
Finalmente, los investigadores han demostrado que su estrategia de
codificación empaqueta 215 petabytes de datos en un único gramo de ADN,
100 veces más que lo conseguido con los métodos publicados por los
investigadores precursores del almacenamiento de datos en ADN, George
Church de la Universidad Harvard, y Nick Goldman y Ewan Birney del
Instituto de Bioinformática Europeo. “Creemos que es el sistema de
almacenamiento de datos de densidad más alta creado hasta ahora”,
subraya Erlich.
¿Sabías que el último drago descrito en el mundo solo vive en los
riscos más inaccesibles de Gran Canaria? ¿O que la resina del lentisco
se ha mascado como chicle desde los tiempos de la Grecia clásica? ¿O que
los aborígenes canarios usaban varas de acebuche para fabricar sus
armas defensivas? Estas son algunas de las curiosidades que recoge
Arbolapp Canarias, una aplicación para dispositivos móviles que permite
identificar los árboles silvestres del archipiélago.
La nueva aplicación, que ya se puede descargar gratuitamente en
dispositivos Android e iOS y cuenta con una versión web , es una
iniciativa del Consejo Superior de Investigaciones Científicas (CSIC).
En concreto, ha sido desarrollada por su Área de Cultura Científica, el
Real Jardín Botánico y el Jardín Botánico Canario ‘Viera y Clavijo’ -
Unidad asociada al CSIC del Cabildo de Gran Canaria. Además, el proyecto
ha recibido financiación de la Fundación Española para la Ciencia y la
Tecnología (FECYT) - Ministerio de Economía, Industria y Competitividad.
Arbolapp Canarias incluye información sobre 92 especies de árboles
que pueblan bosques y demás hábitats naturales del archipiélago. Las
especies están organizadas en 84 fichas (81 individuales y tres que
agrupan los géneros acacia, eucalipto y tamarix). Cada ficha contiene
fotografías, mapas que muestran en qué islas está presente el árbol, un
texto descriptivo y varias curiosidades.
Para identificar una especie, es posible elegir entre dos tipos de
búsqueda. Una guiada, en la que hay que escoger en sucesivas pantallas
la alternativa que mejor describe el árbol que se quiere reconocer; y
otra abierta, que permite encontrar árboles por isla, tipo de hoja,
fruto, flor u otros criterios. Con afán divulgativo, la aplicación
incluye además un glosario con todos los términos técnicos.
La nueva aplicación complementa los contenidos de Arbolapp, una app
dedicada a los árboles silvestres de la península ibérica creada por el
CSIC en 2014 y que a día de hoy supera las 350.000 descargas. “Entonces,
muchos usuarios reclamaron que la flora canaria, rica en especies
endémicas, no se quedara fuera de la iniciativa; algo para lo que era
necesaria la colaboración entre centros de investigación de las islas y
de la península”, señala Miguel Ángel Rodríguez, consejero de Medio
Ambiente del Cabildo de Gran Canaria.
La app está disponible para dispostivos Android e iOS. (Foto: CSIC)
En Arbolapp Canarias, las búsquedas y el glosario están ilustrados
con dibujos botánicos que facilitan la comprensión de los textos. “El
objetivo del proyecto es trasladar a la ciudadanía el conocimiento
científico, en este caso sobre los árboles canarios, a partir de una
experiencia que está al alcance de cualquiera”, explica Manuel Nogales,
delegado institucional del CSIC en Canarias. Junto a este compromiso,
Nogales destaca que “la integración de las TIC y la búsqueda de nuevos
formatos es una apuesta del CSIC a la hora de divulgar la ciencia”.
Concebida para que cualquier usuario, con o sin conocimientos de
botánica, pueda manejarla, Arbolapp Canarias conjuga el uso de un
lenguaje asequible con el rigor científico. “Los contenidos se basan en
la investigación del Jardín Botánico Canario ‘Viera y Clavijo’ y en
obras de referencia como la Lista de especies silvestres de Canarias o
el Atlas de las plantas alóctonas invasoras en España”, comenta Juli
Caujapé, director de esta institución.
Durante la elaboración de Arbolapp Canarias, que comenzó en enero de
2016, un equipo multidisciplinar ha intervenido en todo el proceso:
desde la selección de las especies, hasta la toma de fotografías, la
elaboración de los textos y el desarrollo de la línea gráfica. La
bióloga Magui Olangua ha sido la responsable de los contenidos.
Eduardo Actis, coordinador del proyecto, incide en que “esta app es
una buena herramienta para que el ciudadano de a pie pueda adquirir
conocimientos de botánica de forma entretenida”. “Lo interesante es que
una experiencia lúdica, como es pasear por un bosque, se pueda
transformar en aprendizaje, aunque creemos que también puede ser un
recurso didáctico interesante para el personal docente”, señala.
El lugar idóneo para utilizar la aplicación es el medio natural, por
lo que la app funciona de manera autónoma sin conexión a internet. Al
centrarse en árboles silvestres, es decir, que crecen espontáneamente
sin intervención humana, Arbolapp Canarias no incluye especies que solo
se encuentran en parques, jardines, calles o terrenos forestales.
Con el objetivo de llegar a un público lo más amplio posible, la
aplicación y la web son accesibles tanto en castellano como en inglés.