domingo, 11 de junio de 2017

Conoce al malware que convierte a los Raspberry Pi en esclavos mineros de criptomonedas

El proyecto Raspberry Pi lleva vendidas poco más de 12 millones de unidades. Desde servidores en miniatura hasta réplicas de recreativas, lo cierto es que hay una enorme cantidad de aplicaciones para el ordenador, pero en la mayoría de los casos están conectados a la Web sin los ajustes de seguridad apropiados. Un nuevo malware bautizado Linux.MulDrop.14 aprovecha la ausencia de esos ajustes para secuestrar a un Raspberry Pi y transformarlo en un esclavo remoto cuya única tarea es minar criptomonedas de baja dificultad.


Si hay algo que hemos aprendido de los últimos ataques a gran escala con botnets es que la unión definitivamente hace la fuerza. Millones de cámaras, routers, switches, mini servidores, reproductores multimedia y un largo etcétera pueden ser convertidos en soldados zombies, atacando a un punto específico y dejarlo fuera de combate en muy poco tiempo. La «Internet de las Cosas Inseguras» es un problema que debe ser resuelto cuanto antes, y lo último que necesitamos es un medio para hacerlo más grande. Eso nos lleva al Raspberry Pi. Hay más de doce millones de unidades allá afuera, y aunque no todas permanecen conectadas, la mayoría depende de ello para funcionar correctamente. Si a esto le sumamos una seguridad relajada y actualizaciones muy espaciadas… la situación no suena tan bien.
Un Raspberry Pi no tiene mucho poder por sí solo, pero si lo multiplicamos por varios millones…
Quien no esté convencido del todo sólo debe observar la última entrada de la compañía rusa Dr. Web, que nos habla sobre un malware llamado Linux.MulDrop.14. Este bicho utiliza un script de Bash para buscar dispositivos Raspberry Pi que acepten conexiones SSH externas, y después aplicar las credenciales de fábrica, que son «pi» (usuario) y «raspberry» (contraseña) respectivamente. Una vez dentro del mini ordenador, Linux.MulDrop.14 reemplaza la contraseña del usuario pi con una larga cadena de caracteres para completar el secuestro, trata de esparcirse a otros nodos con el puerto 22 abierto, y ejecuta un programa de minería.
Por cuestiones de dificultad y poder bruto de procesamiento, Linux.MulDrop.14 no trata de minar bitcoins, sino que se concentra en criptomonedas menos conocidas, como por ejemplo Monero, que está ganando mucha tracción (su capitalización de mercado ya supera los 800 millones de dólares). Por suerte, es fácil protegerse. Con actualizar Raspbian, cambiar la contraseña del usuario pi y limitar el acceso SSH, debería ser suficiente.

 Fuente:
http://www.neoteo.com/conoce-al-malware-que-convierte-a-los-raspberry-pi-en-esclavos-mineros-de-criptomonedas/

martes, 30 de mayo de 2017

¡Una consola de videojuegos en un horno de microondas!

Primera pregunta extraña: ¿Cuánto tiempo perdemos frente al microondas esperando que alguna cosa se caliente? Segunda pregunta extraña: En vez de perder ese tiempo, ¿por qué no usarlo en videojuegos? El loco de Colin Furze probablemente no logre responder a la primera pregunta, pero sí puede hacer algo con la segunda. Su solución es el Play-O-Wave, un horno de microondas modificado para funcionar como televisor con entrada de vídeo RCA, y lo que parece ser sonido estéreo. La mejor parte es que podemos conectar lo que se nos ocurra, desde un clon de NES hasta una PlayStation, pasando por sintonizadores y reproductores ópticos.

La idea de hackear electrodomésticos no es nueva que digamos. Sin ir más lejos, un entusiasta logró recientemente cargar Doom dentro de un termostato. Algunos de esos hacks demandan un esfuerzo considerable a nivel software, pero otros están más a nuestro alcance, reemplazando carcasas y extendiendo puertos a ubicaciones alternativas. Una de las grandes dudas es por dónde empezar. Radios y relojes suelen ser buenos candidatos, en especial por su bajo costo y la ausencia de voltajes peligrosos (siempre y cuando hablemos de modelos a batería). En lo personal creo que el Raspberry Pi no necesita ninguna clase de recomendación adicional, y con un poco de creatividad se lo puede conectar en… bueno, cualquier parte. Sin embargo, cuando el plan es arrojar la cordura por la ventana y hacer algo en verdad extraño, Colin Furze tiende a ser una buena fuente de inspiración. ¿Qué hizo esta vez? Convirtió a un microondas en una consola…

… o al menos, esa es la apariencia general. Lo que hizo en realidad fue integrar una pantalla a la puerta del microondas, y para ello debió incrementar varios centímetros su espesor. El resto de las modificaciones se encuentran en el panel de control, con tres entradas RCA y un interruptor que enciende a la pantalla. Sin detalles técnicos exactos me atrevo a calcular que Furze relocalizó las entradas de audio y vídeo del televisor, e instaló una fuente de alimentación extra en el interior del microondas (dudo que el alto voltaje sea de mucha ayuda). De más está decirlo, la pantalla necesita todo el blindaje que pueda recibir, ya que a ningún dispositivo electrónico le gusta trabajar cerca de un microondas.
El hecho de no integrar a la consola completa tal vez sea un poco decepcionante, pero al final del día apreciamos su flexibilidad. Con un conector RCA libre, el microondas puede recibir diferentes consolas, sintonizadores, decodificadores, reproductores de DVD y Blu-ray… la lista sigue.

Fuente:
http://www.neoteo.com/una-consola-de-videojuegos-en-un-horno-de-microondas/
 

miércoles, 10 de mayo de 2017

La Nintendo PlayStation vuelve a funcionar con CD-ROM

Nuestro primer artículo sobre esta misteriosa consola fue publicado en julio de 2015, y muchos dudaron de su legitimidad. Poco tiempo después se comprobó que la «Nintendo PlayStation» funcionaba sin problemas con cartuchos de Super NES, pero era incapaz de registrar algo a través de su unidad óptica. El hardware finalmente llegó a manos de Ben Heck, que nos enseñó el interior del sistema con lujo de detalles, y luego de varios meses con pruebas, ajustes y reemplazos, el lector de CD-ROM volvió a la vida.

Es sin lugar a dudas uno de los descubrimientos de hardware más importantes de la década. Las historias de Nintendo y Sony siempre hablaron sobre un intento de colaboración que terminó en malos términos, pero todo el trabajo relacionado se creyó perdido hasta que Dan y Terry Diebold encontraron un prototipo (o un kit de desarrollo según otros puntos de vista) dentro de una caja destinada a la basura. Casi dos años después, la Nintendo PlayStation ha recibido el trato de una estrella de rock. Viajó alrededor del mundo y participó de algunas convenciones, sin embargo, el deseo de verla funcionando por completo nunca se disipó. Eso provocó que la consola llegue a Ben Heck y su equipo. Su trabajo sobre la Nintendo PlayStation se dividió en varias fases, y esta vez alcanzaron el gran objetivo: Restaurar su soporte de CD-ROM.

El vídeo comienza con el análisis de los dos DACs integrados y lo que parece ser un chip decodificador, pero la primera señal sólida del lector se manifestó luego de que Ben moviera sus cables flexibles y reemplazara capacitores (algo lógico para cualquier pieza de hardware con más de veinte años). El siguiente paso fue ajustar sus potenciómetros buscando optimizar su lectura, y cargar dos juegos homebrew hechos en un emulador, Super Boss Gaiden y Magic Floor. Super Boss Gaiden presentó un mensaje de error, y Magic Floor se ejecutó con algunos problemas en sus gráficos.
Ben reportó esto a los desarrolladores, y debería ser cuestión de tiempo para que apliquen las correcciones necesarias. Con un acceso más completo al hardware funcional, las ventajas son considerables. Arqueología informática, ingeniería inversa, programación… múltiples fuerzas se han combinado para reparar a la Nintendo PlayStation. Estoy convencido de que vamos a ver mucho más sobre ella.

Fuente:
http://www.neoteo.com/la-nintendo-playstation-vuelve-a-funcionar-con-cd-rom/
 

lunes, 24 de abril de 2017

ZX Spectrum Next: Un regreso más «legítimo» para el viejo ordenador

Hemos visto varias recreaciones del inolvidable ZX Spectrum en el pasado, y todas ellas terminaron demasiado alejadas del hardware original. Para algunos usuarios es suficiente con obtener una experiencia equivalente, pero aquellos que deseen una combinación más balanceada entre las especificaciones oficiales y las ventajas de los componentes modernos, tal vez quieran ver más de cerca al ZX Spectrum Next.

Diez años en el mercado, docenas de clones, hacks, más de 24 mil juegos… ¿qué otra cosa se puede agregar sobre el ZX Spectrum? Concedido, tenía problemas técnicos de sobra y usar su teclado no era lo más placentero del mundo, pero su bajo costo lo convirtió en el primer ordenador de millones de personas, y su amplia documentación nos ha permitido exprimir sus limitados recursos al máximo. En el año 2017, el valor de lo «retro» está pegando muy duro. Aún podemos escuchar los gritos dirigidos a Nintendo por la cancelación de la NES Classic, los rumores sobre una variante SNES se acumulan rápidamente, y en esencia, todo aquello que nos hizo felices durante nuestra infancia está regresando de un modo u otro. El problema es cuando esos regresos son «a medias», y el ZX Spectrum no fue inmune. La variante «Recreated» es un teclado Bluetooth glorificado. La línea Vega sólo ofrece consolas portátiles. Por todos los cielos, ¿dónde está nuestra dosis de Z80…?

Técnicamente, el ZX Spectrum Next promete eso a través de un FPGA Xilinx Spartan-6, con un total de 512 kilobytes de RAM, que a su vez puede ser expandida a 1.5 MB (interna), o 2.5 MB (externa). El chip funciona a 3.5 MHz, frecuencia original del ZX Spectrum, pero también cuenta con un modo turbo que eleva ese número a 7 MHz. La placa base trae un puerto PS/2 para conectar ratones y teclados convencionales, salida HDMI y VGA, conectores de 3.5 mm compatibles con la carga de juegos en cinta, un puerto de expansión, ranura SD, puerto DB9 (joystick), y como hardware opcional encontramos un módulo WiFi, altavoz, RTC, y una placa aceleradora, la cual no es otra cosa más que un Raspberry Pi Zero conectado vía GPIO. El ZX Spectrum Next requiere una fuente de 9 voltios, y con algunas modificaciones es posible instalarlo en una carcasa original (incluye puertos para usar el teclado de membrana).
El ZX Spectrum Next superó su meta de 250 mil libras esterlinas en menos de 48 horas, una clara señal de que la demanda está allí. La forma más económica de adquirir uno es pidiendo sólo la placa base sin elementos opcionales ni carcasa, cuyo precio es de 99 libras (117 euros). La edición completa supera los 250 euros, y el «término medio» cuesta 207 euros. Los pedidos más avanzados están demorados hasta enero de 2018, sin embargo, aquellos que escojan la placa podrán recibirla en agosto.

Fuente:
http://www.neoteo.com/zx-spectrum-next-un-regreso-mas-legitimo-para-el-viejo-ordenador/
 

Nuevo dispositivo puede extraer agua del aire

En enero del año pasado hablamos de la botella Fontus, y la verdad es que tuvimos dudas sobre ese proyecto desde el comienzo. El tiempo no hizo otra cosa más que darnos la razón, pero la idea de extraer agua del aire no es falsa, sino que requiere un desarrollo mucho más avanzado. Así llegamos a este proyecto que combina las fuerzas del MIT y la Universidad de California en Berkeley. El resultado es un nuevo dispositivo pasivo que se alimenta con energía solar, y recolecta casi tres litros de agua en doce horas.
Por más que cueste creerlo, algo tan simple como abrir el grifo y obtener agua segura nos convierte en privilegiados. Un tercio de la población humana habita regiones áridas, con escasez constante de agua. El cambio climático no está ayudando en nada, y lo que se necesitan son soluciones, de todo tipo.  Sin embargo, cuando alguien dice haber creado un dispositivo que puede extraer agua del aire, es lógico tener sospechas. Lo bueno es que en esta oportunidad, el dispositivo fue creado por un grupo de científicos en el MIT y la Universidad de California en Berkeley.

Básicamente, lo que tenemos aquí es una plataforma basada en un material llamado MOF (siglas para metal-organic frameworks) alimentada con energía solar, aunque esto no es obligatorio. Cualquier fuente básica de calor es apta para el dispositivo, incluso una fogata. Con un ajuste preciso de su composición química, la superficie del MOF se vuelve extremadamente hidrófila, recolectando agua en condiciones de humedad tan bajas como el 20 por ciento. Las pruebas de rendimiento indican que un kilogramo de MOF puede extraer 2.8 litros de agua en un período de doce horas. La única intervención mayor por parte del usuario (siempre y cuando utilice energía solar) es la apertura del dispositivo y el retiro del líquido.
El siguiente paso es optimizar aún más al MOF, que en estos momentos logra recolectar hasta un 25 por ciento de su propio peso en agua. Los científicos creen que es posible duplicar ese número, con niveles de eficiencia que permitan ir más allá de «agua para una persona», y pensar en agua para familias enteras.

Fuente:
http://www.neoteo.com/nuevo-dispositivo-puede-extraer-agua-del-aire/

martes, 18 de abril de 2017

Orange Pi Prime: Un nuevo oponente para el Raspberry Pi 3

La gente de Orange Pie sigue ofreciendo variantes de mini ordenadores en un intento por capturar una parte del mercado ocupado por el Raspberry Pi. Hace poco hablamos del modelo 2g-IoT con conectividad móvil integrada, y ahora es el turno del Orange Pi Prime, que trae un SoC quad-core con vídeo Mali-450, 2 GB de RAM, WiFi, Bluetooth, sensor infrarrojo y tres puertos USB de tamaño completo por apenas 28 euros.

Visito con cierta frecuencia el subreddit de RetroPie junto a otros foros de emulación, y la opinión general de los usuarios va en la misma dirección: Sería genial si el Raspberry Pi 3 tuviera un poco más de potencia. De más está decirlo, hay cuestiones técnicas y de presupuesto que impiden el uso de un SoC más robusto, pero al otro lado del planeta tienen una opinión diferente. Si estamos dispuestos a esperar y a sacrificar un poco de compatibilidad, lo cierto es que Orange Pi ofrece mini ordenadores interesantes a precios muy agresivos.
2 GB de RAM, vídeo con soporte 2K… nada mal
El nuevo miembro de la familia es el Orange Pi Prime, basado en el SoC Allwinner H5 con cuatro núcleos Cortex-A53 de 64 bits y un módulo Mali-450 que puede reproducir vídeo 2K sin sobresaltos. La memoria RAM asciende a 2 GB en DDR3, posee tres puertos USB convencionales, un puerto micro USB que funciona como OTG o entrada de energía, un conector dedicado de alimentación (lo que sugiere la necesidad de una fuente sólida), conectividad WiFi, Bluetooth, Ethernet e infrarroja, botón de reset y de encendido, micrófono integrado, salida HDMI, ranura microSD, un conector de 3.5 mm para audio, entrada CSI y un GPIO de 40 pines.
Definitivamente prefiero a ese conector dedicado de alimentación
La página oficial de Orange Pi aún no tiene publicado al Prime, pero sí ofrece cuatro imágenes: Android, Arch Server, Debian y Ubuntu. El precio oficial del mini ordenador en Aliexpress es de unos 28 euros, sin embargo, el método de envío más económico eleva el costo a 33 euros, con una demora de un mes en su entrega. La verdadera incógnita es la frecuencia de los núcleos en el SoC H5. Ni siquiera la hoja de datos de Allwinner posee esa información, pero editaré el texto apenas la encuentre.

Fuente:
http://www.neoteo.com/orange-pi-prime-un-nuevo-oponente-para-el-raspberry-pi-3/

FEDOR, el Terminator ruso que dispara con ambas manos

Hemos tratado de advertir esto durante años, pero todo parece indicar que los políticos y militares de turno tienen la idea fija: Construyamos robots, desarrollemos inteligencias artificiales… y hagamos que tiren del gatillo. El viceprimer ministro ruso Dmitri Rogozin compartió a través de Twitter los avances de la plataforma FEDOR que viajará al espacio en el año 2021, pero antes decidieron equipar al robot con dos armas de fuego para que practique un poco…

Si buscamos vídeos que muestran en acción al robot FEDOR (Final Experimental Demonstration Object Research), veremos algunas habilidades muy interesantes. El robot puede soldar, usar taladros, cortar madera, subir a un coche y conducir, abrir una cerradura con su llave, y hasta apagar incendios. En otras palabras, es un robot con la capacidad de reparar y construir, dos actividades que tienen un enorme valor en estos días, y cargan con cierto sentido de nobleza, si se quiere. El plan es que FEDOR viaje solo al espacio en 2021 como único piloto, y una vez allí, brindará la asistencia necesaria a los astronautas. Todo eso sonaba muy bien… hasta que el viceprimer ministro ruso Dmitri Rogozin publicó esto en su cuenta de Twitter:

«No estamos construyendo un Terminator, sino una inteligencia artificial que tendrá una gran importancia práctica en varios campos», indicó Rogozin. Pero a menos que FEDOR haya sido diseñado en secreto para repeler una invasión extraterrestre de la que no sabemos nada, la idea de que un robot con semejante precisión pueda disparar dos armas de fuego a la vez preocupa un poco. De momento, FEDOR tiene las mismas limitaciones que cualquier otro diseño similar, comenzando por la fuente de energía, sin embargo, con suficiente tiempo y dinero, dichas limitaciones deberían desaparecer.
Terminator, Cylon… en este punto da lo mismo
Imagino que el siguiente paso será repetir la prueba con armamento más pesado. FEDOR no se cansa, no siente dolor… sí, eso suena parecido a cierta película. A decir verdad, esas dos pistolas se ven como poca cosa en el robot, y aunque es probable que jamás llegue al campo de batalla en su forma actual, seguramente servirá de base para desarrollos mucho más complejos.
(N. del R.: El vídeo fue extraído de Twitter y publicado en YouTube por una cuenta no oficial, por lo tanto, podría desaparecer en el corto plazo.)

Fuente:
http://www.neoteo.com/fedor-el-terminator-ruso-que-dispara-con-ambas-manos/


Cómo construir tu propio ordenador pieza por pieza

Instalando zócalos, chips, puertos… todo

 Armar un ordenador no es complicado. Todo lo que necesitas es un poco de tiempo, espacio e información para reunir las partes y colocarlas dentro de una carcasa. Ahora, imagina que debes soldar cada chip, puerto, capacitor, y zócalo, sumar resistencias, reguladores, LEDs e interruptores. Eso fue básicamente lo que hizo Scott Baker con el Xi 8088, un diseño de Sergey Kiselev compatible con el IBM PC/XT. Más retro que esto, imposible.

 La simple idea de reemplazar un capacitor dañado en una placa base puede ser más que desafiante si no se tiene acceso al equipamiento básico, pero lo primero que necesitamos es voluntad. Desarmar el ordenador entero, retirar la placa, quitar el capacitor e instalar uno nuevo sin hacer un desastre… la clave es disfrutarlo. Dicho eso, ahora piensa en un ordenador que requiere la instalación manual de chips, zócalos, puertos, resistencias, y todo lo demás. Un kit, por así decirlo. Los primeros ordenadores hogareños fueron distribuidos de ese modo (si quieres saber más, el Altair 8800 debería ser tu primera parada), y hoy es posible reproducir esta experiencia con diseños como el Xi 8088, de Sergey Kiselev. El vídeo que verás a continuación presenta a Scott Baker en el proceso de construcción:

Básicamente, el ordenador es una tarjeta con formato ISA que va conectada a un «backplane» de 16 bits, aunque en realidad todo el sistema es de 8 bits. En vez de utilizar un procesador Intel 8088, Baker decidió instalar un NEC V20, 30 por ciento más rápido y con instrucciones 80186 incorporadas. Obtener las partes fue una tarea titánica. eBay salió al rescate para la mayoría de las cosas, pero Baker tuvo algunos problemas con componentes de muy baja calidad provenientes de China (los dos controladores DM9368 que recibió tenían fallas). La gran mayoría de los elementos pueden ser instalados con un soldador tradicional, sin embargo, soldar el chip VGA y el zócalo para el lector de tarjetas CompactFlash (que asume el rol de disco duro) demandó paciencia, un microscopio, y más paciencia aún.
El vídeo fue editado en varios puntos, pero eso no le impide extenderse por casi una hora. Si quieres ver el primer encendido con un monitor conectado, salta a los 17 minutos. Honestamente, vale la pena verlo todo. El blog de Baker tiene información adicional, y los datos técnicos se encuentran en el portal de Kiselev (enlaces más abajo).

jueves, 13 de abril de 2017

Compara cómo ves hoy en carretera y cómo lo harías hace 100 años

¿Quieres saber cómo veían tus abuelos la carretera cuando conducían por la noche? Te presentamos una serie de fotografías que reflejan la evolución de los focos desde 1908 hasta el día de hoy. 

Desde que Ford lanzó al mercado su primer vehículo en serie, el modelo T, los vehículos han ido cambiando y mejorando en todos los aspectos. Las fotos que os presentamos muestran cómo es de fácil para los conductores de hoy en día ver en la oscuridad, en comparación con las generaciones anteriores. En todas las fotografías se da el mismo caso: un ciclista cruza la carretera a solo 12 metros por delante del vehículo. La diferencia de visibilidad que ofrecían los coches del siglo pasado frente a los actuales es abismal.
Casi invisible a las luces de gas del Ford T de 1908. Así es cómo verían a este ciclista los conductores del modelo que vendió más de 15 millones de unidades entre 1908 y 1927. Los propietarios de este vehículo clásico, tenían que encender las lámparas de acetileno antes de salir a la carretera. En la evolución que han sufrido los vehículos, hoy en día este ciclista sería totalmente percibido por el conductor gracias a las luces xenón y LED, pero no solo eso, el vehículo frenaría automáticamente gracias a la tecnología de detección de peatones. En la galería de imágenes que acompaña a este artículo, además os mostramos la iluminación de los vehículos de los años 1930, 1960, 1970 y 1990.
Focos Ford

Saliendo de la Edad Oscura

“En términos de tecnología de iluminación, hemos salido de las edades oscuras”, dijo Michael Koherr, ingeniero de investigación de iluminación de Ford. “Es increíble la diferencia fundamental que estos cambios aportan en términos de seguridad vial y comodidad del conductor”. Los faros xenón tienen más potencia y ofrecen mayor visibilidad que las bombillas halógenas. Al igual que los sofisticados faros LED, como los que incorpora el Ford Edge, los faros de xenón producen una luz blanca brillante que nada tiene que ver con la luz amarillenta de los faros halógenos.
Por supuesto que los conductores de hoy en día pueden conducir a mayor velocidad que los conductores del modelo T. Pero también se benefician de mejoras tecnológicas de iluminación, las cuales facilitan la adaptación de la iluminación a la velocidad y al entorno. Las luces delanteras también están diseñadas para desvanecerse gradualemente. Koherr comenta que “hemos pasado de lo que eran, prácticamente, velas a eficaces focos de xenón y luces LED. En el futuro, veremos más luces LED súper brillantes equipadas en los coches, lo que en realidad puede ayudar a los conductores a permanecer alerta. La visibilidad por la noche es ahora mucho mejor. Estamos desarrollando una nueva tecnología de iluminación puntual que ayuda a atraer la atención del conductor hacia los peatones, ciclistas e incluso animales grandes en el trayecto del vehículo. Una cámara infrarroja localiza y rastrea a personas y animales en una distancia de hasta 120 metros”.
Las imágenes se tomaron en el centro de Ford de Dagenham. Los modelos encargados de iluminar la escena fueron: un Ford modelo T de 1908, un Ford modelo Y de 1932, un Ford Anglia 105e de 1966, un Ford Fiesta de 1976, un Ford Mondeo de 1994 y un Ford Mustang GT de 2016. Los ajustes de la cámara han sido los mismos en todas las fotografías: Iso 1600, exposición 1/13, abertura f / 9.

Fuente:
 http://social.ford.es/compara-como-ves-hoy-en-carretera-y-como-lo-harias-hace-100-anos/?bannereu=olm-q1-2017-crosscarline-branding_outbrain_response_display_textlink-banner-standard-standard-central-textlink-directresponse-sustain-cpccontentrospremium-standard-es-ndp_aacpccontent_sustain&referrer=branding_outbrain_response_display_textlink

martes, 4 de abril de 2017

La memoria DDR5 ya se encuentra en desarrollo

Las memorias DDR4 llevan aproximadamente dos años y medio en el mercado, pero es ahora que hemos detectado cierto crecimiento en su adopción. Se suponía que este iba a ser el final de la línea para el estándar DDR, dejando su lugar a otras tecnologías como HBM2 o HMC. Sin embargo, JEDEC confirmó que el desarrollo para la especificación DDR5 ha comenzado, y concluirá el año que viene. ¿Cuál es la promesa de la memoria DDR5? El doble de densidad, el doble de velocidad, y un menor consumo.

La memoria DDR4 no hizo grandes méritos para forzar una adopción masiva. Por un lado, los módulos DDR3 lograron mantener un buen equilibrio entre rendimiento y precio, y por el otro, la memoria RAM de alta gama también sufrió el impacto en las ventas de PCs. Por suerte, la historia está cambiando con la llegada de Ryzen y los chips Kaby Lake. El interés en reemplazar plataformas completas ha crecido, y eso es en esencia lo que determina si los fabricantes están dispuestos a subir un escalón más, buscando un «premium» en sus precios. Los primeros reportes sobre el desarrollo de un sucesor para la memoria DDR4 surgieron a mediados de 2016, pero ahora es la propia JEDEC quien confirmó que la memoria DDR5 está en camino.
DDR4 apenas despegó, y ya se trabaja en su reemplazo
El anuncio oficial no tiene ningún número firme, pero se espera que la memoria DDR5 duplique la velocidad y la densidad frente a la tecnología DDR4. Al mismo tiempo, se buscará reducir el consumo de energía, formando una combinación que suena de maravillas para el mundo empresarial. De hecho, se calcula que la primera parada de la memoria DDR5 estará en los servidores, siempre con hambre de ancho de banda, virtualización, y aplicaciones residentes. JEDEC ha seguido un patrón cercano a los dos años entre el anuncio de un nuevo estándar y su debut en el mercado formal, o sea que los usuarios de a pie debemos esperar hasta 2019 o 2020 para tener un poco de DDR5 en nuestros escritorios.
Lo más interesante es que DDR5 aprece un poco de la nada. Todas las flechas apuntaban al fin del desarrollo en DDR, esperando seguir la ruta de HBM2 o la Hybrid Memory Cube de Micron. Otra alternativa sería avanzar en memorias no volátiles, como Intel Optane, o el estándar NVDIMM de JEDEC. La aventura de la memoria DDR llegará al final de la década, pero la prioridad debe ser siempre la misma: Los usuarios.

Fuente:
http://www.neoteo.com/la-memoria-ddr5-ya-se-encuentra-en-desarrollo/

viernes, 31 de marzo de 2017

Juno nos muestra los polos de Júpiter en toda su gloria

En agosto de 2011 la NASA mandó una enorme sonda conocida como Juno a explorar planeta más grande del sistema solar. Fue un proyecto ambicioso, complicado y caro (1.000 millones de dólares), pero después de tantos años y de un viaje de más de 667.000 millones de kilómetros se empiezan a obtener maravillas como éstas imágenes de los polos de Júpiter.
Las imágenes muestran los polos de Júpiter pero además lo hacen con una gran riqueza en detalles, ya que podemos apreciar desde las formaciones nubosas hasta las misteriosas auroras que se producen en los mismos.
Polos de Júpiter (1)
Captar estas imágenes no ha sido nada fácil para Juno, sobre todo por el hecho de que Júpiter emite radiaciones que pueden ser muy dañinas para toda la electrónica que sustenta a la sonda. Para evitar quedar demasiado expuesta a esa radiación la sonda tiene que moverse realizando complicadas maniobras zigzagueantes que hacen que capturar imágenes de calidad se convierta en un gran desafío.
Polos de Júpiter
Las imágenes que se recibieron en la NASA estaban en blanco y negro, pero la agencia aeroespacial ha llevado a cabo un soberbio trabajo de edición para añadir un toque de color y hacerlas no sólo más atractivas, sino también más interesantes y fáciles de interpretar, incluso por el ojo menos experto.
Júpiter es un gigante de gas y como tal no es habitable, de hecho ni siquiera podríamos llegar a poner un pié en él ya que no tiene una superficie sólida ni nada mínimamente parecido, pero es uno de los planetas más interesantes y complejos de nuestro sistema solar, y también uno de los que más respuestas puede darnos sobre la formación del mismo.
Polos de Júpiter (3)
Ya os contamos en nuestro especial dedicado a este planeta que tiene más de proyecto fallido de estrella que de planeta, una realidad que nos permite entender mejor el peso que tiene dentro del sistema solar.

Fuente:
http://www.muycomputer.com/2017/03/30/juno-polos-jupiter/

Arduino C++ y Puerto serie


Tutorial Arduino C++ y Puerto serie. Puedes hacer controlar Arduino y el puerto serie desde el lenguaje C++ Win32. Hay tres IDE para elegir para crear tu propio programa en C++ como Visual Studio 2017, Code::Blocks y C++ Builder Starter.

A pesar de tener en Arduino IDE el Monitor serial para controlar el puerto y la placa Arduino, con C++ podemos potenciarlo, crear menús y muchas otras cosas más que se nos ocurra.



Antes que nada saber que puerto usamos:
// Para crear conexión con los puertos COM1 - COM9.
// Serial* Arduino = new Serial("COM7");

// Para crear conexión con los puertos COM10 en adelante.
// Serial* Arduino = new Serial("\\\\.\\COM10");

Abrir conexión del puerto:
Puerto->IsConnected()

Enviar información a Arduino:
// Encener luz.
cout << "Enviando: " << Luz_ON << endl; // Muestra en pantalla textos.
Puerto->WriteData(Luz_ON, sizeof(Luz_ON) - 1); // Envía al puerto el texto "Luz_ON".

Código de Arduino:

// Encendido y apagado del Led 13 mediante puerto serie.

const byte Led = 13;   // Declaramos la variable pin del Led.
char caracter;
String comando;

void setup()
{
  pinMode(Led, OUTPUT);  // Inicializa el pin del LED como salida:
  Serial.begin(115200);     // Puerto serie 115200 baudios.
}

void loop()
{
  /*
    Voy leyendo carácter a carácter lo que se recibe por el canal serie
    (mientras llegue algún dato allí), y los voy concatenando uno tras otro
    en una cadena. En la práctica, si usamos el "Serial monitor" el bucle while
    acabará cuando pulsamos Enter. El delay es conveniente para no saturar el
    canal serie y que la concatenación se haga de forma ordenada.
  */
  while (Serial.available() > 0)
  {
    caracter = Serial.read();
    comando.concat(caracter);
    delay(10);
  }

  /*
    Una vez ya tengo la cadena "acabada", compruebo su valor y hago que
    la placa Arduino reacciones según sea este. Aquí podríamos hacer lo
    que quisiéramos: si el comando es "tal", enciende un Led, si es cual,
    mueve un motor... y así.
  */

  // Si le llega el mensaje Luz_ON.
  if (comando.equals("Luz_ON") == true)
  {
    digitalWrite(Led, HIGH); // Enciende el Led 13.
    Serial.write("ON - Led encendido.");    // Envía este mensaje a C++.
  }

  // Si le llega el mensaje Luz_ON.
  if (comando.equals("Luz_OFF") == true)
  {
    digitalWrite(Led, LOW); // Apaga el Led 13.
    Serial.write("OFF - Led apagado. ");  // Envía este mensaje a C++.
  }

  // Limpiamos la cadena para volver a recibir el siguiente comando.
  comando = "";
}

Código C++:

#include
#include
#include
#include "SerialClass.h"
using namespace std;

void main()
{
    // Título de la ventana
    SetConsoleTitle("Control Led Arduino - Visual Studio C++ 2017");

    // Puerto serie.
    Serial* Puerto = new Serial("COM4");

    // Comandos para Arduino.
    char Luz_ON[] = "Luz_ON"; // Envía "Luz_ON" al puerto serie.
    char Luz_OFF[] = "Luz_OFF";
    char lectura[50] = "\0"; // Guardan datos de entrada del puerto.

    int opc; // Guarda un 1 o 2 tipo entero queintroduces desde la consola.

    while (Puerto->IsConnected())
    {
        cout << endl; // Retorno.
        cout << "Introduzca la opcion deseada: " << endl;
        cout << "Pulse 1 para encender el Led, pulse 2 para apagar." << endl << endl; // Muestra texto en pantalla.

        cin >> opc; // Aquí introduces un número, el 1 o el 2.

        switch (opc) // Espera recibir un 1 o un 2.
        {
        case 1:
            // Encener luz.
            cout << "Enviando: " << Luz_ON << endl; // Muestra en pantalla textos.
            Puerto->WriteData(Luz_ON, sizeof(Luz_ON) - 1); // Envía al puerto el texto "Luz_ON".
            break;

        case 2:
            // Apagar luz.
            cout << "Enviando: " << Luz_OFF << endl;
            Puerto->WriteData(Luz_OFF, sizeof(Luz_OFF) - 1);
            break;

        default: // Si haz pulsado otro número distinto del 1 y 2, muestra
            cout << "Puse del 1 al 2."; // este mensaje.
        }


        Sleep(500);
        int n = Puerto->ReadData(lectura, 49); // Recibe datos del puerto serie.
        if (n > 0)
        {
            lectura[n + 1] = '\0'; // Limpia de basura la variable.
            cout << "Recibido: " << lectura << endl; // Muestra en pantalla dato recibido.
            cout << "-------------------" << endl;
        }

        cin.ignore(256, '\n'); // Limpiar buffer del teclado.
    }
}
 



Ver visor:


Arduino c++ y puerto serie de Ángel Acaymo M. G.

Ver vídeo:


Autor: Ángel Acaymo M. G.

Descarga:
PDF
PDF
PDF

XPS
XPS

Ejemplos 3.22 MB.
Ejemplos 3.22 MB.

Librería oficial.
Librería desde Electrónica PIC 5.67 KB.
Librería desde Electrónica PIC. 5.67 KB.





jueves, 30 de marzo de 2017

Hola mundo para Visual Studio 2017

Nunca es tarde si la dicha es buena.

Microsoft ya tiene libre desde hace semanas su producto de desarrollo de software como Visual Studio 2017 Community para hacer tus aplicaciones.

Descarga

En este Blog se utiliza mucho este IDE para hacer pequeños programas de control sobre el puerto serie y placas de Arduino e incluso los microcontroladores PIC.

Tutorial básico Hola Mundo en Visual C#.

Introducimos al formulario un Button y un label.


Haz docble clic en el botón Hola, luego introduces este código.

label1.Text = "Hola mundo";


Pulsas F5 para compilar y muestra el formulario, luego pulsas el botón Hola.


Código fuente C#:

using System;
using System.Collections.Generic;
using System.ComponentModel;
using System.Data;
using System.Drawing;
using System.Linq;
using System.Text;
using System.Threading.Tasks;
using System.Windows.Forms;

namespace HolaMundo
{
    public partial class Form1 : Form
    {
        public Form1()
        {
            InitializeComponent();
        }

        private void button1_Click(object sender, EventArgs e)
        {
            label1.Text = "Hola mundo";
        }
    }
}

Nota de la versión Visual Studio 2017:

https://www.visualstudio.com/es-es/news/releasenotes/vs2017-relnotes

A disfrutarlo. ;)

Intel comercializa sus primeras memorias Optane para consumo

Intel está comercializando sus primeras memorias Optane para el mercado de consumo. Una solución de caché con potencial para mejorar el rendimiento de cualquier dispositivo, aplicación o servicio que se beneficie de un rápido acceso a grandes conjuntos de datos.
Como sabes, Intel Optane es un conjunto de soluciones de estado sólido con memorias 3D X Point, la primera categoría de memoria no-volátil desde el lanzamiento de flash NAND en 1989. 3D XPoint ha sido desarrollada desde cero por Intel y Micron, combinando las ventajas de rendimiento, densidad, energía, no volatilidad y coste de todas las tecnologías de memoria disponibles en el mercado.
Así, después del lanzamiento de la Intel® Optane™ SSD P4800X para centros de datos, el gigante del chip estrena sus memorias Optane en el mercado de consumo. Intel las llama “memorias” aunque en realidad son módulos que se sitúan a medio camino entre la unidad de almacenamiento y la memoria DRAM del sistema, actuando como una unidad rápida de caché.
Las memorias Optane utilizan un factor de forma M.2 y una interfaz PCIe NVMe 3.0 x2 para ofrecer un gran rendimiento, con velocidades de transferencia de datos de hasta 1350 / 290 Mbytes por segundo en lectura/escritura secuencial. En la práctica, las memorias Optane pretenden acelerar el rendimiento del equipo de manera asequible. Según Intel, si instalamos este tipo de memorias en nuestro PC obtendremos:
  • Reducir a la mitad el tiempo de arranque del PC
  • Aumentar el rendimiento del almacenamiento hasta 14 veces
  • Aumentar el rendimiento general un 28%
  • Inicio de aplicaciones más rápido (por ejemplo, Outlook puede cargar hasta 6 veces más rápido)
  • La búsqueda de archivos es cuatro veces más rápida
Intel® Optane™

Memorias Optane – disponibilidad y precio

Este tipo de memorias tienen un nicho limitado ya que solo funcionan con procesadores Intel “Kaby Lake”, sistema operativo Windows 10 de 64 bits. el mencionado slot M.2 2280 y una BIOS que soporte la tecnología Intel Rapid Storage 15.5. Recalcar que funcionan como caché, no pueden utilizarse para instalar en ellas el sistema operativo.
Estarán disponibles a partir del 24 de abril en módulos de 16 GB por 44 dólares y 32 GB con un coste de 77 dólares. El precio es económico y puede ser adecuado para acelerar el rendimiento de un PC de sobremesa con disco duro, aprovechando las ventajas de capacidad de éste y el rendimiento de una unidad de estado sólido. Suponemos que Intel utilizará esta tecnología para comercializar otras soluciones de estado sólido. Sí está confirmado que se comercializarán soluciones similares para portátiles.

Fuente:
http://www.muycomputer.com/2017/03/29/memorias-optane/

Intel confirma que no todos los chips de 10 nm son iguales


Los procesos de fabricación y la reducción de los mismos juegan un papel muy importante en el sector tecnológico. Ya os hablamos de ello en este artículo y hoy Intel ha destacado algo muy importante en este sentido, que no todos los chips de 10 nm son iguales.
La idea clave es sencilla de entender. Cuando avanzamos en el proceso de fabricación y lo reducimos no es lo mismo hacerlo doblando el número de transistores que elevar ligeramente el conteo de los mismos frente al proceso anterior.
En la gráfica que acompañamos podemos ver perfectamente reflejada esta idea. Si reduces el proceso de fabricación pero sólo aumentas ligeramente el conteo de transistores o incluso lo disminuyes el avance que estás consiguiendo pierde mucho potencial.
Por otro lado debemos tener en cuenta que reducir el proceso de fabricación doblando la densidad de transistores es mucho más complicado, y que por tanto requiere un mayor esfuerzo y una inversión muy grande.
chips de 10 nm (2)
Con eso en mente podemos entender mejor porqué Intel ha seguido aprovechando el proceso de fabricación de 14 nm. Es evidente que el gigante del chip podría haber llevado a cabo una transición a los 10 nm hace tiempo, pero la misma no habría sido auténtica, al menos desde el punto de vista que hemos expresado en este artículo.
Esto quiere decir que chips como el Exynos 8895 y el Snapdragon 835 no han cumplido esa regla de doblar la densidad de transistores al saltar a los 10 nm. La consecuencia directa de esto es que aunque se beneficiarán de las ventajas que ofrece una reducción de proceso no llegarán al mismo nivel que lo habría hecho un chip que hubiera doblado el conteo de transistores.
La mejora que conseguirán esos chips en relación aumento de rendimiento-reducción de consumo será menor, y por tanto no serán comparables a soluciones que de verdad hayan dado el salto siguiendo esa premisa, fijada como sabemos en la Ley de Moore.
Por su parte Intel ha confirmado que sus chips de 10 nm multiplicarán por 2,7 el conteo total de transistores frente al proceso de 14 nm, lo que se traducirá en un aumento del rendimiento de hasta un 25% y una reducción de consumo de hasta un 45%.

Fuente:
http://www.muycomputer.com/2017/03/29/intel-10-nm/

domingo, 26 de marzo de 2017

Consiguen crear hidrógeno metálico

Casi un siglo después de que fuera postulado teóricamente, unos científicos han conseguido crear uno de los materiales más raros y quizá más valiosos del planeta.

El material, hidrógeno atómico metálico, ha sido creado por el equipo de Isaac Silvera y Ranga Dias, de la Universidad Harvard en Cambridge, Massachusetts, Estados Unidos.

Además de ayudar a los científicos a responder preguntas fundamentales sobre la naturaleza de la materia, se cree que el material tendrá una amplia gama de aplicaciones, incluyendo la de superconductor a temperatura ambiente.

“Se trata del santo grial de la física de alta presión”, valora Silvera. “Es la primera muestra de la historia de hidrógeno metálico en la Tierra, así que cuando la miras, estás viendo algo que nunca ha existido antes”.

Para crearla, Silvera y Dias comprimieron una diminuta muestra de hidrógeno bajo una presión de 495 gigapascales, mayor que la del centro de la Tierra. A esas presiones extremas, el hidrógeno molecular sólido se descompone, y las moléculas firmemente ligadas entre sí se disocian para transformarse en hidrógeno atómico, que bajo tales condiciones se comporta como un metal.

Si bien el trabajo abre una puerta hacia un mejor conocimiento de las propiedades generales del hidrógeno, también ofrece pistas atractivas sobre nuevos materiales potencialmente revolucionarios.

[Img #41607]

Imágenes microscópicas de las etapas en la creación de hidrógeno metálico: hidrógeno molecular transparente (izquierda) a unos 200 gigapascales, que es convertido en hidrógeno molecular negro, y finalmente en hidrógeno atómico metálico reflectante a 495 gigapascales. (Fotos: cortesía de Isaac Silvera)

Una predicción muy importante es que el hidrógeno metálico debería ser metaestable. Eso significa que si se le devuelve a la presión ambiental normal de la superficie terrestre, seguirá siendo metálico, de manera similar a la forma en que los diamantes se forman a partir del grafito bajo un calor y una presión intensos, pero siguen siendo diamantes cuando la presión y la temperatura descienden hasta los valores normales en la superficie terrestre.

Averiguar si el material es realmente estable es importante porque se cree que el hidrógeno metálico podría actuar como superconductor a temperatura ambiente. Eso sería revolucionario. Se pierde mucha energía eléctrica debido a la disipación durante la transmisión, así que si pudiéramos fabricar cables de este material, sin la problemática asociada a los superconductores que requieren bajas temperaturas, y utilizarlo en la red eléctrica, ello marcaría un antes y un después en la historia del uso humano de la electricidad.

Un superconductor a temperatura ambiente también podría cambiar radicalmente nuestro sistema de transporte, haciendo mucho más fácil y práctica la levitación magnética de trenes de alta velocidad, así como haciendo más eficientes los coches eléctricos y mejorando el rendimiento de muchos dispositivos electrónicos.

Fuiente:
http://noticiasdelaciencia.com/not/22903/consiguen-crear-hidrogeno-metalico/

Zoología Lunes, 6 marzo 2017 Bioingeniería Logran grabar en ADN y sin errores una película y un sistema operativo de ordenador

La humanidad podría pronto generar más datos de lo que los discos duros u otros sistemas de almacenamiento masivo puedan acoger de manera eficaz, un problema que ha hecho que los científicos presten atención al ADN, la antiquísima solución de la naturaleza para almacenar información.

En un nuevo estudio, Yaniv Erlich y Dina Zielinski, de la Universidad de Columbia en la ciudad estadounidense de Nueva York, han demostrado que un algoritmo diseñado originalmente para streaming de video en un teléfono móvil o celular puede aprovechar casi por completo el potencial de almacenamiento del ADN gracias a poder comprimir mucho más la información en él que en cualquier otro sistema artificial existente de almacenamiento de información. También han demostrado que esta tecnología es muy fiable.

El ADN constituye un medio de almacenamiento ideal porque es ultracompacto y puede durar cientos de miles de años si se le mantiene en un lugar fresco y seco, como se demostró entre 2013 y 2016 con la obtención de ADN de huesos de un antepasado humano de hace 430.000 años, encontrados en una cueva española.

“El ADN no se degradará con el tiempo como sí les ocurrirá a las cintas de casete y a los CDs. No se volverá obsoleto, y si fuera así, los humanos tendríamos problemas mayores”, dice agudamente Erlich.

Erlich y Zielinski eligieron seis archivos para codificar, o escribir, en el ADN: un sistema operativo completo de ordenador, una película francesa de 1895 (“Llegada de un tren a La Ciotat”), una tarjeta de regalo de 50 dólares de Amazon, un virus de ordenador, el contenido de una placa diseñada como mensaje para extraterrestres y que viaja a bordo de las sondas espaciales Pioneer, y un estudio de 1948 del teórico de la información Claude Shannon.

[Img #42213]

Yaniv Erlich y Dina Zielinski. (Foto: New York Genome Center)

Erlich y Zielinski comprimieron los archivos en uno solo, y después dividieron los datos en secuencias cortas de código binario hecho de ceros y unos. Usando un algoritmo de corrección y borrado, empaquetaron aleatoriamente las secuencias en conjuntos denominados gotas, cartografiando los unos y los ceros de cada gota para las cuatro bases de nucleótidos en el ADN: A, G, C y T. El algoritmo excluyó combinaciones de letras conocidas por crear errores, y añadió un código de barras a cada gota para ayudar a reensamblar los archivos más tarde.

En total, generaron una lista digital de 72.000 cadenas de ADN, cada una de 200 bases de largo, y la enviaron en un archivo de texto a la compañía Twist Bioscience, de San Francisco, especializada en síntesis de ADN y en convertir datos digitales en datos biológicos. Dos semanas más tarde, recibieron un frasco conteniendo una pizca de moléculas de ADN.

Para recuperar del ADN sus archivos, utilizaron tecnología moderna de secuenciación que lee las cadenas de ADN, lo que fue seguido por el uso de un software que traduce el código genético de nuevo a código binario. Así, recuperaron sus archivos sin ningún error en absoluto.

También han demostrado que se podría crear una cantidad virtualmente ilimitada de copias con su técnica de codificación, mediante la multiplicación de su muestra de ADN a través de la reacción en cadena de la polimerasa (PCR), y que esas copias, e incluso las copias de sus copias, y así sucesivamente, pueden seguir almacenando, sin errores, la información original.

Finalmente, los investigadores han demostrado que su estrategia de codificación empaqueta 215 petabytes de datos en un único gramo de ADN, 100 veces más que lo conseguido con los métodos publicados por los investigadores precursores del almacenamiento de datos en ADN, George Church de la Universidad Harvard, y Nick Goldman y Ewan Birney del Instituto de Bioinformática Europeo. “Creemos que es el sistema de almacenamiento de datos de densidad más alta creado hasta ahora”, subraya Erlich.

Fuente:
http://noticiasdelaciencia.com/not/23304/logran-grabar-en-adn-y-sin-errores-una-pelicula-y-un-sistema-operativo-de-ordenador/

Tejido cardiaco humano creciendo en hojas de espinaca

Unos investigadores han recurrido al sistema vascular de las plantas para resolver un importante problema de bioingeniería que está bloqueando la regeneración de tejidos y órganos humanos.

Los científicos del sector se enfrentan a un desafío fundamental mientras buscan ampliar la escala de la regeneración de tejidos desde pequeñas muestras de laboratorio a tejidos más extensos, incluyendo piezas óseas e incluso órganos completos, para implantarlos en personas y tratar enfermedades o lesiones graves: cómo establecer un sistema vascular que suministre sangre al interior del tejido en desarrollo.

Las actuales técnicas de bioingeniería, incluyendo la impresión 3D, no pueden fabricar la red ramificada de vasos sanguíneos hasta el nivel capilar que se requiere para proporcionar el oxígeno, los nutrientes y las sustancias esenciales que se precisan para un adecuado crecimiento de los tejidos. A fin de solventar este problema, un equipo de investigación multidisciplinar del Instituto Politécnico de Worcester, la Universidad de Wisconsin-Madison y la Universidad Estatal de Arkansas en Jonesboro, todas estas instituciones en Estados Unidos, ha decidido recurrir a las plantas. Estos investigadores han explorado la posibilidad de usar plantas descelularizadas como andamios, con capacidad de perfusión, para ingeniería de tejidos.

Las plantas y los animales explotan métodos fundamentalmente diferentes para transportar fluidos, sustancias y macromoléculas, pero existen similitudes sorprendentes en sus estructuras de red vascular. El desarrollo de plantas descelularizadas para servir como andamio abre otro capítulo en una nueva rama de la ciencia que investiga el mimetismo entre lo vegetal y lo animal.

[Img #42628]

En esta secuencia, una hoja de espinaca es desprovista de sus células vegetales, un proceso llamado descelularización. El proceso solo deja la vasculatura de la hoja. (Fotos: Worcester Polytechnic Institute)

En una serie de experimentos, el equipo de Glenn Gaudette cultivó células cardiacas humanas que podían latir sobre hojas de espinaca a las cuales se despojó de células vegetales. Hicieron fluir fluidos y microesferas parecidas en tamaño a los glóbulos sanguíneos humanos a través de la vasculatura de la espinaca, y sembraron con éxito las venas de esta última con las células humanas que recubren los vasos sanguíneos. Los investigadores pudieron así cultivar células cardíacas que latían sobre tales hojas descelularizadas.

Esto abre la puerta hacia el uso de múltiples hojas de espinaca para hacer crecer capas de músculo cardiaco sano que permitan dar tratamientos médicos avanzados a pacientes que han sufrido ataques al corazón.

 Fuente:
 http://noticiasdelaciencia.com/not/23595/tejido-cardiaco-humano-creciendo-en-hojas-de-espinaca/

sábado, 25 de marzo de 2017

Hola mundo del nuevo Delphi 10.2 Tokio

Hola:

Aquí se presenta la nueva versión de Delphi 10.2 Tokio.

Novedades:
http://docwiki.embarcadero.com/RADStudio/Tokyo/en/What's_New

Han corregidos 500 reportes por los clientes.
http://edn.embarcadero.com/article/44747

Puedes descargar la versión grauita Delphi Edition Starter.

Descargar

Aquí hice una prueba muy básica sobre Delphi 10.2 Tokio con dos botones, uno para saludar y el otro para despedirse en una etiqueta.



Introduces un label y dos button.

Haz doble clic en el botón del formulario y pon este código:

Label1.Caption := 'Hola mundo.';

Este otro para la despedida:

Label1.Caption := 'Adiós mundo.';

Código fuente completo:

unit Saludar;

interface

uses
  Winapi.Windows, Winapi.Messages, System.SysUtils, System.Variants, System.Classes, Vcl.Graphics,
  Vcl.Controls, Vcl.Forms, Vcl.Dialogs, Vcl.StdCtrls;

type
  TForm1 = class(TForm)
    Label1: TLabel;
    Button_Saludar: TButton;
    Button_Despedir: TButton;
    procedure Button_SaludarClick(Sender: TObject);
    procedure Button_DespedirClick(Sender: TObject);
  private
    { Private declarations }
  public
    { Public declarations }
  end;

var
  Form1: TForm1;

implementation

{$R *.dfm}

procedure TForm1.Button_DespedirClick(Sender: TObject);
begin
  Label1.Caption := 'Adiós mundo.';
end;

procedure TForm1.Button_SaludarClick(Sender: TObject);
begin
     Label1.Caption := 'Hola mundo.';
end;

end.

Se hará tutoriales sobre encender y apagar un Led con Arduino y Delphi mediante puerto serie. ;)

Saludos.

Curiosity captó en Marte nubes sometidas al efecto onda de gravedad


El rover Curiosity sigue de misión en la superficie de Marte, donde el verano pasado logró captar imágenes de las nubes del planeta rojo sometidas al efecto que se conoce como onda de gravedad, algo que como vimos en esta noticia puede ser realmente impresionante.
Como sabrán nuestros lectores más avanzados el fenómeno de onda de gravedad es algo que se produce en muchos planetas, la Tierra incluida, y se describen en este caso como las ondas generadas por los cuerpos nubosos como respuesta a la perturbación que produce la fuerza de gravedad en ellos, intentando alterar su equilibrio inicial.
La atmósfera de Marte presenta una densidad muy baja. A pesar de ello gracias a la exploración llevada a cabo por Curiosity sabíamos que las nubes pueden producirse en formaciones bastante intensas a primera hora de la mañana, pero lo que no nos esperábamos era que se pudiera repetir el fenómeno de la onda de gravedad en la zona ecuatorial del planeta rojo.

Es una pequeña gran sorpresa que demuestra una vez más que Marte es un exotismo que nos recuerda constantemente a nuestro hogar, la Tierra, y que da un poco más de fuerza a esas teorías que nos pintan lienzos de un pasado lejano, en el que esa polvorienta bola anaranjada vistió tonalidades azules y verdosas.
No se puede negar que Marte es muy diferente a la Tierra, pero al mismo tiempo dentro de esas grandes diferencias encontramos parecidos tan grandes y tan claros que se pueden resumir con una frase muy sencilla: Marte es tan diferente a la Tierra que no podríamos vivir directamente sobre él, pero es tan parecido que es el único que podríamos colonizar con “poco esfuerzo”.

Fuente:
http://www.muycomputer.com/2017/03/25/curiosity-marte-nubes-onda-gravedad/

¿Por qué los ordenadores viejos tenían cerraduras?

Los ordenadores antiguos estaban llenos de pequeños detalles muy peculiares, y que en algunos casos eran exclusivos del fabricante: El reloj LED que enseñaba la frecuencia, el botón «Turbo», las teclas especiales, y por supuesto, la cerradura. ¿Por qué era una buena idea poner cerraduras en los sistemas de antaño? Dependiendo de la aplicación, se buscaba impedir el ingreso de comandos, bloquear el acceso al interior de la PC, o evitar su encendido fuera de horario.

Si has llegado a utilizar un ordenador de la «era pre-Windows 95», es probable que recuerdes algunas características de su carcasa. Una de las más llamativas era el botón Turbo. Muchos programas dependían de la frecuencia del CPU para su timing, y a medida que el hardware ganó velocidad, pasaron a funcionar demasiado rápido. «Desactivar el Turbo» ayudaba a esos programas a recuperar el timing, y todos éramos felices. Pero después estaba esa extraña cerradura. «Keylock», indicaban ciertos modelos. El ordenador personal es una demostración contundente del avance tecnológico, y aún así, muchas unidades venían con uno de los elementos más tradicionales en materia de seguridad. ¿Por qué?

El canal de YouTube Lazy Game Reviews, dedicado a retroinformática y juegos clásicos (entre otras cosas), lo explica con precisión. La función más común de la cerradura era desactivar el teclado. Con un giro de la llave, la placa base recibía la orden de ignorar cualquier señal, y evitar así el ingreso de comandos no deseados. Otro de sus objetivos era impedir el acceso al interior del ordenador. Anular la cerradura se limitaba a desconectar un cable con la carcasa abierta, pero muchas cerraduras combinaron ambas funciones. Ciertas cerraduras tenían la capacidad de desactivar el acceso al disco duro, o con el uso de un accesorio externo, bloquear el encendido.
Un IBM 5170. La cerradura está entre el logo y los botones de la carcasa.
El primer fabricante en instalar una cerradura con llaves tubulares fue IBM, a través de su ordenador 5170 (el clásico «IBM AT»). En agosto de 1984, el IBM 5170 costaba seis mil dólares, y los mecanismos de seguridad vía software eran nulos. No había contraseñas, ni perfiles, ni administración remota. El IBM 5150 (IBM XT) no poseía ninguna protección, por lo que el Gigante Azul lanzó una «Keylock Option», cerradura para el interruptor de encendido, que también incluía un «dummy plug» compatible con la toma de energía. El mercado no tardó en copiar a IBM, y otras compañías adoptaron variantes más robustas, como el caso de SGI con su barra de metal. Al final, lo que «mató» a la cerradura fue la llegada de las contraseñas a nivel software (BIOS y sistema operativo), aunque los usuarios hicimos nuestra parte perdiendo llaves con extrema facilidad…

Fuente:
http://www.neoteo.com/por-que-los-ordenadores-viejos-tenian-cerraduras/

Usando smartphones como servidores Linux

La idea de un smartphone Android abandonado en un oscuro cajón es cada vez más frecuente. Si se trata de un modelo demasiado viejo o su reparación no vale la pena, lo más probable es que quede ahí, esperando a una segunda oportunidad que tal vez no llegue nunca. Sin embargo, muchos entusiastas del hardware están explorando usos alternativos para esos smartphones, y uno de ellos es el de servidor Debian.

Los mejores proyectos de hardware pueden comenzar con un accidente. Una pantalla rota, botones que dejan de funcionar, errores en el firmware, la lista sigue. Los fabricantes arrojan la toalla con una velocidad escalofriante al brindar soporte, pero si los espíritus del hacking nos ayudan, puede que haya un poco de información adicional en la Web. Tomemos el ejemplo de los smartphones Android. Se supone que el sistema operativo es abierto, pero los OEM se encargan de modificar las imágenes a un punto tal que se convierten en algo exclusivo para cada modelo. Como si eso fuera poco, los detalles sobre los componentes tienden a ser escasos. Aún con estas dificultades, hay entusiastas allá afuera muy interesados en reutilizar smartphones y tablets, lo que nos lleva al blog de Pete Scargill y sus esfuerzos para crear un servidor Debian.
Linux Deploy es muy interesante, pero su documentación necesita trabajo
Todo comenzó con un teléfono Oukitel K10000 que recibió de un amigo con la pantalla rota. El primer paso fue habilitar el acceso root en el dispositivo a través de kingroot.net, y luego descargó una aplicación de la Play Store llamada Linux Deploy, cuya documentación se encuentra en ruso. Scargill recomienda un smartphone con 16 GB de almacenamiento interno, aunque técnicamente es posible experimentar con unidades de 8 GB (quedarán menos de 2 GB disponibles). Dentro de la app hay un repositorio con una copia de Debian 8 para ARM, y después de algunos ajustes (sin mencionar una larga espera durante su instalación), debería quedar todo listo para acceder al smartphone vía WinSCP o similar.
Con Debian instalado, el smartphone es ahora un servidor. Necesitamos ver más casos como este.
Una de las cosas que instaló Scargill fue Node-Red, y para ello utilizó un script originalmente preparado con el Raspberry Pi en mente. De hecho, su proyecto mantiene cierta relación con el mini ordenador (el usuario en Debian es «pi»), pero al final del día es una bestia muy diferente. El K10000 tiene 2 GB de RAM, y una batería de 10.000 mAh que en esencia funciona como UPS. Otros dispositivos que formaron parte de la prueba son el Xiaomi Redmi 3, el OnePlus One, y la edición 2012 de la tablet Nexus 7.

Fuente:
http://www.neoteo.com/usando-smartphones-como-servidores-linux/

Raspberry Pi Zero W transformado en terminal portátil

El Raspberry Pi Zero W está simplificando mucho la vida de los usuarios gracias a su conectividad inalámbrica integrada. No solo reduce la necesidad de accesorios externos, sino que también permite implementar diseños más sencillos. Así llegamos al Zero Terminal, un proyecto que transforma al Pi Zero W en un ordenador portátil, con su propia batería interna, salida HDMI, y un teclado deslizante pensado para el iPhone 5.


Con el debut del Raspberry Pi Zero W en el mercado, los entusiastas del hardware dijeron adiós a los concentradores USB para conectar adaptadores WiFi y módulos Bluetooth externos. Ahora, todo eso se encuentra en el PCB, y la mejor parte es que su consumo de energía no se disparó (aproximadamente 170 mA en reproducción 1080p). Con ese dato a favor, era una simple cuestión de tiempo para que alguien tomara al nuevo mini ordenador y lo convirtiera en una solución portátil. Ese trabajo llega a nosotros una vez más gracias a los esfuerzos de NODE, que presentó a su «Zero Terminal», tercera versión de su concepto de ultraportátiles Linux.

Uno de los objetivos principales del Zero Terminal fue mejorar su estética en relación a los modelos previos, y entre las piezas más importantes descubrimos un teclado deslizante compatible con el iPhone 5. Ese smartphone cumplirá cinco años en septiembre, pero la disponibilidad de accesorios similares aún es amplia. Una carcasa especial impresa en 3D (dividida en marco y cubierta que se pegan sobre el teclado) tiene espacio suficiente para la pantalla de 3.5 pulgadas (480 por 320), una batería de 1.500 mAh (podría ser más grande con algunos ajustes), y un circuito de carga. NODE utiliza componentes de Adafruit, pero no es obligatorio de ningún modo.
El teclado deslizante es una solución elegante y más económica de lo que aparenta, aunque fue necesario reasignar una tecla para imitar a «CTRL». La salida HDMI y el puerto USB extendido ayudan mucho a la hora de conectar un monitor externo y un ratón o un teclado de tamaño completo. Los archivos 3D de la carcasa van a demorar un poco, pero están en camino.

Fuente:
http://www.neoteo.com/raspberry-pi-zero-w-transformado-en-terminal-portatil/

lunes, 20 de marzo de 2017

La Nintendo Switch ya ha sido hackeada

Un agujero en WebKit es el culpable

Pasaron apenas once días desde que la Nintendo Switch debutó en el mercado. En general podemos hablar de un lanzamiento exitoso, pero al igual que todo producto de primera generación, siempre va a aparecer un borde filoso o dos. En esta ocasión, se trata del software. Técnicamente, la Nintendo Switch no trae un navegador, pero posee un módulo que se comporta como tal para habilitar el ingreso a ciertas redes WiFi. ¿El problema? Ese módulo se basa en una versión muy antigua de WebKit, y todo lo que necesitaron los hackers fue reciclar un viejo exploit de iOS.

El hackeo de las consolas es inevitable. Tarde o temprano, entusiastas del hardware y el software comienzan a estudiar de una punta a otra sus diseños, y a hacer cosas que jamás se le hubieran pasado por la cabeza a los fabricantes. Por supuesto, cualquier idea sobre hacking, modding, emulación y ejecución de código alternativo es oficialmente rechazada, pero todos los reclamos se pierden en el camino. Al final del día, el dueño de la consola hace lo que desea con ella, y si eso implica ejecutar Linux, instalar un emulador o reemplazar su disco duro con un SSD cuando en teoría es imposible, así será. El reciente lanzamiento de la Switch ha convertido a la nueva plataforma de Nintendo en un blanco muy tentador, y con el inicio de la semana, ya surgió la primera vulnerabilidad.

Ahora, debemos hacer énfasis en el término «vulnerabilidad». No se trata de un firmware personalizado, ni nada que permita ejecutar dumps de los cartuchos (por ahora). En términos sencillos, el modo online de la Nintendo Switch es un trabajo en progreso, y se espera que las cosas mejoren con cada nueva actualización. Nintendo indicó en más de una oportunidad que la Switch no iba a contar con un navegador tradicional, sin embargo, lo cierto es que sí existe un navegador integrado, basado en WebKit. Este navegador se activa cuando el usuario conecta la consola a una red WiFi que requiere autenticación o confirmación manual (por ejemplo, a través de un portal cautivo). El problema es que ese navegador utiliza una versión de WebKit muy antigua, la cual carga con un bug de corrupción de memoria, CVE-2016-4657. El bug sirvió como punto de partida para el jailbreak de iOS 9.3, y se remonta a agosto del año pasado.
La gran pregunta aquí es en qué estaba pensando Nintendo cuando decidió implementar una versión de WebKit con más de seis meses y llena de agujeros. El siguiente paso será obviamente lanzar un update, pero hasta que eso suceda, los hackers buscarán vulnerabilidades adicionales que lleven a una elevación de privilegios.

Fuente:
http://www.neoteo.com/la-nintendo-switch-ya-ha-sido-hackeada/