En las últimas horas, varios portales anunciaron con mucho entusiasmo el lanzamiento de dos nuevas versiones de la consola Sega Mega Drive, a la que también se conoce por su nombre alternativo Genesis.
Una de las variantes utiliza controles inalámbricos, mientras que la
otra adopta el formato de consola portátil. Lamentablemente, la
información resultó ser incorrecta: La compañía AtGames sólo está «relanzando» una versión de la consola que ya lleva un largo tiempo en el mercado, y lo único diferente, es la lista de títulos.
Más de una vez dije que el «retro» estaba de regreso, y en los últimos meses sólo hemos visto una confirmación tras otra de ello. El cine sigue gobernado por películas basadas en cómics, resucitaron franquicias como Star Wars, Ghostbusters e Independence Day, reboot de Tarzán, hay otra Ice Age, y vuelve Jason Bourne (aunque tal vez eso no sea tan retro), mientras que por el lado de los videojuegos, Pokémon GO conquista el mundo, y Nintendo derrite cerebros con su nueva NES Classic Mini. No todo lo que acabo de mencionar merece nuestro entusiasmo, pero Pokémon GO y la nueva consola hicieron «clic»
de la forma correcta, y nadie puede dejar de hablar sobre ambas cosas.
La posibilidad de que otros fabricantes se sumen a esta tendencia es
grande, y hace pocas horas mi feed explotó con la novedad de que Sega iba a seguir la línea de Nintendo, lanzando un Mega Drive compacto.
La noticia aparenta ser excelente: ¿Sega regresando al mundo de las
consolas? ¿Sonic a la vanguardia? ¿Y además con la que fue su plataforma
más popular? Básicamente no habría nada de malo en ello, salvo por un
detalle: Sega no está haciendo nada por el estilo. La realidad es que un portal británico conocido como FunStockRetro anunció una nueva versión de la ya existente consola AtGames Sega Mega Drive (que en teoría ha sido correctamente licenciada), y su equivalente en versión portátil. Ambas consolas contienen un catálogo modificado de 80 juegos, entre los que se destacan los primeros tres Mortal Kombat, cinco títulos de la franquicia Sonic (incluyendo Sonic 1 y 2),
Golden Axe del 1 al 3, Altered Beast, Shinobi III, y más. Las razones
detrás de esta «actualización» son dos: Aprovechar la ola generada por
la NES Classic, y celebrar los 25 años de Sonic, cuyo primer título fue lanzado en junio de 1991.
El anuncio oficial indica que la «nueva» AtGames Sega Mega Drive estará disponible a partir de octubre, con un precio de 50 libras esterlinas (ambos modelos), algo así como 60 euros… pero el punto es que ya se encuentra en el mercado, con un catálogo de juegos un poco diferente. La gente de ToysRus la ofrece en línea a 45 dólares,
y físicamente se trata de la misma consola… con todas sus limitaciones,
léase salida de audio mono y vídeo RCA, y controles inalámbricos
infrarrojos (de los cuales he leído comentarios horribles, aunque es posible conectar controles normales). En resumen: Falsa alarma.
Me hubiera encantado ser el primero en empezar a los gritos con el
anuncio de una nueva consola por parte de Sega, pero el silencio de los canales oficiales confirma que no tiene nada que ver, más allá de su nombre licenciado. Ahora, si la semana que viene Sega rompe el molde con una nueva Mega Drive que posea salida HDMI, soporte para cartuchos y una amplia librería de juegos integrada, será un placer comerme estas palabras…
Fuente:
http://www.neoteo.com/sega-no-lanzo-dos-versiones-nuevas-consola-mega-drive
I+D Proyecto placa lavadora
viernes, 29 de julio de 2016
Convierte un viejo móvil en un reloj inteligente con Arduino
Previamente hemos explorado usos alternativos para smartphones y teléfonos móviles, pero la idea de reutilizar sus componentes con el objetivo de crear algo diferente nos arroja de cabeza en el territorio del DIY, y uno de los mejores aliados que podemos encontrar allí es el hardware Arduino. Dicho eso, el portal/canal Tinkernut decidió construir nada menos que un reloj inteligente a partir de un teléfono móvil, y su «sacrificio» fue el inolvidable Nokia 1100.
Lo más probable es que tengas uno o dos teléfonos móviles viejos juntando polvo en un cajón, sin saber exactamente qué hacer con ellos. Radio-reloj, alarma, reproductor de audio… algunas de sus funciones secundarias pueden complementar sin problemas a un smartphone moderno, pero existe otra opción: Ensuciarse las manos, desarmar por completo al móvil, tomar sus partes y hacer algo nuevo. Los modelos populares (o al menos, aquellos que lo fueron en el pasado) tienen la ventaja adicional de una documentación más extendida. Especificaciones exactas, reemplazos y equivalencias, pinouts, todo sirve cuando el plan es transformar al hardware.
El portal Tinkernut, que también cuenta con un canal en
YouTube, publicó un nuevo proyecto dividido en tres partes que convierte
al memorable y robusto Nokia 1100, en un reloj inteligente. Si bien es mucho más complicado de lo que suena, existe un «comodín» en todo el proceso, y es el Arduino Uno.
El primer paso fue utilizar a este hardware como controlador del panel
LCD, y luego se establecieron funciones al nivel de la conectividad
Bluetooth con un smartphone, presentar la fecha y la hora, encender
correctamente el backlight de la pantalla y activar el motor de
vibración. El Arduino Uno sólo puede ser usado a modo de prototipo
debido a su tamaño, y para la versión final, Tinkernut cambió a su
equivalente más compacto, el Pro Mini. La parte del software se vuelve muy avanzada, ya que las imágenes a reproducir en el LCD deben ser transformadas a código con la ayuda de una aplicación.
Lo más probable es que tengas uno o dos teléfonos móviles viejos juntando polvo en un cajón, sin saber exactamente qué hacer con ellos. Radio-reloj, alarma, reproductor de audio… algunas de sus funciones secundarias pueden complementar sin problemas a un smartphone moderno, pero existe otra opción: Ensuciarse las manos, desarmar por completo al móvil, tomar sus partes y hacer algo nuevo. Los modelos populares (o al menos, aquellos que lo fueron en el pasado) tienen la ventaja adicional de una documentación más extendida. Especificaciones exactas, reemplazos y equivalencias, pinouts, todo sirve cuando el plan es transformar al hardware.
La Ley de Moore morirá en 2021
Se trata de la historia de una muerte anunciada, y al mismo
tiempo, uno de los mayores desafíos que deberá enfrentar el mundo de la
informática en la próxima década. La llamada Ley de Moore,
concepto casi mágico que nos permitió duplicar la cantidad de
transistores en un chip cada 24 meses, se está quedando sin aire. El quiebre del tick-tock
por parte de Intel y los retrasos de AMD en la adopción de procesos más
compactos son grandes indicios de ello, pero ahora, tenemos una especie
de «confirmación oficial».
La última tarjeta gráfica de Nvidia, la Titan X, posee un total de 12 mil millones de transistores. Su fabricación está basada en la arquitectura Pascal, que fue creada en un nodo de 16 nanómetros. Los procesadores Skylake de Intel, actualmente disponibles, se encuentran en los 14 nanómetros, y la misma situación se repetirá con Kaby Lake, que rompe de forma efectiva al tick-tock. En promedio, el hardware destinado a dispositivos móviles aún posee una o dos generaciones de ventaja, pero tarde o temprano llegará a niveles similares. El punto es que no podemos seguir añadiendo transistores a un chip sin hacer ciertos compromisos. Eso nos lleva al estado de la Ley de Moore.
La Asociación de la Industria de Semiconductores, formada por Intel, AMD y GlobalFoundries, publicó su llamada «Hoja de Ruta Tecnológica Internacional», cuyo texto sugiere algo que ya considerábamos como inevitable: A partir del año 2021, los transistores dejarán de reducir su tamaño. ¿Por qué 2021? Porque cualquier intento de miniaturización avanzada no tendrá sentido en lo económico para esa época. 2021 también sería el año en el que los primeros chips de 5 nanómetros lleguen al mercado, a menos que aparezca una solución diferente antes. De hecho, datos provenientes de Intel proponen el abandono del silicio a los 7 nanómetros, pero aún con un cambio de material, alcanzaremos un punto en el que el famoso «efecto túnel» impondrá su autoridad.
¿Alternativas? Varias, a decir verdad. La detención del proceso de miniaturización no significa necesariamente una pausa para la cantidad de transistores presentes en un chip. El fabricante de turno puede, en teoría, incrementar la superficie de sus procesadores, explorar diseños tridimensionales, o por qué no regresar al concepto de módulos dedicados y especializados. Por otro lado, sería un error ignorar el potencial de la informática heterogénea, al que muchas compañías ya estudian de cerca. Tal vez el soporte de vida para la Ley de Moore se extienda media década más, sin embargo, nuestro deseo es que ceda su lugar a algo mejor.
Fuente:
http://www.neoteo.com/la-ley-moore-morira-2021
La última tarjeta gráfica de Nvidia, la Titan X, posee un total de 12 mil millones de transistores. Su fabricación está basada en la arquitectura Pascal, que fue creada en un nodo de 16 nanómetros. Los procesadores Skylake de Intel, actualmente disponibles, se encuentran en los 14 nanómetros, y la misma situación se repetirá con Kaby Lake, que rompe de forma efectiva al tick-tock. En promedio, el hardware destinado a dispositivos móviles aún posee una o dos generaciones de ventaja, pero tarde o temprano llegará a niveles similares. El punto es que no podemos seguir añadiendo transistores a un chip sin hacer ciertos compromisos. Eso nos lleva al estado de la Ley de Moore.
La Asociación de la Industria de Semiconductores, formada por Intel, AMD y GlobalFoundries, publicó su llamada «Hoja de Ruta Tecnológica Internacional», cuyo texto sugiere algo que ya considerábamos como inevitable: A partir del año 2021, los transistores dejarán de reducir su tamaño. ¿Por qué 2021? Porque cualquier intento de miniaturización avanzada no tendrá sentido en lo económico para esa época. 2021 también sería el año en el que los primeros chips de 5 nanómetros lleguen al mercado, a menos que aparezca una solución diferente antes. De hecho, datos provenientes de Intel proponen el abandono del silicio a los 7 nanómetros, pero aún con un cambio de material, alcanzaremos un punto en el que el famoso «efecto túnel» impondrá su autoridad.
¿Alternativas? Varias, a decir verdad. La detención del proceso de miniaturización no significa necesariamente una pausa para la cantidad de transistores presentes en un chip. El fabricante de turno puede, en teoría, incrementar la superficie de sus procesadores, explorar diseños tridimensionales, o por qué no regresar al concepto de módulos dedicados y especializados. Por otro lado, sería un error ignorar el potencial de la informática heterogénea, al que muchas compañías ya estudian de cerca. Tal vez el soporte de vida para la Ley de Moore se extienda media década más, sin embargo, nuestro deseo es que ceda su lugar a algo mejor.
Fuente:
http://www.neoteo.com/la-ley-moore-morira-2021
jueves, 28 de julio de 2016
El precio fue clave en la guerra entre Xbox 360 y PS3
Robbie Bach, ex-jefe de la división Xbox en Microsoft, ha comentado en una reciente entrevista que el precio que tuvieron la pasada generación de consolas en su lanzamiento fue clave en la guerra que vivieron Xbox 360 y PS3.
A pesar de que la Xbox original tuvo una buena acogida PS2 arrasó en su generación y se convirtió en una de las consola más vendidas de todos los tiempos (hoy es la más vendida de la historia), un dato que obviamente era más que suficiente para que el gigante de Redmond tuviera dudas sobre sus posibilidades a la hora de hacer frente a PS3.
La diferencia de ventas entre una y otra era grande, pero Microsoft estaba dispuesta a crear un sistema puntero, a la altura de un PC tope de gama de la época y contaba con el apoyo de desarrolladores como Epic.
Al final ambas consolas mostraron una potencia parecida pero la diferencia de precio permitió a Xbox 360 posicionarse como una opción mucho más asequible que PS3, algo que ayudó enormemente a Microsoft en el arranque inicial y que además se vio reforzado por lo flojos que eran los juegos de primera hornada para la consola de Sony.
En su lanzamiento la Xbox 360 más económica costaba 399,99 euros, mientras que PS3 llegó con un precio de 599,99 euros, una diferencia importante como podemos apreciar, y que como anticipamos inclinó la balanza a favor de la primera en muchos mercados.
Desde que vieron el precio de la consola de Sony los de Redmond lo tuvieron claro, ya que según Robbie Bach les parecía un producto “muy caro” y sabían que ello jugaba a su favor. El resto es historia y la misma recoge una victoria de Xbox 360 sobre PS3, ya que la primera ha vendido 86,71 millones de consolas y la segunda 85,44 millones de unidades.
Fuente:
http://www.muycomputer.com/2016/07/27/precio-clave-guerra-xbox-360-ps3
A pesar de que la Xbox original tuvo una buena acogida PS2 arrasó en su generación y se convirtió en una de las consola más vendidas de todos los tiempos (hoy es la más vendida de la historia), un dato que obviamente era más que suficiente para que el gigante de Redmond tuviera dudas sobre sus posibilidades a la hora de hacer frente a PS3.
La diferencia de ventas entre una y otra era grande, pero Microsoft estaba dispuesta a crear un sistema puntero, a la altura de un PC tope de gama de la época y contaba con el apoyo de desarrolladores como Epic.
Al final ambas consolas mostraron una potencia parecida pero la diferencia de precio permitió a Xbox 360 posicionarse como una opción mucho más asequible que PS3, algo que ayudó enormemente a Microsoft en el arranque inicial y que además se vio reforzado por lo flojos que eran los juegos de primera hornada para la consola de Sony.
En su lanzamiento la Xbox 360 más económica costaba 399,99 euros, mientras que PS3 llegó con un precio de 599,99 euros, una diferencia importante como podemos apreciar, y que como anticipamos inclinó la balanza a favor de la primera en muchos mercados.
Desde que vieron el precio de la consola de Sony los de Redmond lo tuvieron claro, ya que según Robbie Bach les parecía un producto “muy caro” y sabían que ello jugaba a su favor. El resto es historia y la misma recoge una victoria de Xbox 360 sobre PS3, ya que la primera ha vendido 86,71 millones de consolas y la segunda 85,44 millones de unidades.
Fuente:
http://www.muycomputer.com/2016/07/27/precio-clave-guerra-xbox-360-ps3
¿Microsoft quiere eliminar Steam con su plataforma UWP?
Tim Sweeney, cofundador del estudio de juegos Epic, ha retomado sus críticas contra la plataforma de aplicaciones universales de Microsoft, (UWP), con la que a su juicio el gigante del software pretende eliminar la competencia de Steam y otras tiendas similares a favor de su Windows Store.
Las críticas de Sweeney no son nuevas pero ahora van más lejos, coincidiendo con la finalización del programa de actualización gratuita a Windows 10 y el lanzamiento de la nueva versión Anniversary.
El gurú gráfico argumenta que Microsoft piensa en la “eliminación” de la interfaz de programación Win32, impulsando el UWP, que como sabes permite el desarrollo de aplicaciones universales, es decir están optimizadas y se ejecutan igual en cualquier dispositivo, smartphones, tablet, PC, Xbox que utilice Windows 10.
Las aplicaciones que quieran incluirse en Windows Store tienen que pasar un proceso de certificación que Microsoft controla. Es una de las críticas de Sweeney pero ocurre en cualquier tienda de apps y si no que se lo digan a los que trabajan con la tienda de Apple, la más restrictiva -con mucho- del mercado.
Phil Spencer, jefe de la división Xbox en Microsoft, respondió en su momento que UWP es un ecosistema abierto, al que puede acceder cualquier desarrollador y que puede tener soporte por parte de cualquier tienda-distribuidora y no solo Windows Store.
MSPowerUser ha tachado a Sweeney de “chalado conspiranoico”, mientras que Ars Technica, ha analizado con bastante más sosiego el tema, aunque la conclusión va por el mismo camino: la aseveración del final de Win32 y de plataformas como Steam son exageradas.
El medio comenta también que el ejecutivo de Epic olvida que UWP está basado en Win32, como un subconjunto aislado pero dentro de la plataforma. No hay posibilidad de eliminar Win32 sin eliminar también todo el ecosistema de aplicaciones universales.
Por otro lado, hay que poner en contexto lo que representa los juegos en Windows. Sweeney critica a Microsoft pensando en su sector que no es otro que el de desarrollo de videojuegos y ciertamente el juego es una parte importante para muchos usuarios y para Windows, principalmente porque las APIs DirectX 12 dominan el mercado.
Sin embargo, los videojuegos siguen siendo un factor pequeño si se compara con todo lo que tiene detrás Windows, especialmente en el mercado empresarial. Muchísimas aplicaciones principales dependen de Win32 comenzando por la propia shell de Windows Explorer, la suite local Office, un montón de aplicaciones profesionales como Photoshop y una enorme cantidad de aplicaciones legado de negocios, que Microsoft sigue soportando precisamente para que Windows siga instalado en más de mil millones de ordenadores.
La idea de que Microsoft realice un autoboicoteado “rompiendo” secretamente el funcionamiento de las aplicaciones Win32, es ridícula, comentan en Ars Technica. De hecho, la empresa está trabajando en todo caso en la dirección opuesta con el Proyecto Centennial, que hace posible que los desarrolladores utilicen la tienda de Windows para vender y mantener sus aplicaciones Win32 existentes sin tener que reescribirlas para usar UWP.
Por supuesto Microsoft quiere impulsar Windows Store pero “si Win32 deja de funcionar correctamente, Windows deja de funcionar correctamente”, concluyen, y eso es algo que Microsoft no se puede permitir. Sweeney no es un “chalado conspiranoico” pero sus críticas son ampliamente exageradas.
Fuente:
http://www.muycomputer.com/2016/07/27/uwp-steam
Las críticas de Sweeney no son nuevas pero ahora van más lejos, coincidiendo con la finalización del programa de actualización gratuita a Windows 10 y el lanzamiento de la nueva versión Anniversary.
El gurú gráfico argumenta que Microsoft piensa en la “eliminación” de la interfaz de programación Win32, impulsando el UWP, que como sabes permite el desarrollo de aplicaciones universales, es decir están optimizadas y se ejecutan igual en cualquier dispositivo, smartphones, tablet, PC, Xbox que utilice Windows 10.
Las aplicaciones que quieran incluirse en Windows Store tienen que pasar un proceso de certificación que Microsoft controla. Es una de las críticas de Sweeney pero ocurre en cualquier tienda de apps y si no que se lo digan a los que trabajan con la tienda de Apple, la más restrictiva -con mucho- del mercado.
Phil Spencer, jefe de la división Xbox en Microsoft, respondió en su momento que UWP es un ecosistema abierto, al que puede acceder cualquier desarrollador y que puede tener soporte por parte de cualquier tienda-distribuidora y no solo Windows Store.
MSPowerUser ha tachado a Sweeney de “chalado conspiranoico”, mientras que Ars Technica, ha analizado con bastante más sosiego el tema, aunque la conclusión va por el mismo camino: la aseveración del final de Win32 y de plataformas como Steam son exageradas.
¿Fin de Win32 para favorecer UWP?
En primer lugar vale la pena recordar que UWP no está vinculada exclusivamente a la tienda de Windows. Cualquier persona puede producir una aplicación universal que se instala y se ejecuta en Windows sin tener que utilizar la tienda de Windows. Incluso si Microsoft eliminara la interfaz de aplicaciones Win32 de alguna manera, ello no sería equivalente a forzar el uso de la tienda de Windows.El medio comenta también que el ejecutivo de Epic olvida que UWP está basado en Win32, como un subconjunto aislado pero dentro de la plataforma. No hay posibilidad de eliminar Win32 sin eliminar también todo el ecosistema de aplicaciones universales.
Por otro lado, hay que poner en contexto lo que representa los juegos en Windows. Sweeney critica a Microsoft pensando en su sector que no es otro que el de desarrollo de videojuegos y ciertamente el juego es una parte importante para muchos usuarios y para Windows, principalmente porque las APIs DirectX 12 dominan el mercado.
Sin embargo, los videojuegos siguen siendo un factor pequeño si se compara con todo lo que tiene detrás Windows, especialmente en el mercado empresarial. Muchísimas aplicaciones principales dependen de Win32 comenzando por la propia shell de Windows Explorer, la suite local Office, un montón de aplicaciones profesionales como Photoshop y una enorme cantidad de aplicaciones legado de negocios, que Microsoft sigue soportando precisamente para que Windows siga instalado en más de mil millones de ordenadores.
La idea de que Microsoft realice un autoboicoteado “rompiendo” secretamente el funcionamiento de las aplicaciones Win32, es ridícula, comentan en Ars Technica. De hecho, la empresa está trabajando en todo caso en la dirección opuesta con el Proyecto Centennial, que hace posible que los desarrolladores utilicen la tienda de Windows para vender y mantener sus aplicaciones Win32 existentes sin tener que reescribirlas para usar UWP.
Por supuesto Microsoft quiere impulsar Windows Store pero “si Win32 deja de funcionar correctamente, Windows deja de funcionar correctamente”, concluyen, y eso es algo que Microsoft no se puede permitir. Sweeney no es un “chalado conspiranoico” pero sus críticas son ampliamente exageradas.
Fuente:
http://www.muycomputer.com/2016/07/27/uwp-steam
Esta imagen deja ver cómo podría ser Nintendo NX
Justo ayer os contábamos que Nintendo NX podría estar potenciada por un SoC Tegra de NVIDIA y volvían los rumores que indicaban que la misma sería una especie de híbrido entre consola de sobremesa y portátil.
Esto sería posible gracias a un diseño que no teníamos nada claro y que una nueva imagen se ha encargado de aclararnos. Como podemos ver tenemos una consola portátil a la que podrían extraerse los controles en forma de dos piezas laterales que posteriormente podríamos unir para “crear” un pequeño mando independiente.
La pantalla quedaría como algo independiente que según varios rumores se podría colocar en una especie de dock para conectarla a una televisión un a un monitor, de manera que funcione como una consola de sobremesa estándar.
Desde luego es un concepto bastante original, aunque a nivel personal no creo que Nintendo vaya a utilizarlo en NX, más que nada por que el resultado final es un mando enano que no creo que pueda llegar a ofrecer una buena experiencia de juego, y eso es precisamente lo que quiere priorizar la gran N.
Por otro lado una consola portátil tendría una potencia demasiado limitada en comparación con las consolas actuales, incluso aunque esté equipada con el SoC Tegra X1 como han apuntado algunos medios que francamente han errado el tiro, ya que dicho SoC cuenta con una GPU Maxwell de 256 shaders que viene a ser similar a una modesta GeForce GT 920MX.
Otra cosa sería que Nintendo se haya asegurado un SoC Tegra de nueva generación, es decir basado en Pascal, cosa que ya apuntamos en la noticia anterior y que ciertamente podría marcar una diferencia muy grande, ya que con esa solución sí podría igualar o quizá superar ligeramente el rendimiento de Xbox One y PS4.
Tampoco podemos descartar la posibilidad de que se opte por una solución en la que el dock de la consola portátil tenga algún tipo de hardware adicional para mejorar su potencia, pero sólo es otro rumor de tantos.
Fuente: http://www.muycomputer.com/2016/07/28/imagen-nintendo-nx
Esto sería posible gracias a un diseño que no teníamos nada claro y que una nueva imagen se ha encargado de aclararnos. Como podemos ver tenemos una consola portátil a la que podrían extraerse los controles en forma de dos piezas laterales que posteriormente podríamos unir para “crear” un pequeño mando independiente.
La pantalla quedaría como algo independiente que según varios rumores se podría colocar en una especie de dock para conectarla a una televisión un a un monitor, de manera que funcione como una consola de sobremesa estándar.
Desde luego es un concepto bastante original, aunque a nivel personal no creo que Nintendo vaya a utilizarlo en NX, más que nada por que el resultado final es un mando enano que no creo que pueda llegar a ofrecer una buena experiencia de juego, y eso es precisamente lo que quiere priorizar la gran N.
Por otro lado una consola portátil tendría una potencia demasiado limitada en comparación con las consolas actuales, incluso aunque esté equipada con el SoC Tegra X1 como han apuntado algunos medios que francamente han errado el tiro, ya que dicho SoC cuenta con una GPU Maxwell de 256 shaders que viene a ser similar a una modesta GeForce GT 920MX.
Otra cosa sería que Nintendo se haya asegurado un SoC Tegra de nueva generación, es decir basado en Pascal, cosa que ya apuntamos en la noticia anterior y que ciertamente podría marcar una diferencia muy grande, ya que con esa solución sí podría igualar o quizá superar ligeramente el rendimiento de Xbox One y PS4.
Tampoco podemos descartar la posibilidad de que se opte por una solución en la que el dock de la consola portátil tenga algún tipo de hardware adicional para mejorar su potencia, pero sólo es otro rumor de tantos.
Fuente: http://www.muycomputer.com/2016/07/28/imagen-nintendo-nx
Así de impresionante es una bombilla de 20.000 vatios
Cuando pensamos en una bombilla estamos acostumbrados a las clásicas que utilizamos en entornos domésticos, y que por lo general buscan ofrecer una iluminación adecuada con un consumo lo más bajo posible.
Sin embargo hay muchos tipos diferentes de bombillas con especificaciones muy dispares en función del uso que se les quiera dar, aunque ninguna es tan impresionante como este modelo de 20.000 vatios.
Sé lo que os estáis preguntando, ¿para qué iba a querer alguien una bombilla de 20.000 vatios? La respuesta es muy sencilla, para simular una iluminación diurna completa, algo que por ejemplo resulta de gran utilidad en el mundo del cine para rodar determinadas escenas.
En el vídeo podemos ver que es necesaria una conexión especial para poder utilizar esta bombilla, y también el enorme chorro de luz que es capaz de emitir.
Como indican en el vídeo esa enorme potencia lumínica no sólo tiene un gran impacto en el consumo, sino que también implica una generación de calor enorme que llega incluso a producir malestar en el autor, quien llega a decir que es casi como tener una hoguera en la habitación.
Desde luego es una solución dirigida a un público muy concreto, y no sólo por lo que hemos expuesto, sino también por el precio ya que ronda los 3.000 dólares.
Fuente:
http://www.muycomputer.com/2016/07/27/bombilla-20-000-vatios
domingo, 24 de julio de 2016
SunZilla: Generador solar DIY y open source
La idea de desarrollar nuestra propia solución de energía solar
no es nueva que digamos, y en la mayoría de los casos, cada proyecto se
ajusta a necesidades personales, disponibilidad de materiales, y
lógicamente, presupuesto. Sin embargo, el proyecto SunZilla busca colocar una capa de open source
a esta clase de desarrollos, a través de un sistema compacto, plegable,
bastante portátil, basado en hardware genérico, y con un relativo bajo
costo (menos de 1.100 euros).
Se trata de un objetivo superior para cualquiera que busque reducir su dependencia sobre fuentes de energía tradicionales, o que decida vivir sin sufrir los clásicos «dolores de infraestructura». Colocar paneles solares en un techo o un jardín tiene sus beneficios, pero el «punto de entrada» suele ubicarse muy alto, con inversiones de cinco dígitos que no todos pueden enfrentar. En algunas regiones, las distribuidoras de energía financian una parte de la instalación, aunque eso está cambiando. Un ejemplo crítico es el de Nevada, estado en donde se aprobó una nueva serie de tasas que en esencia aniquilaron a la industria solar local, y dejó a los potenciales consumidores sin opciones. Varios medios ya hablan de una «guerra» entre las distribuidoras convencionales y aquellos decididos a instalar su propia solución solar, y por más obstáculos que aparezcan a nivel legal y/o burocrático, la gente está dispuesta a cambiar, mientras el mercado responde con componentes cada vez más económicos.
Dicho eso, nunca está mal explorar las alternativas DIY existentes, y una que ganó tracción en los últimos días es SunZilla.
De acuerdo al perfil oficial del proyecto en el portal Instructables,
SunZilla alcanzó la versión 3.0. El sistema es plegable, posee un grado
de portabilidad mucho más alto del que imaginábamos, es fácil de
instalar y retirar (dos personas pueden reducir el proceso a unos pocos minutos),
utiliza elementos estandarizados con buena disponibilidad en el
mercado, y lo más interesante es que casi todos los aspectos de su
construcción fueron publicados en línea sin cargo y de forma abierta, bajo la licencia Open Hardware del CERN. Algunos detalles del SunZilla
todavía deben ser liberados, como es el caso del software destinado a
visualización y mecanismos de control, pero calculo que no será
necesario esperar demasiado.
¿Qué puede hacer el SunZilla con exactitud? Si seguimos los datos de su modelo de referencia, SunZilla 3.0 desarrolla una potencia solar pico de 140 vatios, mientras que su capacidad de almacenamiento es de unos 600 vatios-hora. La salida máxima de corriente alterna a través del inverter es de unos 350 vatios, suficiente para cargar aproximadamente 30 smartphones al mismo tiempo. De más está decirlo, el diseño modular del SunZilla permite expandir o reducir su capacidad a voluntad, modificando la cantidad de paneles y/o baterías.
Fuente:
http://www.neoteo.com/sunzilla-generador-solar-diy-open-source
Se trata de un objetivo superior para cualquiera que busque reducir su dependencia sobre fuentes de energía tradicionales, o que decida vivir sin sufrir los clásicos «dolores de infraestructura». Colocar paneles solares en un techo o un jardín tiene sus beneficios, pero el «punto de entrada» suele ubicarse muy alto, con inversiones de cinco dígitos que no todos pueden enfrentar. En algunas regiones, las distribuidoras de energía financian una parte de la instalación, aunque eso está cambiando. Un ejemplo crítico es el de Nevada, estado en donde se aprobó una nueva serie de tasas que en esencia aniquilaron a la industria solar local, y dejó a los potenciales consumidores sin opciones. Varios medios ya hablan de una «guerra» entre las distribuidoras convencionales y aquellos decididos a instalar su propia solución solar, y por más obstáculos que aparezcan a nivel legal y/o burocrático, la gente está dispuesta a cambiar, mientras el mercado responde con componentes cada vez más económicos.
¿Qué puede hacer el SunZilla con exactitud? Si seguimos los datos de su modelo de referencia, SunZilla 3.0 desarrolla una potencia solar pico de 140 vatios, mientras que su capacidad de almacenamiento es de unos 600 vatios-hora. La salida máxima de corriente alterna a través del inverter es de unos 350 vatios, suficiente para cargar aproximadamente 30 smartphones al mismo tiempo. De más está decirlo, el diseño modular del SunZilla permite expandir o reducir su capacidad a voluntad, modificando la cantidad de paneles y/o baterías.
Fuente:
http://www.neoteo.com/sunzilla-generador-solar-diy-open-source
Super Ventilagon: Super Hexagon con Arduino y un ventilador
Sí, entiendo que el título tal vez no tenga sentido alguno, pero vamos por partes: Super Hexagon fue uno de los mejores juegos del año 2012, y por supuesto, uno de los mejores que puedes comprar hoy. El grupo «Club del Jaqueo» estacionado en Buenos Aires decidió llevar al concepto del Super Hexagon un paso más allá y creó a «Super Ventilagon», una variante basada en Arduino que utiliza un ventilador encendido como pantalla principal. ¿Quieres hacer uno? Cuidado con los dedos…
Super Hexagon debutó en la plataforma iOS el 31 de agosto de 2012. En menos de un año alcanzó a Windows, Linux, OS X, Android y BB10, convirtiéndose así en uno de los títulos más populares. Incluso llegó a la final de la edición 2013 del Independent Games Festival, donde perdió contra otro gigante, FTL: Faster Than Light. Su precio oficial en Steam y la página oficial es de unos tres dólares, aunque el ojo entrenado logrará encontrarlo a la mitad de ese valor, haciendo uso de ofertas y cupones. Ahora, la experiencia original es muy buena, ¿pero qué tal si fabricas a tu propio Super Hexagon, de un modo completamente diferente? Sí, el verbo es fabricar, porque este clon del Super Hexagon, no se juega sobre un ordenador.
Super Ventilagon es un proyecto creado por el grupo «Club del Jaqueo», en la ciudad de Buenos Aires. El código del título en sí es almacenado en un pequeño Arduino Nano, que a su vez tiene conectada una serie de 32 LEDs en línea. Los LEDs funcionan a modo de «pantalla», pero requieren un poco de ayuda, la cual llega a través de un ventilador.
Tanto el Arduino como los LEDs y la batería son acoplados a la hélice
del ventilador que gira a mil revoluciones por minuto. La apariencia
sólida de la «pantalla» se logra con un sensor de efecto Hall
que mide la velocidad de rotación del ventilador, y permite a los LEDs
parpadear del modo apropiado para dar forma a la ilusión óptica.
Toda la documentación que necesitamos en la construcción del Super Ventilagon se encuentra disponible en un repositorio dentro de GitHub, y como siempre en estos casos, cualquiera puede modificar el código a gusto. Tal vez la única limitación de Super Ventilagon sea que no reproduce las formas hexagonales del juego original, sin embargo… para eso «está» el juego original, ¿no? Si tienes un Arduino a la mano y sobra un ventilador en la casa, ¿qué esperas?
Fuente:
http://www.neoteo.com/super-ventilagon-super-hexagon-arduino-ventilador
Super Hexagon debutó en la plataforma iOS el 31 de agosto de 2012. En menos de un año alcanzó a Windows, Linux, OS X, Android y BB10, convirtiéndose así en uno de los títulos más populares. Incluso llegó a la final de la edición 2013 del Independent Games Festival, donde perdió contra otro gigante, FTL: Faster Than Light. Su precio oficial en Steam y la página oficial es de unos tres dólares, aunque el ojo entrenado logrará encontrarlo a la mitad de ese valor, haciendo uso de ofertas y cupones. Ahora, la experiencia original es muy buena, ¿pero qué tal si fabricas a tu propio Super Hexagon, de un modo completamente diferente? Sí, el verbo es fabricar, porque este clon del Super Hexagon, no se juega sobre un ordenador.
Toda la documentación que necesitamos en la construcción del Super Ventilagon se encuentra disponible en un repositorio dentro de GitHub, y como siempre en estos casos, cualquiera puede modificar el código a gusto. Tal vez la única limitación de Super Ventilagon sea que no reproduce las formas hexagonales del juego original, sin embargo… para eso «está» el juego original, ¿no? Si tienes un Arduino a la mano y sobra un ventilador en la casa, ¿qué esperas?
Fuente:
http://www.neoteo.com/super-ventilagon-super-hexagon-arduino-ventilador
Observa a este fabuloso mod de Raspberry Pi… ¡en un Game Boy!
Pokémon GO conquista el mundo, Nintendo anuncia una versión mini de la histórica consola NES… como decía el amigo Freddy, ¿esto es la vida real, o sólo una fantasía? Mientras tratamos de buscar la respuesta, ahora nos encontramos con este espectacular mod de Game Boy que incorpora un Raspberry Pi Zero, una nueva pantalla LCD, algunos PCBs hechos a medida, y la posibilidad de jugar casi a lo que sea, cortesía de RetroPie.
Si sientes que Nintendo ha hecho temblar el piso en estas últimas semanas, la verdad es que no eres el único. Primero encontramos al éxito espectacular de Pokémon GO, que a pesar de algunos detalles sobre la privacidad y la recolección de datos, no deja de ganar usuarios alrededor del mundo. Después llegó el anuncio de la consola Nintendo Classic Mini, con treinta juegos, salida HDMI, un gamepad clásico, y unos razonables 60 dólares de precio. Básicamente, se trata de «dos dólares por juego y el hardware viene de obsequio», y aunque Nintendo dijo que esos treinta juegos son todos los que recibirá la consola, será cuestión de tiempo para que alguien comience a hackear su hardware. Y hablando de hackear, modificar y trasplantar hardware, observen lo que el usuario «elliptic_hyperboloid» de Reddit hizo con una Game Boy (quiero asumir «dañado y más allá de toda reparación»), y un Raspberry Pi Zero:
Aquellos que seguimos de cerca al mundo del DIY sabemos que esta modificación no es la primera de su clase. El usuario «bentika», también de Reddit, hizo una modificación muy similar tres o cuatro meses atrás, y «elliptic_hyperboloid» admite que tomó a ese proyecto como inspiración para su mod. Además del Raspberry Pi Zero, esto requiere una pantalla LCD de 3.5 pulgadas disponible en eBay, que en teoría funciona a 12 voltios (usualmente se instala en los tableros de los coches), pero que puede bajar a 7.5-8 voltios sin problemas, o a 5 voltios haciendo un puente en su controladora. Múltiples alteraciones a la carcasa, un PCB especial que se instala justo debajo de los botones de la Game Boy, cuatro botones adicionales y mucho pegamento terminan de dar forma a esta maravilla.
El «punto débil» del mod probablemente sea usar dos baterías de teléfono móvil conectadas en paralelo. Si bien no es algo «muy» peligroso, imagino que podría ser actualizado con una solución más integral y completa. Una vez que el Raspberry Pi Zero está activo, el resto del trabajo queda en manos de RetroPie, por lo tanto, la plataforma Game Boy pasa a ser apenas una entrada dentro de una amplia lista de emulaciones. Pokémon GO me sabrá disculpar, y mentiría si digo que no quiero un NES Classic Mini, pero este mod de Game Boy es genial.
Fuente:
http://www.neoteo.com/observa-este-fabuloso-mod-raspberry-pi-game-boy
Si sientes que Nintendo ha hecho temblar el piso en estas últimas semanas, la verdad es que no eres el único. Primero encontramos al éxito espectacular de Pokémon GO, que a pesar de algunos detalles sobre la privacidad y la recolección de datos, no deja de ganar usuarios alrededor del mundo. Después llegó el anuncio de la consola Nintendo Classic Mini, con treinta juegos, salida HDMI, un gamepad clásico, y unos razonables 60 dólares de precio. Básicamente, se trata de «dos dólares por juego y el hardware viene de obsequio», y aunque Nintendo dijo que esos treinta juegos son todos los que recibirá la consola, será cuestión de tiempo para que alguien comience a hackear su hardware. Y hablando de hackear, modificar y trasplantar hardware, observen lo que el usuario «elliptic_hyperboloid» de Reddit hizo con una Game Boy (quiero asumir «dañado y más allá de toda reparación»), y un Raspberry Pi Zero:
Aquellos que seguimos de cerca al mundo del DIY sabemos que esta modificación no es la primera de su clase. El usuario «bentika», también de Reddit, hizo una modificación muy similar tres o cuatro meses atrás, y «elliptic_hyperboloid» admite que tomó a ese proyecto como inspiración para su mod. Además del Raspberry Pi Zero, esto requiere una pantalla LCD de 3.5 pulgadas disponible en eBay, que en teoría funciona a 12 voltios (usualmente se instala en los tableros de los coches), pero que puede bajar a 7.5-8 voltios sin problemas, o a 5 voltios haciendo un puente en su controladora. Múltiples alteraciones a la carcasa, un PCB especial que se instala justo debajo de los botones de la Game Boy, cuatro botones adicionales y mucho pegamento terminan de dar forma a esta maravilla.
El «punto débil» del mod probablemente sea usar dos baterías de teléfono móvil conectadas en paralelo. Si bien no es algo «muy» peligroso, imagino que podría ser actualizado con una solución más integral y completa. Una vez que el Raspberry Pi Zero está activo, el resto del trabajo queda en manos de RetroPie, por lo tanto, la plataforma Game Boy pasa a ser apenas una entrada dentro de una amplia lista de emulaciones. Pokémon GO me sabrá disculpar, y mentiría si digo que no quiero un NES Classic Mini, pero este mod de Game Boy es genial.
Fuente:
http://www.neoteo.com/observa-este-fabuloso-mod-raspberry-pi-game-boy
Videocasetera Q.E.P.D.: El último fabricante de videocaseteras finaliza su producción
La tecnología VCR tiene más de cuarenta años
sobre sus hombros, y a pesar de que surgieron varios formatos
superiores, todavía quedaba un fabricante dispuesto a desafiar el paso
del tiempo: Funai Electric. Finalmente, la caída en las
ventas de dispositivos y las dificultades para obtener componentes de
calidad provocaron que Funai tome la decisión de abandonar la producción de videocaseteras luego de treinta años sin interrupciones.
La última videocasetera que pasó por mis manos terminó desarmada para obtener la fuente de alimentación y algunos motores, mientras que en otro artículo mencioné que no quedó ni un solo VHS en mi casa. También tuve mi dosis de nostalgia al escuchar música en cassette… la cual duró menos de media hora, después de que el viejo equipo de audio se comiera la cinta y me hiciera recordar esos rituales de mantenimiento que debíamos hacer. Ahora, todos sabemos que los respaldos en cinta son muy apreciados en entornos profesionales, y esta descripción incluye tanto a radios y canales de televisión como servidores de almacenamiento profundo. Sin embargo, lo que nos tomó por sorpresa fue descubrir que aún quedaba un fabricante produciendo videocaseteras compatibles con el formato VHS. Los equipos Betamax vieron su fin en 2002, pero Sony interrumpió la fabricación de cintas en noviembre del año pasado. Todo esto sucedió en Japón, y hacia allá nos lleva la noticia.
El nombre de la compañía es Funai Electric, que posee licencias en los Estados Unidos de marcas como Magnavox, Sylvania y Philips, y además fabrica impresoras Lexmark. El breve anuncio fue publicado por el portal Nikkei, y destaca que Funai era el último fabricante comercializando dicha tecnología, después de que otros gigantes de la electrónica como Panasonic interrumpieran sus líneas de producción mucho tiempo atrás. La razón principal detrás de esta decisión parece ser la creciente dificultad para obtener componentes apropiados, y aunque se hace mención a un volumen de ventas cada vez menor, lo cierto es que en 2015 Funai vendió 750 mil videocaseteras, un número mucho más grande del que hubiéramos imaginado.
Por supuesto, ese volumen palidece frente a las 15 millones de unidades anuales que Funai vendió durante la era dorada del VHS. Otro detalle muy curioso es que el fin de las videocaseteras llega con el avance de las cintas VHS como material de colección. Existen reportes de películas muy raras, en especial aquellas pertenecientes al género del horror, que ya alcanzan los cuatro dígitos. En lo personal, reconozco que las videocaseteras son dispositivos muy complejos y una fabulosa demostración de ingeniería… pero las ventajas de los formatos modernos son demasiado grandes. Entre la humedad que arruinaba cintas y la lucha con el tracking, sinceramente no me gustaría volver a eso.
Fuente:
http://www.neoteo.com/videocasetera-q-e-p-d-ultimo-fabricante-videocaseteras-finaliza-produccion
La última videocasetera que pasó por mis manos terminó desarmada para obtener la fuente de alimentación y algunos motores, mientras que en otro artículo mencioné que no quedó ni un solo VHS en mi casa. También tuve mi dosis de nostalgia al escuchar música en cassette… la cual duró menos de media hora, después de que el viejo equipo de audio se comiera la cinta y me hiciera recordar esos rituales de mantenimiento que debíamos hacer. Ahora, todos sabemos que los respaldos en cinta son muy apreciados en entornos profesionales, y esta descripción incluye tanto a radios y canales de televisión como servidores de almacenamiento profundo. Sin embargo, lo que nos tomó por sorpresa fue descubrir que aún quedaba un fabricante produciendo videocaseteras compatibles con el formato VHS. Los equipos Betamax vieron su fin en 2002, pero Sony interrumpió la fabricación de cintas en noviembre del año pasado. Todo esto sucedió en Japón, y hacia allá nos lleva la noticia.
El nombre de la compañía es Funai Electric, que posee licencias en los Estados Unidos de marcas como Magnavox, Sylvania y Philips, y además fabrica impresoras Lexmark. El breve anuncio fue publicado por el portal Nikkei, y destaca que Funai era el último fabricante comercializando dicha tecnología, después de que otros gigantes de la electrónica como Panasonic interrumpieran sus líneas de producción mucho tiempo atrás. La razón principal detrás de esta decisión parece ser la creciente dificultad para obtener componentes apropiados, y aunque se hace mención a un volumen de ventas cada vez menor, lo cierto es que en 2015 Funai vendió 750 mil videocaseteras, un número mucho más grande del que hubiéramos imaginado.
Por supuesto, ese volumen palidece frente a las 15 millones de unidades anuales que Funai vendió durante la era dorada del VHS. Otro detalle muy curioso es que el fin de las videocaseteras llega con el avance de las cintas VHS como material de colección. Existen reportes de películas muy raras, en especial aquellas pertenecientes al género del horror, que ya alcanzan los cuatro dígitos. En lo personal, reconozco que las videocaseteras son dispositivos muy complejos y una fabulosa demostración de ingeniería… pero las ventajas de los formatos modernos son demasiado grandes. Entre la humedad que arruinaba cintas y la lucha con el tracking, sinceramente no me gustaría volver a eso.
Fuente:
http://www.neoteo.com/videocasetera-q-e-p-d-ultimo-fabricante-videocaseteras-finaliza-produccion
lunes, 18 de julio de 2016
Tim Sweeney: necesitaremos 40 TFLOPs para juegos fotorrealistas
La calidad gráfica de los videojuegos ha experimentado un enorme crecimiento, tanto que muchos creen que estamos muy cerca de conseguir juegos fotorrealistas, pero eso es en realidad una verdad a medias, al menos según la opinión de Tim Sweeney, fundador de Epic.
En una reciente entrevista el ejecutivo de la compañía responsable del Unreal Engine ha comentado que actualmente disponemos de la tecnología necesaria para renderizar escenas fotorrealistas, pero sólo de carácter estático, sin personajes que intenten simular la realidad humana y sin iluminación dinámica.
Para poder superar esas limitaciones e incluir todos los elementos que hemos dejado fuera en el párrafo anterior Tim Sweeney cree que harán falta unos 40 TFLOPs aproximadamente, una potencia enorme que desde luego se nos antoja muy lejana, y para muestra un botón.
Una solución tan potente como la Radeon Pro Duo apenas supera los 16 TERAFLOPs, y hablamos de una solución gráfica con doble GPU. Por su parte la GTX 1080, la tarjeta gráfica monoGPU más potente del momento, roza los 8,9 TERAFLOPs de potencia.
Más datos de interés que nos permitirán entender mejor lo lejos que todavía estamos del número que propone Tim Sweeney, PS4 tiene una GPU capaz de conseguir 1,84 TERAFLOPs y PS4 NEO rondará los 4,5 TERAFLOPs, mientras que Xbox Scorpio podría superar los 6 TERAFLOPs.
¿Y por qué esta enorme diferencia entre escenas con simulación humana y sin ella? Pues porque recrear humanos “realistas” es enormemente complejo, tal y como indica Sweeney, y no sólo por detalles como las expresiones faciales y las emociones, sino también por todo el trabajo y la potencia que consumirían las reacciones y los comportamientos interactivos, realistas y “no enlatados”, es decir, no basados en patrones predefinidos, sino que resulten totalmente dinámicos.
Queda claro que todavía faltan unas cuantas generaciones para llegar a ese punto, pero me permito la licencia de haceros una pregunta interesante, ¿realmente queremos o necesitamos gráficos fotorrealistas?
Fuente:
http://www.muycomputer.com/2016/07/17/tim-sweeney-40-tflops-juegos-fotorrealistas
En una reciente entrevista el ejecutivo de la compañía responsable del Unreal Engine ha comentado que actualmente disponemos de la tecnología necesaria para renderizar escenas fotorrealistas, pero sólo de carácter estático, sin personajes que intenten simular la realidad humana y sin iluminación dinámica.
Para poder superar esas limitaciones e incluir todos los elementos que hemos dejado fuera en el párrafo anterior Tim Sweeney cree que harán falta unos 40 TFLOPs aproximadamente, una potencia enorme que desde luego se nos antoja muy lejana, y para muestra un botón.
Una solución tan potente como la Radeon Pro Duo apenas supera los 16 TERAFLOPs, y hablamos de una solución gráfica con doble GPU. Por su parte la GTX 1080, la tarjeta gráfica monoGPU más potente del momento, roza los 8,9 TERAFLOPs de potencia.
Más datos de interés que nos permitirán entender mejor lo lejos que todavía estamos del número que propone Tim Sweeney, PS4 tiene una GPU capaz de conseguir 1,84 TERAFLOPs y PS4 NEO rondará los 4,5 TERAFLOPs, mientras que Xbox Scorpio podría superar los 6 TERAFLOPs.
¿Y por qué esta enorme diferencia entre escenas con simulación humana y sin ella? Pues porque recrear humanos “realistas” es enormemente complejo, tal y como indica Sweeney, y no sólo por detalles como las expresiones faciales y las emociones, sino también por todo el trabajo y la potencia que consumirían las reacciones y los comportamientos interactivos, realistas y “no enlatados”, es decir, no basados en patrones predefinidos, sino que resulten totalmente dinámicos.
Queda claro que todavía faltan unas cuantas generaciones para llegar a ese punto, pero me permito la licencia de haceros una pregunta interesante, ¿realmente queremos o necesitamos gráficos fotorrealistas?
Fuente:
http://www.muycomputer.com/2016/07/17/tim-sweeney-40-tflops-juegos-fotorrealistas
ARM Holdings confirma su venta a Softbank por una millonada
ARM Holdings, el diseñador de chips británico que monopoliza el mercado de la movilidad, ha confirmado su venta al grupo Softbank por 23.400 millones de libras (27.980 millones de euros), tras pagar una prima del 43 por ciento sobre su valor de cotización.
Es la mayor adquisición de la historia de una empresa europea de tecnología y no es para menos, ARM Holdings es la verdadera joya de la corona británica. Lo que comenzó en 1990 como una empresa conjunta de Acorn, Apple y VLSI, se ha convertido en un referente en el sector tecnológico.
ARM Holdings es una compañía relativamente pequeña en volumen de negocio y beneficios que, ni vende, ni distribuye, ni fabrica producto alguno en el sector de semiconductores y que aún así ha puesto contra las cuerdas en movilidad a todo un gigante como Intel. Hace unos meses, Intel canceló los chipsets Atom Mobile de las series Broxton and SoFIA, tirando la toalla frente a ARM y virtualmente saliendo del mercado del smartphone y tablet básico.
Su base de negocio es el diseño de chips con arquitectura RISC. ‘Solo’ los diseña pero vende las licencias (actualmente más de 1.000 licencias) a varias decenas de fabricantes, entre los que se encuentran los mayores productores mundiales de chips móviles como Qualcomm, AlWinner, TI, MediaTek, Samsung o NVIDIA, y también a grandes tecnológicas como Apple que necesita millones de chips para sus dispositivos.
Junto a su modelo de licencias, un ratio potencia/consumo/precio sobresaliente es la base del éxito de los chips de ARM Holdings. Solo una cifra ilustra la situación: El mercado puede construir 4.000 millones de chips trimestrales bajo los diseños de esta compañía.
La compra de ARM debe colocarlo como proveedor clave en la industria de la telefonía móvil y también en otros sectores como wearables o la Internet de las Cosas, porque el alcance de los diseños de la firma británica se extiende por múltiples segmentos, incluidos un probable salto al mercado del PC.
A nivel de usuario no debe afectarnos esta operación corporativa que se rumoreaba desde hace años aunque los potenciales compradores eran otros y se hablaba de Apple como el principal interesado, además de Samsung o Qualcomm.
Fuente:
http://www.muycomputer.com/2016/07/18/arm-holdings-softbank
Es la mayor adquisición de la historia de una empresa europea de tecnología y no es para menos, ARM Holdings es la verdadera joya de la corona británica. Lo que comenzó en 1990 como una empresa conjunta de Acorn, Apple y VLSI, se ha convertido en un referente en el sector tecnológico.
ARM Holdings es una compañía relativamente pequeña en volumen de negocio y beneficios que, ni vende, ni distribuye, ni fabrica producto alguno en el sector de semiconductores y que aún así ha puesto contra las cuerdas en movilidad a todo un gigante como Intel. Hace unos meses, Intel canceló los chipsets Atom Mobile de las series Broxton and SoFIA, tirando la toalla frente a ARM y virtualmente saliendo del mercado del smartphone y tablet básico.
Su base de negocio es el diseño de chips con arquitectura RISC. ‘Solo’ los diseña pero vende las licencias (actualmente más de 1.000 licencias) a varias decenas de fabricantes, entre los que se encuentran los mayores productores mundiales de chips móviles como Qualcomm, AlWinner, TI, MediaTek, Samsung o NVIDIA, y también a grandes tecnológicas como Apple que necesita millones de chips para sus dispositivos.
Junto a su modelo de licencias, un ratio potencia/consumo/precio sobresaliente es la base del éxito de los chips de ARM Holdings. Solo una cifra ilustra la situación: El mercado puede construir 4.000 millones de chips trimestrales bajo los diseños de esta compañía.
¿Qué pasará ahora con ARM Holdings?
ARM seguirá funcionando de forma independiente bajo el paraguas de Softbank, un grupo que opera una operadora de telefonía en Japón aunque es bien conocido como inversor en todo tipo de empresas de tecnología y tiene activos de Sprint, Yahoo! o Alibaba. El grupo pretende realizar inversiones adicionales incluyendo la duplicación del número de empleados en el Reino Unido (4.000) durante los próximos cinco años y dice que, “mantendrá la cultura y el modelo de negocio único de ARM”.La compra de ARM debe colocarlo como proveedor clave en la industria de la telefonía móvil y también en otros sectores como wearables o la Internet de las Cosas, porque el alcance de los diseños de la firma británica se extiende por múltiples segmentos, incluidos un probable salto al mercado del PC.
A nivel de usuario no debe afectarnos esta operación corporativa que se rumoreaba desde hace años aunque los potenciales compradores eran otros y se hablaba de Apple como el principal interesado, además de Samsung o Qualcomm.
Fuente:
http://www.muycomputer.com/2016/07/18/arm-holdings-softbank
La fibra óptica para telecomunicaciones cumple 50 años
Esta semana se celebra el 50 aniversario del comunicado de Sir Charles Kuen Kao a la Asociación Británica para el Avance de la Ciencia, que abrió el desarrollo de la fibra óptica en telecomunicaciones.
Kao, considerado el “padre de la comunicación por fibra óptica” y premiado por ello con el Nobel de Física en 2009, propuso el uso de fibras de vidrio y de luz en lugar de electricidad y conductores metálicos, para la transmisión de mensajes telefónicos.
Fue el comienzo de una revolución que llega hasta nuestros días si bien el uso de la luz solar para transmitir información ya era utilizado de forma rudimentario por los antiguos griegos. En el siglo 18, un investigador francés diseñó un sistema de telegrafía óptica que permitía enviar un mensaje a 200 kilómetros en 16 minutos utilizando un código, torres y espejos. En 1840, fue demostrado el principio que posibilita la fibra óptica (confinamiento de la luz por refracción) y en 1870 se descubrió que la luz podía viajar dentro del agua, curvándose por reflexión interna.
Fueron los inicios aunque la fibra óptica para telecomunicaciones no interesó verdaderamente a los investigadores hasta 1950, cuando se empezó a utilizar filamentos delgados como el cabello que transportaban luz a distancias cortas. El gran problema es que la luz perdía hasta el 99 % de su intensidad al atravesar distancias de hasta 9 metros de fibra.
Charles Kuen Kao se ocupó de este problema en su tesis doctoral y estimó que las máximas pérdidas admisibles para que resultara práctica en enlaces de comunicaciones sería de 20 decibelios por kilómetro. La propuesta de julio de 1966 constituyó la base para reducir las pérdidas de las señales ópticas que por entonces no permitían el aprovechamiento de esta tecnología.
Los estudios de Kao permitieron avanzar en el uso de nuevos materiales y técnicas de fabricación y en la década de los 70 ya se consiguieron pérdidas de tan solo 0,5 dB/km, mientras que en abril de 1977, General Telephone and Electronics envió la primera transmisión telefónica a través de fibra óptica, en 6 Mbit/s.
El primer enlace transoceánico con fibra óptica fue el TAT-8 que comenzó a operar en 1988 y a partir de ahí el uso de la fibra óptica para telecomunicaciones ha sido fundamental para llegar a la era de la conectividad total en la que nos encontramos. Mucho le debemos a la propuesta del “padre de la comunicación por fibra óptica” de la que se cumplen 50 años.
Fuente:
http://www.muycomputer.com/2016/07/18/fibra-optica-telecomunicaciones
Kao, considerado el “padre de la comunicación por fibra óptica” y premiado por ello con el Nobel de Física en 2009, propuso el uso de fibras de vidrio y de luz en lugar de electricidad y conductores metálicos, para la transmisión de mensajes telefónicos.
Fue el comienzo de una revolución que llega hasta nuestros días si bien el uso de la luz solar para transmitir información ya era utilizado de forma rudimentario por los antiguos griegos. En el siglo 18, un investigador francés diseñó un sistema de telegrafía óptica que permitía enviar un mensaje a 200 kilómetros en 16 minutos utilizando un código, torres y espejos. En 1840, fue demostrado el principio que posibilita la fibra óptica (confinamiento de la luz por refracción) y en 1870 se descubrió que la luz podía viajar dentro del agua, curvándose por reflexión interna.
Fueron los inicios aunque la fibra óptica para telecomunicaciones no interesó verdaderamente a los investigadores hasta 1950, cuando se empezó a utilizar filamentos delgados como el cabello que transportaban luz a distancias cortas. El gran problema es que la luz perdía hasta el 99 % de su intensidad al atravesar distancias de hasta 9 metros de fibra.
Charles Kuen Kao se ocupó de este problema en su tesis doctoral y estimó que las máximas pérdidas admisibles para que resultara práctica en enlaces de comunicaciones sería de 20 decibelios por kilómetro. La propuesta de julio de 1966 constituyó la base para reducir las pérdidas de las señales ópticas que por entonces no permitían el aprovechamiento de esta tecnología.
Los estudios de Kao permitieron avanzar en el uso de nuevos materiales y técnicas de fabricación y en la década de los 70 ya se consiguieron pérdidas de tan solo 0,5 dB/km, mientras que en abril de 1977, General Telephone and Electronics envió la primera transmisión telefónica a través de fibra óptica, en 6 Mbit/s.
El primer enlace transoceánico con fibra óptica fue el TAT-8 que comenzó a operar en 1988 y a partir de ahí el uso de la fibra óptica para telecomunicaciones ha sido fundamental para llegar a la era de la conectividad total en la que nos encontramos. Mucho le debemos a la propuesta del “padre de la comunicación por fibra óptica” de la que se cumplen 50 años.
Fuente:
http://www.muycomputer.com/2016/07/18/fibra-optica-telecomunicaciones
Especificaciones de los Intel Skylake X y Kaby Lake X
Una filtración originada en un medio chino nos deja ver las
especificaciones base que tendrán los procesadores Skylake X y Kaby Lake
X, próximos tope de gama de Intel que como sabemos marcan un tock cada uno dentro de la estrategia actual “tick-tock-tock” del gigante del chip.
Según nos cuentan ambos procesadores se comercializarán simultáneamente, es decir al mismo tiempo y sobre la misma plataforma, algo que sin duda es muy interesante ya que con esto y las especificaciones que vemos todo parece indicar que Kaby Lake X sería como la “gama básica de entrada” y Skylake X sería el tope de gama, siempre teniendo en cuenta de que hablamos del nuevo socket LGA2066 de Intel.
Dicho socket es el sucesor del actual LGA2011-v3, que como sabemos se utiliza para sustentar los procesadores de gama “extrema” de Intel, que en esencia son aquellos que tienen más de cuatro núcleos.
Entrando a ver la imagen filtrada podemos sacar en claro que Kaby Lake X tendría cuatro núcleos, probablemente a una alta frecuencia de trabajo, algo que intuimos comparando su TDP con el de los procesadores Kaby Lake S.
Por su parte Skylake X tendría versiones de seis, ocho y diez núcleos, el mismo conteo que encontramos en los modelos actuales Broadwell-E, pero al ser un “tock” con respecto a aquél ofrecerán un incremento de rendimiento incluso con la misma frecuencia y con los mismos núcleos.
No tenemos detalles exactos sobre la frecuencia de trabajo de estos procesadores, pero todos deberían contar con la tecnología HyperThreading y sumar dos hilos por cada núcleo físico.
Fuente:
http://www.muycomputer.com/2016/07/18/especificaciones-intel-skylake-x-kaby-lake-x
Según nos cuentan ambos procesadores se comercializarán simultáneamente, es decir al mismo tiempo y sobre la misma plataforma, algo que sin duda es muy interesante ya que con esto y las especificaciones que vemos todo parece indicar que Kaby Lake X sería como la “gama básica de entrada” y Skylake X sería el tope de gama, siempre teniendo en cuenta de que hablamos del nuevo socket LGA2066 de Intel.
Dicho socket es el sucesor del actual LGA2011-v3, que como sabemos se utiliza para sustentar los procesadores de gama “extrema” de Intel, que en esencia son aquellos que tienen más de cuatro núcleos.
Entrando a ver la imagen filtrada podemos sacar en claro que Kaby Lake X tendría cuatro núcleos, probablemente a una alta frecuencia de trabajo, algo que intuimos comparando su TDP con el de los procesadores Kaby Lake S.
Por su parte Skylake X tendría versiones de seis, ocho y diez núcleos, el mismo conteo que encontramos en los modelos actuales Broadwell-E, pero al ser un “tock” con respecto a aquél ofrecerán un incremento de rendimiento incluso con la misma frecuencia y con los mismos núcleos.
No tenemos detalles exactos sobre la frecuencia de trabajo de estos procesadores, pero todos deberían contar con la tecnología HyperThreading y sumar dos hilos por cada núcleo físico.
Fuente:
http://www.muycomputer.com/2016/07/18/especificaciones-intel-skylake-x-kaby-lake-x
domingo, 17 de julio de 2016
Ben Heck desmonta y nos muestra la Super Nintendo PlayStation CD
El reconocido profesional Ben Heck ha tenido ocasión de desmontar y analizar a fondo el prototipo de Super Nintendo PlayStation CD que vimos en noticias anteriores, y gracias a su trabajo hemos podido conocer una gran cantidad de detalles sobre dicho accesorio.
Una de las dudas que más rondaba a todos los aficionados al mundo del videojuego era la potencia real de este prototipo, y hasta qué punto podía compararse con otros modelos de la época, como la unidad de CD para TurboGrafx 16 y la MegaCD para Mega Drive.
Antes de entrar en cuestiones técnicas debemos decir que tal y como indica Ben Heck la Super Nintendo PlayStation CD está mucho más cerca de la consola de 16 bits de Nintendo que de la consola de 32 bits que lanzó Sony unos años después, aunque en su interior encontramos chips de ambas compañías, lo que demuestra que fue una solución creada con la colaboración de ambas empresas, y no sólo por la segunda.
Esto nos da una primera respuesta a esa pregunta, y es que en términos de potencia la Super Nintendo PlayStation CD no sólo no marcaba ningún avance importante con respecto a la consola de Nintendo, sino que además comparada con el MegaCD de SEGA resultaba inferior en muchos aspectos.
Uno de los más claros era la ausencia de un coprocesador potente, ya que el sistema depende del chip principal a 3,5 MHz que monta Super Nintendo, mientras que el Mega CD incluye una CPU a 12,5 MHz y hasta una GPU dedicada.
La unidad de SEGA también contaba con una mayor cantidad total de RAM y no dependía de un cartucho externo para funcionar, aunque su lector era inferior al de Super Nintendo PlayStation CD, que montaba una unidad de doble velocidad.
En cualquier caso esto se vería penalizado por su bus de 8 bits (el de MegaCD era de 16 bits), un detalle que nos lleva a la conclusión que ya anticipamos, el Super Nintendo PlayStation CD no marcaba ningún avance importante frente a la 16 bits de Nintendo.
Fuente:
http://www.muycomputer.com/2016/07/17/nintendo-playstation-cd
Esa revolución llamada Famicom cumple 33 años
Justo hoy se cumplen 33 años desde el lanzamiento de Famicom, una consola que como sabrán muchos de nuestros lectores fue la versión original de lo que en occidente conocimos como Nintendo NES.
A pesar de que los juegos que recibieron ambas consolas fueron en su mayoría los mismos las diferencias entre las dos eran muy grandes, y no se limitaban al diseño en general ni tampoco al tamaño de los cartuchos.
La Famicom fue concebida prácticamente como una especie de consola-ordenador, y como consecuencia de ello Nintendo lanzó una gran cantidad de accesorios tan innecesarios como originales, entre los que podemos citar desde un teclado hasta una disquetera conocida como Famicom Disk System, que llegó en 1986 y era compatible con unidades de hasta 128 KB.
Este último resultaba un ahorro considerable frente a los cartuchos, pero tenía unos requisitos que lo convertían en algo un poco engorroso, ya que requería insertar un cartucho que apoyaba al conjunto con RAM adicional y un chip FM para la música.
Comparada con la NES ofrecía todo un mundo de posibilidades, sobre todo teniendo en cuenta las limitaciones y las particularidades de la tecnología en la década de los ochenta.
Desde luego la Famicom daría para hacer un artículo especial muy completo e interesante. ¿Os gusta la idea? Pues no dudéis en dejar vuestra opinión en los comentarios.
Fuente:
http://www.muycomputer.com/2016/07/15/famicom-cumple-33-anos
A pesar de que los juegos que recibieron ambas consolas fueron en su mayoría los mismos las diferencias entre las dos eran muy grandes, y no se limitaban al diseño en general ni tampoco al tamaño de los cartuchos.
La Famicom fue concebida prácticamente como una especie de consola-ordenador, y como consecuencia de ello Nintendo lanzó una gran cantidad de accesorios tan innecesarios como originales, entre los que podemos citar desde un teclado hasta una disquetera conocida como Famicom Disk System, que llegó en 1986 y era compatible con unidades de hasta 128 KB.
Este último resultaba un ahorro considerable frente a los cartuchos, pero tenía unos requisitos que lo convertían en algo un poco engorroso, ya que requería insertar un cartucho que apoyaba al conjunto con RAM adicional y un chip FM para la música.
Comparada con la NES ofrecía todo un mundo de posibilidades, sobre todo teniendo en cuenta las limitaciones y las particularidades de la tecnología en la década de los ochenta.
Desde luego la Famicom daría para hacer un artículo especial muy completo e interesante. ¿Os gusta la idea? Pues no dudéis en dejar vuestra opinión en los comentarios.
Fuente:
http://www.muycomputer.com/2016/07/15/famicom-cumple-33-anos
No te pierdas al Sol “girando sobre sí mismo” gracias a la NASA
ecientemente la NASA
dio la orden de que el Solar Dynamics Observatory (SDO) realizara un
giro de 360 grados sobre un único eje, y durante todo el proceso se
siguieron capturando imágenes del Sol cada doce segundos, lo que permitió hacer posible el montaje que vemos en el GIF.
Da la sensación de que el giro se realizó en apenas unos segundos pero en realidad el SDO tardó unas siete horas aproximadamente, sólo que todo el proceso se aceleró para hacer que resultara mucho más impresionante, y podemos decir sin miedo a equivocarnos que lo han conseguido.
Es importante matizar que este contenido ha sido elaborado gracias a la captación de ondas de radiación ultravioleta, que como sabemos por sí mismas son invisibles para el ojo humano, aunque se colorearon con el tono dorado que vemos en el GIF para que todo el montaje fuese más amigable y fácil de identificar.
¿Y por qué se llevan a cabo estos procesos de rotación? Pues al parecer son totalmente necesarios debido a que el Sol no tiene una forma perfectamente esférica y a que su superficie es altamente cambiante, siendo esto último consecuencia directa de los constantes proceso de fusión nuclear que se producen.
Con la rotación se consigue una especie de calibración y puesta a punto de las herramientas de observación que permite garantizar la precisión y el óptimo funcionamiento de las mismas, y por lo general se realiza entre una y dos veces ala año.
Más información: SlashGear.
Fuente:
http://www.muycomputer.com/2016/07/16/sol-girando-gracias-nasa
Da la sensación de que el giro se realizó en apenas unos segundos pero en realidad el SDO tardó unas siete horas aproximadamente, sólo que todo el proceso se aceleró para hacer que resultara mucho más impresionante, y podemos decir sin miedo a equivocarnos que lo han conseguido.
Es importante matizar que este contenido ha sido elaborado gracias a la captación de ondas de radiación ultravioleta, que como sabemos por sí mismas son invisibles para el ojo humano, aunque se colorearon con el tono dorado que vemos en el GIF para que todo el montaje fuese más amigable y fácil de identificar.
¿Y por qué se llevan a cabo estos procesos de rotación? Pues al parecer son totalmente necesarios debido a que el Sol no tiene una forma perfectamente esférica y a que su superficie es altamente cambiante, siendo esto último consecuencia directa de los constantes proceso de fusión nuclear que se producen.
Con la rotación se consigue una especie de calibración y puesta a punto de las herramientas de observación que permite garantizar la precisión y el óptimo funcionamiento de las mismas, y por lo general se realiza entre una y dos veces ala año.
Más información: SlashGear.
http://www.muycomputer.com/2016/07/16/sol-girando-gracias-nasa
jueves, 14 de julio de 2016
La NES de Nintendo vuelve a las tiendas en versión mini
Está confirmado, la NES de Nintendo tendrá una segunda vida gracias a una edición mini que la compañía japonesa tiene preparada, y cuyo lanzamiento está marcado para el próximo día 11 de noviembre.
Llegará bajo el nombre de Nintendo Entertainment System: NES Classic Edition, y como anticipamos se trata de una “replica” en tamaño mini pero adaptada a los nuevos tiempos, ya que incorpora una conexión HDMI y trae 30 juegos preinstalados.
La consola viene con un mando de control idéntico al de la NES original pero también es compatible con los mandos clásicos de Wii y Wii U.
Para los que tengan cualquiera de estas consolas hay buenas noticias, y es que el mando original también podrá ser utilizado con los juegos de NES disponibles en la consola virtual.
El pack que comercializará Nintendo incluye la consola, un mando y 30 juegos preinstalados, todo por un precio de 59,99 dólares. Cada mando adicional nos costará 9,99 dólares.
No es lo mismo que una NES original, eso es evidente, pero para los nostálgicos que busquen algo asequible puede ser una buena opción.
Este es el listado completo de juegos que incluirá el sistema:
http://www.muycomputer.com/2016/07/14/nintendo-nes-vuelve
Llegará bajo el nombre de Nintendo Entertainment System: NES Classic Edition, y como anticipamos se trata de una “replica” en tamaño mini pero adaptada a los nuevos tiempos, ya que incorpora una conexión HDMI y trae 30 juegos preinstalados.
La consola viene con un mando de control idéntico al de la NES original pero también es compatible con los mandos clásicos de Wii y Wii U.
Para los que tengan cualquiera de estas consolas hay buenas noticias, y es que el mando original también podrá ser utilizado con los juegos de NES disponibles en la consola virtual.
El pack que comercializará Nintendo incluye la consola, un mando y 30 juegos preinstalados, todo por un precio de 59,99 dólares. Cada mando adicional nos costará 9,99 dólares.
No es lo mismo que una NES original, eso es evidente, pero para los nostálgicos que busquen algo asequible puede ser una buena opción.
Este es el listado completo de juegos que incluirá el sistema:
- Balloon Fight
- BUBBLE BOBBLE
- Castlevania
- Castlevania II: Simon’s Quest
- Donkey Kong
- Donkey Kong Jr.
- DOUBLE DRAGON II: THE REVENGE
- Dr. Mario
- Excitebike
- FINAL FANTASY
- Galaga
- GHOSTS‘N GOBLINS
- GRADIUS
- Ice Climber
- Kid Icarus
- Kirby’s Adventure
- Mario Bros.
- MEGA MAN 2
- Metroid
- NINJA GAIDEN
- PAC-MAN
- Punch-Out!! Featuring Mr. Dream
- StarTropics
- SUPER C
- Super Mario Bros.
- Super Mario Bros. 2
- Super Mario Bros. 3
- Tecmo Bowl
- The Legend of Zelda
- Zelda II: The Adventure of Link
http://www.muycomputer.com/2016/07/14/nintendo-nes-vuelve
SPC y Makeblock traen a España sus sorprendentes kits de robótica
SPC y Makeblock, la plataforma de software y hardware libre basada en Arduino, se han aliado para comercializar en España y Portugal una completa gama de productos de robótica especialmente diseñados para entornos educativos.
El objetivo de SPC con esta alianza es ayudar a generar un espacio abierto apoyado por una comunidad donde la imaginación y la creatividad de la “cultura maker” no tenga límites. Por este motivo, la ofera de productos de robótica de SPC y Makeblock incluirá todo tipo de piezas, sensores y motores compatibles entre sí que se irán incrementando a lo largo del tiempo, pero además los usuarios tendrán a su alcance librerías públicas sobre Scratch y Arduino para desarrollar sus creaciones.
El más sencillo de los kits robóticos se llama mBot y está basado en la plataforma Arduino Uno. Con un precio de 89,90 euros, es el producto perfecto para iniciarse en la robótica al incluir:
- Software y programación: mBlock (entorno de programación gráfico basado en Scratch 2.0).
- Entradas: 1 x sensor de luz, 1 x pulsador, 1 x receptor de infrarrojos, 1 x sensor de ultrasonidos, 1 x sigue líneas.
- Salidas: 1 x zumbador, 1 x LED RGB, 1 x emisor de infrarrojos, 2 x motores, puertos.
- Placa controladora: mCore (basada en Arduino Uno).
- Alimentación: Portapilas 1.5V AA (necesita 4 pilas).
- Comunicación inalámbrica: Bluetooth (compatible 2.0 y 4.0). También disponible módulo de 2,4 GHz.
- Dimensiones: 170 x 13 x 90 mm.
- Peso: 400 gramos.
El siguiente kit en cuanto a complejidad se refiere es el mBot Complete, que con un precio de 129,90 euros ofrece:
- Software y programación: mBlock (entorno de programación gráfico basado en Scratch 2.0).
- Entradas: 1 x sensor de luz, 1 x pulsador, 1 x receptor de infrarrojos, 1 x sensor de ultrasonidos, 1 x sigue líneas.
- Salidas: 1 x zumbador, 1 x LED RGB, 1 x emisor de infrarrojos, 2 x motores, puertos.
- Placa controladora: mCore (basada en Arduino Uno).
- Alimentación: Portapilas 1.5V AA (necesita 4 pilas).
- Comunicación inalámbrica: Bluetooth (compatible 2.0 y 4.0). También disponible módulo de 2,4 GHz.
- Dimensiones: 170 x 13 x 90 mm.
- Peso: 400 gramos.
- Otros componentes: Pack de soportes de estructuras de extensión para el robot mBot, pack de servo con soportes y matriz LED para poner caras o animaciones a mBot.
Un salto importante en relación a los anteriores modelos es el mBot Ranger, que con un precio de 179,90 euros proporciona tres modelos diferentes de montaje (un coche de carreras de tres ruedas, un tanque todo-terreno y un coche balancín de dos ruedas).
- Software y programación: mBlock (entorno de programación gráfico basado en Scratch 2.0).
- Entradas: 2 x sensor de luz, 1 x sensor de sonido, 1
x giroscopio, 1 x sensor de temperatura, 1 x sensor de ultrasonidos, 1 x
seguidor de líneas.
- Salidas: 1 x zumbador, 2 x motores encoder 400RPM
- Placa controladora: Arduino Mega 2560, 256 Kb memoria flash, 8 Kb SRAM, 4 Kb EEPROM.
- Alimentación: Portapilas 1.5V AA (necesita 6 pilas).
- Comunicación inalámbrica: Bluetooth (compatible 2.0 y 4.0).
- Dimensiones: 200 x 165 x 120 mm
- Peso: 1.600 gramos
Fuente:
http://www.muycomputer.com/2016/07/14/kits-de-robotica-spc-makeblock
martes, 12 de julio de 2016
Consiguen crackear el DRM de Sega Saturn para ejecutar los juegos sin CD
Sega Saturn fue una consola que no tuvo mucha suerte a lo largo de su trayectoria. A pesar de los esfuerzos de la veterana compañía de videojuegos japonesa, la 32 bits de Sega se vio totalmente eclipsada por PlayStation, que dominaría de forma aplastante tanto esa generación como la siguiente, la de las consolas de 128 bits.
Aparte de su fracaso comercial, Sega Saturn nunca se lo ha puesto fácil a los fans de lo retro debido a que la lectora de CD fallaba con el paso de los años, convirtiendo el dispositivo en un enorme pisapaleles destinado a criar polvo dentro de algún cajón o armario.
Sin embargo, el científico James Laird-Wah se propuso hacer que la Sega Saturn viviese para siempre, intentando sustituir la problemática lectora de CD por algún mecanismo que leyera a través de USB. Para ello decidió adquirir una consola totalmente funcional de Japón para diseccionarla tanto a nivel de hardware como de software, consiguiendo después de años crackear las protecciones de DRM insertando un chip y pudiendo leer los juegos a través un medio conectado por USB. De esta forma, si la consola se cuida correctamente, se puede decir que la ha vuelto funcional para siempre, ya que la lectora de CD no volverá a dar problemas con este mecanismo al volverse prescindible. Además de sustituir los CD, este mecanismo también permite guardar datos en unidades USB, pudiendo guardar ahí partidas e incluso pistas de audio, las cuales el científico consiguió crear con el chip de sonido de la consola y un DSP programable.
Las dificultades para modificar la Sega Saturn hacían que no se pudiese hacer homebrew sobre esta, por lo que se ha tenido que modificar la consola desde los componentes internos para poder reproducir los juegos sin tener que tirar de CD. Ahora, después de 20 años, por fin se ha conseguido crackear su DRM.
No es la primera vez que Laird-Wah realiza algo así, ya que él es Dr. Abrasive, encargado de la creación de un cartucho de Game Boy con interfaz USB que permite la utilización de ROMs dentro de la propia portátil de Nintendo.
Por ahora no se tienen noticias sobre que la solución que modifica la Sega Saturn vaya a comercializarse.
Fuente:
http://www.muycomputer.com/2016/07/12/crackear-drm-sega-saturn-sin-cd
lunes, 11 de julio de 2016
¿Por qué saltar a la domótica? Este estudio nos lo explica
La domótica ha experimentado un importante crecimiento durante
el último año, pasando de ser algo reservado o limitado a unos pocos a democratizarse y convertirse en un sector que genera cada vez un mayor interés.
Esto ha sido posible gracias sobre todo a la mayor integración con el smartphone y otros dispositivos móviles, como las tablets, pero también hay que tener en cuenta la bajada de precio y las mejoras funcionales que se han introducido en los principales elementos que permiten dar forma a un hogar inteligente.
Sí, con esto queremos decir que el crecimiento de la domótica responde esencialmente a tres factores; mayor nivel funcional, menor precio y total integración con terminales móviles.
La domótica está de moda, ¿pero qué opina la gente sobre ella? ¿Qué razones ven para apostar por el hogar inteligente y cuánto dinero estarían dispuestos a invertir?
Son preguntas importantes e interesantes que nos permiten pintar un cuadro bastante completo del estado actual del sector desde la perspectiva del consumidor, y gracias a un estudio publicado por D-Link podemos dar respuesta a dichas cuestiones.
Como podemos ver la mayoría de los usuarios tiene un presupuesto reducido, unos 300 euros, aunque el mismo es suficiente para acceder a una buena cantidad de dispositivos y conseguir un conjunto de funciones bastante completo, siempre que sepamos buscar y elegir, claro está.
En cuanto a los motivos para saltar a la domótica la mayoría quiere hacerlo por razones de seguridad, una razón mayoritaria que está seguida del deseo de automatización y del control de los electrodomésticos en remoto.
Finalmente también podemos ver otros datos interesantes en el estudio, como por ejemplo que la mayoría de los encuestados se sienten más atraídos por los enchufes inteligentes y las cámaras de videovigilancia WiFi, y que casi un 60% de los encuestados compran por Internet.
¿Qué opinión os merece la domótica? ¿Os parece una buena inversión? Los comentarios son vuestros.
Fuente:
http://www.muycomputer.com/2016/07/09/la-domotica-estudio
Esto ha sido posible gracias sobre todo a la mayor integración con el smartphone y otros dispositivos móviles, como las tablets, pero también hay que tener en cuenta la bajada de precio y las mejoras funcionales que se han introducido en los principales elementos que permiten dar forma a un hogar inteligente.
Sí, con esto queremos decir que el crecimiento de la domótica responde esencialmente a tres factores; mayor nivel funcional, menor precio y total integración con terminales móviles.
La domótica está de moda, ¿pero qué opina la gente sobre ella? ¿Qué razones ven para apostar por el hogar inteligente y cuánto dinero estarían dispuestos a invertir?
Son preguntas importantes e interesantes que nos permiten pintar un cuadro bastante completo del estado actual del sector desde la perspectiva del consumidor, y gracias a un estudio publicado por D-Link podemos dar respuesta a dichas cuestiones.
Como podemos ver la mayoría de los usuarios tiene un presupuesto reducido, unos 300 euros, aunque el mismo es suficiente para acceder a una buena cantidad de dispositivos y conseguir un conjunto de funciones bastante completo, siempre que sepamos buscar y elegir, claro está.
En cuanto a los motivos para saltar a la domótica la mayoría quiere hacerlo por razones de seguridad, una razón mayoritaria que está seguida del deseo de automatización y del control de los electrodomésticos en remoto.
Finalmente también podemos ver otros datos interesantes en el estudio, como por ejemplo que la mayoría de los encuestados se sienten más atraídos por los enchufes inteligentes y las cámaras de videovigilancia WiFi, y que casi un 60% de los encuestados compran por Internet.
¿Qué opinión os merece la domótica? ¿Os parece una buena inversión? Los comentarios son vuestros.
Fuente:
http://www.muycomputer.com/2016/07/09/la-domotica-estudio
La policía utiliza un robot bomba para matar a un tirador
El pasado 7 de julio un tirador fue abatido por un robot bomba,
utilizado por la policía de Dallas durante los trágicos sucesos que
acabaron como sabemos con la vida de siete agentes y dejó heridos a
otros cinco.
Es la primera vez que la policía recurre a esta estrategia y en un comunicado oficial dejaron claro que lo hicieron porque era el último recurso, ya que habían intentado previamente negociar una rendición con el tirador pero éste no sólo se había negado sino que además había intercambiado disparos con los agentes.
¿No había realmente otra opción que hacer saltar por los aires al tirador usando un robot? Según la policía no, ya que enviar a sus agentes a detener al tirador habría supuesto un grave peligro para los mismos y podría incluso haber acarreado más muertes.
Con esos dos argumentos la policía de Dallas justifica su actuación, que se ha convertido en pionera dentro de los cuerpos de policía de todo el mundo, ya que aunque no es la primera vez que se usa un robot para hacer frente a un criminal sí que no hay precedentes de que se hayan empleado para matar (siempre hablando del ámbito policial, no militar).
¿Fue una actuación correcta o desproporcionada? Es una pregunta complicada ya que depende de la propia perspectiva moral de cada uno. No hay duda de que habían intentado una solución pacífica y que lo dejaron como última opción, pero esto nos lleva a pesar si no sería posible utilizar robots que reduzcan a criminales de una forma no letal, por ejemplo mediante sistemas de electrocución y aturdimiento.
Fuente:
http://www.muycomputer.com/2016/07/09/la-policia-utiliza-robot-bomba-matar-tirador
Es la primera vez que la policía recurre a esta estrategia y en un comunicado oficial dejaron claro que lo hicieron porque era el último recurso, ya que habían intentado previamente negociar una rendición con el tirador pero éste no sólo se había negado sino que además había intercambiado disparos con los agentes.
¿No había realmente otra opción que hacer saltar por los aires al tirador usando un robot? Según la policía no, ya que enviar a sus agentes a detener al tirador habría supuesto un grave peligro para los mismos y podría incluso haber acarreado más muertes.
Con esos dos argumentos la policía de Dallas justifica su actuación, que se ha convertido en pionera dentro de los cuerpos de policía de todo el mundo, ya que aunque no es la primera vez que se usa un robot para hacer frente a un criminal sí que no hay precedentes de que se hayan empleado para matar (siempre hablando del ámbito policial, no militar).
¿Fue una actuación correcta o desproporcionada? Es una pregunta complicada ya que depende de la propia perspectiva moral de cada uno. No hay duda de que habían intentado una solución pacífica y que lo dejaron como última opción, pero esto nos lleva a pesar si no sería posible utilizar robots que reduzcan a criminales de una forma no letal, por ejemplo mediante sistemas de electrocución y aturdimiento.
Fuente:
http://www.muycomputer.com/2016/07/09/la-policia-utiliza-robot-bomba-matar-tirador
Encuentran las primeras nubes de agua fuera del sistema solar
Uno de los grandes elementos diferenciadores de nuestro planeta es la presencia de nubes de agua en la atmósfera, algo casi único que hasta ahora no había sido visto fuera de nuestro sistema solar.
Investigadores de la UC de Santa Cruz han descubierto signos que sugieren la presencia de nubes de vapor de agua alrededor de WISE 0855, una enana marrón que se encuentra situada a 7,2 años luz de nosotros.
Espera, ¿qué es una enana marrón? No resultan muy conocidas, pero son muy fáciles de definir. En esencia se llama enana marrón a aquellos cuerpos que no tenían una masa suficiente para mantener reacciones nucleares continuadas y que por tanto fueron incapaces de llegar a convertirse en estrellas, quedando como una especie de gigantescos cuerpos de gas y polvo que normalmente sólo son un poco más grandes que Júpiter.
A diferencia de lo que ocurre con las enanas marrones más jóvenes, que tienen temperaturas de entre 800 y 2.000 grados, la WISE 0855 se mantiene en 23 grados bajo cero, una temperatura idónea para que se formen nubes de diminutos cristales de hielo, que serían el tipo principal tendría a su alrededor.
Este descubrimiento ha sido posible gracias al uso de análisis de espectro de infrarrojos, una medida que permite la observación de cuerpos que no son visibles o que no emiten una cierta cantidad de luz.
Desde luego no es lo mismo que descubrir nubes de agua alrededor de un exoplaneta, pero es un descubrimiento interesante que confirma la posibilidad de que existan más nubes de este tipo en otros lugares del universo.
Fuente:
http://www.muycomputer.com/2016/07/10/encuentran-nubes-agua
Tema de Star Wars interpretado con viejo hardware, ¡único!
Hemos visto muchas versiones del tema de Star Wars, una de las canciones más conocidas “de la Galaxia” y también una de las más queridas, pero desde luego ninguna como la de este vídeo, donde podemos ver a un “grupo musical” único.
Un total de 64 unidades de disquete, ocho discos duros y dos escáneres consiguen con el apoyo de ocho controladoras hacer una interpretación perfecta del tema de la conocida película de George Lucas.
Todos esos componentes han sido bautizados como “Floppotron”, un nombre muy apropiado para el grupo, que también ha interpretado otros temas muy conocidos, como por ejemplo el clásico Smells Like Teen Spirit de Nirvana.
No hay mucho más que añadir ya que el vídeo habla por sí mismo. Disfrutadlo, y como siempre los comentarios son vuestros.
Fuente:
http://www.muycomputer.com/2016/07/11/tema-star-wars-interpretado-viejo-hardware-unico
Logran observar a un agujero negro masivo engullendo una estrella
Varios astrónomos han conseguido observar el momento justo en el que un agujero negro masivo se tragaba por completo una estrella, un evento impresionante que se ha producido a 3,9 millones de años luz de la Tierra.
La observación de este fenómeno ha sido posible gracias al uso de lo que se conoce como European VLBI (Very Long Baseline Interferometry), es decir, a un conjunto de radiotelescopios que se encuentran situados en distintos lugares del planeta y que se ponen a trabajar como si fueran un único radiointerferómetro, gracias a un sistema de grabación que permite procesar posteriormente de forma conjunta todos los datos recogidos por cada uno de ellos.
Un ejemplo claro de que la unión hace la fuerza, y como dato curioso hay que decir que cuando se habla de esa red actuando de forma conjunta la misma es considerada como “un telescopio del tamaño de la Tierra”, un simbolismo bastante acertado.
En su etapa inicial el agujero negro masivo capturó con su inmenso campo gravitatorio a la estrella e inició un proceso espectacular, en el que se empezó a extraer el gas de la misma dejando un enorme rastro en forma de disco al rededor del mismo, y convirtiendo la energía gravitatoria en radiación electromagnética visible en distintas longitudes de onda.
Algunos de los materiales de la estrella que estaba siendo devorada fueron rechazados y expulsados fuera del agujero negro de una manera sorprendente, creando rastros de partículas visibles realmente espectaculares.
En sus observaciones durante los últimos tres años los expertos han constatado que esos restos expulsados se mantuvieron estáticos, algo nada habitual que ha sorprendido a los que tuvieron la suerte de seguir y estudiar el evento.
El objetivo de todo esto es claro y simple, poder entender mejor qué ocurre cuando una estrella es tragada por un agujero negro, una meta que recibirá un gran impulso con la próxima generación de radiotelescopios.
Fuente:
http://www.muycomputer.com/2016/07/11/agujero-negro-masivo-engullendo-una-estrella
viernes, 8 de julio de 2016
LattePanda: Mini ordenador x86 con soporte Arduino
Acceder al hardware Arduino es sencillo en estos
días, ya sea a través de sus canales oficiales, o adquiriendo un clon
compatible. Esta flexibilidad también habilita el desarrollo de
plataformas alternativas que desde lo técnico no se concentran
exclusivamente en Arduino, sino que asimilan su soporte como un recurso
más. Ese es el caso de LattePanda, un mini ordenador x86 basado en un SoC Atom Cherry Trail de Intel, acompañado por un microcontrolador Atmega32u4, el mismo que encontramos en los Arduino Leonardo y Micro.
Toda la documentación está disponible sin cargo, existe una enorme cantidad de proyectos para crear o tomar como base, y se lleva muy bien con otras plataformas. El concepto Arduino abre un amplio abanico de posibilidades, desde elementos aislados y autónomos hasta las soluciones hiperconectadas que promete la famosa «Internet de las Cosas». La mejor parte es que la aparición de nuevas tecnologías al estilo del Raspberry Pi no hicieron más que estimular la creación de desarrollos adicionales. En otras palabras, un ordenador compacto, la visión del Raspberry Pi y la versatilidad de Arduino pueden convivir sobre un mismo PCB. Eso es lo que nos lleva a visitar campañas como la que completó la gente detrás del dispositivo LattePanda.
De acuerdo a la página oficial y su viejo perfil en Kickstarter, el LattePanda
se basa en un SoC Intel Atom Cherry Trail con cuatro núcleos a 1.84
GHz, lo que nos hace pensar en un Atom x7 con un ligero overclocking (lamentablemente, no podemos confirmarlo).
Tanto la cantidad RAM disponible como el espacio de almacenamiento
depende de los modelos, que se dividen en 2-32 GB y 4-64 GB. En ambos
casos, el hardware es más que suficiente para recibir una instalación de
Windows 10 completa (y no la edición IoT), pero lo que nos trajo aquí fue el soporte Arduino, implementado a partir del popular Atmega32u4,
mismo controlador usado en el Arduino Leonardo, el Arduino Micro, y la
versión 2.0 del Teensy. Ambos lados del LattePanda están conectados por
una interfaz serial, o sea que cargar código Arduino al Atmega desde el entorno Windows debería ser muy fácil.
La mejor manera de comprar al LattePanda fue efectivamente por Kickstarter, debido a los amplios descuentos que se ofrecieron en la campaña, sin embargo, aquellos que no vean con buenos ojos al crowdfunding deben saber que el LattePanda se puede comprar hoy, a un precio de 109 dólares por la edición 2-32 GB, y 139 dólares por la 4-64 GB (agotada en este momento). A eso debemos sumar otros accesorios, como un paquete de sensores, una pantalla de 7 pulgadas con resolución de 1.024 por 600 píxeles (el máximo soportado por el vídeo del LattePanda), un panel táctil, y varias carcasas.
Fuente:
http://www.neoteo.com/lattepanda-mini-ordenador-x86-soporte-arduino
Toda la documentación está disponible sin cargo, existe una enorme cantidad de proyectos para crear o tomar como base, y se lleva muy bien con otras plataformas. El concepto Arduino abre un amplio abanico de posibilidades, desde elementos aislados y autónomos hasta las soluciones hiperconectadas que promete la famosa «Internet de las Cosas». La mejor parte es que la aparición de nuevas tecnologías al estilo del Raspberry Pi no hicieron más que estimular la creación de desarrollos adicionales. En otras palabras, un ordenador compacto, la visión del Raspberry Pi y la versatilidad de Arduino pueden convivir sobre un mismo PCB. Eso es lo que nos lleva a visitar campañas como la que completó la gente detrás del dispositivo LattePanda.
La mejor manera de comprar al LattePanda fue efectivamente por Kickstarter, debido a los amplios descuentos que se ofrecieron en la campaña, sin embargo, aquellos que no vean con buenos ojos al crowdfunding deben saber que el LattePanda se puede comprar hoy, a un precio de 109 dólares por la edición 2-32 GB, y 139 dólares por la 4-64 GB (agotada en este momento). A eso debemos sumar otros accesorios, como un paquete de sensores, una pantalla de 7 pulgadas con resolución de 1.024 por 600 píxeles (el máximo soportado por el vídeo del LattePanda), un panel táctil, y varias carcasas.
Fuente:
http://www.neoteo.com/lattepanda-mini-ordenador-x86-soporte-arduino
Suscribirse a:
Entradas (Atom)