lunes, 18 de julio de 2016

Tim Sweeney: necesitaremos 40 TFLOPs para juegos fotorrealistas

La calidad gráfica de los videojuegos ha experimentado un enorme crecimiento, tanto que muchos creen que estamos muy cerca de conseguir juegos fotorrealistas, pero eso es en realidad una verdad a medias, al menos según la opinión de Tim Sweeney, fundador de Epic.
En una reciente entrevista el ejecutivo de la compañía responsable del Unreal Engine ha comentado que actualmente disponemos de la tecnología necesaria para renderizar escenas fotorrealistas, pero sólo de carácter estático, sin personajes que intenten simular la realidad humana y sin iluminación dinámica.
Para poder superar esas limitaciones e incluir todos los elementos que hemos dejado fuera en el párrafo anterior Tim Sweeney cree que harán falta unos 40 TFLOPs aproximadamente, una potencia enorme que desde luego se nos antoja muy lejana, y para muestra un botón.
Una solución tan potente como la Radeon Pro Duo apenas supera los 16 TERAFLOPs, y hablamos de una solución gráfica con doble GPU. Por su parte la GTX 1080, la tarjeta gráfica monoGPU más potente del momento, roza los 8,9 TERAFLOPs de potencia.
Más datos de interés que nos permitirán entender mejor lo lejos que todavía estamos del número que propone Tim Sweeney, PS4 tiene una GPU capaz de conseguir 1,84 TERAFLOPs y PS4 NEO rondará los 4,5 TERAFLOPs, mientras que Xbox Scorpio podría superar los 6 TERAFLOPs.
¿Y por qué esta enorme diferencia entre escenas con simulación humana y sin ella? Pues porque recrear humanos “realistas” es enormemente complejo, tal y como indica Sweeney, y no sólo por detalles como las expresiones faciales y las emociones, sino también por todo el trabajo y la potencia que consumirían las reacciones y los comportamientos interactivos, realistas y “no enlatados”, es decir, no basados en patrones predefinidos, sino que resulten totalmente dinámicos.
Queda claro que todavía faltan unas cuantas generaciones para llegar a ese punto, pero me permito la licencia de haceros una pregunta interesante, ¿realmente queremos o necesitamos gráficos fotorrealistas?

Fuente:
http://www.muycomputer.com/2016/07/17/tim-sweeney-40-tflops-juegos-fotorrealistas

ARM Holdings confirma su venta a Softbank por una millonada

ARM Holdings, el diseñador de chips británico que monopoliza el mercado de la movilidad, ha confirmado su venta al grupo Softbank por 23.400 millones de libras (27.980 millones de euros), tras pagar una prima del 43 por ciento sobre su valor de cotización.
Es la mayor adquisición de la historia de una empresa europea de tecnología y no es para menos, ARM Holdings es la verdadera joya de la corona británica. Lo que comenzó en 1990 como una empresa conjunta de Acorn, Apple y VLSI, se ha convertido en un referente en el sector tecnológico.
ARM Holdings es una compañía relativamente pequeña en volumen de negocio y beneficios que, ni vende, ni distribuye, ni fabrica producto alguno en el sector de semiconductores y que aún así ha puesto contra las cuerdas en movilidad a todo un gigante como Intel. Hace unos meses, Intel canceló los chipsets Atom Mobile de las series Broxton and SoFIA, tirando la toalla frente a ARM y virtualmente saliendo del mercado del smartphone y tablet básico.
Su base de negocio es el diseño de chips con arquitectura RISC. ‘Solo’ los diseña pero vende las licencias (actualmente más de 1.000 licencias) a varias decenas de fabricantes, entre los que se encuentran los mayores productores mundiales de chips móviles como Qualcomm, AlWinner, TI, MediaTek, Samsung o NVIDIA, y también a grandes tecnológicas como Apple que necesita millones de chips para sus dispositivos.
Junto a su modelo de licencias, un ratio potencia/consumo/precio sobresaliente es la base del éxito de los chips de ARM Holdings. Solo una cifra ilustra la situación: El mercado puede construir 4.000 millones de chips trimestrales bajo los diseños de esta compañía.

¿Qué pasará ahora con ARM Holdings?

ARM seguirá funcionando de forma independiente bajo el paraguas de Softbank, un grupo que opera una operadora de telefonía en Japón aunque es bien conocido como inversor en todo tipo de empresas de tecnología y tiene activos de Sprint, Yahoo! o Alibaba. El grupo pretende realizar inversiones adicionales incluyendo la duplicación del número de empleados en el Reino Unido (4.000) durante los próximos cinco años y dice que, “mantendrá la cultura y el modelo de negocio único de ARM”.
La compra de ARM debe colocarlo como proveedor clave en la industria de la telefonía móvil y también en otros sectores como wearables o la Internet de las Cosas, porque el alcance de los diseños de la firma británica se extiende por múltiples segmentos, incluidos un probable salto al mercado del PC.
A nivel de usuario no debe afectarnos esta operación corporativa que se rumoreaba desde hace años aunque los potenciales compradores eran otros y se hablaba de Apple como el principal interesado, además de Samsung o Qualcomm.

Fuente:
http://www.muycomputer.com/2016/07/18/arm-holdings-softbank

La fibra óptica para telecomunicaciones cumple 50 años

Esta semana se celebra el 50 aniversario del comunicado de Sir Charles Kuen Kao a la Asociación Británica para el Avance de la Ciencia, que abrió el desarrollo de la fibra óptica en telecomunicaciones.
Kao, considerado el “padre de la comunicación por fibra óptica” y premiado por ello con el Nobel de Física en 2009, propuso el uso de fibras de vidrio y de luz en lugar de electricidad y conductores metálicos, para la transmisión de mensajes telefónicos.
Fue el comienzo de una revolución que llega hasta nuestros días si bien el uso de la luz solar para transmitir información ya era utilizado de forma rudimentario por los antiguos griegos. En el siglo 18, un investigador francés diseñó un sistema de telegrafía óptica que permitía enviar un mensaje a 200 kilómetros en 16 minutos utilizando un código, torres y espejos. En 1840, fue demostrado el principio que posibilita la fibra óptica (confinamiento de la luz por refracción) y en 1870 se descubrió que la luz podía viajar dentro del agua, curvándose por reflexión interna.
Fueron los inicios aunque la fibra óptica para telecomunicaciones no interesó verdaderamente a los investigadores hasta 1950, cuando se empezó a utilizar filamentos delgados como el cabello que transportaban luz a distancias cortas. El gran problema es que la luz perdía hasta el 99 % de su intensidad al atravesar distancias de hasta 9 metros de fibra.
Charles Kuen Kao se ocupó de este problema en su tesis doctoral y estimó que las máximas pérdidas admisibles para que resultara práctica en enlaces de comunicaciones sería de 20 decibelios por kilómetro. La propuesta de julio de 1966 constituyó la base para reducir las pérdidas de las señales ópticas que por entonces no permitían el aprovechamiento de esta tecnología.
Los estudios de Kao permitieron avanzar en el uso de nuevos materiales y técnicas de fabricación y en la década de los 70 ya se consiguieron pérdidas de tan solo 0,5 dB/km, mientras que en abril de 1977, General Telephone and Electronics envió la primera transmisión telefónica a través de fibra óptica, en 6 Mbit/s.
El primer enlace transoceánico con fibra óptica fue el TAT-8 que comenzó a operar en 1988 y a partir de ahí el uso de la fibra óptica para telecomunicaciones ha sido fundamental para llegar a la era de la conectividad total en la que nos encontramos. Mucho le debemos a la propuesta del “padre de la comunicación por fibra óptica” de la que se cumplen 50 años.

Fuente:
http://www.muycomputer.com/2016/07/18/fibra-optica-telecomunicaciones

Especificaciones de los Intel Skylake X y Kaby Lake X

Una filtración originada en un medio chino nos deja ver las especificaciones base que tendrán los procesadores Skylake X y Kaby Lake X, próximos tope de gama de Intel que como sabemos marcan un tock cada uno dentro de la estrategia actual “tick-tock-tock” del gigante del chip.
Según nos cuentan ambos procesadores se comercializarán simultáneamente, es decir al mismo tiempo y sobre la misma plataforma, algo que sin duda es muy interesante ya que con esto y las especificaciones que vemos todo parece indicar que Kaby Lake X sería como la “gama básica de entrada” y Skylake X sería el tope de gama, siempre teniendo en cuenta de que hablamos del nuevo socket LGA2066 de Intel.
Dicho socket es el sucesor del actual LGA2011-v3, que como sabemos se utiliza para sustentar los procesadores de gama “extrema” de Intel, que en esencia son aquellos que tienen más de cuatro núcleos.
Entrando a ver la imagen filtrada podemos sacar en claro que Kaby Lake X tendría cuatro núcleos, probablemente a una alta frecuencia de trabajo, algo que intuimos comparando su TDP con el de los procesadores Kaby Lake S.
Intel-Kaby-Lake-X-and-Skylake-X-Desktop-Processor-Comparison
Por su parte Skylake X tendría versiones de seis, ocho y diez núcleos, el mismo conteo que encontramos en los modelos actuales Broadwell-E, pero al ser un “tock” con respecto a aquél ofrecerán un incremento de rendimiento incluso con la misma frecuencia y con los mismos núcleos.
No tenemos detalles exactos sobre la frecuencia de trabajo de estos procesadores, pero todos deberían contar con la tecnología HyperThreading y sumar dos hilos por cada núcleo físico.

Fuente:
http://www.muycomputer.com/2016/07/18/especificaciones-intel-skylake-x-kaby-lake-x

domingo, 17 de julio de 2016

Ben Heck desmonta y nos muestra la Super Nintendo PlayStation CD


El reconocido profesional Ben Heck ha tenido ocasión de desmontar y analizar a fondo el prototipo de Super Nintendo PlayStation CD que vimos en noticias anteriores, y gracias a su trabajo hemos podido conocer una gran cantidad de detalles sobre dicho accesorio.
Una de las dudas que más rondaba a todos los aficionados al mundo del videojuego era la potencia real de este prototipo, y hasta qué punto podía compararse con otros modelos de la época, como la unidad de CD para TurboGrafx 16 y la MegaCD para Mega Drive.
Antes de entrar en cuestiones técnicas debemos decir que tal y como indica Ben Heck la Super Nintendo PlayStation CD está mucho más cerca de la consola de 16 bits de Nintendo que de la consola de 32 bits que lanzó Sony unos años después, aunque en su interior encontramos chips de ambas compañías, lo que demuestra que fue una solución creada con la colaboración de ambas empresas, y no sólo por la segunda.
Esto nos da una primera respuesta a esa pregunta, y es que en términos de potencia la Super Nintendo PlayStation CD no sólo no marcaba ningún avance importante con respecto a la consola de Nintendo, sino que además comparada con el MegaCD de SEGA resultaba inferior en muchos aspectos.
Uno de los más claros era la ausencia de un coprocesador potente, ya que el sistema depende del chip principal a 3,5 MHz que monta  Super Nintendo, mientras que el Mega CD incluye una CPU a 12,5 MHz y hasta una GPU dedicada.
La unidad de SEGA también contaba con una mayor cantidad total de RAM y no dependía de un cartucho externo para funcionar, aunque su lector era inferior al de Super Nintendo PlayStation CD, que montaba una unidad de doble velocidad.
En cualquier caso esto se vería penalizado por su bus de 8 bits (el de MegaCD era de 16 bits), un detalle que nos lleva a la conclusión que ya anticipamos, el Super Nintendo PlayStation CD no marcaba ningún avance importante frente a la 16 bits de Nintendo.

Fuente:
http://www.muycomputer.com/2016/07/17/nintendo-playstation-cd

Esa revolución llamada Famicom cumple 33 años

Justo hoy se cumplen 33 años desde el lanzamiento de Famicom, una consola que como sabrán muchos de nuestros lectores fue la versión original de lo que en occidente conocimos como Nintendo NES.
A pesar de que los juegos que recibieron ambas consolas fueron en su mayoría los mismos las diferencias entre las dos eran muy grandes, y no se limitaban al diseño en general ni tampoco al tamaño de los cartuchos.
La Famicom fue concebida prácticamente como una especie de consola-ordenador, y como consecuencia de ello Nintendo lanzó una gran cantidad de accesorios tan innecesarios como originales, entre los que podemos citar desde un teclado hasta una disquetera conocida como Famicom Disk System, que llegó en 1986 y era compatible con unidades de hasta 128 KB.
Este último resultaba un ahorro considerable frente a los cartuchos, pero tenía unos requisitos que lo convertían en algo un poco engorroso, ya que requería insertar un cartucho que apoyaba al conjunto con RAM adicional y un chip FM para la música.

Comparada con la NES ofrecía todo un mundo de posibilidades, sobre todo teniendo en cuenta las limitaciones y las particularidades de la tecnología en la década de los ochenta.
Desde luego la Famicom daría para hacer un artículo especial muy completo e interesante. ¿Os gusta la idea? Pues no dudéis en dejar vuestra opinión en los comentarios.

Fuente:
http://www.muycomputer.com/2016/07/15/famicom-cumple-33-anos

No te pierdas al Sol “girando sobre sí mismo” gracias a la NASA

ecientemente la NASA dio la orden de que el Solar Dynamics Observatory (SDO) realizara un giro de 360 grados sobre un único eje, y durante todo el proceso se siguieron capturando imágenes del Sol cada doce segundos, lo que permitió hacer posible el montaje que vemos en el GIF.
Da la sensación de que el giro se realizó en apenas unos segundos pero en realidad el SDO tardó unas siete horas aproximadamente, sólo que todo el proceso se aceleró para hacer que resultara mucho más impresionante, y podemos decir sin miedo a equivocarnos que lo han conseguido.
Es importante matizar que este contenido ha sido elaborado gracias a la captación de ondas de radiación ultravioleta, que como sabemos por sí mismas son invisibles para el ojo humano, aunque se colorearon con el tono dorado que vemos en el GIF para que todo el montaje fuese más amigable y fácil de identificar.
¿Y por qué se llevan a cabo estos procesos de rotación? Pues al parecer son totalmente necesarios debido a que el Sol no tiene una forma perfectamente esférica y a que su superficie es altamente cambiante, siendo esto último consecuencia directa de los constantes proceso de fusión nuclear que se producen.
Con la rotación se consigue una especie de calibración y puesta a punto de las herramientas de observación que permite garantizar la precisión y el óptimo funcionamiento de las mismas, y por lo general se realiza entre una y dos veces ala año.
Más información: SlashGear.
Fuente:
http://www.muycomputer.com/2016/07/16/sol-girando-gracias-nasa