Xataka – Privacidad en Oxygen OS: cómo configurar tu móvil OnePlus para respetarla al máximo

Vamos a explicarte cómo configurar tu móvil OnePlus para intentar que respete al máximo tu privacidad, o por lo menos para hacerlo dentro de lo posible. Y es que debes recordar que la configuración del móvil puede ayudar, pero no puede evitar que luego la expongas en algunas aplicaciones o cuando navegas por Internet.

Si tienes otro móvil, ya te hemos hecho artículos como este tanto para Android básico como para otras capas de personalización como MIUI, One UI o EMUI. Ahora le toca el turno a OnePlus, que tiene las opciones ordenadas de diferente manera, por lo que hay algunos cambios que debes tener en cuenta.


Leer más

HardZone – Así funciona el sistema de anclaje SecuFirm de los disipadores Noctua

De entre todos los fabricantes de productos de refrigeración, si hay uno destacado ese es Noctua; el fabricante austriaco se dedica exclusivamente a la refrigeración y pone todo su impulso de I+D en ello, motivo por el que sus disipadores siempre se encuentran en la cima de las clasificaciones de rendimiento. Pero, además de tener unos de los mejores disipadores del mercado, también cuentan con el galardonado sistema de anclaje SecuFirm, reconocido como uno de los más seguros y a la vez más sencillos de utilizar. En este tutorial os vamos a contar los entresijos de este sistema de anclaje y, por supuesto, os vamos a contar cómo montar cualquier tipo de disipador de Noctua que lo lleve.

El sistema de anclaje Noctua SecuFirm es reconocido por ser de los más sencillos de utilizar y a la vez más seguros; es compatible con todo tipo de sockets de Intel y de AMD y está integrado en prácticamente todos los disipadores de la marca, por lo que si tienes dudas sobre cómo montar un disipador de Noctua, en este artículo encontrarás la respuesta a tus preguntas.

Cómo montar un disipador de Noctua en CPUs Intel

El sistema de anclaje Noctua SecuFirm consta en total de 11 piezas:

El backplate.
Dos soportes.
Cuatro separadores.
Cuatro tornillos.

El backplate está específicamente diseñado para sockets Intel y viene ya con los tornillos macho integrados, por lo que tan solo tendrás que alinear éstos con los agujeros del socket de la placa base fijándote en que lo haces en el sentido correcto (fíjate que el backplate tiene ciertas perforaciones que están ahí para que no choquen los tornillos internos del propio socket). Este backplate, que siempre es de color negro, está fabricado en robusto acero y es el que se encargará de repartir y soportar el peso del disipador para que la placa base no se dañe a pesar del gran peso que tienen los disipadores.

Luego siempre encontramos los dos soportes que podéis ver en la parte de arriba, encima del backplate; éstos son los que tienen varias perforaciones para poder pasar los tornillos del backplate por ellos, de manera que se adaptan a cualquier tipo de socket de Intel sin ningún tipo de problema. Más allá de eso, tenemos los separadores de plástico negro y los cuatro tornillos hembra que sirven, obviamente, para anclar los soportes al backplate.

Así pues, como hemos dicho antes para instalar un disipador Noctua con SecuFirm en un sistema Intel, primero hay que colocar el backplate por la parte de detrás haciendo que coincidan los tornillos y que quede perfectamente plano; el siguiente paso es colocar en cada uno de ellos uno de los separadores de plástico negro.

El siguiente paso es colocar los soportes; este paso no tiene complicación, simplemente deposítalo haciendo que los agujeros coincidan con los del backplate y fíjate en que lo haces con la orientación correcta, tal y como se muestra en la siguiente imagen.

Una vez colocados encima, tan solo tienes que colocar los tornillos y apretarlos con los dedos. Noctua suministra también un destornillador en L para facilitarte el apretarlos del todo.

Con esto, el sistema de anclaje SecuFirm ya está instalado, así de sencillo. Ahora quedaría obviamente colocar el disipador, y esto es tan sencillo como (previa aplicación de pasta térmica) colocar el disipador encima del procesador haciendo que los tornillos que vienen preinstalados en este coincidan con los de los soportes y apretarlos, inicialmente con las manos y luego ayudándote del destornillador.

Listo. Una vez apretados ambos tornillos el disipador ya habrá quedado fijado al sistema de anclaje SecuFirm, y ya solo quedará montar y conectar los ventiladores para que quede listo para funcionar.

El anclaje SecuFirm para CPUs de AMD

Si tienes un sistema AMD y quieres utilizar un disipador de Noctua, también puedes hacerlo de una manera incluso más sencilla que la que ya hemos visto para procesadores de Intel porque ni siquiera necesitas un backplate específico, sino que puedes utilizar el que siempre viene por defecto en las placas base de AMD. Los componentes que conforman el sistema SecuFirm para procesadores AMD son los siguientes:

Cuatro soportes (dos cortos y dos largos, para elegir la orientación del disipador).
Cuatro tornillos.
Cuatro separadores.

La instalación es incluso más sencilla que la de un sistema Intel, ya que como hemos indicado se aprovecha el mismo backplate que traen todas las placas base AMD. Eso sí, lo que sí que hay que quitar son los soportes de este backplate, así que debes retirar los dos tornillos que tiene por cada lado y retirarlos junto con la pieza de plástico, ya que lo que se aprovecha es simplemente en backplate pero no lo demás.

Aquí debes tomar una decisión, y es que como el socket de AMD es rectangular y no cuadrado, para elegir la orientación del disipador debes escoger entre utilizar el juego de soportes cortos o largos, dependiendo de hacia dónde quieres que esté orientado el disipador. En el siguiente gráfico puedes ver qué orientación tendrá el disipador dependiendo de los soportes que elijas, y además también puedes ver su orientación en el anclaje.

Una vez elegidos los que quieras utilizar, ahora lo que hay que hacer es poner los separadores de plástico encima de cada uno de los agujeros del backplate.

Ahora, introduce dos tornillos en los agujeros de cada uno de los soportes e introdúcelos haciendo que coincidan con el agujero del separador y backplate. Lo verás claramente en la siguiente imagen.

El siguiente paso es simplemente atornillar los cuatro tornillos para que quede el soporte bien sujeto.

Listo, con esto el anclaje Secufirm ha quedado ya montado en el sistema AMD, y lo que resta es igual que en el de Intel: poner la pasta térmica y luego poner el disipador encima del procesador haciendo que los tornillos preinstalados en éste coincidan con los tornillos macho de los soportes. Apretar, y ya quedará fijado.

Una vez hecho esto, tan solo tendremos que montar los ventiladores y conectarlos para tener el disipador listo y funcionando en nuestro sistema de AMD. Como podéis apreciar, montar un anclaje SecuFirm de Noctua no podría ser más sencillo y, realmente, es un proceso que no lleva más de cinco minutos incluso en manos inexpertas.

The post Así funciona el sistema de anclaje SecuFirm de los disipadores Noctua appeared first on HardZone.

Xataka – Buscamos la Detroit de Internet: cualquier tiempo fue mejor para estos ex-gigantes de la red

La procelosa y corta historia de Internet desde que Tim Berners-Lee presentara la Web a principios de los 90 desde el CERN suizo está llena de colosos, más o menos grandes, más o menos longevos, que tuvieron su momento de gloria y que ahora o bien han echado el cierre o se regodean en sus ruinas. Hagamos un repaso a las detroits de Internet, a estos restos de naufragios que ocurrieron no hace tanto tiempo.

¿Detroit? Sí, Detroit, la ciudad de la Ford, los bad boys y la Motown. La ciudad de Coppola, Madonna y Eminem. Y la ciudad de Robocop. Paul Verhoeven convertía la ciudad del motor en una distopía violenta y arruinada que años después se hizo casi realidad. La crisis del sector automovilístico provocó la diáspora de población (casi medio millón en 30 años), la bancarrota en 2013 y que un estado tradicionalmente demócrata como Michigan se entregara con los brazos abiertos a las carnes anaranjadas de Donald Trump en las elecciones de 2016. Leer más

HardZone – Todos las usamos pero, ¿sabes cómo se fabrica una CPU?

En la era moderna no podemos concebir la informática sin el procesador, también llamado CPU (Central Processing Unit en inglés). Los utilizamos en los ordenadores, en los smartphones e incluso en la televisión, pero ¿alguna vez te has preguntado cómo se fabrica una CPU? En este artículo te lo vamos a contar con todo lujo de detalles, de manera que puedas entender cómo es el proceso desde su concepción hasta el producto terminado que todos utilizamos.

La concepción que la mayoría de usuarios tienen de un procesador es que es un simple elemento de hardware que se coloca en la placa base y que genera mucho calor. No obstante, un procesador está conformado por miles de elementos complejos que es lo que le permite realizar las operaciones matemáticas necesarias para que todo funcione, ya que al fin y al cabo todo lo que realiza el ordenador debe pasar necesariamente por el procesador, incluyendo lo que procesa la GPU, motivo por el que es tan sumamente importante.

Cómo se fabrica una CPU

Si bien la forma en la que funcionan los procesadores puede parecer mágica, es el resultado de décadas de ingeniería inteligente. A medida que los transistores, los elementos con los que están conformados los procesadores en su mayoría, se reducen a escalas microscópicas, la forma en la que se fabrican las CPU es cada vez más complicada.

La fotolitografía es la que da vida a las CPU

Estamos acostumbrados a ver obleas llenas de decenas de chips que luego son los que se utilizan en los procesadores, pero para llegar a eso hay que pasar por una serie de pasos que comienzan con la fotolitografía.

Los transistores son ahora tan increíblemente pequeños que los fabricantes no pueden construirlos con métodos normales. Si bien los tornos de precisión e incluso las impresoras 3D pueden hacer creaciones increíblemente complejas, generalmente alcanzan niveles de precisión micrométricos (eso es aproximadamente unas treinta milésimas de pulgada), pero aun así no son adecuados para las escalas nanométricas en las que se fabrican los chips de hoy.

La fotolitografía resuelve este problema al eliminar la necesidad de mover maquinaria complicada con mucha precisión. En su lugar, utiliza luz para grabar una imagen en un chip de silicio, como si fuera un retroproyector antiguo de los que se podían encontrar en las aulas de los colegios pero al revés, reduciendo la escala de la plantilla a la precisión deseada.

Así, la imagen se proyecta en una oblea de silicio que se mecaniza con una precisión extremadamente alta en máquinas especiales (las famosas máquinas que fabrica ASML) y en unas condiciones de hermetismo extremo, ya que cualquier mota de polvo en la oblea podría significar que se echara a perder completamente. La oblea está recubierta por un material llamado fotorresistencia, que responde a la luz y reacciona a ella dejando un grabado de la CPU que se puede rellenar con cobre u otros materiales para formar los transistores. Luego, este proceso se repite muchas veces aumentando el tamaño de la CPU de igual manera a como una impresora 3D acumula capas de plástico.

Los problemas con la fotolitografía a nanoescala

No importa si puedes hacer que los transistores sean cada vez más pequeños si éstos no son capaces de funcionar, y la tecnología a nanoescala tiene muchos problemas con la física debido al tamaño. Se supone que los transistores detienen el flujo de electricidad cuando están apagados, pero se están volviendo tan pequeños que a veces los electrones son capaces de fluir a través de ellos. Esto se llama túnel cuántico y es un problema enorme para los ingenieros del silicio.

Los defectos son otro problema; incluso la fotolitografía tiene un límite en su precisión, es algo análogo a una imagen borrosa del proyector, que no muestra una imagen tan clara cuando se amplía o se reduce. Actualmente, las fábricas de silicio están tratando de mitigar este efecto utilizando la tecnología EUV (luz ultra violeta extrema), una longitud de onda mucho más alta de la que los humanos podemos percibir, usando láseres en una cámara de vacío. No obstante, este problema persistirá a medida que el tamaño siga reduciéndose.

A veces, los defectos se pueden mitigar con un proceso llamado binning: si el defecto afecta a un núcleo de la CPU, ese núcleo se desactiva y el chip se vende como una pieza de gama inferior. De hecho, la mayoría de las líneas de CPU se fabrican utilizando el mismo modelo, pero tienen núcleos desactivados porque han salido con defectos y por ello se venden a un precio más bajo como un producto de gama inferior.

Si el defecto golpea por ejemplo la memoria caché u otro componente esencial, es probable que el chip deba desecharse, lo que da como resultado un rendimiento de fabricación más bajo y por ende unos precios más elevados. Los nodos de proceso actuales, como los de 7 e incluso 10 nanómetros, tienen tasas de rendimiento más altas que los nodos de 5 nm y por lo tanto sucede al contrario, su precio es más bajo.

El empaque, esencial en el proceso de cómo se fabrica una CPU

Siguiendo con el proceso de cómo se fabrica una CPU, una vez que tenemos los chips ya listos es necesario empaquetarlos para el uso del consumidor, y esto es mucho más que simplemente ponerlos en una caja con un poco de espuma de poliestireno. Cuando una CPU está terminada, sigue siendo inútil a menos que pueda conectarse al resto del sistema, así que el proceso de «empaque» o «empaquetado» se refiere al método en el que la delicada matriz de silicio (el die) se une al PCB que la mayoría de la gente considera como la CPU.

Este proceso requiere mucha precisión, pero obviamente no tanto como los pasos anteriores. La matriz de la CPU está montada en una placa de silicio y las conexiones eléctricas se ejecutan en todos los pines que hacen contacto con el socket de la placa base. Las CPU modernas pueden tener miles de pines, como por ejemplo los procesadores AMD Threadripper que cuentan con 4096 de ellos.

Dado que la CPU produce mucho calor y también debe proteger su integridad en el otro lado, se monta un difusor de calor integrado o IHS en inglés en la parte superior. Esto hace contacto con la matriz y transfiere el calor fuera de ésta, que luego refrigeramos nosotros utilizando un disipador para CPU. Para algunos entusiastas la pasta térmica utilizada para hacer esta conexión no es lo suficientemente buena, lo que hace que algunos decidan realizar un proceso de delid al procesador.

Una vez que está todo armado, se puede empaquetar ahora sí en cajas reales, listo para llegar a los estantes de las tiendas y montarse en nuestros ordenadores. Ahora que ya sabes cómo se fabrica una CPU y la complejidad de su fabricación, es una maravilla que la mayoría de las CPU modernas solo cuesten unos cientos de euros, ¿verdad?

The post Todos las usamos pero, ¿sabes cómo se fabrica una CPU? appeared first on HardZone.

HardZone – MiSTer FPGA o cómo emular sistemas antiguos, PCs, consolas y juegos

De un tiempo a esta parte la emulación, o más bien simulación, de sistemas retro a través de FPGA se ha puesto muy de moda, ya que gracias a ellos es posible tener un sistema lo más fiel posible al hardware original. El proyecto MiSTer FPGA entra dentro de los de esta categoría. Os explicamos en que consiste.

Poco a poco los antiguos sistemas se degradan por completo y no se pueden llegar a utilizar y preservarlos de la manera más fidedigna posible es importante para la historia de la informática. Si los chips originales no podemos conservarlos, al menos podemos conservar su organización y hacer que los FPGA se comporten como tales.

¿Qué es MiSTer FPGA?

MiSTer FPGA es un proyecto libre y abierto que busca la reproducción más fidedigna posible de sistemas antiguos a través del uso de un FPGA, el cual es configurado para emular sistemas antiguos, ya sean ordenadores o consolas de videojuegos. Para ello la comunidad MiSTer ha creado archivos que permiten configurar al MiSTer FPGA para funcionar ya como diferentes sistemas de 8 y 16 bits.

Gracias a que se utiliza un FPGA configurado como el hardware original, este se comporta como el hardware original y no a través de emulación. Dicho de otra manera, el MiSTer FPGA se comporta como el hardware original y es el sustituto ideal para quienes quieren la experiencia más fiel posible con esos sistemas.

¿Las diferencias con otros proyectos? Al ser un proyecto abierto y libre no está asociado a una marca comercial, esto les da la libertad a los participantes del mismo para ser lo más fieles posible al hardware original. Muchas de las soluciones comerciales que «emulan» consolas antiguas a través de FPGA están limitadas a no violar ni las patentes ni la propiedad intelectual y por tano han de buscar otras soluciones para evitar litigios.

¿Cómo se desarrollan los núcleos de los diferentes sistemas?

Los FPGA se programan utilizando lenguajes de descripción del hardware como Verilog y VHDL en sus diferentes versiones. Estos lenguajes no describen programas a ejecutar, sino la organización interna de los diversos transistores. La forma de conseguirlo es primero haciendo fotografías con microscopios especiales y utilizar la información visual como un mapa que después se codifica. Lo cual debido a que la cantidad de transistores se ha ido duplicando cada cierto tiempo por la Ley de Moore, cosa que complica el análisis y la implementación.

Cuando los sistemas son muy complejos, se crea una versión para FPGA lo más cercana posible al hardware original, pero muchas veces hay elementos que no han sido documentados por el fabricante y estos se han de implementar a través de ingeniería inversa. Esto provoca que pese a que el MiSTer FPGA se haya configurado para comportarse como un núcleo en concreto este no funcione de manera fidedigna.

Otro de los problemas tiene que ver con el hecho de que los tiempos de vídeo en los sistemas antiguos se pensaron para funcionar con monitores y televisores que ya no existen, y aunque es posible añadir módulos adicionales que te permitan hacer uso de un monitor CRT, realmente todos los núcleos MiSTer FPGA están pensados para sacar su señal de vídeo por HDMI, por lo que totalmente fieles al hardware original no lo son. Por suerte se trata de un proyecto abierto y los núcleos que describen el hardware se van actualizando con el tiempo.

¿Por qué un FPGA?

La ventaja que tiene los FPGA es podemos configurarlo como si fuesen diferentes piezas de hardware interconectadas entre sí y funcionando en paralelo. Esto tiene una mayor eficiencia que un emulador en el que todas las piezas del mismo son emuladas por un solo núcleo o por varios pero de manera menos eficiente. Un FPGA permite integrar de manera más fidedigna el hardware antiguo, no solamente haciendo que el hardware funcione tal cual, sino también con los mismos tiempos e interfaces de comunicación.

¿Qué hardware compone el MiSTer FPGA?

El FPGA principal del MiSTer FPGA es el De10-Nano de Terasic, se trata de un SoC Intel Cyclone V 5CSEBA6U23I7, el cual incluye dos núcleos ARM Cortex-A9 como CPU principal, una memoria RAM DDR3 de 1 GB, una interfaz Micro SD, una salida de vídeo HDMI y un conector mini-USB del tipo B. Esta parte del hardware es utilizada para cargar los núcleos a través de un menú, una vez que han sido cargados el FPGA es iniciado, el cual empieza a funcionar como el núcleo que le hemos cargado.

La cantidad de puertas lógicas que tiene el FPGA es de 110.000, esto significa que no puede simular sistemas complejos por la falta de puertas lógicas programables en su interior. Por lo que si esperáis emular un sistema de 32 o de 64 bits entonces lo mejor es que os olvidéis de hacerlo, ya que no existen los suficientes elementos para ello.

Tampoco os esperéis una emulación 100% fidedigna, ya que como hemos comentado antes hay muchos elementos del hardware de esos sistemas que bien si sabemos lo que hacen nunca fueron documentados y no tenemos la información de como están implementados en el hardware.

Módulos de SDRAM para el MiSTer FPGA

El otro elemento que es necesario son los módulos de SDRAM, lo cual sorprende desde el momento en que el sistema tiene 1 GB de memoria DDR3 integrada. ¿La explicación? Tiene que ver con la velocidad de reloj y la latencia, ya que a medida que la RAM ha ido dando mayores anchos de banda también ha aumentado la latencia. A día de hoy esto es negligible, pero los sistemas antiguos se diseñaban para que los procesadores funcionasen en unos tiempos concretos, los cuales estaban relacionados con la latencia entre la RAM y los diferentes elementos.

Lo habitual sería hacer uso de la memoria interna del FPGA, pero esto supone reducirla de cara a la simulación del hardware, por lo que es necesaria utilizar RAM externa y la respuesta ha sido el uso de SDRAM, la cual es un compromiso entre la mejor solución que sería la SRAM y la peor es que el uso de memoria DDR a la hora de simular los diferentes sistemas.

El otro motivo es que la DDR RAM se utiliza por los núcleos ARM, lo que supone que hay contención en el acceso de la misma, añadiendo aún más latencia y haciendo que la simulación por parte del FPGA no sea la correcta. En general los tiempos de respuesta de la memoria son importantes para que el sistema funcione de manera sincronizada y coordinada.

Expansiones de E/S para el MiSTer FPGA

El MiSTer FPGA tiene una serie de placas de expansión que añaden funcionalidades adicionales que son necesarias para añadir ciertas funcionalidades y conectividad con ciertos periféricos. La instalación de estas placas no es sencilla, ya que en algunos casos  no se basan en conectarlas a un puerto de expansión y se ha de hacer a través de soldar ciertas conexiones. Por lo que en la mayoría casos os recomendamso  comprar un MiSTer FPGA con todo el kit montado al completo.

Analog Board

La primera placa de E/S para el MiSTer es la llamada Analog Board que añade los siguientes elementos:

Un conector VGA, para poder conectar un monitor CRT.
Un minijack de audio con TOSLINK.
Una interfaz SD secundaria, la cual es necesaria para algunos núcleos.
Un ventilador para enfriar el De10-Nano, es decir, el FPGA.
Un puerto de aspecto USB 3.0, el cual es el llamado User Port y se trata de un puerto de serie, el cual se utiliza principalmente para poder conectar los controladores originales a través de dicha interfaz.

Los adaptadores SNAC permiten conectar un mando de control en uno de estos conectores, pero si queremos poder conectar más mandos nos vemos severamente limitados, ya que la Analog Board solo dispone de un User Port.

RTC Board

La segunda placa de expansión es la RTC Board, la cual añade un reloj a tiempo real para los núcleos que lo necesitan para funcionar de manera correcta. Las CPU suelen contar el tiempo a partir de la duración de sus ciclos de reloj, por lo que para tener información del trascurso del tiempo del mundo real necesitan este tipo de placas, las cuales además se pueden actualizar a través de internet.

ADC Board

La tercera placa es la Audio/Tape Input, esta placa permite conectar una unidad de casete para mayor fidelidad de la experiencia de los ordenadores de 8 bits. Se trata de un añadido para la gente que guarde todavía las cintas de sus ordenadores de 8 bits y le funcionen después de tanto tiempo, por lo que no es una pieza fundamental para funcionar.

USB Board y BlisSTer

La cuarta placa es el USB Hub, el cual añade 7 puertos USB al MiSTer FPGA para poder conectar diversos periféricos. Ya sean ratones, teclados, gamepads e incluso podemos añadir módulos Bluetooth y WiFi.

El USB Hub no se debe confundir con la placa BlisSTer, la cual integra una serie de User Ports para poder conectarles varios adaptadores SNAC y poder conectar varios mandos y periféricos al mismo tiempo. Lo cual es ideal si aún conservas los periféricos originales y quieres seguir utilizando estos.

The post MiSTer FPGA o cómo emular sistemas antiguos, PCs, consolas y juegos appeared first on HardZone.

Xataka – ‘Homunculus’: Netflix se sube al tren de la extravagancia máxima con una historia alucinógena del director de ‘La maldición’

‘Homunculus’ es una adaptación de un manga de notable éxito y extrañas características. Se publicó durante ocho años, entre 2003 y 2011: no es extraordinariamente extenso para un producto de este tipo, aunque sin duda, acaba afectando a una película que intenta resumir toda su trama en un par de horas. Netflix la ha adquirido para su distribución internacional y los resultados no son redondos, pero sí muy interesantes.

Se podía esperar, desde luego, un contenido poco acomodaticio: Hideo Yamamoto, autor del manga original, lo es también de ‘Ichi the Killer’, cuyo éxito fue superado a nivel internacional por su adaptación al cine, dirigida por el prolífico e inclasificable Takashi Miike. Sin duda es en su fama, que no decae con el paso del tiempo, en lo que se ha fijado Netflix para adquirir los derechos y pasear la película por su plataforma.

Hay otro nombre propio conocido en occidente al frente de la película: Takashi Shimizu, director en el año 2000 de las dos entregas de ‘Ju-On’, conocidas en España como ‘La maldición’, y sin duda los ejemplos más populares de horror japonés de la época junto a ‘Ringu’. Shimizu dirigió también los dos remakes americanos de sus películas, conocidos como ‘El grito’, y sin duda su visión para convertir al niño Toshio en uno de los iconos  del terror japonés es lo que le ha convertido en ideal para visualizar las pesadillas de ‘Homunculus’.

Porque en ‘Homunculus’ abundan las pesadillas y las alucinaciones. Las padece un hombre que está intentando redimirse tras una vida frívola y de excesos, viviendo en su coche. Se somete a un tratamiento de trepanación cerebral experimental, y tras él comienza a percibir a la gente que le rodea de forma extraña, como si viera lo que son realmente, bajo tintes alucinógenos: desde niños ocultos dentro de robots gigantes a mujeres sin cara, pasando por personas partidas en dos.

La maldición de ver la verdad

Estas alucinaciones, que aparecen cuando nuestro protagonista, Susumu Nakoshi, se tapa un ojo, son lo mejor del conjunto. Cuando empieza a superar el (comprensible) terror que las visiones producen, parece que las desventuras de Nakoshi van a tener un carácter episódico, y que va a convertirse en una especie de psicoanalista que contempla de forma física los traumas de la gente. Sin embargo, pronto la película da un nuevo giro y esas alucinaciones comienzan a afectarle personalmente a él y a quienes le rodean.

Es en esa parte donde la película se distancia definitivamente del manga, lo que no tiene que ser necesariamente malo. ‘Ichi the Killer’, sin ir más lejos, traicionaba a su fuente continuamente, y el resultado es soberbio; pero la falta de ataduras a la narrativa convencional de Takashi Miike no son comparables a la capacidad de Shimizu, y lo que hace es domesticar parcialmente la atrevida propuesta del manga original. El del film es un final interesante, con unas cuantas sorpresas y de una intensidad considerable, pero inferior al del manga.

Aún así, ‘Homunculus’ tiene abundantes puntos de interés, la mayoría derivados del propio disparate del punto de partida y su ejecución en pantalla. Aunque los efectos CGI no terminan de cuajar junto a la imagen real, y los homúnculos funcionan mejor sobre el papel del manga, donde realidad y visiones comparten textura, la inventiva y extravagancia abunda desde el arranque de la película.

A ello colaboran unos estupendos Gou Ayano y Ryo Narita como el trepanado y el doctor que experimenta con él, entregados a un argumento que sin ellos como asideros podía haberse perdido por vericuetos muy abstractos. El resultado es irregular y, desde luego, no para todos los paladares, pero es un buen colutorio de rareza netamente nipona que se distancia de lo habitual en la ciencia-ficción y la fantasía de Netflix.


La noticia

‘Homunculus’: Netflix se sube al tren de la extravagancia máxima con una historia alucinógena del director de ‘La maldición’

fue publicada originalmente en

Xataka

por
John Tones

.

Xataka – «Free to play», «pay to win», «pay to fast» y demás jerga gamer: qué significan estos términos (explicado con ejemplos)

¿Os acordáis de cuando ibas a una tienda, te comprabas un juego y ya? Qué tiempos. Llegabas a casa con tu disco, lo metías en la consola y pispás, a jugar. El juego completo, sin historias raras ni micropagos, ni skins, ni bailes, ni nuevos niveles ni na’ de na’. Si bien es cierto que sigue habiendo juegos que mantienen esa esencia, no es ningún secreto que la cosa ha cambiado mucho y que ahora lo normal es encontrar juegos F2P que son P2W o P2F.

Si esas siglas te suenan a un modelo de lavavajillas, tranquilo, porque hoy vamos a ver qué significa que un juego sea free to play (F2P), pay to win (P2W), pay to fast (P2F), pay to progress (P2Pro) o pay to play (P2Play), entre otros términos. Porque ni todo lo F2P es P2W ni todo lo P2F es P2W. Todo lo acompañaremos con ejemplos para que sea más sencillo identificar las mecánicas.


Leer más

HardZone – La tecnología de audio Super X-Fi, ¿es el Santo Grial de los auriculares?

Durante mucho tiempo y desde la invención de los auriculares, ha habido una incesante búsqueda del llamado «Santo Grial» del audio en auriculares; el desafío ha sido hacer que los auriculares puedan sonar tan naturales como lo que experimentamos en el mundo real que nos rodea en lugar de un sonido «confinado» dentro de nuestras cabezas de forma antinatural. El galardonado fabricante Creative dice haber dado en el clavo con su tecnología Super X-Fi, y en este artículo te vamos a explicar en qué consiste y cómo funciona dicha tecnología.

Según dice Creative, la gran mayoría de pistas de audio creadas hoy en día están destinadas a ser reproducidas en altavoces externos, y los usuarios de auriculares escuchamos ese tipo de contenido constantemente. Esto significa que el audio se bombea directamente a nuestros oídos, creando un escenario sonoro claustrofóbico donde el sonido parece atrapado de manera antinatural en nuestras cabezas, algo que acústicamente está mal y, según este fabricante, supone el que buen audio en auriculares es una falacia.

¿Cómo funciona la tecnología Super X-Fi?

En la vida real, el audio es espacioso y con gran profundidad; todo el mundo percibe el sonido de manera diferente en función de nuestras estructuras faciales individuales y únicas, así como de la forma de las orejas. Para obtener una experiencia de audio natural y expansiva que está hecha realmente a medida para nuestra individualidad, el audio tiene que producirse en los auriculares en función de cómo cada persona individual percibe el sonido en la vida real.

Para ello Creative utiliza un complejo sistema de computación inversa para calcular cómo debe ser la señal de audio de los auriculares y así invertir ese efecto claustrofóbico del que hablan, trayendo la fuente de la señal fuera de nuevo para que suene de manera natural, como si estuviéramos en el mundo real. Además, Super X-Fi personaliza la experiencia de audio que proporcionan los auriculares apoyándose en el perfil único de cada usuario, teniendo en cuenta las complicadas vías de cómo viaja el sonido externo a los oídos.

Esto es lo que han llamado audio holográfico. Imagina capturar la experiencia auditiva de un sistema de altavoces multi canal de alta gama en un estudio y recreando la misma experiencia expansiva (con la misma profundidad original, detalle, realismo e inmersión) en unos auriculares. Al mapear la forma de la cabeza y la oreja del oyente y transformando el audio basado en esos parámetros a través de la tecnología Super X-Fi, el audio se experimenta como si proviniera del exterior de los auriculares.

La tecnología Super X-Fi se basa en audio computacional, utilizando algoritmos complejos y técnicas computacionalmente intensivas para personalizar el audio para cada persona individual a través de un sofisticado proceso de mapeo de la cabeza y las orejas. Efectivamente, tal y como ya imaginaréis, para que este audio pueda hacerse realidad es necesario primero permitir que el software, dotado con un sistema de Inteligencia Artificial, pueda escanear primero la forma de nuestra cabeza y de las orejas. ¿Y cómo se hace esto? De la manera más sencilla posible: subiendo fotografías de nuestra cabeza de frente y de perfil, así como una más cercana de una de nuestras orejas.

Cientos de parámetros antropométricos se extraen de las características de la cabeza con alta precisión mediante un sistema de detección y análisis de imágenes en tiempo real. Luego, el motor de Inteligencia Artificial utiliza estos parámetros junto con la dinámica de los auriculares que se estén utilizando (ya que obviamente no todos los auriculares se comportan ni suenan igual, así que el audio también es personalizado para los auriculares en cuestión) y los sintetiza creando un mapa multidimensional de la acústica deseada.

Utilizando este mapa sintetizado, la tecnología Super X-Fi recrea entonces el audio expansivo y natural que brinda una experiencia auditiva «mágica» (según Creative) personalizada para cada usuario individual. Para el usuario final, todo este poder se hace simple y fácil de utilizar, ya que todo se realiza a través de una aplicación en un smartphone. Es tan sencillo como tomar fotografías de las orejas y cabeza y luego seleccionar los auriculares que se están utilizando; el software hará el resto.

Un chip específicamente diseñado para esta tecnología

La primera encarnación de esto viene de la mano del chip de nueva creación llamado UltraDSP, personalizado y diseñado especialmente para la tecnología Super X-Fi. Este chip está diseñado para el procesamiento de audio Super X-Fi y empaqueta en su interior 5 veces más poder de cómputo que la mayoría de chips Sound Blaster de la marca mientras que al mismo tiempo consume menos de la mitad de energía.

Se trata de un SoC integrado que incorpora una enorme memoria caché optimizada para el procesamiento de audio a la mayor velocidad posible, de manera que es capaz de codificar y descodificar en 32 bits hasta 8 canales de alta resolución de 24 bits de audio a 96 kHz simultáneamente. De hecho, incluso tiene un DAC (conversor de analógico a digital) incorporado de calidad audiófilo que garantiza la mejor calidad posible.

Este chip SXFI puede residir en los propios auriculares, aunque también admite su inclusión directamente en amplificadores o cualquier otro dispositivo de hardware de audio como dongles USB para auriculares inalámbricos o incluso se puede instalar en televisores inteligentes. Super X-Fi también puede existir como tecnología de software simplemente, utilizando en este caso los recursos de la CPU del PC donde se instale. Esto obviamente tendrá la desventaja de que consumirá recursos del sistema, por lo que lo ideal es desde luego poder contar con este chip UltraDSP directamente en el hardware de audio que se vaya a utilizar con la tecnología.

Más adelante, Creative tiene planes de poner esta tecnología a disposición de desarrolladores para que puedan implementarla directamente en sus programas o incluso a nivel de sistema operativo, ya que el objetivo de Creative es trabajar con todas las marcas de audio y fabricantes para extender esta tecnología al mundo entero (esto implica que podremos ver la tecnología Super X-Fi integrada en auriculares que no sean de Creative, si bien seguramente cobren regalías por su uso).

The post La tecnología de audio Super X-Fi, ¿es el Santo Grial de los auriculares? appeared first on HardZone.

Xataka – Patinete eléctrico vs. bicicleta eléctrica: ventajas e inconvenientes y cuál es la mejor recomendación en función del uso

Aunque el buen tiempo o el recelo a las posibles multitudes del transporte público actúan como catalizadores del uso de patinetes y bicis eléctricas, la realidad es que estas formas de movilidad eléctrica urbana siguen gananado adeptos y proliferando en nuestras calles. Comodidad, sostenibilidad (frente a la alternativa del coche clásico), facilidad de manejo y «aparcamiento» sin olvidar la economía son algunas de las razones para apostar por ellos. Si estás pensando en comprar un patinete o una bici eléctrica pero no tienes claro cuál te conviene más, en este artículo comparamos ambos vehículos con sus puntos fuertes y debilidades. Leer más