Buscar:

Xataka – EE.UU. afronta una nueva polémica sobre privacidad y el protagonista es Clearview AI, el software de reconocimiento facial

Polémica servida. Igual que si se adentrase en las primeras páginas del universo Watchmen, EE. UU. encara nuevo capítulo en uno de los debates más espinosos, difíciles y polarizados en la a menudo complicada linde entre seguridad y privacidad: ¿Hay líneas rojas en el uso que las autoridades pueden hacer de la tecnología para salvaguardar el bien común? Y si es así, ¿cuáles?

En el ojo del huracán está la compañía Clearview AI, que acaba de recibir luz verde de las autoridades de EE. UU. para lograr una patente federal por su software de reconocimiento facial y “rastreo web automatizado”, una herramienta que extrae imágenes públicas de Internet —incluidas las redes— para que sus algoritmos las analicen y comparen. El recurso lo utilizan las fuerzas del orden del país para cotejar el material con sus bases de datos y labores de vigilancia.

La noticia de la concesión de la patente federal —para hacerla efectiva, Clearview solo tiene que ponerse al día con las tarifas administrativas— la avanzó Politico en las últimas horas y ha avivado automáticamente el debate en EE. UU., donde —asegura el medio digital— organismos como el FBI o el Departamento de Seguridad Nacional utilizan el software de rastreo.

El miedo de los críticos: vulneración de privacidad y sesgos

Las voces críticas temen que el visto bueno de la patente impulse el desarrollo de tecnologías similares antes de que las autoridades reguladoras y legisladores puedan evaluar sus riesgos potenciales. Reino Unido y Australia ya han acusado a Clearview AI de violar sus normativas de privacidad y protección de datos y Twitter, YouTube, LinkedIn, Venmo, Google o el propio Facebook han mostrado su malestar con que el software se dedique a extraer fotos de sus usuarios.

“La tecnología de reconocimiento facial está haciendo metástasis en todo el gobierno federal. Estoy profundamente preocupado por esta tendencia hacia una mayor vigilancia”, reconocía el senador demócrata Ed Markey a Politico. Su discurso está en línea con el otras autoridades e instituciones, como por ejemplo Amnistía Internacional. ¿Qué alegan las voces contrarias a Clearview AI? Principalmente la vulneración de la privacidad, pero también sesgos por razones de género y raza e incluso la posibilidad de que se detecten errores que deriven en arrestos injustificados, algo —defiende la compañía— que no se ha producido hasta la fecha.

Leer más

Xataka – Haz vídeos mejores y con más calidad con estos 19 accesorios para grabar y hacer streaming en Twitch

Si estás pensando en lanzarte a Twitch o simplemente le estás cogiendo el gustillo y quieres mejorar tus vídeos, necesitarás mejorar agudizar tu ingenio, pero también hacerte con una serie de periféricos y accesorios para subir un peldaño en la calidad de tus vídeos, que se verán mucho más profesionales. En esta guía de compra de periféricos y accesorios para Twitch encontrarás iluminación, sonido, cámaras y mucho más. Leer más

Xataka – Todo sobre los eSports en 11 documentales y series que puedes ver en streaming

El éxito de ‘Arcane’ nos ha vuelto a poner en contacto con las historias que sustentan la mitología de ‘League of Legends’. Pero ‘LOL’ es mucho más: un esport seguido por millones de personas en todo el mundo y que mueve cantidades de dinero e información comparables a los deportes tradicionales. Si te interesa el mundo de las competiciones de videojuegos, tenemos para ti 11 propuestas que se acercan a los esports desde muy diferentes perspectivas: desde los documentales sobre sus estrellas a las ficciones que potencian su atractivo.

‘Arcane’

Por supuesto, ‘Arcane’ es la cita obligada. No solo ‘League of Legends’, el videojuego en el que se basa, es el número uno en número de jugadores y seguimiento masivo, sino que tiene una calidad extraordinaria y aporta una dimensión extra al lore del juego. ‘Arcane’ funciona como precuela e historia de orígenes para algunos personajes icónicos de la franquicia y es un complemente perfecto para las febriles partidas de acción incesante que se dan en las competiciones.

Puedes verla en Netflix

‘The Celebrity Millionaires of Competitive Gaming’

«Hay más gente jugando a ‘League of Legends’ que viviendo en Francia». Es el punto de partida de un documental que se traslada a Corea para analizar el mundo de los eSports más profesionalizados y competitivos. Desde las adicciones que genera a las grandes cantidades de dinero que mueve, pasando por los propios competidores, convertidos en famosos siempre al borde de la adicción y el ataque de nervios. Una visión del lado a menudo oscuro del mundillo, con ese toque con un punto sensacionalista de Vice.

Puedes verlo en Youtube

‘Free to Play’

Nada menos que la propia Valve produce este documental centrado en el primer torneo internacional de ‘DOTA’. Un millón de dólares es el premio para el ganador, y la película se centra en tres jugadores, cómo han llegado hasta allí y cómo el juego ha cambiado sus vidas. Una zambullida en la parte más emocional de los eSports y en el lado más humano de quienes le dan forma.

Puedes verlo en Netflix

‘DOTA: Sangre de dragón’

El MOBA de Valve es también el protagonista de esta serie, pero no desde el punto de vista real, sino desde la ficción. Aunque en los esports lo de menos es el lore, no es mala idea picotear en los mundos de fantasía que proponen los juegos como interludio entre las furiosas partidas de los campeonatos. En este caso, nuestros héroes son Davion, caballero dragón de atributos parcialmente monstruosos, y Mirana, una princesa exiliada que busca fragmentos de unas flores de loto robadas.

Puedes verla en Netflix

‘Offline – La vida no es un videojuego’

Una película ambientada en el mundo de los videojuegos competitivos y que funciona como una especie de versión menor de ‘Ready Player One’, proporcionando un rato de diversión sin complicaciones. En ella conoceremos a un jugador que se está preparando para un torneo a gran escala del juego ‘Batalla de Ulgard’. Pero alguien roba su identidad, así que el conflicto tras la pantalla tendrá que pasar al mundo real.

Puedes verla en Netflix

‘Game Nation’

‘Game Nation’ es un documental de CNA, una red de medios que emite desde Singapur y que se precia de dar información a sus espectadores sin el filtro occidental, por y para asiáticos. Lo demuestra en este vistazo con los seis competidores más prominentes de esports de Singapur: son la excusa para que expertos en distintos aspectos de la industria hablen del negocio y la cultura de los videojuegos competitivos.

Puedes verlo en Youtube

‘Hi-Score Girl’

Un subgénero habitual dentro del manga y el anime, las competiciones deportivas, recibe aquí un curioso giro en una extravagante serie basada en un manga original de Rensuke Oshikiri que se publicó en diez tomos entre 2010 y 2018. El anime respeta su curiosísima estética, y cuenta la relación entre un campeón de los arcades de lucha y su rival más prominente, una chica callada y misteriosa, pero tan hábil en los videojuegos como él.

Puedes verla en Netflix

‘The Smash Brothers’

Esta extensa serie documental se adentra en el mundo competitivo de un juego que no suele centrar la atención de los esports: el ‘Super Smash Bros.’ de Nintendo. A lo largo de cuatro horas se analiza la historia y las tácticas de siete jugadores prominentes del juego, y conoceremos su duelo sin piedad en el EVO 2013, un torneo que ha pasado a la historia de los esports por méritos propios.

Puedes verlo en Youtube

‘7 Days Out – League of Legends’

Esta serie documental se centra en cada capítulo en la semana de preparación de un gran evento: los nervios, la concentración y la sensación de que no hay vuelta atrás tienen lugar sea cual sea la cita, desde un concurso de belleza canina a un torneo de esports, como sucede en este episodio. En este caso, son las finales de primavera de 2018 en Miami de ‘LOL’, pero además, es el año en el que uno de los campeones, Yiliang «Doublelift» Peng, lleva a cuestas una tragedia familiar: su hermano había asesinado a su madre.

Puedes verlo en Netflix

‘The Chase’

‘The Chase’ es una interesante serie de documentales en Youtube que retrata, en cada uno de sus episodios, a una prominente figura de los esports. Uno de los capítulos más notables, sin duda, es el dedicado a Lee «Faker» Sang-hyeok, el jugador coreano más prominente de ‘LOL’, y uno de los principales del mundo. El documental se centra en un año complicado para él, ya que es el momento de mayor estrés y presión de su carrera, y así se lo cuenta a una psicóloga especializada, en un programa que se centra, sobre todo, en los aspectos más mundanos de su día a día.

Puedes verlo en Youtube

‘esports, en pocas palabras’

Terminamos con un documental que, en realidad, sirve para iniciarse en el mundo de los esports con una explicación sencilla, accesible para profanos, y que toca muchos puntos de este complejo fenómeno. Es un capítulo de ‘En pocas palabras’, la extraordinaria serie documental de Netflix y Vox que analiza aspectos muy diferentes de nuestra vida, desde las últimas modas de internet a los principios esenciales de nuestro comportamiento. Aquí se comparan los esports con las competiciones deportivas tradicionales y se explica con claridad el atractivo y potencial del fenómeno.

Puedes verlo en Netflix


La noticia

Todo sobre los eSports en 11 documentales y series que puedes ver en streaming

fue publicada originalmente en

Xataka

por
John Tones

.

HardZone – Así logran las CPU Intel repartir la carga de trabajo entre Cores

Uno de los puntos más críticos de las nuevas CPU Intel Alder Lake es el problema que representa tener en una arquitectura general con dos micro arquitecturas de núcleo distintas y en un mismo die. Lo realizado por el equipo de Pat Gelsinger ha sido realmente revolucionario, pero presenta un problema clave que también incluye al software de por medio: la gestión de la carga y asignación por parte del programador de tareas para cada tipo de núcleo.

La pregunta más obvia sería: ¿cómo sabe el procesador a qué tipo de núcleo y cuál de ellos debe de asignar cada carga de trabajo y con qué instrucciones debe de trabajar? Es sin duda una gran pregunta, pero para ello tenemos que poner en contexto la profundidad del problema.

La complejidad entre hardware y software

Una de las particularidades que tiene la nueva arquitectura de Intel es que con sistemas operativos «antiguos» no se lleva demasiado bien. Funciona sin problemas, pero el rendimiento no es exactamente el mismo y esto es culpa en su totalidad del software.

Windows 10 y las versiones actuales de Linux no tienen, por ahora, un kernel adaptado a un nuevo programador de tareas del gigante azul llamado Thread Director, del cual ya hablamos a fondo en su correspondiente artículo, pero que al mismo tiempo está ligado totalmente al protagonista de este.

Entonces, si solo Windows 11 está listo para Alder Lake, ¿qué ocurre con los demás SO? Pues como decimos no están optimizados y requieren un profundo cambio si se quiere aprovechar las nuevas bondades de estas CPU. El problema radica en el programador del sistema operativo, ya que este es el que decide cuál de todos los procesadores lógicos libres puede trabajar con el subproceso de software que se pretende asignar.

Las opciones en este caso son solo dos:

El SO decide que el procesador lógico libre será uno con el máximo rendimiento porque es lo que menos tiempo va a tardar con esa clase de subproceso porque el sistema es de alto rendimiento.
El SO decide que el procesador lógico libre tiene que ser uno de alta eficiencia porque para esa clase de subproceso es más óptimo ya que el sistema está programado para ser lo más eficiente posible.

Y aquí entra la explicación de Intel para el cálculo simple de una tarea, ya que cuando se da esta tesitura de elección por parte del programador del sistema operativo entre dos procesadores lógicos de la CPU, tanto unos como otros son variables a modo de i, j, k1 y k2.

La relación de rendimiento se calcularía según Intel como: Perfijkx = Perfikx / Perfjkx, mientras que el ratio de eficiencia de este problema vendría calculado como Energyijkx = Energyikx / Energyjkx. Por lo tanto, el SO tiene mucho que decir aquí puesto que siguiendo el ejemplo de arriba el programador podría determinar en el caso hipotético que Perfijk1 > Perfijk2.

Entonces, el subproceso de software k1 iría al procesador lógico j, mientras que el K2 va determinado al procesador lógico j. ¿Qué ocurre si dos subprocesos de software pertenecen a la misma ID? Pues muy simple, ya que el programador del SO puede escoger varios procesadores lógicos de rendimiento o eficiencia para realizar las asignaciones.

Así se distribuye correctamente por parte del sistema operativo Windows 11 la carga y balance de subprocesos de software.

Entonces, ¿qué es EHFI?

EHFI es la abreviatura de Enhanced Hardware Feedback Interface o traducido a nuestro idioma sería Interfaz de retroalimentación de hardware mejorada y es precisamente el conjunto de instrucciones que logran orientar al programador del kernel (Windows 11 por ahora en exclusiva) sobre la ubicación de las cargas de trabajo que determina el SO entre los procesadores lógicos del sistema, es decir entre núcleos e hilos.

Estas instrucciones se cargan cuando el sistema operativo inicia y se alojan como una memoria no paginada. Estas instrucciones se almacenan como una tabla que se asigna a la memoria de escritura diferida de manera que una vez termina dicha carga y se habilitan por parte del SO y el programador de tareas de Intel (Thread Director), es cuando entra a funcionar para distribuir las cargas de trabajo del SO.

Hay que añadir que lógicamente hay un componente clave en esto y no es más que la limitación que supone para EHFI y TD las restricciones térmicas y de energía en las tablas SKU de cada procesador. El microcódigo de Intel fija la disponibilidad de asignación en estas tablas para EHFI y TD, de manera que si un valor sobrepasa el umbral de alguno de los dos valores da paso a los sistemas de seguridad del procesador para dichas tareas.

Pero, ¿cómo sabe EHFI y TD dónde tienen que ir a buscar en la memoria? Según la patente filtrada del sistema existe un indicador de registro de notificaciones que está dentro de Thread Director, el cual detecta cuando ha habido un cambio en la información y cuándo se ha escrito en la memoria, así que el SO no volverá a solicitar ni escribir en dicha región hasta que TD no dé el visto bueno para borrar el indicador pertinente.

El control al que está sometido EHFI

Como hemos comentado más arriba, todo gira en torno a la temperatura y a la eficiencia, no en vano es uno de los aspectos fundamentales de Alder Lake. Los sensores de corriente que implementan ambos tipos de Cores son indispensables para decirle al controlador de energía el consumo de corriente que está teniendo cada núcleo o hilo.

Según las patentes, el nivel de energía total que encuentra registrado el controlador es el equiparable al TDP de procesador y no podrá ser superado, donde además ahora sabemos que Intel ha igualado el PL1 al PL2 y el valor de dicho TDP es la suma de ambos al mismo tiempo.

Entendiendo esto, hay que dividir las acciones del controlador en cuatro secciones a revisar por el mismo:

Dominio de los Cores
Dominio de los gráficos
Domino de interconexión
Dominio del uncore

Por lo tanto, la suma de ellos nunca puede exceder el PL1=PL2, pero sí que se puede gestionar de manera independiente de forma que el controlador puede asignar más energía a unos que a otros dependiendo de cómo se comporte la carga. Hay que añadir a esto que lógicamente el EHFI tiene un tiempo asignado que marca el ritmo de actualización de la tabla y del registro de los controladores, para que así haya un equilibrio en las asignaciones.

Por lo tanto y llegados hasta este punto, EHFI solo tiene que comunicarse con TD para discernir el tipo de núcleo, el rendimiento del mismo y la medida de rendimiento y eficiencia que ostenta, donde en este último paso ya se le dice al programador de Windows 11 dónde tiene que enviar el subproceso de software.

The post Así logran las CPU Intel repartir la carga de trabajo entre Cores appeared first on HardZone.

Xataka – El servicio de transporte urbano con eVTOL ya es una realidad: así se dotará de uno a medida Neom, la nueva Smart city saudí

Es lo que tienen las ciudades de nuevo cuño, levantadas de la nada con un nivel de planificación cuidado al milímetro y filosofía “Smart city”: son bancos de prueba magníficos para servicios y tecnologías incipientes como las aeronaves eléctricos de despegue y aterrizaje vertical eVTOL. Los responsables de Neom, la urbe impulsada por Arabia Saudí a golpe de inversión millonaria y que aspira a convertirse en un referente de metrópoli inteligente; y la startup Volocopter, acaban de firmar un acuerdo para dotar a la ciudad saudí del primer servicio de transporte a medida con eVTOL.

El acuerdo se anunció hace un par de días y —como detalla la propia Volocopter a través de un comunicado— contempla la creación de una joint venture (JV) para “diseñar, implementar y operar” una prestación que califica de pionera a nivel internacional. “Los servicios de taxi aéreo y logística vertical se integrarán completamente con el sistema general de transporte público multimodal y de cero emisiones en Neom”, destacan la empresa y las autoridades saudís, que tienen la vista puesta también en el transporte de mercancías, las emergencias y el turismo.

Un primer pedido de 15 vehículos

Por lo pronto, Neom ha encargado ya 15 eVTOL. El objetivo: “Comenzar las operaciones de vuelo iniciales” en un plazo de entre dos y tres años, lo que, de cumplirse las expectativas más optimistas, permitiría ver los dispositivos de Volocopter sobrevolando la urbe a finales de 2023.

De la decena y media de vehículos encargados, diez serán VoloCity, modelos pensados para pasajeros; y los cinco restantes VoloDrone, enfocados en la logística. La joint venture no esperará en cualquier caso a disponer a los primeros vuelos para ponerse manos a la obra. En cuestión de meses, ya a principios de 2022, quiere “sembrar un ecosistema de movilidad vertical”.

Nadhmi Al-Nasr, de Neom y Christian Bauer, de Volocopter, durante la firma del acuerdo.

Situada en la provincia de Tabuk, al noroeste de Arabia Saudí y a orillas del mar Rojo, Neom se está impulsando como paradigma de las Smart city con una inversión estimada de 500.000 millones de dólares. El objetivo de la nueva metrópoli —como presumían sus impulsores a principios de 2021— es cimentarse sobre la Inteligencia Artificial y lograr el objetivo del cero: “Cero coches, cero carreteras y cero emisiones de carbono”. El acuerdo con Volocopter apunta precisamente en esa dirección y busca abrir camino para otros países. “Neom tiene la misión de convertirse en un laboratorio viviente global para la movilidad futura”, destaca su Chief Executive Officer, Nadhmi A-Nasr.

El acuerdo llega en un momento importante también para Volocopter, que hace apenas un mes hacía una demostración de fuerza y capacidades al divulgar un vídeo en que se ve uno de sus eVTOL tripulado durante una prueba en el aeropuerto de Gimpo, en Seúl. Su dispositivo, un modelo 2X, alcanzó los 50 metros de altura y recorrió 3 kilómetros a una velocidad de 45 km/h.


La noticia

El servicio de transporte urbano con eVTOL ya es una realidad: así se dotará de uno a medida Neom, la nueva Smart city saudí

fue publicada originalmente en

Xataka

por
Carlos Prego

.

Xataka – Mejores gestos y atajos de teclado para Windows 11

Te traemos una recopilación con los mejores atajos y gestos de teclado para Windows 11, de forma que puedas ahorrar tiempo cuando estés haciendo algunas tareas en tu ordenador. Porque a veces, una combinación de teclas puede ser más rápido que estar haciendo clic en un sitio y buscando la opción correspondiente en uno u otro menú.

Windows 11 sigue soportando la mayoría de los atajos de teclado de Windows 10, pero ha añadido algunos nuevos para funcionalidades específicas. En cualquier caso, ha primado la continuidad para que los usuarios no tengan que aprender demasiadas cosas nuevas y puedan seguir con los automatismos internos que ya tengan aprendidos.


Leer más

Xataka – Semiconductores de carburo de silicio: cuáles son sus propiedades y por qué son un aliado valioso para el coche eléctrico

El desarrollo que ha experimentado la tecnología involucrada en la producción de semiconductores durante las últimas dos décadas es asombroso. Y, lejos de ralentizarse, se está acelerando como consecuencia de la creciente demanda de circuitos integrados que están promoviendo las industrias de las tecnologías de la información o la del automóvil, entre otras.

El silicio es el rey en el reino de los semiconductores desde que en los años 60 destronó al germanio y se afianzó como el semiconductor con más potencial y el más utilizado por la industria de la electrónica. Sin embargo, ya tenemos alternativas muy interesantes a los semiconductores de silicio convencionales con los que todos estamos en cierta medida familiarizados.

El desarrollo que está experimentando la tecnología de los semiconductores se está acelerando como consecuencia de la creciente demanda de circuitos integrados

Uno de ellos es el arseniuro de galio. A diferencia del silicio, no es un semiconductor elemental debido a que no está constituido por un único elemento químico: está compuesto de galio (Ga) y arsénico (As). En cualquier caso, las propiedades que lo hacen atractivo son la alta movilidad de sus electrones cuando se dan las condiciones apropiadas, su elevada velocidad de saturación, y, además, los transistores de arseniuro de galio pueden trabajar a frecuencias  superiores a los 250 GHz, que es una cifra bastante impresionante.

No obstante, estos no son en absoluto los únicos semiconductores prometedores más allá del silicio de alta pureza utilizado por la mayor parte de los fabricantes de circuitos integrados. Precisamente, y aunque a priori suene un poco extraño, uno de los semiconductores que está consiguiendo acaparar la atención de la industria de los chips es el producto de introducir átomos de carbono en la estructura cristalina del silicio, haciéndolo menos puro, pero, en determinados escenarios de uso, más atractivo.

Carburo de silicio: estas son las propiedades que lo han puesto en el punto de mira

En realidad, este compuesto no es nuevo. Lo descubrió el químico sueco Jöns Jacob Berzelius en 1824 mientras trabajaba en un nuevo procedimiento que perseguía sintetizar diamantes, y su producción a gran escala arrancó en 1890 de la mano del químico estadounidense Edward Goodrich Acheson. Sus propiedades fisicoquímicas se conocen bien desde hace más de un siglo, pero ha sido la demanda actual de semiconductores la que lo ha colocado de nuevo en el punto de mira.

Al igual que el arseniuro de galio, el carburo de silicio no es un semiconductor elemental debido a que no está constituido por un único elemento químico. Como he mencionado un poco más arriba, contiene silicio y carbono, y en la naturaleza podemos encontrarlo en un mineral muy escaso conocido como moissanita en homenaje a Henri Moissan, el químico francés que dio con él accidentalmente en el ya muy lejano 1893.

Al introducir átomos de carbono en la estructura cristalina del silicio ultrapuro sus propiedades fisicoquímicas se ven alteradas

En la práctica, al introducir átomos de carbono en la estructura cristalina del silicio ultrapuro sus propiedades fisicoquímicas se ven alteradas, permitiendo que los electrones libres se muevan más y a más velocidad. Esta propiedad provoca que los semiconductores de carburo de silicio sean capaces de trabajar con una frecuencia de conmutación más alta que los chips de silicio puro. No obstante, esto no es todo.

Otra característica esencial de estos semiconductores consiste en que disipan sensiblemente menos energía en forma de calor que estos últimos. Esta propiedad nos permite intuir lo atractivos que son en el ámbito de la producción de semiconductores de potencia, en los que es imprescindible administrar la energía de la forma más eficiente posible. Una última propiedad de los semiconductores de carburo de silicio que merece la pena que no pasemos por alto es su alta estabilidad estructural ante el estrés térmico.

Un aliado valioso listo para desembarcar en el coche eléctrico

Las propiedades fisicoquímicas del carburo de silicio en las que acabamos de indagar lo hacen muy atractivo para un abanico de aplicaciones muy amplio, pero hay una en particular que puede beneficiarse de este compuesto de una forma profunda: el coche eléctrico. Y es que la integración de unos semiconductores de potencia que sean capaces de administrar la energía de una forma más eficiente es crucial en cualquier dispositivo en el que es necesario reducir el consumo energético con el propósito de dilatar su autonomía tanto como sea posible.

Bosch iniciará durante este mes de diciembre la producción a gran escala de semiconductores de carburo de silicio en su planta de Reutlingen (Alemania)

Además, debido a que durante su operación disipan menos energía en forma de calor que los semiconductores de silicio de alta pureza los chips de carburo de silicio pueden trabajar codo con codo con sistemas de refrigeración más modestos y menos voluminosos, lo que, sobre el papel, debería tener un impacto beneficioso tanto en el coste como en el peso de los vehículos que apostarán por ellos.

Como acabamos de ver, la teoría suena bien, pero lo más interesante es que la compañía alemana Bosch acaba de anunciar que durante este mes de diciembre iniciará la producción a gran escala de semiconductores de carburo de silicio en su planta de Reutlingen (Alemania). Según esta compañía buena parte de su producción irá a parar a los fabricantes de coches eléctricos, que podrán incrementar, siempre según Bosch, la autonomía de sus vehículos en un 6% de promedio reemplazando los semiconductores de silicio puro por los de carburo de silicio.

Imágenes | Bosch

Más información | Bosch


La noticia

Semiconductores de carburo de silicio: cuáles son sus propiedades y por qué son un aliado valioso para el coche eléctrico

fue publicada originalmente en

Xataka

por
Juan Carlos López

.

Xataka – El brillante anticipo de «Across the Spider-Verse» nos devuelve al Spider-Man animado en la secuela de ‘Un nuevo universo’

Dos minutos y medio para abrir apetito. Aunque aún deberán esperar casi un año, hasta octubre de 2022, para disfrutar de toda la cinta, los amantes del universo Marvel acaban de recibir un anticipo de cómo será el retorno del Spider-Man de Miles Morales. Sony ha publicado en su canal de YouTube un tráiler de “Across the Spider-Verse”, secuela de «Spider-Man: Un nuevo universo».

El anticipo, marcado por el ritmo, la velocidad, y por veces con una estética colorida e incluso toques psicodélicos, avanza el regreso de otro personaje de la saga: Spider-Gwen.

El tráiler arranca de hecho con el regreso de Spider-Gwen al universo de Miles Morales. Deja un breve diálogo entre ambos personajes y muestra un nuevo Spider-Man, aparentemente la versión de 2099. A la espera de que se vaya desgranando el argumento o que Sony lance nuevos tráilers con más información, las secuencias, rápidas, avanza en cualquier caso que la productora ha apostado por mantener la estética y filosofía de su exitosa “Spider-Man: Un nuevo universo”.

El guion de la película es obra de Phil Lord, Christopher Miller (‘La LEGO película’) y David Callaham. Al frente de la dirección, Joaquim Dos Santos, Kemp Powers (“Soul”) y Justin K. Thompson.


La noticia

El brillante anticipo de «Across the Spider-Verse» nos devuelve al Spider-Man animado en la secuela de ‘Un nuevo universo’

fue publicada originalmente en

Xataka

por
Carlos Prego

.

HardZone – ¿Qué componente de un SSD NVMe marca su rendimiento?

Uno de los términos referentes al rendimiento de las unidades SSD NVMe que más habréis oído en los últimos meses es el de la Caché SLC. Es por ello que os hemos preparado este artículo para que podáis entender cuál es su funcionamiento y que beneficios aporta al rendimiento de nuestras unidades de estado sólido de alto rendimiento.

El almacenamiento de datos basado en la tecnología NAND Flash ha resultado un cambio de paradigma en varios sectores de la informática, desde las tarjetas de memoria para dispositivos de bolsillo hasta los discos SSD NVMe en PC. Es precisamente en este último caso que se ha eliminado uno de los cuellos de botella históricos de la historia por no tener las limitaciones tanto en latencia de acceso como en ancho de banda de los discos duros tradicionales, no obstante, no existe la tecnología perfecta que rinda al 100% y siempre hay elementos que lo lastran, obligando a los ingenieros a tener que buscar e implementar soluciones.

NAND Flash y celdas de memoria

La memoria NAND Flash es un tipo de NVRAM o memoria RAM no volátil, esto significa que su funcionamiento es igual al de una RAM convencional, pero con la diferencia de que sus datos no se pierden cuando el sistema deja de recibir alimentación eléctrica. La contrapartida por tener esta capacidad es la de tener una limitada cantidad de escrituras a memoria en su ciclo de vida. Aunque las ventajas en forma de rendimiento a la hora de acceder al almacenamiento compensan, no en vano, todo sistema informático es tan rápido como le deja su parte más lenta, la cual suele ser el almacenamiento.

Cada bit de memoria en una memoria RAM se almacena en lo que se llaman celdas de memoria y en las primeras memorias NAND Flash utilizadas para almacenamiento SSD se utilizaba un bit por celda, lo que encarecía mucho el almacenamiento. ¿La solución? Que cada celda pueda albergar datos de 2 bits (MLC), 3 bits (TLC) o hasta 4 bits (QLC). ¿El problema añadido? A más bits por celda más rápidamente se degradan y por tanto menos vida útil. Tened en cuenta esto porque es la base para entender la Caché SLC.

Las celdas TLC y QLC no solo se degradan en duración

Una vez habéis llegado a este punto, muchos tendréis la idea en la cabeza de que las memorias NAND Flash del tipo MLC, TLC y QLC tienen más capacidad de almacenamiento, aunque menos duración, pero el ancho de banda de todas ellas es el mismo y por tanto el tipo de celda no hace variar el rendimiento. Pues bien, dejad que os digamos que las malas noticias no terminan en ese punto, sino que también la velocidad de acceso se degrada.

Cuando la CPU le hace una petición de acceso a una dirección de memoria en el SSD NVMe este es recibido por la controladora flash que será la que busque el dato en memoria para transmitirlo a través de la interfaz PCI Express o SATA, dependiendo de cuál use la unidad, pero la controladora flash accede a los chips NVMe de la unidad de manera directa para manipular sus datos y no lo hace a través de las interfaces que os hemos comentado.

La forma de almacenar los datos en la memoria NAND Flash es a través de cambios en el voltaje, una memoria SLC solo necesita 1 voltaje, una MLC requiere 3, pero una TLC se va a 7 y si nos vamos a una QLC la cosa se va a los 15. Pues bien, cuanto más alto es el número más tiempo se tarda en realizar una operación de lectura y escritura. ¿Y cuándo empieza a ser esto un problema? Pues a partir de la memoria TLC y si miráis la cantidad de unidades SSD NVMe en las tiendas veréis que todas utilizan dichas celdas como mínimo a día de hoy.

La solución: caché SLC

Lo primero que hemos de tener en cuenta es que la caché SLC no es lo mismo que la caché DRAM que hay también en algunas unidades SSD NVMe, ya que no estamos hablando de la memoria volátil que se encuentra entre la controladora flash y la interfaz PCI Express de la misma, ya que la caché SLC se encuentra también en las unidades DRAM-Less. Por lo general, aunque hay excepciones que veremos más adelante, dentro de cada chip NVMe existen dos tipos de memoria NAND Flash:

Una memoria TLC o QLC para el almacenamiento de datos
Una memoria SLC mucho más pequeña que sirve como caché.

Lo primero de todo que hemos de entender es que una caché no es más que una memoria mucho más cercana a un procesador y por tanto de menor latencia que almacena de manera temporal un dato. Si hacemos repaso a lo que os hemos contado tenemos las siguientes premisas:

Las celdas SLC tienen una vida útil mucho mayor que las TLC y aún más que las QLC, por lo que tardan mucho más en degradarse.
La velocidad de acceso de las celdas SLC es mucho más alta.

Así pues, la solución es que los datos se vuelquen temporalmente a la memoria SLC, la cual funciona como caché intermedia para que luego un mecanismo de copia de datos modifique las direcciones de memoria en la TLC.

Rendimiento de la caché SLC

Llegamos a la parte más importante, la caché SLC tiene un tamaño fijo y esto significa que, si la utilizamos para enviar o recibir datos de pequeño tamaño su rendimiento se mantendrá, pero si por ejemplo queremos realizar una copia secuencial de datos en forma de un bloque de datos muy grande tan pronto como la SLC se llene el rendimiento decaerá.

Es por ello que, pese a que podemos tener dos unidades SSD NVMe en nuestras manos con el mismo almacenamiento, interfaz de acceso e incluso tipos de celdas, es decir, prácticamente iguales, puede que tengan un rendimiento completamente dispar. ¿El motivo? Obviamente la caché SLC que puede diferir en tamaño.

La caché SLC no solo sirve para almacenar datos de acceso secuencial, sino también aleatorio y hay que tener en cuenta que los programas a la hora de acceder a la información lo hacen con una alta recursividad y en un bloque de información delimitado.

Tipos de caché SLC

Hay dos formas de gestionar la caché SLC, la cual dependerá del algoritmo para ello que el fabricante haya implementado en la controladora flash. Más bien hace referencia a cuanto espacio dentro de la misma puede ser asignado para el almacenamiento temporal.

En la caché estática el espacio de almacenamiento es fijo y no puede variar en tamaño.
En la caché dinámica el tamaño asignado es variable.

¿Cómo es posible la caché dinámica si la cantidad de celdas SLC es fija? La trampa está en utilizar las celdas TLC del NVMe como si fueran SLC, es decir, hacer que almacenen un bit en cada una en vez de 3. Por lo que hay algunos chips NVMe que reasignan parte del almacenamiento como caché.

La ventaja de la caché dinámica es que el tamaño de la caché SLC no se agota, pero se corre el peligro que cada vez más celdas TLC dejen de utilizarse para el almacenamiento, afectando a la capacidad global de esta de almacenar datos. Por lo que la mayoría de sistemas caché SLC dinámica hacen uso de sistemas que delimitan el tamaño máximo de esta a través del firmware.

The post ¿Qué componente de un SSD NVMe marca su rendimiento? appeared first on HardZone.

HardZone – ¿Cómo prevenir una fuga en un sistema de refrigeración líquida?

El mayor temor que puede tener cualquier usuario que tiene en su PC una refrigeración líquida es sin duda el tener una fuga. Si falla la bomba o los ventiladores las protecciones del procesador o GPU se activan y terminarán bajado la velocidad o apagando el PC, pero cuando la fuga se da se puede llevar uno o varios componentes por delante u ocasionar un destrozo variopinto, así que, ¿cómo evitar o prevenir una fuga en refrigeración líquida?

En primer lugar hay que ser totalmente honestos y ser conscientes de lo que tenemos entre manos. Un sistema de refrigeración líquida, sea AIO o custom, es un conjunto «vivo», activo por definición y con desgaste. Es sensible a las temperaturas, a sus cambios, a la suciedad, micro evaporación, capilaridad y por supuesto a fallos en diversos componentes, por lo que todo se complica.

¿Por qué se producen fugas en refrigeración líquida?

Un tema muy interesante a tratar y que en todos los casos se producen por las mismas causas, aunque no los mismos agentes y formas. Aquí lógicamente hay que diferenciar entre AIO y custom, porque los componentes y el montaje, así como los líquidos usados no son ni remotamente parecidos.

En un sistema AIO el fabricante ha pensado cada pieza para ser acompañada de otra en concreto y por lo tanto es un sistema mucho más fiable desde el punto de vista técnico, pero en la práctica no es así. Las fugas en sistemas AIO se siguen produciendo y los factores siempre son los mismos:

Componente defectuoso.
Capilaridad y entrada de micro polvo.
Mal ensamblaje.

Que nos toque un tubo trenzado de nylon defectuoso, una junta tórica en mal estado o pinzada, que el recubrimiento interior de bloques y tubos no sea el adecuado o que en la cadena de montaje tengan un despiste entra dentro de lo plausible y suelen ser los fallos más comunes. Evidentemente hay otros que son un problema, como las bombas de 4 polos polarizadas que terminan por no funcionar y elevar la presión interna y hacen reventar literalmente algún componente, o por ejemplo tubos que se pinzan por malas posturas y que generan el mismo efecto descrito.

En refrigeración líquida custom los factores son mucho mayores porque lógicamente hablamos de piezas sueltas y un montaje personalizado que da como resultado una ingente cantidad de posibles problemas:

Mal ajuste de los racores.
Bomba sobredimensionada para el sistema.
Excesiva presión en los componentes con Plexi o acrílico.
Ejes en las bombas descentrados.
Juntas tóricas pinzadas.
Mal montaje o poca fuerza al apretar racores, codos o extensores varios.
Sistema mal diseñado y ejecutado.

Ahí excluimos por supuestos diseños de componentes mal pensados (ejemplos hay muchos en la industria y muy recientes por desgracia), los cuales de por sí hacen que la fuga sea irremediable y haya que tramitar RMA.

¿Cómo evitar las fugas en la refrigeración líquida?

En primer lugar vamos a dar unas claves que tenemos que tener claras antes de ponernos manos a la obra. En una AIO no podemos hacer nada porque el sistema es precisamente eso All In One, es decir, viene preensamblado de serie listo para funcionar. Lo único que podemos hacer previsor es probar la AIO fuera de la caja y antes de montarla con una fuente pinchada y un controlador externo tipo Aquaero o similar, un rehobus con PWM y 3 pines también sería óptimo.

Lo que deberemos hacer es hacerla funcionar en todo su rango de RPM y si es posible calentar el cold plate del bloque progresivamente hasta una temperatura de 50 grados (se necesita pistola láser de calor o sonda térmica para el control térmico). Así simularemos el funcionamiento de la GPU o CPU y daremos tiempo al agua a ir calentándose y con ello ganar presión en el sistema para ver si tiene fuga.

Como es una AIO si la tuviese entonces tocaría hablar con la tienda o el fabricante en cuestión. ¿Qué ocurre con una refrigeración líquida custom? Bueno, aquí la cosa se complica bastante, así que intentaremos ir por pasos, pero antes tenemos que comprar un componente más: el comprobador de fugas para refrigeración líquida. Este será vital para todo lo que tenemos que hacer y será la única herramienta útil que determinará la viabilidad de todo el sistema.

Comprobación 1

El primer paso y comprobación es hacerlo componente por componente excepto en los tubos, sean blandos o rígidos por motivos obvios. Es tremendamente complicado que un tubo venga pinzado, rajado o simplemente con micro grietas, una inspección visual con buen ojo será suficiente, pero si desconfiamos pues entonces tendremos que usar un racord a cada extremo donde en uno de ellos colocaremos el comprobador y en el otro un tapón.

El método para todo es igual y es realmente lento, muy lento si queremos hacerlo bien. Salvando como decimos los tubos lo que tendremos que hacer es hacer una comprobación de entre 1 hora y 8 horas por cada componente del sistema, sean bloques, radiadores, depósitos o depósitos con bombas, así como racores extensores rotatorios, duplicadores, T o válvulas.

La presión debe de ser entre 0,5 bares y 0,75 bar, donde cada uno de ellos debe de mantener la presión sin moverse ni un ápice de la marca donde dejemos de introducir aire. Como decimos el tiempo es fundamental y os recomendamos 0,75 bar de presión porque en frío sí que podemos estar en 0,4 aproximadamente.

Comprobación 2

Una vez sabemos que todos los componentes son estancos al 100% llega el primer paso, que no es otro que montar por tramos el sistema. A cada tramo de tubo hecho hay que cerrar el sistema por un extremo y comprobar presión y fugas por otro. Esto es extensible conforme el circuito crezca y es crucial para detectar los malos montajes o errores en los mismos sin que tengamos un bonito festival de líquido por el PC.

Comprobación 3

Es aquella que se hace con el sistema montado y lógicamente sin líquido. Suponemos que hemos dejado una válvula de vaciado en el sistema, así que por ahí es por donde introduciremos el detector de fugas y tras llegar a los 0,75 bares de presión es necesario que dejemos el sistema en stand by 24 horas.

Si tras dicho intervalo de tiempo la aguja sigue en su sitio, perfecta, entonces es cuando podemos rellenar sin miedo. Tras esto y con los consecuentes paños, servilletas o sistema de recolección de líquido que prefiramos el PC tiene que estar otras 24 horas circulando para su correcto purgado y por supuesto hay que estar pendiente de cada conexión. No es necesario que esté bajo test de estrés, al menos las primeras 8 horas y siempre que vaya todo bien.

Tras ese tiempo sí que podremos exigirle para ver cuánto calor es capaz de evacuar el sistema y cómo se comporta a la presión y así evitaremos una fuga en nuestra refrigeración líquida.

The post ¿Cómo prevenir una fuga en un sistema de refrigeración líquida? appeared first on HardZone.