Buscar:

Xataka – Pandemia, 1 – Inteligencia artificial, 0: la promesa de un algoritmo que permitiera luchar contra la COVID-19 jamás se cumplió

Las expectativas de que la tecnología ayudara a minimizar los efectos de la pandemia de COVID-19 eran enormes. Sin embargo junto al descalabro de las aplicaciones de rastreo de contactos tenemos otro gran fracaso: el de una inteligencia artificial que ha servido de poco o nada a la hora de luchar contra este problema global.

Desde el inicio de la pandemia se trataron de crear algoritmos de aprendizaje automático (machine learning) que ayudaran por ejemplo a diagnosticar a los enfermos, pero ni esos ni ningún otros han acabado sirviendo de mucho. La pandemia le ha ganado la batalla a la IA.

Mucho ruido, pocas nueces

Lo explicaban en MIT Technology Review, donde recordaban los esfuerzos múltiples que se han llevado a cabo para tratar de que la inteligencia artificial fuera una herramienta útil contra la COVID-19.

No lo ha sido: el Turing Institute británico emitía en junio un informe (PDF) en el que revelaba que las herramientas creadas con IA han tenido poco o ningún impacto en la lucha contra la pandemia.

Para estos investigadores la inteligencia artificial sigue teniendo el potencial para ayudar en estas situaciones, pero hay también peligros a la vista: se podrían producir diagnósticos erróneos o que subestimaran el riesgo para pacientes vulnerables. 

Otros estudios como el aparecido en el British Medical Journal u otro publicado en Nature Machine Intelligence de un investigador de la Universidad de Cambridge llegaban a la misma conclusión: cientos de herramientas se publicaron, y ninguna de ellas estaba preparada para usos clínicos reales.

A ese problema se suma otro crucial: estos algoritmos necesitan ser alimentados con datos, y aunque durante la pandemia se ha recolectando una enorme cantidad de ellos, muchos no estaban correctamente etiquetados o provenían de fuentes desconocidas. Algunos expertos llaman a esas colecciones de datos poco confiables «conjuntos de datos de Frankenstein», y en ellos aparecían problemas como duplicidad y redundancia que reducían la efectividad de los algoritmos.

Los sesgos de incorporación —introducidos cuando se etiquetan los datos— ha sido otro de los problemas: era mucho más adecuado etiquetar por ejemplo una exploración médica con el resultado de una prueba PCR que con la opinión de un médico, pero como decían estos investigadores, el ajetreo de los hospitales ante la pandemia ha hecho difíci algo así.

También ha habido problemas de coordinación: muchos investigadores se apresuraron a crear sus propios modelos en lugar de trabajar en conjunto con otros analistas y médicos.

Como decía uno de los expertos que estudió esos esfuerzos: «los modelos son tan similares -casi todos usan las mismas técnicas con pequeñas modificaciones, y con los mismos datos- que todos cometen los mismos errores«. 

La OMS está considerando crear un proyecto que permita compartir datos para que en el futuro se eviten o al menos se minimicen estos problemas, pero la propuesta es aún algo difusa. Lo cierto es que el fracaso de la inteligencia artificial ante la COVID-19 ha sido claro, y ahora solo queda esperar que todo esto ayude a que en el futuro no se repitan los mismos errores.

Vía | MIT Technology Review


La noticia

Pandemia, 1 – Inteligencia artificial, 0: la promesa de un algoritmo que permitiera luchar contra la COVID-19 jamás se cumplió

fue publicada originalmente en

Xataka

por
Javier Pastor

.

HardZone – NVIDIA habría vendido más GPU RTX 3090 que ¡todas AMD RX 6000 juntas!

El precio de las tarjetas gráficas sigue por las nubes y lejos de su MSRP. Aunque ya comentamos los últimos rumores e informes de la industria lo cierto es que muchos usuarios han comprado a sabiendas de que el precio no es el correcto, lo cual sorprende si tenemos en cuenta los últimos datos arrojados nada menos que por Steam. ¿Más NVIDIA RTX 3090 vendidas que todas las AMD RX 6000 juntas?

La teoría y sobre todo el tiempo vivido y los datos analizados nos dice que la gama más vendida de tarjetas gráficas es sin duda la gama media, principalmente por la relación coste/rendimiento/consumo/temperatura. Y aunque los datos que arroja Steam muestran curiosamente solo GPUs RTX 30 o AMD RX de la serie 5000, con un pequeño ajuste podemos ver cuál es la realidad actual.

Se desconoce los porqués de Steam para no incluir a las GPU AMD RX 6000

Lo más lógico es que la compañía introdujese a esta serie de tarjetas gráficas con el resto, tal y como hace con las RX 5000, pero no, no trabaja de esta forma por el momento. Estas GPU AMD están apareciendo en otro apartado distinto e igualmente revelador «Vulkan Systems» y aquí es donde vemos el problema.

La solución a este entramado la encontró el usuario Zyck_titan y aunque no es realmente fiel a lo que sería DX12 como tal (porque Steam así lo precisa), sí que están en igualdad de condiciones bajo Vulkan, que aunque es menos usada como estadística sirve igualmente.

Este usuario se dio cuenta de algo importante:

Si comparas las acciones de Vulkan Systems con las acciones generales enumeradas en [la encuesta de hardware de Steam], verás que todas las tarjetas tienen el doble de participación en Vulkan Systems. Así que divídelas por dos para obtener la participación total.

No es perfecto numéricamente hablando, pero según hemos podido ver en la gran mayoría de casos se le acerca, es decir, en Vulkan marca prácticamente el doble de participación que en el apartado general.

Solo la NVIDIA RTX 3090 ya supera a las 4 GPUs AMD RX 6000

Aplicando esto por norma se pueden extraer datos muy interesantes, ya que teniendo en cuenta los cuatro modelos disponibles actualmente en el mercado por parte de AMD y registrados en Steam (RX 6900 XT, RX 6800 XT, RX 6800 y RX 6700 XT), una sola GPU de NVIDIA se ha vendido más que todas estas.

Esa es lógicamente la que menores ventas tiene al mismo tiempo dentro de la gama de NVIDIA: la RTX 3090, que con un 0,38% es la que menor representación tiene dentro de las estadísticas de Steam. El problema es que ese 0,38% es superior al 0,34% que suman el resto de modelos descritos de AMD, donde curiosamente la más vendida es la RX 6800 XT con un 0,1% de representación:

GeForce RTX 3090: 0,38%
GeForce RTX 3080: 0,93%
GeForce RTX 3070: 1,58%
GeForce RTX 3060 Ti: 0,42%
GeForce RTX 3060: 0,67%
TOTAL = 3,98%
Radeon RX 6900 XT: 0,08%
Radeon RX 6800 XT: 0,1%
Radeon RX 6800: 0,05%
Radeon RX 6700 XT: 0,11%
TOTAL = 0,34%

Vistos los datos pudiéramos pensar que no son representativos, principalmente porque las ventas de GPUs son una cosa y las GPUs que se conectan a jugar a Steam y son registradas son otras. Pero esto no es realmente así y son un indicador muy fiable del mercado, hasta el punto de que Valve considera que estos datos son «increíblemente útiles para usar cuando tomamos decisiones sobre qué tipo de inversiones en tecnología realizar y productos ofrecer».

Así que les conviene tremendamente que sean fieles a la realidad, realidad que por otro lado muestra que AMD tiene que seguir empujando porque NVIDIA tiene mucha ventaja en ventas, no así en rendimiento que están realmente cerca.

The post NVIDIA habría vendido más GPU RTX 3090 que ¡todas AMD RX 6000 juntas! appeared first on HardZone.

Xataka – Starship de SpaceX: en qué consiste la misión, cómo se está desarrollando y para cuándo se espera el viaje tripulado hasta Marte

La llegada a Marte en una misión tripulada es uno de los objetivos más ambiciosos de la carrera espacial en la actualidad, después de que numerosas misiones (como Perseverance) hayan o estén trabajando en la superficie del planeta rojo. Elon Musk y su empresa SpaceX forman parte de los máximos exponentes para conseguirlo y lo quieren hacer con el Starship.

La construcción de este cohete lleva captando interés (y sobre todo miradas) desde que se empezaron a ensamblar los prototipos. Esta misión (de nomenclatura sencilla aunque quizás mucho más conveniente que la inicial) ya va tomando forma, habiendo visto recientemente fotografías que impresionan de sus motores, y no está de más repasar en qué consiste esta misión, cómo se está desarrollando y cuándo se espera su lanzamiento.


Leer más

HardZone – TPM 2.0 ha caído, ¿Windows 11 en cualquier PC sin bloqueo de hardware?

Los investigadores de una empresa de seguridad han logrado saltarse las restricciones de Trusted Platform Module (TPM) en tan solo 30 minutos y sin tener que hacer trabajo de soldadura, demostrando que en realidad si un atacante ha «hecho los deberes» al respecto puede saltarse todos los sistemas de seguridad actuales. ¿Qué sentido tiene entonces que Microsoft imponga el requisito de tener TPM para Windows 11?

Supongamos que eres una gran empresa que acaba de enviarle a un empleado un nuevo ordenador portátil, y digamos que éste viene preconfigurado para utilizar las mejores prácticas de seguridad para evitar fuga de información, incluyendo TPM, cifrado del disco, configuración de BIOS protegida por contraseña, UEFI SecureBoot y demás recomendaciones. Si un atacante logra hacerse con la máquina, ¿podrá acceder a los datos? ¿Y podrá usarlo para atacar la red de la empresa? Lamentablemente, la respuesta a ambas preguntas es que sí.

TPM y demás medidas de seguridad, rotas en 30 minutos

Los investigadores de la consultora de seguridad Dolos Group, contratados para probar la seguridad de la red de un cliente, recibieron un ordenador portátil Lenovo preconfigurado para usar los estándares de seguridad de la organización, incluyendo TPM. No recibieron usuarios ni contraseñas, detalles de configuración ni cualquier otra información sobre la máquina, para emular lo que se encontraría un hacker que robara físicamente el portátil.

Un análisis de la configuración de la BIOS, la operación de arranque y el hardware reveló rápidamente que las medidas de seguridad implementadas podrían evitar los ataques habituales, incluyendo:

Ataques pcileech / DMA porque la protección VT-d de Intel estaba habilitada.
La autenticación omite el uso de herramientas como Kon-boot.
Uso de herramientas como LAN Turtle y Responder para extraer datos con adaptadores Ethernet USB.

Con poco más para poder continuar, los investigadores se enfocaron en el módulo de plataforma confiable o TPM, un chip altamente reforzado instalado en la placa base del portátil que se comunica directamente con otro hardware instalado en la máquina. Los investigadores se dieron cuenta de que como es el valor predeterminado para el cifrado del disco duro con BitLocker de Microsoft, el portátil arrancaba directamente en la pantalla de Windows sin que se solicitara ingresar un PIN o contraseña, lo que significa que el TPM era el lugar donde se almacenaba la clave criptográfica para desbloquear la unidad.

Microsoft recomienda anular el valor predeterminado y utilizar un PIN o contraseña, pues de esta manera haría falta que el atacante tuviera conocimientos muy avanzados y que desmontara el portátil e hiciera cierto trabajo de soldadura en el módulo TPM para acceder a él. Sin embargo, los investigadores dijeron al respecto que el consejo de Microsoft es inadecuado:

«Un atacante pre-equipado podría realizar toda la cadena de ataque en menos de 30 minutos sin hacer soldaduras, con hardware simple y barato y con herramientas disponibles públicamente, lo que coloca a este proceso directamente al alcance de cualquier usuario con conocimientos avanzados».

Los módulos TPM tienen múltiples capas de defensa que evitan que los atacantes extraigan o manipulen los datos que almacenan. Por ejemplo, un análisis realizado hace más de 10 años reveló que un chip TPM fabricado por Infineon fue diseñado para autodestruirse si se le penetraba físicamente. Con pocas esperanzas de romper el chip dentro del portátil, los investigadores buscaron otras formas con las que poder extraer la clave que descifraba el disco duro, y se dieron cuenta de que el TPM se comunicaba con la CPU mediante una interfaz en serie, un protocolo de comunicaciones para sistemas integrados.

Abreviado como SPI, el firmware no proporciona capacidades de cifrado propias, por lo que cualquier cifrado debe ser manejado por los dispositivos con los que se comunica el TPM y no por éste. BitLocker no utiliza ninguna de las funciones de comunicación cifradas del último estándar TPM 2.0, así que si los investigadores pudieran aprovechar la conexión entre el TPM y la CPU, podrían extraer la clave de cifrado y acceder a todo el contenido del portátil.

Así pues, los investigadores conectaron un analizador lógico al chip CMOS de la placa base del portátil, y en poco tiempo lograron extraer cada byte que se movía a través del chip. Luego, utilizaron el kit de herramientas bitlocker-spi-tool para aislar la clave dentro de esta masa de datos obtenida y ¡bingo!, ya pudieron eliminar el cifrado del disco, y todo «gracias» al TPM.

Con el disco duro descifrado, los investigadores revisaron su contenido en busca de contraseñas o archivos confidenciales que los ayudaran a acceder a la red del cliente, y pronto dieron con algo: el cliente VPN Global Protect de Palo Alto Networks que venía preinstalado y preconfigurado.

Una característica de las redes VPN es que se puede establecer la conexión antes incluso de que el usuario inicie sesión. La capacidad está diseñada para autenticar un punto final y permitir que los scripts del dominio se ejecuten tan pronto como se encienda el PC, algo muy útil para poder gestionar grandes cantidades de equipos sin que los administradores de sistemas tengan que conocer ni siquiera sus contraseñas… pero también les dio a los atacantes vía libre en el camino inverso: desde el PC «robado» hasta la red de la compañía.

¿Cederá Microsoft con respecto al requisito de TPM en Windows 11?

Visto y demostrado que el módulo TPM no solo no ha sido efectivo como medida de seguridad para que un atacante pudiera hacerse con el control del equipo y acceder a la red corporativa, sino que además ha sido parte del culpable que ha permitido este ataque, ahora no podemos sino preguntarnos qué hará Microsoft al respecto del controvertido requisito de contar con TPM para poder utilizar Windows 11, su próximo sistema operativo.

Es cierto que cuantas más trabas se ponga a los potenciales atacantes más seguro será el sistema, pero imponer este requisito a los usuarios de a pie no parece tener demasiado sentido, y más cuando se ha demostrado que es una medida de seguridad que se puede romper con relativa facilidad. Por el momento Microsoft no se ha pronunciado al respecto y el requisito sigue siendo indispensable para aquellos que quieran disfrutar de la próxima versión de su sistema operativo, pero es probable que la presión popular termine haciendo efecto antes o después.

The post TPM 2.0 ha caído, ¿Windows 11 en cualquier PC sin bloqueo de hardware? appeared first on HardZone.

Xataka – Así funcionan los radares de «ruido» que multarán por exceso de decibelios y que llegarán a España en 2022

El ruido es la próxima gran batalla contra la que ayuntamientos y gobiernos van a luchar en las carreteras. El exceso de decibelios ya se multa desde hace tiempo en nuestro país y en otros, pero a partir del año que viene podríamos ver muchas más sanciones de este tipo gracias a unos nuevos radares de ruido que podrían empezar a instalarse este mismo otoño.

No habrá escapatoria para los ruidosos

Esos radares no sólo van a ser capaces de medir el ruido en decibelios, si no que también pueden determinar la fuente de ese ruido y fotografiarla gracias a una cámara de 360 grados que se encargará de inmortalizar la matrícula del vehículo infractor. Son instrumentos precisos: sus cuatro micrófonos detectan los niveles de ruido diez veces por segundo y mostrar gráficamente con una línea de puntos la trayectoria de una fuente sonora que no respete los límites. Por la distribución de esos micrófonos, al radar se le ha dado el apodo de ‘Medusa’ en algunos informes.

La idea es atrapar a aquellos conductores que modifican componentes (como los tubos de escape) para que provoquen más ruido. Suiza y Francia ya han estado probando la eficacia de los radares en ciudades como París, Niza, Bron o Lyon (Reuters lo comentaba hace dos años), pero va a ser ahora cuando finalmente se van a utilizar para enviar multas automáticamente a los infractores.

Las sanciones por exceso de ruido en la Comunidad de Madrid van de los 90 a los 600 euros

Las sanciones por exceso de ruido en vehículos españoles dependen de cada Comunidad Autónoma y varían según donde estemos, pero en La Gaceta de Salamanca dan el ejemplo de la Comunidad de Madrid: de 90 a 600 euros por emitir demasiado ruido. Eso sí, quien pone el límite de ruido permitido es la Unión Europea con 50 decibelios de noche y 55 decibelios de día.

La instalación de este tipo de radares podría frenar la tendencia de componentes no homologados en vehículos, así como evitar que los coches deportivos que hacen más ruido vayan a demasiada velocidad por las carreteras durante la noche.

La medida empezará a funcionar en España con un primer radar en la carretera catalana C-31, que cruza la zona metropolitana de Barcelona paralela a la costa desde El Vendrell hasta Mataró transformándose en la Gran Vía barcelonesa en su centro. Si tu vehículo hace mucho ruido y usas esa carretera a menudo tendrás que andarte con ojo a partir de 2022.

Imagen | Mehrshad Rajabi


La noticia

Así funcionan los radares de «ruido» que multarán por exceso de decibelios y que llegarán a España en 2022

fue publicada originalmente en

Xataka

por
Miguel López

.

Xataka – El euro digital recibe luz verde: qué sabemos del proyecto de moneda virtual que ya ha aprobado el Banco Central Europeo

La Unión Europea sigue adelante con la futura creación del euro digital, una moneda virtual que tendrá el mismo reconocimiento que el efectivo por parte del Banco Central Europeo. Un ambicioso proyecto que se alargará hasta 2026, según los cálculos iniciales, y que ya ha recibido la aprobación del propio BCE para dar comienzo al estudio sobre su desarrollo.

Esto es lo que sabemos del euro digital, una moneda que será accesible a través de monederos virtuales y servirá para realizar todo tipo de transacciones. Si bien, como remarca el BCE, este euro digital servirá para complementar el dinero en efectivo, en ningún caso para reemplazarlo.


Leer más

HardZone – Hay tres discos duros que fallan tan poco como un SSD ¿sabes cuáles son?

La reconocida marca de servicios de almacenamiento Backblaze ha vuelto a publicar su habitual informe de fiabilidad de discos duros (y su comparación con respecto a los SSD), en este caso correspondiente al segundo trimestre de 2021 y que destaca por contar con tres modelos de disco duro que nunca les han fallado. ¿Quieres saber cuáles son? En este artículo te lo contamos todo.

Durante su último informe de fiabilidad de discos duros, Backblaze ha marcado tres modelos como que no les han fallado ni una sola vez; sin embargo, no podemos tomar esto como que estos tres modelos tienen una fiabilidad absoluta, ya que también hay algunas advertencias concretas para estos tres modelos en particular, así que vamos a empezar por el principio y ver qué es lo que la empresa de servicios de almacenamiento tiene que decir al respecto.

Los modelos de disco duro que nunca han fallado… por ahora

Los modelos en cuestión son el Segate ST6000DX000, el HGST HUH721212ALE600 y el Western Digital WUH721816ALE6L0. De ellos, solo las unidades de Seagate han tenido una utilización intensiva de más de dos años y la compañía «solo» ha recopilado datos de 886 unidades, un número que puede parecer bastante abultado y bueno como para sacar una estadística de ello pero que palidece en comparación con las 177.935 unidades que se han examinado en este último informe, así que aquí tenemos dos de las advertencias de las que os hablábamos.

Sin embargo, la compañía también indica que el rendimiento de las unidades de Seagate sigue siendo notable porque han estado en uso durante 74 meses de media con una tasa de fallos de por vida de un 0,92%. Las unidades WD y HGST han estado siendo utilizadas durante 3 y 21 meses respectivamente, por lo que sus tasas de fallo de 0% (WD) y 0,41% (HGST) podrían aumentar bastante a medida que estas unidades envejezcan.

En cualquier caso, estas tasas de fallo siguen siendo bajas en comparación con la media. Backblaze ha dicho que la tasa anual de fallos de todas las unidades de disco duro aumentó de un 0,81% a un 1,01% en comparación con el año anterior: «El aumento está dentro de nuestro intervalo de confianza, pero vale la pena mirar hacia el futuro porque cuanto más viejas son las unidades de disco duro más propensas serán a fallar»- dijo la compañía en el informe pero sin atribuir el aumento de la tasa de fallos a nada en particular.

SSD vs discos duros, ¿qué tipo de unidad tiende más a fallar?

Backblaze también ha actualizado su comparativa de las tasas de fallo de unidades de disco duro contra SSD, en este caso no como unidades de almacenamiento sino como unidades de sistema en las que se encuentra el sistema operativo y demás de sus servidores. La compañía afirmó que su primer intento de esta comparativa «no era fiable ya que cada tipo de unidad se encontraba en un punto diferente de su ciclo de vida», por lo que «tomó las unidades de arranque de disco duro que estaban en uso a finales del cuarto trimestre de 2020 y retrocedió en el tiempo para ver dónde estaba su edad promedio y que los días de uso fueran los mismos que el promedio de los SSD».

Eso llevó a la empresa a examinar la información de las unidades de arranque de discos duros desde finales de 2025, y descubrió que «cuando realizamos el examen utilizando los mismos modelos de unidad, la misma antigüedad promedio y un número similar de días de uso» la tasa de fallo de los discos duros se multiplica por 10, haciendo que en definitiva ésta se sitúe más o menos en el doble que con los SSD.

En definitiva, en esta comparativa podemos sacar como conclusión que los discos duros fallan más o menos el doble que los SSD cuando se utilizan como unidad de arranque de los servidores, es decir, con un tiempo de encendido de 24×7 pero con una utilización que nunca o casi nunca pone a la unidad a trabajar al máximo de sus capacidades, ya que como hemos mencionado antes para esta comparativa se han tenido en cuenta las unidades de sistema y no las que se utilizan para almacenamiento masivo de datos que sí que están trabajando constantemente.

The post Hay tres discos duros que fallan tan poco como un SSD ¿sabes cuáles son? appeared first on HardZone.

Xataka – Parece un puente, pero no lo es: esta espectacular compuerta hidráulica en forma de arco protege Osaka de tifones y maremotos

Osaka (Japón) tiene un problema: 21 kilómetros cuadrados de su área costera están «hundidos» por debajo del nivel del mar, algo que a menudo ha provocado grandes daños por los maremotos que se producen en la Bahía de Osaka a causa de los tifones.

Para controlar esos problemas los japoneses han creado espectaculares compuertas hidráulicas como la de Shirinashigawa. Allí un gigantesco arco que a primera vista podría confundirse con un puente es en realidad una compuerta hidráulica abatible que es capaz de evitar inundaciones en la zona.

Puente parece, compuerta hidráulica es

Varios son los tifones que causaron enormes daños en los años 50 y 60 en Osaka. Luchar contra los maremotos que sacudían la zona era realmente complicado, y en 1970 se inició la construcción de compuertas hidráulicas con forma de arco que además tenían un singular sistema abatible para «abrirlas» o «cerrarlas».

Shirinashigawa river floodgate at Osaka Bay in Japan. pic.twitter.com/mVOFCCyCOy

— MachinePix (@MachinePix) August 5, 2021

Un reciente tuit mostraba la compuerta en Shirinashigawa, que en realidad forma parte de un conjunto de tres compuertas en los afluentes del río Old Yodogawa que se activan ante los tifones y se «pliegan» para, como se ve en el vídeo, evitar inundaciones causadas por los tifones y los maremotos que éstos provocan en la bahía de Osaka.

Esas compuertas también facilitan el paso de barcos de carga, pero cuando se cierran pueden provocarse desbordamientos, lo que se evita con la Estación de Bombeo de Kema, capaz de descargar ese exceso de agua. Sin duda una llamativa obra de ingeniería que afortunadamente mantiene esos maremotos a raya. 

Imagen | Wikipedia


La noticia

Parece un puente, pero no lo es: esta espectacular compuerta hidráulica en forma de arco protege Osaka de tifones y maremotos

fue publicada originalmente en

Xataka

por
Javier Pastor

.

HardZone – Olvida los SSD baratos, PLC parada y HLC ¡necesita nitrógeno líquido!

A pesar de que todavía faltan años de desarrollo e inversión para que la memoria PLC-NAND de 5 bits esté lista para llegar al mercado, ya se están realizando experimentos con memoria de 6 bits por celda con la denominada HLC-NAND (HLC significa Hexa Level Cell precisamente por los seis bits por celda). Kioxia ya ha demostrado que este experimento es real y que funciona, pero pro ahora solo lo han logrado manteniendo un enfriamiento mediante nitrógeno líquido.

Ha sido el departamento de I + D de Kioxia (anteriormente conocido como Toshiba Memory) quienes han compartido sus hallazgos e investigaciones relativas a la memoria NAND Flash de 6 bits por celda, un objetivo marcado que permitirá un escalado de la densidad de memoria hasta unas cotas nunca vistas y que podría, potencialmente, convertirse en el futuro del almacenamiento a medio plazo siempre y cuando consigan llevar estos hallazgos a buen término.

Memoria de 6 bits por celda… pero con nitrógeno líquido

Los avances en cuanto a la memoria NAND Flash están orientados, como es por otra parte lógico, hacia conseguir una mayor densidad y para ello deben ser capaces de almacenar una mayor cantidad de bits por celda. Ahora los investigadores de Kioxia han demostrado que es posible conseguir una celda de memoria de 6 bits que funciona, pero con unos requisitos de refrigeración que obviamente no lo hacen viable para el mercado de consumo, al menos por ahora.

El número de estados necesarios se duplica con cada bit: en memoria SLC NAND con 1 bit es de 2 estados, con MLC de 2 bits son 4 estados, con TLC de 3 bits son 8 estados y con QLC de 4 bits por celda son 16 los estados (con PLC de 5 bits por celda los estados son 32, aunque esta tecnología todavía no es comercial), por lo que la memoria HLC-NAND tendría 64 estados. Cuantos más estados hay que diferenciar, más compleja y lenta es la programación o escritura en la celda de memoria, así que el rendimiento y la durabilidad disminuyen al mismo ritmo al que aumenta la densidad.

Por lo tanto, el rendimiento y la durabilidad disminuyen de manera análoga y aumentan al mismo tiempo los requisitos para la corrección de errores; para mapear la información de 6 bits se requieren 64 estados de voltaje dentro de cada celda tal y como hemos explicado antes, y esto por el momento también causa una temperatura de funcionamiento que requiere una refrigeración extrema para que sea posible.

Para lograr 64 estados de voltaje con la tecnología 3D NAND actual, el chip tuvo que sumergirse en nitrógeno líquido a 196ºC bajo cero, algo necesario para reducir las fluctuaciones del voltaje (el llamado ruido de señal) así como la pérdida de electrones por la emisión termoiónica. Se dice que la durabilidad de la celda HLC se incrementó de 100 a 1.000 ciclos de lectura con este método, lo que corresponde aproximadamente al nivel de las celdas QLC de 4 bits que, sin embargo, no requieren de esta refrigeración extrema.

La memoria PLC de 5 bits llegará primero

Antes de que llegue la memoria HLC-NAND de 6 bits por celda, primero tiene que llegar el paso anterior, la memoria Penta Level Cell (PLC) con 5 bits por celda de memoria. En este ámbito también Kioxia está investigando una solución práctica junto con su socio Western Digital, y hace dos años ya hablaron sobre ello en una conferencia durante el Flash Memory Summit 2019. Unos meses más tarde, Kioxia presentó «Twin BiCS Flash«, un nuevo tipo de estructura que debería permitir más de 4 bits por celda, incluyendo PLC.

Por el momento esta solución parece estar todavía lejos de estar al alcance; el director de tecnología de Western Digital, Siva Sivaram, dijo en junio que no espera que la memoria PLC no llegue al mercado hasta la segunda mitad de la década actual (es decir, hasta como poco 2026), y por lo tanto si todavía estamos lejos de la memoria PLC, imaginad de la HLC de 6 bits.

En cualquier caso, los fabricantes por ahora se están centrando en ofrecer una mayor cantidad de capas apiladas una encima de otra en lo que se conoce como NAND 3D para aumentar la densidad de memoria y reducir los costes de las obleas. Actualmente la industria ya ha logrado alcanzar las 176 capas en chips de memoria funcionales, y fabricantes como Samsung ya juguetean con más de 200 capas, afirmando al mismo tiempo que se han marcado como objetivo llegar a 1.000 capas.

The post Olvida los SSD baratos, PLC parada y HLC ¡necesita nitrógeno líquido! appeared first on HardZone.

Xataka – Amenazas de barcos que en realidad están a miles de millas: así falsean las señales de los navíos para engañar a puertos y gobiernos

17 de septiembre de 2020: el portaaviones británico HMS Queen Elizabeth avanza escoltado con una flota de destructores hacia territorio iraní. Noviembre de 2020: el destructor USS Roosevelt se acerca al oblást de Kaliningrado por el mar báltico en un movimiento claramente provocador. 15 de julio de 2021: ese mismo navío rodea Noruega por el Norte y amenaza aguas rusas.

Suena al comienzo de una novela de Tom Clancy, pero estos hechos se han reportado oficialmente basándose en las notificaciones del sistema AIS (Automatic Identification System) que todo gran navío debe utilizar para comunicar su posición y dirección y así evitar colisiones en alta mar. El problema viene cuando todas esas señales eran falsas: ninguno de los barcos habían hecho esas rutas.

La desinformación llevada al posicionamiento de barcos militares

Alguien ha estado falsificando las señales de los transpondedores AIS de los barcos militares, y según el analista de datos Bjorn Bergman no se trata de ningún error de transmisión o cálculo. Bergman colabora en portales como SkyTruth, dedicados a revelar delitos medioambientales desde el cielo, y ahora desde esa misma web ha informado recientemente sobre el descubrimiento de un conjunto de señales AIS fraudulentas.

Esas señales pueden, por ejemplo, mentir sobre la posición de barcos pesqueros para así aprovechar y pescar en localizaciones o periodos de tiempo con restricciones. Pero aplicado a naves militares como las que he mencionado antes, una señal AIS falsa podría desencadenar tensiones muy graves entre países.

Expertos y aficionados trabajan para averiguar el modo en el que se falsifican las señales

Bergman también ha hablado con Wired, donde comenta que él y otros compañeros trabajan para saber cómo se falsifican los datos de los transpondedores para saber «detectarlo y corregirlo«. De momento han conseguido identificar algunas señales falsas comparándolas en una base de datos, utilizando fragmentos de datos que normalmente no son accesibles por los marineros y que delataban «diferencias sutiles« entre las transmisiones.

Los aficionados a fotografiar grandes navíos militares han ayudado: algunas señales falsas reportaban ubicaciones de barcos en alta mar, pero al mismo tiempo esos barcos habían sido fotografiados atracando en puertos internacionales hace pocos minutos. La web y cuenta de Twitter WarshipCam incluso identifica los barcos que entran y salen:

USS Omaha (LCS 12) Independence-variant littoral combat ship leaving San Diego – August 3, 2021 #ussomaha #lcs12

* photos courtesy of @cjr1321 pic.twitter.com/Zdt0OTQzTK

— WarshipCam (@WarshipCam) August 4, 2021

Los principales barcos afectados eran militares, tanto de la OTAN como de la Unión Europea. Kaliningrado, en la zona rusa del mar báltico, parece ser uno de los objetivos más comunes de las incursiones falsificadas. Recientemente también se han detectado operaciones que realmente no existían en el Mar Negro.

El experto también ha tenido acceso a fotografías satelitales de la Agencia Espacial Europea, y ha podido comprobar cómo en coordenadas concretas donde las señales falsas indicaban la presencia de barcos no había nada más que mar abierto.

¿Quién puede ser el artífice? De momento nadie ha sido capaz de poder tener pruebas contra organizaciones o países que quieran poner a prueba la diplomacia internacional. Todd Humphreys, director del laboratorio de Radionavegación de la Universidad de Texas, sospecha de Rusia por ver semejanzas en las tácticas de desinformación pero admite no tener ninguna prueba que apoye su teoría.

La buena noticia es que de momento, y a pesar de la sofisticación de las señales falsas, éstas pueden identificarse y ser advertidas a tiempo. Pero esto sirve de aviso: un sistema importante y ampliamente utilizado por los barcos ha sido vulnerado y necesita modernizarse de algún modo.

Si tienes curiosidad, puedes ver la ubicación en tiempo real de gran parte de los navíos del mundo gracias a sus señales AIS desde la web MarineTraffic.

Imagen | Vidar Nordli-Mathisen


La noticia

Amenazas de barcos que en realidad están a miles de millas: así falsean las señales de los navíos para engañar a puertos y gobiernos

fue publicada originalmente en

Xataka

por
Miguel López

.