Buscar:

Xataka – Facebook detiene la creación del ‘Instagram Kids’ para menores de 13 años tras la polémica con el informe sobre toxicidad

El informe interno revelado por el Wall Street Journal sigue trayendo cola. Ahora es el turno de ‘Instagram Kids’, el proyecto que preparaba Facebook para tener un Instagram enfocado para niños menores de 13 años. Según ha anunciado Adam Mosseri, máximo responsable de Instagram, la empresa ha decidido paralizar el desarrollo de esta aplicación para niños y en su lugar se centrará en mejorar las herramientas de control parental.

Según explica Mosseri: «comenzamos este proyecto para abordar un problema importante que estamos observando: los niños tienen teléfonos cada vez más jóvenes, tergiversando su edad y descargando aplicaciones destinadas a los mayores de 13 años». La solución pasaba por un Instagram Kids, equivalente al Youtube Kids de Google, pero en un cambio de guión, Facebook ha decidido no continuar por el momento con esta vía.


Leer más

Xataka – Al diamante le ha salido un competidor tan duro como él: una aleación de platino y oro 100 veces más dura que el acero

Dureza por aquí. Dureza por allá… El significado de esta palabra desde un punto de vista científico no coincide exactamente con la noción que tenemos de la dureza en nuestro entorno cotidiano. Por esta razón, creo que antes de seguir adelante con el artículo es interesante que repasemos brevemente qué es la dureza desde un punto de vista fisicoquímico.

En mineralogía suele identificarse la dureza como la resistencia al rayado de un material, y se mide utilizando las escalas de Mohs, Rosiwal o Knoop, además de otras habituales en el entorno industrial. Sin embargo, hay una definición un poco más ambiciosa que identifica esta propiedad como la oposición que presenta un material a sufrir una alteración física, como pueden ser no solo el rayado, sino también la abrasión, la deformación mecánica o la penetración.


Leer más

Xataka – Hemos probado ‘Metroid Dread’ y tiene todo para convertirse en el mejor Metroid en décadas: así es la nueva Samus

Ya sabemos lo que estáis pensando: no es complicado ser el mejor ‘Metroid’ en décadas, teniendo en cuenta que ‘Metroid Prime: Federation Force’ fue un desastrito sin nada que ver con la franquicia, que ‘Metroid: Another M‘ (¡a 2010 hay que remontarse!) es un título irregular y lejos de lo que debe ser un ‘Metroid’ con todos los honores, y que ‘Metroid: Samus Returns‘, aún siendo un juego muy competente, es un remake de ‘Metroid II’ de 1991. Es decir, hay que ir hasta ‘Metroid Prime 3: Corruption’ de 2007 para encontrar el último genuino juegazo de la saga.

De acuerdo, no es que tengamos un ‘Metroid’ cada año para andar escogiendo cuáles son los mejores, pero se entiende lo que queremos decir: después de que los españoles Mercury Steam demostraran con su ‘Samus Returns ‘de 2017 que entendían a la perfección los códigos y recursos de las encarnaciones clásicas de la franquicia, ‘Dread’ se presenta como poco menos que un acontecimiento. Retoma las hechuras 2D que hicieron grande a la serie, actualiza lo que debe y, por fin después de tantos años, nos devuelve el sabor de un ‘Metroid’ genuino.

El nuevo sabor de lo viejo

Hemos tenido la ocasión de jugar algo más de una hora a este nuevo ‘Metroid Dread’, y tantear muchas de sus propuestas. En muchos aspectos se siente como una prolongación de lo que Mercury Steam ya había ensayado en ‘Samus Returns’. Algunas de las características presentadas por primera vez allí aquí vuelven de nuevo, empezando por la posibilidad de apuntar con precisión al punto que se quiera con ayuda de los sticks. Será imprescindible para solucionar algún puzle o abrir zonas secretas.

No es la única capacidad presentada en aquel juego portátil que vuelve. De nuevo habrá pistas que nos indican zonas ocultas, y armas que sirven tanto para resolver puzles y abrir zonas como para enfrentarse con más efectividad a los enemigos. Y por supuesto, están los contraataques, inventados para aquella aventura y que aquí vuelven a ser imprescindibles para elaborar estrategias contra los enemigos más poderosos: un bloqueo que aturde durante unos segundos a los contrincantes y que permiten protegerse de ataques de otro modo insalvables.

Muchos de los nuevos poderes anunciados no los hemos podido catar en esta primera hora de juego: los misiles que apuntan a varios objetivos simultáneos, la posibilidad de escalar por paredes o, cómo no, la clasiquísima Morphing Ball que permite a Samus deslizarse por pasillos estrechos. En realidad, es buena señal. A diferencia de lo que estaba siendo habitual en los últimos juegos de la serie, donde Samus desbloquea nuevas características en poco tiempo, aquí las nuevas armas y capacidades de la heroína se abrirán más escalonadamente.

Y eso es buena señal porque apunta a una exploración menos amigable que en los últimos títulos de la serie. Una de las características de los ‘Metroid’ clásicos y del género metroidvania que ayudaron a fundar es que hay que recorrer adelante y atrás el mapa en innumerables ocasiones, memorizando, tanteando y probando nuevas zonas. En ese sentido, veremos muchas zonas cerradas que claramente solo podremos recorrer más adelante con nuevos poderes: ‘Metroid Dread’ no parece dispuesto a que este recorrido sea un paseo, como ha venido sucediendo con algunas de las más recientes encarnaciones 2D de la franquicia.

Algo de eso se nos apunta en el mapa que hemos podido ver en ‘Dread’ y que, de nuevo, tiene mucho en común con el de ‘Samus Returns’. Entre otras características, tenemos un código de colores que divide en lugares de distintas características el inmenso planeta que hay que explorar a fondo, señala claramente las zonas aún por descubrir y da la posibilidad de marcar a voluntad puntos que queremos indagar posteriormente. Todo ello deja claro, a falta de un análisis completo del juego, que aunque no se nos dará todo hecho, tampoco será una experiencia absolutamente hardcore donde nos estaremos perdiendo cada dos por tres. ‘Dread’ busca, claramente, el equilibrio entre el desafío a nuestra paciencia y orientación, y el ayudarnos a que el juego sea, a fin de cuentas, divertido y trepidante.

Esos malditos E.M.M.I.

Sin duda, lo más comentado de esta entrega van a ser estos robots versátiles y letales que perseguirán sin descanso a Samus en cuanto la descubran. La única posibilidad contra ellos es la de huir, lo que en los laberínticos términos de ‘Metroid’ significa memorizar zonas, solucionar puzles contrarreloj y pensar rápido para escabullirse de ellos. Unos enemigos que han sido muy inteligentemente diseñados por Mercury Steam para que supongan una amenaza total, pero que aún así dan la posibilidad siempre de burlarlos (conforme se vuelvan más implacables, Samus ganará habilidades de camuflaje).

Esta implacabilidad nos devuelve a los elementos de tensión y suspense, casi con gotas de survival horror, que se dieron en otros juegos de la serie. En efecto, la atmósfera siempre ha sido crucial en los mejores juegos de la serie, más que la aniquilación de Metroids en masa. Y los momentos de terror e inquietud que proporcionan los E.M.M.I, aunque no sean exactamente a lo ‘Dead Space’, nos recuerdan que Samus está en aplastante minoría de fuerzas en un planeta terriblemente hostil.

El resto de la atmósfera se consigue con un argumento que juega primero al desconcierto, pero que va desvelando detalles de la historia de Samus que se remontan muy atrás en el tiempo. Los continuistas del lore de ‘Metroid’ posiblemente queden satisfechos (otro detalle que habrá que corroborar con la versión completa), pero sin duda más que con juegos como ‘Another M’ o ‘Federation Force’.

Samus is back

Todo ello forma parte de un paquete que por el momento pinta estupendamente. Se le puede achacar –como siempre en este tipo de juegos que recuperan mecánicas de antaño- que no innova lo suficiente, que es casi un paso atrás en ese sentido. Pero por una parte, tenemos un ‘Metroid Prime 4’ anunciado. Segundo, da la impresión de que Mercury Steam va paso a paso, y esto es un escalón más allá de ‘Samus Returns’, pero que todavía quedan peldaños por subir.

Una mecánica de juego pulidísima y perfectamente adaptada a las posibilidades técnicas y visuales de Switch, un estupendo apartado visual que brilla en virguerías como la división cromática de los niveles según el tipo del que sean y una Samus que sentimos nuestra pero a la vez percibimos como nueva. ‘Dread’ puede ser la revitalización definitiva que esperábamos para una de las franquicias históricas más influyentes del medio.


La noticia

Hemos probado ‘Metroid Dread’ y tiene todo para convertirse en el mejor Metroid en décadas: así es la nueva Samus

fue publicada originalmente en

Xataka

por
John Tones

.

HardZone – Los factores que evitan la caída de precio de las tarjetas gráficas

Existe una creencia repetida que es la siguiente: terminada la burbuja de la minería el precio de las GPU gaming va a bajar en picado hasta los niveles habituales. No obstante esto podría no ser así y el precio de las tarjetas gráficas mantenerse alto incluso después del fin de dicha moda pasajera. ¿Cuáles son los factores y motivos de ello?

No hay duda que el boom de la minería trae consigo dos verdades que son innegables, la primera de ellas es que ha subido los precios de las tarjetas gráficas y la segunda es que se trata de una burbuja. El problema es que no sabemos cuándo se producirá el fenómeno en el que la burbuja explotará y los precios empezarán a bajar.

Pese a esta idea universal que tienen muchos con la esperanza de que sea más económico actualizar el hardware gráfico, el análisis de la situación no tiene en cuenta otros factores que podrían llevar a que las tarjetas gráficas no viesen reducido su precio al grado que muchos se esperan. ¿Por qué el precio de las GPU Gaming no van a bajar tras el fin de la minería?

Las GPU gaming no van a bajar su precio tras la minería

Calcular el precio de un bien de consumo no es fácil, ya que depende de una serie de factores complejos. Si bien es cierto que una persona puede estar dispuesta a pagar una cantidad determinada por un producto, también se da el caso que por ansia de tener el producto acabe pagando mucho más o por el simple hecho de no existir un equivalente a niveles de rendimiento o valor.

En la actualidad las tarjetas gráficas han subido de precio por el hecho que gracias a la minería de criptomonedas se han convertido en un medio de producción y no en un producto de consumo. Es decir, sirven para ganar dinero y eso ha disparado su precio al aumentar su valor en ese aspecto. Este efecto ha provocado que las granjas de minado se queden con la mayoría del stock de GPU para escritorio. Y es aquí donde entramos en un fenómeno que puede llegar a hacer que una vez explotada la burbuja no haya una bajada de precios.

A la hora de minar las granjas aumentan la velocidad de reloj de la VRAM para obtener más ancho de banda, básicamente lo que hacen es hacerlas funcionar a velocidades en las que pueden estar operativas el mayor tiempo posible y sin que muchas de sus tarjetas gráficas dejen de estar totalmente funcionales. Es más, uno de los motivos por los cuales las granjas de minado valoran más a las que están pensadas para gaming es por el hecho que disponen de salidas de vídeo HDMI y DisplayPort, lo que les permite vender estás a posteriori como tarjetas gráficas de segunda mano.

La demanda hará que no baje el precio de las tarjetas gráficas

El otro elemento que hemos de tener en cuenta es la cantidad de potenciales usuarios que necesitan reemplazar su tarjeta gráfica y que por la escasez/precio de las mismas se han quedado a medio camino de poder hacerlo. Muchos de ellos tienen dinero ahorrado que han ido acumulando y serán capaces de pagar precios más altos por tener su AMD RX 6000 o su NVIDIA RTX 30 en sus ordenadores, incluso por encima del precio de venta recomendado.

Cuando explote la burbuja de la minería se creará un mercado secundario de mineros sin interés en el gaming vendiendo sus tarjetas gráficas para recuperar su inversión y usuarios de PC comprando estas a alto precio. El resultado será que el coste medio no va a bajar y los ensambladores y fabricantes tampoco se van a quedar atrás a la hora de aprovechar la situación y capitalizarla.

No olvidemos que de cara a la minería las tarjetas gráficas tienen una tasa de recuperación en la que durante un tiempo el hardware está minando para poder pagarse a sí mismo. Por lo que buena parte del hardware no habrá recuperado sus costes cuando explote la burbuja de la minería y este será el que inunde un mercado lleno de gente que espera renovar la GPU en su PC y no a coste de saldo precisamente.

The post Los factores que evitan la caída de precio de las tarjetas gráficas appeared first on HardZone.

Xataka – Francia prohíbe a sus ministros usar la nube de Office 365 por temor a que Microsoft deba compartir información sensible con el gobierno de los EE.UU

Francia ha dado un paso más en proteger su soberanía digital. Según una circular interna a la que ha tenido acceso Public Actors, el director de la ‘Direction interministérielle du numérique’, considerado el departamento de sistemas de la información del estado francés, ha prohibido a los ministros el uso de Microsoft 365 (antes Office 365).

Según explica el organismo, Microsoft 365 «no cumple con la doctrina en la nube del centro» y por ello requiere a los distintos funcionarios públicos que no hagan uso de la versión en la nube. Sí podrán seguir utilizando el software Office, pero no así la solución colaborativa en la nube.


Leer más

Xataka – El ejército de EE.UU. quiere crear un reactor nuclear portátil que poder trasladar en misiones críticas

El Departamento de Defensa de los Estados Unidos ha comenzado la puesta en marcha de un objetivo singular: la creación de microrreactores nucleares que poder desplegar «en entornos remotos y austeros».

La idea no es nueva, pero su aplicación en el ámbito militar preocupa a los críticos que señalan que estos reactores podrían convertirse en objetivos en sí mismos. Para el ejército de EE.UU. el objetivo es claro: no quieren aumentar su dependencia y enorme gasto actual en electricidad y combustible.

Reactores de quita y pon

La energía eólica y la energía solar no son buenas opciones para este propósito, señalan los responsables de la iniciativa: son problemáticas por sus limitaciones en cuanto a localización, meteorología o área disponible, además de necesitar fuentes de alimentación redundantes.

En el Departamento de Defensa señalan que ya usan 30 TWh de electricidad al año y más de 37,9 millones de litros de combustible al día, y cada vez necesitarán más electricidad con la esperada transición a flotas de veh´ículos eléctricos.

Eso hace que el proyecto de microrreactor nuclear cobre especial importancia para este organismo, que se alinea con un país que sigue apostando sin temor por la energía nuclear. El objetivo es lograr que produzca entre uno y cinco megavatios de potencia y que sea «seguro y pequeño» para poder transportarlo «en misiones críticas en entornos austeros y remotos».

Ya se están comenzando a recibir propuestas para un plan que desarrollaría y construiría ese microrreactor en el Idaho National Laboratory, que precisamente lleva tiempo trabajando en este tipo de iniciativas.

Para los críticos —y no solo en este proyecto específico— esos microrreactores nucleares plantean problemas importantes, ya que podrían convertirse en objetivos para los potenciales enemigos de EE.UU. en esas misiones remotas. Edwin Lyman, de la ONG Nuclear Power Safety, explicaba que estos reactores «podrían causar más problemas y riesgos logísticos a las tropas que los problemas que resolverían».

Entre los objetivos del proyecto está el de que esos microrreactores produzcan energía a los tres días de su envío, y se puedan «desmontar» en siete días. Se espera que el Departamento de Defensa tome una decisión final sobre el proyecto a principios de 2022.

Vía | AP News


La noticia

El ejército de EE.UU. quiere crear un reactor nuclear portátil que poder trasladar en misiones críticas

fue publicada originalmente en

Xataka

por
Javier Pastor

.

HardZone – Fecha de lanzamiento para las nuevas CPU gaming de Intel: el 4 de …

MSI ha vuelto a pifiarla, una vez más, con otro dato importante que estaba y está bajo NDA para los fabricantes y ensambladores. La fecha oficial de lanzamiento de las esperadas CPU gaming de Intel es ya una realidad y como tal, ya sabemos donde y cuando competirá el gigante azul con su eterno rival. Al mismo tiempo, también sabemos las fechas del anuncio con todos los detalles por parte de Intel sobre sus CPU. ¿En qué fecha estarán disponibles las CPU Alder Lake?

La primera fecha estimada sobre el anuncio de estas esperadas CPU era el 19 de noviembre, algo tarde para muchos y una época perfecta desde el punto de vista de otros, pero finalmente no será así e Intel va a adelantar todo para que los Ryzen no le sigan comiendo terreno actualmente.

MSI vuelve a dar la nota filtrando por error la fecha de presentación

Curiosamente y sin quererlo, sin ser consciente de lo que implica un anuncio así, MSI lanzó una actualización en referencia a un kit de actualización gratuito para sus AIO Coreliquid. Aunque dicho anuncio no hace referencia directa a Intel Alder Lake como tal, el comunicado de prensa ha citado una fecha muy concreta: el 4 de noviembre.

El caso es que dicho kit de actualización solo estará disponible, curiosamente, a partir de dicha fecha y hasta el 30 de abril del año que viene, un GAP estrecho y muy curioso, ¿por qué no empezar el día 30 de octubre o 1 de noviembre a ofrecerlo siendo este último lunes?

Bueno, pues porque según se informa desde VideoCardz sus fuentes internas ante este anuncio han podido confirmar que Intel Alder Lake-S llegará en dicha fecha, es decir, se lanzará a las tiendas el 4 de noviembre, donde además se dará el pistoletazo de salida a las reviews. Por otro lado, este anuncio solo se hace para las CPU en sí, pero ¿cuándo se lanzarían las placas base y las DDR5 compatibles?

Muchas incógnitas por resolver, ¿27 de octubre fecha clave?

NombreNúcleos rendimientoNúcleos eficienciaNúcleos / hilos totalesFrecuencia base y máxima (rendimiento)Frecuencia máxima todos los cores (rendimiento)Frecuencia base y máxima (eficiencia)Frecuencia máxima todos los cores (eficiencia)CachéTDPPrecio

Core i9-12900K8816/24? / 5.3 GHz5 GHz? / 3.9 GHz3.7 GHz30 MB125W (PL1)
228W (PL2)?

Core i7-12700K8416/20? / 5 GHz4.7 GHz? / 3.8 GHz3.6 GHz25 MB125W (PL1)
228W (PL2)?

Core i5-12600K6412/16? / 4.9 GHz4.5 GHz? / 3.6 GHz3.4 GHz20 MB125W (PL1)
228W (PL2)?

La realidad es que el 4 de noviembre solo tendremos una parte en el mercado, pero no hay anuncio por ninguno de los fabricantes de placas y memorias RAM sobre la disponibilidad para los modelos que darán soporte a los nuevos i9, i7, i5 e ¿i3? de Intel.

Según parece, el 27 de octubre será la presentación oficial y las reservas de las CPU, por lo que se está especulando que podría ser el momento en el que todo se desvele para así no enturbiar las características de las mismas.

De momento, solo se puede confirmar que las placas serán de gama media hacia arriba, y que las memorias llegarán al menos a velocidades de DDR5-6400, principalmente porque Intel solo presentará 6 SKU el 4 de noviembre: i9-12900K y 12900KF, i7-12700K y 12700KF e i5-12600K y 12600KF.

Por lo tanto y vistos los modelos, no tendría sentido presentar gama baja de placas base económicas si los consumos y amperios necesarios invitan a pensar en un sistema de alimentación competente. Pero quien sabe, siempre hay usuarios que optan por invertir poco en placa base y memorias a costa de obtener una mejor CPU, aunque no sea lo más óptimo.

En cualquier caso, el 27 de octubre tendremos todos los datos para hablar y debatir, entretanto, disfrutemos de las filtraciones que están por venir.

The post Fecha de lanzamiento para las nuevas CPU gaming de Intel: el 4 de … appeared first on HardZone.

Xataka – Xiaomi Civi: el nuevo apellido de la familia Xiaomi se estrena con un elegante diseño curvado y competitivas prestaciones

Xiaomi estrena nueva familia de móviles. Civi es el apellido de esta nueva serie de dispositivos que estarán enfocados en el público joven y llegan con unas características de lo más llamativas, desde una pantalla curva sin casi marcos hasta un elegante cuerpo trasero con un singular degradado.

Esto es lo que ofrece el nuevo Xiaomi Civi, un gama media con 5G, pantalla de 120 Hz y una construcción digna de móviles de categoría superior. Un curioso movimiento por parte de Xiaomi que por el momento llega a China y quién sabe si se extenderá a más mercados.


Leer más

Xataka – Así es como la Estación Espacial Internacional ha resuelto uno de sus grandes retos: nos lo explica el ingeniero de IBM que ha liderado este proyecto de NASA

Los desafíos técnicos que plantea sostener en el tiempo una instalación tan compleja como la Estación Espacial Internacional son numerosos. Y, además, algunos de ellos son críticos y muy difíciles de resolver. Proteger la salud de los astronautas, que se encuentran sometidos durante varios meses consecutivos a los efectos de la microgravedad y la radiación cósmica, es crucial, y una herramienta que contribuye a hacerlo posible es la secuenciación del ADN a bordo de la propia estación.

Utilizando esta tecnología es posible monitorizar su salud con mucha precisión porque, entre otros factores, les permite identificar microbios y otros agentes infecciosos. Además, resulta muy valiosa para llevar a buen puerto algunos de los experimentos con organismos vivos que se están realizando actualmente en la Estación Espacial Internacional. Sin embargo, la secuenciación del ADN plantea un gran problema: cada muestra genera aproximadamente medio terabyte de información, y es necesario enviar esos datos a la Tierra para que sean procesados.

La secuenciación del ADN plantea un gran problema: cada muestra genera aproximadamente medio ‘terabyte’ de información, y es necesario enviar esos datos a la Tierra para que sean procesados

El informe que contiene el resultado de la secuenciación tarda entre seis y ocho semanas en estar listo y a disposición de los astronautas. Demasiado tiempo. Los técnicos de NASA enseguida se dieron cuenta de que esa latencia no es asumible, y pusieron en marcha un proyecto que perseguía resolver este problema de la forma más eficaz posible. Y aquí entra en escena nuestro protagonista. Se llama Naeem Altaf, y es el director de tecnología espacial de IBM. Es una persona joven, pero, curiosamente, trabaja en esta compañía desde hace 20 años, y durante su periplo profesional ha pronunciado numerosas conferencias y ha desarrollado varias patentes.

No obstante, ante todo Naeem es un experto en edge computing, un paradigma de computación distribuida con una enorme proyección de futuro que podemos identificar en español como computación en la frontera o computación de frontera. Precisamente él ha sido el ingeniero que ha liderado el proyecto de NASA responsable de resolver el problema derivado del procesado de los datos que genera la secuenciación del ADN en la Estación Espacial Internacional. Hemos tenido la ocasión de hablar con él largo y tendido, y nos ha contado con todo lujo de detalles los pormenores de este proyecto tan apasionante. Esto es lo que nos ha explicado Naeem.

La computación de frontera ha resuelto uno de los grandes problemas de NASA

Como acabamos de ver, el germen del proyecto de NASA en el que vamos a indagar en este artículo es la computación de frontera, por lo que es una buena idea pedir a Naeem que nos explique de la forma más didáctica posible en qué consiste esta tecnología y qué implica en la práctica. Esta es su respuesta:

«Una manera sencilla de definir qué es la computación de frontera consiste en identificarla como la capacidad de procesar los datos allí donde están siendo generados. En esencia lo que estamos haciendo es reducir la necesidad de mover la información. Para hacerlo posible necesitas tener un modelo en esa ubicación que sea capaz de procesar los datos de entrada y entregarnos como salida una acción o una recomendación derivada de esa entrada», nos explica Naeem.

Su respuesta nos invita a intuir que la computación de frontera debe necesariamente acarrear ventajas desde el punto de vista de la reducción de la latencia derivada del procesado de la información. Pero esto no es todo. También debería ayudar a mermar el tráfico que circula por la red involucrada en la comunicación entre el lugar en el que se generan los datos y la ubicación en la que inicialmente se procesaban.

Naeem nos explica con detalle cuál es el propósito del proyecto que ha liderado para NASA:

«La Estación Espacial Internacional es un laboratorio fruto de la colaboración entre muchos países, y su función primordial es permitirnos llevar a cabo experimentos en condiciones de microgravedad. Todos los días se realizan muchos experimentos en estas instalaciones, y la mayor parte de ellos genera una gran cantidad de datos. Precisamente, esta estación es un caso extremo de computación de frontera si tomamos como referencia la Nube», apunta Naeem.

«Los smartphones y los coches autónomos con los que todos estamos familiarizados son algunos de los casos de uso de la computación de frontera. La Estación Espacial Internacional va un poco más lejos porque se encuentra en órbita, pero esencialmente es lo mismo. Este proyecto nació de la mano de los equipos de NASA y la propia estación con el propósito de identificar cuáles son los experimentos que generan un mayor volumen de datos, y también de entender cómo podemos lidiar con la necesidad de procesarlos».

«La secuenciación del ADN nos permite monitorizar la salud de los astronautas e identificar enfermedades infecciosas»

«Uno de los experimentos que enseguida reclamó nuestra atención fue la secuenciación del ADN. En la estación hay un secuenciador utilizado por los astronautas, entre otras cosas, para analizar muestras y buscar microbios, y cada análisis genera aproximadamente medio terabyte de información. Esta tecnología nos permite monitorizar la salud de los astronautas e identificar enfermedades infecciosas. Actualmente es necesario enviar todos esos datos a los centros de cálculo de la Tierra para que puedan ser procesados, y esta estrategia plantea varios problemas», nos asegura Naeem.

«El más relevante consiste en que el enlace de comunicación de la Estación Espacial Internacional con la Tierra también se utiliza para muchas otras cosas, y algunas son críticas, por lo que no siempre está disponible para transferir los datos derivados de los experimentos. Después de analizar a fondo este escenario nos dimos cuenta de que una forma eficaz de resolver este desafío consistía en llevar a cabo el procesado de los datos en el mismo lugar en el que se generan implementando una solución inspirada en el paradigma de la computación de frontera. Y para hacerlo posible recurrimos a los equipos Spaceborne Computer-2 (SBC-2) fabricados por HPE (Hewlett Packard Enterprise), a la plataforma multicloud híbrida IBM Cloud sobre el sistema operativo Red Hat y al gestor de contenedores Kubernetes».

Actualmente el japonés Akihiko Hoshide, el astronauta de la agencia aeroespacial japonesa que se encuentra en la Estación Espacial Internacional, es el responsable de liderar la investigación derivada de la secuenciación del ADN.

«Una vez que tuvimos toda la plataforma a punto con el nuevo código preparamos una prueba generando datos en bruto con el secuenciador de ADN, y los equipos SBC-2 se encargaron de llevar a cabo el procesado en la Estación Espacial Internacional. Era justo lo que estaba buscando NASA. Todo el proceso requirió invertir entre 6 y 8 horas, por lo que era perfectamente posible llevarlo a cabo en un solo día. Bastaba un único día para tomar la muestra con el secuenciador, procesarla y obtener el resultado del análisis, que es un informe que pesa menos de un megabyte y que puede ser enviado rápidamente a la Tierra», concluye Naeem dando muestras claras de su satisfacción con el resultado del proyecto.

«Gracias a la computación de frontera los astronautas pueden tomar sus muestras y tener los resultados del análisis solo unas horas después»

«La computación de frontera está demostrando ser muy útil en la Estación Espacial Internacional, pero hay otros escenarios de uso en los que también encaja a la perfección. Actualmente algunos científicos están desarrollando su investigación en áreas remotas del planeta, como la Antártida, el Polo Norte o en desiertos. Si cada vez que toman una muestra se ven obligados a enviarla a su laboratorio para que sea analizada, y después tienen que esperar la llegada de los resultados, su investigación se ralentiza mucho. Pero gracias a la computación de frontera pueden tomar sus muestras y tener los resultados del análisis solo unas horas después. Es el mismo concepto que hemos trasladado al espacio», nos asegura este técnico.

Antes de concluir su explicación Naeem remarca lo importante que es para NASA haber conseguido reducir la latencia que implicaba el procesado de la información generada por la secuenciación del ADN. Esta mejora es crucial porque permite al personal de la agencia espacial y a los astronautas que se encuentran en la estación reaccionar mucho más rápido frente a cualquier contingencia que pueda comprometer su salud:

«Este proyecto nos ha permitido reducir drásticamente el tiempo que los científicos de la Estación Espacial Internacional deben esperar desde el momento en el que toman las muestras hasta que reciben el resultado del análisis. Originalmente se veían obligados a esperar entre seis y ocho semanas, y ahora gracias a la infraestructura que hemos diseñado solo tienen que esperar varias horas. En un solo día, o, en el peor de los casos, en dos días, ya tienen a su disposición el análisis de las muestras que han tomado. En este ámbito la computación de frontera marca una gran diferencia», concluye Naeem.

La estancia en la Estación Espacial implica riesgos serios para la salud

Cuando el ser humano deja atrás el ambiente protector de la Tierra se ve expuesto a multitud de amenazas que pueden comprometer seriamente su salud. Naeem nos explica por qué es tan importante que las agencias espaciales hagan todo lo que está en su mano para proteger a los astronautas no solo de las amenazas más evidentes, sino también de las que aparentemente son más nimias, como, por ejemplo, los microbios:

«El traje espacial también se beneficia de la computación de frontera debido a su capacidad de tomar muestras y analizarlas»

«En las misiones que tienen lugar en el espacio, no solo dentro de la Estación Espacial Internacional, sino también en todas las demás, como, por ejemplo, la que en el futuro nos permitirá viajar a Marte, es esencial monitorizar la salud de los astronautas. La exposición a la radiación cósmica es uno de los riesgos a los que se enfrentan, pero hay otras muchas amenazas para su salud, como, por ejemplo, la posible proliferación de microbios. Cuidar al máximo la salud de los astronautas es crucial porque, en primer lugar, tienen ese derecho, y, además, si su salud no es óptima la misión puede quedar comprometida», apunta Naeem.

«En este contexto, más allá de la enorme relevancia que tiene la posibilidad de llevar a cabo la secuenciación del ADN con rapidez, el traje espacial que utilizan los astronautas tiene una enorme importancia debido a que incorpora la tecnología necesaria para monitorizar constantemente los parámetros vitales de su organismo. De hecho, este traje es en sí mismo un dispositivo que también se beneficia de la computación de frontera debido a su capacidad de recoger muestras, analizarlas y tomar decisiones a partir de los resultados que ha obtenido. Si es necesario el traje puede por sí mismo emitir una alerta para reaccionar rápidamente ante cualquier circunstancia que amenace la salud de un astronauta», concluye el ingeniero de IBM.

La posible proliferación de los microbios puede comprometer seriamente la salud de los astronautas que se encuentran en la Estación Espacial Internacional, pero, afortunadamente, la secuenciación del ADN les está ayudando a mantener este riesgo bajo control.

La computación de frontera tiene muchas aplicaciones. Muchísimas, en realidad. Como estamos comprobando está resultando muy valiosa para las personas que pasan largos periodos de tiempo en la Estación Espacial Internacional, pero también puede marcar la diferencia en muchos otros ámbitos. Incluso puede ayudarnos a identificar vida en otros planetas. Naeem nos explica por qué.

«Nosotros estamos involucrados en algunas aplicaciones de esta tecnología, pero hay muchas otras. Actualmente también colaboramos con un grupo de científicos que trabaja en Lhasa, en el Tíbet, y que está estudiando la salud de las plantas cuando están sometidas a la gran altitud de esta ciudad. Están combinando la computación de frontera y el aprendizaje profundo para identificar cuándo la salud de las plantas se degrada, y están obteniendo muy buenos resultados», señala Naeem.

«En lo que se refiere a la detección de vida fuera de nuestro planeta, sí, definitivamente la computación de frontera puede marcar la diferencia»

«Y en lo que se refiere a la detección de vida fuera de nuestro planeta, que es una iniciativa que estará presente en las próximas misiones a la Luna y Marte, sí, definitivamente la computación de frontera puede marcar la diferencia. Gracias a ella será posible acceder con mucha rapidez a la información, que es lo que ya están consiguiendo los astronautas de la Estación Espacial Internacional que se están encargando de la secuenciación del ADN. No sería viable tener que esperar semanas, o incluso meses, hasta que estén disponibles los resultados de las muestras».

«Creo que en el futuro veremos cómo la computación de frontera se expande con rapidez, especialmente en los proyectos que tendrán lugar en el espacio. En ellos será posible trabajar de una forma completamente autónoma y sin necesidad de enviar de forma frecuente abundante información a la Tierra. Lo podrán hacer todo por sí mismos. Y probablemente las empresas que fabricarán los dispositivos y desarrollarán el software de computación de frontera abrirán sus API. Los proveedores de software, como nosotros, podemos construir nuestros modelos y transferirlos sin dificultad a los dispositivos en los que van a ser ejecutados», concluye este experto.

Todos los proyectos de cierta envergadura se enfrentan a desafíos, y el que ha liderado Naeem para NASA no ha sido una excepción a esta regla tan firmemente asentada. Este técnico nos explica cuáles han sido los factores que se lo han puesto más difícil a pesar de que, afortunadamente, el proyecto finalmente ha llegado a buen puerto:

«El principal reto al que nos hemos enfrentado son los datos. Están en el corazón mismo del aprendizaje automático. No nos vale cualquier dato; necesitamos buenos datos. Los científicos invierten muchísimo tiempo en limpiar la información con la que trabajan debido principalmente a que en los datos se cuela mucho ruido; mucha información de la que no es posible extraer conocimiento. Si, además, el volumen de datos es muy grande, el tiempo que es necesario invertir en la limpieza puede ser enorme».

«Otro desafío que también es muy importante es la necesidad de compartir los datos. Y no es nada fácil resolverlo porque no todo el mundo está dispuesto a compartir la información que genera o maneja debido a la existencia de una multitud de restricciones de todo tipo. En resumen yo diría que los principales retos a los que nos enfrentamos son garantizar la calidad de los datos con los que trabajamos, asegurar que tenemos la cantidad de información necesaria para extraer el aprendizaje correcto, y, por último, hacer posible el acceso a los datos», sintetiza Naeem.

La Estación Espacial Internacional contiene un hábitat específicamente diseñado para estudiar cómo se desarrollan las plantas en condiciones de microgravedad. Es asombroso lo mucho que podemos aprender gracias a la experimentación en el espacio.

La computación de frontera y el 5G dibujan un futuro esperanzador

Antes de concluir nuestra conversación no dejé escapar la oportunidad de preguntar a Naeem acerca del rol que tiene la tecnología 5G en el contexto de la computación de frontera. Es fácil intuir que estas dos innovaciones forman un tándem muy sólido capaz de marcar la diferencia en muchos ámbitos. Y sí, Naeem confirma estas sospechas de una forma contundente:

«La computación en la Nube comenzó hace algo más de una década, y creo firmemente que estamos iniciando el siguiente salto evolutivo de esta tecnología debido a que los sensores, los dispositivos que generan datos, están por todas partes. Casi todo es un sensor. Los smartphones, los termostatos, los coches autónomos… todos estos dispositivos ya están utilizando la computación de frontera. Pero, además, la industria también se está beneficiando de una forma muy profunda de esta tecnología».

«En unos tres años el despliegue de nuevos satélites conseguirá que la conectividad 5G llegue a prácticamente todos los rincones del planeta»

«Si una empresa tiene una gran fábrica puede mantener todos sus dispositivos interconectados a través de una red 5G de alta velocidad. Estos dispositivos son inteligentes, por lo que pueden comunicarse con los demás elementos de la red de una forma proactiva e inteligente para optimizar su funcionamiento e incrementar la productividad de la fábrica. Este es el futuro. La computación en la Nube tal y como la conocíamos va a quedar en el pasado debido a que esta tecnología está migrando hacia un modelo de computación de frontera en el que la conectividad 5G juega un rol protagonista», sentencia Naeem.

«De hecho, creo que el próximo gran paso consistirá en extender los satélites de comunicaciones 5G para garantizar la cobertura fuera de las áreas metropolitanas. Cuando te alejas de las grandes ciudades la conectividad 5G cae drásticamente. Este problema no tiene la misma envergadura en todos los países, pero lo habitual es que en las grandes ciudades tengamos una conectividad 5G muy rápida, y fuera de ellas nuestras conexiones sean mucho más lentas. Cabe la posibilidad de que en unos tres años gracias a los satélites la cobertura de esta red llegue a prácticamente todos los rincones del planeta. Será un paradigma nuevo en el que la computación de frontera tendrá un papel absolutamente protagonista», vaticina este afable ingeniero de IBM sin disimular lo más mínimo su entusiasmo por un futuro que nos invita a ser optimistas.

Imágenes | NASA


La noticia

Así es como la Estación Espacial Internacional ha resuelto uno de sus grandes retos: nos lo explica el ingeniero de IBM que ha liderado este proyecto de NASA

fue publicada originalmente en

Xataka

por
Juan Carlos López

.

HardZone – Estos serán los nombres de las GPU ARC que competirán con NVIDIA y AMD

Una de las informaciones que desconocemos acerca de las GPU Intel ARC son los nombres de las mismas, los cuales nos ha de servir para diferenciar no solo diferentes productos en una misma generación, sino también diferentes generaciones entre sí. Pues bien, parece que la multinacional de azul va a seguir una forma bien distinta a la de AMD y NVIDIA a la hora de nombrar sus tarjetas gráficas gaming.

Al darle un nombre a las diferentes tarjetas gráficas tanto NVIDIA como AMD utilizan unas normas que nos ayudan a identificar si un modelo es más potente que otro o cuál es la arquitectura que utilizan. Por ejemplo NVIDIA empieza el nombre de sus GPU gaming con el prefijo RTX seguido del número de generación, en el caso actual 30, y luego un número también de dos cifras que indica la gama y luego el segmento. De tal manera que cuando leemos RTX 3080 sabemos situarla dentro de la gama de productos de NVIDIA de forma ordinal.

Siendo Intel una empresa novel en el mundo de las tarjetas gráficas y habiendo revelado hace poco el nombre ARC, equivalente a las marcas Radeon y GeForce. Lo que nos faltaba era saber cómo van a nombrar sus tarjetas gráficas y aunque no tenemos toda la información al completo nos podemos hacer una idea aproximada de cuál podría ser el nombre de cada una de sus GPU para gaming.

Así serán los nombres de las GPU Intel ARC

La siguiente tabla pertenece a un documento interno que se ha filtrado por el insider momomo_us a través de su cuenta de Twitter. Y nos define la nomenclatura de las GPU Intel ARC, donde la primera generación bajo el nombre en clave Alchemist la veremos en 2022 y que será continuada por las arquitecturas bautizadas como Battlemage, Celestial y Druid.

Pues bien, a diferencia de NVIDIA y AMD donde las generaciones vienen definidas por un número, Intel ha decidido utilizar una letra, así pues bajo ARC a### se hará referencia a la primera generación de tarjetas gráficas, b### a la segunda generación, c### a la tercera, etcétera. La letra que sirve como prefijo es la misma que el nombre en clave de la arquitectura utilizada, por lo que los de Raja Koduri utilizarán en las diferentes generaciones de sus GPU ARC unos nombres distintos a los convencionales.

Pero, ¿qué significan los ###? Por el momento no lo sabemos y podemos especular sobre ello. Lo que sí que conocemos es comparativamente donde se colocaría la gama de Intel respecto a sus rivales directos. Dado que la configuración oficial más alta conocida es la que tiene una potencia de tú a tú con la NVIDIA RTX 3070 y la AMD RX 6700 XT, creemos que los nombres Intel ARC a700 y ARC a600 para las configuraciones con 512 y 384 Execution Units son las que tienen más números, ya que son fáciles de recordar y le dan una idea al potencial comprador sobre el rendimiento que se podrá esperar.

Desgraciadamente aún tendremos que esperar para confirmar el nombre final que dará Intel, pero creemos que cuando salga la segunda generación de las GPU gaming del equipo azul estaremos hablando del rendimiento comparado entre una Intel a700 y una b700. En todo caso, aún es pronto para asegurar la nomenclatura final de los Intel ARC al completo.

The post Estos serán los nombres de las GPU ARC que competirán con NVIDIA y AMD appeared first on HardZone.