Buscar:

Xataka – Francia prohíbe a sus ministros usar la nube de Office 365 por temor a que Microsoft deba compartir información sensible con el gobierno de los EE.UU

Francia ha dado un paso más en proteger su soberanía digital. Según una circular interna a la que ha tenido acceso Public Actors, el director de la ‘Direction interministérielle du numérique’, considerado el departamento de sistemas de la información del estado francés, ha prohibido a los ministros el uso de Microsoft 365 (antes Office 365).

Según explica el organismo, Microsoft 365 «no cumple con la doctrina en la nube del centro» y por ello requiere a los distintos funcionarios públicos que no hagan uso de la versión en la nube. Sí podrán seguir utilizando el software Office, pero no así la solución colaborativa en la nube.


Leer más

Xataka – El ejército de EE.UU. quiere crear un reactor nuclear portátil que poder trasladar en misiones críticas

El Departamento de Defensa de los Estados Unidos ha comenzado la puesta en marcha de un objetivo singular: la creación de microrreactores nucleares que poder desplegar «en entornos remotos y austeros».

La idea no es nueva, pero su aplicación en el ámbito militar preocupa a los críticos que señalan que estos reactores podrían convertirse en objetivos en sí mismos. Para el ejército de EE.UU. el objetivo es claro: no quieren aumentar su dependencia y enorme gasto actual en electricidad y combustible.

Reactores de quita y pon

La energía eólica y la energía solar no son buenas opciones para este propósito, señalan los responsables de la iniciativa: son problemáticas por sus limitaciones en cuanto a localización, meteorología o área disponible, además de necesitar fuentes de alimentación redundantes.

En el Departamento de Defensa señalan que ya usan 30 TWh de electricidad al año y más de 37,9 millones de litros de combustible al día, y cada vez necesitarán más electricidad con la esperada transición a flotas de veh´ículos eléctricos.

Eso hace que el proyecto de microrreactor nuclear cobre especial importancia para este organismo, que se alinea con un país que sigue apostando sin temor por la energía nuclear. El objetivo es lograr que produzca entre uno y cinco megavatios de potencia y que sea «seguro y pequeño» para poder transportarlo «en misiones críticas en entornos austeros y remotos».

Ya se están comenzando a recibir propuestas para un plan que desarrollaría y construiría ese microrreactor en el Idaho National Laboratory, que precisamente lleva tiempo trabajando en este tipo de iniciativas.

Para los críticos —y no solo en este proyecto específico— esos microrreactores nucleares plantean problemas importantes, ya que podrían convertirse en objetivos para los potenciales enemigos de EE.UU. en esas misiones remotas. Edwin Lyman, de la ONG Nuclear Power Safety, explicaba que estos reactores «podrían causar más problemas y riesgos logísticos a las tropas que los problemas que resolverían».

Entre los objetivos del proyecto está el de que esos microrreactores produzcan energía a los tres días de su envío, y se puedan «desmontar» en siete días. Se espera que el Departamento de Defensa tome una decisión final sobre el proyecto a principios de 2022.

Vía | AP News


La noticia

El ejército de EE.UU. quiere crear un reactor nuclear portátil que poder trasladar en misiones críticas

fue publicada originalmente en

Xataka

por
Javier Pastor

.

HardZone – Fecha de lanzamiento para las nuevas CPU gaming de Intel: el 4 de …

MSI ha vuelto a pifiarla, una vez más, con otro dato importante que estaba y está bajo NDA para los fabricantes y ensambladores. La fecha oficial de lanzamiento de las esperadas CPU gaming de Intel es ya una realidad y como tal, ya sabemos donde y cuando competirá el gigante azul con su eterno rival. Al mismo tiempo, también sabemos las fechas del anuncio con todos los detalles por parte de Intel sobre sus CPU. ¿En qué fecha estarán disponibles las CPU Alder Lake?

La primera fecha estimada sobre el anuncio de estas esperadas CPU era el 19 de noviembre, algo tarde para muchos y una época perfecta desde el punto de vista de otros, pero finalmente no será así e Intel va a adelantar todo para que los Ryzen no le sigan comiendo terreno actualmente.

MSI vuelve a dar la nota filtrando por error la fecha de presentación

Curiosamente y sin quererlo, sin ser consciente de lo que implica un anuncio así, MSI lanzó una actualización en referencia a un kit de actualización gratuito para sus AIO Coreliquid. Aunque dicho anuncio no hace referencia directa a Intel Alder Lake como tal, el comunicado de prensa ha citado una fecha muy concreta: el 4 de noviembre.

El caso es que dicho kit de actualización solo estará disponible, curiosamente, a partir de dicha fecha y hasta el 30 de abril del año que viene, un GAP estrecho y muy curioso, ¿por qué no empezar el día 30 de octubre o 1 de noviembre a ofrecerlo siendo este último lunes?

Bueno, pues porque según se informa desde VideoCardz sus fuentes internas ante este anuncio han podido confirmar que Intel Alder Lake-S llegará en dicha fecha, es decir, se lanzará a las tiendas el 4 de noviembre, donde además se dará el pistoletazo de salida a las reviews. Por otro lado, este anuncio solo se hace para las CPU en sí, pero ¿cuándo se lanzarían las placas base y las DDR5 compatibles?

Muchas incógnitas por resolver, ¿27 de octubre fecha clave?

NombreNúcleos rendimientoNúcleos eficienciaNúcleos / hilos totalesFrecuencia base y máxima (rendimiento)Frecuencia máxima todos los cores (rendimiento)Frecuencia base y máxima (eficiencia)Frecuencia máxima todos los cores (eficiencia)CachéTDPPrecio

Core i9-12900K8816/24? / 5.3 GHz5 GHz? / 3.9 GHz3.7 GHz30 MB125W (PL1)
228W (PL2)?

Core i7-12700K8416/20? / 5 GHz4.7 GHz? / 3.8 GHz3.6 GHz25 MB125W (PL1)
228W (PL2)?

Core i5-12600K6412/16? / 4.9 GHz4.5 GHz? / 3.6 GHz3.4 GHz20 MB125W (PL1)
228W (PL2)?

La realidad es que el 4 de noviembre solo tendremos una parte en el mercado, pero no hay anuncio por ninguno de los fabricantes de placas y memorias RAM sobre la disponibilidad para los modelos que darán soporte a los nuevos i9, i7, i5 e ¿i3? de Intel.

Según parece, el 27 de octubre será la presentación oficial y las reservas de las CPU, por lo que se está especulando que podría ser el momento en el que todo se desvele para así no enturbiar las características de las mismas.

De momento, solo se puede confirmar que las placas serán de gama media hacia arriba, y que las memorias llegarán al menos a velocidades de DDR5-6400, principalmente porque Intel solo presentará 6 SKU el 4 de noviembre: i9-12900K y 12900KF, i7-12700K y 12700KF e i5-12600K y 12600KF.

Por lo tanto y vistos los modelos, no tendría sentido presentar gama baja de placas base económicas si los consumos y amperios necesarios invitan a pensar en un sistema de alimentación competente. Pero quien sabe, siempre hay usuarios que optan por invertir poco en placa base y memorias a costa de obtener una mejor CPU, aunque no sea lo más óptimo.

En cualquier caso, el 27 de octubre tendremos todos los datos para hablar y debatir, entretanto, disfrutemos de las filtraciones que están por venir.

The post Fecha de lanzamiento para las nuevas CPU gaming de Intel: el 4 de … appeared first on HardZone.

Xataka – Xiaomi Civi: el nuevo apellido de la familia Xiaomi se estrena con un elegante diseño curvado y competitivas prestaciones

Xiaomi estrena nueva familia de móviles. Civi es el apellido de esta nueva serie de dispositivos que estarán enfocados en el público joven y llegan con unas características de lo más llamativas, desde una pantalla curva sin casi marcos hasta un elegante cuerpo trasero con un singular degradado.

Esto es lo que ofrece el nuevo Xiaomi Civi, un gama media con 5G, pantalla de 120 Hz y una construcción digna de móviles de categoría superior. Un curioso movimiento por parte de Xiaomi que por el momento llega a China y quién sabe si se extenderá a más mercados.


Leer más

Xataka – Así es como la Estación Espacial Internacional ha resuelto uno de sus grandes retos: nos lo explica el ingeniero de IBM que ha liderado este proyecto de NASA

Los desafíos técnicos que plantea sostener en el tiempo una instalación tan compleja como la Estación Espacial Internacional son numerosos. Y, además, algunos de ellos son críticos y muy difíciles de resolver. Proteger la salud de los astronautas, que se encuentran sometidos durante varios meses consecutivos a los efectos de la microgravedad y la radiación cósmica, es crucial, y una herramienta que contribuye a hacerlo posible es la secuenciación del ADN a bordo de la propia estación.

Utilizando esta tecnología es posible monitorizar su salud con mucha precisión porque, entre otros factores, les permite identificar microbios y otros agentes infecciosos. Además, resulta muy valiosa para llevar a buen puerto algunos de los experimentos con organismos vivos que se están realizando actualmente en la Estación Espacial Internacional. Sin embargo, la secuenciación del ADN plantea un gran problema: cada muestra genera aproximadamente medio terabyte de información, y es necesario enviar esos datos a la Tierra para que sean procesados.

La secuenciación del ADN plantea un gran problema: cada muestra genera aproximadamente medio ‘terabyte’ de información, y es necesario enviar esos datos a la Tierra para que sean procesados

El informe que contiene el resultado de la secuenciación tarda entre seis y ocho semanas en estar listo y a disposición de los astronautas. Demasiado tiempo. Los técnicos de NASA enseguida se dieron cuenta de que esa latencia no es asumible, y pusieron en marcha un proyecto que perseguía resolver este problema de la forma más eficaz posible. Y aquí entra en escena nuestro protagonista. Se llama Naeem Altaf, y es el director de tecnología espacial de IBM. Es una persona joven, pero, curiosamente, trabaja en esta compañía desde hace 20 años, y durante su periplo profesional ha pronunciado numerosas conferencias y ha desarrollado varias patentes.

No obstante, ante todo Naeem es un experto en edge computing, un paradigma de computación distribuida con una enorme proyección de futuro que podemos identificar en español como computación en la frontera o computación de frontera. Precisamente él ha sido el ingeniero que ha liderado el proyecto de NASA responsable de resolver el problema derivado del procesado de los datos que genera la secuenciación del ADN en la Estación Espacial Internacional. Hemos tenido la ocasión de hablar con él largo y tendido, y nos ha contado con todo lujo de detalles los pormenores de este proyecto tan apasionante. Esto es lo que nos ha explicado Naeem.

La computación de frontera ha resuelto uno de los grandes problemas de NASA

Como acabamos de ver, el germen del proyecto de NASA en el que vamos a indagar en este artículo es la computación de frontera, por lo que es una buena idea pedir a Naeem que nos explique de la forma más didáctica posible en qué consiste esta tecnología y qué implica en la práctica. Esta es su respuesta:

«Una manera sencilla de definir qué es la computación de frontera consiste en identificarla como la capacidad de procesar los datos allí donde están siendo generados. En esencia lo que estamos haciendo es reducir la necesidad de mover la información. Para hacerlo posible necesitas tener un modelo en esa ubicación que sea capaz de procesar los datos de entrada y entregarnos como salida una acción o una recomendación derivada de esa entrada», nos explica Naeem.

Su respuesta nos invita a intuir que la computación de frontera debe necesariamente acarrear ventajas desde el punto de vista de la reducción de la latencia derivada del procesado de la información. Pero esto no es todo. También debería ayudar a mermar el tráfico que circula por la red involucrada en la comunicación entre el lugar en el que se generan los datos y la ubicación en la que inicialmente se procesaban.

Naeem nos explica con detalle cuál es el propósito del proyecto que ha liderado para NASA:

«La Estación Espacial Internacional es un laboratorio fruto de la colaboración entre muchos países, y su función primordial es permitirnos llevar a cabo experimentos en condiciones de microgravedad. Todos los días se realizan muchos experimentos en estas instalaciones, y la mayor parte de ellos genera una gran cantidad de datos. Precisamente, esta estación es un caso extremo de computación de frontera si tomamos como referencia la Nube», apunta Naeem.

«Los smartphones y los coches autónomos con los que todos estamos familiarizados son algunos de los casos de uso de la computación de frontera. La Estación Espacial Internacional va un poco más lejos porque se encuentra en órbita, pero esencialmente es lo mismo. Este proyecto nació de la mano de los equipos de NASA y la propia estación con el propósito de identificar cuáles son los experimentos que generan un mayor volumen de datos, y también de entender cómo podemos lidiar con la necesidad de procesarlos».

«La secuenciación del ADN nos permite monitorizar la salud de los astronautas e identificar enfermedades infecciosas»

«Uno de los experimentos que enseguida reclamó nuestra atención fue la secuenciación del ADN. En la estación hay un secuenciador utilizado por los astronautas, entre otras cosas, para analizar muestras y buscar microbios, y cada análisis genera aproximadamente medio terabyte de información. Esta tecnología nos permite monitorizar la salud de los astronautas e identificar enfermedades infecciosas. Actualmente es necesario enviar todos esos datos a los centros de cálculo de la Tierra para que puedan ser procesados, y esta estrategia plantea varios problemas», nos asegura Naeem.

«El más relevante consiste en que el enlace de comunicación de la Estación Espacial Internacional con la Tierra también se utiliza para muchas otras cosas, y algunas son críticas, por lo que no siempre está disponible para transferir los datos derivados de los experimentos. Después de analizar a fondo este escenario nos dimos cuenta de que una forma eficaz de resolver este desafío consistía en llevar a cabo el procesado de los datos en el mismo lugar en el que se generan implementando una solución inspirada en el paradigma de la computación de frontera. Y para hacerlo posible recurrimos a los equipos Spaceborne Computer-2 (SBC-2) fabricados por HPE (Hewlett Packard Enterprise), a la plataforma multicloud híbrida IBM Cloud sobre el sistema operativo Red Hat y al gestor de contenedores Kubernetes».

Actualmente el japonés Akihiko Hoshide, el astronauta de la agencia aeroespacial japonesa que se encuentra en la Estación Espacial Internacional, es el responsable de liderar la investigación derivada de la secuenciación del ADN.

«Una vez que tuvimos toda la plataforma a punto con el nuevo código preparamos una prueba generando datos en bruto con el secuenciador de ADN, y los equipos SBC-2 se encargaron de llevar a cabo el procesado en la Estación Espacial Internacional. Era justo lo que estaba buscando NASA. Todo el proceso requirió invertir entre 6 y 8 horas, por lo que era perfectamente posible llevarlo a cabo en un solo día. Bastaba un único día para tomar la muestra con el secuenciador, procesarla y obtener el resultado del análisis, que es un informe que pesa menos de un megabyte y que puede ser enviado rápidamente a la Tierra», concluye Naeem dando muestras claras de su satisfacción con el resultado del proyecto.

«Gracias a la computación de frontera los astronautas pueden tomar sus muestras y tener los resultados del análisis solo unas horas después»

«La computación de frontera está demostrando ser muy útil en la Estación Espacial Internacional, pero hay otros escenarios de uso en los que también encaja a la perfección. Actualmente algunos científicos están desarrollando su investigación en áreas remotas del planeta, como la Antártida, el Polo Norte o en desiertos. Si cada vez que toman una muestra se ven obligados a enviarla a su laboratorio para que sea analizada, y después tienen que esperar la llegada de los resultados, su investigación se ralentiza mucho. Pero gracias a la computación de frontera pueden tomar sus muestras y tener los resultados del análisis solo unas horas después. Es el mismo concepto que hemos trasladado al espacio», nos asegura este técnico.

Antes de concluir su explicación Naeem remarca lo importante que es para NASA haber conseguido reducir la latencia que implicaba el procesado de la información generada por la secuenciación del ADN. Esta mejora es crucial porque permite al personal de la agencia espacial y a los astronautas que se encuentran en la estación reaccionar mucho más rápido frente a cualquier contingencia que pueda comprometer su salud:

«Este proyecto nos ha permitido reducir drásticamente el tiempo que los científicos de la Estación Espacial Internacional deben esperar desde el momento en el que toman las muestras hasta que reciben el resultado del análisis. Originalmente se veían obligados a esperar entre seis y ocho semanas, y ahora gracias a la infraestructura que hemos diseñado solo tienen que esperar varias horas. En un solo día, o, en el peor de los casos, en dos días, ya tienen a su disposición el análisis de las muestras que han tomado. En este ámbito la computación de frontera marca una gran diferencia», concluye Naeem.

La estancia en la Estación Espacial implica riesgos serios para la salud

Cuando el ser humano deja atrás el ambiente protector de la Tierra se ve expuesto a multitud de amenazas que pueden comprometer seriamente su salud. Naeem nos explica por qué es tan importante que las agencias espaciales hagan todo lo que está en su mano para proteger a los astronautas no solo de las amenazas más evidentes, sino también de las que aparentemente son más nimias, como, por ejemplo, los microbios:

«El traje espacial también se beneficia de la computación de frontera debido a su capacidad de tomar muestras y analizarlas»

«En las misiones que tienen lugar en el espacio, no solo dentro de la Estación Espacial Internacional, sino también en todas las demás, como, por ejemplo, la que en el futuro nos permitirá viajar a Marte, es esencial monitorizar la salud de los astronautas. La exposición a la radiación cósmica es uno de los riesgos a los que se enfrentan, pero hay otras muchas amenazas para su salud, como, por ejemplo, la posible proliferación de microbios. Cuidar al máximo la salud de los astronautas es crucial porque, en primer lugar, tienen ese derecho, y, además, si su salud no es óptima la misión puede quedar comprometida», apunta Naeem.

«En este contexto, más allá de la enorme relevancia que tiene la posibilidad de llevar a cabo la secuenciación del ADN con rapidez, el traje espacial que utilizan los astronautas tiene una enorme importancia debido a que incorpora la tecnología necesaria para monitorizar constantemente los parámetros vitales de su organismo. De hecho, este traje es en sí mismo un dispositivo que también se beneficia de la computación de frontera debido a su capacidad de recoger muestras, analizarlas y tomar decisiones a partir de los resultados que ha obtenido. Si es necesario el traje puede por sí mismo emitir una alerta para reaccionar rápidamente ante cualquier circunstancia que amenace la salud de un astronauta», concluye el ingeniero de IBM.

La posible proliferación de los microbios puede comprometer seriamente la salud de los astronautas que se encuentran en la Estación Espacial Internacional, pero, afortunadamente, la secuenciación del ADN les está ayudando a mantener este riesgo bajo control.

La computación de frontera tiene muchas aplicaciones. Muchísimas, en realidad. Como estamos comprobando está resultando muy valiosa para las personas que pasan largos periodos de tiempo en la Estación Espacial Internacional, pero también puede marcar la diferencia en muchos otros ámbitos. Incluso puede ayudarnos a identificar vida en otros planetas. Naeem nos explica por qué.

«Nosotros estamos involucrados en algunas aplicaciones de esta tecnología, pero hay muchas otras. Actualmente también colaboramos con un grupo de científicos que trabaja en Lhasa, en el Tíbet, y que está estudiando la salud de las plantas cuando están sometidas a la gran altitud de esta ciudad. Están combinando la computación de frontera y el aprendizaje profundo para identificar cuándo la salud de las plantas se degrada, y están obteniendo muy buenos resultados», señala Naeem.

«En lo que se refiere a la detección de vida fuera de nuestro planeta, sí, definitivamente la computación de frontera puede marcar la diferencia»

«Y en lo que se refiere a la detección de vida fuera de nuestro planeta, que es una iniciativa que estará presente en las próximas misiones a la Luna y Marte, sí, definitivamente la computación de frontera puede marcar la diferencia. Gracias a ella será posible acceder con mucha rapidez a la información, que es lo que ya están consiguiendo los astronautas de la Estación Espacial Internacional que se están encargando de la secuenciación del ADN. No sería viable tener que esperar semanas, o incluso meses, hasta que estén disponibles los resultados de las muestras».

«Creo que en el futuro veremos cómo la computación de frontera se expande con rapidez, especialmente en los proyectos que tendrán lugar en el espacio. En ellos será posible trabajar de una forma completamente autónoma y sin necesidad de enviar de forma frecuente abundante información a la Tierra. Lo podrán hacer todo por sí mismos. Y probablemente las empresas que fabricarán los dispositivos y desarrollarán el software de computación de frontera abrirán sus API. Los proveedores de software, como nosotros, podemos construir nuestros modelos y transferirlos sin dificultad a los dispositivos en los que van a ser ejecutados», concluye este experto.

Todos los proyectos de cierta envergadura se enfrentan a desafíos, y el que ha liderado Naeem para NASA no ha sido una excepción a esta regla tan firmemente asentada. Este técnico nos explica cuáles han sido los factores que se lo han puesto más difícil a pesar de que, afortunadamente, el proyecto finalmente ha llegado a buen puerto:

«El principal reto al que nos hemos enfrentado son los datos. Están en el corazón mismo del aprendizaje automático. No nos vale cualquier dato; necesitamos buenos datos. Los científicos invierten muchísimo tiempo en limpiar la información con la que trabajan debido principalmente a que en los datos se cuela mucho ruido; mucha información de la que no es posible extraer conocimiento. Si, además, el volumen de datos es muy grande, el tiempo que es necesario invertir en la limpieza puede ser enorme».

«Otro desafío que también es muy importante es la necesidad de compartir los datos. Y no es nada fácil resolverlo porque no todo el mundo está dispuesto a compartir la información que genera o maneja debido a la existencia de una multitud de restricciones de todo tipo. En resumen yo diría que los principales retos a los que nos enfrentamos son garantizar la calidad de los datos con los que trabajamos, asegurar que tenemos la cantidad de información necesaria para extraer el aprendizaje correcto, y, por último, hacer posible el acceso a los datos», sintetiza Naeem.

La Estación Espacial Internacional contiene un hábitat específicamente diseñado para estudiar cómo se desarrollan las plantas en condiciones de microgravedad. Es asombroso lo mucho que podemos aprender gracias a la experimentación en el espacio.

La computación de frontera y el 5G dibujan un futuro esperanzador

Antes de concluir nuestra conversación no dejé escapar la oportunidad de preguntar a Naeem acerca del rol que tiene la tecnología 5G en el contexto de la computación de frontera. Es fácil intuir que estas dos innovaciones forman un tándem muy sólido capaz de marcar la diferencia en muchos ámbitos. Y sí, Naeem confirma estas sospechas de una forma contundente:

«La computación en la Nube comenzó hace algo más de una década, y creo firmemente que estamos iniciando el siguiente salto evolutivo de esta tecnología debido a que los sensores, los dispositivos que generan datos, están por todas partes. Casi todo es un sensor. Los smartphones, los termostatos, los coches autónomos… todos estos dispositivos ya están utilizando la computación de frontera. Pero, además, la industria también se está beneficiando de una forma muy profunda de esta tecnología».

«En unos tres años el despliegue de nuevos satélites conseguirá que la conectividad 5G llegue a prácticamente todos los rincones del planeta»

«Si una empresa tiene una gran fábrica puede mantener todos sus dispositivos interconectados a través de una red 5G de alta velocidad. Estos dispositivos son inteligentes, por lo que pueden comunicarse con los demás elementos de la red de una forma proactiva e inteligente para optimizar su funcionamiento e incrementar la productividad de la fábrica. Este es el futuro. La computación en la Nube tal y como la conocíamos va a quedar en el pasado debido a que esta tecnología está migrando hacia un modelo de computación de frontera en el que la conectividad 5G juega un rol protagonista», sentencia Naeem.

«De hecho, creo que el próximo gran paso consistirá en extender los satélites de comunicaciones 5G para garantizar la cobertura fuera de las áreas metropolitanas. Cuando te alejas de las grandes ciudades la conectividad 5G cae drásticamente. Este problema no tiene la misma envergadura en todos los países, pero lo habitual es que en las grandes ciudades tengamos una conectividad 5G muy rápida, y fuera de ellas nuestras conexiones sean mucho más lentas. Cabe la posibilidad de que en unos tres años gracias a los satélites la cobertura de esta red llegue a prácticamente todos los rincones del planeta. Será un paradigma nuevo en el que la computación de frontera tendrá un papel absolutamente protagonista», vaticina este afable ingeniero de IBM sin disimular lo más mínimo su entusiasmo por un futuro que nos invita a ser optimistas.

Imágenes | NASA


La noticia

Así es como la Estación Espacial Internacional ha resuelto uno de sus grandes retos: nos lo explica el ingeniero de IBM que ha liderado este proyecto de NASA

fue publicada originalmente en

Xataka

por
Juan Carlos López

.

HardZone – Estos serán los nombres de las GPU ARC que competirán con NVIDIA y AMD

Una de las informaciones que desconocemos acerca de las GPU Intel ARC son los nombres de las mismas, los cuales nos ha de servir para diferenciar no solo diferentes productos en una misma generación, sino también diferentes generaciones entre sí. Pues bien, parece que la multinacional de azul va a seguir una forma bien distinta a la de AMD y NVIDIA a la hora de nombrar sus tarjetas gráficas gaming.

Al darle un nombre a las diferentes tarjetas gráficas tanto NVIDIA como AMD utilizan unas normas que nos ayudan a identificar si un modelo es más potente que otro o cuál es la arquitectura que utilizan. Por ejemplo NVIDIA empieza el nombre de sus GPU gaming con el prefijo RTX seguido del número de generación, en el caso actual 30, y luego un número también de dos cifras que indica la gama y luego el segmento. De tal manera que cuando leemos RTX 3080 sabemos situarla dentro de la gama de productos de NVIDIA de forma ordinal.

Siendo Intel una empresa novel en el mundo de las tarjetas gráficas y habiendo revelado hace poco el nombre ARC, equivalente a las marcas Radeon y GeForce. Lo que nos faltaba era saber cómo van a nombrar sus tarjetas gráficas y aunque no tenemos toda la información al completo nos podemos hacer una idea aproximada de cuál podría ser el nombre de cada una de sus GPU para gaming.

Así serán los nombres de las GPU Intel ARC

La siguiente tabla pertenece a un documento interno que se ha filtrado por el insider momomo_us a través de su cuenta de Twitter. Y nos define la nomenclatura de las GPU Intel ARC, donde la primera generación bajo el nombre en clave Alchemist la veremos en 2022 y que será continuada por las arquitecturas bautizadas como Battlemage, Celestial y Druid.

Pues bien, a diferencia de NVIDIA y AMD donde las generaciones vienen definidas por un número, Intel ha decidido utilizar una letra, así pues bajo ARC a### se hará referencia a la primera generación de tarjetas gráficas, b### a la segunda generación, c### a la tercera, etcétera. La letra que sirve como prefijo es la misma que el nombre en clave de la arquitectura utilizada, por lo que los de Raja Koduri utilizarán en las diferentes generaciones de sus GPU ARC unos nombres distintos a los convencionales.

Pero, ¿qué significan los ###? Por el momento no lo sabemos y podemos especular sobre ello. Lo que sí que conocemos es comparativamente donde se colocaría la gama de Intel respecto a sus rivales directos. Dado que la configuración oficial más alta conocida es la que tiene una potencia de tú a tú con la NVIDIA RTX 3070 y la AMD RX 6700 XT, creemos que los nombres Intel ARC a700 y ARC a600 para las configuraciones con 512 y 384 Execution Units son las que tienen más números, ya que son fáciles de recordar y le dan una idea al potencial comprador sobre el rendimiento que se podrá esperar.

Desgraciadamente aún tendremos que esperar para confirmar el nombre final que dará Intel, pero creemos que cuando salga la segunda generación de las GPU gaming del equipo azul estaremos hablando del rendimiento comparado entre una Intel a700 y una b700. En todo caso, aún es pronto para asegurar la nomenclatura final de los Intel ARC al completo.

The post Estos serán los nombres de las GPU ARC que competirán con NVIDIA y AMD appeared first on HardZone.

Xataka – Llegan los primeros portátiles de Honor con Windows 11 e Intel Evo: así son los MagicBook 16 Pro y V14 con pantallas de hasta 144 Hz

Windows 11 puede ser un revulsivo en el mundo de los portátiles y los fabricantes lo saben. Aprovechando la llegada de la nueva versión del sistema operativo de Microsoft, marcas como Honor han decidido lanzar una nueva serie de portátiles, dando un paso adelante respecto a lo que teníamos hasta la fecha con la introducción de componentes de primer nivel como las nuevas tarjetas gráficas RTX de NVIDIA o la apuesta por paneles con una alta tasa de refresco.

Estos son los nuevos Honor MagicBook Pro 16 (2021) y MagicBook V14, un portátil enfocado para jugadores y un nuevo ultrabook delgado, que por primera vez en Honor añade la certificación Intel Evo.


Leer más

Xataka – OPPO Watch Free: el smartwatch más barato de OPPO tiene sensor SpO2 y promete 14 días de batería

OPPO acaba de presentar un nuevo smartwatch, el OPPO Watch Free. A diferencia de los modelos anteriores, que incorporaban un procesador Qualcomm y Wear OS como sistema operativo, el OPPO Watch Free es un dispositivo bastante más básico, aunque también más barato.

El OPPO Watch Free ha sido presentado en China y por el momento no hay noticias sobre su posible llegada a España. Actualizaremos este artículo en el caso de que lo haga. En China está disponible en dos versiones, una con NFC y otra sin dicho chip y su precio parte de los 72 euros al cambio.

Ficha técnica del OPPO Watch Free

OPPO WATCH FREE

DIMENSIONES Y PESO

46 x 29,7 x 10,6 mm
33 gramos con correa

PANTALLA

AMOLED 2,5D de 1,64 pulgadas

Resolución 280 x 456 píxeles

SENSORES

Sensor de aceleración de seis ejes
Sensor óptico de pulso
Pulsioxímetro
Sensor de luz ambiental

BATERÍA

230 mAh

RESISTENCIA

5 ATM

Compatibilidad

Android 6.0 o superior

iOS 10 o superior

conectividad

NFC (opcional)

Bluetooth 5.0

otros

100 modos deportivos

Monitorización de sueño

precio

Desde 72 euros al cambio

Alargado y lleno de funciones

El OPPO Watch Free no tiene nada que ver con los anteriores relojes de OPPO. Los modelos anteriores eran cuadrados y del estilo del Apple Watch en materia de diseño, pero el OPPO Watch Free es rectangular, mucho más alto que largo, similar al Huawei Watch Fit.

Tiene una pantalla AMOLED 2,5D (ligeramente curvada por los lados) de 1,64 pulgadas, por lo que no es precisamente pequeña (de hecho, su altura es de 46 milímetros), y tiene 280 x 456 píxeles de resolución. Eso se traduce en 326 píxeles por pulgada. Sobra decir que es táctil y a color.

Para los sensores, el dispositivo cuenta con sensor óptico de pulso y pulsioxímetro, por lo que es capaz de monitorizar la frecuencia cardíaca y el nivel de oxígeno en sangre. De hecho, son esos dos parámetros los que usa para analizar nuestro sueño. En cuanto al deporte, analiza hasta 100 modos deportivos y tiene detección automática de carrera, caminata, máquina de remo y elíptica.

Por lo demás, el OPPO Watch Free cuenta con 230 mAh de batería capaces, según OPPO, de ofrecer hasta 14 días de autonomía. El reloj es compatible con iOS y Android, tiene conectividad Bluetooth 5.0 y, de forma opcional, NFC para pagar con el móvil (en China, al menos).

Versiones y precio del OPPO Watch Free

Tal y como indicábamos anteriormente, el OPPO Watch Free ha sido lanzado en China y no se ha mencionado su posible llegada a España. En China estará disponible en color oro y negro y con o sin NFC. Los precios son los que siguen:

OPPO Watch Free: 549 yuanes, unos 72 euros al cambio.
OPPO Watch Free con NFC: 599 yuanes, unos 79 euros al cambio.

Más información | OPPO China


La noticia

OPPO Watch Free: el smartwatch más barato de OPPO tiene sensor SpO2 y promete 14 días de batería

fue publicada originalmente en

Xataka

por
Jose García

.

Xataka – El iPhone 14 apunta a un rediseño total: los rumores lo pintan sin notch, más grueso y sin protrusión en las cámaras

Los iPhone 13 acaban de llegar y aún queda aproxidamente un año para que lleguen sus sucesores, pero el interés y la expectación por los futuros iPhone 14 es ya notable gracias a la llegada de más y más rumores sobre esos futuros smartphones.

Ya teníamos datos que apuntaban a un iPhone 14 que dirá adiós al notch en favor del agujero en pantalla, pero además ahora analistas como Gurman o Prosser lo pintan como una especie de iPhone 4 adaptado a los nuevos tiempos. Apple parece que quiere esconder las cámaras para que no haya protrusión y eso hará que el iPhone 14 sea más grueso (y probablemente tenga más batería).

El iPhone 14 mini lo tiene complicado

Mark Gurman afirmaba este fin de semana que el iPhone 14 será «un rediseño completo» de este móvil: mientras que el iPhone 13 mantenía las líneas fundamentales del iPhone 12, el iPhone 14 será al parecer muy distinto de su predecesor.

Otros analistas coinciden con esa visión: Ming-Chi Kuo ya indicó que Apple se desharía por completo del notch en 2022 y comenzaría a apostar por el agujero en pantalla —veremos qué ocurre entonces con Face ID—.

John Prosser también afirmó haber visto fotos de ese futuro diseño y mostró su propia visión mediante renders hace unos días. En esas imágenes quedaba patente que el iPhone 14 era como un iPhone 4 rejuvenecido: más grande, pero con ese mismo chasis con esos laterales tan particulares.

Además se apuesta por otro elemento importante: el iPhone 14 «esconderá» las cámaras traseras y evitará la protrusión actual. Para ello el móvil será más grueso, algo que favorecerá la integración de una batería aún mayor.

Otros rumores apuntan a una familia que cambiará en sus integrantes: el iPhone 14 mini podría desaparecer, y Apple lanzaría cuatro modelos: un iPhone 14 base, un iPhone 14 Max y dos modelos Pro.

Vía | 9to5Mac


La noticia

El iPhone 14 apunta a un rediseño total: los rumores lo pintan sin notch, más grueso y sin protrusión en las cámaras

fue publicada originalmente en

Xataka

por
Javier Pastor

.

HardZone – El nuevo Intel i9 le pone las cosas difíciles a AMD: ¡récord en CPU-Z!

El mayor fabricante de procesadores para PC de la historia no quiere seguir perdiendo cuota de mercado ante una AMD que está dispuesta a darlo todo en una batalla sin cuartel. Sus CPU con arquitectura Alder Lake son su defensa para finales de este año y el año siguiente, pero ¿cómo se compara su i9-12900K en monohilo bajo CPU-Z frente al AMD Ryzen 9 5950X? Veamos.

Los diferentes programas que ejecutan nuestras CPU son piezas de código secuencial, no obstante hay partes de los mismos que se pueden ejecutar en paralelo y cuyo tiempo de ejecución se acelera cuando hay varios núcleos al unísono, pero en general todos los programas tienen una parte que solo se puede ejecutar en serie y por tanto dependen de un solo procesador. Es por ello que es importante aumentar la capacidad de cálculo en solitario con cada nueva arquitectura.

Aprovechándose de una Intel dormida en los laureles, como en la fábula de la liebre y la tortuga, la estrategia de AMD es la del aumento del IPC con sus núcleos Zen para aumentar el rendimiento de los mismos. ¿La reacción de Intel a ello? Utilizar el mismo planteamiento y aumentar también el IPC por núcleo, lo cual continuarán con los Core Gen 12 basados en la arquitectura Alder Lake, por ello, a pocas semanas de su aparición aparecen los primeros benchmarks monohilo del i9-12900K bajo CPU-Z.

El Intel 12900K machaca al AMD 5950X en monohilo

No, no es algo que nos hayamos sacado de la chistera, sino que es la información que un usuario del foro chino Bilibili y que tiene la suerte de tener una de las muestras de calidad que se lanzaron en el mercado negro hace unas semanas a alto precio. Las muestras de calidad son ya versiones terminadas y con todas las especificaciones completas, pero con la diferencia que no forman parte de la primera remesa comercial, sino de una que se envía previamente a los ensambladores y fabricantes para que puedan probar la compatibilidad de sus placas base.

Pues bien, dicho usuario ha comparado su AMD Ryzen 9 5950X con el Intel Core i9-12900K en el benchmark monohilo que incluye CPU-Z y los resultados son muy favorables al procesador de la marca de azul. En concreto su P-Core, antes conocido como Golden Cove, obtiene 825 puntos en la prueba monohilo y por tanto es 1,27 veces más rápida que la CPU de AMD, la cual bajo la misma prueba saca 648 puntos.

Lo que de confirmarse a través de otros benchmarks significaría que en comparación núcleo con núcleo el nuevo procesador de Intel es más potente. En todo caso hay que tener en cuenta que la siguiente generación de Intel combina núcleos de alto rendimiento con los de alta eficiencia, en la que estos últimos no tienen la potencia de procesamiento de los primeros.

No obstante, no podemos olvidar que pese a que la configuración de i9-12900K es de 16 núcleos, solo 8 de ellos son P-Cores y por tanto no podemos descartar que CPU como el 5950X de AMD siga teniendo la corona en las pruebas de rendimiento en la que trabajan varios núcleos al unísono.

The post El nuevo Intel i9 le pone las cosas difíciles a AMD: ¡récord en CPU-Z! appeared first on HardZone.