Buscar:

Xataka – Musk quiere que el Tesla Roadster vuele a un metro del suelo gracias a unos propulsores situados en lugar de los asientos traseros

Musk quiere que el Tesla Roadster vuele a un metro del suelo gracias a unos propulsores situados en lugar de los asientos traseros

La prometida segunda iteración del Tesla Roadster no llegará (al menos) hasta 2022, pero Elon Musk afirma que podría hacerlo con una opción insólita: la de volar a un metro del suelo.

En un reciente podcast con Joe Rogan Musk afirmó que quería que esa segunda generación del Roadster «planease» gracias a unos propulsores que ocuparían el espacio de los asientos traseros. La idea es llamativa, pero plantea muchos retos. Quizás demasiados.

A donde vamos no necesitamos carreteras

Musk se soltaba una vez más en esa larga entrevista en diveros temas, y al hablar del Roadster explicaba que «quizás pueda planear cerca de un metro sobre el suelo o algo así. Si te desplomas te cargarás la suspensión, pero no morirás».

Para lograrlo el hiperdeportivo contaría con propulsores en el espacio que tradicionalmente ocupan los asientos traseros.

Eso lo convertiría casi en un vehículo de despegue y aterrizaje vertical —como el famoso Harrier— y seguiría la misma línea que han perseguido algunos proyectos de taxis voladores que hemos visto en los últimos meses.

Los retos para lograr algo así son enormes, tanto en el ámbito de las baterías necesarias como en la regulación que tendría que seguir un «coche volador» como este.

Musk lleva haciendo comentarios que apuntan a esa posibilidad desde hace años, aunque desde luego parece algo realmente difícil que veamos en carreteras de forma masiva.

Vía | Popular Mechanics


La noticia

Musk quiere que el Tesla Roadster vuele a un metro del suelo gracias a unos propulsores situados en lugar de los asientos traseros

fue publicada originalmente en

Xataka

por
Javier Pastor

.

HardZone – AMD lanzará su nueva GPU modular este año, ¿adelanta a Intel y NVIDIA?

AMD Instinct

A través de una filtración se ha podido saber que AMD lanzará una GPU con configuración MCM durante este año 2021. Lo cual nos lleva a pensar que podríamos ver RDNA 3. Pero la información es sobre una versión MCM de CDNA, su otra arquitectura «gráfica». Os explicamos los detalles.

AMD actualmente está luchando no solo en el frente del PC de sobremesa, en menor medida en portátiles y también en el mercado de los servidores con sus CPU AMD EPYC, ¿su apuesta en cuanto a GPUs para servidores dedicados a la computación? CDNA, de la que sacaran una versión MCM este mismo año.

¿Qué es la arquitectura AMD CDNA?

CDNA Compute Unit

Tanto NVIDIA como AMD mantienen configuraciones distintas para el mercado gaming y el mercado de la computación de alto rendimiento en cuanto a sus GPUs. Pero mientras NVIDIA mantiene una arquitectura base común, en AMD han decidido separar por completo sus GPU para gaming, arquitecturas RDNA, de las que son para computación pura y dura, CDNA.

CDNA se basa en la ya retirada arquitectura para gaming AMD Vega, la cual es la quinta iteración de la arquitectura GCN, pero con una serie de cambios que convierten a esta GPU en un procesador preparado para la computación pura y dura. La cual se basa en utilizar la potencia de una GPU para resolver problemas computacionales en paralelo que no tienen nada que ver con el renderizado de gráficos.

Es por eso que la arquitectura CDNA tiene carencias de cara a los gráficos como es el hecho de carecer de una unidad que se comunique con la salida de vídeo. Pero, las cosas van mucho más allá, ya que carece por completo de unidades que son esenciales para renderizar gráficos como son las de función fija. Por lo que estamos ante una GPU que no puede renderizar gráficos.

CDNA con configuración MCM aparece como AMD Instinct MI200

CDNA MCM

Un MCM es cuando encima de un sustrato común tenemos dos chips trabajando en tándem. Lo primero que nos puede venir a la cabeza es el concepto chiplet que tan de moda se ha puesto últimamente. Es más, muchos pueden caer en el error de pensar que esto es la confirmación de que la GPU basada en chiplets de AMD es esta AMD Instinct MI200.

La patente de los chiplets de AMD que apareció hace unas semanas está pensada de cara al mercado gaming, por el hecho de que a la hora de renderizar gráficos se suele trabajar con una sola lista de pantalla y por tanto con una sola GPU. En el caso de la computación de alto rendimiento este tipo de optimizaciones no son necesarias desde el momento en que se lleva trabajando con varias listas de pantalla desde hace tiempo.

Data Center

Si no fijamos bien, el AMD MI Instinct MI200 es un acelerador que se utilizará en un superordenador en concreto, el HPE Cray EX, donde veremos la plataforma AMD Trento. La cual es una combinación entre Zen 3, AMD EPYC, y las AMD Instint MI200, por lo que no estamos ante una GPU pensada para el mercado doméstico. Es más, esta configuración MCM de CDNA 2, no es ni siquiera una tarjeta gráfica.

Los superordenadores suelen utilizar una placa en la que están todos los componentes en la misma. Por lo AMD Trento no es más que comunicar vía la interfaz xGMI, basada en Infinity Fabric, la CPU con las dos GPU CDNA2 utilizadas para la aceleración. Dicha conexión difiere por completo de la mencionada en la patente de los chiplets, por lo que no estamos ante una GPU MCM que vaya a utilizar la misma tecnología que se rumorea que veremos en RDNA 3.

The post AMD lanzará su nueva GPU modular este año, ¿adelanta a Intel y NVIDIA? appeared first on HardZone.

Xataka – Se filtran dos videos concepto de las supuestas gafas de realidad aumentada de Samsung

Se filtran dos videos concepto de las supuestas gafas de realidad aumentada de Samsung

La realidad aumentada no es algo nuevo para Samsung, en el pasado ya ha hecho sus intentos de entrar en este sector en colaboración con Google por ejemplo. Sin embargo, la apuesta clara y directa por ello aún no la hemos visto plasmada en un producto definitivo. Ese producto podrían ser las gafas de realidad aumentada que se han filtrado en dos videos concepto.


Leer más

Xataka – Las consecuencias de la última inversión de los polos magnéticos: desastres climáticos, tormentas eléctricas y extinciones en masa

Las consecuencias de la última inversión de los polos magnéticos: desastres climáticos, tormentas eléctricas y extinciones en masa

Los polos magnéticos de la Tierra están moviéndose continuamente, de ahí que actualmente no coincidan exactamente con el Polo Norte y el Polo Sur. Se mueven tanto que llega a un punto en el que se invierten cada cierto periodo de tiempo. Esto, por muy interesante que sea, tiene consecuencias catastróficas.


Leer más

HardZone – RTX 3080 vs RTX 2080 Ti, ¿merece la pena el cambio de arquitectura?

RTX 3000 vs RTX 2000

Las RTX 3000 salieron hace unos meses reemplazando a las RTX 2000, pero, ¿cómo se comparan ambas arquitecturas y cuáles son los cambios que hay de una generación a la otra, es un salto tan espectacular como vende NVIDIA o más bien son cambios pequeños? Os explicamos las diferencias entre las arquitecturas Turing y Ampere.

¿Merece la pena el cambio de una RTX 2000 por una equivalente en las RTX 3000? Desde nuestro punto de vista si quieres el máximo rendimiento si, pero, al mismo tiempo creemos que es importante desmitificar ambas generaciones de GPU, por lo que las vamos a comparar.

En que son iguales Turing y Ampere en cuanto a arquitectura

NVIDIA GPU

Hay una serie de elementos en los que no han habido cambios de una generación a otra, por lo que no han habido cambios internos y siguen funcionando igual en Ampere respecto a Turing.

La lista de elementos que no se han modificado la inauguran los procesadores de comandos en la parte central de ambas GPU. La cual es la parte encargada de leer las listas de comandos desde la RAM principal y organizar el resto de elementos de la GPU. Seguido de las unidades de función fija para el renderizado vía rasterización: unidades de rasterizado, teselación, texturas y los ROPS.

Tampoco ha cambiado la estructura de memoria interna, es decir, la jerarquía de cachés que sigue siendo igual en Ampere y no ha variado respecto a Turing, ya que sigue siendo la misma en ambas arquitecturas, siendo el único elemento de la jerarquía de memoria la interfaz de memoria GDDR6X que utilizan las GPU basadas en el chip GA102 de NVIDIA como por ejemplo la RTX 3080.

En que elementos se diferencian Turing y Ampere

RTX 3070 3080 Ti

Tenemos que irnos a dentro de las unidades SM para ver cambios en las RTX 3000 basada en Ampere respecto a las RTX 2000 basadas en Turing y son cambios que se han realizado en tres frentes distintos:

  • Las unidades de coma flotante en FP32
  • Los Tensor Cores.
  • Los RT Cores.

Fuera de estos elementos y fuera de la cantidad de unidades SM, la cual es más alta en las GeForce Ampere que en las GeForce Turing no hay ningún cambio, por lo que NVIDIA ha reciclado buena parte del hardware de la anterior generación para crear la nueva. Y antes que saquéis la conclusión de que esto es algo negativo, dejad que os diga que común en diseño de hardware.

Cambios en coma flotante en las SM de GeForce Ampere

VRAM

En todas las GeForce hasta Pascal, todas las unidades de coma flotante eran llamadas por parte de NVIDIA núcleos CUDA. Así sin más, sin aclarar lo que significaba eso más allá que hacían cálculos en coma flotante. Daban a entender que eran unidades de coma flotante de 32 bits de precisión.

Realmente los núcleos CUDA en realidad eran realidad unidades logicoaritméticas para el cálculo en coma flotante de 32 bits, pero también unidades del mismo tipo para enteros de 32 bits. ¿La particularidad? Funcionaban conmutadas, de tal manera que no podían funcionar ambos tipos al mismo tiempo.

Pascal Turing

Con Turing cambio la cosa y apareció lo que se llama ejecución concurrente, el motivo es que las listas de hilos de ejecución de la GPU combinaba hilos por enteros y coma flotante y no llegaba a la ocupación máxima de slots de la unidad SIMT con cada sub-ola, por lo que NVIDIA decidió en Turing aplicar la ejecución concurrente. En la que una ola de 32 hilos de ejecución se puede ejecutar de manera combinada entre las ALU de enteros y las de coma flotante al mismo tiempo, siempre y cuando estas se encuentren disponibles.

SM Ampere

Lo cual significa que la distribución de hilos de ejecución de una ola de 32, el cual es el tamaño estándar de las GPU de NVIDIA, se puede distribuir en hasta 16 hilos de enteros y 16 hilos de coma flotante. Pero, alguien en NVIDIA se le ocurrió proponer un cambio para Ampere, el cual consiste en que set de ALU de enteros este conmutado con un segundo set de ALU de coma flotante, lo cual no requiere cambiar el resto del SM.

Por lo que en determinados momentos y cuando se cumple la condición que entra una ola de 32 hilos en coma flotante, la velocidad de calculo, medida en TFLOPS, se duplica. Aunque solo cuando se cumplen en esas condiciones y si tuviésemos un dispositivo para ir midiendo la tasa de TFLOPS veríamos que no es la que dice NVIDIA, que da el pico máximo en sus especificaciones, sino que tendría oscilaciones.

Tensor Cores en GeForce Ampere

Ampere Tensor Core

Los Tensor Cores son arrays sistólicos que se estrenaron por primera vez en las GPU NVIDIA Volta, y se tratan de arrays sistólicos que son el tipo de unidad de ejecución utilizada para acelerar algoritmos basados en la inteligencia artificial. Dichas unidades al contrario que los RT Cores utilizan la unidad de control del SM y no se pueden utilizar al mismo tiempo que las unidades de coma flotante y de enteros, por lo que pese a que pueden funcionar de manera concurrente lo hacen quitando potencia el resto de unidades excepto los RT Cores.

Si sumamos la cantidad ALU que forman los RT Cores entre una generación y la otra veremos que hay la misma cantidad pero con una configuración distinta. En Turing tenemos 8 unidades, 2 por sub-core, de 64 ALU cada una en una configuración Tensor 4 x 4 x 4. Mientras que en Ampere los Tensor Cores tienen una configuración de 4 unidades, 1 por sub-core, con 128 ALU por cada uno de ellos.

RT Cores en GeForce Ampere

RT Core RTX 3000

Los RT Cores son la parte menos conocida de todas, ya que NVIDIA no ha dado ninguna información acerca de cuál es su funcionamiento interno. Sabemos lo que hace, cuál es su funcionamiento, pero desconocemos cuáles son los elementos en su interior y que cambios han habido de una generación a otra.

Lo primero que llama la atención es la mención por parte de NVIDIA que los RT Cores ahora pueden hacer el doble de intersecciones por triángulo, lo cual no significa el doble de intersecciones por segundo. El por qué de ello es que a la hora de recorrer el árbol BVH lo que hace es ir haciendo la intersección de las cajas que son los diferentes nodos del árbol y solo la intersección final del árbol es la que se hace con el triángulo, la cual es la más compleja de realizar. Las unidades de cálculo de la intersección de las cajas son mucho más simples, en Turing tenemos en teoría cuatro unidades que funcionan en paralelo para ir recorriendo los diferentes niveles de un árbol y una sola unidad que realiza la intersección del rayo con el triángulo.

El segundo cambio a nivel de hardware es la capacidad de interpolar el triángulo según su posición en el tiempo, lo cual es clave para la implementación del Ray Tracing con Motion Blur, técnica aún inédita en los juegos compatibles con Ray Tracing. En el caso de que haya otros cambios NVIDIA no ha informado públicamente de ello y por tanto no podemos sacar más conclusiones.

The post RTX 3080 vs RTX 2080 Ti, ¿merece la pena el cambio de arquitectura? appeared first on HardZone.

HardZone – ¿Qué significa que tu procesador AMD Ryzen tenga CCD/CCX?

AMD Ryzen CCD CCX

Seguramente muchas veces habrás escuchado o leído que los procesadores AMD Ryzen están formados por complejos centrales, a saber, CCD y CCX. Pero, ¿qué es un CCX y en qué se diferencia de un CCD en un procesador de AMD? ¿Para qué sirve cada uno de ellos? En este artículo te lo vamos a explicar en profundidad.

Son muchos los factores responsables del reciente éxito de los procesadores de AMD en el mercado de consumo, pero sin duda el diseño de chiplet o MCM (módulo de múltiples chips) está en el centro de todas las miradas al respecto, ya que este diseño permitió a AMD aumentar el número de núcleos a cifras nunca antes vistas en el mercado de consumo y preparó el camino para una especie de revolución.

Los complejos centrales: CCD y CCX en AMD Ryzen

El procesador AMD Ryzen 9 3950X cuenta con 16 núcleos, mientras que el procesador buque insignia, el Threadripper 3990X, cuenta con el increíble número de 64 núcleos físicos, lo mismo que los procesadores para servidor Epyc Rome de la firma. Esto significa que, a cualquier precio dado, AMD puede ofrecer más núcleos, más subprocesos y, por lo tanto, un mejor rendimiento al poder paralelizar muchas más tareas que los procesadores de Intel, incluso después de una serie de recortes de precios.

AMD CCD CCX Ryzen

Los CCD y CCX son unidades funcionales de estos complejos centrales que conforman el procesador. Estas dos unidades funcionales se encuentran en el corazón del enfoque modular de AMD para sus procesadores Ryzen, y para explicarlas debemos necesariamente empezar por los CCX.

La unidad básica de un procesador AMD Ryzen es un CCX o Core Complex, un modelo de CPU de cuatro núcleos con memoria caché L3 compartida entre éstos. En las piezas más nuevas de Ryzen 3000, la cantidad de L3 es mayor y se la conoce como «Gamecache».

Hay numerosos pros y contras de que el CCX sea la unidad funcional básica de Ryzen; por ejemplo, un aspecto negativo es que el coste básico de fabricación se ve incrementado ya que AMD necesita meter un mínimo de cuatro núcleos, pues son los que conforman un solo CCX. Sin embargo, esto se ve compensado por el hecho de que AMD puede crear CCX parcialmente funcionales con, digamos, tres de los cuatro núcleos activos, de manera que puedan crear diferentes modelos de procesador a partir de la misma base (sin embargo en términos de fabricación sigue teniendo 4 núcleos igualmente). Por ejemplo, el AMD Ryzen 5 3600 cuenta con dos CCX, cada uno de los cuales tiene un núcleo desactivado para un total de 6 núcleos funcionales.

AMD IF MCM

Sin embargo, mientras que los CCX son la unidad básica de los procesadores de AMD, a nivel arquitectónico tenemos los Core Chiplet Dies o CCD, su nivel más bajo de abstracción. Un CCD consta de dos CCX emparejados mediante la interconexión de Infinity Fabric; todas las piezas Ryzen, incluso las de solo cuatro núcleos, tienen al menos un CCD, lo que significa que como mínimo hay siempre presentes dos CCX (la diferencia, como hemos mencionado antes, es que pueden tener núcleos desactivados).

Los CCX desaparecen en la arquitectura Zen 3

Con los procesadores Ryzen 5000 y Milan basados en Zen 3, AMD pretende descartar el concepto de dos CCX en un CCD. En cambio, lo que tendremos será un CCD de 8 núcleos con acceso a los 32 MB completos de caché del die, lo que significa una menor latencia de núcleo a núcleo, más caché disponible para todos, y un mayor ancho de banda de caché. Estos factores aportan una importante ganancia de rendimiento en las cargas de trabajo, especialmente para juegos.

Teniendo esto en cuenta, es mucho más fácil ver el mayor de los beneficios: la facilidad para escalar. Intel utiliza lo que se llama un enfoque monolítico para el diseño de sus CPU; cada CPU que fabrica tiene un diseño dedicado, con una cierta cantidad de núcleos, y cuando se lleva a cabo la fabricación todos los núcleos de un diseño en particular deben ser totalmente funcionales (Intel simplemente descarta las partes que no lo son). Para los procesadores de dos núcleos esto tiene mucho sentido ya que cuesta menos fabricarlos, pero pierdes esa capacidad de escalar que tienen los procesadores de AMC utilizando este diseño de CCD.

Ryzen 5000

Sin embargo, dado que el rendimiento de fabricación del silicio nunca es del 100%, el coste aumenta exponencialmente con diseños más grandes. Cuando llegas a 10 núcleos o más, estás prácticamente garantizando que por cada CPU funcional Intel descarta al menos una pieza defectuosa (hay que tener en cuenta que con que uno solo de los núcleos no sea funcional, la pieza completa se descarta). Esto significa que la tasa de rendimiento de fabricación de Intel es muy pobre en comparación AMD, a quienes no les importa que un die salga con un núcleo «malo» porque simplemente lo desactivan y, por decirlo de alguna manera, venden ese procesador con un núcleo menos y listo.

The post ¿Qué significa que tu procesador AMD Ryzen tenga CCD/CCX? appeared first on HardZone.

HardZone – ¿Qué es y por qué puede interesarte la tecnología Intel Optane?

Intel Optane

Lanzada en el año 2017, la tecnología Intel Optane ha pasado por el mercado del hardware con más pena que gloria, pero en sus inicios presentaba una premisa más que prometedora para mejorar el rendimiento de los PCs domésticos. En este artículo te vamos a contar qué es esta tecnología, cómo funciona, y en qué supuestos te interesaría implementarla en tu PC.

A decir verdad, la premisa inicial de la tecnología Intel Optane ha quedado en nada. Inicialmente el gigante tecnológico hizo mucho hincapié en los beneficios que podía aportar, especialmente a los PCs de gama baja, pero la evolución del mercado ha hecho que su existencia no tenga demasiado sentido y para Intel, Optane ha pasado a ser como una marca secundaria de otros productos, también secundarios. Vamos a verlo en detalle.

¿Qué es y cómo funciona Intel Optane?

Físicamente, Intel Optane eran unos SSD en formato M.2 de muy baja capacidad que servían como memoria caché del sistema. Por norma general la memoria caché dedicada se suele utilizar en sistemas de alto rendimiento y alta demanda donde se producen miles de operaciones simultáneas cada segundo, y donde es más necesario tener un almacenamiento rápido que no sea volátil para poder utilizar los cálculos ya hechos por el procesador sin tener que recalcularlos.

The Intel Optane SSD 800P

Una de las cosas que hay que tener en consideración con respecto a la memoria caché es la frecuencia con la que el equipo necesita acceder a ella. En la realidad, un PC doméstico rara vez necesitará acceder a este tipo de memoria porque con la capacidad y la velocidad de la memoria RAM actual, tiene más que suficiente incluso cuando hablamos de tareas exigentes.

El hecho es que en términos de rendimiento, la idea de Optane es reducir notablemente los tiempos de acceso a la unidad de almacenamiento de sistema, es decir, al disco duro. La llegada de Optane se produjo en pleno auge de los SSD, que demostraron proporcionar un rendimiento varios enteros por encima de los discos duros mecánicos tradicionales, permitiendo almacenar los datos que más se usaban en la memoria Optane para tener un acceso más veloz a ellos.

¿Qué ha pasado con esta tecnología a día de hoy?

El resultado fue que con un disco duro mecánico se lograba aumentar notablemente el rendimiento, no al nivel de un SSD pero caro. Pero incluso con un SSD de interfaz SATA 3 ya se lo graba un rendimiento superior al de Intel Optane, y como los SSD en formato M.2 y con interfaz PCI-Express no tardaron mucho en llegar, la realidad es que Intel Optane estaba destinada al fracaso.

Intel Optane Memory H10 - Review 1

En pleno 2021 Intel todavía comercializa la memoria Intel Optane en dos variantes: H10 con almacenamiento de estado sólido y M10, pero tal y como os hemos contado incluso la propia Intel especifica en el caso de la memoria M10 que está diseñada para funcionar con discos duros mecánicos con interfaz SATA, precisamente porque es en este supuesto en el que sí que se nota una mejoría en el rendimiento.

Y aquí viene el quid de la cuestión, ¿quién utiliza un disco duro mecánico SATA como disco de sistema a día de hoy? Prácticamente nadie, y quienes lo hagan muy probablemente no dispongan de una placa base compatible con Intel Optane, porque efectivamente necesitas que la placa base sea compatible con la tecnología para que funcione.

En definitiva y contestando a la pregunta del titular, la tecnología Intel Optane fue un acercamiento bastante bueno y prometedor para crear una memoria caché dedicada en cualquier PC de manera que se acelere el tiempo de acceso a los datos cuando se usaba un disco duro lento, pero con el auge de los SSD y sus bajos tiempos de acceso esta tecnología dejó de tener sentido y casi podríamos decir que murió antes de salir al mercado de manera completa.

The post ¿Qué es y por qué puede interesarte la tecnología Intel Optane? appeared first on HardZone.

Xataka – No es que los listos se sienten en las primeras filas, es que sentarse delante les hace sacar buenas notas

No es que los listos se sienten en las primeras filas, es que sentarse delante les hace sacar buenas notas

Hay algo fascinante en el primer día de clase. Si llegas muy al principio, puedes ver cómo los alumnos eligen el asiento que ocuparán el resto de la clase (y, muy a menudo, el resto del curso). Os prometo que es curiosísimo. Cuando daba clase en la Universidad, me resultaba apasionante porque se aprende mucho de las personas viendo cómo toman decisiones aparentemente intrascendentes.

La palabra clave aquí es «aparentemente», claro. Porque, aunque nadie nos lo ha explicado, todos «sabemos» que los que se sientan en las primeras filas son los listo, los participativos, los que quieren sacar buenas notas. En cambio, los del fondo (o los que se sientan en los laterales) suelen ser los despistados, los que no participan o los que tienen cero motivación.

O no. Tendemos a asumir que la distribución de los alumnos en clase tiene mucho que ver con su personalidad, interés y potencial. Pero, ¿Y si fuera al revés? ¿Y si el lugar que se ocupa en clase tuviera un impacto radical en los resultados de los alumnos? Pues tengo una noticia: no son hipótesis, son las conclusiones de un buen número de estudios educativos.


Leer más

Xataka – El telegrama sigue vivo (que no coleando): quién lo usa y por qué en España

El telegrama sigue vivo (que no coleando): quién lo usa y por qué en España

En casa de herrero —ya se sabe— cuchara de palo.

Hacia 1862, después de haberse quemado las pestañas para escribir las cientos y cientos de páginas que componen Los Miserables, puede que con calambres aún en los dedos por sujetar la pluma y dolores en el espinazo tras encadenar noches en vela inclinado sobre su mesa, Víctor Hugo quiso interesarse por cómo marchaban las ventas de su nueva novela. Si el mito es cierto, el francés se plantó en una oficina de telégrafos y pidió enviar un mensaje a Hurst & Blackett, la editorial que estaba moviendo el libro en Inglaterra. En vez de redactar un largo párrafo del tono ampuloso tan al gusto de los lectores victorianos, Hugo, aficionado a los libros al peso y las oraciones subordinadas que dejan al lector al borde de la asfixia, telegrafió un solo signo: “?”. Leer más

HardZone – Sabemos lo que son chiplets, pero, ¿cómo se comunican entre sí?

GPU Chiplets

La futura llegada de los procesadores basados en chiplets trae consigo una pregunta: ¿qué interfaces y protocolos se utilizarán para comunicar los diferentes elementos de un chiplet entre sí. Pese a que habrá varios distintos y uno por cada marca, la Common Electrical I/O en dos de sus variantes es la interfaz de comunicación que se utilizará para la comunicación de los chiplets encima de un interposer.

No hay ninguna duda que los procesadores compuestos por chiplets van a ser la norma en los años siguientes, sabemos que va a ser la apuesta de futuros diseños tanto de Intel, AMD y NVIDIA, en los que cada una de ellas ha desarrollado una interfaz propietaria para la comunicación para el uso con sus arquitecturas.

La Common Electrical Interface en cambio, es la interfaz que se está estandarizando para la comunicación entre los elementos en un chiplet y que no es propietaria de esas tres compañías. Es más, muchos de los diseños se construyen unidades FPGA que hacen uso de dicha interfaz para comunicar las diferentes partes. Aunque antes de explicaros en que consiste, lo mejor es dar un periplo a través de una serie de conceptos básicos.

El concepto de NoC

NoC

NoC o red en un chip, es la idea de hacer una intercomunicación entre los varios componentes del PC como si de una red se tratará, para ello cada uno de los elementos tiene un enrutador que lo comunica con los otros elementos, por lo que solo es necesario que cada elemento de la red tenga integrado un router que sirve para comunicar y comunicarse con el resto

Cada elemento dentro de la red de componentes tiene una dirección propia y la forma de comunicarse entre los diferentes componentes es hacer que cada elemento llame a la dirección de red de otro elemento, en la cual no solo los elementos de procesamiento tienen una dirección dentro de la misma, no solo los procesadores e interfaces de E/S, sino también las memorias que la componen, ya sea memoria RAM, VRAM e incluso chips NVMe con tal de facilitar la comunicación.

La idea de un MCM como NoC

NoC SoC

Algo que diferencia un SoC de un MCM es que en el primer caso tenemos una unidad central en el chip que se encarga de comunicar entre sí todos los elementos dentro del chip y estos con la memoria es común en todos los SoC, independientemente de cuál sea la arquitectura de la que hablemos, todos los SoC contienen ese elemento en común.

Pero en un MCM compuesto por varios elementos por separado tiene que haber también una unidad que se encargue de comunicar los diferentes elementos entre sí. Si hablamos de un SoC entonces tiene que haber una misma unidad encargada de la comunicación, pero en el caso de que hablemos de un NoC en el que cada elemento se puede comunicar con otro de manera directa entonces la cosa ya cambia.

En un NoC la comunicación es realizada entre los diferentes elementos utilizando una interfaz de red, imaginad esto como red LAN, pero utilizando conexiones mucho más rápidas para la comunicación entre los diferentes elementos del chiplet, por la corta distancia y el material utilizado.

¿Qué es la Common Electrical I/O?

The Common Electrical I/O acortado como CEI, es una serie de acuerdos realizados por un consorcio llamado Optical Internet working Forum (OIF), el cual se encarga de definir los requisitos comunes para las interfaces eléctricas con una velocidad de comunicación con una velocidad de transferencia de 3.125, 6, 11, 25-28 y 56, 112 y pronto 224 Gbps.

La CEI ha sido la base para diferentes tipos de interfaces de E/S y de protocolos como el Hyper Transport del que deriva el Infinity Fabric de AMD, la interfaz SATA en varias de sus versiones. varias interfaces 803.3 e InfiniBand.

Su importancia es debido a que mientras Intel y AMD van a utilizar sus propias interfaces propietarias para comunicar los diferentes chiplets dentro del MCM, es sumamente importante la existencia de una interfaz estándar que se pueda utilizar no solo de cara a poder desplegar diseños basados en chiplets por parte de diferentes diseñadores de procesadores, sino también para el desarrollo de estos.

SerDes

El Common Electrical I/O se trata de una interfaz del tipo SERDES, que en su versión actual puede alcanzar la velocidad de 112 Gbps de transferencia. En la actualidad tiene diferentes variantes, pero las que nos interesan son las que están relacionadas con los chiplets, ya que van a ser ampliamente utilizadas para la comunicación entre los diferentes elementos.

Un SERDES es un tipo de interfaz que lo que hace es tomar una serie de datos en paralelo y transmitirlos en serie a otra igual que hará el proceso contrario, es decir, convierte una señal en serie en una en paralelo de nuevo. De ahí la acotación de SERDES.

En el caso de la actual interfaz de 112 Gbps, este utiliza una codificación del tipo PAM4, de tal manera que puede alcanzar los 112 Gbps de velocidad haciendo uso de una velocidad de reloj de 28 GHz para la comunicación. Tales velocidades de reloj serían sumamente contraproducentes si hablamos de grandes distancias, pero no es el caso de un MCM compuesto por chiplets con un interposer por debajo, en el que los diferentes elementos están a muy poca distancia para poderse comunicar.

Common Electrical Interface

Dentro de la interfaz  Common Electrical I/O tenemos dos tipos, por un lado tenemos la que se encarga de la comunicación en un chiplet tradicional, la cual en su versión a 112 Gbps recibe el nombre de CEI-112G-MCM y esta pensada para cableado con una distancia entre ambos extremos de como mucho 2.5 mm, la poca distancia del cable le permite consumir muy poca energía por transferencia.

Common Electrical MCM Optics

El segundo tipo esta pensado para la comunicación con un receptor óptico, y si, el próximo paso después de los interposers convencionales es utilizar interfaces ópticas para la comunicación, aunque por el momento estas no se utilizan ni se utilizarán a corto plazo en sistemas domésticos.

Common Electrical I/O para la comunicación externa de los chiplets

CEI Periferia

Un chiplet pese a estar formado por diferentes unidades en su interior, puede ser visto como una sola unidad de cara al exterior y la forma con la que se comunica es a través de una serie de interfaces de E/S que dan conectividad.

Claro esta que para la comunicación dentro del chiplet, este tipo de interfaces externas necesitan ser transformadas en una señal del tipo Common Electrical I/O, a través de una serie de SERDES que se encuentran cercanos a la periferia del chip. justo antes de las interfaces externas, ya sean hacía la memoria RAM, VRAM, interfaces PCI Express, etc

The post Sabemos lo que son chiplets, pero, ¿cómo se comunican entre sí? appeared first on HardZone.