Buscar:

Xataka – Cómo es un Chromebook para trabajar: cinco profesionales nos cuentan su experiencia en vídeo (reto Xataka)

Cómo es un Chromebook para trabajar: cinco profesionales nos cuentan su experiencia en vídeo (reto Xataka)

Habituales en centros de estudios, colegios e institutos, los ordenadores portátiles Chromebook también pueden ser una herramienta de trabajo para nuestro día a día. ¿Cómo se comporta el sistema operativo Chrome OS en un escenario de uso profesional? Ponemos a prueba el Acer Chromebook Spin 713 con cinco profesionales muy diferentes. Este es el resultado. Leer más

Xataka – Razer Kiyo Pro, análisis: así se ve una webcam de más 200 euros con el sensor de una cámara de vigilancia

Razer Kiyo Pro, análisis: así se ve una webcam de más 200 euros con el sensor de una cámara de vigilancia

Cuatro años hace desde que Razer lanzase su Razer Kiyo, esa peculiar webcam para streamers con aro de luz integrado. Ahora la compañía vuelve a la carga con un nuevo modelo, la Razer Kiyo Pro, una webcam que se deshace del anillo de luz y que, en su lugar, apuesta por un sensor Sony IMX327 con tecnología STARVIS. Por si acaso no ponemos el sensor en contexto, se trata de un sensor que fue lanzado en 2017 y que se usa en cámaras de videovigilancia debido a su alta sensibilidad a la luz.

Sus bazas, por lo tanto, son claras: grabación en FullHD a 60 FPS, buena sensibilidad a la luz (algo interesante para los streamers), enfoque manual o automático, un micrófono en condiciones, soporte para HDR y, en este caso, conectividad USB 3.0 mediante USB tipo C. En Xataka ya hemos tenido ocasión de probar la nueva webcam de Razer, cuyo precio supera los 200 euros y esta ha sido nuestra experiencia.


Leer más

HardZone – Líneas de 12V en la fuente de alimentación, ¿por qué son tan importantes?

Lineas 12V

Cuando hablamos de fuentes de alimentación se mencionan a menudo las líneas o carriles de 12V, especialmente cuando el tema está relacionado con tarjetas gráficas de alta gama y gran consumo. Estas líneas a veces se fusionan y a veces no pero, ¿qué significa exactamente todo esto? ¿Por qué son tan importante estos carriles de 12V? ¿Cómo funcionan en realidad? En este artículo vamos a abordar todos estos temas para explicártelo en profundidad.

En su día, los componentes con chips como el procesador o la tarjeta gráfica, o incluso los circuitos lógicos, utilizaban un voltaje de 5V para funcionar, mientras que otros componentes como los ventiladores, tarjetas de sonido u otros elementos requerían 12V. Con el paso de los años, la velocidad de reloj de estos chips ha ido aumentando y con ello también lo ha hecho el consumo, y sin embargo por ejemplo el voltaje de la CPU ha caído a 3,3V. Esto significa que la fuente de alimentación tenía que ser capaz de proporcionar diferentes voltajes para ser capaz de cumplir con las necesidades de los componentes de manera precisa, por lo que surgieron los tres voltajes distintos que utiliza una fuente de alimentación moderna: 3,3V, 5V y 12V.

Las líneas de 12V en las fuentes de alimentación

Para definir qué son estas líneas de voltaje en las fuentes de alimentación, la mejor manera de hacerlo es con un símil: imagina que, simplemente la fuente de alimentación es un conversor que primero transforma la corriente alterna que le llega del enchufe a corriente continua, ya que es la que necesita el PC para funcionar, y luego transforma el voltaje que le llega de la toma eléctrica a los voltajes que necesita el PC para funcionar: 12V, 5V y 3,3V. Antaño también eran necesarios voltajes negativos de -5V y -12V, pero en las fuentes de alimentación modernas ya han desaparecido porque hace tiempo que dejaron de ser necesarios.

Mientras que la estructura interna de un procesador se iba haciendo cada vez más pequeña y al mismo tiempo las velocidades de funcionamiento iban aumentando, el voltaje del núcleos se redujo y terminó por hacerse variable. Por otro lado, las placas base o tarjetas gráficas empleaban sus propios reguladores de voltaje integrados que extraían solo la energía que necesitaban de las líneas de 12V de la fuente de alimentación.

ASUS TUF Gaming Bronze 550W 650W

Esto significa que, con el paso de los años, las líneas o carriles de 12V se convirtieron en las líneas de suministro de energía más importantes para todos los voltajes que utiliza un PC y, de hecho, incluso las fuentes de alimentación que portan tecnología CC/CC crean sus propios 5V y 3,3V internamente a partir de la línea de 12V, motivo por el que estos carriles se suelen denominar como «menores» y los de 12V, «mayores».

¿Tienen ventaja las fuentes con multi carril?

En el ámbito de las líneas de 12V en las fuentes de alimentación podemos encontrar modelos que tienen un único carril capaz de proporcionar un enorme amperaje, o modelos con varios carriles que entregan menor amperaje. Las fuentes multi carril presentan una OCP (Over Current Protection, o protección contra sobre corriente) en exclusiva para cada uno de ellos, que sirve para regular la corriente máxima en cada carril; esta es una función muy útil ya que además de tener una mayor protección contra cortocircuitos y sobrecargas en los dispositivos conectados, permite una regulación más fina sobre el voltaje.

be quiet Dark Power Pro 12 embalaje

Por el contrario, las fuentes que tienen un diseño con una sola línea de 12V no tienen protección OCP por carril sino solo la genérica de la fuente en general, por lo que se incrementa el riesgo de que los cables y los componentes tengan problemas; a cambio, ofrece toda su potencia y una carga de trabajo más uniforme en todo el carril, lo que es especialmente importante para utilizar con tarjetas gráficas con una gran demanda energética o si se le hace overclock al procesador, por ejemplo.

Por lo tanto, tener una sola línea o varias de 12V tiene sus ventajas y sus inconvenientes; siempre escucharás que para sistemas de alto rendimiento es mejor fuentes con un solo y potente carril de 12V y realmente es así, pero si tu PC no consume tanto o si tu fuente está sobredimensionada, entonces te conviene utilizar una fuente con varios raíles para una mayor seguridad.

¿Cómo puedes comprobar el voltaje del raíl de 12V?

A pesar de que las fuentes de alimentación tienen múltiples filtros y reguladores para proporcionar el voltaje lo más estable posible, no siempre consiguen un ajuste demasiado fino ya que esto depende en gran medida de la carga que tenga el sistema. La mejor manera, o al menos la más fiable de comprobar qué valores está entregando, es accediendo a la BIOS del PC y en la sección «Hardware monitoring», «PC Health Status» o similar (ya que depende de la placa base) verás los voltajes que está recibiendo la placa base de la fuente de alimentación.

Voltajes BIOS

La lectura del voltaje de 12V debería encontrarse en todo momento entre 11,8V y 12,4V, y debería ser estable con poca o ninguna fluctuación. Una ligera fluctuación de 0,05V generalmente está bien siempre y cuando no suceda más de una vez cada 10-15 segundos; una fluctuación más grande, de 0,1V, puede ser segura siempre y cuando no ocurra más de una vez cada minuto, mientras que una fluctuación de más de 0,1V cada 10 segundos o menos podría ser un indicativo de que la fuente presenta problemas en las líneas de 12V (tened en cuenta que estando en la BIOS, el PC está completamente en reposo y no debería haber fluctuación alguna).

Si deseas tomar estas lecturas con el PC en funcionamiento y/o sometido a carga, tendrás que recurrir a software de monitorización como por ejemplo Aida64, un software que es capaz de entregar unas lecturas bastante fidedignas. Es común, en este caso, que las fluctuaciones sean bastante mayores y muy especialmente si estás sometiendo al PC a algún benchmark o probándolo en algún juego; en este caso, mientras el raíl se mantenga entre los valores seguros no deberías preocuparte.

The post Líneas de 12V en la fuente de alimentación, ¿por qué son tan importantes? appeared first on HardZone.

Xataka – Sony anuncia un nuevo sistema de realidad virtual para Playstation 5, pero habrá que esperar: su lanzamiento no está previsto para 2021

Sony anuncia un nuevo sistema de realidad virtual para Playstation 5, pero habrá que esperar: su lanzamiento no está previsto para 2021

A través de un post en el blog de Playstation, Hideaki Nishino, vicepresidente de Sony Interactive Entertainment, ha confirmado que la compañía está trabajando en un nuevo sistema de realidad virtual. Según las palabras de Nishino, el «salto en términos de rendimiento e interactividad» será «dramático». Supondrá, según el ejecutivo, un cambio notable con respecto al sistema precedente de VR, ya muy sofisticado.

Nishino cuenta que «hemos cogido lo que hemos aprendido con el lanzamiento de la realidad virtual en PS4 para desarrollar un sistema VR de nueva generación que mejora todo, de la resolución y el campo de visión hasta el seguimiento de los objetos y la plasmación en pantalla».  También ha hablado de que uno de los elementos más elogiados de PS5, el controlador DualSense, ha inspirado en concepto y tecnología a los controles de este nuevo sistema.

VR más sencilla que la que ya tenemos

Y otro detalle que sin duda alegrará a los jugadores que creen que el primer casco era excesivamente engorroso: «se conectará a PS5 con un solo cable para simplificar la instalación». De momento,  está garantizado que el dispositivo no llegará en 2021, ya que los desarrolladores están trabajando con un hardware provisional.

La realidad virtual ha sido un caballo de batalla de Sony durante los últimos cuatro años, tiempo en el que ha desarrollado un visor relativamente económico y accesible y de tecnología muy interesante, pero que carece de juegos comparativamente tan notorios como los del resto del catálogo de la consola. Aún así, está claro que Sony quiere seguir innovando en este campo, aunque PS5 se encontró su primer obstáculo con la imposibilidad de conectar directamente el visor a la nueva consola de Sony, para lo que se necesita un adaptador.


La noticia

Sony anuncia un nuevo sistema de realidad virtual para Playstation 5, pero habrá que esperar: su lanzamiento no está previsto para 2021

fue publicada originalmente en

Xataka

por
John Tones

.

Xataka – Me han clonado el perfil de Instagram para crear una cuenta +18 con mis fotos y pedir dinero como en Onlyfans

Me han clonado el perfil de Instagram para crear una cuenta +18 con mis fotos y pedir dinero como en Onlyfans

Eligen las fotos más llamativas de tu perfil de Instagram, crean una cuenta fake con el mismo nombre y enlazan a una web para mayores de 18 años donde poder acceder bajo suscripción a contenido pornográfico supuestamente subido por ti. Es la nueva oleada de suplantación de identidad, basada en el fenómeno OnlyFans de pagar por acceder a contenido erótico.

Todo lo que colgamos públicamente en redes sociales es susceptible de ser mostrado en otros sitios sin nuestro conocimiento y fuera de nuestro control. Es lo que ocurre en este caso, donde se están utilizando las fotos de usuarios de Instagram, mayoritariamente chicas, para engañar a otros y hacerles creer que se han abierto un perfil similar al que hay en páginas como OnlyFans.


Leer más

HardZone – ¿Por qué sigue habiendo periféricos USB 2.0 si la interfaz está desfasada?

USB 2.0 periféricos

En pleno año 2021 y a pesar de que la interfaz ha desaparecido ya de la mayor parte de placas base para PC, la mayoría de periféricos e incluyendo los diseñados para gaming siguen utilizando interfaz USB 2.0, a pesar de estar ya desfasada en favor de USB 3.0 (3.1, 3.2, etc.). ¿Por qué se siguen fabricando los periféricos con USB 2.0 entonces?

A pesar de que la interfaz USB 3.0 introdujo sustanciales mejoras de rendimiento y potencia con respecto a la USB 2.0 (4,8 Gbps vs 480 Mbps, literalmente 10 veces más rápido; en cuanto a potencia, USB 3.0 proporciona hasta 4,5W frente a 2,5W de la USB 2.0) y que la mayoría de placas base modernas ya prescinden de esta interfaz, la enorme mayoría de periféricos para PC sigue contando con conexión USB 2.0, algo que podría ser… ¿inexplicable? Nada más lejos de la realidad, y a continuación te vamos a contar por qué se siguen fabricando así.

Los periféricos USB 2.0 no están desfasados, son más baratos

Recordemos que a continuación vamos a hablar de periféricos y no de los dispositivos host de conexión (es decir, placas base). A medida que la tecnología avanza, las que se quedan atrás muy frecuentemente abaratan sus costes porque su dificultad de fabricación ha bajado, haciendo que los dispositivos que basan su fabricación en dicha tecnología puedan ser más baratos.

Puertos USB

Con la interfaz USB sucede exactamente lo mismo, aunado al hecho de que físicamente un conector USB 2.0 es más sencillo que uno 3.0 ya que solo cuenta con cuatro líneas (dos para datos y dos para alimentación) frente a las nueve que incorporan los conectores USB 3.0. Esto significa que el proceso de fabricación es más sencillo y que se necesitan menos materiales para ello… estamos hablando de céntimos de euro, sí, pero cuando fabricas miles de dispositivos la suma de todo ello conlleva un ahorro que sí que puede ser sustancial.

Efectivamente la interfaz USB 3.0 es diez veces más rápida y proporciona casi el doble de potencia de alimentación, pero la realidad es que la mayoría de periféricos no lo necesitan, ni tan siquiera los gaming con iluminación RGB. Obviamente sí que hay algunos periféricos que necesitan interfaz USB 3.0 porque tienen un consumo más elevado, y ya lo comprobamos nosotros mismos cuando analizamos el consumo de un teclado gaming RGB que, efectivamente, llegaba a consumir los 4,5 vatios que es capaz de dar la interfaz USB 3.0.

Corsair K68 teclado gaming

Lo mismo sucede con teclados (y específicamente teclados) que tienen USB Passthrough, ya que este conector es un mero puente y si se quiere que sea compatible con USB 3.0, obviamente el conector del teclado debe ser también 3.0 y deberemos conectarlo a un puerto 3.0 de la placa base.

Pero esto son excepciones que confirman la regla. Evidentemente no es mucho más caro fabricar un periférico con conector USB 3.0 pero si puedes ahorrar algo en el coste de fabricación y lo multiplicas por los miles de unidades que fabricas, ¿por qué no hacerlo? Incluso el ratón gaming más puntero del mercado consume menos de 2,5 vatios, y la tasa de transferencia de datos que tienen estos productos no es que sea muy elevada, así que con una interfaz USB 2.0 es más que suficiente para la mayoría de periféricos.

Ya no hay dispositivos de almacenamiento USB 2.0

Hasta ahora hemos hablado de periféricos, que es donde se sigue utilizando la interfaz USB 2.0 en muchos casos, pero de donde ha desaparecido completamente es en el ámbito del almacenamiento. Desde hace ya bastantes años no se venden pen drives ni discos duros / SSD externos con esta interfaz, y de hecho se tiende a utilizar las nuevas versiones del estándar (USB 3.1 y 3.2) dado que ofrecen una velocidad superior.

Recordemos que el estándar USB 3.0 ofrece 4,8 Gbps que equivale a 600 MB/s, mientras que USB 3.1 ofrece hasta 10 Gbps (1.250 MB/s) y USB 3.2 ofrece el doble, hasta 20 Gbps (2.500 MB/s), así que obviamente los dispositivos de almacenamiento que sí que necesitan tamañas velocidades de transferencia aprovechan realmente la interfaz, pero los periféricos no lo necesitan así que se atañen a la anterior versión ya que, simplemente, es más barata de fabricar.

The post ¿Por qué sigue habiendo periféricos USB 2.0 si la interfaz está desfasada? appeared first on HardZone.

Xataka – «Con MareNostrum 5 podríamos quedar entre los tres supercomputadores más rápidos del mundo, pero no es nuestro objetivo», Mateo Valero, director del BSC

«Con MareNostrum 5 podríamos quedar entre los tres supercomputadores más rápidos del mundo, pero no es nuestro objetivo», Mateo Valero, director del BSC

Uno de los supercomputadores más avanzados de Europa está en Barcelona. Una máquina así merece estar alojada en un lugar especial, y MareNostrum 4 lo está. Al igual que sus predecesores reside en la preciosa capilla de Torre Girona, un emplazamiento único con más de un siglo y medio de antigüedad que contrasta con la sofisticación de los equipos que acoge en su interior.

MareNostrum 5, el grupo de supercomputadores que recogerá el testigo de MareNostrum 4, está siendo construido y estará listo completamente no más allá de finales de 2022, aunque su considerable volumen ha provocado que sus dominios se extiendan más allá de las paredes de la capilla que ha acogido a sus predecesores. Eso sí, cuando esté preparado será una auténtica bestia de hasta 200 petaflops capaz de propulsar cientos de proyectos científicos y de ingeniería.

Mateo Valero es catedrático de Arquitectura de Computadores en la Universidad Politécnica de Cataluña y director del BSC (‘Barcelona Supercomputing Center’)

Para hablar de todo esto, y de muchas otras cosas interesantes, nos hemos puesto en contacto con Mateo Valero, catedrático de Arquitectura de Computadores en la Universidad Politécnica de Cataluña y director del BSC (Barcelona Supercomputing Center). Su currículo está repleto de galardones en el área de la arquitectura de computadores, como el premio Seymour Cray (2015) o el Charles Babbage (2017), entre otros, lo que avala su actividad investigadora.

También tiene los premios nacionales de investigación Julio Rey Pastor y Leonardo Torres Quevedo, así como nueve doctorados honoris causa, entre otras distinciones. Pero lo más llamativo es que basta hablar unos minutos con él para darse cuenta de que su gran responsabilidad al frente del BSC no ha mermado un ápice su vocación didáctica.

Un apunte más antes de meternos en harina: si os apetece leer el último libro en el que ha participado Mateo, titulado ‘Faster than the future. Facing the digital age’, podéis descargarlo gratuitamente desde este enlace.

El BSC es un instrumento al servicio de la ciencia y la ingeniería

¿Cómo nació el BSC? ¿Cuál es su historia y cómo ha alcanzado el estatus que tiene actualmente?

El BSC nació en 1984. Ese año convencí a los gobiernos de España y Cataluña de lo enormemente prometedor que era el paralelismo en computación utilizando muchos procesadores. Yo era catedrático (gané la cátedra en 1983), y mi grupo empezaba a trabajar en esta área, por lo que pensé que sería bueno crear un centro especializado en supercomputación.

Mateovaleroretrato

En 1985 el titular del Ministerio de Industria era Joan Majó, y recuerdo que me dio los primeros diez millones de pesetas para comprar una máquina que tenía 64 procesadores. Poco a poco fuimos consiguiendo un poco más de dinero para nuevas máquinas y nos esforzábamos para hacer mucha transferencia de tecnología con el propósito de crecer y poder contratar más personal.

Hasta que en 2004 los mismos patronos que habían colaborado con nosotros durante los últimos veinte años deciden promocionarnos a la primera división, consolidando así el Centro de Supercomputación Nacional. Esta es la pequeña historia del BSC. Afortunadamente el Gobierno el año pasado firmó para darnos estabilidad presupuestaria durante nueve años más.

¿Cuáles son las características más relevantes de los equipos que se utilizan actualmente en los centros de supercomputación? ¿Qué los hace tan capaces?

La supercomputación es la ciencia que se hace con los supercomputadores, que son los ordenadores más rápidos del mundo. Para construirlos hacemos que muchos procesadores que por sí mismos son muy potentes trabajen conjuntamente. El supercomputador más rápido del mundo tiene más de diez millones de procesadores, cada uno con su memoria, que suele ser entre 1 y 2 GB por procesador, dando forma a una memoria central muy grande y con una potencia de cálculo enorme.

«La red de interconexión de los procesadores tiene una latencia cien veces menor que el 5G y un ancho de banda cien veces mayor que el de esta tecnología»

Una característica fundamental de los supercomputadores es que sus procesadores se comunican a una velocidad muy alta a través de una red de interconexión que normalmente es de fibra óptica. Los diez millones de procesadores que tiene el supercomputador más rápido del mundo son muchos, pero en España, en nuestras casas, tenemos más de diez millones de procesadores. Aun así, no podemos hacer lo mismo.

La diferencia es la red de interconexión, que tiene dos características esenciales: una latencia cien veces menor que la de las comunicaciones 5G y un ancho de banda cien veces mayor que el de esta tecnología. Este hardware requiere tener una gran capacidad de almacenamiento en disco debido al enorme volumen de datos que nos entregan los programas, por lo que también es esencial maximizar la velocidad a la que puedes llevarlos desde la memoria central a los discos, y al revés.

MateovaleroMateo Valero, el director del Barcelona Supercomputing Center, es doctor ‘honoris causa’ por nueve universidades y miembro de nueve academias científicas.

¿Cuál es el rol del BSC? ¿Qué compromiso han adquirido con la sociedad las instituciones que se dedican a la supercomputación?

Nuestro centro tiene dos funciones. La primera, al tratarse de una gran instalación dotada de grandes máquinas, consiste en dar servicio público a cualquier investigador español o europeo. Y la segunda, dada nuestra entidad como centro de investigación, es producir ideas que nos permitan obtener dinero de empresas y proyectos europeos para avanzar.

MareNostrum 5, el próximo supercomputador del BSC, será híbrido y tendrá una potencia máxima de 200 petaflops. Es tan voluminoso que no cabe al completo dentro de la capilla de Torre Girona

Hemos pasado de las 60 personas que éramos en 2005 a las 725 que somos hoy, aunque solamente hay 14 funcionarios, entre los cuales estoy yo. Si hemos crecido es gracias a la labor de todas las personas que trabajan conmigo. Un dato importante es que nosotros utilizamos menos del 10% de los supercomputadores. El resto es utilizado por cualquier grupo de investigación español o europeo después de pasar evaluaciones muy exigentes.

Nosotros no evaluamos. Y, por supuesto, todos los proyectos tienen que superar también controles muy fuertes desde un punto de vista ético. Entre las 725 personas que forman parte del BSC hay más de 600 investigadores organizados en cuatro departamentos: ciencias de los computadores, ingeniería, cambio climático y ciencias de la vida. En definitiva, el BSC es un instrumento más al servicio de la ciencia y la ingeniería.

En ese caso veo que es importante que las personas que trabajan en el BSC tengan un perfil multidisciplinar…

Exactamente. Hay unas 25 carreras, y la mayoría de nuestros proyectos son multidisciplinares. Por ejemplo, en medicina personalizada trabajan juntos ingenieros, matemáticos, físicos, biólogos, químicos y médicos. Y en nuestro proyecto de búsqueda de petróleo en ambientes hostiles colaboran geólogos, ingenieros de telecomunicaciones, ingenieros en informática, matemáticos, físicos… La interdisciplinariedad y la colaboración son la base de la investigación.

RISC-V es la gran esperanza de Europa para independizarse del hardware estadounidense

¿Qué tipos de procesadores utilizáis en los supercomputadores del BSC? ¿Y qué sistema operativo usáis para cohesionar toda la infraestructura?

Normalmente los supercomputadores incorporan o un único tipo de procesadores, o dos tipos de CPU. La primera categoría son los procesadores de propósito general, como los de Intel o AMD con los que todos estamos familiarizados. Estos procesadores comen de todo: carne, pescado, verdura… Pero hay otro tipo de procesadores a los que como les des carne, la devoran.

«Desde que pusimos a punto MareNostrum 4 en vez de dedicar todo el dinero a un computador decidimos invertirlo en varias máquinas distintas»

El test Linpack, que es uno de los más importantes que se utilizan para evaluar la potencia de los superordenadores, es rico en carne, y aquí los procesadores gráficos de NVIDIA tienen un rendimiento muy superior al de los chips de propósito general porque devoran la carne. En nuestra metáfora la carne son las operaciones matriciales que tan bien se les dan a las GPU.

Nosotros tenemos un presupuesto económico, otro de espacio, y un tercero de energía. Si quieres pasar el test de la manera más rápida porque quieres estar en la cima de la clasificación tienes que comprar computadores que tengan esos aceleradores. El problema es que son buenos para comer carne, pero no para comer pescado ni verdura, por lo que desde que pusimos a punto MareNostrum 4 en vez de dedicar todo el dinero a un computador decidimos invertirlo en varias máquinas distintas.

BsccapillaLos supercomputadores MareNostrum 4 del BSC están emplazados en una ubicación con mucho encanto: la capilla de Torre Girona, alojada en un edificio histórico construido en 1860.

El propósito de esta estrategia es tener supercomputadores que sean capaces de optimizar la ejecución de un abanico amplio de aplicaciones. Y esto tiene un lado bueno y otro malo. El bueno es que tenemos un menor tiempo de cálculo y consumimos menos energía, y el malo es que nos dicen «no estáis muy bien cuando no estáis los primeros». Lo que pasa es que si sumas la velocidad de los cuatro estás mucho mejor que si solo apareces en la clasificación con uno.

MareNostrum 4 son cuatro supercomputadores con todo tipo de procesadores: Intel, AMD, ARM, PowerPC de IBM, NVIDIA… Uno es de propósito general y está formado por máquinas de Lenovo con procesadores Intel. Tenemos otro de IBM con procesadores gráficos de NVIDIA que está especializado en inteligencia artificial. También tenemos uno más pequeño que tiene una arquitectura parecida a la de Fugaku, que es el superordenador más rápido actualmente, con ARM. Y, por último, tenemos otro con procesadores AMD y aceleradores también de AMD.

«MareNostrum 4 son cuatro supercomputadores con todo tipo de procesadores: Intel, AMD, ARM, PowerPC de IBM, NVIDIA…»

Si con MareNostrum 5 nos proponemos batir el récord del TOP500 podríamos quedar en estos momentos entre los tres primeros del mundo, pero no es nuestro objetivo. Cuando optas por la diversidad tienes que distribuir el dinero, y a la hora de superar el test cada supercomputador va por libre.

Hasta el año 2004 cada fabricante de supercomputadores ponía su sistema operativo, por lo que las aplicaciones no eran compatibles. Era un caos. Nosotros nos arriesgamos y MareNostrum 1 fue el primer supercomputador commodity, y esto significa que el hardware no es especial como lo era en los anteriores, que eran dinosaurios. Podías ir a El Corte Inglés el viernes, comprar el material y montarte el mecano el fin de semana. El hardware era el mismo que utilizaban los ordenadores personales y no chips específicos como hasta entonces, que eran mucho más caros.

Y luego con el software tomamos la decisión de que fuese el primer supercomputador que iba a utilizar Linux. Ahora todos los supercomputadores usan este sistema operativo porque esto te garantiza la compatibilidad de la aplicación hacia abajo, pero lo que no es compatible en general es un hardware con otro. Lo que sucedió en aquel momento con Linux está pasando ahora con el hardware gracias a la arquitectura RISC-V. Nosotros estamos promocionando que Europa pueda desarrollar supercomputadores con hardware europeo.

¿Quieres en ese caso decir que la arquitectura RISC-V es la gran esperanza de los europeos para no tener esa dependencia que tenemos actualmente del hardware estadounidense?

Sí, así es. De hecho, el BSC es la institución que está moviendo todo esto en Europa, unas veces con problemas políticos, y otras con problemas económicos. En cualquier caso, la única opción que tiene Europa si quiere ser independiente en el ámbito de la supercomputación solamente pasa por desarrollar procesadores RISC-V. Y es una decisión política. No hay otra solución.

Los supercomputadores del futuro serán aún más heterogéneos

¿Cómo serán los supercomputadores en el futuro? ¿Mantendrán la heterogeneidad que, como nos estás explicando, tienen los actuales, o tendrán incluso un hardware más heterogéneo?

Vamos a hacer máquinas cada vez más heterogéneas y con una mayor variedad de procesadores, que estarán orientados a aplicaciones específicas. Por ejemplo, los procesadores neuromórficos serán el mejor hardware para simular el comportamiento del cerebro cuando, eso sí, sepamos con precisión cómo funciona una neurona, que es algo que aún no conocemos.

Todo el mundo está esperando también la computación cuántica, y creo que cuando llegue será un acelerador de algunos problemas determinados, como los de optimización. Nosotros trabajamos con un ordenador cuántico de dos cúbits para probar esta tecnología, pero se necesita mucho dinero, por lo que creo que en España no nos interesa aún meternos en este tema. Creo que lo que tenemos que hacer es desarrollar algoritmos cuánticos y patentarlos.

¿Qué tipo de proyectos están llevando a cabo los grupos de investigación que están utilizando los recursos de los supercomputadores del BSC?

Hasta ahora se han ejecutado más de 4000 proyectos, y todos ellos tienen un enorme valor añadido. Algunos de ellos no se podrían llevar a cabo sin esta capacidad de cálculo, y otros sí se podrían hacer. En cualquier caso algunas de nuestras principales áreas de investigación son la biomecánica, la predicción del clima, la bioinformática, la computación cognitiva, la genómica, la inteligencia artificial, la fusión nuclear o las simulaciones para proyectos de ingeniería, entre otras áreas.

¿Qué impacto tiene en el desarrollo científico europeo que los superordenadores más potentes sean japoneses, estadounidenses y chinos? ¿Tener estas máquinas les de una ventaja competitiva?

Los que realmente tienen la tecnología son los americanos, y lo que hacemos todos los demás es comprar computadores con ella. Por eso nosotros hemos puesto en marcha la iniciativa que debería permitir a Europa fabricar sus propios procesadores RISC-V. En lo que Europa es buena actualmente es en el desarrollo de software. De aplicaciones.

«Hay una máxima que me gusta mucho, y que dice: ‘El país que no computa, no compite’»

En cualquier caso, hay una máxima que me gusta mucho, y que dice: «El país que no computa, no compite». Y computar no significa solo tener los supercomputadores más rápidos del mundo; significa tener computadores de todo tipo que sean capaces de enfrentarse con garantías a problemas muy diversos.

El objetivo actual de los países europeos es dedicar más dinero a la compra de supercomputadores, pero también invertir más dinero en el desarrollo de nuestra propia tecnología. Cuantos más supercomputadores tengamos más gente podrá hacer investigación frontera, pero creo que se está mejorando el parque de supercomputadores europeos.

Los ordenadores cuánticos y neuromórficos encajan en los centros de supercomputación

Imagino un futuro en el que en los centros de supercomputación los ordenadores cuánticos y los procesadores neuromórficos convivirán con los superordenadores clásicos porque cada uno de ellos estará especializado en la resolución de un tipo de problemas determinado. ¿Estás de acuerdo con esta visión?

Absolutamente. Hoy para resolver todo lo que tiene que ver con la inteligencia artificial utilizamos los procesadores gráficos de NVIDIA, AMD, o los Ponte Vecchio de Intel. Y si quieres hacer una simulación del cerebro puedes utilizar el hardware que tienes, pero si empleas un procesador neuromórfico ese software se va a ejecutar  mucho más rápido. Los procesadores neuromórficos ya se están utilizando en algunas aplicaciones, como, por ejemplo, para reconocer imágenes.

Con los ordenadores cuánticos nos enfrentamos al reto de conseguir que los cúbits sean más estables, pero serán idóneos para resolver determinados tipos de problemas. De hecho, en Alemania y Francia ya se van a introducir los primeros ordenadores cuánticos en los centros de supercomputación como un procesador especializado más. Eso sí, una gran parte de la computación cuántica está afianzada sobre la computación clásica, especialmente todo lo que tiene que ver con el desarrollo de algoritmos, que pretende conectarla con la realidad.

Más información | Barcelona Supercomputing Center


La noticia

«Con MareNostrum 5 podríamos quedar entre los tres supercomputadores más rápidos del mundo, pero no es nuestro objetivo», Mateo Valero, director del BSC

fue publicada originalmente en

Xataka

por
Juan Carlos López

.

HardZone – Primeros benchmark de la NVIDIA RTX 3060 vs RTX 2060, ¿merece la pena?

Ya han pasado dos años desde el lanzamiento de la NVIDIA RTX 2060, basada en arquitectura Turing, y la reciente presentación y lanzamiento de su sucesora, la NVIDIA RTX 3060 hace que nos preguntemos si merece la pena hacer el salto o esperarnos al lanzamiento de una eventual RTX 4060 basada en la arquitectura Lovelace.

El próximo 25 de febrero es el lanzamiento oficial de la por ahora más modesta tarjeta gráfica de la gama GeForce Ampere de NVIDIA, también conocida como RTX 3000, en forma de la NVIDIA GeForce RTX 3060. Aunque la pregunta que a muchos se les pasa por la cabeza es: ¿merece la pena el salto desde una RTX 2060?

La RTX 3060 supera en rendimiento a la RTX 2070

A través de una comparativa realiza con el benchmark de Ashes of Singularity se ha comparado la a punto de ser lanzada al mercado NVIDIA GeForce RTX 3060, basada en la arquitectura GeForce Ampere, frente a su predecesora directa que fue la NVIDIA GeForce RTX 2060, basada en la arquitectura Turing, y también la RTX 2070 de la misma familia.

La RTX ha sido probada en Ashes of Singularity haciendo uso del benchmark Crazy a una resolución Full HD. En la primera prueba ha obtenido un total de 6600 puntos y una media de 67.8 fotogramas por segundo de media, mientras que en la segunda prueba ha obtenido 6800 puntos y una media de 69.8 fotogramas por segundo. La diferencia puede ser dada por un ligero aumento de velocidad de reloj en la segunda prueba.

Las pruebas de rendimiento no solamente colocan a la RTX 3060 por encima de la RTX 2060, en un 19%, sino también de la RTX 2070, siendo un 9% más rápida.

¿Merece la pena el cambio de generación?

RTX 3060 3070

Este tema ya es más subjetivo, realmente el cambio merece la pena si tenéis una GTX 1060 o una de las GTX 1660 donde el cambio es mucho más acusado. En especial por el hecho que la evolución de los juegos a medio y corto plazo van a pedir tecnologías que la RTX 3060 ya tiene integradas por hardware. Y no solo de cara al Ray Tracing sino también de cara a la implementación de la IA en los juegos.

Por otro lado, una ventaja del 19% renderizando a 1080P puede parecer poco salto si tenéis una RTX 2060 y aún menos el del 9% frente a la RTX 2070. Aunque no nos podemos olvidar que la gama RTX 2000 sigue siendo excelente para jugar a juegos y no hay tanta urgencia de cambio si tienes una de esas tarjetas gráficas.

Eso sí, si lo que buscas es el máximo rendimiento para jugar a Full HD a través de una tarjeta de gama media, entonces no hay duda que la RTX 3060 es por ahora la mejor opción y la que está mejor preparada para el futuro en estos momentos.

¿Puedo comprar la NVIDIA GeForce RTX 3060?

RTX 3060 modelos

En estos momentos por la burbuja de la minería la disponibilidad de una NVIDIA GeForce RTX 3060 es escasa por no decir nula. En todo caso hay que tener en cuenta que una burbuja tiene un tiempo de duración limitado y a medida que vaya pasando el tiempo más y más irán aumentando los requisitos de los juegos y más merecerá la pena dar el salto, y como hemos dicho a los usuarios aficionados a los videojuegos en PC que más les beneficia el salto son los que tienen una GTX 1660, una GTX 1060 o inferiores, las cuales acabarán sufriendo en poco tiempo el peso de sus limitaciones.

The post Primeros benchmark de la NVIDIA RTX 3060 vs RTX 2060, ¿merece la pena? appeared first on HardZone.

Xataka – Xataka Live 9×02: un ecosistema tecnológico para dominarlos a todos

Xataka Live 9x02: un ecosistema tecnológico para dominarlos a todos

Las marcas tecnológicas han ido construyendo ecosistemas alrededor de sus productos. Seguramente todos tengamos en la cabeza a Google, Apple o Microsoft, pero incluso dentro de los sistemas de cada una de ellas, surgen variaciones. En este episodio de Xataka Live, nuestro programa de tecnología y entretenimiento, profundizamos en el papel que están desempeñando estos ecosistemas para los fabricantes, que incentivan a los usuarios a comprar la mayor cantidad de productos de una misma marca.


Leer más

Xataka – Apple arrebata el primer puesto a Samsung en ventas trimestrales: 2020 fue definitivamente un mal año para este mercado, según Gartner

Apple arrebata el primer puesto a Samsung en ventas trimestrales: 2020 fue definitivamente un mal año para este mercado, según Gartner

En diciembre de 2020 veíamos cómo se rumoreaba que las ventas de móviles Samsung caerían por primera vez desde 2011 y las cosas no han ido mejor en el repaso del cuarto trimestre de 2020. Samsung cae al segundo puesto dejando a Apple el primer lugar en el ranking de ventas globales de móviles, un lugar que los de Cupertino no ocupaban desde 2016.

Los datos vienen de la firma Gartner, que como cada trimestre ofrece una estimación de las ventas en el mercado de móviles a nivel global, en cuyo ranking de los cinco primeros puestos solemos ver a Samsung, Apple, Huawei, Xiaomi y OPPO, al menos desde que en 2016 entrase de manera muy fuerte OPPO, a veces incluso robando la posición a Xiaomi, que lleva más de siete años entre los cinco primeros.


Leer más