HardZone – Conoce cómo de rápidos son los diferentes puertos USB

El puerto USB lleva entre nosotros desde finales de la década de los 90 y se ha convertido en el puerto estándar de los periféricos de PC, reemplazando a puertos históricos para periféricos en el PC. Con el paso del tiempo han ido apareciendo diferentes versiones del puerto USB con un ancho de banda cada vez mejor, lo que le ha permitido sobrevivir hasta el día de hoy.

El bus de serie universal es un protocolo para la comunicación de periféricos a un ordenador a través de un puerto o interfaz que sirve para comunicarlos. El puerto USB es lo que permite que nuestras cámaras digitales, impresoras, escáneres, teléfonos móviles, discos duros, etc. Su desarrollo empezó en 1994 por parte del USB Implementers Forum y técnicamente es una evolución del puerto SIO de los ordenadores de Atari. Como curiosidad, varios de los ingenieros que trabajaron en el USB habían trabajado en la creación del puerto SIO a finales de los 70 para los Atari de 8 bits.

Los orígenes y la primera generación del USB

Los primeros puertos USB empezaron a estar disponibles a finales de 1995, pero muy pocos periféricos los llegaron a utilizar. La versión 1.0 del estándar tenía un ancho de banda de 12 Megabits por segundo, lo cual era mucho más de lo que necesitaban ciertos periféricos comunes como el teclado y el ratón que funcionaban por aquel entonces en puertos del tipo PS/2 en el 99% de los ordenadores.

Esto llevó a la creación del estándar USB 1.1, el cual no era más rápido que el 1.0, pero disponían de un modo de bajo consumo que le permite operar a 1.5 Mbits por segundo. Incluso con el ancho de banda reducido era un salto importante respecto a los puertos para periféricos clásicos en el PC. Como el puerto paralelo, que transmitía solo a 800 Kbits por segundo y los puertos de serie que iban de los 115 a los 450 Kbits por segundo.

Pero lo que hizo que el USB se popularizara era la enorme cantidad de interfaces disponibles y las incompatibilidades que generaban en el controlador de E/S de los PCs. Por lo que el USB nació con el objetivo de solucionar ese problema. Con empresas como Intel, Microsoft, Compaq, LSI, Apple y Hewlett-Packard entre sus principales proponentes pronto se incluyó en la mayoría de ordenadores como puerto estándar.

El USB Hi-Speed, el mayor salto en ancho de banda

La versión 2.0 del estándar supuso un salto cualitativo respecto a la versión 1.0 del estándar. Manteniendo la compatibilidad hacia atrás con el USB 1.1. La segunda versión del estándar subía el ancho de banda de los 12 megabits por segundo a los 480 Megabits por segundo. Siendo el salto más espectacular jamás dado en la historia del estándar USB, ya que estamos hablando de un salto de 40 veces en lo que al ancho de banda se refiere.

El aumento en el ancho de banda sirvió para dar la bienvenida a dos nuevos tipos de periféricos que por limitaciones de velocidad del USB 1.1 sufrían un cuello de botella que afectaba a su rendimiento. El primero de ellos fueron los discos duros externos y el segundo las cámaras de vídeo. No en vano hasta ese momento era habitual utilizar para este tipo de periféricos interfaces Gigabit Ethernet o IEEE-1394, conocido coloquialmente como puerto FireWire.

La velocidad del USB 2.0 permite desplazar el puerto FireWire en los PCs, el cual no era utilizado excepto en los Macintosh de Apple donde venía de serie. En el PC en cambio no era habitual ver este puerto y poco a poco tanto los discos duros como las cámaras empezaron a adoptar el puerto USB 2.0 junto al FireWire, cuando hasta los Mac empezaron a utilizar la segunda versión del USB el IEEE-1394 desapareció.

Otra de las novedades que ofreció el estándar USB 2.0 fue la capacidad de alimentar a los periféricos desde el propio puerto USB. Gracias al hecho que el puerto pasó de entregar 100 mA de corriente de la primera generación del USB a los 500 mA del USB 2.0

USB Super Speed y la llegada del Tipo C

Una década después del lanzamiento del puerto USB se introdujo la versión 3.0 del estándar o más conocida como USB SuperSpeed. Con un aumento en su ancho de banda que fue de los 480 Mbits por segundo a los 4.8 Gbps y siendo totalmente compatible hacia atrás con la versión 2.0 del estándar. En cuanto a su capacidad para alimentar periféricos esta es mayor al haber pasado de los 500 mA a los 900 mA.

El nuevo estándar supuso cambios importantes en el pinaje de los diferentes tipos de puertos USB, lo que significó la creación de nuevas interfaces USB. Se puede decir que los puertos USB 3.0 están pensados para que puedas conectar un cable USB 2.0, pero no a la inversa, ya que las interfaces 2.0 y 1.0 no disponen de los pines necesarios para los periféricos compatibles con el USB 3.0. Con tal de facilitar las cosas para el usuario novel, los puertos USB 3.0 utilizan el color azul.

En el 2013 y cinco años más tarde de la introducción del USB 3.0 se lanzó su versión mejorada en forma del USB 3.1. Entre sus novedades está el hecho de duplicar el ancho de banda y pasar de los 900 mA a los 1.5 amperios a la hora de alimentar los periféricos. A partir del USB 3.1 se acabó creando una nueva variante del USB, el USB tipo C. El cual no amplió el ancho de banda, pero si su amperaje, pasando de los 1.5 amperios a los 3 amperios.

La tercera y última versión del USB SuperSpeed fue la 3.2, introducida en 2017 y duplicando de nuevo el ancho de banda a los 20 Gigabits por segundo y con la capacidad de alimentar los periféricos con 5 amperios. Gracias al aumento de la velocidad tanto en el USB 3.1 como en el USB 3.2 se hizo posible el uso del puerto USB para la transmisión de vídeo a través del protocolo DisplayPort, permitiendo unificar los cables de vídeo, alimentación y de datos en un solo cable USB del tipo C.

El futuro del USB pasa por la cuarta generación

La versión 4.0 del estándar abandonará por completo la clásica forma del tipo A para ser una mejora del tipo C y duplicar de nuevo el ancho de banda hasta los 40 Gbits por segundo, aparte de ser totalmente compatible no solo con los estándares USB 3.2 y 3.1 sino también con Thunderbolt 3. No en vano, el USB 4.0 es también el estándar Thunderbolt 4.

Otra de las mejoras está en el hecho que el nuevo estándar va a ser capaz de transmitir datos y vídeo al mismo tiempo sin sacrificar los canales de emisión y recepción del USB Tipo C basados en las versiones 3.1 y 3.2 del estándar. Lo que permitirá que el estándar USB 4.0 alcance la mayor velocidad de reloj posible combinando vídeo y datos.

Además su potencia de carga se mejorará respecto al USB 3.0, se espera que en unos años digamos adiós a los diferentes tipos de conectores de alimentación propietarios que utilizamos para cargar nuestros ordenadores portátiles.

Resumen de las generaciones y tipos del USB y su ancho de banda

Para terminar os dejamos una tabla resumen sobre los diferentes anchos de banda del puerto USB y que variantes del puerto soporta cada generación.

GeneraciónAncho de bandaVariantes

USB 1.1 12 Mbits/s (1.5 Mbits/s en bajo consumo)Tipo A

USB 2.0480 Mbits/s, USB 1.1Tipo A, Tipo B, Mini-USB, Micro-USB, USB OTG.

USB 3.05 Gbits/s, USB 2.0, USB 1.1Tipo A, Tipo B, Mini-USB, Micro-USB, USB OTG.

USB 3.110 Gbits/s, USB 3.1, USB 2.0, USB 1.1Tipo A, Tipo B, Mini-USB, Micro-USB, USB OTG. Tipo C

USB 3.120 Gbits/s, USB 3.1, USB 3.0 USB 2.0, USB 1.1Tipo A, Tipo B, Mini-USB, Micro-USB, USB OTG. Tipo C

USB 4.040 Gbits/s, USB 3.2. USB 3.1Tipo C

Y recordad, el hecho que un PC soporte una generación del USB no significa que lo hagan los periféricos, si estos son USB 1.1 si los conectas a un puerto USB 2.0 del PC no irán a la velocidad de un 2.0.

The post Conoce cómo de rápidos son los diferentes puertos USB appeared first on HardZone.

Xataka – Hideo Kojima, ‘Silent Hill’ y ‘Abandoned’: así se ha fraguado la teoría conspiratoria más enloquecida del verano

Hace algo más de una semana, nadie había oido hablar de ‘Abandoned’, un pequeño juego de terror exclusivo de Playstation 5 desarrollado por un  estudio holandés independiente, Blue Box Game Studios. Hoy, es la comidilla entre fans y medios gracias a un par de elementos inesperados: por una parte, el diseñador estrella Hideo Kojima, creador de ‘Metal Gear Solid’ y del reciente ‘Death Stranding‘; por otra, una de las sagas de terror más queridas de la historia de los videojuegos, y a la que Kojima ha estado vinculado en el pasado, ‘Silent Hill’.

Pese a que Blue Box Games ha desmentido el rumor casi desde que se comenzó a generar a finales de la semana pasada, lo ha hecho de forma vaga y no muy convincente, de modo que ha seguido tomando forma en una de las teorías conspiratorias digitales más simpáticas de los últimos tiempos. Que empezó cuando Blue Box tuiteó el pasado 15 de junio (ya borrado, pero puedes verlo en Archive.org)


“Guess the name: Abandoned = (First letter S, Last letter L). Reveal closing in… #PS5 #Exclusive.”.

Es decir:

«Adivina el nombre: Abandoned = ( Primera letra S, Última letra L). Revelación próximamente en… #PS5 #Exclusive»

Antes de eso, el juego no había llamado demasiado la atención: el 7 de abril de 2021 ‘Abandoned’ era anunciado en el blog de Playstation con una vaga descripción de lo que parecía ser un survival de horror en primera persona que aterrizaría en la última consola de Sony en el cuarto trimestre de 2021, y que aprovecharía características de la consola como el audio 3D o los nuevos mandos de PS5. El jugador encarnaría a Jason Longfield, personaje que aparece en un bosque sin recordar nada. El trailer revelado unos días después no daba muchas más pistas, más allá de una trama vinculada con un misterioso culto.

Y entonces empezaron los fenómenos extraños: Blue Box anunció el lanzamiento para el día 20 (que finalmente se ha retrasado al próximo 25) de una singular app que renderizaría el próximo trailer del juego en tiempo real en la consola de Sony. La descripción en Twitter de la app («¡Experimenta todos los avances y revelaciones del juego con imágenes renderizadas en tiempo real por el hardware de la PS5 con la aplicación Abandoned Realtime Trailers de PS5!«) no aclaraba demasiado las cosas, pero hubo algunos avispados jugadores a quienes esta maniobra, más publicitaria que genuinamente innovadora, les recordaba a un famoso diseñador japonés de videojuegos.

Experience all trailers and gameplay reveals with images rendered realtime by the PS5’s hardware with the Abandoned Realtime Trailers PS5 app! Gamehub live now on PS5! pic.twitter.com/CToaJMHHPQ

— BLUE BOX Game Studios (@BBGameStudios) May 31, 2021

Excusatio non petita…

Por supuesto, esto no sería suficiente para vincular al estudio a Kojima. Pero el caso es que desde el primer momento el nombre del diseñador se ha puesto sobre la mesa. Para empezar, hace tiempo que sabemos que Kojima está trabajando en un nuevo juego de terror. El ansia de la comunidad es de tal calibre que no es de extrañar que cada nuevo anuncio de un juego de género de origen brumoso se vincule a él.

En este caso, además Blue Box no ayuda demasiado con sus desmentidos de que Kojima y ellos no están vinculados. Han dicho abiertamente desde el primer día que publicaron el tuit que tan claramente apuntaba a ‘Silent Hill’ que no tenían «ninguna asociación con Hideo Kojima ni afirmamos tener ninguna asociación ni era nuestra intención reclamar tal declaración». No sería la primera vez, en cualquier caso, que Kojima contrata a actores para que se hagan pasar por miembros de un estudio fantasma para marear la perdiz antes de un anuncio. Lo hizo con Metal Gear Solid V, cuyo trailer de 2012 estaba presentado por un falso estudio llamado Moby Dick, dirigido por alguien llamado Joakim Mogren, anagrama de Kojima. Y también lo hizo con su demo ‘P.T.’, en teoría diseñada por un tal 7780s Studio.

El director de Blue Box, Hasan Kahraman, ha incrementado también el misterio con sucesivas declaraciones: en una entrevista con Bloomberg de nuevo negó estar vinculado a Kojima o ser un actor pero las cinco mil personas que desde Reddit lanzan continuamente nuevas pruebas de que ‘Abandoned’ es un nuevo ‘Silent Hill’ no están de acuerdo. «No importa cuánto trate de desmentirlo», afirma Kahraman, «la gente no se lo cree. Esperan encontrar algo que no está ahí, y me molesta». Hoy mismo ha vuelto a desmentirlo en Twitter.

Sin embargo, la gente de Reddit no para: que si Kojima y él comparten iniciales; que si Kahraman en turco se traduce como Hideo (según Google Translate, hay una explicación clara: ambos nombres quieren decir «héroe»); que si la página web de Blue Box casi no contiene información y su página de Linkedin no lista a los cincuenta empleados que dice tener (y los que lista parecen perfiles falsos); que el estudio tiene sede en los Países Bajos (Kojima Productions tiene una sede en Amsterdam), pero no poseen ninguna marca registrada a su nombre; que según el horario de ese país todos los tuits los hacen por la noche, lo que hace pensar que tuitean… desde Japón

Quick message from Hasan: pic.twitter.com/1oVeaMvu3w

— BLUE BOX Game Studios (@BBGameStudios) June 22, 2021

La historia del estudio, desde luego, hace pensar también en una especie de constructo fantasma: Blue Box intentó poner en pie en 2015 un juego de terror llamado ‘Rewind’ vía Kickstarter. Pedían 12.000 dólares y consiguieron 207: Kahraman canceló el crowdfunding afirmando que habían conseguido financiación privada, aunque de ‘Rewind’ nunca más se supo. Blue Box acabó lanzando un juego, al parecer horrible, titulado ‘The Haunting: Blood Water Curse‘, y que acabó siendo retirado de Steam. Según él, el Kickstarter fallido atrajo la atención de Sony, pero… ¿cómo puede un estudio pequeño e independiente plantear una app de renderizado en tiempo real del trailer y prometer gráficos 4K a 60 fps, una ambición elevada hasta para un estudio grande?

Desde luego, si Kahraman no es una identidad secreta de Kojima, lo disimula muy bien, ya que se empeña en rodear de misterio las operaciones del estudio, más allá de las coincidencias: se niega a dar detalles sobre el trato con Sony, y dice que el juego lo han financiado inversores privados, pero no puede decir quiénes son. Y hay una razón para ello, pero no puede contarla. Un par de los nombres que han trascendido de entre los que les están ayudando, Nuare Studio y Dekogon Studios, se niegan a dar declaraciones.

Avalancha de casualidades

Por supuesto, la parte más divertida de toda esta conspiración está en las múltiples casualidades, que van de lo ridículo a lo sorprendente, que son interpretadas como pistas de la identidad real de Kahraman. Estas son algunas de las más notorias:

En la cinemática del próximo ‘Death Stranding: Director’s Cut‘, vemos en la mochila del protagonista una bandera de los Países Bajos.
En el segundo 49 del trailer de ‘Abandoned’ podemos ver una pintada en un muro, ‘Kill the trespasser’. Un árbol tapa las letras T y P., ¿Referencia a ‘P.T.’, la demo de ‘Silent Hills’, entrega de la franquicia de Konami que al final quedó en nada y que los fans consideran (con razón) uno de los videojuegos más aterradores de la historia?
La cuenta de Twitter de Blue Box es @BBGameStudios. BB es el nombre que reciben los inquietantes bebés de ‘Death Stranding’.
En la cuenta de PSN de Kahraman, podemos ver que tiene 1239 trofeos. Pero durante mucho tiempo fueron 1238, lo que le vinculaba a un anuncio japonés de ‘Silent Hill 4’, que se titulaba con ese mismo número
El canal de Youtube de Black Box, prácticamente abandonado, está ilustrado con unas colinas (=Hills)
Blue Box se creó el 12 de agosto de 2015, justo un año después del lanzamiento de la demo de ‘P.T.’ (no olvidemos, un juego de Silent Hill diseñado por Kojima).

¿Casualidades o pruebas irrefutables? Lo que está claro es que aún queda mucho por descubrir: el 25 llega la app, y en el Summer Games Fest, Geoff Keighley comentó que Kojima pronto anunciaría un nuevo videojuego. ¿Despejaremos próximamente todas las incógnitas que rodean a este juego-meme?


La noticia

Hideo Kojima, ‘Silent Hill’ y ‘Abandoned’: así se ha fraguado la teoría conspiratoria más enloquecida del verano

fue publicada originalmente en

Xataka

por
John Tones

.

Xataka – Las 13 ofertas de última hora que no te puedes perder del Amazon Prime Day 2021

A este Prime Day no le quedan muchas horas de vida pero sí que sobreviven bastantes buenas ofertas. En nuestro recopilatorio encontrarás una extensa lista pero si buscas lo mejor de lo mejor que todavía puedes comprar, estás en el lugar adecuado. Recuerda que para aprovechar el Prime Day es necesario ser suscriptor de Prime, ya sea en modalidad de pago o en los 30 días gratis de prueba. Estas son las mejores ofertas de última hora en tecnología del Prime Day. Leer más

HardZone – Cómo ahorrar en la factura de la luz optimizando el consumo del PC

Si te preocupa la subida del precio de la electricidad, seguramente estés buscando métodos de ahorrar en la factura de la luz; según un estudio de la asociación Energy Saving Trust, en torno al 8% del consumo eléctrico de los hogares se debe al PC, con un 25% a causa de otros aparatos de electrónica de consumo (no electrodomésticos), lo cual supone un coste de unos 50 euros al año por cada PC, una cifra que se eleva mucho más en PC gaming. En este artículo te vamos a contar cómo optimizar el consumo de tu PC para intentar reducir al máximo este coste.

Obviamente, la manera más directa y radical de ahorrar en la factura de la luz con respecto al PC es no utilizarlo, pero también es obvio que para la mayoría de personas esto no es algo viable porque lo utilizan como herramienta de trabajo o quizá sea su aparato predilecto para las horas de ocio. En todo caso, puedes llegar a ahorrar bastante dinero si optimizas tanto su utilización como el propio hardware, así que vamos a ver qué es lo que puedes hacer al respecto.

Escoge componentes de hardware más eficientes

Una de las cosas más obvias que puedes hacer para optimizar el consumo del equipo es adquirir componentes de bajo consumo, y si bien esto no es posible para todo el mundo, si pretendes comprar un nuevo PC sí que es algo que podrías llegar a tener en cuenta. Obviamente esto dependerá de cada usuario y de para qué vaya a utilizar el PC, ya que como es lógico si pretendes comprar un PC para jugar no vas a escoger componentes de bajo consumo ya que esto también va siempre ligado a una penalización en el rendimiento.

No obstante, también hay algunos componentes que puedes cambiar y que te puede servir ya no solo para mejorar el rendimiento sino también para optimizar el consumo, como por ejemplo cambiar los discos duros mecánicos por SSD. Además de esto, también debes tener en cuenta que cuanto más rendimiento tengan los componentes más calor generarán y más consumo se generará a causa de sus sistemas de refrigeración, ya no solo del propio componente en sí mismo.

Hablando de la refrigeración, también puedes tener en cuenta que aunque un sistema de refrigeración líquida puede darte un mejor rendimiento térmico en el equipo, también tiene un consumo bastante superior a un disipador por aire, el cual tan solo consume lo que consuman sus ventiladores mientras que una refrigeración líquida añade la bomba a la ecuación, que tiene un consumo moderado y que a largo plazo se puede notar.

Igualmente, si solo utilizas el PC de manera esporádica y para tareas livianas o multimedia, podrías plantearte el utilizar un PC de bajo consumo como un NUC o similar o incluso un Compute stick, que te dará todo lo necesario para ello con un consumo realmente muy bajo. Obviamente, y ya lo hemos mencionado antes, ten en cuenta que estos equipos de bajo consumo no te van a dar un gran rendimiento, así que es cuestión de valorar qué es lo que necesitas y qué quieres conseguir con ello.

Eso sí, a la hora de montar un nuevo PC quizá quieras plantearte si de verdad necesitas el último y más potente procesador de AMD o Intel o si quizá con una CPU de menor consumo y gama media te puede valer para lo que necesitas; por ejemplo, para un PC gaming no necesitas un Core i9 con una gran cantidad de núcleos y un elevado TDP cuando con un Core i5 seguramente tengas más que de sobra; ahorrarás a la hora de comprar el procesador, y ahorrarás en consumo eléctrico.

Optimizar el consumo del PC cambiando la manera de usarlo

Te sorprenderías de la cantidad de energía que se consume en un PC cuando no lo estás utilizando. Si eres de los que deja siempre el PC encendido para luego no tener que esperar a que arranque, debes saber que estarás gastando bastante electricidad para nada, así que deberías plantearte cambiar tus hábitos de utilización del PC y apagarlo completamente cuando no lo vayas a utilizar durante cierto tiempo. Igualmente, incluso aunque simplemente te hayas levantado del PC para ir a comer durante una hora, plantéate apagarlo o al menos dejarlo en modo suspensión para ahorrar en electricidad.

Lo mismo sucede con el monitor, es un elemento que muchas veces no dejamos apagado cuando no usamos el PC y dejamos que simplemente entre en estado de reposo, pero incluso en este estado estará consumiendo energía, por lo que siempre es mejor y más recomendable dejarlo completamente apagado.

A este respecto, también hemos de hablar de la iluminación del PC; hoy en día casi todos los componentes, y más tratándose de dispositivos orientados al gaming, tienen iluminación RGB o de otro tipo, una iluminación que si bien su consumo es bastante bajo, al final todo suma. Está genial tener iluminación en el PC para crear un ecosistema bonito, pero cuando estás tú solo y no presumiendo delante de tus amigos, ¿necesitas todas esas luces? Seguramente no, así que plantéate el crear un perfil para apagar toda la iluminación del PC cuando lo estás utilizando, ya que como hemos dicho al final todo suma y esto se trata de optimizar el consumo eléctrico.

Técnicas para optimizar el consumo del PC

Además de todo lo que te hemos comentado, hay algunas técnicas que te pueden ayudar a ahorrar en la factura de la luz al optimizar el consumo eléctrico del PC, técnicas como el underclock / undervolt que consisten en hacer que el procesador o la tarjeta gráfica funcionen a una menor velocidad y voltaje, consumiendo menos energía y calentándose menos a costa de entregar un menor rendimiento.

Obviamente debes tener en cuenta que al hacer esto estarás reduciendo el rendimiento del PC, pero si eres de los que tiene un PC gaming muy potente y lo utiliza para trabajar la mayor parte del tiempo, quizá podría interesarte crear un perfil de underclock / undervolt para que consuma menos energía cuando realmente no necesitas que tenga un gran rendimiento.

The post Cómo ahorrar en la factura de la luz optimizando el consumo del PC appeared first on HardZone.

Xataka – Philips Series 7000, a examen: las preguntas que nos habéis enviado (y sus respuestas) sobre la afeitadora de Philips

La tecnología va más allá de tu móvil, tu portátil o tu reloj inteligente, también llega a nosotros en forma de otros productos domésticos o personales. Hace un mes te pedíamos que nos enviases tus preguntas sobre la Series 7000, y aquí tenéis el vídeo en el que respondemos a vuestras preguntas sobre la afeitadora de Philips.


Leer más

Xataka – Los planes de las marcas de coches para poner fin a los modelos de combustión y fabricar solo coches eléctricos

Los fabricantes de coches ya están pensando en un futuro 100% eléctrico. Si hace unos años hablábamos de los planes de la transición eléctrica, ahora ya tenemos múltiples marcas que han puesto fecha al fin de sus coches de combustión. Estos son los planes de las distintas marcas para producir únicamente coches eléctricos y dejar de lado los coches de gasolina o diésel.

Desde las marcas con pocos modelos que aseguran que no volverán a fabricar coches de combustión hasta grandes grupos de marcas que han puesto una fecha concreta. Los límites de emisiones de CO2 son cada vez más restrictivos y para cumplirlos la opción más directa es dejar de producir y vender coches de combustión. Esto es lo que han anunciado las distintas marcas.


Leer más

Xataka – La nueva unidad SSD externa de 16 TB de Sabrent asusta por su capacidad, pero también por su precio

Los SSD son fantásticos hasta que uno necesita mucha capacidad de almacenamiento: ahí suele ser mejor acudir a una combinación en la que combinemos una de esas unidades con un disco duro tradicional con capacidad masiva: ahí el coste por gigabyte es el factor clave.

En Sabrent creen que no tienes por qué renunciar a ninguna de las dos cosas, y han creado la unidad Rocket XTRM-Q de 16 TB, que tiene truco (porque son dos SSDs en RAID) pero que sobre todo tiene un precio que da aún más miedo que su capacidad.

Todo fantástico hasta que uno ve la etiqueta de precio

Sobre el papel la Rocket XRTM-Q es fantástica. En el pequeño dispositivo se combinan dos unidades SSD M.2 NVMe de 8 TB que, eso sí, necesitarán un adaptador de corriente propio: no es posible alimentarla  solo con la conexión USB-C (con interfaz Thunderbolt 3).

Esas dos unidades se pueden configurar en RAID 0 (sin redundancia, buscamos máxima velocidad de transferencias), RAID 1 (mirroring, mitad de capacidad pero nos protegemos frente a fallos en cualquiera de las dos unidades) o en modo JBOD/Secuencial (usado para integración de muchas unidades).

En el modo RAID 0 las transferencias alcanzan los 2.500 MB/s tanto en lectura como en escritura, mientras que en RAID 1 o JBOD las tasas de escritura se resienten (las de lectura no lo hacen) aunque aún así son notables y llegan a los 1.400 MB/s.

La unidad es desde luego llamativa por su tamaño, sus prestaciones y esa espectacular capacidad conjunta de 16 TB, pero también lo es por su precio. Sabrent indica que el precio oficial es de 3.300 dólares, aunque actualmente está en tiendas online algo más barata, a unos 2.900 dólares. Que es mucho, pero al menos no son los 40.000 dólares de aquel Exadrive de 100 TB.

Vía | TechSpot


La noticia

La nueva unidad SSD externa de 16 TB de Sabrent asusta por su capacidad, pero también por su precio

fue publicada originalmente en

Xataka

por
Javier Pastor

.

Xataka – Llevo años enseñando a niños a programar en verano: este es mi plan para los 9, 12 y 15 años

El fin del periodo lectivo oficial da paso a más tiempo libre para los menores de casa. Y desde hace unos años, enseñar programación a los niños/as en verano es uno de los propósitos principales para las vacaciones.

Esa enseñanza alrededor de la programación y la robótica admite muchos puntos de partida y enfoques. Desde el profesional hasta el de los padres que tienen numerosos recursos por la red. Sea cual sea el caso al que nos enfrentamos, contar con un plan de trabajo, recursos y conocer consejos de quien lleva ya años enseñando programación a niños y niñas puede sernos muy útil.


Leer más

HardZone – TSMC en problemas, los bancos rechazan financiar sus 3 nm

Como la fundición más grande del mundo y sobre todo después de tomar la delantera en la fabricación en masa de las tecnologías avanzadas de 7 y 5 nanómetros, TSMC se ha convertido probablemente en la parte más importante de la industria global de semiconductores y, como tal, ya están pensando en su próxima litografía a 3 nm. Sin embargo, los inversores extranjeros y los bancos están mirando de lado a TSMC en este momento porque creen que el nodo es demasiado caro y que TSMC perderá su ventaja competitiva.

En un momento como el que vivimos con la escasez de chips causando estragos en todos los ámbitos del mercado, muchas miradas están puestas ahora mismo en TSMC como el fabricante de semiconductores más grande del mundo. De éste depende en gran medida el suministro de chips con litografías avanzadas a nivel mundial y es lógico que a pesar de que ya están al 100% de su capacidad en los nodos actuales, la siguiente litografía a 3 nm se vea con buenos ojos como una posible solución a la escasez actual. Sin embargo, parece que ya han comenzado los problemas para la compañía.

Los 3 nm de TSMC en peligro si no encuentran inversores

El desempeño actual de TSMC es bastante bueno y muchos bancos de inversión son optimistas sobre el futuro de la empresa. Sin embargo, algunos bancos de inversión ya han expresado una opinión bastante opuesta creyendo que TSMC está sobrevalorada, calificando el precio de sus acciones como «neutral» y bajando su precio objetivo de las acciones en torno a un 20%, provocando una notable caída en bolsa de la compañía.

Un factor importante en este pequeño declive de TSMC es el proceso de 3 nm. Originalmente, TSMC esperaba comenzar a fabricar en masa las obleas de esta litografía a principios de 2022, pero recientemente han aparecido rumores que afirman que esta fecha se postergará e, incluso si no se pospone, se prevé que la fabricación y puesta en marcha de esta litografía requerirá una ingente cantidad de dinero que aumentará notablemente el coste, lo que llevará a las fundiciones de TSMC a una subida de precios que podría hacer que perdieran su ventaja clave en el mercado, que es el coste por oblea.

Actualmente, se espera que su margen de beneficio bruto esté por debajo del 50% para 2022-2023, por debajo del 52% que es lo que esperaban y así lo indicaron en su última reunión de resultados financieros.

Además del alto coste que conlleva la tecnología de 3 nm, la tecnología avanzada de TSMC también se verá afectada por otras tecnologías como el envasado 3D que la industria está adoptando a grandes pasos ahora mismo. Esta tecnología también puede reducir el consumo de energía para no confiar íntegramente en la tecnología de escala de procesos, por lo que los bancos e inversores tienen otro motivo más para no ver con tan buenos ojos los 3 nm de TSMC.

¿Están los 3 nanómetros en peligro?

Definitivamente no. Los 3 nm son el siguiente objetivo de TSMC y todos sus esfuerzos se están centrando en el desarrollo de esta nueva litografía. Que la compañía pierda la confianza de los inversores puede significar que tengan que retrasar todavía más la llegada de esta nueva tecnología, pero con todo lo que han invertido ya es bastante complicado que decidan parar completamente su desarrollo.

TSMC es lo suficientemente grande como para asumir el desarrollo y la construcción de las fábricas pertinentes por sí misma, sin necesidad de inversores, pero obviamente esto supondrá un buen varapalo para la situación financiera de la compañía y, además de ralentizarlo todo, podría significar que el precio de venta de los productos con esta litografía suba todavía más porque obviamente buscarán rentabilizar la inversión a la mayor brevedad posible. En todo caso, es complicado que una compañía como TSMC se quede sin inversores, y aunque algunos bancos decidan retirarles el apoyo habrá muchos otros que lo mantengan.

The post TSMC en problemas, los bancos rechazan financiar sus 3 nm appeared first on HardZone.

Xataka – Vivo V21 5G, primeras impresiones: un smartphone que quiere ser el rey de los selfies sin renunciar a lo demás

Vivo aterrizó en el mercado español el pasado mes de octubre y, desde entonces, poco a poco ha ido ampliando su gama de dispositivos. El último, presentado en España esta misma semana, ha sido el Vivo V21 5G.

Se corresponde con un smartphone de gama media, que cuenta con ciertas peculiaridades como, por ejemplo, la integración de dos LEDs en la parte frontal para poder alumbrar el rostro y así ofrecer mejores selfies en situaciones nocturnas.

Vivo V21 5G, ficha técnica

DIMENSIONES Y PESO

159,68 x 73,9 x 7,29 mm
175 gramos

PANTALLA

AMOLED de 6,44 pulgadas
Resolución FullHD+ (2.404 x 1.080 píxeles)
90 Hz

PROCESADOR

MediaTek Dimensity 800U

MEMORIA RAM

8 GB LPDDR4

ALMACENAMIENTO INTERNO

128 GB UFS 2.2
MicroSD

CÁMARA TRASERA

64 MP OIS f/1.9
Gran angular 8 MP f/2.2
Macro 2 MP f/2.4

CÁMARA DELANTERA

44 MP f/2.0 OIS

BATERÍA

4.000 mAh
Carga rápida 33W

SISTEMA OPERATIVO

Android 11 con Funtouch OS 11.1

CONECTIVIDAD

WiFi 2,4/5 GHz
Bluetooth 5.1
5G
4G
GPS
USB tipo C

OTROS

Lector de huellas en pantalla
Flash LED doble delantero

PRECIO

399,99 euros

Muy fino y ligero, pero con notch

Una de las primeras sensaciones que hemos sentido al tener el Vivo V21 5G en la mano es que es muy ligero y delgado. En efecto, sus 176 gramos de peso hacen que sea muy manejable y cómodo en la mano.

Otra de las curiosidades del dispositivo es que su ancho cambia en función del color, en negro tiene un ancho de 7,29 milímetros, mientras que en el acabado blanco degradado dispone de 7,39 mm de grosor. La diferencia se encuentra en que el color Sunset Dazzle, necesita un grosor mayor para poder obtener ese efecto degradado.

La parte trasera cuenta con un color degradado en ambas versiones. En la parte superior izquierda se encuentra el módulo de cámaras, que sobresalen del chasis y que están recubiertas por cristal. Es un diseño bastante continuista dentro de la marca.

En una época en la que ya no es fácil distinguir los diferentes smartphones, es una buena noticia que se diferencie la trasera sea diferente respecto a otros fabricantes.

El diseño destaca por su tono degradado y por su delgadez.

La cámara frontal de 44 megapíxeles se ubica en un notch en forma de gota de agua, un diseño estándar en el que Vivo ha optado por ser conservadora.

Quizás ese haya sido el apartado que menos nos ha gustado. Cabe destacar también que los LEDs son prácticamente inapreciables a primera vista en el marco superior, y eso que están colocados uno a cada lado de la cámara.

Otro de los puntos que nos ha gustado de este Vivo V21 5G que el botón de encendido / apagado y bloqueo cuenta con una textura diferente que lo hace muy fácil de reconocer, sin necesidad de tener que fijarte.

Pantalla AMOLED a 90 Hz

En esta ocasión, el Vivo V21 5G cuenta con un panel AMOLED de 6,44 pulgadas. A primera vista nos parece que ofrece una variedad cromática bastante propia de los paneles AMOLED, es decir, bastante fiel a la realidad pero con un toque de saturación.

Colores fieles y ligeramente saturados, pero se echa en falta brillo.

Sin embargo, uno de los puntos débiles del panel lo hemos visto en los exteriores, donde esperábamos algo más del brillo. Es cierto que hacía mucho sol, pero también habría que probarlo en otras circunstancias para conocer si el brillo mejora.

A pesar de que muchos fabricantes en esta gama de precio ya dan el salto a los 120 Hz, creemos que 90 Hz son suficientes para poder experimentar una muy buena fluidez, pero con la ventaja de poder ahorrar algo de batería.

Un hardware que sorprende en la experiencia

El corazón del Vivo V21 5G es el Mediatek Dimensity 800 U acompañado de 8 GB de RAM. Aunque, este dispositivo cuenta con una curiosidad, y es que es capaz de hacer uso de hasta 3 GB del almacenamiento interno para sumársela a sus 8 GB de RAM. De esta forma obtendría 11 GB de RAM y sería capaz de procesar mejor los procesos exigentes, o al menos eso asegura la marca.

Capaz de pasar de ocho a 11 GB de RAM usando tres de almacenamiento.

Este chip está construido con tecnología de 7 nanómetros y hace que el V21 sea compatible tanto con las redes 5G NSA como con las SA.

En cuanto hemos tenido el terminal en la mano, hemos ido directamente a descargar uno de los juegos más exigentes de la Google Play Store, el Asphalt 9.

La verdad es que tampoco hemos tenido mucho tiempo para poder jugar varias partidas, por lo que desconocemos si el dispositivo se calienta o no, pero que ha demostrado poder con uno de los juegos más exigentes.

Durante el tiempo que hemos estado jugando el terminal ha funcionado correctamente, aunque en algún momento puntual hemos sufrido caídas de frames.

Funtouch OS, limpio y rápido

La sensación que ha ofrecido este nuevo terminal de Vivo es que más allá de la pantalla a 90 Hz, se nota que es un dispositivo que funciona rápido y cuya capa de personalización está bien optimizada.

En este caso cuenta con ligeros añadidos que recuerdan a su firma hermana OnePlus, pero con una interfaz diferente y con muchas aplicaciones de Google preinstaladas.

Una capa de personalización basada en Android 11, pero que actualizará a Android 12 próximamente.

Cabe destacar que pese a que la capa de personalización de Vivo está basada en Android 11, desde la compañía han confirmado que está previsto que el software se actualice a Android 12, la última versión de Android disponible en la actualidad, y a la que poco a poco van actualizando cada vez más terminales.

Una configuración fotográfica sin grandes novedades, a excepción de la cámara selfie

El Vivo V21 5G cuenta con una triple cámara trasera que integra la siguiente configuración:

Sensor principal: 64 MP OIS f/1.9
Gran angular: 8 MP f/2.2
Macro: 2 MP f/2.4

Cabe destacar que este sensor de 64 megapíxeles cuenta con tecnología Quad Pixel, de tal modo que este de por sí se ve limitado a 16, a no ser que actives de forma manual el modo de 64 megapíxeles, donde las fotografías obtendrán un mayor detalle, que se apreciará al hacer zoom, pero lógicamente también un mayor peso.

Lo que sí hay que tener en cuenta es que este sensor ofrece la posibilidad de hacer un zoom de dos aumentos con una calidad aceptable, debido a que lo que hace es recortar la imagen del sensor principal. Una práctica habitual tanto en el modo normal de la cámara como a la hora de grabar vídeo.

Fotografías con una variedad cromática amplia y fiel a la realidad.

Las fotografías con el sensor principal ofrecen una variedad cromática realista, pero en esta toma de contacto hemos echado en falta algo de definición y nitidez.

Sensor principal

Zoom 2x

Aquí puedes observar otra fotografía tomada con el sensor principal:

El sensor frontal que monta es de 44 megapíxeles y, a pesar de que no hemos podido probar la cámara selfie en situaciones nocturnas, donde tendrían mucho sentido los focos LED que incluye, en situaciones diurnas las fotografías con la cámara frontal obtienen un buen resultado, aunque a pesar de tener desactivado el modo belleza, este dispositivo hace que la piel tenga un ligero efecto porcelana.

El efecto bokeh, o modo retrato, se puede regular por software, haciendo que este sea más o menos agresivo. El recorte no es bueno alrededor de la cabeza.

Efecto bokeh

Como decimos, las pruebas que hemos realizado son muy superficiales y hay que esperar a la review completa para ver a fondo cómo se comporta.

En este caso hemos grabado tanto en 1080p a 30 fps como a la máxima resolución que ofrece, que en este caso ha sido a 4K a 30 fps.

El audio en ambas tomas deja mucho que desear, a pesar de que la estabilización de la imagen es buena le falta nitidez y una variedad cromática algo más amplia.

Prueba día 4K:

Prueba día 1080p:

Vivo V21 5G, el móvil con el que la compañía busca hacerse hueco en la gama media

El Vivo V21 es un smartphone bastante completo. En esta ocasión te contamos nuestra experiencia de uso de apenas unos minutos, pero habrá que esperar al análisis para probar a fondo cada uno de sus apartados.

Es verdad que, sobre el papel, cuenta con una peor relación calidad-precio que otros dispositivos en su misma gama de precio. Sobre todo por su procesador, que si bien es cierto nos ha sorprendido de primeras, hay dispositivos que ofrecen chips más potentes a un mismo precio.

A pesar de ello, es un smartphone diferente, algo que es muy difícil de decir hoy en día donde casi todos los móviles tienen diferencias invisibles físicamente.

Está disponible en dos colores a un precio de 349,99 euros en España en diferentes tiendas a partir del 23 o 24 de junio, fecha aún por confirmar por la compañía.


La noticia

Vivo V21 5G, primeras impresiones: un smartphone que quiere ser el rey de los selfies sin renunciar a lo demás

fue publicada originalmente en

Xataka

por
Alejandro Fernández

.