Buscar:

Xataka – Ya sabemos por qué los tiburones blancos atacan sin provocación alguna: estos científicos creen que su fama de salvajes asesinos está «injustificada»

Los ataques no provocados de tiburón son raros, pero ocurren. Unas 60-70 veces al año, de hecho; y en torno a una decena de personas mueren al año por ellos. Sin embargo, deberían ser más: el tiburón blanco, que junto a los tiburones toro y los tiburones tigre causan la mayor parte de los ataques, es una máquina de matar hasta niveles insospechados. Si atacar al ser humano estuviera entre sus entretenimientos habituales y teniendo en cuenta lo expuestas que están muchas poblaciones humanas en todo el mundo esas cifras serían mucho (muchísimo) más altas.

Por eso los ataques no provocados de estos tiburones han sido un misterio zoológico de primer orden. ¿Qué pasa cuando uno de estros depredadores ataca a un bañista? ¿Por qué pasa? ¿Cómo podemos evitarlo (si es que podemos)? Y quizás no lo más importante, pero sí lo más interesante… ¿Qué nos dice todo esto de la naturaleza del rey de los mares?


Leer más

HardZone – HBM-PIM, memoria RAM con procesador integrado para IA

La HBM-PIM es una variante de la llamada High Bandwidth Memory que ha sido presentada por Samsung en 2021, donde sus siglas PIM son traducidas como “Procesamiento en Memoria”, lo que significa que estamos ante una variante con un procesador integrado en su interior. ¿Qué tal se presenta este tipo de HBM con capacidad de proceso, a quién va dirigido y cuál es su utilidad?

Lo primero que tenemos que entender, al tiempo de escribir este artículo es que la HBM-PIM no es un estándar aprobado por la JEDEC, el cual es el comité de 300 empresas encargado de crear los diferentes estándares de memoria, sean estas volátiles o persistentes. Por el momento se trata de una propuesta y diseño de Samsung, el cual se podría convertir en un nuevo tipo de memoria HBM y ser fabricado por terceros o en su defecto en un producto exclusivo de la fundición surcoreana.

Se convierta en un estándar o no, la HBM-PIM se manufacturará para el Alveo AI Accelerator de Xilinx, empresa que recordemos que ha sido adquirida en su totalidad por AMD. Por lo que no se trata de un concepto sobre un papel y tampoco un producto de laboratorio, sino que este tipo de memoria HBM se puede fabricar en grandes cantidades. Eso si, la Xilinx Álveo es una tarjeta aceleradora basada en FPGA que se utiliza en centros de datos. No se trata de un producto para el mercado de masas, y hemos de tener en cuenta de que no es más que de una variante de la memoria HBM, la cual por si sola es muy cara y escasa de fabricar, lo que reduce su uso en productos comerciales como por ejemplo tarjetas gráficas gaming o procesadores.

El concepto de la computación en memoria

Los programas que ejecutamos en nuestros PC funcionan a través de un matrimonio entre la RAM y la CPU, el cual sería perfecto si pudiéramos colocar ambos en un solo chip. Por desgracia esto no es posible y lleva a una serie de cuellos de botella inherentes en la arquitectura de todo ordenador, producto de la latencia existente entre la memoria del sistema y la unidad central de proceso:

Al existir una mayor distancia los datos se transmiten de forma más lenta.
El consumo energético aumenta cuanto más espacio existe entre la unidad de procesamiento que ejecuta el programa y la de almacenamiento donde se encuentra el mismo. Esto significa que la velocidad de transferencia o ancho de banda es más baja que la de proceso.
La forma habitual de solucionar este problema es añadir una jerarquía de cachés en la CPU, GPU o APU; la cual copia datos de la RAM en su interior para un acceso más rápido a la información necesaria.
Otras arquitecturas utilizan lo se conoce como Scratchpad RAM, la cual recibe el nombre de RAM embebida, no funciona de forma automática y su contenido ha de ser controlado por el programa.

Por lo que la RAM integrada en el procesador tiene un problema y es su capacidad, donde almacena muy pocos datos en su interior por limitaciones físicas de espacio dado que la gran mayoría de transistores están dedicados al procesamiento de instrucciones y no al almacenamiento.

El concepto de la computación en la memoria funciona a la inversa en comparación de la DRAM o la SRAM embebida dado que hablamos de RAM a la que le añadimos lógica donde las células de bit tienen mayor peso. No se trata por lo tanto de la integración de un procesador complejo, sino uno de dominio específico e incluso aceleradores de función fija o micro cableados por hardware.

¿Y qué ventajas tienen este tipo de memorias? Cuando ejecutamos un programa en cualquier procesador al menos por cada instrucción se hace un acceso a la RAM que tenga asignada dicha CPU o GPU. La idea de la computación en memoria no es otro que tener un programa almacenado en la memoria PIM y que la CPU o GPU solo tenga que utilizar una sola instrucción de llamada y esperar que la unidad de proceso en la computación en memoria ejecute el programa y devuelva la respuesta final a la CPU, la cual queda libre para otras tareas.

El procesador en la HBM-PIM de Samsung

En cada uno de los chips de la pila de un chip HBM-PIM se ha integrado una pequeña CPU, por lo que la capacidad de almacenamiento de se ve afectada al dirigir transistores que irían a las células de memoria para asignarlos a las puertas lógicas que componen el procesador integrado y como hemos adelantado antes, se trata uno muy sencillo.

No utiliza ninguna ISA conocida, sino una propia con muy pocas instrucciones en total: 9.
Dispone de dos sets de 16 unidades de coma flotante con precisión de 16 bits cada uno. El primer conjunto tiene la capacidad de realizar sumas y el segundo de realizar multiplicaciones.
Una unidad de ejecución del tipo SIMD, por lo que estamos ante un procesador vectorial.
Sus capacidades aritméticas son: A+B, A*B, (A+B)*C y (A*C)+B.
El consumo energético por operación es un 70 % menor que si la CPU hiciese la misma tarea, aquí hemos de tener en cuenta la relación entre el consumo energético y la distancia con los datos.
Samsung ha bautizado este pequeño procesador bajo el nombre de PCU.
Cada procesador puede trabajar solo con el chip de memoria del que forma parte, o con toda la pila entera. También las unidades en la HBM-PIM pueden trabajar en conjunto para acelerar los algoritmos o programas que lo requieran.

Como se puede deducir dada su simpleza, no sirve para ejecutar programas complejos. A cambio, Samsung lo promueve bajo la idea de que lo relacionemos como una unidad que acelera los algoritmos de Machine Learning, pero tampoco puede manejar sistemas complejos al ser un procesador vectorial y no tensorial. Por lo que sus capacidades en dicho campo son muy limitadas y se centran en cosas que no requieren mucha potencia como, por ejemplo, el reconocimiento de voz, traducción de textos y audios, etcétera. No olvidemos que su capacidad de cálculo es de 1.2 TFLOPS.

¿Vamos a ver la HBM-PIM en nuestros PC?

Las aplicaciones que Samsung pone da como ejemplo de las ventajas de la HBM-PIM ya se encuentran aceleradas a mayor velocidad por otros componentes en nuestros PC, es más, el alto coste de fabricación de este tipo de memoria ya descarta su uso dentro de un ordenador doméstico. En el caso de que seáis programadores especializados en la inteligencia artificial lo más seguro es que tengáis hardware en vuestros ordenadores con una capacidad de procesamiento mucho más alta que la HBM-PIM de Samsung.

La realidad es que nos parece una mala elección por parte del departamento de marketing del gigante surcoreano hablar de la IA. Y sí, tenemos en cuenta que es la tecnología de moda en boca de todos, pero pensamos que la HBM-PIM tiene otros mercados donde puede llegar a explotar sus capacidades.

¿Cuáles son estas aplicaciones? Por ejemplo sirve para acelerar la búsqueda de información en grandes bases de datos que centenares de empresas utilizan a diario y creednos que es un mercado inmenso que mueve millones de dólares al año. En todo caso no la vemos siendo utilizada a nivel doméstico y en computación científica, aunque existe la posibilidad que la aún no terminada HBM3 herede parte de las ideas de la HBM-PIM.

The post HBM-PIM, memoria RAM con procesador integrado para IA appeared first on HardZone.

Xataka – Samsung Galaxy Z Fold3, análisis tras un mes de uso: un móvil impresionante no apto para todos los públicos

La apuesta de Samsung por los móviles plegables se ha consolidado este año con una nueva generación de sus dos formatos: por un lado el Galaxy Z Flip3 con ese enfoque más ‘lifestyle’ y por otro el Galaxy Z Fold3, el plegable estrella que pone el foco en la productividad y la experiencia multimedia.

El año pasado pude analizar el Galaxy Z Flip y este año repetí con el Galaxy Z Flip3, un formato del que era escéptica, pero que tras probar consiguió conquistarme. Sin embargo, hasta ahora no había podido probar el Fold más allá de trastear con él brevemente en la feria IFA de 2019. Por fin he podido resarcirme y he pasado un mes con el Galaxy Z Fold3 como móvil principal. Así ha sido mi experiencia.


Leer más

Xataka – El mejor móvil Xiaomi en calidad precio (2021): guía de compra y comparativa

Con los móviles Xiaomi hay dos cosas claras: son la marca que se ha ganado la vitola de «compra maestra» por su alta relación prestaciones coste y su catálogo es un laberinto en el que perderse. No desesperes: en Xataka hemos probado la mayor parte de sus teléfonos y acudimos al rescate para ayudarte con esta comparativa a fondo para encontrar el smartphone Xiaomi con mejor relación calidad precio recomendado. Leer más

Xataka – ‘El caballero verde’: llega a Prime Video una de las sensaciones indie del año, una fantasía que reinventa los mitos artúricos

Asociamos a menudo el género de fantasía con las películas épicas de gran presupuesto a lo ‘El Señor de los Anillos’. ¿Cómo representar si no es con holgura de medios los escenarios de ensueño, las hordas de enemigos y las aventuras más grandes que la vida? ‘El caballero verde’ demuestra que es posible hacerlo con recursos limitados y que, sin embargo, en este caso conducen a una de las propuestas de fantasía más estimulantes del año, una catarata de imaginación perturbadora que llega en exclusiva a Amazon Prime Video.

‘El caballero verde’ parte, como toda buena película de aventuras y fantasía, de una fuente reconocida y respetable: ‘Sir Gawain And The Green Knight’, un poema anónimo del siglo XIV en inglés medieval que ha sido reformulado y reinterpretado incontables veces (el proipio Tolkien, por ejemplo, lo tradujo al inglés moderno). David Lowery, director de la también magnífica ‘A Ghost Story’ y de la versión moderna de ‘Peter y el dragón’, la convierte en una especie de viaje del héroe intimista, pero que no pierde la épica por el camino.

Conoceremoss a Gawain, un aún no consagrado caballero de la corte del Rey Arturo (de hecho, no está claro si el título se refiere al protagonista o a su fantástica némesis) que acepta un desafío que se le queda muy grande: el de una imponente criatura fantástica que llega a la Corte ofreciendo a cualquier caballero que quiera la posibilidad de atacarle como desee. Un año después, ese caballero tendrá que buscarle y permitir que él le devuelva el golpe.

Gawain (interpretado por un Dev Patel que es todo temores, dudas y ambición) le corta la cabeza. Un año después se verá obligado a buscar a su enemigo en una aventura que es una especie de viaje del héroe interior y que le permitirá recorrer escenarios fantásticos y retorcidos en busca de un destino que le es esquivo, hasta un shakesperiano y oscuro tramo final de la historia que no contaremos aquí pero que Lowery cuenta casi sin palabras, rubricando su talento narrativo.

Que le corten la cabeza

En su trayecto, Gawain se tropezará con guerras sin sentido, pilas de cadáveres, macabros atracadores, brujas y amantes interpretadas por una Alicia Vikander que reformula los papeles femeninos de estas historias clásicas, animales parlantes que conectan de forma insospechada ‘El caballero verde’ con el ‘Anticristo’ de Lars Von Trier… y en una de las secuencias más cautivadoras de la película, una manada de criaturas imponentes cuya existencia podría o podría no ser fruto de una apresurada ingestión de setas alucinógenas.

Todo es fotografiado por Andrew Droz Palermo en entornos naturales de los bosques irlandeses (la película usa también espacios de la Corte que se vieron, paradójicamente, en ‘Excalibur’) que certifican que el buen gusto y no los presupuestos millonarios es lo único que hace falta para propulsar una buena película de fantasía. Los escenarios, tan naturales como oníricos, casi propios de película de animación, son sin duda una de las bazas para convertir a ‘El caballero verde’ en una de las propuestas fantásticas del año.

‘El caballero verde’ no ofrece acción incesante ni batallas épicas (salvo la más épica de todas: el remordimiento, la maduración a golpes y los coscorrones de la vida), pero su apuesta firme por las visiones simbólicas y la reinterpretación macabra y pesimista de la mitología clásica convierte la propuesta de Lowery en imprescindible. Estampas bucólicas que parecen salidas de otro mundo y personajes que conectan a ‘La Cosa del Pantano’ con la historia anglosajona tienen la culpa.

‘El caballero verde’ tiene todo el sello de A24 -productora de donde han brotado autores tan estimulantes como Ari Aster o Robert Eggers-: su preciosismo estético y macabro marca de la casa, también responsable de que la película adopte a menudo modos de película de terror simbólica y llena de imágenes para el recuerdo. En cualquier caso, una de las fantasías oscuras del año y una pieza imprescindible para el catálogo de Prime Video.


La noticia

‘El caballero verde’: llega a Prime Video una de las sensaciones indie del año, una fantasía que reinventa los mitos artúricos

fue publicada originalmente en

Xataka

por
John Tones

.

HardZone – Una vuelta de tuerca a la capacidad de los discos duros, así es FC-MAMR

Se podría decir que los discos duros están en guerra contra ellos mismos, no hace ni siquiera falta que los SSD hagan acto de presencia. El sector lleva retraso, la capacidad aumenta lentamente y el rendimiento todavía menos, por ello, cualquier novedad al respecto es cogida con ganas, como la «nueva» tecnología de Toshiba: FC-MAMR, ¿cómo consigue mejorar la grabación de una tecnología que ya lo hacía?

Es posible, quizás más que posible, probable, que esta tecnología no termine llegando en breve a los discos duros del usuario, al mercado común, pero no por ello hay que ignorarla, al revés, es el paso previo al hecho de implementarse a bajo nivel y bajo coste. Toshiba ha diseñado una nueva línea y serie de discos duros llamada MG09, la cual es la primera en integrar la nombrada tecnología FC-MAMR, una vuelta de tuerca a lo ya conocido y de por sí novedoso, ¿cómo lo han hecho y en qué consiste?

El concepto de MAMR como base fundamental para lograr dar un paso adelante

Coger lo «viejo» (nótese la ironía) y mejorarlo, eso es exactamente lo que ha hecho Toshiba al escoger la tecnología MAMR (Microwave-assisted Magnetic Recording) como base. Para comprender lo poco que sabemos sobre FC-MAMR vamos a conocer primero desde donde parte, puesto que sin esta información fresca es posible que no entendamos dónde están las mejoras por parte de los japoneses.

MAMR es una tecnología complicada, puesto que usa resonancias y frecuencias mediante un STO en unos rangos de 20 GHz a 40 GHz mientras el cabezal del HDD está grabando en el plato. Es decir y para simplificar el concepto:

Aplica un campo magnético (que no electromagnético, ojo) para debilitar el área de grabación y su fuerza al cambio. Con estas altas frecuencias mediante el STO se consigue gastar menos energía y grabar de forma más precisa, lo que directamente implica más datos en la misma área útil, mejorando con ello la capacidad del HDD.

Lógicamente, esto implica una serie de nuevos materiales, nuevas piezas mecánicas, torques y cabezales por supuesto. Lo que se consigue con todo esto es que los electrones polarizados cambien y «giren» su estado mediante el oscilador, requiriendo menos energía que un cabezal normal, mejorando la densidad por centímetro cuadrado y no provocando cambios en la temperatura más allá de la que se consigue actualmente en un HDD.

¿Se puede mejorar algo que ya de por sí parece del futuro?

Pues sí, con tecnología que ya es presente y está en el mercado. El concepto de FC-MAMR ha sido catalogado como muy prometedor para extender la densidad de grabación de los discos duros. Evidentemente esto se refiere de cara al futuro, porque como hemos dicho los HDD de los japoneses son una realidad para cualquier empresa que pueda pagarlos.

FC-MAMR viene de Flux-Control Microwave-Assisted Magnetic Recording, donde lógicamente todo gira en torno al concepto de Flux-Control. Hay realmente muy poca información sobre ello, así que cuando Toshiba explique todo con más detalle ampliaremos este artículo con todos los detalles, pero entre tanto vamos a explicar el cómo funciona.

¿Qué es FC-MAMR y cómo mejora a un HDD?

Seguro que sabemos cómo funciona el cabezal de un disco duro, pero repasemos brevemente porque las cifras lo merecen: tenemos uno o varios cabezales de lectura y escritura que se dividen en dos partes o polos donde un campo magnético los atraviesa constantemente para poder realizar la lectura o escritura en el plato.

Bien, pues esa distancia con la tecnología MAMR es de solo 20 nm, lo que implica un grado de precisión del mismo jamás visto hasta ahora, puesto que hablamos de una pieza mecánica que se mueve sin parar y que además necesita un nanosegundo para grabar o leer el campo magnético y sus bits. Con esto en mente llega FC-MAMR, donde Toshiba lo que logró fue aplicar una corriente para polarizar el STO mediante una corriente continua.

¿Qué lograron? Inducir la oscilación y con ello cambiar la magnetización del STO para así producir un campo magnético de microondas más preciso. En otras palabras, magnetizando la dirección que produce el STO modificaban el campo del plato. Pues bien, a este control del STO y de la magnetización se le denominó como Flux-Control.

Lo que se consigue con todo esto es fortalecer el campo magnético de grabación generando con ello menos microondas, lo que nos lleva a una intensidad de dicho campo magnético mejorada. Básicamente se consigue grabar datos en el plato con mejor intensidad y gastando menos energía, siendo más preciso y con ello se logra aumentar el rendimiento de escritura del cabezal y la capacidad del disco.

Toshiba aseguró que en sus simulaciones muestran la efectividad de aumentar la corriente de polarización, donde se consiguieron alcanzar velocidades de escritura de 3 Gbit/s sin mermar la seguridad de los datos o del HDD en sí mismo. Dichas pruebas aseguran que la actuación del Flux-Control se completa en solo 0,5 nanosegundos, sin pérdidas de energía y con total precisión, donde consigue debilitar la zona seleccionada y fortalecer las colindantes, facilitando el giro y cambio de estado del plato y los datos.

Un consumo reducido en reposo y muy competitivo en máximo rango de RPM

Los primeros datos mostrados dentro de la gama MG09 de HDD empresariales de Toshiba arrojan datos muy sorprendentes de esta tecnología FC-MAMR, y es que los discos solo consumen 0,23 vatios como cifra máxima mientras que están inactivos (MG09 de 18 TB), donde la media de ellos es de 8,74 vatios.

Por si fuese poco, esta tecnología FC-MAMR también es compatible con PWC como caché de escritura persistente y PLP para prevenir y proteger de pérdidas de energía a cada modelo, algo importantísimo en servidores, donde ningún bit puede perderse o escribirse mal.

Sobre el sector de consumo, es posible que no veamos este tipo de HDD, principalmente porque Toshiba va a dar luz verde a su tecnología MAMR de segunda generación y con ello, en teoría, igualará a FC-MAMR para lanzar así discos duros para el consumidor con más capacidad y a precio competitivo. El mayor problema es que al ritmo que se desarrolla todo ahora mismo esto significa tranquilamente 5 años si todo va bien, porque de momento este tipo de tecnologías no se ha adelantado a las fechas, sino al contrario.

The post Una vuelta de tuerca a la capacidad de los discos duros, así es FC-MAMR appeared first on HardZone.

Xataka – Las 26 mejores aplicaciones para Windows según editores de Xataka

Te traemos una lista con las 26 mejores aplicaciones para Windows según los editores de Xataka. Hace unos meses te trajimos la lista de las mejores aplicaciones gratis para Windows en 2021, y hoy traemos otra parecida, pero desde la subjetividad de los gustos personales de los editores de la familia de Xataka y otros medios hermanos.

En la lista vamos a centrarnos en las aplicaciones, de forma que tienes 24 que son muy variadas, yendo desde la gestión y organización del trabajo hasta otras relacionadas con el ocio y el sonido. Como los editores tenemos perfiles diferentes, eso ayuda a que la lista sea variada. El punto en común de todas las aplicaciones es que tienen una versión instalable para Windows.


Leer más

Xataka – Viudos de Path, la red social del Número de Dumbar

En 2011, el filósofo israelí Yuval Noah Harari publicó el libro ‘Sapiens: De animales a dioses’, en el que decía, entre muchas otras cosas, que cien personas es la cantidad máxima de gente que un humano puede gestionar emocionalmente. Un año antes, Genbeta publicó un artículo hablando de Path.

El titular decía “Path, la red social para tus amigos de verdad”. No le faltaba razón: en una época en la que Twitter empezaba a despegar y en la que Facebook ya contaba por centenares la lista de amigos de cualquier perfl, esta red tenía un límite máximo: 50 amigos. Esa era la estimación que hacía de la cantidad máxima de personas que podían resultar mínimamente cercanas en la vida de cualquier persona, mucho menos generosa que la de Harari.

A partir de ahí el nivel de cercanía ya solo podía ser muy bajo, a su entender, y si queríamos agregar a alguien más, teníamos que hacerle hueco borrando a uno de los ya presentes. Una red social salomónica que poco después abriría la mano aumentando triplicando ese límite, hasta 150 amigos, coincidiendo con el Número de Dumbar, que sugiere que el tamaño de nuestro cerebro limita nuestro número de conexiones cercanas.

Yo me di de alta atraído por las capturas que veía sobre ella. Si en esta época vemos florecer aplicaciones que prometen revolucionar nuestra forma de gestionar el correo electrónico o la productividad de equipos en remoto, en aquel entonces lo que surgía cada semana era una nueva red social. Algunas más centradas en fotografías, otras en reflexiones, otras en hacer check-in y otras más de nichos concretos. En aquel 2010 nació Instagram… pero también Path. Dave Morin, su fundador, venía de Facebook, y su idea con Path, fijando un tope de amigos, era de crear una red de calidad.

Solo con quien entiende lo feliz que nos hace ese momento

Path era un oasis. Nació en un momento en el que las interfaces eran algo toscas e incluso los diseños industriales de los teléfonos también lo eran. Path priorizó el componente visual por encima de todo y transmitía una calidez de arquitectura nórdica con la que Facebook, Twitter o Instagram, a la postre los que se llevaron el gato al agua, no podían ni soñar.

Apreciación del fantástico diseño de Path hace una década. Presentación de su integración con Nike+, con una interfaz muy por delante de su época.

Por supuesto, su feed era cronológico, no algorítmico. Los timelines algorítmicos llegaron, con sentido, cuando la cantidad de cuentas y páginas a las que seguíamos o amigos que teníamos era tan elevada que se hacía inmanejable. Así que las redes fueron incorporando su criterio automático para decidir qué contenido priorizar para presentarnos. ¿Tenía sentido un feed algorítmico en una red social con un tope de amigos más bien bajo que jamás excederíamos? Claro que no. Así que hubiese sido otro oasis: el de una red social cronológica, no algorítmica.

Solo para amigos de verdad y personas en quien confiar

Facebook, que tuvo en aquella época a sus mejores años en cuanto a relevancia y dominio (Twitter le reemplazó para los adictos a la información e Instagram para la sociedad civil en general), se centraba en fotos y estados en texto. Luego dio el salto a vídeos, pero no era proactiva en cuanto al tipo de contenido que debían subir sus usuarios. Años después, Facebook quedó como un reducto para el berrinche político de andar por casa, los memes que ya estaban anticuados y los carteles anunciando desaparecidos.

Path también le ganó por goleada en ese sentido desde el minuto uno: tenía varios tipos de check-in que hacer. Podíamos indicar que estábamos leyendo un libro concreto, viendo una serie o película en particular, o compartir una canción. Puede que hoy suene a perogrullo, pero la interfaz estaba cuidada más allá de lo visual: tenía bases de datos de todos esos contenidos para acceder directamente a información sobre ellos.

También permitía tener un registro de cuándo nos íbamos a dormir y cuándo amanecíamos. Algo que hoy puede verse como un exceso, pero que en aquel momento no desentonaba en absoluto: en Twitter era habitual ver tuits que venían de Foursquare indicando dónde estaba una persona en cada instante. Menos aún desentonaba en una red social privada y orientada a nuestros amigos cercanos, no a cualquiera.

Esta arquitectura formaba parte de una idea que venía del premio Nobel Daniel Kahneman, premiado por sus estudios en torno a economía, psicología, comportamiento humano y toma de decisiones. Hablaba Kahneman de la relación entre felicidad y recuerdos, algo que impulsó a Morin a crear una red centrada en dar, no en recibir; y orientada a compartir momentos con aquellas personas que saben lo felices que nos hacen, sin más pretensiones. Si yo publico en Twitter mi entusiasmo por la nueva colección de aperos que llega al Farming Simulator, el 99% de quienes lo lean se quedarán fríos. Si lo hiciese en Path, solo lo vería gente que me conoce bien, así que entenderían mi entusiasmo y se alegrarían por mí, aunque fuera por esa minucia cotidiana.

Eso en cualquier caso nunca ocurrirá, porque hace tres años desde que Path cerró para siempre, tras una larga agonía viviendo en la intrascendencia y con momentos reprobables durante el camino, como cuando envió toda la lista de contactos de sus usuarios a sus servidores sin pedir permiso. O peor, cuando enviaba un SMS también a todos los contactos de quien se registraba invitándoles a usar la aplicación. Paradójico en una red social destinada a ser un reducto privado e íntimo en nuestra vida digital.

Sin sucesor espiritual

La crisis de Path comenzó cuando en 2013 se marcharon tres empleados clave y la vida en la empresa nunca volvió a ser igual. Tampoco es que hubiese llegado muy lejos en cuanto a volumen de usuarios: quince millones llegamos a usar Path en su mejor momento, un error de redondeo en comparación con Facebook y compañía.

En los últimos dos años hemos visto algún tímido intento para llenar este hueco, el de alguna red social (o una suerte de) orientada a grupos reducidos, a recuperar la intimidad perdida. Cocoon mezcla Instagram y WhatsApp en círculos de total confianza, Dex es más bien una hoja de Excel vitaminada para gestionar nuestras amistades. De todo tiene que haber.

Por el camino han ocurrido cosas. Instagram añadió sus círculos de «mejores amigos» y su reconfortante color verde para identificarnos como tal. WhatsApp se ha consolidado como la red social privada por excelencia mediante el uso de grupos, ese lugar donde compartir fotos y vídeos (y pensamientos, ejem) que jamás querríamos ver en espacios mucho más poblados. También es cierto que algo que ha ocurrido en este tiempo es el auge de TikTok poniendo a millones de personas a hacer coreografías y exhibir carisma con alcances globales.

Nadie ha sabido ocupar ese hueco de forma completa, si bien tampoco parece que sea una exigencia de masas ni nadie esté pensando mucho en el Número de Dumbar. Los quince millones del pico de Path es el equivalente online a cuatro gatos. Los viudos de Path, en un momento en que nadie puede escapar a los tentáculos de Facebook (escándalo tras escándalo) para tener momentos de cercanía digital con nuestro círculo de confianza, seguiremos esperando un sucesor espiritual.


La noticia

Viudos de Path, la red social del Número de Dumbar

fue publicada originalmente en

Xataka

por
Javier Lacort

.

Xataka – La ley de Moore se resiste a morir: así es como ha conseguido no solo seguir viva, sino continuar en plena forma

La vigencia de la ley de Moore a medio plazo ha sido puesta en entredicho en muchas ocasiones, especialmente durante la última década. La dificultad que conlleva refinar de forma constante los procesos fotolitográficos que condicionan la cantidad de transistores que es posible implementar en un circuito integrado ha provocado que esta predicción haya estado a punto de dejar de cumplirse en varias ocasiones. Y, sin embargo, no lo ha hecho.

Los desafíos a los que se enfrentan los fabricantes de semiconductores de alta integración, como TSMC, Intel, Samsung o GlobalFoundries, para continuar miniaturizando los transistores e incrementando de una forma prácticamente continua la cantidad incorporada en sus circuitos integrados son enormes. No obstante, estas empresas no son las únicas que tienen un rol crucial en esta industria.

ASML diseña y fabrica los equipos fotolitográficos utilizados por la mayor parte de los fabricantes de semiconductores de alta integración

Todas ellas dependen en cierta medida de ASML, una compañía de Países Bajos participada por Philips que diseña y fabrica los equipos fotolitográficos utilizados por la mayor parte de los fabricantes de semiconductores de alta integración. Incrementar el número de transistores de un circuito integrado es muy importante debido a que permite introducir en su microarquitectura las mejoras necesarias para hacerlo más potente. Y también más eficiente.

Durante muchas décadas un recurso esencial utilizado por los fabricantes de microprocesadores para incrementar el rendimiento de sus chips consistía en aumentar sin descanso su frecuencia de reloj. Este parámetro ha ido siempre de la mano de la mejora de la microarquitectura, pero, ante la dificultad para seguir incrementando la frecuencia, ha acabado cediendo buena parte de su protagonismo a la microarquitectura. Y, como acabamos de ver, para que esta última se desarrolle es fundamental continuar refinando la tecnología de integración.

Esto es lo que predice la ley de Moore

Gordon Moore ha renegado públicamente en varias ocasiones de que a la observación que hizo en 1965 se le haya atribuido el estatus de ley. En realidad es una predicción fruto de la observación empírica, y no una ley amparada en un estudio científico minucioso. Aun así, durante muchas décadas su observación se ha erigido como la regla de oro utilizada por la industria de la microelectrónica para prever el ritmo con el que va a desarrollarse a medio y corto plazo.

Lo que Moore percibió hace algo más de cinco décadas y media fue que el número de transistores de los circuitos integrados se duplicaría cada año, y, a la par, su coste relativo se reduciría drásticamente. Diez años más tarde enmendó su observación al incrementar el plazo de tiempo necesario para que se lleve a cabo ese desarrollo de la tecnología de integración, colocándolo en 24 meses, y no en un año. Y desde entonces su pronóstico se ha cumplido con una precisión más que razonable, como podemos ver en la siguiente gráfica.

La innovación ha tirado de la ley de Moore, y parece que seguirá haciéndolo

La innovación tiene una importancia capital en la industria de la tecnología en general, y en la producción de los semiconductores en particular. Sin ella la ley de Moore habría dejado de cumplirse hace décadas. Si nos ceñimos únicamente a los últimos veinte años comprobaremos que sin las innovaciones que han introducido los fabricantes de semiconductores en sus procesos fotolitográficos los microprocesadores que tenemos actualmente no serían posibles. Y, por supuesto, otros chips de alta integración, como los procesadores gráficos, tampoco habrían alcanzado el grado de sofisticación que tienen actualmente.

Actualmente podemos encontrar circuitos integrados producidos con fotolitografía de 5 nm en muchos de los dispositivos que podemos adquirir en las tiendas

A principios de la década pasada Intel puso a punto los primeros transistores con estructura tridimensional (conocidos como Tri-Gate), gracias a los que fue posible incrementar de una forma notable tanto el rendimiento como la eficiencia de los microprocesadores. Otra estrategia utilizada por los fabricantes de semiconductores consiste en utilizar materiales más avanzados, que, entre otras ventajas, pueden ayudar a combatir la electromigración.

Y, por supuesto, los procesos fotolitográficos en sí mismos también se han desarrollado mucho durante las últimas décadas, haciendo posible la fabricación a gran escala de chips que se benefician de una capacidad de integración asombrosa. De hecho, actualmente podemos encontrar circuitos integrados producidos con fotolitografía de 5 nm en muchos de los dispositivos que podemos adquirir en las tiendas.

Durante los últimos años hemos sido testigos de la llegada de muchas otras innovaciones que han contribuido decisivamente a colocarnos en la posición en la que estamos ahora, como la utilización del silicio tensionado o la litografía ultravioleta extrema (EUV). Por esta razón, podemos mirar hacia delante con un optimismo razonable. De hecho, TSMC anunció a finales del pasado mes de abril que en 2022 iniciará la producción a gran escala de semiconductores con tecnología de integración de 3 nm, y tanto esta compañía como IBM han desvelado que están preparadas para comenzar la fabricación de chips de 2 nm a corto plazo. No cabe duda de que no está pero que nada mal.

Imágenes | Intel


La noticia

La ley de Moore se resiste a morir: así es como ha conseguido no solo seguir viva, sino continuar en plena forma

fue publicada originalmente en

Xataka

por
Juan Carlos López

.