Buscar:

Xataka – En 1978 Christopher Reeve fue elegido para interpretar a ‘Superman’. Se puso tan mazado que literalmente no cabía en el traje

En 1978 Christopher Reeve fue elegido para interpretar a 'Superman'. Se puso tan mazado que literalmente no cabía en el traje

A mediados de los setenta, Superman no era solo un personaje: era la gallina de los huevos de oro de DC y una apuesta que podía consagrar o hundir el primer gran blockbuster moderno de superhéroes. Los productores Alexander e Ilya Salkind querían una película “seria” y grandiosa, lejos del tono camp del Batman de los sesenta, pero también sabían que cualquier tropiezo sería un bochorno histórico. 

Demasiado grande para fallar. En ese escenario, DC, recelosa, impuso condiciones de lo más estrictas y vigiló el proyecto como si fuera una operación quirúrgica, porque el problema de fondo no era hacer una película: era hacerla con un tipo en mallas y capa roja y lograr que el público lo mirara con respeto, no como un meme.

Dos años de casting. Así, la búsqueda del Superman perfecto se convirtió en el gran cuello de botella: comenzó en 1975 y se alargó hasta febrero de 1977, con centenares de pruebas y una sensación creciente de desesperación. Hubo, como suele pasar en toda gran producción, una “wish list” de estrellas que parecía más un cartel de festival que una audición: Robert Redford, Paul Newman, Warren Beatty, Clint Eastwood, Steve McQueen, Burt Reynolds, Charles Bronson, James Caan, o incluso Nick Nolte.  

De hecho, hubo muchos más, además de propuestas que hoy suenan delirantes por pura lógica de marketing, como pensar en Muhammad Ali o incluso en gente ajena a la interpretación. Ocurre que cada opción fallaba por algo (si no era el coste, era la edad, la imagen, el acento o el encaje en general) y el mensaje era claro: sin Superman, no había película.

El giro definitivo. En medio de ese caos, Christopher Reeve llegó desde el teatro neoyorquino como una respuesta que no encajaba con el cliché del “nombre grande” que buscaban los productores, pero sí con la esencia del personaje. La directora de casting fue empujando su candidatura contra la inercia del equipo, hasta que por fin le dieron una oportunidad real. 

Cuando Richard Donner, el director de la peli, lo vio, el juicio fue tan claro como incómodo: Reeve tenía la altura, la cara y el aura para ser Superman… pero también era demasiado joven y demasiado delgado (“un palo”, fueron las palabras del director) para rellenar un traje que exigía fuerza visible, no solo presencia. Aun así, en aquella prueba (entre nervios, calor de focos y un aspecto todavía desgarbado) quedó patente algo que nadie podía copiar: el potencial de hacer creíble a Clark Kent y a Superman en la misma persona.

Images 18

El actor antes de optar a su papel en Superman

Dejar de ser un “palo”. Reeve consiguió el papel con una exigencia tácita que en realidad era un ultimátum: tenía que convertirse físicamente en Superman, y además hacerlo rápido. Los productores llegaron a sugerirle usar músculos falsos debajo del traje para “engañar” a cámara, una solución típica del cine de la época, pero él se negó, porque entendió que la credibilidad no se construía con relleno, sino con transformación. 

La película necesitaba que el cuerpo dijera “superhéroe” antes incluso de que el personaje hablara, y Reeve asumió que el trabajo no era solo actuar bien, sino parecer imposible sin caer en el exceso.

Darth Vader como entrenador. Aquí entra la anécdota que parece inventada por un departamento de publicidad: el hombre que iba dentro del traje de Darth Vader, David Prowse, también culturista e instructor, fue quien se encargó de esculpir a Superman. Donner lo llamó como quien activa un plan de emergencia: “tenemos un Superman” y hay que construirlo a contrarreloj.

Prowse entrenó a Reeve durante semanas con una rutina enfocada a ganar masa y fuerza funcional, lo bastante sólida como para aguantar arneses de vuelo, jornadas extenuantes y el peso simbólico del personaje. Y en el proceso nació un relato perfecto para vender la película: el villano físico más intimidante del momento moldeando al héroe definitivo de la década.

La “obsesiva” transformación. El método fue tan sencillo como brutal: comer muchísimo, entrenar a conciencia y no permitirse perder peso ni un solo día. Reeve se sometió a una dieta hiperproteica, con cuatro comidas diarias, batidos y vitaminas, y con una disciplina casi paranoica: saltarse una comida significaba retroceder, y retroceder era un desastre. 

La idea que repetía era muy clara: el trabajo interior del actor no sirve si el exterior no sostiene la fantasía, porque Superman no puede “parecer” débil, aunque sea vulnerable por dentro. Y lo más interesante es que esa fuerza física le cambió también la psicología del papel: cuanto más fuerte se volvía, más natural le salía la autoridad tranquila del personaje.

Demasiado «cachas». El resultado fue tan exageradamente efectivo que se convirtió en un problema de continuidad: Reeve siguió ganando músculo durante el rodaje y llegó un punto en el que no era el mismo cuerpo de las primeras escenas. La producción tuvo que rehacer tomas ya filmadas porque el Superman de un día no cuadraba con el Superman de semanas después, y el traje, pensado para un “antes”, empezó a comportarse como una carcasa que se quedaba pequeña.

El giro irónico es que al principio querían ponerle músculos falsos bajo el uniforme y, tras la transformación, ocurrió lo contrario: pudieron retirar los añadidos del traje porque ya no hacían falta, y la película se quedó con lo que siempre había necesitado desde el principio, un Superman con músculo real, sin trampa ni cartón.

El mito que quedó. Con el tiempo, el físico de Reeve se ha comparado con los estándares hipertrofiados de los superhéroes actuales, pero en su momento fue todo un acontecimiento: su cambio de “actor alto y flaco” a icono musculado formó parte del propio relato de Superman antes incluso del estreno. 

Lo importante no fue competir con montañas de bíceps modernas, sino construir una ilusión exacta: que ese tipo podía ser el más poderoso del planeta y, aun así, el más humano cuando miraba a Lois Lane. Al final, su Superman no solo funcionó por el carisma o la interpretación de Reeve (que también), sino porque el cuerpo dejó de ser un obstáculo y pasó a ser una prueba: si el traje casi no podía contenerlo, el público tampoco tenía por qué dudarlo.

Imagen | Warner

En Xataka | Cómo el mejor Batman de la historia del cine acabó devorado por su enemigo más implacable: los Happy Meals de McDonald’s

En Xataka | El mejor anuncio dentro de una película lo tiene este clásico de la ciencia ficción: era tan bueno que nos hizo dudar de los nazis


La noticia

En 1978 Christopher Reeve fue elegido para interpretar a ‘Superman’. Se puso tan mazado que literalmente no cabía en el traje

fue publicada originalmente en

Xataka

por
Miguel Jorge

.

Xataka – Un tren, la noche ártica y cero carreteras alrededor: así es una de las caza de auroras boreales más extremas de Noruega

Un tren, la noche ártica y cero carreteras alrededor: así es una de las caza de auroras boreales más extremas de Noruega

Hay noches en las que el norte de Noruega no promete nada, y precisamente por eso resulta tan atractivo. Oscuridad cerrada, frío sostenido y un paisaje que, durante horas, apenas ofrece referencias más allá de montañas, nieve y silencio. En ese contexto, la idea de salir a buscar auroras boreales deja de parecer un plan turístico convencional y se convierte en otra cosa, una espera consciente en un entorno único con epicentro en Narvik.

Lo que se ofrece en este lugar no es un tren temático ni un mirador rodante, sino una experiencia nocturna organizada alrededor de un desplazamiento ferroviario real. El llamado Northern Lights Train utiliza una línea existente para alejarse de la ciudad y llevar a los viajeros hasta zonas con muy poca contaminación lumínica, donde la espera forma parte central del plan. El tren es el medio, no el fin, y la propuesta se articula en torno a moverse, bajar, aguardar y volver. Todo está diseñado para aumentar las probabilidades de ver auroras.

Un viaje diseñado para perseguir algo único

Viajar por la línea de Ofoten implica atravesar uno de los corredores ferroviarios más singulares del norte de Noruega. En el contexto de esta experiencia, el trayecto funciona como un proceso de desconexión gradual, Narvik queda atrás y, con ella, la iluminación artificial y la sensación de entorno habitado. El tren se adentra en un paisaje montañoso donde el cielo empieza a imponerse como protagonista.

El itinerario tiene dos nombres propios que ordenan la experiencia. El primero es Bjørnfjell, una estación situada junto a la frontera con Suecia, donde el tren realiza una breve parada antes de continuar su ascenso. El destino final es Katterat, a unos 374 metros sobre el nivel del mar, un antiguo enclave ferroviario sin acceso por carretera. Ese detalle no es menor, llegar solo es posible en tren, y convierte el lugar en un punto especialmente apartado.

Una vez en Katterat, la experiencia se desplaza del trayecto a la espera. Los viajeros bajan del tren y se mueven a pie por el entorno inmediato, donde se organiza un punto de encuentro alrededor de una hoguera. Hay bebida caliente y algo de comida sencilla, no como reclamo gastronómico, sino como apoyo frente al frío y al tiempo de espera. El ritmo se desacelera de forma consciente y la noche se impone con el grupo permanece atento al cielo.

Narvik Arctic Train Winter Katterat Northern Lights Norwegian Travel Michael Ulriksen 2025 Gf1a7333 Landscape

Aquí los guías cumplen una función más estratégica que espectacular. Son quienes interpretan previsiones, explican por qué se espera en un punto concreto y ajustan el plan si las condiciones cambian. También son quienes rebajan expectativas, recordando que la aurora no se enciende a demanda y que la noche puede resolverse sin grandes apariciones. Ese equilibrio entre información, prudencia y acompañamiento es parte esencial del producto que se ofrece.

Las auroras no son un fenómeno local ni espontáneo, sino la consecuencia visible de procesos que empiezan mucho más lejos. El origen está en el viento solar, un flujo de partículas cargadas que el Sol expulsa de forma constante y que tarda alrededor de 40 horas en alcanzar la Tierra. Cuando ese material interactúa con el campo magnético terrestre, es desviado hacia los polos y colisiona con oxígeno y nitrógeno a gran altura.

Narvik Arctic Train Winter Katterat Northern Lights Norwegian 3

Si hablamos del precio, el viaje en tren, la organización de la espera, las bebidas calientes, el tentempié y las explicaciones del guía forman parte de un mismo paquete, cuyo coste arranca en 1495 coronas noruegas (unos 127 euros). El modelo es claro, dar forma a una noche imprevisible dentro de una experiencia organizada, donde el valor no está en el resultado, sino en el conjunto de elementos que hacen posible el intento.

Narvik Arctic Train Winter Katterat Northern Lights Norwegian 2

El viaje termina como empezó, sobre raíles, con el tren regresando a Narvik mientras el grupo deja atrás Katterat y la montaña vuelve a cerrarse en la oscuridad. Puede que el cielo haya respondido o puede que no, pero la experiencia ya se ha consumado en otro plano. Lo que queda es la sensación de haber participado en algo que no se puede forzar, donde el trayecto, la espera y el contexto pesan tanto como el resultado.

Cabe señalar que sobre este tipo de experiencias últimamente se ha construido una imagen que no se corresponde con la realidad. En redes sociales y algunos medios circulan imágenes y vídeos, posiblemente generados o alterados con inteligencia artificial, que muestran supuestos trenes noruegos de lujo con techos de cristal envolventes y vistas perfectas al cielo. Esos trenes no existen. La experiencia real, como hemos visto, es muy distinta a esas recreaciones.

Imágenes | Norwegian Travel | Visit Narvik | Arctic Train

En Xataka | Marbella ya no es el destino favorito de los millonarios rusos: ahora es una paradisiaca isla de China donde no rinden cuentas


La noticia

Un tren, la noche ártica y cero carreteras alrededor: así es una de las caza de auroras boreales más extremas de Noruega

fue publicada originalmente en

Xataka

por
Javier Marquez

.

Hard Zone : Hardware, Reviews, Noticias, Tutoriales, Foros de ayuda – Qué significa realmente «Gaming Ready» en 2025: desenmascarando marketing y especificaciones

Un ordenador diseñado específicamente para gaming tiene una serie de componentes que se centran en ofrecer un tipo de rendimiento concreto. El problema está en que muchas veces encontramos etiquetas en el mercado que no hacen referencia a lo que puede ofrecer un PC, tal y como sucede con el «Gaming Ready«.

Durante muchos años hemos visto cómo con el auge de un mercado concreto se han creado productos específicos para ello. En el caso de la realidad virtual era fácil encontrar sistemas «VR Ready». Ahora con la inteligencia artificial también hay muchos ordenadores que se venden como «Preparados para IA».

Ordenador gaming customizado y montado en una pared con sistema de refrigeración líquida visible.
Un equipo bien montado debe equilibrar tanto la estética como la calidad de cada componente interno.

Pero a su vez también hay muchos modelos que se venden con la etiqueta «Diseñados para gaming», aunque realmente no ofrezcan las piezas necesarias. Esto es algo que para personas que conocen la industria puede resultar sencillo de diferenciar, pero resulta más complicado para otras personas que no conocen cuáles son los requisitos de ciertas tecnologías.

El mayor problema de los PC «Gaming Ready» está en sus componentes

Seguramente en más de una ocasión habréis visto cómo algunas tiendas tratan de vender un ordenador diseñado con un propósito concreto. Esto es algo común ya que es una buena forma de conocer cuáles son los componentes específicos que se utilizan para cada caso. Los ordenadores son realmente versátiles, y dependiendo de para qué lo necesite el usuario cambiará de componentes.

El problema está en que el uso de este tipo de etiquetas ha terminado convirtiéndose en una estrategia de marketing que afecta a los compradores. Es normal encontrar ordenadores de menor gama que están diseñados para jugar pero ¿qué tipo de juegos soportan realmente? Esto es algo que una única etiqueta «Gaming Ready» no es capaz de abarcar.

Podemos encontrar ejemplos en una gran cantidad de situaciones, por ejemplo aquellos modelos que utilizan gráficas de gama realmente baja como la RTX 3050. ¿Es una gráfica para jugar? Sí. ¿Está diseñada para jugar a cualquier título? No. Este es el mayor problema que hay con el uso de este tipo de marketing.

PC de sobremesa con componentes gaming iluminados con luces RGB, representando el concepto de un ordenador Gaming Ready.
La estética de un PC «Gaming Ready» a menudo oculta componentes internos de baja calidad.

Optar por un ordenador OEM muchas veces es una buena opción para aquellas personas que no quieren comerse la cabeza. Pero no mirar todos los componentes que incluye o dejarse guiar únicamente por una nota que indica su utilidad para cualquier uso es un problema.

Este es uno de los principales motivos por los que muchos usuarios desconfían de este tipo de configuraciones. Incluso en aquellas que encontramos con un procesador, gráfica y memoria RAM decentes, podemos observar que hay tiendas que incorporan otros componentes como la fuente de alimentación o la placa base de peor calidad.

Como podéis imaginar esto también afecta a la vida útil de un PC. Lo mejor que podéis hacer para evitar este tipo de situaciones pasa por informaros a la hora de comprar un ordenador. No hace falta que estéis al día sobre todas las novedades tecnológicas, pero siempre podéis tratar de conocer cuáles son los requisitos que tienen los juegos que queréis utilizar.

A través de conocer las especificaciones mínimas y recomendadas de varios videojuegos, podréis conocer si un PC está preparado o no para Gaming.

Preguntas Frecuentes sobre PC «Gaming Ready»

¿Qué significa realmente la etiqueta «Gaming Ready» en un ordenador?
Es un término de marketing para indicar que un PC está diseñado para videojuegos. Sin embargo, no garantiza un nivel de rendimiento específico y a menudo se usa en equipos con componentes de gama de entrada que pueden no ser suficientes para los juegos más exigentes.
¿Cuál es el principal problema de fiarse de esta etiqueta?
El principal problema es que puede ser engañosa. Un PC puede ser «Gaming Ready» para juegos muy básicos, pero no para títulos modernos AAA. Además, los fabricantes pueden ahorrar costes en componentes cruciales como la fuente de alimentación o la placa base, afectando la fiabilidad y vida útil del equipo.
Además de la tarjeta gráfica, ¿qué otros componentes son importantes en un PC para jugar?
Aunque la CPU y la GPU son vitales, la fuente de alimentación (PSU) y la placa base son fundamentales. Una PSU de mala calidad puede causar inestabilidad o dañar otros componentes, mientras que una placa base básica puede limitar el rendimiento del procesador y las opciones de expansión futuras.
¿Cómo puedo saber si un PC podrá ejecutar los juegos que me interesan?
La forma más fiable es comparar los componentes del ordenador (CPU, GPU, RAM) con los requisitos mínimos y recomendados del videojuego. Estos datos suelen estar disponibles en la página de la tienda del juego (como Steam o Epic Games Store) o en la web oficial del desarrollador.

Xataka – El Google Maps de los anfiteatros romanos: un exhaustivo mapa interactivo para explorar todos los circos de sangre del Imperio

El Google Maps de los anfiteatros romanos: un exhaustivo mapa interactivo para explorar todos los circos de sangre del Imperio

Si eres de esos (masculino no genérico) a los que el Imperio Romano les fascina, lo de hacerte una escapadita para seguir descubriendo ruinas y fortificaciones probablemente te parezca una buena idea. Sí, hay clásicos dentro del estado como Tarragona o Mérida, pero si te apetece un viaje más exótico y lejano, Éfeso o Split son buenas candidatas. El viejo continente está repleto de joyas (y más allá, incluso, en tanto en cuanto Roma llegó a abarcar tres continentes)

Aunque «todos los caminos te llevan a Roma», seguramente este Google Maps del Imperio Romano te sería útil para planificar una ruta (y a los romanos de la época, ni te cuento) y mejor aún, esta evolución. Pero no nos engañemos, hay ciudades y ciudades y restos y restos. Si vas a preparar una excursión y tu objetivo es visitar una ciudad de estatus dentro del Imperio Romano, hay una señal inequívoca: los anfiteatros.

Tener un anfiteatro era un lujo. Que siga en buen estado hoy, aún más

Los anfiteatros eran una medalla de prestigio a una ciudad. No lo construían en cualquier sitio: aquellas capitales de provincia lo tenían, como las anteriormente mencionadas Tarraco y Emerita Augusta, también aquellas ciudades fundadas para el retiro de sus veteranos (es el caso de Itálica). 

No obstante, también había ciudades que decidían construirlo como agradecimiento al emperador o para que las élites locales sacaran pecho. Y de forma pragmática, para llevar a cabo la máxima de «pan y circo».

Amphi Rome

Los anfiteatros del Imperio Romano. Vía:Tataryn. Wikimedia

Se estima que en el Imperio Romano hubo unos 230 anfiteatros, de los cuales solo unos 30 se conservan moderadamente bien. La cifra baja hasta 10 si además mantienen su funcionalidad estructural al completo, entre ellos los Arenas de Nimes y Arles en Francia, el de Verona, el de Pula, El Djem en Túnez y por supuesto, el de Pompeya. El mapa anterior, cortesía de Wikipedia, está muy bien para echar un vistazo. Pero hay otro mapa interactivo de los Anfiteatros romanos bastante mejor.

Emplea los datos del doctor en Arte Clásico y Arqueología por la Universidad de Michigan Sebastian Heath, una figura clave en el estudio moderno de los anfiteatros romanos entre otras cosas por su enfoque hacia la digitalización mediante datos abiertos. Así, tiene su dataset de Anfiteatros romanos que sirve como base, combinada a su vez con el mapa del Imperio Romano del área de Humanidades Digitales de Gotemburgo. 

El resultado es un mapa tres en uno publicado en la plataforma de contenido y datos de código abierto basado en wiki de RAMADDA:

Captura De Pantalla 2026 01 18 A Las 12 21 03

Mapa interactivo de los Anfiteatros del Imperio Romano. Ramadda

El primero y más grande permite visualizar la orografía, las calzadas y las principales ciudades del Imperio Romano conforme te desplazas o juegas con el zoom. Cuando tocas sobre una ciudad, puedes ver los detalles en los tres mapas. Por ejemplo, al clickar en Segóbriga en Cuenca aparece información como su nombre en latín, en qué época se construyó, la capacidad, la región… y a la izquierda, su integración en las calzadas y una vista de satélite.

Captura De Pantalla 2026 01 18 A Las 11 56 40

Habida cuenta de la cantidad de municipios y lugares con Anfiteatro es conveniente tirar de los filtros que aparecen en la zona superior. Así, podemos cribar en función de la región de la época, su capacidad o más fácil todavía, a qué estado pertenece a la actualidad. Al seleccionar Marruecos nos aparecen varias ciudades y una de ellas marcada en azul: «Lixus», al lado de Larache. 

En Xataka | La muerte de un imperio es el nacimiento de otro: el gráfico que repasa la historia de las civilizaciones desde hace 4.000 años

En Xataka | El Google Maps del Imperio Romano: el mapa que te permite planificar una ruta en aquella época


La noticia

El Google Maps de los anfiteatros romanos: un exhaustivo mapa interactivo para explorar todos los circos de sangre del Imperio

fue publicada originalmente en

Xataka

por
Eva R. de Luis

.

Xataka – China basó su modelo en importar gas durante décadas: hoy apuesta por la autosuficiencia como pilar estratégico

Estamos asistiendo en tiempo real a cómo China se transforma en un actor cada vez más determinante en una amplia variedad de sectores. Algunos de esos cambios son muy visibles de puertas afuera, como su liderazgo en la producción de coches eléctricos. Otros, en cambio, se entienden mejor mirando hacia dentro. En un nuevo vídeo del canal de YouTube de Xataka analizamos uno de esos giros menos evidentes pero estratégicamente clave: cómo el gigante asiático ha pasado de ser el mayor importador de gas natural licuado del planeta a apostar de forma decidida por la autosuficiencia.

La pieza que hoy te traemos se suma a otros contenidos que publicamos de forma habitual, como nuestro pódcast ‘Ciencia y Aparte’, ‘Domotizar o morir en el intento’ o distintos vídeos centrados en China. Entre ellos, el que abordaba la transformación del país en el primer “electroestado” de la historia. En esta ocasión, es Ana Boria quien se adentra en el papel del gas natural licuado, con un enfoque detallado y bien contextualizado que ayuda a entender por qué este movimiento va mucho más allá del plano energético.

Del mayor importador del mundo a la búsqueda de autosuficiencia

No es ningún secreto que la energía es un asunto crítico en cualquier país, pero adquiere una dimensión especialmente sensible en Europa. Por eso, antes de entrar en materia, nuestra compañera compara la situación del país asiático con la del Viejo Continente. “La estrategia Europea se basa en la prevención: no producir más gas, sino acumular el suministro y diversificar los proveedores para evitar cortes”, explica, y a partir de ahí ofrece varias claves para entender las profundas diferencias entre ambos modelos.

China Gas

En el caso chino, recuerda que “hace relativamente poco, el modelo chino implicaba importar GNL desde muchas regiones del mundo: Australia, Qatar, Estados Unidos o Rusia, y complementarlo con gas por gasoducto, sobre todo desde Asia Central y Siberia”. Ese enfoque empezó a cambiar por una combinación de factores, entre ellos la puesta en marcha del plan Made in China 2025, oficializado en 2015 con el objetivo de convertir al país en una potencia tecnológica mundial y reducir dependencias estratégicas.

Desde hace un tiempo, China busca dejar atrás su papel de gran importador de GNL para convertirse en un actor autosuficiente, y los datos apuntan en esa dirección. “Entre enero y junio de 2025, China produjo 130.800 millones de metros cúbicos de gas natural, un 5,8% más que en el mismo periodo del año anterior”, señala nuestra compañera, una cifra que ilustra la magnitud del cambio que se está produciendo.

Ana Boria

Lograr la autosuficiencia en un recurso tan crítico como el gas natural licuado no es solo una cuestión industrial. Es también una palanca estratégica de primer orden, con implicaciones económicas, geopolíticas y de seguridad energética.

China ha invertido en nuevas técnicas de perforación profunda, en métodos de extracción para gas no convencional y en adaptar tecnologías existentes a su propia geología, que es más compleja que la de otros grandes productores”, explica Ana. A partir de ahí, desgrana los pilares que han permitido al país avanzar hacia este objetivo, las ventajas con las que cuenta y los desafíos que todavía debe superar, siempre apoyándose en cifras y contexto.

Te invitamos a ver el vídeo completo en nuestro canal de YouTube y a compartir tu opinión tanto allí como en este artículo.

Imágenes | Xataka

En Xataka | China domina el mundo de la energía renovable, pero tiene un talón de Aquiles: depende de Occidente más de lo que admite


La noticia

China basó su modelo en importar gas durante décadas: hoy apuesta por la autosuficiencia como pilar estratégico

fue publicada originalmente en

Xataka

por
Javier Marquez

.

Xataka – Llevamos 2.500 años usando el jengibre como medicina. La ciencia acaba de darnos la razón

Llevamos 2.500 años usando el jengibre como medicina. La ciencia acaba de darnos la razón

Antes de que las farmacias ocuparan cada esquina, ya existía el jengibre. Lo que durante más de dos milenios fue el secreto mejor guardado de las boticas asiáticas, hoy está pasando por el examen más riguroso del microscopio. Este tallo subterráneo —técnicamente un rizoma, no una raíz— ha dejado de ser un simple condimento para galletas para convertirse en un protagonista de la nutrición clínica.

Como bien dice el Dr. Joshua Forman, gastroenterólogo en Maryland, en una entrevista con el Washington Post, a veces nos obsesionamos con fármacos caros y complejos mientras ignoramos lo que tenemos delante. “Es curioso cómo las cosas más sencillas pasan desapercibidas”, reflexiona el experto.

Del herbolario al laboratorio. La «sabiduría popular» ya no está sola, la ciencia ha tomado el relevo con fuerza. Una revisión masiva de 109 ensayos clínicos publicada en Nutrients confirma que el jengibre no es un placebo; funciona, especialmente cuando el sistema digestivo se rebela. 

Pero los hallazgos van más allá de un simple alivio estomacal. De hecho, un metaanálisis en Evidence-Based Complementary and Alternative Medicine ha puesto sobre la mesa algo impensable hace años: su capacidad para ayudar a regular el azúcar en sangre y proteger el corazón en pacientes con diabetes tipo 2.

¿Qué dice el veredicto científico? Si analizamos las pruebas, el jengibre actúa casi con precisión quirúrgica en tres frentes. Primero, en el embarazo; apenas 1.5 gramos pueden cambiarle el día a una mujer con náuseas matutinas. Además, un estudio en el Taiwanese Journal of Obstetrics & Gynecology llegó a comparar su eficacia contra el dolor menstrual con la del ibuprofeno, con resultados asombrosos.

No obstante, lo más fascinante ocurre a nivel celular. Investigaciones recientes en JCI Insight sugieren que el jengibre podría «frenar» la hiperactividad de ciertas defensas del cuerpo, algo clave para quienes padecen lupus. Incluso en el cerebro, la revista Frontiers in Nutrition apunta a un efecto escudo que podría retrasar el avance de enfermedades como el Alzheimer al desinflamar las neuronas.

La química del rizoma. El secreto del jengibre reside en sus compuestos bioactivos: los gingeroles, shogaoles y zingeronas. Estos compuestos actúan sobre los receptores nerviosos (como el 5-HT3 y el TRPV1) que regulan las señales de dolor y náuseas.

Además, el jengibre es un auténtico acelerador. En las pruebas, el estómago de quienes lo tomaron tardó solo 12 minutos en vaciarse, casi la mitad que el grupo de control. Eso sí, un aviso para navegantes: es un maestro aliviando la náusea, pero si el vómito ya ha empezado, su efecto es mucho menor.

No es una solución «mágica» para todo. A pesar de su auge en redes sociales como TikTok bajo etiquetas como #GutHealth, los expertos advierten:

  • Cuidado con el Ginger Ale: el Dr. Forman advierte en el Post que la mayoría de los refrescos de jengibre comerciales contienen jarabe de maíz y saborizantes artificiales, pero casi nada de jengibre real. Lo ideal es la infusión casera (rallando la raíz y hirviéndola 10 minutos).
  • No es un «detox» milagroso: no existen pruebas concluyentes de que los «chupitos» de jengibre en ayunas desintoxiquen el cuerpo o adelgacen por sí solos sin una dieta equilibrada.
  • Interacciones peligrosas: debido a que el jengibre inhibe la agregación plaquetaria, no debe combinarse con anticoagulantes como la warfarina, ya que eleva el riesgo de hemorragias.

Ciencia y naturaleza, de la mano. El jengibre ha dejado de ser un simple remedio casero para convertirse en una «opción complementaria de apoyo basada en evidencia. Si bien no debe sustituir el tratamiento médico en casos graves, la ciencia confirma que este rizoma es uno de los pocos «superalimentos» que realmente honra su nombre, ofreciendo una solución de bajo costo y alta eficacia para mejorar la calidad de vida diaria.

Imagen | Unsplash

Xataka | Hay gente tomándose un «chupito» de vinagre de manzana por las mañanas. La ciencia tiene una opinión al respecto


La noticia

Llevamos 2.500 años usando el jengibre como medicina. La ciencia acaba de darnos la razón

fue publicada originalmente en

Xataka

por
Alba Otero

.

Hard Zone : Hardware, Reviews, Noticias, Tutoriales, Foros de ayuda – Este mini PC esconde un secreto: potencia de sobra para jugar a Fortnite y Valorant

Los mini PC se han convertido en uno de los dispositivos más deseados por muchas personas. Sus capacidades permiten a los usuarios tener un ordenador con las funciones de un sobremesa en un tamaño muy compacto. Esto permite tener modelos para gaming, para trabajar o estudiar, e incluso para usarlos como servidor. Y ahora podéis encontrar uno para todos estos usos con un gran descuento.

La mayor ventaja que ofrece un ordenador está en su versatilidad. A diferencia de otros dispositivos, la compatibilidad que tienen combinada con la capacidad de modificarlo hace que en cualquier momento el usuario pueda mejorar su rendimiento. En el caso de los mini PC encontramos que tan solo ofrecen algunas partes intercambiables, como sucede con la memoria RAM y las unidades de almacenamiento.



Compra en Amazon tu NiPoGi E3B


Por este motivo si estamos buscando un modelo que sea capaz de ejecutar un sistema operativo pesado como Windows y permita lanzar aplicaciones exigentes, es necesario elegir una versión con un procesador avanzado. Estos ordenadores suelen tener precios bastante altos, pero gracias a los descuentos y cupones que tiene actualmente el modelo E3B de NiPoGi, no hace falta gastar tanto dinero.

Este mini PC es ideal para trabajar, pero también te servirá para jugar a títulos competitivos

Cuando una persona escoge un mini PC frente a un modelo tradicional lo que busca es ahorrar el mayor espacio y dinero posible. Estas soluciones ofrecen dos ventajas, su tamaño y su bajo consumo de energía. Esto hace que sean ideales para trabajar o utilizarlos como un sistema que está encendido 24/7, es decir, como servidor casero.

Pero a su vez hay variantes que ofrecen una iGPU relativamente potente que también permite jugar. Este es el caso del E3B, un modelo creado por NiPoGi que ofrece un procesador Ryzen 7 7730U. Esta CPU se caracteriza por contar con unos gráficos integrados que permiten reproducir contenido multimedia a 4K, pero que tampoco se quedan cortos en ciertos juegos.

El mini PC NiPoGi E3B colocado junto a un monitor, un teclado y un ratón, ilustrando su reducido tamaño en un setup de trabajo real.
Gracias a su versatilidad, el equipo puede alimentar configuraciones de hasta tres monitores para máxima productividad. Fuente: NiPoGi.

En títulos como Valorant o League of Legends que tienen como principal característica su optimización, resulta sencillo superar los 120 FPS con los gráficos al mínimo. Por otra parte en otros juegos que son un poco más exigentes como Counter-Strike 2 o Fortnite, es capaz de mantener 60 FPS estables.

Pero como hemos comentado al principio, aunque el hecho de poder jugar a ciertos títulos es algo a tener en cuenta no es su uso principal. Este modelo está diseñado con 32 GB de RAM y 1 TB de almacenamiento para ofrecer la capacidad de ejecutar una gran cantidad de aplicaciones de forma simultánea, haciendo que sea una opción ideal para productividad



Compra en Amazon tu NiPoGi E3B


Su conectividad se centra en ofrecer hasta 3 monitores gracias a un puerto HDMI 2.0, un DisplayPort 1.4 y un Tipo-C (DP Alt). Además cuenta con otros seis puertos USB-A, dos de ellos USB 3.2 Gen 2 y el resto Gen 1. También ofrece un puerto Ethernet RJ45 con 1 Gbps de velocidad máxima, además de contar con una conexión inalámbrica a través de WiFi 6.

Por último, hay que destacar que podéis aprovechar el cupón que tiene actualmente en Amazon para reducir su precio 100€ adicionales.

Xataka – En 1976 Boston levantó su rascacielos más alucinante. Hasta que sus cristales se convirtieron en guillotinas letales

En 1976 Boston levantó su rascacielos más alucinante. Hasta que sus cristales se convirtieron en guillotinas letales

La John Hancock Tower se concibió a finales de los años 60 como el gran golpe de autoridad del Boston moderno: un rascacielos minimalista, elegante y casi “invisible”, diseñado para reflejar el cielo con enormes paños de vidrio azul ligeramente tintado, con mullions reducidos al mínimo y sin elementos que rompieran su pureza, rematado por una planta que afilaba visualmente las esquinas y una hendidura vertical que estilizaba aún más la masa. 

Pero había un fallo gordo.

El sueño modernista de una aguja de cristal. El rascacielos era el tipo de edificio que quería parecer inevitable, como si siempre hubiera estado allí, y que al mismo tiempo debía demostrar que la «arquitectura corporativa» podía ser una pieza de arte urbano. 

Dicho de otra forma, se buscaba una clara ambición estética, pero implicaba un riesgo enorme: apostar todo al vidrio y a la precisión geométrica, donde cualquier fallo deja de ser un defecto y se convierte en un espectáculo peligroso.

El primer choque de realidad. Desde el principio, el proyecto vivió bajo el foco porque se levantaba en el barrio de Back Bay y muy cerca de Trinity Church, un hito histórico que ya tenía un peso simbólico y emocional en la ciudad, y que amenazaba con quedar dominada por la sombra y la presencia del nuevo coloso. 

Hubo protestas y ajustes de diseño, pero el verdadero conflicto no tardó en llegar por debajo del suelo: la excavación y los muros de contención temporales se deformaron y cedieron ante los rellenos de barro y arcilla característicos de la zona, dañando aceras, servicios e incluso edificios cercanos. Trinity Church acabó reclamando y ganó una indemnización millonaria, y el rascacielos, antes incluso de existir, ya era visto como una obra demasiado ambiciosa para el terreno que la soportaba.

El escándalo de los cristales. El episodio que convirtió la torre en leyenda negra de la arquitectura ocurrió cuando aún estaba inacabada: con los vientos de Boston, los paneles empezaron a agrietarse y a desprenderse, y los fragmentos de cristal comenzaron a caer a la calle como una especie de lluvia letal

Las autoridades llegaron a acordonar zonas y cerrar calles cuando el viento subía, y la imagen del edificio “brillante” quedó sustituida por otra mucho más humillante: ventanas tapadas con planchas de madera contrachapada, una torre parcialmente vendada en pleno centro, que se ganó apodos como “Plywood Palace” y bromas como la de “el edificio de madera más alto del mundo”. En un rascacielos que pretendía representar control absoluto, el fallo no era solo técnico: era un golpe reputacional directo, uno donde el símbolo de su modernidad (el vidrio) se había vuelto un meme y una amenaza..

Por qué falló. Al principio se sospechó del viento como actor principal, del efecto de succión y canalización alrededor del edificio, y se revisaron pruebas en túneles de viento con maquetas del entorno, pero el núcleo del problema estaba en la propia ventana. 

Al parecer, el sistema era demasiado rígido: la capa reflectante y su unión con el marco metálico no permitían la flexión, y en una estructura sometida a vibraciones, oscilaciones y ciclos térmicos continuos, esa falta de “juego” se convirtió en el mecanismo de rotura. Las tensiones se transmitían al cristal en vez de absorberse, las grietas se propagaban, y el resultado era inevitable: paneles enormes y pesadísimos, de cientos de kilos, fallando de manera repetida hasta que se asumió lo impensable en un icono corporativo recién nacido: había que reemplazarlos todos.

The John Hancock Building Conceived As A Bright Windowed Dream Of A Skyscraper Has Become A Broken Windowed Nightmare Nara 550007 2

La torre en el momento en que las ventanas que se habían caído fueron reemplazadas por madera contrachapada

El remedio caro. La solución fue impactante: retirar y sustituir la totalidad del acristalamiento por otro más robusto, templado y tratado térmicamente, en una operación que costó varios millones y que alargó el calvario durante años. El proyecto, anunciado con grandeza y presupuestos razonables, acabó convertido en una espiral de retrasos: la inauguración se pospuso, los números se dispararon y la torre pasó de promesa a bochorno público. 

Aun así, el reemplazo masivo de los cristales era la única salida, porque no se trataba de arreglar unas cuantas piezas defectuosas, sino de corregir una idea de fachada que había nacido con una fragilidad estructural incompatible con el clima y las cargas reales de Boston.

John Hancock Tower Blue Hour

El edificio en la actualidad

El giro final. Y cuando parecía que lo peor ya había ocurrido, llegó el golpe más inquietante: cálculos posteriores sugirieron que, bajo ciertos patrones de viento, el edificio podía tener un problema de estabilidad más serio de lo que se asumía, con torsiones no previstas y un comportamiento peligroso en sus lados más estrechos. La torre, además, se movía lo suficiente como para causar mareo a los ocupantes en plantas altas. La ciudad descubrió que la belleza del minimalismo tenía un precio físico. 

La respuesta fue doble: por un lado, instalar un enorme sistema de amortiguación con masas sintonizadas, dos pesos gigantescos montados con muelles y amortiguadores para oponerse al vaivén y “devolver” al edificio a su centro. Por otro, reforzar con toneladas de arriostramiento diagonal de acero. Fue, en esencia, reingenierizar un icono ya construido para que siguiera en pie con la dignidad que se había prometido desde el primer render.

La paradoja: de vergüenza a objeto de deseo. Lo más fascinante es que, tras un comienzo tan desastroso, la torre terminó consolidándose como una pieza admirada y reconocida, hasta recibir premios de prestigio y convertirse en un elemento inseparable del skyline de Boston. Como contaban entonces los expertos en arquitectura, fue el tipo de redención que solo ocurre cuando un edificio sobrevive a su propia crisis: el público acaba recordando su silueta y su reflejo, no el pánico de las calles cerradas ni las planchas de madera cubriendo el vidrio ausente.

La Hancock pasó de ser una lección histórica para la arquitectura moderna (un recordatorio de que la estética no negocia con la física) a ser, precisamente por haber superado ese infierno técnico, una obra con cierto aura de resistencia, casi un monumento a la obsesión de arreglar lo irreparable.

One more thing. Con el tiempo, la torre mantuvo su lugar como el rascacielos más alto de Nueva Inglaterra, pero su historia siguió moviéndose en el terreno práctico del dinero, los inquilinos y la identidad: cambios de propiedad, operaciones multimillonarias, refinanciaciones y hasta la pérdida oficial del nombre cuando expiró el acuerdo ligado a la compañía que lo bautizaba, quedando rebautizada por su dirección como 200 Clarendon Street

Incluso la idea romántica del mirador público acabó cerrándose tras el 11-S y nunca volvió del todo a su función original, recordando que los edificios no son solo formas en el cielo, sino organismos sometidos a seguridad, contratos, economía y usos cambiantes. 

Pese a todo, su silueta sigue ahí, devolviendo el cielo a Boston como un espejo perfecto, y como si la ciudad hubiera aceptado una conclusión extraña, pero de lo más humana: a veces, los iconos no nacen de la perfección, sino de haber sobrevivido a su propio desastre.

Imagen | Bobak Ha’Eri, Tim Sackton 

En Xataka | Un error de cálculo convirtió un rascacielos de Londres en una sauna letal. Hacía tanto calor que los coches se derretían

En Xataka | Hace 50 años un alemán inició un paraíso futurista en Lanzarote. Nadie imaginó que acabaría siendo la ruina más famosa de la isla


La noticia

En 1976 Boston levantó su rascacielos más alucinante. Hasta que sus cristales se convirtieron en guillotinas letales

fue publicada originalmente en

Xataka

por
Miguel Jorge

.

Xataka – Hay una nueva guerra espacial en ciernes: quién pone más centros de datos en órbita

Hay una nueva guerra espacial en ciernes: quién pone más centros de datos en órbita

El mapa de los centros de datos del mundo evidencia que no existe un internet descentralizado y que están proliferando como setas. De hecho, el planeta Tierra se ha quedado corto y las big tech ya tienen la mirada puesta en el cielo para plantar un centro de datos en el espacio por cuestiones como la demanda energética, el impacto ambiental y, por qué no decirlo, para esquivar la regulación

La «panacea» del espacio. Frente a la amenaza de un consumo energético similar al de Japón en 2030, según datos de la Agencia Internacional de la Energía o la brutal densidad del «Data center Alley» en Loudon, en el norte de Virginia, con cerca de 250 instalaciones operativas, el espacio vislumbra posibilidades de contar con satélites dotados de paneles solares que capten la energía directamente del sol, la disipación térmica en el espacio y la ausencia de limitaciones de terreno.

Ya queda menos. Para que sea viable falta al menos una década, como estima el profesor investigador de la Universidad de Florida Central y antiguo miembro de la NASA Phil Metzger. Sin embargo, una cosa es que económicamente salgan las cuentas y otra que tecnológicamente haya que esperar tanto. 

Según Josep Jornet, profesor de ingeniería informática y eléctrica en la Universidad Northeastern e investigador de satélites, en apenas un par de años empezaremos a ver pruebas. Y lo tiene claro: el espacio es la próxima frontera a conquistar: «Hubo una fiebre del oro en el Oeste. Ahora hay una carrera espacial y todo el mundo quiere colocar su tecnología en el espacio». 

Dinero a espuertas. El científico catalán tiene claro que las empresas tienen incentivos para moverse con rapidez e invertir para ponerse en cabeza para dominar la carrera de la IA en general y del espacio en particular: «Todo el mundo quiere decir que tiene la primera plataforma que alcanza este hito (…)Así que las empresas están gastando dinero como si no hubiera un mañana».

No obstante, Google, SpaceX y Blue Origin ya están trabajando en desarrollar tecnologías para tal fin y no son las únicas:

  • SpaceX. A finales de año el Wall Street Journal destapaba el plan de la empresa de Elon Musk para materializar los centros de datos en el espacio. Su CEO explicó en un tuit cómo lo haría: «Bastará con escalar los satélites Starlink V3, que tienen enlaces láser de alta velocidad». Más concretamente, están trabajando en modificar y mejorar sus cohetes para hacerlos capaces de alojar cargas de computación para la IA.
  • Blue Origin. El medio estadounidense también ponía sobre la mesa el proyecto de Jeff Bezos, que en su momento reveló en la Italian Tech Week que es cuestión de tiempo que veamos «clústeres gigantes de entrenamiento» de IA en órbita en los próximos 10 o 20 años. La empresa tiene un equipo dedicado a desarrollar la tecnología requerida para los centros en el espacio.
  • Google. El pasado mes de noviembre la empresa de Mountain View habló de su proyecto experimental Project Suncatcher: en 2027 y con la colaboración de Planet Labs lanzarán dos satélites de prueba con sus propios chips de procesamiento de IA.
  • Otras. Hay otras corporaciones más pequeñas trabajando en este área. La más destacable es StarCloud, una startup respaldada por NVIDIA que hace unas semanas lanzó un satélite con una NVDIA H100. Esta GPU se usa para ejecutar una versión Gemma, el modelo de lenguaje abierto de Google.

Hace falta energía (y saber aprovecharla). Aunque ya se han sentado las bases, el camino no es cuesta abajo precisamente. Jornet detalla que unos de los grandes obstáculos será disponer de suficiente energía para que estos centros de datos orbitales puedan funcionar:

«El Sol puede ser una gran fuente de energía, pero para aprovecharlo adecuadamente los centros de datos en órbita necesitarían enormes paneles solares de kilómetros de longitud o una constelación de paneles más pequeños que podría sumar decenas de miles».

La vida en el espacio es dura. Hay más melones por abrir, como por ejemplo cómo soportarán los chips de IA la perniciosa radiación espacial, además de la disipación de calor y la refrigeración. En la Tierra se usan miles de litros de agua. En el espacio no hay esa opción y aunque las temperaturas son bajas, no hay aire para enfriar los chips de forma natural. 

La factura a la Tierra. Incluso obviando el impacto ambiental en el espacio, también deja su huella en la Tierra. Al menos, a corto plazo: los lanzamientos de cohetes no solo supone consumo de combustibles fósiles, sino que dañan los ecosistemas y los animales del entorno, como sucede en Cabo Cañaveral, que ahora alberga unos 80 lanzamientos al año.

En Xataka | La verdadera razón por la que Musk, Bezos y Pichai quieren construir centros de datos en el espacio: saltarse la regulación

En Xataka | El problema de los centros de datos no es que se estén quedando sin agua o energía: es que se están quedando sin cobre

Portada | Pixabay 


La noticia

Hay una nueva guerra espacial en ciernes: quién pone más centros de datos en órbita

fue publicada originalmente en

Xataka

por
Eva R. de Luis

.

Xataka – Creíamos que EEUU se enfrentaba a un gran problema de escasez de energía para la IA. Los datos dicen lo contrario

Creíamos que EEUU se enfrentaba a un gran problema de escasez de energía para la IA. Los datos dicen lo contrario

Para ganar la carrera de la IA se necesitan varias cosas, pero hay dos muy importantes. La primera, tener la mejor tecnología y los mejores chips. La segunda, tener energía suficiente para alimentar esos chips. EEUU tiene lo primero, pero todo apuntaba a que tenía un gran cuello de botella energético. Eso ya no está tan claro. 

China tiene energía de sobra. La visión estratégica de China, que una vez más lleva décadas invirtiendo en el ámbito energético, está dando frutos y el país dispone de un margen de maniobra notable en cuanto a suministro energético. Ese es un factor que parece desequilibrar la balanza a su favor: Jensen Huang, CEO de NVIDIA, ya avisó de que China puede ganar la carrera de la IA. Según él, China tiene una regulación más flexible y sus empresas cuentan con subsidios del gobierno para la energía que necesitan sus centros de datos.

Pero es que EEUU tiene otra filosofía. Un profundo estudio de la startup Epoch AI —responsables del benchmark de IA FrontierMath— sirve como contrapunto de esas teorías pesimistas. En los últimos meses hemos visto cómo EEUU parece tener un verdadero problema con la energía que necesitan los centros de datos de IA. 

China Eeuu Energia

China no ha parado de incrementar su capacidad de generación energética, pero EEUU no por una sencilla razón: hasta ahora no la necesitaba. Fuente: Epoch AI.

Sin embargo en Epoch AI explican que no es que EEUU no sea capaz de crear más capacidad energética: simplemente no la ha necesitado hasta ahora. Mientras que China se ha preparado para el futuro —incluso si ese futuro no llega—, EEUU ha mantenido una actitud más conservadora: mientras no hubiera demanda, no movería ficha. La pregunta inmediata, por supuesto, es si podrá moverla ahora o es demasiado tarde. Y no, no parece que lo sea.

Energia Eeuu

Previsión de capacidad energética necesaria para los centros de datos en EEUU hasta 2030 según distintos escenarios. En el peor de todos ellos (color rosa), se necesitarán casi 80 GW de capacidad. Fuente: Epoch AI.

La demanda va a ser enorme. Hay una realidad: esos ambiciosos planes para crear más y más centros de datos por todo EEUU —con el Project Stargate a la cabeza— provocarán que los centros de datos en el país necesiten entre 30 y 80 GW de capacidad energética en 2030. Para los responsables del estudio es perfectamente posible que EEUU «se ponga las pilas» —nunca mejor dicho— y logre aumentar su capacidad energética. ¿Cómo? Varias opciones. 

EEUU tiene margen de maniobra. Para poder suministrar toda esa energía que teóricamente van a necesitar todos esos centros de datos hay varias alternativas claras según el estudio de Epoch AI:

  1. Gas natural: es relativamente barato y las centrales se pueden construir rápidamente. Hay tres grandes empresas que pueden cubrir dicha demanda: GE Verona, Mitsubishi Heavy y Siemens. Los planes de todas ellas apuntan a una producción superior a los 200 GW en 2030. Aun no cumpliéndolos, ese suministro (sin estar totalmente dedicado a la IA) ya sería parte importante de la solución.
  2. Energía solar: la otra gran parte de la solución, sobre todo porque sus costes han caído drásticamente y porque es muy, muy escalable. Ya vimos cómo EEUU tiene capacidad para instalar 1.200 GW solares para IA gracias a sus desiertos, pero de momento las Big Tech no se atreven a usarlos. De nuevo las estimaciones apuntan a unos 200 GW de capacidad instalada en 2030, pero aun sin cumplirse esas expectativas, esta infraestructura también formará parte clara de la solución.

Flexibilidad energética. En el informe se habla además de una filosofía dinámica de suministro. La mayor parte del tiempo la red eléctrica de EEUU está sobredimensionada por una simple razón: está creada para poder suministrar energía en picos máximos —como cuando todo el mundo enciende el aire acondicionado— pero la mayor parte del tiempo hay energía de sobra incluso para cedérsela a grandes centros de datos de IA. Esa futura infraestructura deberá crearse con esa misma idea: sobredimensionada, pero flexible.

Y hay otras alternativas. El país está recurriendo a soluciones energéticas que creía enterradas para alimentar los centros de datos. Entre ellas están las centrales fósiles que teóricamente iban a cerrar pero que están volviendo a operar ante el asombroso incremento de la demanda. También se habla de acudir a soluciones del ámbito militar e incluso a alternativas más insólitas, como la energía bajo los volcanes. Por no hablar, por supuesto, de las centrales nucleares y de los pequeños reactores nucleares (SMR) que están ya siendo utilizados por algunas de las Big Tech para sus centros de datos. 

Cuidado con la factura de la luz. La realidad es que en el país norteamericano los centros de datos están creciendo más rápido que la infraestructura eléctrica, y dichas instalaciones están drenando la electricidad del país. La situación está provocando incluso que los operadores de la red eléctrica pidan poder apagar los centros de datos en momentos de alta demanda. Y luego está el otro gran efecto colateral: los centros de datos de IA están disparando la factura de la luz.

Captura De Pantalla 2026 01 12 A Las 12 35 15

A la hora de poner en marcha un centro de datos de IA, la energía cuesta una décima parte de lo que cuestan los chips. Fuente: Epoch AI.

No parece haber problema. Aun con todos esos obstáculos, la conclusión de Epoch AI es clara: «dudamos que estos retos sean suficientemente importantes para impedir el escalado de la IA». De hecho, recuerdan que en realidad lo que es caro son los chips, no la energía, que supone una décima parte de la inversión en chips. El informe concluye que eso de que China tenga ventaja no es necesariamente cierto, y que el hipotético cuello de botella energético de EEUU «es mucho más débil de lo que mucha gente ha indicado». 

Imagen | Andrey Metelev

En Xataka | La inteligencia artificial ya ha llegado a las centrales nucleares. Y va a cambiarlas para siempre


La noticia

Creíamos que EEUU se enfrentaba a un gran problema de escasez de energía para la IA. Los datos dicen lo contrario

fue publicada originalmente en

Xataka

por
Javier Pastor

.