Buscar:

Xataka – El día que la URSS se adelantó a EEUU y puso el primer rover en Marte, pero todo salió mal

La carrera espacial era mucho más que intentar ser la primera potencia global en enviar satélites a la órbita terrestre o explorar la Luna. Se trataba de una auténtica contienda por la exploración del espacio que se había convertido en el eje de la rivalidad tecnológica y cultural entre Estados Unidos y la Unión Soviética.

Como muchos de vosotros ya sabéis, la URSS se convirtió en el primer país en lanzar exitosamente un satélite artificial. Aquello ocurrió el 4 de octubre de 1957 con el Sputnik 1, pero solo tres años después, con los primeros avances tecnológicos de la época, los soviéticos ya habían fijado sus ojos en Marte y empezaban a enviar sus primeras misiones.

Entre 1960 y 1962, la URSS lanzó cinco sondas a bordo a cohetes Molniya con destino a Marte, como refleja esta recopilación de la NASA. Todas fracasaron y algunas ni siquiera pudieron alcanzar la órbita terrestre. En principio estos intentos se realizaron en completo secreto, por lo que el administrador de la NASA, James Webb, le dijo al Congreso que creía que la URSS estaba tratando de enviar misiones al planeta rojo.

Estados Unidos se fija en Marte y acelera

La respuesta de Estados Unidos no tardó en llegar. El país añadió a su lista de prioridades a Marte y en 1964 lanzó la sonda Mariner 3 a bordo de un cohete Atlas LV-3 Agena-D. Pese a que el lanzamiento había sido exitoso, se presentó un problema en la fase de separación y no pudo cumplir su objetivo.

No obstante, solo 23 días después, la agencia espacial estadounidense volvió a intentarlo. Esta vez con la Mariner 4. La misión fue un éxito. Alcanzó la órbita de Marte y capturó las primeras 21 fotografías del planeta, explica la agencia estadounidense.

La URSS estaba quedándose atrás. El 28 de noviembre lanzó la sonda Zone 2, también con un Molniya, pero una vez más fallaron, esta vez por un problema con las comunicaciones. Unos cinco años más tarde, EEUU lanzaba la Mariner 6 con éxito y enviaba a Tierra otras 75 imágenes de nuestro planeta vecino.

Mientras que EEUU mantenía una buena racha de lanzamientos, hasta un problema con la Mariner 8 en 1971, la URSS estaba perdiendo esta partida. ¿Como sacar ventaja? Tomar imágenes desde la órbita marciana ya no era suficiente, había que aterrizar en el planeta de alguna u otra forma.

Así, los soviéticos actualizaron su programa para alcanzar a EEUU, pero claro, antes de aterrizar en un planeta, obligatoriamente debe se estudiado desde su órbita para no hacer una misión a ciegas. Con intentos fallidos de por medio, la URSS consiguió llegar a la órbita de Marte y más tarde en enviar en alcanzar la superficie del planeta.

Concepto de Mars 3 en el Museo Conmemorativo de la Cosmonáutica en Rusia

Una sonda llamada Mars 2 fue la primera en tocar la superficie del planeta rojo, pero de forma descontrolada. El aterrizaje falló, los aparatos terminados destruidos. Con las misiones anteriores habían llegado a la conclusión de que aterrizar en Marte era mucho más difícil de lo que imaginaban, principalmente por su atmósfera delgada y tormentas de polvo. Aún así había que intentarlo, los soviéticos estaban convenidos de que su tecnología podía llegar a triunfar.

El 28 de mayo de 1971 lanzaron Mars 3. Un cohete Proton-K se elevó con un orbitador y módulo de aterrizaje con un pequeño rover de 4,5 kg a bordo. Después de un largo viaje, el 2 de diciembre de 1971 el módulo de descenso se enfrentaba a los minutos de terror del aterrizaje en la atmósfera marciana y, mediante el frenado aerodinámico, paracaídas y retrocohetes, conseguía aterrizar suavemente.

En ese momento se estaba produciendo un hecho histórico. Por primera vez en la historia una sonda había aterrizado con éxito en Marte. Una sonda equipada con dos cámaras con visión de 360 grados para capturar el paisaje marciano, un espectrómetro para estudiar la composición atmosférica, sensores de temperatura, presión y viento, una pala mecánica para buscar señales de vida en la tierra y el rover que se movería por la superficie conectado por un cable de 15 metros a su nave nodriza.

Además de asestar un golpe de martillo en la carrera espacial, la URSS veía un mar de posibilidades científicas, es que ningún otro país en el mundo podía recoger los datos de este planeta vecino porque simplemente no habían llegado allí. No obstante, aquella victoria duró apenas unos segundos. Una vez que el módulo de aterrizaje del Mars 3 aterrizó, empezó a transmitir, pero tras 20 segundos se quedó en silencio.

La única imagen enviada por Mars 3 en Marte

La pérdida de conexión fue total y desde aquel entonces no se volvió a saber de los elementos en tierra marciana de Mars 3. Se desconoce hasta la actualidad si la falla se originó en el módulo de aterrizaje o en el sistema de comunicaciones del orbitador. Algunos expertos creen que una fuerte tormenta podría haber dañado el hardware de comunicación.

Aquella cámara de 360 grados no pudo brillar, como podemos ver en la captura publicada por The Planetary Society. Según VG Perminov, autor del libro ‘El difícil camino a Marte‘, la imagen llegó incompleta y era «un fondo gris sin detalles». El orbitador de Mars 3, aunque sufrió unos desperfectos, permaneció en la órbita marciana capturando y enviando casi 60 imágenes a la Tierra.

La URSS lo siguió intentando. Habían estado muy cerca. El sistema de descenso que habían desarrollado funcionaba. ¿Qué más podría salir mal? Después de todo no siempre hay tormentas en Marte. Se enviaron otras misiones Mars. Mientras que los orbitadores, por lo general, funcionario bien, los módulos de aterrizaje no pudieron volver a tocar el suelo marciano.

Por los siguientes años la NASA también envió sondas Mariner, pero para orbitar el planeta rojo. Y no fue hasta 1975 cuando finalmente Estados Unidos pudo aterrizar en Marte con la sonda Viking en una misión que duró hasta 1980. El módulo estadounidense fue diseñado para capturar imágenes de alta resolución de la superficie marciana, analizar la estructura y composición de la atmósfera y buscar evidencia de vida.

Imágenes | Take on Mars | The Planetary Society | NASA


La noticia

El día que la URSS se adelantó a EEUU y puso el primer rover en Marte, pero todo salió mal

fue publicada originalmente en

Xataka

por
Javier Marquez

.

Xataka – La carga rápida ha mejorado a velocidad de vértigo: así está la batalla por cargar el móvil en el menor tiempo posible

En un par de años la carga rápida de los móviles ha multiplicado su velocidad. Lo que hasta hace poco eran promesas de los distintos fabricantes, ahora ya tenemos móviles que se pueden cargar en poco más de 10 minutos. Y una vez lo pruebas es difícil volver atrás. Aquello de dejar cargando el móvil toda la noche puede ser pronto cosa del pasado. En los últimos modelos de fabricantes como Xiaomi o Realme ya es posible tener esta carga rápida, pero las marcas todavía tienen mucho que ofrecernos.

Aquí repasamos el estado de la carga rápida, cuáles son los mejores móviles en este aspecto y qué tiempos nos prometen. Un repaso a las tecnologías de carga rápida que están pronto por llegar y cuáles ya están disponibles en móviles reales que cualquier usuario interesado puede comprar.


Leer más

Xataka – Pekín quiere más agua. Su solución: un túnel de hasta mil metros de profundidad que enlaza con un canal de 1.400 km

Si algo ha demostrado China a lo largo de los últimos años es que le chiflan las infraestructuras formato XXL. El país de la Gran Muralla lo es también el de los puentes imposibles, las centrales eléctricas de infarto y los grandes rascacielos. Incluso los derribos se hacen allí a lo grande.

Ahora el Gigante Asiático quiere construir una nueva estructura que dará todavía más lustre a ese listado titánica: un túnel kilométrico que permitirá completar un sistema de canalización para llevar agua desde la presa de las Tres Gargantas —otra de sus grandes hazañas técnicas— a Pekín, dos puntos separados por más de mil kilómetros de distancia. Y eso, ojo, en línea recta.

Los planes del Ejecutivo los ha desvelado el diario South China Morning Post y apuntan a un auténtico despliegue de virguería hidrológica. La idea es construir un enorme túnel entre la presa de las Tres Gargantas y el río Han, un importante afluente del Yangtsé. Cuando el agua haya alcanzado el embalse de Danjiangkou, localizado en el curso bajo del Han, continuará su viaje rumbo a la región septentrional del país, hacia la capital, a través de un canal abierto.

El periódico hongkonés no aporta demasiados detalles sobre el tramo subterráneo, pero sobre el mapa al menos las Tres Gargantas y Danjiangkou están separadas por unos 200 kilómetros.

Redistribuir el agua del país

Río Yangtze.

La Agencia EFE sí desvela algún dato a mayores. Según la información que maneja, el conducto soterrado —bautizado Yinjianguhan— tendrá unas medidas que pondrán a prueba el ingenio chino: 194,8 km de largo con una profundidad que, en ciertos segmentos, llegará a casi mil metros.

A modo de orientación, South China Morning Post detalla que en la actualidad el túnel de suministro de agua más largo del mundo es el Päijänne, en Finlandia, con una extensión de 120 kilómetros en lecho rocoso y hasta 130 metros de profundidad. «El de Yinjiangbuhan tiene aproximadamente el doble de largo y algunas partes se adentrarán hasta 1.000 metros bajo tierra», acota.

Para dar forma a la estructura China necesitará aproximadamente nueve años de obras e invertir alrededor de 60.000 millones de yuanes, unos 8.700 millones de euros.

Después de cubrir la distancia que separa la presa de las Tres Gargantas del embalse de Danjiangkou, el agua tendrá que curbir aún la segunda parte de su largo viaje: se canalizará a través de la línea media del Proyecto de Desvío de Agua de Sur a Norte para proseguir rumbo al norte del país, un canal al aire libre de alrededor de 1.400 kilómetros hasta la capital China.

“El túnel de Yinjiangbuhan establecerá una conexión física entre la presa de las Tres Gargantas y el Proyecto de Desvío de Agua de Sur a Norte, dos infraestructuras críticas para China”, señala el presidente del Instituto de Exploración y Estudios de Changjiang, Niu Xinqiang.

El proyecto Sur-Norte es una mega estructura que China puso sobre la mesa hace décadas con el propósito de tomar agua de los ríos de la región meridional y surtir a las áridas áreas septentrionales. Para lograrlo se divide en tres líneas: la oriental, occidental y central. De todas, la más estratégica quizás sea la última, que arranca en Danjiangkou, en la provincia de Hubei, y transcurre rumbo noroeste hasta alcanzar Pekín y Tianjin. Empezó a suministrar agua ya a finales de 2014.

¿Por qué semejante esfuerzo? ¿Qué persigue China con obras titánicas que requieren además un despliegue notable de recursos? En resumen: una distribución más equilibrada de los recursos hídricos de la que tiene de forma natural el país, en el que es habitual que el este y sur padezcan inundaciones mientras el área occidental y septentrional se ve limitado por la falta de agua.

Se calcula que si se sumasen todos los túneles y canales que China está construyendo o ha proyectado para el desvío de agua se obtendría una vasta red de 20.000 kilómetros, una enorme y sobre todo costosa maraña con la que China quiere potenciar su sector primario: con ellos espera aumentar su producción anual de alimentos en más de 540 millones de toneladas.

La meta del nuevo túnel sería precisamente esa: impulsar la producción de alimentos y la economía.

Imágenes | Rehman, Hugh Llewelyn (Flickr)


La noticia

Pekín quiere más agua. Su solución: un túnel de hasta mil metros de profundidad que enlaza con un canal de 1.400 km

fue publicada originalmente en

Xataka

por
Carlos Prego

.

Xataka – Gastar cero de luz y tenerlo todo encendido: así me monté mi propia instalación solar (con consejos y recomendaciones)

Así me monté mi instalación solar doméstica para generar mi propia electricidad: consejos, recomendaciones y guía de compra

A Iván Linares le gusta cacharrear con teléfonos móviles y tecnología variada, pero ya no se preocupa por su factura de la luz ni para cargarlos (honestamente, no consumen mucho, pero todo suma) ni cuando enciende el aire acondicionado para teletrabajar en estos tórridos días de verano. El editor de Xataka Android y Xataka Móvil decidió hace unos meses dar el paso e instalar placas solares para autoconsumo en su casa.

Esta es su experiencia, los retos a los que se enfrentó y los resultados. Si estás pensando en minimizar tu dependencia de las tarifas de las comercializadoras de electricidad o simplemente buscas información para montar tu kit para una finca rural o incluso para una caravana, aquí encontrarás recomendaciones y consejos de compra. Leer más

Xataka – Hay empresas intentando reinventar uno de los mejores inventos de la historia humanidad: el helado

Cuentan que, de postre, Alejandro Magno solía tomar nieve mezclada con miel; pero la historia del helado (bueno, del ‘hielo con cosas’) es mucho más antigua. Allá donde hubo una civilización con acceso a la nieve o el hielo, allá tenemos noticias de su consumo mezclado con jugos, frutas o cosas así.

No obstante, el boom del helado (sabiamente refinado durante siglos por los italianos) vino con el boom de las tecnologías de refrigeración: llevamos 75 años comiendo helados industriales, sí; se trata de, posiblemente, el postre congelado más popular del mundo entero, también; pero nuestra historia con él no ha hecho más que empezar. O, al menos, eso piensan todas estas empresas.


Leer más

HardZone – Menos calor y menos ruido gracias a estos ventiladores silenciosos

Los usuarios cada vez más demandan sistemas silenciosos, sobre todo si se van a dedicar a crear contenido, ya sea grabado en video o en streaming. Para ello hemos estado buscando ventiladores altamente silenciosos que permitan refrigerar nuestro ordenador con la menor molesta posible. Todos ellos cumplen una serie de requisitos mínimos que hemos dispuesto para que se adapten a todos los usuarios.

Estos ventiladores elegidos tienen un nivel de sonoridad máxima de hasta 25 dBA, un valor basado en datos técnicos. Todos los ventiladores son de 120 mm, ya que podríamos decir que es el tamaño estándar que admiten todas las torres PC del mercado.

¿Qué hemos tenido en cuenta?

Como principal parámetro, como hemos indicado, es que el ventilador en cuestión no supere los 25 dBA como máximo. Dicho valor no es arbitrario, es el valor normalizado máximo de ruido de funcionamiento a nivel industrial por la noche admitido por la Unión Europea. No hemos aceptado ventiladores PWM cuyo valor máximo a plena velocidad está por encima de este valor.

Además, hemos considerado el tamaño de 120 mm únicamente por ser el tamaño estándar en la práctica mayoría de chasis del mercado. Si bien cada vez son más los que admiten ventiladores de 140 mm, está lejos de ser un estándar. Pero es que, además, hay muchos chasis que admiten menos ventiladores de 140 mm que de 120mm.

Dichos ventiladores tienen como característica común, velocidades máximas de funcionamiento reducidas. Este parámetro afecta directamente al flujo de aire y a la presión estática, que es menor a otros ventiladores. Pese a todo, si tenemos una torre de PC con frontal abierto y está situada cerca del suelo, no debería suponer mayor problema.

Ventiladores silenciosos recomendados

Estos ventiladores silenciosos que hemos elegido y que nosotros usaríamos en nuestros equipos. Son soluciones de marcas reconocidas y que cumplen de sobras con los requisitos establecidos.

Noctua NF-A12x15 PWM

No dejamos, de momento, al fabricante austriaco para traeros otra opción muy interesante. La gama chromax.Black es la adaptación de sus clásicos ventiladores a los diseños modernos. Han pintado sus clásicos ventiladores en negro, para hacerlos más «universales» que los productos de los colores típicos de la marca. Además, incluye soporte para el sistema de anclaje de colores que han creado para darles un poco más de colorido.

Sobre estos ventiladores, decir que son algo más potentes que los anteriores y más polivalentes. Tienen un sistema que permite dejar de operar para sistemas semipasivos, así que se apagan cuando no hay carga. La velocidad de rotación, al ser PWM, varía entre los 450 RPM y los 1850 RPM. Aumenta mucho la velocidad de rotación de estos ventiladores, pero la sonoridad máxima es de 23.9 dBA y tienen un consumo inferior a los 1.6 W.

Indicar, además, que estos ventiladores son de perfil delgado. Esto quiere decir que estos ventiladores son más compactos que otros modelos, con un grosor de tan solo 15mm. Sobre todo, es ideal para chasis de PC compactos.

Corsair ML120 Pro

No consideramos que necesite presentación este fabricante, que ofrece todo tipo de componentes y periféricos. Corsair durante años ha sido uno de los lideres en la industria de refrigeración, con productos de muy buena calidad. Dispone de iluminación, la cual podremos gestionar mediante el software propio de la compañía, el iCUE.

La verdad es que destaca por ser uno de los más potentes que hemos encontrado hasta el momento. Este opera entre los 400 RPM y los 1600 RPM, por lo que tendremos un enorme flujo de aire. La sonoridad está bastante bien conseguida, llegando a los 25 dB, justo en el margen que hemos seleccionado.

MARSGAMING MFXW

Dentro de todas las opciones que hemos visto, estos son los que más rompen con todo. Destacan, en primer lugar, por ser en color blanco, mientras que el resto o son de colores poco típicos o negros. Además, es de los pocos ventiladores silenciosos que hemos encontrado con iluminación.

Los ventiladores de Mars Gaming se caracterizan por un diseño con marco reducida e iluminación ARGB. Este modelo de ventilador es completamente blanco, ideales si te quieres montar una setup de este color. Pero, no todo es bonito en este ventilador y es que hace uso de un conector de tres pines, así que no ofrece soporte PWM. Tiene una velocidad de rotación fija de 1100 RPM, pero con una sonoridad bajísima, de tan solo 14 dBA. También destaca el consumo, que es de 1.8W, el mayor de todos los elegidos, algo que es debido a la iluminación que incluye.

Otros modelos interesantes

Hay otros ventiladores interesantes en el mercado que pueden ser interesantes y que, lógicamente, tienen una sonoridad inferior a los 25 dBA. Cualquiera de los que elijáis es una excelente opción, ya que son ventiladores de muy buena calidad y prestaciones.

Noctua NF-P12 Redux PWM

El fabricante austriaco es ampliamente reconocido en la industria por ofrecer de los mejores productos para refrigeración. Noctua suele ofrecer colores poco atractivos visualmente, pero su calidad es ampliamente reconocida. Si bien se ha empezado a abrir a otros colores, más allá de los clásicos tonos marrones y de los grises, sigue apostando por la calidad y obviar elementos que no aportan nada, como el RGB.

La gama Redux de Noctua se caracteriza por ser de muy buena calidad y sonoridad reducida. Todos los ventiladores de esta gama son de tonos grisáceos, de momento, la marca no los tiene en otros colores más «gaming».

Respecto a las características de este ventilador, como su nombre indica, es de formato PWM. Esto quiere decir que la velocidad de rotación varía según las necesidades de cada momento. Tiene una velocidad mínima de rotación de 300 RPM y llega hasta los 1300 RPM. Lo mejor es el nivel de sonoridad, que es de 19.8 dBA con un consumo de apneas 0.6W.

BeQuiet! Silent Wings 3 PWM

Vamos a otro fabricante de componentes reconocido, sobre todo por sus descomunales disipadores y sus excelentes fuentes de alimentación. Entre los productos que ofrece, tiene una gama de ventiladores de muy buena calidad y prestaciones. Destacar que hace muy poco han presentado los Silent Wings 4, pero que de momento son difíciles de encontrar en el mercado.

Estos ventiladores se caracterizan por tener un diseño especial de aspas para generar un buen vórtice de aire que ayude a refrigerar los componentes. Tienen estos ventiladores una velocidad de rotación de hasta 1450 RPM (no se indica el mínimo) con una sonoridad máxima de 16.4 dBA, que está muy bien. Una muy buena opción para refrigerar nuestro sistema de manera eficiente con baja sonoridad.

Noiseblocker NB-eLoop PWM

Marca poco conocida, pero lo que tiene a favor es que es de diseño alemán, algo que nos asegura bastante buena calidad. Algo por lo que destaca es que esta en negro o con chasis negro y aspas de color, eso a gusto de cada uno. Es una opción bastante interesante con bastantes buenas críticas en Amazon.

Dicho ventilador tiene un grosor de 25 mm, que es el estandar en la mayoría de ventiladores. Algo que juego a su favor es que es de tipo PWM, pudiendo funcionar entre los 400 RPM y los 1500 RPM. Tiene un nivel de sonoridad muy bajo debido a su diseño especial, llegando tan solo a los 14 dB, por lo que se convierte en una opción más que interesante.

No recomendamos comprar

Estos no son productos intrínsecamente malos, pero que nos dejan bastantes dudas o son productos poco interesantes. Sobre todo, estos ventiladores tienen la pega de carecer de soporte PWM, así que trabajan a una velocidad de rotación fija.

upHere 12BK3-3

Dentro de todas las opciones que tenemos, nos ha llamado la atención este kit de tres ventiladores. Parece que tiene bastantes buenas críticas en Amazon, aunque algunos usuarios se quejan que son más ruidosos de lo indicado. Lo bueno es que si no son lo que esperábamos podemos devolverlos sin mayores problemas.

Tenemos un kit de tres ventiladores de baja sonoridad, ideales para cualquier setup. Destacan estos tres ventiladores por ser completamente negros, siendo un diseño clásico, sencillo y que combina con cualquier hardware. Presentan un problema estos ventiladores y es que se basan en un conector de tres pines, así que solo pueden operar a una velocidad de rotación de 1200 RPM. Lo bueno es que tienen una sonoridad de tan solo 19 dBA y un consumo de 1.44 W, que no está nada mal.

Akasa Silent Blue

No es ni de lejos la opción que recomendaríamos, pero es económica y funcional. Para un viejo sistema o si montamos un NAS domestico con un ordenador antiguo, puede ser una buena opción. Tampoco presenta un diseño moderno, más bien recuerda a los primeros ventiladores destinados al modding.

Ofrece este ventilador de Akasa un conector de tres pines, por lo que no es de tipo PWM. Trabaja durante todo el tiempo a una velocidad de 1200 RPM, pero el nivel de sonoridad es bastante bajo, de tan solo 17.5 dBA. Si es cierto que tiene ciertas cosas que no lo hacen atractivo, como que sea de velocidad fija, pero es un ventilador muy económico, así que, puede ser una buena opción en un momento dado.

The post Menos calor y menos ruido gracias a estos ventiladores silenciosos appeared first on HardZone.

Xataka – Qué electrodomésticos y dispositivos desenchufar en vacaciones, y consejos de cuáles apagar y cuáles dejar encendidos

Vamos a explicarte de una manera sencilla qué hacer con tus electrodomésticos y dispositivos cuando te vayas de vacaciones, con consejos sobre cuáles desenchufar, cuáles desconectar o cuáles puedes dejar enchufados en diferentes contextos. Todo dependiendo del tipo de dispositivos que tengas en casa.

Para hacer esto, vamos a dividir el artículo en varias partes, y en cada una de ellas hablaremos de distintos tipos de electrodomésticos. De esta manera, podremos pararnos a hablarte de varios casos de uso o situación en algunos de ellos, de manera que puedas tomar una decisión informada dependiendo de tu caso.


Leer más

Xataka – La música se vive de otra manera en directo, y el porqué lo tiene la ciencia

La industria musical fue una de las que más sufrió durante la pandemia. Dos años de actividad intermitente entre ola y ola que limitaron la actividad a todas las escalas, desde las salas más pequeñas hasta los macrofestivales. La pandemia afectó a cómo disfrutamos de la música pero no nos quitó las ganas de disfrutarla en directo. Esto nos lleva a preguntarnos qué tiene la música en directo para que no podamos renunciar a ella.


Leer más

Xataka – La “Madre de todas las demos”: la increíble charla de hora y media de 1968 que adelantó cómo sería la informática moderna

En 90 minutos puedes ver una película, leerte unos cuantos capítulos de esa novela que empezaste el fin de semana, darte un buen paseo para desconectar o, si eres Douglas Engelbart, impartir una conferencia que anticipe los derroteros que seguirá la computación en lo que resta de siglo, un charla tan brutal, tan preclara, visionaria o directamente profética —¡La etiqueta es lo de menos!— que más de medio siglo después se recuerda aún como “La madre de todas las demos”.

90 minutos, eso es. Lo que lleva hacer un plum cake de chocolate.

En 1968 Engelbart, ingeniero del Stanford Research Institute (SRI), afrontaba un dilema. Si su carrera pudiese compararse con una partida de póquer podríamos decir que le había llegado el momento de marcarse un “all-in” de manual, jugársela e ir a por el todo o nada.

Junto a su equipo del Augmentation Research Center (ARC), en el SRI, llevaba ya unos cuantos años desarrollando el oN-Line System, un sistema que facilitaba el manejo de las computadoras e incluso el trabajo colaborativo. Entre otras herramientas, incorporaba recursos como los enlaces de hipertextos, interfaces gráfica de usuario o un hardware que simplificaba su uso.

Con la imagen de los mainframes mostrencos y las tarjetas perforadas aún en la pituitaria, el equipo de Engelbart se había consagrado a una meta ambiciosa: lograr una computación más asequible, sencilla y práctica que, en cierto modo, ayudase a expandir las capacidades humanas.

Jugársela al todo o nada

Y no les iba mal en el empeño. «En lugar de tarjetas perforadas, el On-Line System presentaba una pantalla similar a un radar con una interfaz gráfica de usuario (GUI) en la que el usuario manipulaba texto, símbolos y video en una serie de «ventanas» superpuestas. Por ejemplo, los usuarios pueden insertar, eliminar y mover texto dentro de un documento», señala el Smithsonian. La herramienta permitía incluso que varias personas trabajasen en un documento de forma simultánea.

Como parte de aquella peculiar cruzada a favor de la simplicidad informática, en Staford experimentaron también con hardware que le pusiese las cosas más fáciles a los usuarios.

En ARC tomaron forma, por ejemplo, un “teclado de acordes” que completaba el QWERTY, un lápiz óptico y varios prototipos de «mandos» para manejar el equipo, incluido uno que se controlaba con la rodilla y un bloque de madera provisto de cable y rueda que, dado su peculiar aspecto de roedor, acabó recibiendo el apodo de “mouse”. Sí, más o menos el Cromañón de los ratones que poco después incorporaban a sus computadoras Xerox y Apple y aún hoy utilizas con tu PC.

Todo aquello estaba genial, pero de fondo Engelbart y los suyos afrontaban un problema casi tan peliagudo como el desarrollo de nuevo hardware: ¿Cómo visibilizar semejante trabajo?

Al ingeniero del SRI y Bob Taylor, director de la Agencia para Proyectos de Investigación Avanzada (ARPA), uno de sus grandes apoyos financieros, se les ocurrió una solución. No era rompedora, ni siquiera medianamente original, pero podía funcionar: desplegar todo aquel bagaje en uno de los grandes escaparates del sector, la Fall Joint Computer Conference de finales de 1968.

Si salía bien podía suponer un campanazo. Si iba mal… Bueno, si la cosa se complicaba protagonizarían un sonoro batacazo profesional que desmerecería el trabajo que llevaban años realizando y, lo realmente peligroso, comprometerían cualquier financiación futura.

Así, sin presiones.

“Asumimos un riesgo inmenso”, recordaba tiempo después Engelbart.

Dispuestos a poner toda la carne en el asador, en marzo de 1968 solicitaron una sesión especial durante el congreso de San Francisco y la suerte quedó echada: su intervención se celebraría el 9 de diciembre de aquel mismo año en el Brooks Hall, un recinto con 2.000 asientos. El título de la charla avanzaba por dónde irían los tiros: «A Research Center for Augmenting Human Intellect«.

Hoy puede parecernos raro, pero para Engelbart y los suyos el desafío no consistía solo en jugársela a todo o nada, templar los nervios y pulir bien el mensaje. La propia conferencia representaba un reto tecnológico en sí misma. Si querían demostrar su capacidad y hasta qué punto resulta revolucionaria, no podían andarse con remilgos presupuestarios: era el momento de tirar la casa por la ventana.

De entrada el equipo necesitaba conectar el auditorio en el que intervendría Engelbart en diciembre, en San Francisco, con las propias oficinas del SRI en las que trabajaba su equipo y estaba el mainframe, una instalación situada en Menlo Park, a unos 48 kilómetros de allí.

Durante meses el equipo de ARC se dedicó a ensamblar la infraestructura, instalar cámaras en el SRI y el auditorio, antenas receptoras, transmisores, un enlace de microondas y un módem casero para que los comandos de la consola de Engelbart se transmitiesen a Menlo Park.

La factura que acabó desembolsando ARPA ascendió a 175.000 dólares, suma más que respetable para la época. Un despliegue de “virguerías” —entiéndase, era 1968— para que el ingeniero pudiese demostrar con apoyo de 17 compañeros del ARC qué era capaz de hacer el On-Line System.

Para el 9 de diciembre de 1968 el sistema estaba perfectamente calibrado. Y los nervios, claro, a flor de piel. A sus casi 44 años Engelbart se había curtido ya en empresas, la universidad, había dirigido su propio equipo e incluso participado en la Segunda Guerra Mundial; pero aquel día en San Francisco se sentía —lo reconocía él mismo— como si le llevaran los demonios.

“All-in”.

Hoy la grabación de la conferencia puede parecernos anticuada, antediluviana, igual que las que muestran a Neil Armstrong dando zancadas sobre la granulosa superficie de la Luna, pero lo que los coetáneos de Engelbart vieron con un asombro creciente fue un auténtico despliegue de genio.

A lo largo de 90 minutos en los que en la sala no se escuchaba otra cosa que sus explicaciones, el ingeniero habló de hiperenlaces, videoconferencias, documentos compartidos y trabajo colaborativo, interfaces gráficos basados en ventanas, procesador de textos o gráficos.

A modo de colofón incluso explicó —recuerdan en el National Museum of American History— que el SRI estaba a punto de convertirse en el segundo nodo de ARPANet, la precursora del Internet que conocemos hoy en día. En 90 minutos, vamos, lo que lleva una siesta decente, el ingeniero de Stanford había trazado algunas de las claves de la computación del resto del siglo.

Y todo aderezado con demostraciones que hoy forman parte del pan diario de la informática pero que por entonces parecían casi casi atrezo de ciencia ficción, como los ratones de computadora.

Siguiendo con el símil de póquer, cuando acabó Engelbart comprobó que su apuesta había sido buena: cuando dejó de hablar en el auditorio empezaron a tronar los aplausos de sus colegas. “La gente estaba asombrada”, explicaría décadas más tarde uno de sus compañeros del SRI, William English, al New York Times: “En una hora, definió la era de la informática moderna”.

Cosas de la vida, que Engelbart y el resto de sus colaboradores del SRI fuesen capaces de ver e incluso señalar el camino no significa que estuviesen llamados a abanderar su desarrollo.

Poco después de aquel despliegue de talento de 1968 el equipo empezó a flojear en su empuje. Parte del personal cuestionó la deriva del laboratorio, se perdió financiación, surgieron otros centros de talento, como el de Xerox en Palo Alto (PARC)… Y, sencillamente, parte de la gente que trabajaba con Engelbart acabó buscando nuevos destinos, llevándose con ella lo aprendido.

Durante cierto tiempo mucha gente creyó de hecho que el mouse había sido un invento de Xerox. Que no fueran ellos los encargados de dar el siguiente paso no les quita mérito.

El veterano ingeniero no solo dibujó buena parte de la computación del siglo XX con puntería de profeta bíblico; ayudó también, y quizás eso resulte igual de relevante, a que mucha gente cambiase su imagen de la informática: dejase de verla como un mundo inaccesible, plagado de descomunales máquinas, complejas, corporativas y pensadas solo para laboratorios y firmas punteras, y pasase a entenderla como una herramienta útil para el día a día de los trabajadores.

No un arma. Ni un engranaje complicado. Tampoco como una forma de sustituir el esfuerzo humano. No. Un complemento, una forma de llevar las capacidades un poco más allá, de ampliar los límites. Como avanzaba ya en el título de su charla: «A Research Center for Augmenting Human Intellect«.

“Si en su oficina usted dispusiera de una pantalla respaldada por una computadora que estuviera activa para usted todo el día y respondiera instantáneamente a todas sus acciones, ¿Cuánto valor podría obtener de eso?”, lanzó a modo de gancho Engelbart a su audiencia aquel otoño del 68.


La noticia

La “Madre de todas las demos”: la increíble charla de hora y media de 1968 que adelantó cómo sería la informática moderna

fue publicada originalmente en

Xataka

por
Carlos Prego

.

HardZone – ¿Me compro una gráfica ahora o espero a las NVIDIA RTX 40?

Durante meses las tarjetas gráficas han sido inaccesibles, con precios verdaderamente desorbitados por la gran demanda. El precio se está normalizando, pero, los rumores sobre las nuevas NVIDIA RTX 40 Series aparecen con más fuerza. Seguro que te estás preguntando qué hacer, si esperar o comprar, y vamos a intentar ayudarte.

Seguro que llevas meses esperando para comprarte una tarjeta gráfica porque sus precios eran absurdos. Ahora te encuentras con datos sobre las nuevas gráficas de NVIDIA, que prometen un rendimiento fuera de serie. Pero tranquilo, no te des cabezazos contra la pared, que no tiene la culpa, nosotros te ayudamos.

¿Qué sabemos sobre las NVIDIA RTX 40 Series?

Los rumores de las nuevas generaciones de gráficas empiezan meses antes de su lanzamiento, incluso, un año antes o más. Tal y como se acerca el lanzamiento, estos rumores parece que van tomando cierta forma. Nos permite vislumbrar un poco lo que serán estos nuevos componentes. Como siempre, los rumores son informaciones no contrastadas que pueden no coincidir con la realidad.

Sobre las RTX 40 Series de NVIDIA, a ciencia cierta, es que tendrán CUDA Cores, RT Cores y Tensor Cores. Vamos, que estas gráficas soportarán el Ray Tracing y DLSS de manera nativa. También sabemos que serán más potentes que las actuales RTX 30 Series, algo que normal, ya que cada nueva generación de gráficas es superior a la anterior.

Hasta aquí lo que sabemos, más o menos, a ciencia cierta. Los rumores hasta el momento nos dicen lo siguiente:

La RTX 4090 tendría una frecuencia de hasta 2520 MHz y tendría un TGP de 600 W. Además, esta tarjeta gráfica tendría el doble de potencia que la RTX 3090.
El consumo de todas las nuevas tarjetas gráficas sería superior al consumo de las actuales RTX 30 Series
Apuntan a que en octubre llegarían las RTX 4090, en noviembre las RTX 4080 y en diciembre las RTX 4070. Pero cuidado, hay rumores que apuntan a un retraso en el lanzamiento de estas nuevas gráficas
Se esperan precios similares a los MSRP del lanzamiento de las RTX 30 Series

¿Me espero o mejor compro?

Es posible que hayas estado esperando meses a que el precio de las tarjetas gráficas se normalizara. Ahora encontrarte con el lanzamiento de nuevas GPU seguro que te ha puesto en un brete importante. Pues bien, la repuesta es que depende de tus necesidades.

Todo depende de si ya necesitas cambiar de equipo, porque el hardware es muy antiguo o tienes algún problema con la gráfica. Es posible que en su día optaras por comprar el PC y tirar de la gráfica integrada de momento. Pues bien, para estos casos, te recomendamos comprar si encuentras una buena oferta o algo de segunda mano que se adapte a tu presupuesto.

Si no te corre mucha prisa, ya que puedes jugar a todo y lo que quieres es dar el salto para más FPS o resolución, puedes esperar. Lo normal es que para el Black Friday y navidades, ante la llegada de la nueva generación, las RTX 20 Series o las RTX 30 Series tengan precios tentadores. Como es lógico, las tiendas querrán limpiar de stock sus almacenes.

Al final, todo depende de lo que necesites en cada momento. Esperar, al final, solo lleva a esperar y no saber qué hacer. Comprar una RTX 20 Series o una RX 5000 Series no es mala opción, no habrá juego que no podrás mover. Si quieres una RTX 30 Series o una RX 6000 Series, los precios se están normalizando y empieza a ser buen momento para comprar una.

Por cierto, te recomendamos pasarte por las estadísticas de hardware de Steam, que te sorprenderán bastante. Ver cuáles son las gráficas más utilizadas por los usuarios es bastante revelador.

The post ¿Me compro una gráfica ahora o espero a las NVIDIA RTX 40? appeared first on HardZone.