Buscar:

Xataka – Un cielo saturado de aviones, de nuevo: los vuelos de negocios vuelven a sus niveles pre-pandémicos

El tiempo vuela, nunca mejor dicho. Hace ya más de dos años que comenzaron los primeros confinamientos por Covid-19. El mundo parado por una pandemia mundial y las compañías y los trabajadores adaptándose a marchas forzadas para el teletrabajo. Momento de repensar nuestra forma de trabajar y desplazarnos. El futuro es de las reuniones a distancia, decían algunos. ¿Seguro?


Leer más

HardZone – Se filtran las especificaciones de los primeros AMD Ryzen 7000

Los procesadores de próxima generación de AMD ya se encuentra en fase de preproducción. Estos se basarán en la nueva arquitectura Zen 4, de la que se esperan mejoras de rendimiento hasta de un 30% respecto a los Ryzen 5000. Teniendo en cuenta el aumento de IPC y velocidad de reloj. Pues bien, las especificaciones de los primeros modelos de los Ryzen 7000. Veamos, por tanto, que nos podemos esperar.

El salto del Ryzen 5000 al Ryzen 7000 en CPU de escritorios será el más importante en años, puesto que veremos un cambio el socket AM5. Con ello veremos nuevas placas base con soporte para memoria DDR5, de hasta 5200 MHz, y soporte para PCI Express. Aparte de ser la primera CPU de escritorio, fuera de la serie G, con gráfica integrada. Pues bien, ha aparecido la primera información de los diferentes modelos de los Ryzen 7000. Al menos de los iniciales y, por tanto, los primeros que se pondrán a la venta.

Es habitual, tanto para Intel como para AMD, lanzar primero los procesadores más potentes de una nueva generación de CPU. Los de gama alta y en consecuencia los que mejores especificaciones y TDP más altos. Al mismo tiempo, son los más caros, ya que están pensados para los más entusiastas y, por tanto, los que buscan tener el ordenador más potente del momento a cualquier precio.

Así serían los primeros modelos de los Ryzen 7000

Lo primero que tenemos que tener en cuenta es que AMD continuará con una configuración por chiplets, donde el procesador estará dividido en varios chips distintos. En el caso de los Ryzen 7000, los cuales son sucesores directos de los actuales Ryzen 5000.

¿El último rumor? Se comenta de una versión de 24 núcleos y, por tanto, de 3 CCD y 1 IOD, aunque otras fuentes hablan de 16 núcleos. Este diseño correspondería al Ryzen 9 7950X que ofrecería una velocidad de Boost de 5.4 GHz, pero con un solo núcleo. ¿Su TDP?  170 W durante el Boost.  En todo caso, parece ser que existe un modelo de 24 núcleos y otro de 16, pero ambos bajo el mismo TDP. Por lo que uno sacrifica núcleos por velocidad de reloj y viceversa. En todo caso, esperaremos a que la propia AMD aclare esta confusión.

En cuanto al resto de chips, la información es mucho más clara y la podemos resumir de la siguiente manera:

La configuración de 12 núcleos es para el Ryzen 9 7900X con una velocidad de hasta 5.3 GHz.
En cuanto a la configuración de 8 núcleos tenemos al Ryzen 7 7800X que puede llegar hasta los 5.2 GHz.
Ya para terminar tenemos el modelo de 6 núcleos, el Ryzen 5 7600X con una velocidad de Boost de hasta 5.1 GHz.

Por lo que estos sería la familia inicial de los Ryzen 7000 de AMD que veríamos en unos meses. Eso sí, debido a que es información filtrada de los chips preliminares al lanzamiento, las especificaciones, sobre todo en velocidad de reloj, pueden cambiar a última hora. En todo caso, esta no sería toda la familia entera, ya que también veremos los modelos no-X, pero se espera que su lanzamiento se produzca unos meses más tarde.

The post Se filtran las especificaciones de los primeros AMD Ryzen 7000 appeared first on HardZone.

Xataka – La cara B de comprar un Android caro: pierden hasta el 50% de su valor en pocos meses

Si quieres sacarle unos cuantos euros a tu teléfono a la hora de venderlo para comprarte otro, quizás la mejor opción sea un iPhone. Hace cinco años hablábamos sobre el ritmo al que bajan de precio los móviles, con una tendencia que se ha mantenido durante el tiempo.

Estudios recientes apuntan a que la depreciación sigue azotando la gama alta Android, con hasta un 50% de caída en los primeros meses de vida de los teléfonos, frente apenas un 16% de caída en el caso de los últimos iPhone.


Leer más

HardZone – NVIDIA y AMD subirán los precios de sus gráficas y procesadores

No habrá tregua en los precios y como siempre pasa es el usuario el que pagará los avances tecnológicos, como era previsible por otra parte. La carrera por los nanómetros y el hecho de acercarnos al límite físico del átomo tiene sus consecuencias en TSMC y Samsung: subida de precios para los procesos litográficos, lo que se traducirá en tarjetas gráficas y procesadores más caros por parte de NVIDIA y AMD.

Estamos en la mitad del segundo trimestre y dos de las tres grandes fundiciones del mercado hacen lo propio tras lo que se avecina. Y es que con esta nueva subida serían realmente cuatro aquellas que se han venido produciendo en menos de dos años, lo cual indica que los pronósticos no solo eran erróneos, sino poco realistas.

El problema de los costos de producción para NVIDIA y AMD

Es cierto que TSMC ha sido el que más se ha movido en esto durante el tiempo comentado, pero ahora Samsung tiene que hacer lo propio porque ambas compañías tienen un problema común: los precios de los materiales. Ahí radica y gira todo el argumento de ambas empresas de semiconductores, donde los cambios y aumentos son muy distintos. TSMC habla de un máximo de un 8% de cara al próximo año, pero tampoco descarta comenzar ya en este, mientras que Samsung declara nada menos que un 20% de aumento en sus precios, también como máximo.

Si indagamos un poco, los taiwaneses afirman que subirán los costes entre un 5 y un 8%, mientras que Samsung abre el GAP entre un 15 y ese 20% nombrado. También ambas afirman que esto será aplicable para ciertos nodos, normalmente los de vanguardia, lo cual es comprensible en cierta medida, pero de lo que no hablan ninguna de las dos es de los motivos para esta subida.

Si recordamos, TSMC subió el año pasado un 20% el precio, más lo ahora comentado daría como resultado casi un 30% en dos años. Esto ya lo hemos podido ver en las obleas de 5 nm y posiblemente en las de 4N y N4 para NVIDIA y otros socios, como Apple. El precio medio de dichas obleas es de más de 16.000 dólares aproximadamente, disparando con ello el precio por chip.

Samsung es más barata, pero se desconoce exactamente el precio de sus obleas, aunque los rumores la cifran por nodos antiguos y no nuevos, los cuales son un misterio que va teniendo sus luces y sombras.

¿No hay manera de paliar la subida de precios de las gráficas y procesadores?

Hay dos motivos principales y luego varios personalizados. El primero tal y como hemos comentado es el aumento del precio de las materias primas, las cuales se han disparado, principalmente las tierras raras traídas desde África. El segundo motivo va ligado al rendimiento y los problemas que están encontrando los fabricantes de obleas.

Tanto Samsung como TSMC enfrentan problemas sabidos con sus nodos GAA. TSMC lo implementará en sus 2 nm siendo el último de los tres grandes y lógicamente nodos presentes financian nodos futuros. Luego llegaría la reserva de producción con la compra de más escáneres a ASML, pero eso es otro asunto aparte. Por su parte, Samsung tiene un tira y afloja entre rumores y declaraciones para con sus 3GAA.

Los taiwaneses han enfrentado grandes problemas con la creación de los transistores y las fugas de energía en los mismos, donde ahora y tras las últimas declaraciones la compañía afirma que comenzará a producir sus primeros chips a 3 nm en este trimestre siendo el primero en llegar en el mundo.

La rampa de producción es otra cosa como tal, ya que como bien sabemos el Tape In y el Tape Out están bien marcados, así que pueden pasar meses hasta entonces. Igualmente, Samsung no solo ofrecerá un nodo más avanzado que Intel y TSMC, puede que menos denso como tal o igualado según lo que se rumorea, pero lo que es seguro es que será más eficiente. Queda por ver si será más rápido con sus nuevos transistores MBCFET.

¿Qué hay de Intel a todo esto? Pues siguen con su política de no aumentar precios, veremos cuánto les dura dados los movimientos de sus rivales y las subidas de los costes mencionadas más arriba. Comentado todo, es de pura lógica que los precios de las tarjetas gráficas y procesadores de NVIDIA y AMD subirán, porque esos márgenes no van a poder ser asumidos por estas empresas por mucho volúmen que pidan a Samsung y TSMC.

The post NVIDIA y AMD subirán los precios de sus gráficas y procesadores appeared first on HardZone.

Xataka – AYANEO2: un ataque frontal a la Steam Deck con Windows 11, Ryzen y pantalla OLED

AYANEO ha anunciado un duro competidor para consolas como la Steam Deck. Se trata de la AYANEO2, una consola portátil que cuenta con el chipset AMD Ryzen 6800U, una APU con tecnología Zen 3+. Se trata así de una pequeña consola con un hardware relativamente similar al de un portátil, prometiendo un rendimiento de con 3,38 TFLOPS frente a los 1,6 TFLOPS de la Steam Deck.


Leer más

HardZone – Las tarjetas gráficas RTX 40 podrían ser presentadas en solo 2 meses

Ya no cabe duda de que los movimientos de las grandes empresas del hardware se están adelantando por diversos motivos. Si la semana pasada era AMD la que ponía el pie en el acelerador ahora parece que NVIDIA puede hacer lo mismo con distintos objetivos en mente. Y es que según se acaba de filtrar las RTX 40 tienen fecha acotada y se lanzarían a principios del tercer trimestre de este año.

Parece que todo va a la carrera y realmente no se entiende los porqués, al menos en principio. Pero si la fuente de la información es cierta estamos ante un curioso momento de lanzamiento, principalmente porque va contra la propia marca y sus AIB, pero al mismo tiempo sería un lanzamiento inteligente.

NVIDIA RTX 40, el lanzamiento podría llegar ya en julio

Lo filtrado no es específico como suele pasar la mayor parte de las veces, pero sí deja un GAP de tiempo muy acotado: principios del Q3 de este año, es decir entre julio y agosto, más tirando al primero según parece. Esto significa que estamos apenas a dos meses de la presentación de la arquitectura y de las tarjetas gráficas, donde su lanzamiento podría ser a principios del Q4 según revela otro leaker.

Ada Lovelace will come out a little bit earlier. Keep patient.

— kopite7kimi (@kopite7kimi) August 26, 2021

Ahora que sabemos las fechas aproximadas hay que indagar en las causas. La primera tiene que ver con los tiempos propios de NVIDIA, ya que la serie RTX 30 no ha tenido como tal refrescos importantes, sino que se ha rellenado la serie con modelos anexos Titanium como la RTX 3080 Ti y RTX 3090 Ti. Por lo tanto, el roadmap interno de NVIDIA cuenta a partir de las primeras y no de las segundas.

En segundo lugar, TSMC parece que tiene una buena producción del nodo 4N para NVIDIA y de ahí que las RTX 40 tengan fecha acotada, el cual recordemos que es exclusivo para los de Huang y que ya se integra en los chips H100 para sus GPU Hopper de HPC. Dicho esto, hay tres argumentos más que pueden ser válidos y a tener en cuenta.

Intel y AMD a escena junto con Nintendo

El tercer argumento para adelantar el lanzamiento en algunos meses es Intel. Los azules no han lanzado sus GPU ARC para escritorio porque argumentan problemas en los drivers, pero realmente parece más un retraso para lanzar en el momento justo, quizás sabedores de los planes internos de NVIDIA y AMD.

Por ello, las RTX 40 podrían aprovechar el momento y dejar a Intel con una gama de tarjetas gráficas que de entrada estaría más que obsoleta y competirían por la gama baja con las nuevas Ada Lovelace, forzando a los de Pat Gelsinger a poner precios más ajustados.

Si miramos al lado contrario tenemos a AMD y al cuarto argumento. Parece que NVIDIA sabe que AMD también ha apretado el acelerador y que posiblemente sus GPU no solo sean competitivas, sino que podrían incluso ser más rápidas. Lanzar antes las RTX 40 restaría ventas a su rival para aquellos que sean fanáticos del equipo verde y solo los usuarios que quieran esperar a tener todas las cartas en la mesa podrán decidir sabiamente.

El último y quinto argumento tiene que ver con Nintendo. Se especula con un nuevo SoC para Switch que podrían incluir Grace + Ada Lovelace y así hacer competencia a la Steam Deck y AYANEO 2, quizás a un precio inferior o igual a estas pero con más potencia en su haber. Dicho esto, ¿qué pasa con el stock de RTX 30 sobrante? Pues realmente esto no es cosa de NVIDIA, sino de los fabricantes, el mercado y la especulación de los mineros.

El problema de las tiendas con el stock de las RTX 30

Los chips para las RTX 30 se dejaron de fabricar a principios de año, por lo que los que están saliendo de NVIDIA son los últimos coletazos que quedan y dado que el stock es muy alto por todo el mundo gracias al aumento de producción de este 2022, son las tiendas y los minoristas los que ahora tienen la patata caliente para venderlas y no la compañía en sí misma o sus AIB.

También es cierto que una cosa es la presentación y otra el lanzamiento. Podrían pasar 2 o 3 meses hasta su llegada a las tiendas, por lo que hablaríamos de casi medio año para vaciar stock en estanterías, pero con el mercado de segunda mano lleno de GPUs y la fecha de salida de las RTX 40 en mente, ¿quién compraría las RTX 30 a precio MSRP? Realmente o bajan los precios con ofertas más que interesantes y pierden dinero, o las devoluciones y el stock que se van a tener que comer será mucho peor que en el caso de las RTX 20.

The post Las tarjetas gráficas RTX 40 podrían ser presentadas en solo 2 meses appeared first on HardZone.

Xataka – Las 11 mejores ofertas en tecnología de los dos Días sin IVA de MediaMarkt que todavía puedes comprar

Vuelve a MediaMarkt MediaMarkt una de sus promociones más atractivas: los Días Sin IVA. Los días 16 y 17 de mayo podrás comprar tanto en la tienda como en la web (de hecho, en la web la campaña comenzó ayer por la noche y termina el 18 a las 9h) tecnología al mejor precio en categorías como smartphones, informática, smartwatch, pequeño y gran electrodoméstico: estas son las mejores ofertas de los Días Sin IVA de MediaMarkt que todavía están disponibles. Leer más

Xataka – Quicksink GBU-31, la nueva y poderosísima bomba de Estados Unidos capaz de partir barcos en dos (literalmente)

En la actualidad, los torpedos son una de las alternativas más efectivas para atacar objetivos marítimos. Sin embargo, estos proyectiles están lejos de ser perfectos: son caros y requieren de recursos especiales para ser lanzados, como submarinos ubicados cerca del objetivo enemigo. La Fuerza Aérea de EEUU cree haber encontrado la forma de superar estos obstáculos: una poderosa bomba guiada de bajo coste.

Quicksink, que es como se le conoce a esta nueva arma, se puede lanzar desde aviones y es capaz de atacar barcos que se encuentran detenidos, así como también en movimiento. Su objetivo de daño es claro: inutilizar el objetivo marítimo. ¿Cómo? Dañando severamente la quilla, que la columbra vertebral de la embarcación. Ante este tipo de ataque, por lo general, los barcos terminan partidos en dos.

De «bomba tonta» en un arma de precisión

La clave del sistema, que ha sido desarrollado entre la Fuerza Aérea y la Marina de EEUU, es que convierte a las bombas convencionales que se encuentran en el arsenal en armas guiadas de precisión. Es decir, en lugar de desarrollar una solución completamente nueva, que suele disparar los costes a niveles estratosféricos, se combinaron los recursos existentes para crear una alternativa a los torpedos.

El proceso de transformación de las bombas es tan sencillo como agregar un kit de orientación fabricado por Boeing, conocido como JDAM. Se trata de un complemento que incluye un sistema de navegación inercial y un sistema de posicionamiento global (GPS). Una vez que un proyectil es «convertido», se lo despoja de su nomenclatura tradicional y recibe el identificador GBU, que quiere decir «unidad de bomba guiada».

Las bombas con JDAM, según la Marina, son muy versátiles. Esta cualidad se debe a que las coordenadas de los objetivos se pueden cargar en diferentes instancias: antes del despegue, durante el vuelo, y automáticamente, con información basada en los sensores de la aeronave. Asimismo, el sistema permite atacar varios objetivos a la vez, o disparar varios GBU contra un mismo objetivo.

Un sistema en evolución

Si bien la capacidad para partir un barco en dos con una sola bomba es nueva, la existencia de este tipo de armas data de 1997. A lo largo de los años, EEUU ha utilizado los GBU en diferentes escenarios de guerra, al tiempo que, el Laboratorio de Investigación de la Fuerza Aérea (AFRL), ha ido mejorando el sistema para hacerlo más preciso y compatible con distintos tipos de bombas.

El pasado 28 de abril, el AFRL puso a prueba su más reciente versión del sistema. En colaboración con la Base de la Fuerza Aérea Eglin lanzó desde un cazabombardero F-15E Strike Eagle una bomba de 900 kilos GBU-31 sobre la costa oeste de Florida. El impacto se produjo en un barco grande (no se mencionaron sus dimensiones) que en sus tiempos operativo había sido un carguero. Como resultado, empezó a hundirse en menos de un minuto y desapareció por completo tras 39 segundos.

Tras el éxito de la prueba, EEUU seguirá desarrollando esta tecnología «para proporcionar nuevas capacidades a los sistemas de armas existentes y futuros». Con el paso del tiempo veremos si consiguen mejorar los costes, que en este momento se ubican en unos 25.000 dólares por unidad, su alcance, que es de 24 kilómetros, y su precisión, que es asistida por GPS y láser.

Imágenes | Laboratorio de Investigación de la Fuerza Aérea


La noticia

Quicksink GBU-31, la nueva y poderosísima bomba de Estados Unidos capaz de partir barcos en dos (literalmente)

fue publicada originalmente en

Xataka

por
Javier Marquez

.

Xataka – Qué fue de VisiCalc, el antepasado de Excel diseñado a finales de los 70 y que triunfó con los Apple II

Ponte en situación. Estás inclinado sobre tu escritorio, en el departamento de Contabilidad de la empresa, con los codos enterrados en una mullida capa de papeles y la vista fija en el calendario que cuelga de la pared. Allí, marcado con un doble círculo rojo —rojo infierno, te parece—, está la causa de todos tus males: faltan cinco días, cinco, y eso contando el fin de semana, para que tengas que entregar a tu jefe todos los gastos extra de la plantilla, 250 almas voluntariosas que desde hace días parecen empeñadas en hundirte aún más, hasta los hombros, entre facturas atrasadas.

«Al lío», te dices. Coges calculadora, boli, el dietario y una regla metálica para no equivocarte de renglón como otras veces y te resignas a dejarte las pestañas durante las próximas ocho horas.

— Oye, he escuchado que hay un software, VisiCalc, que igual te interesa.

La voz es la de tu compañera de Recursos Humanos. Lo sabes por el timbre porque, francamente, no has entendido casi nada de lo que ha dicho. Es diciembre de 1979 y para ser honestos apenas sabes qué es un software. Y no, no tienes ni la menor idea de qué va eso de VisiCalc.

No tardarás en saberlo.

Tú y las decenas de miles de administrativos que a lo largo de los años siguientes verán el cielo abierto gracias a sus hojas de cálculo con ayuda de los ordenadores Apple II.

Auge meteórico, caída meteórica

Hoy estamos más que acostumbrados a trabajar con hojas de cálculo en nuestros equipos y desenvolvernos con Excel. Dentro y fuera del trabajo. Lo usamos para elaborar horarios, repartir tareas, calcular gastos, escribir facturas… Por haber, hay hasta quien hace arte con él.

No siempre fue así. Hubo un tiempo en el que los despachos no quedaba otra que echar mano de calculadora y dietario. Si llegabas al enésimo cálculo y te dabas cuenta de que en la segunda casilla habías añadido un dato erróneo o que sencillamente se había quedado desactualizado no te quedaba otra que armarte de paciencia, rehacer el camino y revisar todas tus cuentas.

Hoy disfrutamos de la bendita magia de Excel para que nuestro trabajo sea más llevadero; pero mucho antes de las hojas de cálculo de Microsoft o incluso Lotus 1-2-3 hubo un programa que abrió camino: VisiCalc, abreviatura de visible y calculator. Lo más curioso es que el software, de la firma VisiCorp, no solo ayudó a quienes tenían que manejarse con cuentas pesadas y mecánicas. También contribuyó a la popularización de los ordenadores personales y, en concreto, al éxito de Apple II.

Su historia es relativamente sencilla y, en cierto modo, avanza las crónicas de éxito y caída fulgurante que se han sucedido desde entonces en el sector. Hacia 1978 Dan Bricklin, estudiante de Harvard, se propuso crear una herramienta electrónica que ayudase con las tareas de cálculo más engorrosas. La idea no era del todo nueva y antes que él ya se habían dado algunos pasos en esa dirección en la década de los 60. En lo que sí acertó de lleno fue en cómo planteó la solución, con un programa que más tarde le ayudaría a desarrollar su compañero Bob Frankston, del MIT.

Además de en gestión de empresas, Bricklin tenía formación técnica y conocía las engorrosas aplicaciones de cálculo que se usaban en los ordenadores centrales de las grandes compañías. Su objetivo era simplificarlo, lograr un recurso que, en caso de error o cambios, no obligase a rehacer todo el trabajo. No solo eso. Quería además una herramienta que pudiese estar al alcance de las computadoras personales, capaz de prestar ayuda en los hogares y pequeños negocios.

En 1979 la pareja había formado ya su propia empresa y meses después empezaban a comercializar el resultado, VisiCalc. El programa —recuerda Histoy Computer— empezó a venderse a finales de ese año por unos cien dólares y fue un éxito inmediato; tanto, que muchos distribuidores decidieron ofrecer el Apple II con aquel nuevo software que facilitaba enormemente las cuentas y el manejo de las hojas de cálculo. El primer prototipo de VisiCalc se había probado de hecho en un Apple II utilizando Apple Integer Basic, aunque con unas funciones todavía muy limitadas.

Gracias en parte a su atractivo y el enorme provecho que podían sacarle en las oficinas, VisiCalc contribuyó a que los ordenadores personales entrasen con fuerza en los negocios. En 1982 su precio se había disparado ya a 250 dólares y en cuestión de seis años consiguió vender más de 700.000 copias. Aunque su éxito animó a otras empresas a seguir sus pasos, VisiCalc consiguió valerse del tirón de su marca para aguantar como el principal referente… Al menos durante un tiempo.

En 1983 la compañía tuvo que enfrentarse a un nuevo adversario: Lotus 1-2-3, una herramienta deliberadamente similar a VisiCalc pero que sacaba mucho más provecho de los PC. Aquella doble apuesta —explotar las ventajas de un producto ya conocido y con buena penetración, combinándolas con mejoras considerables— gustó y 1-2-3 no tardó en tomar el relevo de VisiCalc. A pesar de que anunció una versión para IBM PC en el 84, sus ventas se despeñaron y en 1985 la empresa pasó a Lotus Development. A la historia de VisiCalc no le quedaban ya muchos capítulos más.

Se calcula que en total se vendieron hasta un millón de copias de VisiCalc. La competencia acabó llevándoselo por delante y rompiendo su posición dominante, pero eso no quita que protagonizase un capítulo clave en la historia de la informática y allanase el camino para los programas que vendrían después, incluida Excel, que no llegó hasta mediados de los 80 en una versión para Macintosh.

Imágenes | Dave Winer (Flickr), Marcin Wichary (Flickr) y Gortu (Wikipedia)


La noticia

Qué fue de VisiCalc, el antepasado de Excel diseñado a finales de los 70 y que triunfó con los Apple II

fue publicada originalmente en

Xataka

por
Carlos Prego

.

Xataka – Por qué los españoles, al contrario que el resto del mundo, tenemos dos apellidos

Seguro que te lo has preguntado más de una vez al estrechar la mano de un alemán o un inglés o quizás mientras ves una peli de Hollywood y te fijas en los nombres de sus protagonistas: ¿Por qué ellos tienen un apellido y nosotros dos? ¿Por qué, por ejemplo, Bill Gates se llama así y no Bill Gates Maxwell, añadiendo el de su madre? ¿Y por qué si tienes que cubrir un impreso oficial en EEUU lo más probable es que tengas que comprimir tus dos apellidos en una única casilla?

En resumen: ¿Por qué somos los «bichos raros» de la genealogía? En otros países vecinos los recién nacidos han recibido tradicionalmente un solo apellido —el del padre, casi siempre—. La pauta se ha flexibilizado a lo largo de los últimos años, cierto; pero a menudo cambiar la dinámica exige que los progenitores lo escojan de forma directa. No es algo automático, como en España.

La historia de por qué nos apellidamos como lo hacemos obliga a dar un salto considerable en el tiempo, de cinco siglos, hasta la época del cardenal Cisneros. A él le debemos el primer intento por poner cierto orden donde hasta entonces reinaba básicamente el caos y la arbitrariedad; que de una sopa desordenada de nombres hayamos pasado a lo que hoy entendemos como apellidos.

Objetivo: poner un poco de orden

Hasta principios del XVI lo habitual era que cada persona cargase con un nombre de pila y un genitivo, una coletilla casi casi a modo de apodo que estaba relacionado con su lugar de origen o familia y que básicamente servía para identificarla. Si bien es cierto que aquello tenía sentido, daba pie también a algunas circunstancia que hoy nos parecerían delirantes y, sobre todo, hacían que la administración fuese endiabladamente complicada. Un ejemplo claro: ¿Se apellidaban igual dos hermanos que habían nacido en ciudades distintas? Puede que sí. Puede que no.

Para arrojar algo de orden en ese caos, a principios del siglo XVI el poderoso, influyente y sobre todo metódico y ordenado cardenal Cisneros decidió tomar cartas en el asunto: cada persona recibiría el apellido de su progenitor. De forma obligatoria, sin opciones. La medida se instituyó en 1501 y sirvió como primer paso para que hoy compartas apellidos con tus padres y hermanos.

Poco a poco y ya en el siglo XVI el uso del doble apellido fue calando entre la clase alta de Castilla, de buen linaje y que se resistía a ver cómo una de sus dos marcas de familia se esfumaba. Con el tiempo fue calando entre el resto de la población del país. “La Administración se percata de que es mucho más sencillo controlarnos con el sistema del doble apellido”, comentaba hace poco Antonio Alfaro, el presidente de la Asociación de Genealogía Hispana (Hispagen), en laSexta.

En la década de 1830 lo del doble apellido era ya una práctica habitual, aunque aún sin regular. Para que su adopción empezase a institucionalizarse habría que esperar varias décadas, a mediados del XIX, cuando se incluye por primera vez en el registro oficial. Que se convirtiese en la norma exigió sin embargo algo más: no llegó hasta el Registro Civil de 1871. Su aplicación vía ley se confirmó ya definitivamente dos décadas después, con el Código Civil de 1889. Aquel texto recogía al fin en su artículo 114 que los hijos tienen derecho a ambos apellidos, el del padre y la madre.

¿Fue ese el final de la historia?

No. Hace años un cambio legal permitió romper la que había sido la pauta durante siglos y que los progenitores pudiesen escoger el orden de los apellidos, sin que el del padre figure por defecto en primer lugar. Las modificaciones, en cualquier caso, no son exclusivas de España.

A lo largo de los últimos años en Italia o Francia, por ejemplo, se han dado pasos también para que los retoños puedan incorporar sus dos apellidos. En Francia incluso [hay un movimiento](Porte mon nom), Porte mon nom, para que los recién nacidos reciban ambos de forma automática. Casos hay de todo tipo. En Suecia ante la falta de acuerdo pasa lo contrario: prima en exclusiva el de la madre.

Una cadena de cambios que explican que hoy nos llamemos como nos llamamos.

Y que los funcionarios no tengan que tirarse de los pelos por los desbarajustes de nombres.

Imagen de portada | Jacek Dylag (Unsplash)


La noticia

Por qué los españoles, al contrario que el resto del mundo, tenemos dos apellidos

fue publicada originalmente en

Xataka

por
Carlos Prego

.