Xataka – Mientras los Spectrum y los Commodore 64 triunfaban en todo el mundo, había un problema terrible en Japón: el kanji
La década de los 80 supuso para muchos (yo incluido) una época dorada en la que la microinformática y los ordenadores de 8 bits entraron en nuestras vidas.
Los Spectrum, Amstrad, Commodore 64 y los MSX dominaban los mercados en casi todo el mundo e impulsaban la llegada del ordenador al entorno doméstico. Japón, que había sido referente mundial en el mundo de la electrónica, se encontró con un problemón: escribir y mostrar sus caracteres kanji era todo un desafío.
Demasiados caracteres
Lo contaba hace años un blog que explicaba cómo Japón, que era cuna de algunas de las tecnologías y dispositivos más novedosos, se quedó paralizada ante el problema de que los ordenadores pudieran trabajar con el idioma japonés y sus caracteres.
El problema era que los ordenadores de 8 bits eran muy limitados: mientras que idiomas como el inglés usaban un juego de caracteres muy reducidos y bastaba un byte (2^8=256 posibles valores) para codificar todos sus caracteres, el japonés hace uso de muchos caracteres más y necesita una codificación «double byte» o «multibyte».
Un ordenador de 8 bits con 64 KB de memoria no tenía capacidad para editar japonés, y de hecho el primer sistema con un procesador de texto para poder usar el sistema kana-kanji fue el Toshiba JW-10, una especie de mainframe dedicado únicamente a poder ofrecer un procesador de texto: se lanzó en 1979, pesaba 220 kg y costaba 30.000 dólares de entonces. Lo que hacía ese monstruo lo podía hacer (en inglés, claro) un Vic-20 de 300 dolares conectado a una impresora matricial.
Uno de los grandes problemas de trabajar con los caracteres kanji era el hecho de que la resolución de pantalla era bajísima (para nuestros días). Se limitaba en muchos casos a 320×200, y las tipografías de 8×8 píxeles de 1982 no servían para mostrar los complejísimos caracteres kanji.
El NEC PC-9801 de 1982 fue uno de los PCs más avanzados de aquella época, y contaba con un monitor a 640×400 píxeles y caracteres de 16×20 píxeles. El popular estándar para la representación de caracteres en este idioma Japanese Industrial Standard (JIS C 6226 1978) de 1978 contaba con 6.802 caracteres que necesitaban 6.802 x 20 x 16 bits = 265 Kbytes de datos. Eso era 130 veces más que los 2 Kbytes necesarios para los 256 caracteres ASCII de 8×8 píxeles).
El segundo problema, igual de importante (o más) era el teclado: las aproximadamente 100 teclas de un teclado convencional tenían que usarse para poder escribir 6.000 caracteres, y eso hacía necesario introducir caracteres fonéticamente mediante kana-kanji y luego convertirlos mediante diccionarios. Eso ya en Windows XP hacía que los diccionarios ocupasen 36 MB, una cantidad inalcanzable para los microordenadores de la época.
Había opciones, desde luego. Los ordenadores de 8 bits con soporte para los caracteres japoneses katakana o hiragana, alfabetos fonéticos que requerían menos caracteres. Los MSX por ejemplo ofrecieron soporte para caracteres katakana y hiragana, pero el soporte de kanji requería una ROM adicional de al menos 128 KB que era bastante cara.
El problema es que limitaban mucho las opciones frente a los Commodore 64 o los Apple II de la época, y los ordenadores de 16 bits que sí permitían mostrar y trabajar con kanji (como el citado modelo de NEC) eran muy caros.
Esa fue una de las razones fundamentales por las que los ordenadores de 8 bits no triunfaron en Japón. Eso al final no fue tanto problema para los usuarios domésticos japoneses, que querían lo mismo que la mayoría de usuarios occidentales: jugar. Precisamente ahí estaba la NES para revolucionarlo todo… pero esa es otra historia.
–
La noticia
Mientras los Spectrum y los Commodore 64 triunfaban en todo el mundo, había un problema terrible en Japón: el kanji
fue publicada originalmente en
Xataka
por
Javier Pastor
.