Cuando nació la web, era casi exclusivamente anglófona. Empieza a ser verdaderamente multilingüe a finales de los años 1990, con la difusión de textos electrónicos en varios idiomas, pero aún queda mucho por hacer. María Victoria Marinetti, profesora de español en empresas y traductora, escribe en agosto de 1999: «Es muy importante poder comunicar a través del internet en diferentes lenguas, es más bien obligatorio. Ya que la información la tenemos a nivel mundial, ¿por qué no podríamos tenerla en el idioma que hablamos o que deseamos? ¿Acaso no es contradictorio?»
Comunicar en varios idiomas supone tener a disposición sistemas de codificación de caracteres adaptados a nuestros alfabetos o ideogramas respectivos.
El primer sistema de codificación informática es el ASCII (American Standard Code for Information Interchange - Código Estadounidense Estándar para el Intercambio de Información).
Publicado en 1968 por el ANSI (American National Standards Institute - Instituto Estadounidense Nacional de Normas), y actualizado en 1977 y 1986, el ASCII es un código de 128 caracteres traducidos en lenguaje binario en siete bits (A se traduce por «1000001», B se traduce por «1000010», etc.). Los 128 caracteres incluyen 33 caracteres de control (que no representan símbolos escritos) y 95 caracteres imprimibles: las 26 letras sin acento en mayúsculas (A-Z) y en minúsculas (a-z), las cifras, los signos de puntuación y algunos símbolos; lo que corresponde en su conjunto a las teclas del teclado inglés o estadounidense.
El ASCII no permite más que la lectura del inglés y del latín. No permite tomar en cuenta las letras acentuadas presentes en gran parte de las lenguas europeas y aún menos los idiomas no alfabéticos (chino, japonés, coreano, etc.). Esto no planteaba ningún problema de importancia en los primeros años, cuando el intercambio de archivos electrónicos se limitaba esencialmente a Norteamérica.
Pero el plurilingüismo pronto se convierte en una necesidad vital. Variantes del ASCII (norma ISO-8859 o ISO-Latin) toman en cuenta los caracteres acentuados de algunos idiomas europeos. La norma ISO 8859-1 (Latin-1) define por ejemplo la variante adaptada al francés.
Pero el paso del ASCII original a las diversas extensiones no tarda en convertirse en un verdadero rompecabezas, incluso en la Unión Europea, donde se plantean problemas como la multiplicación de las variantes, la corrupción de los datos durante los intercambios informáticos o la incompatibilidad de los sistemas, ya que las páginas web sólo pueden visualizarse en un idioma a la vez.
Con el desarrollo de la web, se internacionaliza cada vez más el intercambio de datos. Uno ya no puede conformarse con utilizar el inglés y algunos idiomas europeos, traducidos a través de un sistema de codificación de caracteres que data de 1968.
Publicado por primera vez en enero de 1991, el Unicode es un sistema de codificación de caracteres «universal» en 16 bits, que asigna un número único a cada carácter. Este número es legible desde cualquier plataforma, con cualquier programa o idioma. El Unicode puede reconocer 65.000 caracteres únicos y tomar en cuenta todos los sistemas de escritura del planeta. Para gran satisfacción de los lingüistas, progresivamente el Unicode va sustituyendo el ASCII. Existen diversas variantes del Unicode, por ejemplo UTF-8, UTF-16 y UTF-32 (UTF: Unicode Transformation Format). Se convierte en uno de los componentes de las especificaciones del World Wide Web Consortium (W3C), el organismo internacional encargado del desarrollo de la web.
La utilización del Unicode se generaliza a partir de 1998, por ejemplo para los archivos de texto bajo plataforma Windows (Windows NT, Windows 2000, Windows XP y siguientes versiones), que hasta entonces estaban en ASCII.
Pero el Unicode no puede solucionar todos los problemas, como lo subraya en junio 2000 Luc Dall'Armellina, coautor y webmaster de oVosite, un espacio de escritura hipermedia: «Los sistemas operativos se van dotando de kits Unicode capaces de representar todos los idiomas del mundo. Ojalá sigan el mismo rumbo todas las aplicaciones, desde el procesamiento de texto hasta el navegador web. Las dificultades son inmensas: nuestro teclado, con sus ± 250 teclas, deja ver sus insuficiencias siempre que es necesario digitar Katakana o Hiragana japoneses, y aún peor con el chino. La gran variedad de los sistemas de escritura del mundo y el número de caracteres que abarcan, constituyen un freno potente. Sin embargo, los obstáculos culturales no son menos importantes, pues están vinculados con los códigos y modalidades de representación propios de cada cultura o etnia.»
¿Qué preconiza Olivier Gainon, creador de la editorial CyLibris y pionero de la edición literaria electrónica? Explica en diciembre de 2000: «Primera etapa: el respeto de los particularismos a nivel técnico. Es preciso que la red respete las letras acentuadas, las letras específicas, etc. Me parece muy importante que los futuros protocolos permitan una transmisión perfecta de estos aspectos y eso puede que no resulte sencillo (en las evoluciones futuras del HTML, o de los protocolos IP, etc.). Por lo tanto, es necesario que cada uno pueda sentirse a gusto con el internet y que esto no se limite a los individuos que dominen (más o menos) el inglés. No parece normal que hoy en día la transmisión de los acentos plantee problemas en los correos electrónicos. Por eso me parece que el primer trámite es de orden técnico. Si se consigue esto, lo demás se derivará de ello: la representación de los idiomas se hará en función del número de personas conectadas, y al fin y al cabo habrá que contemplar la idea de usar buscadores multilingües.»
Aunque el inglés ya no posea un monopolio al 100% en la web, más del 80% de las páginas web siguen siendo anglófonas en 1998, un porcentaje que se explica por tres factores: (a) la creación de muchos sitios web procedentes de los Estados Unidos, de Canadá y del Reino Unido; (b) una proporción de usuarios particularmente alta en América del Norte con respecto al resto del mundo; (c) el uso del inglés como principal idioma de intercambio internacional.
De hecho, el inglés sigue siendo preponderante y las cosas no están por cambiar. Como lo indica en enero de 1999 Marcel Grangier, responsable de la sección francesa de los servicios lingüísticos centrales de la Administración Federal suiza, «esta supremacía no es nefasta en sí, en la medida en que resulta de realidades esencialmente estadísticas (más PC por vecino, más locutores de este idioma, etc.). La respuesta adecuada no es "luchar contra el inglés" y tampoco basta con lamentarse, sino que hace falta multiplicar los sitios web en otros idiomas. Cabe añadir que en calidad de servicio de traducción, también preconizamos el plurilingüismo en los sitios web mismos. La multiplicación de los idiomas presentes en el internet es inevitable, y sólo puede hacerse en beneficio de los intercambios multiculturales.»
Yoshi Mikami es informático en Fujisawa (Japón). En diciembre de 1995, lanza la página web «The Languages of the World by Computers and the Internet» (Las lenguas del mundo por ordenadores y el Internet), conocida comúnmente como Logos Home Page o Kotoba Home Page. Su página presenta un breve historial de cada idioma con sus características, su sistema de escritura, su juego de caracteres, y por último la configuración del teclado en dicho idioma. Yoshi Mikami también es el coautor (junto con Kenji Sekine y Nobutoshi Kohara) de «The Multilingual Web Guide» (Guía por una web multilingüe), publicado en japonés por las ediciones O'Reilly en agosto de 1997, y traducido al inglés, al alemán y al francés en 1998.
Yoshi explica en diciembre de 1998: «Mi lengua materna es el japonés. Al haber realizado mis estudios de tercer ciclo en los Estados Unidos y trabajado en informática, he llegado a ser bilingüe japonés-inglés americano. Siempre me he interesado por otras lenguas y culturas, lo que me llevó a aprender sobre la marcha ruso, francés y chino. A finales de 1995, he creado en la web el sitio "The Languages of the World by Computers and the Internet" y he intentado proponer en inglés y en japonés un breve historial de todos estos idiomas, así como las características propias de cada lengua y de su fonética. Avalado por la experiencia adquirida, instigué a mis dos asociados a que escribieran un libro sobre la concepción, la creación y la presentación de sitios web multilingües, un libro que se publicó en agosto de 1997 bajo el título: "The Multilingual Web Guide", el primer libro del mundo escrito sobre semejante tema.»
¿Y cómo se imagina la evolución de la web multilingüe? «Miles de años atrás, en Egipto, en China y en otros lugares, la gente era más sensible a la necesidad de comunicar sus leyes y reflexiones en varios idiomas y no en uno solo. En nuestra sociedad moderna, cada Estado ha adoptado más o menos una sola lengua de comunicación. A mi parecer, el internet permitirá un uso más amplio de varios idiomas y de páginas multilingües (y no sólo una gravitación alrededor del inglés americano) y un uso más creativo de la traducción informática multilingüe. ¡99% de los sitios web creados en Japón están redactados en japonés!»
Randy Hobler, consultor en marketing internet de productos y servicios de traducción, escribe en septiembre de 1998: «Como el internet no tiene fronteras nacionales, los internautas se organizan según otros criterios, propios de este medio de comunicación. En términos de plurilingüismo, existen comunidades virtuales, por ejemplo lo que suelo llamar las "naciones de los idiomas", todos los internautas que comparten la misma lengua materna, cualquiera que sea su entorno geográfico. Así pues, la nación de habla hispana no abarca sólo a los internautas de España y de Latinoamérica, sino también a todos los hispanohablantes que viven en los Estados Unidos, o en Marruecos.»
Bruno Didier, webmaster de la biblioteca del Instituto Pasteur en París, escribe en agosto de 1999: «El internet no es una propiedad nacional ni lingüística. Es un vector de cultura, y el primer soporte de la cultura es la lengua. Cuantas más lenguas estén representadas en toda su diversidad, más culturas estarán representadas en el internet. No pienso que tengamos que ceder a la tentación sistemática de traducir las páginas a una lengua más o menos universal. Los intercambios culturales suponen una voluntad de ponerse al alcance de la persona a quien queremos encontrar. Y este esfuerzo pasa por la comprensión de su lengua. Por supuesto, mis palabras son muy utópicas. Porque concretamente, mi actividad de vigilancia en la red me incita más bien a echar pestes contra algunos sitios noruegos o brasileños que no dan ninguna información en inglés, por más mínima que sea.»
En el verano de 2000, los usuarios no anglófonos superan el 50%. Este porcentaje sigue aumentando, como lo demuestran las estadísticas de la sociedad Global Reach, actualizadas a intervalos regulares. El número de usuarios no anglófonos alcanza el 52,5% en el verano de 2001, el 57% en diciembre de 2001, el 59,8% en abril de 2002, el 64,4% en septiembre de 2003 (del cual un 34,9% de europeos no anglófonos y un 29,4% de asiáticos) y el 64,2% en marzo de 2004 (del cual un 37,9% de europeos no anglófonos y un 33% de asiáticos).
La base Eurodicautom está administrada por el Servicio de Traducción de la Comisión Europea. Esta base terminológica multilingüe de términos económicos, científicos, técnicos y jurídicos permite combinar entre sí doce lenguas: las once lenguas oficiales de la Unión Europea (alemán, danés, español, finlandés, francés, griego, inglés, italiano, portugués, sueco) y el latín.
A finales de 2003, Eurodicautom anuncia su integración en una nueva base terminológica que fusiona las bases de varias instituciones de la Unión Europea. Esta nueva base se podrá consultar en unos veinte idiomas con la ampliación de la Unión Europea hacia el Este y el número de países miembros que pasa de 15 a 25 miembros en mayo de 2004 y alcanza 27 miembros en enero de 2007. La nueva base terminológica IATE (InterActive Terminology for Europe - Terminología InterActiva para Europa) se lanza en marzo de 2007 con 1,4 millones de términos en 24 idiomas.
El sitio WordReference.com es creado en 1999 par Michael Kellogg para ofrecer diccionarios bilingües gratis para todos.
Michael escribe en su sitio web en marzo de 2010: «El internet ha sido una herramienta increíble en los últimos años para unir a la gente del mundo entero. Sin embargo, el idioma sigue siendo uno de los mayores obstáculos. El contenido del internet está en gran parte en inglés, y para muchos usuarios que leen esas páginas web, el inglés es un segundo idioma y no su lengua materna. Mi propia experiencia con el idioma español me ha enseñado que muchos usuarios entienden mucho de lo que leen, pero no todo.
Empezó este sitio en 1999 como un esfuerzo para proporcionar diccionarios bilingües en línea gratis y herramientas para todos. Desde entonces el sitio ha ido creciendo poco a poco para convertirse en uno de los sitios de diccionarios en línea más usados, y en el primer diccionario para los pares de idiomas inglés-español, inglés-francés, inglés-italiano, español-francés y español-portugués. Este sitio siempre figura entre los 500 sitios más visitados de la red.»
Los diccionarios más usados son el diccionario español (español-inglés y inglés-español), el diccionario francés y el diccionario italiano, con tablas de conjugación para el español, el francés y el italiano.
WordReference.com proporciona también fórum lingüísticos muy activos, así como versiones para descargar en el smartphone para algunos diccionarios: inglés-español, español-inglés, inglés-francés, francés- inglés, inglés-italiano, italiano-inglés, y nuevos pares de idiomas en devenir.