PERSONA GRÁFICA

EL BIG BANG DE LOS GRÁFICOS

En el MIT, la tesis doctoral de Ivan Sutherland, llamada «Sketchpad», dio a conocer al mundo en 1963 la idea de los gráficos interactivos por ordenador. Sketchpad era un sistema de trazo de líneas en tiempo real que permitía que el usuario interactuara directamente con la pantalla del ordenador por medio de un lápiz óptico. El resultado fue de tal magnitud y repercusión que a algunos de nosotros nos llevó una década entender y apreciar todo lo que aportaba. Sketchpad introdujo muchos conceptos nuevos: gráficos dinámicos, simulación visual, restricciones de resolución, seguimiento del lápiz óptico y un sistema de coordenadas prácticamente infinito, entre otros muchos. Sketchpad fue el big bang de los gráficos por ordenador.

Durante los siguientes diez años muchos investigadores perdieron interés por los aspectos de interacción y de tiempo real de los gráficos por ordenador. Casi toda la energía creativa se invirtió en la síntesis de imágenes reales en proceso diferido, no en tiempo real. Al mismo Sutherland le intrigaba el problema de la verosimilitud visual; es decir, cuánto detalle y realismo fotográfico se le podía conferir a una imagen por ordenador. La investigación se centró en problemas como sombreados, degradaciones, reflejos, refracciones y superficies ocultas. Imágenes de piezas de ajedrez y teteras con un alto nivel de resolución se convirtieron en los iconos del período posterior a los primeros bocetos.

Durante esta época, llegué a pensar que la comodidad y la facilidad de uso que se le proporcionaba al usuario para expresar sus ideas gráficas era más importante que la propia capacidad de la máquina para reproducirlas como fotografías sintéticas. De hecho, en el diseño de interfaz hombre-ordenador de esa época la máquina poseía un entendimiento limitado y las ideas eran ambiguas, lo cual suele pasar en las primeras etapas de cualquier proceso de diseño, a diferencia de las presentaciones más completas y consistentes de reproducciones sofisticadas y bien acabadas. El seguimiento on-line y en tiempo real de un boceto dibujado a mano me proporcionó un tema ideal de investigación para comprender mejor los gráficos por ordenador y hacer de ellos un medio más dinámico, interactivo y expresivo.

El concepto clave de mi trabajo era entender la «intención» gráfica de una persona. Si el usuario dibujaba una curva que parecía apuntar en alguna dirección, el ordenador asumía que ésa era la intención, mientras que en un boceto, que se hace mucho más deprisa, esta misma línea se podría haber dibujado con la intención de que fuese una recta. Si hubiéramos mirado estas líneas después y no mientras las dibujaban, podrían haber parecido iguales. Sin embargo, el comportamiento del usuario en cada caso indicaba dos diferencias de intención muy marcadas. Por otra parte, la manera de hacer bocetos variaba según la persona. Por lo tanto, el ordenador tenía que aprender el estilo de cada usuario. Encontramos el mismo concepto treinta años más tarde en la capacidad del Newton de Apple (que algunos cuestionan) para reconocer la escritura por medio de la adaptación de la máquina a la caligrafía del usuario (parece que funciona mejor con caligrafías muy elaboradas).

Mis investigaciones sobre la capacidad para identificar formas y objetos en un boceto me llevaron a pensar en los gráficos por ordenador más en términos de puntos que de líneas. En un boceto, lo que hay entre las líneas o dentro de ellas es el elemento clave para conocer la intención del dibujante.

Durante la misma época, en el PARC (Centro de Investigaciones de Palo Alto) de Xerox, los investigadores también habían inventado un sistema para gráficos por ordenador basado en las formas, en el cual se gestionaba y se daba textura a las áreas amorfas a través del almacenamiento y la presentación de imágenes como una colección masiva de puntos. Para entonces, unos cuantos de nosotros llegamos a la conclusión de que el futuro de los gráficos interactivos por ordenador no residía en las máquinas de trazo de líneas como Sketchpad, sino en sistemas punto a punto como el de la televisión, que mostraban las imágenes almacenadas en la memoria del ordenador sobre una pantalla, al contrario de lo que sucedía cuando se trabajaba con un haz de luz de un tubo de rayos catódicos en X y en Y, como comentamos en el apartado «Más allá de los primeros bocetos». El elemento original de los gráficos por ordenador, que hasta ahora había sido la línea, dio paso al píxel.

EL PODER DEL PÍXEL

De la misma manera que el bit es el átomo de la información, el píxel es la molécula de los gráficos. Lo llamo «molécula» porque un píxel generalmente se compone de más de un bit. El término «píxel», que viene de picture y element, fue inventado por quienes trabajaban en los gráficos por ordenador.

Pensemos en una imagen como si fuera una colección de hileras y columnas de píxeles o un crucigrama sin guías. Podemos decidir cuántas hileras y columnas utilizaremos por cada imagen monocromática. Cuantas más hileras y columnas utilicemos, más pequeños serán los recuadros, más fino el granulado y mejor el resultado. Si imaginamos este entramado sobre una fotografía y rellenamos cada recuadro con el valor de la intensidad de la luz, el crucigrama aparecerá resuelto como un conjunto de números.

En el caso del color tenemos tres números por píxel, generalmente uno para el rojo, otro para el verde y otro para el azul o uno para la intensidad, otro para el matiz y otro para la saturación. El rojo, el amarillo y el azul, como nos enseñan en la escuela, no son los colores primarios. Los tres colores primarios que se obtienen por adición, como en televisión, son el rojo, el verde y el azul, pero los tres colores primarios que se obtienen por sustracción, como en la impresión, son el magenta, el cian y el amarillo. Me han dicho que no les enseñamos estas palabras a los niños porque la palabra «magenta» es muy larga, pero muchos adultos tampoco han oído hablar nunca del cian. En fin.

En el caso del movimiento, se «muestrea» el tiempo, como se hace con los fotogramas de una película. Cada muestra es un fotograma por separado, otro crucigrama por resolver, y cuando se juntan todos y se proyectan en una sucesión lo bastante rápida, se produce el efecto visual del movimiento. Una de las razones por las que existen tan pocos gráficos dinámicos o por las que nos hemos encontrado con presentaciones de vídeo en una ventanita es que es muy difícil sacar el suficiente número de bits de la memoria y llevarlos a la pantalla en forma de píxeles con la velocidad necesaria (entre 60 y 90 fotogramas por segundo) para que el movimiento de la imagen no parpadee. Aunque, cada vez más, aparece un nuevo producto o técnica para acelerar este proceso.

La verdadera fuerza del píxel procede de su naturaleza molecular. Es decir, el píxel puede formar parte de cualquier cosa, ya sea texto, líneas o fotografías. Así como «los bits son bits», «los píxeles son píxeles». Con los suficientes píxeles y los necesarios bits por píxel (según la imagen sea en blanco y negro o en color), se puede obtener la excelente calidad de las pantallas de los ordenadores y las estaciones de trabajo actuales. Sin embargo, las desventajas, al igual que las ventajas, provienen de las limitaciones de la estructura tan primitiva de este entramado.

Por lo general, los píxeles requieren mucha memoria. Cuantos más píxeles y bits por píxel utilizamos, más memoria se necesita para almacenarlos. Una pantalla normal de 1000 por 1000 píxeles, a todo color, necesita 24 millones de bits de memoria. Cuando empecé a estudiar en el MIT, en 1961, la memoria costaba cerca de un dólar por bit. Hoy día, 24 millones de bits cuestan 60 dólares, lo que significa que podemos ignorar la gran cantidad de memoria que utilizan los gráficos por ordenador que funcionan a base de píxeles.

Pero hace sólo cinco años no era así, y la gente economizaba utilizando menos píxeles por pantalla y muchos menos bits por píxel. De hecho, las primeras pantallas punto a punto utilizaban sólo un bit por píxel, y de ahí hemos heredado el problema de los dentados en las imágenes de baja definición.

INDEFINICIONES O DUPLICACIONES INADMISIBLES

¿Alguna vez se ha preguntado por qué la pantalla de su ordenador tiene líneas dentadas? ¿Por qué las pirámides parecen zigurats? ¿Por qué las mayúsculas E, L y T se ven tan bien y en cambio las S, W y O parecen decoraciones navideñas mal hechas? ¿Por qué parece que las curvas las ha dibujado alguien que sufre parálisis?

La razón es que sólo se está usando un bit por píxel para presentar la imagen y el resultado es el efecto escalera o simulación espacial, lo cual no sucedería si los fabricantes de hardware y software utilizaran más bits por píxel y destinaran un poco de potencia informática a la resolución del problema.

¿Y por qué no protegen las presentaciones de ordenador para evitar los dentados? Hace diez años se hubiera aceptado el argumento de que la potencia del ordenador se tenía que invertir en otras cosas; además, no había tantos niveles intermedios de gris para evitar el fenómeno como ahora.

Desgraciadamente el consumidor se ha acostumbrado a los dentados. Incluso parece que estamos convirtiendo este defecto en una especie de mascota de la misma manera que los diseñadores gráficos, en los años sesenta y setenta, utilizaban ese extraño tipo de letra magnético, MICR, para crear ese aire «electrónico». En los años ochenta y noventa los diseñadores han vuelto a hacer lo mismo con los dentados de la tipografía cuando quieren que algo se vea «informatizado». Pero hoy día, lo que necesitamos no son más que líneas y tipos de letra con calidad de impresión y perfectamente definidos. No permita que nadie le diga lo contrario.

GRÁFICOS DE ICONOS

En 1976, Craig Fields, director de un programa en la Oficina de Tecnología Cibernética del ARPA (y más tarde director de la agencia), encargó a una empresa de animación por ordenador de Nueva York que produjera una película de un pueblo ficticio en el desierto llamado Dar El Marar. La animación mostraba una vista aérea desde un helicóptero que sobrevolaba Dar El Marar, con tomas de las calles, del pueblo visto a distancia, de las aldeas vecinas e incluso se acercaba para mostrar el interior de las casas. La película era un simulacro de Peter Pan aunque el objetivo no era pasearse por el pueblo y los edificios, sino explorar un mundo de información. Se diseñó un pueblo; se construyeron comunidades de información y se almacenaron datos en ciertos edificios, como hace una ardilla con sus nueces. Para recuperar esta información sólo había que ir en la alfombra voladora al sitio en que ésta se encontraba almacenada.

Simonides de Ceos (556-468 a. C.) era un poeta de la Grecia clásica famoso por su extraordinaria memoria. Cuando el techo de una sala de banquetes se derrumbó minutos después de que él hubiese salido del recinto, pudo identificar los restos de los invitados por el lugar donde cada uno estaba sentado: el método que utilizaba para recordarlo era mediante la asociación de áreas específicas de una imagen espacial de la mente con objetos materiales. También utilizaba esta técnica para recordar sus largos discursos: relacionaba partes de su discurso con los objetos y lugares de un templo; luego, mientras hablaba se paseaba mentalmente por el templo para extraer sus ideas de una manera clara y ordenada. Los primeros jesuitas en China se referían a este proceso como la construcción de «palacios de la mente».

En estos ejemplos se navega en un espacio tridimensional para almacenar y extraer información. Algunas personas poseen facultades para esto y otras no.

La mayoría de nosotros funcionamos mejor en dos dimensiones. Tomemos como ejemplo la perspectiva bidimensional de la estantería de libros que tenemos en casa. Para encontrar un libro lo único que tenemos que hacer es ir «adonde» está. Seguramente recordamos su tamaño, color, grosor y tipo de cubierta. Nos es más fácil recordar esto si fuimos nosotros mismos los que lo pusimos «ahí»; hasta el escritorio más desordenado le resulta familiar al usuario, pues fue él quien lo «desordenó», por decirlo de alguna manera. Sería terrible que viniese un bibliotecario a ordenar nuestros libros según el sistema decimal Dewey o que la señora de la limpieza ordenara nuestro escritorio. Estaríamos perdidos.

Este tipo de observaciones condujeron al desarrollo de lo que se llamó «Sistema de Gestión de Datos en Tres Dimensiones» (SDMS). Este sistema se instaló en una habitación con una pantalla del suelo al techo, de pared a pared y a todo color, con dos pantallas auxiliares de escritorio, sonido octofónico, una silla equipada Eames y demás parafernalia. El SDMS proporcionaba al usuario una interfaz de sofá y la oportunidad de volar sobre la información y mirar, desde su sillón, por una pantalla del tamaño de una ventana. El usuario era libre de acercar la imagen y hacer panorámicas para navegar a través del paisaje ficticio y bidimensional, llamado Dataland. Podía visitar archivos personales, correspondencia, libros electrónicos, mapas realizados por satélite y una extensa variedad de nuevos tipos de información como el videoclip de Peter Falk en «Colombo» o una colección de 54 000 diapositivas sobre arte y arquitectura.

En realidad, Dataland era un paisaje de pequeñas imágenes que ilustraban la función o la información que había tras ellas. Escondida detrás de una imagen de un calendario de escritorio estaba la agenda del usuario. Si éste, por ejemplo, dirigía el sistema hacia el interior de la imagen de un teléfono, el sistema de gestión de datos en tres dimensiones pondría en marcha un programa telefónico con Rolodex. Así nacieron los iconos. Coqueteamos con la idea de usar la palabra «glifos», porque el significado de iconos que aparece en el diccionario no es muy apropiado, pero así se quedó: «iconos».

Estas imágenes del tamaño de un sello de correos no sólo ilustraban la información o las funciones, sino que cada una tenía un «lugar». Como en los libros en una estantería, uno tenía que ir hacia donde estaba el libro, recordar el lugar en el que estaba, su color, su tamaño y, dado el caso, su sonido.

El sistema de gestión de datos en tres dimensiones estaba tan adelantado para su época que tuvo que pasar una década y esperar al nacimiento de los ordenadores personales antes de que se pusieran en marcha algunos de los conceptos que planteaba. Hoy día, la gente ya ha asimilado la imaginería de cubos de basura, calculadoras y auriculares de teléfono. De hecho, algunos sistemas se refieren a la pantalla como «escritorio». Lo único que ha cambiado es que las Dataland actuales no se extienden por toda la habitación (de suelo a techo y de pared a pared), sino que están plegadas en «ventanas».

LA FORMA DE LAS VENTANAS

No deja de asombrarme lo mucho que puede influir en el mercado un nombre bien elegido, aunque pueda despistar al consumidor. La decisión de IBM de llamar «PC» a su ordenador personal fue genial. A pesar de que Apple ya estaba en el mercado hacía cuatro años, el nombre de PC se adoptó como sinónimo de ordenador personal. De la misma manera, cuando Microsoft decidió llamar «Windows» a su segunda generación de sistemas operativos, se adoptó ese nombre para siempre, a pesar de que Apple había tenido mejores ventanas cinco años antes y muchos fabricantes de estaciones de trabajo ya las utilizaban habitualmente.

Las ventanas existen porque las pantallas de los ordenadores son pequeñas, y así un espacio de trabajo relativamente reducido puede usarse para guardar una serie de procesos diversos que se pueden activar en cualquier momento. Todo este libro se escribió en una pantalla de 9 pulgadas (22 centímetros) sin utilizar papel, excepto el que ha usado el editor. Para la mayoría de la gente, utilizar ventanas es como conducir una bicicleta, ni siquiera se acuerda de cómo aprendió, lo hace y ya está.

Las ventanas representan una metáfora interesante para el futuro de la televisión. En Estados Unidos, más que en cualquier otro país, se ha insistido en que la imagen televisiva cubra toda la pantalla. Pero existe el inconveniente de que no todas las películas ni programas de televisión se editaron en formato rectangular.

De hecho, a principios de los años cincuenta, la industria cinematográfica cambió a formatos de pantalla más grandes como Cinerama, Super Panavisión, Super Technirama, Panavisión de 35 milímetros y Cinemascope, que aún se utilizan hoy día, precisamente para boicotear la emisión televisiva de películas recién estrenadas. La relación altura-anchura de 3 por 4 de la televisión actual proviene de las películas que se realizaron antes de la Segunda Guerra Mundial, y no es compatible con el Cinemascope o con las producciones de formato rectangular de los últimos cuarenta años.

Las emisoras del continente europeo resolvieron la diferencia de la relación altura-anchura por medio del proceso llamado «enmarcar la carta», que consiste en cubrir de negro la parte superior e inferior de la pantalla para que el área restante corresponda a la relación altura-anchura de las películas. El espectador sacrifica unos cuantos píxeles, pero en cambio puede ver una reproducción fiel de la forma de cada fotograma. De hecho, pienso que el efecto de «enmarcar la carta» es doblemente satisfactorio porque introduce un contorno horizontal muy bien definido en la parte superior e inferior de la imagen, que de otra manera estaría delimitada por el borde de plástico del aparato de televisión.

Esto rara vez se hace en Estados Unidos. En lugar de eso se realiza un pan-and-scan (barrido-y-selección) de una película para transferirla a un vídeo. Se toma la pantalla grande de la película y se reduce a un rectángulo de una relación altura-anchura de 3 por 4. No sólo se comprime la película (aunque esto se hace con los títulos y los créditos), sino que a medida que ésta pasa por una máquina, un operador mueve manualmente una ventana de 3 por 4 sobre la ventana de la película llevándola a uno u otro lado para captar las partes más relevantes de cada escena.

Algunos directores de cine, como Woody Allen, no permiten esta manipulación con sus películas, pero a la mayoría no les importa. Uno de los ejemplos en los que fracasó el pan-and-scan fue en El Graduado. En la escena en que Dustin Hoffman y Anne Bancroft se quitan la ropa, cada uno en un extremo de la pantalla, el operador no logró meter a ambos en el mismo fotograma de vídeo.

En Japón y en Europa se ha insistido mucho para cambiar a una relación altura-anchura de 9 por 16, y los competidores de la televisión de alta definición en Estados Unidos les están siguiendo como borreguitos. De hecho, un formato de 9 por 16 puede ser aún peor que el de 3 por 4 porque todo el material existente en vídeo (que es 3 por 4) tendrá que presentarse con unos listones negros verticales a cada lado de la pantalla de 9 por 16, las llamadas «cortinas». Sólo que éstas no tienen la misma utilidad visual que el proceso de «enmarcar la carta» y no se puede hacer un barrido-y-selección para transferirlas a vídeo.

La relación altura-anchura tendría que ser una variable. Cuando la televisión tiene suficientes píxeles, un sistema de ventanas parece muy lógico: la experiencia de los 10 pies y la de las 18 pulgadas tienden a fundirse en una sola. De hecho, en el futuro, cuando se generalice la alta resolución y la presentación mural, de suelo a techo y de pared a pared, podremos colocar la imagen televisiva sobre la pantalla de la misma manera que ponemos las plantas en la habitación. Ya no se tratará de un marco alrededor de una pequeña pantalla, sino de la pared completa.

GRÁFICOS DE CONSUMO

Hasta hace tan sólo cinco años, los fabricantes de ordenadores, incluido Apple, eran reticentes a considerar el ámbito doméstico como un objetivo primordial de mercado. Es difícil de creer, pero hace pocos años el precio de las acciones de Texas Instruments subió cuando anunció que dejaba el negocio de los ordenadores personales.

En 1977, Frank Cary, presidente de IBM, anunció a los accionistas que la firma entraría en el negocio de los aparatos domésticos. Se hizo un sondeo al estilo de IBM y se consideraron varias posibilidades. Una de ellas era los relojes de pulsera, pero IBM se decidió por el ordenador personal. El proyecto se mantuvo en el máximo secreto y recibió el nombre de Castle, en el que yo participaba como asesor un día a la semana. Se concibió un ordenador personal muy ambicioso que incluía un videodisco digital.

El distinguido diseñador industrial Elliott Noyes construyó un prototipo de ordenador personal que todos nosotros nos sentiríamos orgullosos de tener veinte años después. Pero ese sueño pronto empezó a desmoronarse. Los laboratorios de IBM en Poughkeepsie, Nueva York, no lograban hacer funcionar el videodisco digital (que transmitía diez horas ininterrumpidas gracias al láser que atravesaba un disco transparente, a diferencia de los actuales en que se refleja en un disco brillante). Así que el ordenador personal y el videodisco quedaron separados. Castle estaba dividido.

El ordenador personal del proyecto se envió a otro laboratorio de IBM en Burlington, Vermont, y más tarde a Boca Ratón; el resto es historia. El proyecto del videodisco se dejó de lado en favor de un proyecto compartido con MCA (pacto que las dos empresas lamentaron más tarde). Castle se malogró y el ordenador personal tuvo que esperar unos cuantos años más hasta que apareció el garaje de Steve Job.

Por la misma época, los juegos electrónicos introdujeron un tipo diferente de ordenadores y gráficos. Estos productos eran muy dinámicos e interactivos. Además, su hardware y contenido se mezclaban muy bien. Los fabricantes de juegos no ganan dinero con el hardware, sino con los juegos. Es como comparar maquinillas y hojas de afeitar.

Pero los fabricantes de juegos, como aquellas empresas de ordenadores con mentalidad de sistemas de propietario que ahora han desaparecido, se aferran a sus sistemas cerrados en lugar de competir con imaginación. Sega y Nintendo también desaparecerán si no se dan cuenta a tiempo de que el PC se está comiendo el pastel.

Hoy día los diseñadores independientes de juegos deben darse cuenta de que sus productos podrían ser éxitos de ventas si se destinaran a sistemas abiertos. Intel se propone vender cien millones al año. Es por esto que dentro de muy poco tiempo los gráficos por ordenador del PC competirán con los juegos más avanzados. Los juegos del PC superarán a otros sistemas cerrados. El único terreno en el que el hardware con un destino específico puede tener éxito a corto plazo es en el campo de la realidad virtual.