Capítulo 4

CRUZANDO LA FRONTERA DE LA ALTA TECNOLOGÍA

La transición hacia una sociedad de la información prácticamente carente de trabajo es la tercera y última etapa de un gran cambio en los modelos económicos marcados por la transición desde las fuentes renovables a las no renovables de energía y desde las fuentes biológicas de poder a las mecánicas. A lo largo de las grandes etapas de la historia, la supervivencia humana ha estado íntimamente ligada a la fecundidad de la tierra y a los cambios de estaciones. Los flujos solares, el clima y la sucesión ecológica han condicionado cualquier tipo de economía existente en la tierra. El ritmo de la actividad económica quedaba fijado por el dominio sobre la energía eólica, sobre la hidráulica, sobre la de los animales y sobre la del ser humano.

Varios desarrollos producidos a finales de la Edad Media sentaron las bases para la total conversión de la vida económica al poder de la máquina. En Inglaterra, la apertura de nuevas rutas para el comercio, el crecimiento de la población, la aparición de las ciudades y la economía de mercado incrementaron el flujo de la actividad económica, con lo que generaron tensiones en la capacidad para mantener el equilibrio ecológico del país. La tala de grandes extensiones de bosque con la finalidad de poder construir barcos para la Armada Real y suministrar materiales de construcción y combustible para garantizar el calor de una población creciente dejó tras de sí una gran deforestación, que posteriormente propició una crisis de energía en toda Inglaterra. Esta situación fue la que obligó a buscar una nueva fuente de energía: el carbón. Más o menos por la misma época, un inglés llamado Thomas Savory inventó una bomba de vapor que permitía extraer los excesos de agua del fondo de las minas. La posibilidad conjunta de que el carbón y las máquinas pudiesen producir «vapor» marcó el inicio de la era económica moderna y se convirtió en la primera etapa del largo viaje de sustitución del trabajo humano por la fuerza de las máquinas.

En la primera revolución industrial el vapor se empleó para abrir minas de metales, producir textiles y fabricar un amplio abanico de productos que, en épocas anteriores, habían sido fabricados a mano. Los buques de vapor sustituyeron a los viejos veleros y la locomotora de vapor ocupó el lugar de los vagones tirados por caballos; así se mejoró ampliamente el proceso de transporte y movimiento de materias primas y de productos terminados. El motor de vapor se convirtió en un nuevo tipo de esclavo laboral, una máquina cuya potencia física excedía con mucho la fuerza conjunta de animales y seres humanos.

La segunda revolución industrial se produjo entre 1860 y la primera guerra mundial. El petróleo empezó a competir con el carbón mientras que la electricidad fue utilizada por primera vez, creando una nueva fuente de energía para hacer funcionar los motores, encender las luces de las ciudades y proporcionar comunicación instantánea entre las personas. Al igual que lo que ocurrió con la revolución del vapor, el petróleo, la electricidad y los inventos que acompañaron la segunda revolución industrial continuaron transfiriendo el peso de la actividad económica del hombre a la máquina. En la minería, la agricultura, el transporte y la fabricación, las fuentes inanimadas de potencia combinadas con máquinas permitían aumentar, amplificar y, finalmente, sustituir cada vez más al hombre y al animal en las tareas propias del proceso económico.

La tercera revolución industrial apareció inmediatamente después de la segunda guerra mundial y es en la actualidad cuando empieza a tener un impacto significativo en cómo la sociedad organiza su actividad económica. Los robots controlados numéricamente y los ordenadores y sus avanzados «software» están invadiendo las últimas esferas humanas disponibles: el reino de la mente. Adecuadamente programadas, estas nuevas «máquinas pensantes» son capaces de realizar funciones conceptuales, de gestión y administrativas y de coordinar el flujo de producción, desde la propia extracción de materias primas hasta el marketing y la distribución de servicios y productos acabados.

MÁQUINAS QUE PIENSAN

Muchos científicos especializados en el mundo de los ordenadores han planteado sus nuevas creaciones mecánicas casi en términos míticos. Edward Fredkin, un importante especialista en ordenadores, llega más lejos al reclamar que la nueva tecnología representa el tercer gran acontecimiento en toda la historia del universo. Fredkin asegura que «el primer acontecimiento es la creación del universo… El segundo es la aparición de la vida… Y el tercero, la aparición de la inteligencia artificial[1]».

El término «inteligencia artificial» fue acuñado en la primera conferencia AI que tuvo lugar en el Darmouth College en 1956. En la actualidad, cuando los científicos hablan de inteligencia artificial quieren decir en general «el arte de crear máquinas que realizan funciones que requieren inteligencia cuando la gente las lleva a cabo[2]». A pesar de que los científicos, filósofos y críticos sociales discrepan, a menudo, de lo que constituye inteligencia «genuina» en oposición a lo establecido por las reglas de la computación y del álgebra, no existe ningún tipo de dudas respecto a que los ordenadores asumen una serie de tareas cada vez más complejas y que, a la vez, cambian de raíz nuestros conceptos de individuo y de sociedad.

Aunque la mayoría de los científicos especialistas en ordenadores dudarían en poner la inteligencia artificial en el mismo nivel de importancia que la creación del universo y que la aparición de la vida en la tierra, todos ellos están prácticamente de acuerdo en que en algún momento del siglo próximo esta potente nueva fuerza tecnológica será capaz de reproducir la estructura operativa de la mente humana. El gobierno japonés ha lanzado, recientemente, un proyecto de investigación a diez años para desarrollar ordenadores que puedan imitar las funciones más sutiles del cerebro humano. Este ambicioso esfuerzo, que ha sido denominado Programa del Mundo Real (Real World Program), intentará desarrollar lo que los japoneses denominan «proceso de información flexible» o también «Software Lógico» (Softlogic), y que no es más que la forma de pensamiento intuitivo que el ser humano usa cuando toma decisiones[3]. Mediante el empleo de nuevos ordenadores equipados con procesadores paralelos a gran escala, redes nerviosas y señales ópticas, los japoneses esperan crear una nueva generación de máquinas inteligentes que puedan leer textos, comprender complejos discursos, interpretar gestos faciales y expresiones e incluso ser capaces de anticipar comportamientos.

Ya existen máquinas inteligentes equipadas con sistemas rudimentarios de reconocimiento de estructuras orales. Empresas como BBN Systems and Technologies en Cambridge, Massachusetts y Dragón Systems en Newton, también en Massachusetts, han desarrollado ordenadores con vocabularios de hasta 30.000 términos[4]. Algunas de las nuevas máquinas pensantes pueden reconocer conversaciones coloquiales, mantenerlas con sentido e incluso solicitar información adicional sobre las decisiones a tomar, dar consejos y responder a preguntas.

En la actualidad existen algo más de 100 millones de ordenadores en el mundo, mientras que las empresas del sector predicen que, a finales del actual siglo, se utilizarán más de 1000 millones[5]. Algunos especialistas ya están empezando a pensar en el día en que las máquinas inteligentes serán suficientemente sofisticadas como para que evolucionen por sí mismas —creando, con ello, su propia conciencia— sin necesidad de la constante intervención humana. Daniel Hillis, de Thinking Machines Corporation, afirma que «las máquinas serán tan suficientemente perfectas para tratar temas complejos que podrán comenzar a solucionar su propia complejidad, con lo que tendremos sistemas autoevolutivos[6]». Nicholas Negroponte, del MIT Media Lab, prevé una nueva generación de ordenadores tan humanos en sus comportamientos y en su inteligencia que les considera más compañeros y colegas que simples ayudas mecánicas. En su libro The Architecture Machine, Negroponte escribe: «Imaginemos una máquina que puede seguir una determinada metodología de diseño y, al mismo tiempo, discernir y asimilar las diferencias conversacionales. La misma máquina, después de observar un determinado comportamiento, podrá construir un modelo predictivo de unas determinadas características conversacionales… El diálogo resultaría tan íntimo e incluso exclusivo que tan sólo la persuasión mutua y el compromiso generarían ideas; ideas irrealizables si sólo hubiesen sido generadas por un único participante en la conversación[7]».

En el futuro los científicos esperan poder humanizar sus máquinas, crear ordenadores a imagen y semejanza, en todos los aspectos, de las personas y que puedan conversar con el usuario desde una pantalla de vídeo. A finales de la primera mitad del siglo XXI los especialistas creen que será posible crear imágenes holográficas de tamaño real capaces de interactuar con seres humanos reales en tiempo y en espacio reales. Estas imágenes tridimensionales, afirma Raymond Kurzweil, consejero delegado de Kurzweil Applied Intelligence, serán tan comunes que se harán «indistinguibles de la gente real[8]».

Algunas de las principales figuras en el rápido mundo evolutivo de los ordenadores no ven sus creaciones tanto como máquinas, en el viejo sentido de apéndices mecánicos, sino como seres inteligentes evolucionados, dignos de respeto y de deferencia. Negroponte afirma que la relación existente entre seres humanos y ordenadores no será equivalente «a la de un amo y su esclavo sino a la de dos asociados que tienen potencial y deseos de autocomplacencia mutua[9]». Hillis personaliza su relación con los ordenadores yendo más allá al comentar: «Me gustaría construir una máquina que pudiera estar orgullosa de mí[10]».

LAS ESPECIES CONECTADAS

El sueño de crear una máquina que imite a los seres humanos es algo que data de la Antigüedad. Hace más de dos mil años Herón de Alejandría describió un autómata que podía imitar a los animales, a los pájaros y a los seres humanos. A principios de la era industrial, cuando los conocimientos de los principios de la mecánica captaron la atención y la imaginación de filósofos y de artesanos, la construcción de autómatas fue algo que se hizo muy popular en Europa. Los ingenieros construyeron pequeños seres mecánicos que podían escribir prosa y poemas, pequeñas bailarinas mecánicas que danzaban al son de una determinada música y animales de todo tipo que podían realizar proezas asombrosas. Los juguetes, que se convirtieron en elementos preferidos de príncipes y reyes, fueron mostrados y exhibidos por toda Europa. Los autómatas más elaborados fueron inventados por un brillante ingeniero francés, Jacques de Vaucanson. En 1738 Vaucanson asombró a sus conciudadanos con la presentación de un flautista completamente automático. La miniatura mecanizada de un ser humano «tenía labios móviles, lengua móvil que actuaba como válvula de flujo de aire y unos dedos móviles cuyas puntas abrían y cerraban los acordes de la flauta». Voltaire quedó tan impresionado a la vista de la notable pequeña criatura, casi viva, que apodó a Vaucanson «el rival de Prometeo». El trabajo más importante de este ingeniero fue un pato mecánico, un autómata de tal versatilidad que ninguno de los desarrollos posteriores lo ha podido superar. El pato podía beber agua de una charca con su pico, podía comer pedazos de grano y, en una cámara especial, visible para los admirados espectadores, llevar a cabo el proceso de digestión. «Cada una de sus alas estaba formada por cuatrocientas piezas móviles y podían abrirse y cerrarse como las de un pato real[11]».

Mientras que muchos artesanos acapararon la idea de construir autómatas a imitación real intentando reproducir las características físicas y los movimientos de las criaturas sensitivas, otros entusiastas de la mecánica lucharon con la idea de crear complejos mecanismos que pudiesen reproducir la mente humana e incluso resolver problemas complejos que requirieran de inteligencia. La primera calculadora automática fue inventada por Blaise Pascal en 1642. Su máquina se convirtió rápidamente en objeto de comentario en toda Europa, y llevó a Pascal a afirmar que «la máquina aritmética produce efectos que se hallan más cerca de los pensamientos que de las acciones de los animales». El filósofo e inventor calmó su entusiasmo al observar que su invento «no hace nada que no podamos atribuirnos, al igual que los animales[12]».

Gottfried Wilhelm Leibniz incrementó el valor de la invención de Pascal añadiendo las multiplicaciones al repertorio de la máquina de calcular. Así, en 1821 Charles Babbage escribió un trabajo titulado «Observations on the Application of Machinery to the Computation of Mathematical Tables», que se considera todavía como el primer trabajo teórico sobre los ordenadores modernos. Más tarde Babbage concibió un nuevo tipo de máquina, un aparato analítico que podía ser programado para resolver problemas lógicos o de cálculo. Si bien la máquina de Babbage no llegó nunca a funcionar plenamente, debido en parte a que no existía la tecnología necesaria para ejecutar este sueño, su anticipación en muchos de los problemas básicos de la moderna teoría de los ordenadores fue extraordinaria. Babbage incluyó tarjetas perforadas en su diseño e incluso una impresora cincuenta años antes de que se inventasen la máquina de escribir y la de tipografía. Babbage incluyó además una unidad de almacenamiento de programas y desarrolló una máquina de lenguaje no muy distinta de las empleadas en los modernos ordenadores actuales[13].

William Burroughs inventó la primera máquina calculadora moderna plenamente operacional, a finales del siglo XIX. Si bien la máquina de Burroughs no era programable, su éxito comercial preparó el terreno para la introducción de los ordenadores en la vida cotidiana empresarial del país.

En 1890 el US Census Bureau convocó un concurso para hallar nuevas y más innovadoras formas de contabilizar los censos nacionales. En aquella época, el país se había hecho tan grande y los datos demográficos tan inabarcables, que llevó más de siete u ocho años calcular los datos del censo anterior. El ganador del concurso fue un ingeniero llamado Herman Hollerith que trabajaba para el propio Census Bureau. El joven inventor usaba tarjetas perforadas del mismo tipo de las imaginadas por Babbage. También creó una máquina perforadora para la codificación de la información y un lector de tarjetas. La máquina electromecánica de procesado de información de Hollerith completó el censo de 1890 en menos de dos años y medio, con lo que acortó el tiempo anteriormente necesario para el cálculo de la información en dos tercios. El inventor creó su propia empresa, la Tabulating Machine Company, para comercializar la asombrosa nueva máquina. En 1924 el nombre de la empresa se transformó en International Business Machines, más conocida como IBM[14].

El primer ordenador digital programable fue inventado en 1941 por un ingeniero civil alemán, Konrad Zuse. Su máquina estaba diseñada para facilitar el trabajo de los ingenieros civiles al efectuar sus cálculos. Más o menos al mismo tiempo, la Inteligencia Británica inventó su propio ordenador —un modelo no programable— con la finalidad de ayudar a decodificar los mensajes militares alemanes. La máquina, llamada Robinson, se convirtió en el elemento central de una importante operación para recoger información que abarcaba a más de 10.000 personas. El Ultra Team, tal como se le conoció, decodificó con pleno éxito el código alemán, dando con ello una información vital a los aliados sobre los planes estratégicos y los movimientos de tropas durante la guerra[15].

En 1944, científicos de la Universidad de Harvard y del MIT inventaron su propio ordenador programable, el Mark I. La máquina tenía más de cincuenta pies de largo y ocho pies de alto y fue apodada «el monstruo» por sus inventores[16]. Justo dos años más tarde, científicos de la Moore School of Engineering de la Universidad de Pennsylvania desvelaron un ordenador incluso mucho más avanzado: el Electronic Numerical Integrator and Computer o ENIAC, construido con 18.000 válvulas, 70.000 resistores, 10.000 condensadores y 6000 interruptores. Tenía doce metros de largo y más de seis metros de alto y pesaba más de treinta toneladas[17]. A pesar de resultar compleja y de farragosa operatividad, la máquina constituía una maravilla de moderna tecnología. El ENIAC era el primer ordenador electrónico digital de uso general (programable). Se dijo que la gigantesca máquina pensante era tan potente que las luces de Filadelfia parpadearon cuando sus creadores la pusieron en marcha por primera vez[18]. Yoneji Masuda, el experto japonés en ordenadores, resumió la importancia histórica del nuevo invento mediante la siguiente observación: «Por primera vez en la historia, una máquina se ha concebido para crear y suministrar información[19]».

Los inventores del ENIAC, J. Presper Eckert y John W. Mauchly, vendieron su máquina a Remington-Rand, quien a su vez la rebautizó como Universal Automatic Computer o UNIVAC. El Census Bureau se convirtió en el primer cliente comercial y adquirió el UNIVAC para ayudar a calcular el censo de 1950[20]. En 1951 seis ordenadores electrónicos se hallaban en funcionamiento. Cuando la cadena de televisión CBS empleó el UNIVAC para predecir con éxito la victoria electoral del presidente Einsenhower sobre el senador Adlai Stevenson, la nación se enteró, por primera vez, de la existencia de esta extraña nueva máquina[21].

IBM, que se había mofado públicamente, dos años antes, del potencial comercial de los ordenadores —prediciendo un mercado mundial de no más de veinticinco máquinas— aceptó súbitamente la nueva tecnología. En 1953, IBM lanzó al mercado el modelo 650, una máquina que podía ser alquilada por 3000 dólares al mes. De nuevo la empresa subestimó el alcance del mercado considerando que éste no sería de más de un centenar de máquinas. Las empresas americanas resultaron ser mucho más optimistas, y alquilaron miles de ordenadores IBM en los años siguientes[22].

Los primeros ordenadores era incómodos, requerían tomas de alta tensión y generaban una gran cantidad de calor. Complejos y costosos de construir, se averiaban constantemente. Sin embargo, no pasó mucho tiempo sin que los científicos especialistas en ordenadores estuviesen en condiciones de sustituir las caras válvulas de vacío por pequeños componentes sólidos o por transistores. Esta segunda generación de máquinas revolucionó la industria, reduciendo drásticamente el tamaño y el coste de los ordenadores, mientras se incrementaba tanto su capacidad como su eficiencia. Una tercera generación apareció a finales de la década de los años 50, con la introducción de los circuitos integrados en un único proceso de fabricación. A principios de la década de los años 70, una cuarta generación basada en la microtecnología y en los microchips hizo su aparición, reduciendo una vez más el coste y agilizando los procesos, y así los ordenadores se convirtieron en una parte omnipresente de la vida cotidiana en cualquier país industrial[23].

PUESTA EN MARCHA DE LOS ORDENADORES

La aparición de los ordenadores programables en los años 50 resultó favorable. La industria, en general, ya se hallaba inmersa en un radical proceso de reestructuración de las operaciones con la finalidad de automatizar, en la medida de lo posible, los procesos de producción. En abril de 1947 el vicepresidente de Ford Motor Company, Del Harder, puso en marcha un «departamento de automatización». Era la primera vez que se empleaba el término «automatización[24]». Harder no tuvo en cuenta, sin embargo, el importante desarrollo en la industria de los ordenadores que pronto haría que automatización y computerización fuesen sinónimos en la mente de muchas personas. En su lugar, esta nueva unidad pretendía incrementar el uso de las tecnologías ya existentes: hidráulica, electromecánica y neumática, con la finalidad de acelerar las operaciones y mejorar la productividad en la cadena de montaje.

Hablar de la «fábrica automática» fue algo que empezó a estar de moda. Justo seis meses antes, Fortune anunció que «la amenaza y la promesa de máquinas para no trabajar está más cerca que nunca[25]». La revista publicó un provocativo artículo escrito por dos canadienses titulado «Máquinas sin hombres», en el que los autores, J.J. Brown y E.W. Leaver, imaginaban las fábricas del futuro sin mano de obra, funcionando automáticamente. Los autores apuntaban hacia el gran número de nuevas innovaciones en mecanización y hacia el revolucionario potencial de la revolución de la electrónica para llegar a la conclusión de que estaba a punto de llegar el día en el que se verían las fábricas trabajando automáticamente. Los autores desacreditaban el trabajo humano al calificarlo como dependiente de lo disponible en el mercado y argumentaban que las nuevas tecnologías de control que se desarrollaban «no están sujetas a ninguna limitación humana. No suelen estar trabajando con la mente puesta en el reloj. Nunca tienen hambre o se sienten fatigados. Están siempre conforme con las condiciones laborales y nunca piden salarios más altos. No sólo crean menos problemas que los seres humanos en un trabajo similar, sino que se les puede incorporar una bocina de alarma que suene en la central de control cuando haya algo que no funcione correctamente[26]».

Este artículo, y otros que se escribieron posteriormente, ofrecían una grandiosa visión: las perspectivas para una tercera revolución industrial. El tema de la fábrica automática llegó a oídos receptivos. El final de la segunda guerra mundial trajo una ola de desorden laboral. Preocupados por la congelación salarial impuesta durante la guerra y ansiosos por recuperar el terreno perdido en la negociación colectiva debido a los planteamientos de ausencia de huelga mientras duró el conflicto, el movimiento laboral organizado empezó a retar a las direcciones de las empresas en un amplio frente. Entre 1945 y 1955 los Estados Unidos experimentaron más de 43.000 huelgas en lo que puede considerarse como la mayor ola de confrontaciones entre las empresas y la clase obrera en su historia industrial[27].

La dirección de las empresas estaba cada vez más preocupada porque los trabajadores invadían, de forma organizada, lo que había sido su terreno de actuación tradicional. Temas relacionados con la contratación y el despido, las promociones, las actuaciones disciplinarias, los beneficios sociales y los aspectos derivados de la seguridad y la higiene en el trabajo fueron, poco a poco, introducidos en los procesos de negociación colectiva en cada uno de los diferentes sectores industriales. Business Week advertía que «ya ha llegado el momento de tomar posiciones… contra la futura intromisión en los terrenos de la dirección[28]».

Amenazados por la creciente intensidad en las demandas laborales y determinados a mantener su amplio control sobre los medios de producción, los gigantes industriales americanos se volvieron hacia las nuevas tecnologías de la automatización tanto para quitarse de encima a los trabajadores reivindicativos como para afianzar la productividad y los beneficios. La nueva estrategia empresarial tuvo éxito. En 1961 un subcomité de la Cámara de Representantes de los Estados Unidos publicó una serie de estadísticas sobre el efecto de la automatización en el empleo en los cincuenta años precedentes. La Steel Workers Union informó de una pérdida de 95.000 empleos mientras que la producción se incrementaba un 121%. El United Auto Workers (UAW) informó de la existencia de más de 160.000 personas despedidas por la automatización. La International Union of Electricians (IUE) reclamaba una pérdida de 80.000 puestos de trabajo en la industria eléctrica, mientras que la productividad se había incrementado en más de un 20%[29]. Entre 1956 y 1962 más de 1.500.000 trabajadores perdieron sus empleos en el sector secundario en los Estados Unidos[30].

El sueño de las empresas de disponer de fábricas sin trabajadores se acercó un paso más hacia la realidad a principios de los años 60, con la introducción de los ordenadores directamente en las plantas de fabricación. Las nuevas «máquinas pensantes» eran capaces de gestionar un mayor número de tareas que las que hubiese podido concebir Del Harder cuando puso en marcha la primera división de automatización en Ford Motor Company, después de la guerra. Los nuevos planteamientos relativos a la automatización a través de ordenadores fueron denominados control numérico (N/C). Con él las instrucciones sobre cómo modelar, limar, soldar, fresar o pintar una pieza de metal quedan almacenadas en un programa de ordenador. Éste es el que da las instrucciones a una máquina-herramienta sobre cómo producir una pieza, así como a un robot en la cadena de montaje sobre cómo conformar o montar las piezas en un determinado producto. El control numérico ha sido calificado como «probablemente el desarrollo nuevo más significativo en la tecnología de fabricación desde que Henry Ford introdujo el concepto de cadena de montaje móvil[31]». Desde el punto de vista de la gestión, el control numérico aumenta sensiblemente la eficiencia y la productividad mientras que, al mismo tiempo, disminuye las necesidades de mano de obra en la planta de fabricación.

Con todo ello, las habilidades, conocimientos y prácticas que hasta entonces habían sido necesarias por parte de los trabajadores fueron efectivamente transferidas a una cinta de ordenador, permitiendo así que el proceso de fabricación pudiese ser controlado a distancia con menores necesidades de supervisión directa o de intervención en el lugar de producción. Con el control numérico muchas de las decisiones que pueden afectar a la planta y a los procesos de fabricación pueden ser transferidos de los seres humanos a los programadores y a la dirección. Las ventajas de la nueva tecnología de automatización no pasaron desapercibidas para la dirección de las empresas. Desde ahora se puede ejercer un control más estrecho sobre todos y cada uno de los diferentes aspectos de la producción, incluyendo el propio ritmo de fabricación. Los líderes empresariales, en especial los del sector secundario, demostraron gran entusiasmo por la nueva revolución de la automatización. La empresa consultora especializada en gestión de empresas de Chicago, Cox & Cox, publicó un informe sobre máquinas-herramienta controladas numéricamente; declaró que «estamos a las puertas de una revolución en la gestión… la gestión de máquinas en lugar de la gestión de hombres[32]». Alan A. Smith de Arthur D. Little Inc. resumía los sentimientos de muchos de sus colegas. Poco después de la primera demostración de control numérico realizada en el MIT, escribía James McDonough, uno de los coordinadores del proyecto, para expresar su entusiasmo por el mismo. Smith proclamaba que la nueva generación de herramientas de control numérico basadas en ordenadores marca nuestra «emancipación de los trabajadores humanos[33]».

A medida que la automatización se extendía entre las industrias y por todo el país, se empezaron a notar sus efectos sobre las personas y las comunidades. El primer grupo que sufrió la consecuencia fue el de los americanos de color. La historia de los efectos de la automatización sobre la comunidad afroamericana es uno de los más relevantes y menos conocidos hechos de la historia social del siglo XX. La experiencia de la comunidad de color debe ser adecuadamente analizada, puesto que permite obtener unas importantes conclusiones para comprender el impacto que los procesos de reingeniería y las nuevas tecnologías de automatización van a tener sobre las vidas de los trabajadores del mundo.