Industria y Materiales
Ingeniería de procesos
LA INGENIERÍA DE PROCESOS
Para hacer frente a la competencia internacional, las empresas se enfrentan a problemas complejos relativos al diseño y al desarrollo de procesos adecuados. tanto mas debido a que las exigencias de fiabilidad de los productos fabricados y de protección del medio ambiente son cada vez mas drásticas. la ingeniería de procesos, cuyos métodos y conceptos generalizan los de la ingeniería química, propone un enfoque innovador y aplicable a todos los procesos, cualesquiera que sean el producto fabricado y el sector industrial. el cuarto congreso mundial sobre esta materia, que tuvo lugar el pasado junio en Karlsruhe, Alemania, lo ha demostrado una vez mas.
JACQUES VILLERMAUX
Toda actividad industrial, cualquiera que sea, se basa en una transformación de materia y energía. Los procesos utilizados, en todos los sectores, desde la química hasta el agroalimentario, pasando por la metalurgia, la industria de los compositos, del petróleo, la electroquímica, los medicamentos, etc., representan una apuesta económica considerable. Se estima, en efecto, en los países desarrollados, que las industrias de procesos contribuyen en alrededor del 25 % al valor añadido industrial. Los problemas planteados por estas industrias son múltiples y de muy diversa naturaleza. Por supuesto, los procesos tienen que permitir responder a la demanda del mercado y adaptarse rápidamente a la competencia. Pero las instalaciones, diseñadas a partir de datos de laboratorio, comportan una fase de extrapolación, técnica y financieramente peligrosa. Del laboratorio a la fábrica no son raros factores de escala de varios miles e incluso de varias decenas de miles, y, de cien buenas ideas de laboratorio, una decena será susceptible de ser desarrollada, mientras que sólo una tendrá alguna oportunidad de conducir a un proceso comercial. Una vez realizada la instalación, la investigación de su funcionamiento óptimo y del control de la calidad de los productos requiere dispositivos de control complejos y modelos de simulación numérica. Finalmente, y esto es una exigencia absoluta, los procesos tienen que ser fiables, fáciles de mantener, seguros y no contaminantes, y al mismo tiempo representar un riesgo casi nulo para los hombres y el medio ambiente. ¿Cuál ha sido la respuesta de la industria tradicional a estos problemas? Cada rama ha desarrollado sus propias técnicas, centradas prioritariamente en los productos a fabricar y basadas en la noción de «oficio». Parecía haber pocas cosas en común, a priori, entre el saber hacer de un «químico», de un «cementero» y de un fabricante de yogures. Pero este planteamiento ya no es actualmente eficaz para responder a las necesidades de la industria, como vamos a ver. Las ciencias de la ingeniería se han desarrollado precisamente para proporcionar los conceptos y las herramientas necesarias para el estudio de los «sistemas industriales». En cuanto a la «ingeniería de procesos», que nuestro equipo ha propuesto llamar «pro-cedética», constituye una metodología general aplicable a todos los procedimientos, cualesquiera que sean el producto fabricado y el tipo de actividades.
La procedética propone un enfoque verdaderamente transversal e interdisciplinario, que favorece la emergencia de un cierto número de conceptos originales y el desarrollo de investigaciones muy activas. Se trata de hecho de una generalización de los métodos de la «ingeniería química». La transformación química es un proceso complejo cuya puesta a punto a escala productiva plantea problemas difíciles, en los que se mezclan reacciones químicas, intercambios de calor y de materia, circulación de fluidos y de sólidos, comportamiento de los materiales, etc. (fig. 1). Para resolverlos, se han tenido que idear soluciones originales que no son una simple combinación de química, termotecnia y mecánica clásicas. Esta nueva disciplina se basa en un cierto número de conocimientos y de saber hacer que los norteamericanos han llamado «paradigmas», los principales de los cuales se citarán aquí. Uno de ellos es la llamada «operación unitaria» (recuadro). Esta noción ya había sido propuesta por el norteamericano A.D. Littie, en 1915, para designar operaciones como la destilación, la filtración, el secado, etc., comunes a un gran número de industrias. Es en efecto interesante estudiar estas operaciones en sí mismas, independientemente de la naturaleza de las sustancias que intervienen, con objeto de establecer las leyes que determinan su eficacia, y diseñar los equipos industriales apropiados. La operación de agitación mecánica, por ejemplo, tiene lugar generalmente en una cuba, por medio de un dispositivo giratorio, turbina, hélice, cinta helicoidal o móvil de forma especial.
Es entonces importante saber elegir y di-mensionar el tipo de agitador apropiado para cada uso, según ia reología de la mezcla, es decir la manera en que reacciona a las solicitudes, o según que se trate de dispersar finamente las burbujas de gas o de mantener partículas sólidas en suspensión. A continuación, se tiene que ser capaz de calcular la potencia de agitación necesaria en función del tamaño de la cuba y de la masa agitada.
Otro parámetro importante es el ritmo de disipación de esta potencia en la cuba, que tiene que ser lo más uniforme posible. La calidad de la mezcla a la escala molecular (la micromezcla), que condiciona la eficacia de las reacciones, está directamente relacionada con la energía cedida localmente a las moléculas de fluido. Además, hay que realizar mapas de velocidades y de concentración en las cubas agitadas, lo que hacen actualmente posible las potentes técnicas de investigación locales como la anemometría Doppler-Láser .
Desde hace tres años, en Francia, laboratorios de ingeniería de procesos, de mecánica de fluidos y de química-física, en Nancy, Lyon y Toulouse, realizan una «acción de investigación coordinada» bajo la égida del cnrs. La conjugación de estas tres disciplinas ha permitido, por primera vez, acceder a las micro fluctuaciones de concentración, y comprender así el mecanismo de mezcla. Una de las consecuencias podría ser la puesta en entredicho de la buena vieja cuba agitada, ampliamente utilizada en la industria, que no parece ser siempre el dispositivo más adecuado para la mezcla con reacción, y ello, por dos razones. Una se debe a una mala utilización de la energía de agitación a escala molecular. La otra proviene de la dificultad de extrapolar tales cubas. Todo ello lleva por tanto a pensar en nuevos dispositivos, adecuados para cada aplicación.
Dejemos este ejemplo para abordar un segundo «paradigma» de la ingeniería de procesos, que se refiere al «enfoque sistémico». A diferencia del enfoque analítico de las ciencias clásicas que descompone, disecciona, y se concentra en las estructuras microscópicas, el enfoque sistémico apunta a obtener una visión global de las estructuras y de los comportamientos. Se interesa por la respuesta dinámica de sistemas tan variados como un grano dt catalizador, una columna de destilación o un taller de producción, es decir, por conjuntos organizados de cara a un objetivo a conseguir. Dicho de otro modo, considera el bosque más que el árbol. Estos puntos de vista complementarios han sido muy analizados por J. de Ros-nay en Le macroscope.^ Aunque no es privativo de la ingeniería de procesos, el enfoque sistémico se adapta particularmente bien a la descripción de sistemas de producción industriales. Permite, por ejemplo, construir modelos matemáticos de complejidad ajustable, cuya finura se adapta a las necesidades. ¡En cierto sentido se utiliza un «macroscopio» de tamaño variable!
Una ilustración de este tipo de enfoque la proporciona la modelización de circulaciones reactivas. Supongamos que se quiere describir una circulación de materia en un aparato de forma complicada, sede de una transformación química. El enfoque analítico de la mecánica de fluidos consiste en escribir las ecuaciones locales de Navier-Stokes, que dan en cada punto los campos de velocidades, de composición química y de temperatura, complementadas con términos de consumo y de producción para las reacciones químicas. La resolución de estas ecuaciones conduce a problemas numéricos difíciles. Sólo es posible, con los actuales medios de cálculo, para geometría y fluidos sencillos, constituidos, por ejemplo, por un solo líquido o un solo gas. ¿Qué hacer en las situaciones prácticas en las que se encuentra a menudo mezclas complejas con dispersiones de burbujas de gas o sólidos en suspensión en aparatos, ellos mismos, de formas muy complejas?
El británico P.V. Danckwerts, de Cambridge, proponía, en 1953, caracterizar la circulación por medio de una función llamada «distribución de los tiempos de permanencia» (dtp). Esta distribución representa la fracción del caudal de materia en circulación que permanece durante un tiempo dado en el aparato. Tiene el interés de ser fácilmente mensurable. Basta registrar la respuesta a una inclusión de trazador inyectado en la entrada del aparato. Si se conoce, además, el desarrollo de la transformación química en función del tiempo, se puede, mediante algunas hipótesis de mezcla, estimar el rendimiento de la transformación a la salida. Para representar la dtp, y siguiendo al solo líquido o un solo gas. ¿Qué hacer en las situaciones prácticas en las que se encuentra a menudo mezclas complejas con dispersiones de burbujas de gas o sólidos en suspensión en aparatos, ellos mismos, de formas muy complejas?
El británico P.V. Danckwerts, de Cambridge, proponía, en 1953, caracterizar la circulación por medio de una función llamada «distribución de los tiempos de permanencia» (dtp). Esta distribución representa la fracción del caudal de materia en circulación que permanece durante un tiempo dado en el aparato. Tiene el interés de ser fácilmente mensurable. Basta registrar la respuesta a una inclusión de trazador inyectado en la entrada del aparato. Si se conoce, además, el desarrollo de la transformación química en función del tiempo, se puede, mediante algunas hipótesis de mezcla, estimar el rendimiento de la transformación a la salida.
Para representar la dtp, y siguiendo al norteamericano O. Levenspiel, de la Universidad de Oregón, que fue, al principio de los años sesenta, pionero en esta materia, un determinado número de equipos en todo el mundo ha concebido modelos matemáticos modulares. Estos últimos están constituidos por «motivos» en el interior de los cuales la circulación se puede considerar ideal: por ejemplo compartimentos bien mezclados conectados por corrientes de materia (fig. 2). Estos modelos están en la base de la extrapolación de diversos aparatos industriales, en particular de los reactores químicos. También se utilizan en muchos otros campos como en fisiología, para estudiar la circulación sanguínea, en farma-cocinética, para seguir la evolución de un medicamento en el organismo, en hidrología subterránea, para analizar la migración de los contaminantes por el suelo. La dtp es también una herramienta de caracterización de los equipos. Por este medio, P. Boissonnat, investigador en la universidad tecnológica de Compiégne, en Francia, estudió, el año pasado, la forma en que progresa la pasta en un cocedor-extrusor de doble tornillo utilizado en la industria alimentaria.
LOS MÉTODOS DE LA INGENIERIA DE PROCESOS SE APLICAN TANTO A LOS SISTEMAS INDUSTRIALES COMO AL ESTUDIO DE ALGUNOS FENÓMENOS NATURALES
Mientras intentaban describir un conjunto de cristales en crecimiento, A.D. Randolph y M.A. Larson, de la universidad de Arizona, tuvieron la idea, en 1962, de generalizar este tipo de enfoques a cualquier población de entidades cuyas propiedades evolucionan en el tiempo en el seno de un flujo, tanto si se trata de cristales como de bacterias, de polímeros en suspensión, de partículas sólidas consumibles, etc. Una ecuación de «balance de población», que se parece a la ecuación establecida por Boitzmann en teoría cinética de gases, permite saber así cómo se modifica una función de distribución de propiedades de estas entidades, tanto si se trata de su tamaño como de su forma, de su edad si son microorganismos, etc.
Este método es extraordinariamente potente para comprender las relaciones que existen entre la calidad de un producto y los parámetros de funcionamiento del procedimiento. En la prác tica requiere, desde luego, un estuerzo importante de resolución numérica, y el conocimiento de las leyes formales que gobiernan la evolución de las entidades. En cristalización, por ejemplo, se tienen que conocer las leyes de nu-cleación, crecimiento, ruptura y aglomeración. Este enfoque se empieza a aplicar a la teoría de la trituración, operación importante en todos los sectores industriales, pero con un rendimiento aún muy pequeño. Un tercer conjunto de conocimientos en los que se basa la ingeniería de procesos concierne a los acoplamientos entre reacciones y procesos de transformación, especialmente entre un sólido y un gas, y entre dos fluidos no misci-bles. En un proceso químico, una reacción catalítica por ejemplo, transferencia y reacción tienen lugar sucesivamente. Si la transferencia es fácil, pero la reacción difícil, esta última controla entonces la velocidad de transformación: se trata de un «régimen químico». A la inversa, si es la transferencia la que limita la velocidad, el régimen se llama difusivo. La transición del primer régimen al segundo se produce cuando el tamaño L de las entidades reactivas supera un determinado valor crítico L*. Este valor se calcula por medio de criterios adimensionales (criterio de Thiele en catálisis, criterio de Hatta en sistemas gas-líquido), que comparan los tiempos característicos de difusión y de transferencia. Este análisis del acoplamiento reacción-difusión es fundamental en ingeniería de los procedimientos. De nada sirve, por ejemplo, poner a punto un catalizador muy activo en forma de polvo (L < L*) para que luego su rendimiento resulte considerablemente disminuido por la difusión, en un reactor industrial que exige la utilización de un soporte poroso de gran diámetro (L > L*). Tales limitaciones todavía son subestimadas con demasiada frecuencia por los químicos, aunque son fundamentales en el diseño de los equipamientos. Por ejemplo, en la última etapa de la fabricación del nylon, es fundamental controlar la eliminación de las últimas trazas de agua, cuya concentración residual gobierna la calidad del polímero. Esto explica que los reactores de policondensación finales se diseñen de tal modo que el polímero se distribuya en forma de películas delgadas, que facilitan la evaporación del agua. Y esto es cada vez más difícil a medida que el medio se hace más viscoso. Pero la química no es única implicada. Los sistemas vivos también son tributarios de la competencia reacción-difusión. Se observa de hecho que los microorganismos sometidos a intercambios con el medio externo tienen a menudo un tamaño próximo a la dimensión crítica, que representa el mejor compromiso posible entre la aportación por difusión y el consumo de sustrato. En 1970, A.C. Nevo y R. Rikmenspoel dedujeron, por ejemplo, la longitud del flagelo del espermatozoide a partir de su consumo de oxígeno y de la difusión del atp, vector de energía en el protoplasma.. Por tanto, la naturaleza se ajusta, precisamente, al límite entre el régimen químico y el régimen difusivo! Esto constituye un ejemplo del valor heurístico de un concepto de procedética en ciencias de la naturaleza.
Los anteriores ejemplos ponen de manifiesto otras dos características importantes de los métodos de ingeniería de procesos, su universalidad y su carácter multiescala. En efecto, se aplican tanto a los sistemas industriales como a los fenómenos naturales en los que se transforman materia y energía. Aquí interviene otra forma de razonamiento, igualmente fundamental en ingeniaría de procesos, la que se basa en la existencia de relaciones universales entre números sin dimensiones. Tales relaciones permiten tratar una variedad de problemas aparentemente muy diferentes. Por medio de este tipo de normalización se identifican las agrupaciones de parámetros físicos significativos, los grados de libertad y el número mínimo de magnitudes necesarias para realizar previsiones en cualquier nueva situación. Aunque se trata de un enfoque bien conocido en mecánica y en termología, la ingeniería química lo ha enriquecido considerablemente, introduciendo una multitud de números suplementarios sin dimensiones que intervienen en las operaciones de transformación.
Algunas relaciones se revelan sorprendentemente sólidas, como la relación de Fróssiing, que permite evaluar los intercambios de materia y de calor entre un fluido y un obstáculo fijo, con un intervalo de variación de los parámetros que pasa de cinco potencias de 10.
En cuanto al carácter multiescala de la ingeniería de procesos, se desprende directamente de los conceptos básicos ya citados anteriormente y de la metodología utilizada. De la molécula a la fábrica, pasando por estructuras de tamaño medio tales como las burbujas y los granos, y luego los aparatos utilizados en las operaciones unitarias como los filtros y los reactores el método es el mismo. Sólo cambia la escala. Una célula viva se puede modelizar como una microfábrica en la que intervienen más de dos mil reacciones simultáneas, mientras que la atmósfera se puede considerar un gigantesco reactor (fig. 3).
Merece ser citada una última característica de la procedética, que consiste en privilegiar un enfoque integrado de los problemas, es decir en considerar simultáneamente todas las condiciones de un proceso, incluidas las relativas a la economía del producto final y al entorno técnico. Un proceso de síntesis muy elegante en el laboratorio, que conduce a un nuevo producto dotado de propiedades notables, puede fracasar por numerosas razones: ausencia de mercado, coste prohibitivo, equipamiento no resistente a la corrosión, insuficiente seguridad, etc. En cada fase del desarrollo, el esfuerzo de investigación se centrará en la condición determinante. Un problema que se creía químico puede corresponder in fine a la resistencia de materiales. ¡Se está lejos del enfoque monodisciplinario tradicional!
Así, desde 1925, los químicos intentaban fabricar ácido acético por reacción catalítica del monóxido de carbono con el metanol. Pero el proceso no funcionaba industrialmente a causa de la corrosión de los equipamientos. La solución vino de la puesta a punto de una nueva aleación particularmente resistente, a base de molibdeno y de níquel, el Hastelloy que permitió desarrollar un procedimiento industrial a partir de 1960.
¿Cuáles son entonces los principales desafíos industriales que corresponden a la procedética? Retendré cuatro, de una lista mucho más larga. El primero es de orden metodológico. ¿Cómo desarrollar rápida y económicamente un nuevo proceso, pasar del laboratorio a la fábrica, diseñar los equipamientos apropiados?. ¿Se puede trasladar a otros campos el esquema clásico procedente de la petroquímica pesada, donde nacieron, en los años veinte, los primeros conceptos de la ingeniaría química (fig. 4)?. Un problema clave es el del papel de la modelización matemática respecto a la experimentación. ¿Dicho de otro modo, se generalizarán un día las fábricas diseñadas completamente por cálculo a partir de datos de laboratorio sin pruebas en instalaciones piloto?. Esta posibilidad parece muy real para las transformaciones simples en un fluido único, pero todavía está lejos para los sistemas complejos, en los que intervienen a la vez gases, líquidos y sólidos, y que requieren un gran número de conocimientos fundamentales y de datos fisicoquímicos básicos. Es el caso, por ejemplo, de un reactor de hidrolicuefacción del carbón. No obstante, los diseñadores de equipamientos se tendrán que basar cada vez más en la ingeniería de procesos.
Otro gran problema concierne al control de la calidad. En un mundo competitivo, sólo sobreviven los industriales capaces de garantizar unas especificaciones rigurosas de la calidad del producto. Se puede tratar de un nivel mínimo de impurezas, de propiedades físicas como la viscosidad, la transparencia, el color, la morfología o la distribución granulométrica de las partículas sólidas, o de propiedades comunes más sutiles relacionadas con la apreciación subjetiva del consumidor. Más allá de las materias primas, la calidad depende en gran medida del propio proceso.
Pero, dado que el encadenamiento de las operaciones industriales es complejo, a veces es difícil identificar los factores sobre los que se puede actuar. En el caso de una fabricación en continuo, se puede lograr por medio de un examen estadístico de muestras de productos cuya calidad varía por carácter aleatorio de las entradas y a defectos sistemáticos del proceso. Se trata entonces del método de «control estadístico de procesos» (Statistical process control), que se desarrolla desde hace algunos años en la industria. Pero también aquí el «camino real» es el de una comprensión fina de los mecanismos que conducen a una modelización adecuada. Dos ejemplos ilustran la importancia de estos problemas de calidad.
El primero se refiere a un producto de gran consumo, el polietileno. Evidentemente, la estructura de las macromoléculas no tiene que ser la misma según que tengan que servir para fabricar bolsas de supermercado, tubos de regadío, u objetos moldeados. Por tanto hay que saber controlar a voluntad la rigidez, la estirabilidad y la transparencia de la resina. Uno de los grandes procesos de fabricación del polietileno de baja densidad es la polimerización radicalar, que utiliza iniciadores químicos en autoclaves, a presiones que pueden llegar hasta 2 000 bar. Un trabajo de largo alcance, realizado desde hace unos veinte años en el laboratorio de Nancy de ciencias de la ingeniería química, en colaboración con la sociedad norsolor, convertida hace poco en sofrapo, filial del grupo italiano ENl-chem, nos ha permitido construir un modelo matemático de la polimerización basado en los mecanismo fisicoquímicos reales, pero que utiliza el enfoque sistémico. En el prototipo actualmente construido, los usuarios pueden prever, por medio de un microordenador, cómo evolucionará la calidad del polímero producido cuando se modifican las condiciones de funcionamiento del reactor.
El segundo ejemplo concierne a los sólidos divididos, como los polvos. Uno de los procesos usuales para fabricar sólidos pulverulentos es la precipitación, en la que se mezclan y reaccionan instantáneamente dos compuestos disueltos para dar un sólido insoluble que se separa del líquido. El método se utiliza, por ejemplo, para fabricar óxidos metálicos precursores de nuevos materiales como las cerámicas especiales y los compositos. Aquí la cualidad esencial es la morfología y la distribución de tamaño de las partículas sólidas. La mayoría de las veces se pretende obtener una distribución poco dispersada alrededor de un valor medio que se desea poder controlar, ya que las propiedades del polvo dependen fuertemente de su granulometría. También en este caso, el control de la composición química de las soluciones madres es primordial, pero, a idéntica química, el diseño del precipitador y el pilotaje de la operación influyen fuertemente en la calidad del precipi-tado.'9* Entre las investigaciones en este campo, citemos las realizadas por G. Tosun en 1986, para la sociedad Du Pont de Nemours, en Estados Unidos (fig. 5), cuya extrapolación a escala industrial está actualmente en estudio.
Por supuesto, el control de la calidad no tiene que hacer olvidar el del gasto de energía, que la ingeniería de procesos ha contribuido ampliamente a hacer reducir desde 1974, en especial en el marco de los programas de la Agencia Francesa para el Control de la Energía (afme). En cuanto a la seguridad de los procesos y a la protección del medio ambiente, el ideal que se esfuerza en alcanzar todo proceso industrial es el «cero defectos», «cero incidentes», «cero residuos». La sensibilidad extrema de la población a estos problemas, recogida por los poderes públicos, ha inducido desde hace años un importante esfuerzo de investigación en este sentido. Es sabida la resonancia en la opinión de emisiones accidentales, como las de Seveso.
SEGURIDAD Y PROTECCIÓN DEL MEDIO AMBIENTE: DOS PREOCUPACIONES QUE TIENEN QUE TENERSE EN CUENTA A PARTIR DE LA ETAPA DE DISEÑO DE UN PROCESO
Para comprender las causas de este incidente, T.G. Théofanous realizó estudios, en 1982, en la universidad norteamericana de Purdue. Han demostrado que una de las causas procedía de una aceleración del reactor, a causa, probablemente, de un fallo de diseño del sistema de refrigeración y a un mal pilotaje del final de la operación.<11* Nosotros, por nuestra parte, hemos podido simular el desarrollo del incidente por medio de un modelo matemático. De este modo, los modelos de simulación dinámica se revelan herramientas privilegiadas de la seguridad. Lo mismo sucede con la protección del medio ambiente. Minimizar y tratar los afluentes industriales aparece en la actualidad incluso como un objetivo prioritario. El ideal es, desde luego, revisar el fundamento mismo de los procesos con objeto de evitar la contaminación en el origen. Pero para los procesos ya existentes, se trata de integrar unidades de tratamiento que, al final, no arrojarán al medio ambiente más que sustancias de la misma naturaleza que las que en él se encuentran: vapor de agua, oxígeno, salmuera (en el mar), y residuos sólidos vitrificados o «ceramizados» que tengan una inercia química casi total. Se desarrollan técnicas en este sentido, algunas de las cuales están ya bien establecidas como las regeneraciones electroquímicas, las separaciones por membranas permeables y selectivas, la incineración de los residuos en hornos de plasma y la depuración biológica, y otras son solamente prometedoras, como la destrucción total por oxidación en agua supercrítica (por encima de 374 °C y de 218 bar).
La industrialización de las transformaciones biológicas, finalmente, representa un cuarto desafío esencial para la ingeniería de procesos. Se trata del problema del control de la materia viva. La ingeniería genética pone a nuestro alcance la programación de las microfábricas que son las células. Todavía falta, para obtener un proceso industrializable, ponerlas en unas condiciones favorables para la producción óptima de los metabolitos deseados. Esta etapa es por lo menos tan importante como la precedente. En este caso, los objetivos son diseñar y hacer funcionar termentadores susceptibles de alcanzar varios miles de metros cúbicos, idear proceso de separación de los productos útiles obtenidos, a veces disueltos en un medio complejo y contaminante, analizar el caldo de fermentación en continuo con vistas a un control óptimo, etc. Con objeto de obtener una concentración más alta de células, y por tanto una mayor productividad, el holandés A.L. Van Wezel había propuesto, hacia la mitad de los años sesenta, inmovilizarlas en una superficie sólida, la de una pared o la de granos en suspensión. Este procedimiento, que luego se ha desarrollado considerablemente, se puede aplicar en particular a células animales, para la obtención de anticuerpos y medicamentos.^12* Otro campo en el que la ingeniaría de procesos es fuertemente solicitada es el de las biotrans-formaciones en la industria agroalimentaria. Se trata en especial de industrializar procesos artesanales, manteniendo las cualidades organolépticas de los productos y garantizando una higiene absoluta (fábrica ultra-limpia).
La solución de estos problemas industriales plantea, de rechazo, numerosos problemas a la investigación. Para simplificar, también aquí, se pueden discernir tres problemas principales. El primero se debe a la intervención de «medios complejos». Esta complejidad puede resultar de su estructura microscópica, como sucede con los medios polifásicos, suspensiones, dispersiones, agregados, sólidos porosos de estructura aleatoria o parcialmente organizada, a menudo de dimensión fractal. ¿Cómo caracterizar las propiedades de estos medios con magnitudes microscópicas? ¿Cómo describir los procesos de transporte acoplados a las transformaciones fisicoquímicas que tienen lugar en su seno? ¿Hay que descender a un nivel microscópico característico de cada fase? ¿Se puede por el contrario utilizar la noción de un medio equivalente pseudohomogéneo dotado de propiedades medias o «efectivas»? Señalemos de paso que todas estas preguntas, que tanto interesan en la actualidad a los físicos de la materia condensada, ya las habían formulado, hace más de treinta años, los investigadores en ingeniería química, que aportaron una serie de respuestas prácticas.
Los «objetos fractales» desempeñan sin duda un papel importante en los procesos que interesan a la ingeniería de procesos. AI estudiar la transferencia de materia acoplada a reacciones químicas, en interfases fractales, se observa que éstas podrían presentar una actividad sorprendente.*13) La complejidad se puede también deber al comportamiento reológico particular, como en el caso de los fluidos viscoelásticos, que poseen una «memoria», y cuyo comportamiento bajo solicitudes se puede revelar paradójico. Ciertamente, estos efectos eran bien conocidos en mecánica de fluidos, pero la complicación se debe aquí a que sus propiedades se modifican durante la transformación: las reglas de juego cambian durante la partida! No es raro, por ejemplo, que la viscosidad aumente en un factor 100 000 entre el principio y el final de una polimerización. En estas condiciones, las reglas clásicas de elección y de dimensionamiento de los equipamientos, establecidas para medios ideales (gases perfectos, fluidos newtonianos) son inadecuadas. Se tienen que investigar nuevos enfoques y definir una metodología apropiada.
LA INGENIERIA DE PROCESOS SOLICITA AMPLIAMENTE LA INVESTIGACIÓN FUNDAMENTAL, DESDE LA FISICA DEL CAOS HASTA LA INTELIGENCIA ARTIFICIAL
Uno de los principales objetivos del control de las transformaciones en el seno de fluidos complejos es de hecho el control de la calidad de los productos, evocada anteriormente. Esto introduce el segundo gran problema planteado a la investigación, el de fabricar por encargo una «propiedad». En otros términos, ¿se podrá diseñar un día a príori un reactor para fabricar «brillante», “poder aislante” o “blando”, como se sabe actualmente diseñar una instalación para hacer ácido sulfúrico o nylon? El enfoque actual es indirecto. Consiste en primer lugar en establecer relaciones entre las propiedades buscadas, y la estructura molecular de las sustancias que las poseen, y luego en intentar sintetizar estas sustancias. Pero se pueden imaginar vías más directas, en las que las «propiedades» se considerarían como pseudocompuestos, y se manipularían como tales en las ecuaciones que describen los rendimientos de los aparatos. Esto todavía no es más que una sugerencia que pide ser explorada. Para ello habría que investigar leyes que gobiernen la creación y la destrucción de «propiedades» en función de las acciones ejercidas. ¡Un amplio campo abierto a la innovación!
Todo lo que precede sólo es evidentemente concebible si se movilizan y se desarrollan considerablemente todos los recursos de la modelización y del tratamiento de la información. También en este sentido, la investigación es ampliamente solicitada. Hasta ahora, los esfuerzos se han dirigido sobre todo a los modelos llamados «estáticos», es decir que describen los procesos en régimen permanente. Varios códigos de cálculo de este tipo, como aspen, pro-cess y prosim, desarrollado en el Instituto de ingeniería química de Toulou-se, están a disposición en el mercado. Pero también sería necesario poner a punto modelos dinámicos, capaces de describir regímenes transitorios rápidos, a escalas temporales muy pequeñas.
La tarea no es sencilla. En un mismo proceso se pueden desarrollar simultáneamente varios procesos a escalas temporales muy distintas. El resultado son sistemas de ecuaciones muy complejos. Lo mismo sucede si los medios considerados presentan variaciones espaciales muy abruptas. Otra dificultad proviene de los comportamientos fuertemente no lineales, en especial durante fenómenos de autoaceleración de las reacciones a causa de su propio desprendimiento de calor. En los años cincuenta, R. Aris y N. Admundson, de la universidad de Minnesota, habían estudiado la estabilidad de una cuba agitada continua, en la que se desarrollaba una reacción química exotérmica. Habían detectado estados estacionarios múltiples, y bifurcaciones entre estados estables e inestables. La ingeniería química estaba así en el origen de una renovación de la mecánica no lineal, estudiada al principio del siglo de una forma puramente especulativa por A Liapounoff y H. Poincaré.t14* Si se consideran, no ya una, sino dos reacciones consecutivas exotérmicas en una cuba, se obtiene, según el valor de los parámetros operativos una gran riqueza de comportamientos transitorios. En algunos casos, la temperatura y la composición se ponen a oscilar periódicamente y en otros se observa un régimen de caos determinista*15).
El caos determinista también parece desempeñar, en efecto, un papel en los procesos de mezcla como han demostrado los trabajos de H. Aref y J.M. Ottino en Estados Unidos, hace una decena de años.<16* Sin duda se pueden concebir nuevos dispositivos de mezcla, basados en algunas propiedades de los flujos caóticos. La ingeniería de procesos ofrece así nuevos objetos de estudio a la física del caos. También contribuye al desarrollo de la «inteligencia artificial». Ya ahora, y sin esperar que estén disponibles modelos eficaces de sus instalaciones, los industriales han construido sistemas expertos para el control de las unidades de producción. Estos sistemas también tendrían que permitir formalizar conceptos de «física cualitativa» dejados anteriormente a la sola apreciación humana.
Las posibilidades ofrecidas por las «redes de neuronas», finalmente, llaman mucho la atención de los investigadores en procedética. Estas «máquinas» constituidas por capas de pequeños órganos lógicos interconectados, son capaces de configurarse para hacer corresponder a una señal de entrada dada una señal de salida determinada. También son capaces de aprender, estructurándose de forma interna, y luego de reconocer las informaciones que se les proporciona. Aunque probablemente se ponen excesivas esperanzas en estas redes, se ven perfilar aplicaciones en control de procesos, en especial para detectar las averías.
En un trabajo terminado el año pasado en la Comisaria de la energía atómica de Francia, A.L. Allanic, investigador de la Escuela normal superior de las industrias químicas de Nancy, pudo diseñar así un sistema de ayuda a la dirección de las instalaciones de reprocesamiento del combustible irradiado. Rodando un gran número de veces un modelo matemático de la instalación, se le enseña a la red a que reaccione como una unidad real. Observando los efectos de una perturbación desconocida, el operador es entonces capaz de identificar el origen de la perturbación y de decir en qué entrada y en qué fecha se produjo.*17^ Los regímenes transitorios no se producen, por lo demás, sólo por efecto de perturbaciones. Se pueden crear voluntariamente para obtener mejoras de rendimiento, como en los reactores catalíticos experimentados por el equipo soviético de Yu Matros, en Novossibirsk, en los que se invierte periódicamente el sentido de la circulación.
Paralelamente, hay que esperar progresos de la implantación de sistemas de control de procesos por medio de modelos matemáticos, a condición de que simultáneamente se desarrollen sensores inteligentes, colocados en línea, que irán a buscar la información en tiempo real en las unidades de operación. Esto concierne tanto a las grandes fabricaciones en continuo como a los procesos discontinuos, en los que hay que lograr optimizar rápidamente un modo operativo. Partiendo de una «receta básica» proporcionada por el laboratorio, se trata de hallar, lo más deprisa y con el mejor coste, las condiciones óptimas de fabricación (concentración de los reactivos, perfil de temperaturas, modo de «fluir» de los reactivos en la cuba). Si se excluye un estudio fundamental, que a veces exigiría meses e incluso años, para elucidar al detalle los mecanismos fisico-químicos, el método clásico consiste en utilizar «planes estadísticos de experimentos». Esto supone que se efectúan una serie de pruebas durante las que se modifican de forma sistemática los parámetros operativos con objeto de converger hacia el óptimo buscado. El método es bastante eficaz, pero costoso en pruebas.
Siguiendo un enfoque típico de la ingeniería de procesos, hemos propuesto en Nancy un método llamado de «conducta autoadaptativa», diferente de los planes de experimento, que hacen del proceso una «caja negra». Partiendo de algunas pruebas preliminares, se construye progresivamente un modelo matemático basado en los comportamientos físicos reales, que requiere un número de pruebas mucho menor que el plan estadístico ciego (fig. 6).
APROXIMACIÓN ENTRE INDUSTRIALES, INVESTIGADORES E INTERDISCIPLINARIEDAD, TALES SON LAS PALABRAS CLAVE PARA EL DISEÑO DE LOS PROCESOS INDUSTRIALES DEL FUTURO
Se ve ahora claramente que la procedética está en condiciones de aportar una contribución decisiva a la mayoría de los grandes desafíos estratégicos del año 2000, tanto si se trata de la utilización racional de los recursos de energía y de materias primas, como de la alimentación y la nutrición, la protección de la salud, la seguridad de los procesos industriales y de los productos, la protección del medio ambiente o el desarrollo del tercer mundo. Estos temas fueron ampliamente debatidos en el congreso mundial de Karisruhe.
No es menos evidente que es indispensable un importante esfuerzo de investigación, tanto en el plano de los principios básicos como en el de la realización industrial. Desde hace varios años se están haciendo reflexiones en los países industrializados para reorientar las investigaciones en este sentido, en Estados Unidos con la publicación del famoso informe «Amundson», Frontiers in chemical engineering, en 1988, en Europa con el informe de los veintidós grupos de trabajo de la Federación europea de ingeniería química, en 1989, y en Francia, especialmente después del primer congreso francés de ingeniería de procesos de Nancy, en 1987. Se trata de una verdadera revolución cultural. La venerable clasificación de Auguste Comte, flanqueada por sus ramas aplicadas, ya no constituye un marco adecuado a la tecnología de los sistemas industriales de producción. Aquí tiene que ceder plaza al enfoque pluridisciplinario de las ciencias de la ingeniería, de las que la procedética es una ilustración.
La emergencia de estas nuevas ciencias también marca, me parece, el fin de la antigua separación entre una investigación llamada fundamental, que estaría dedicada a los objetos naturales, y una investigación calificada de aplicada porque se dedicaba a los objetos industriales.
Los ejemplos citados en este artículo muestran que el estudio de los sistemas de transformación industrial de la ma teria suscita numerosos problemas fundamentales, abiertos a la investigación especulativa, cuya solución permitirá de rechazo abordar desde un nuevo punto de vista la comprensión de los fenómenos y objetos naturales. -
Descargar
Enviado por: | Tatiana Maluenda |
Idioma: | castellano |
País: | Chile |