NN-Tool

Prognose * Simulation * Optimierung

Bärmann Software         

 

Home  Modellierung  Simulation  Optimierung  Software  Technik  Kunden  Downloads  Kontakt  Impressum


Prozessmodellierung und Rezepturoptimierung

1. Einführung

Aktuelle wirtschaftliche, rechtliche und ökologische Rahmenbedingungen erfordern eine ständige Weiterentwicklung und Optimierung chemischer Prozesse. Um im derzeitigen Wettbewerbsumfeld bestehen zu können, ist unter anderem eine gleichbleibend hohe bzw. ständig verbesserte Produktqualität erforderlich. Auf der Basis eines hinreichend genauen Anlagenmodells können optimale Betriebspunkte sowie verbesserte Rezepturen berechnet werden. Zur Entwicklung eines entsprechenden Modells können prinzipiell zwei Wege eingeschlagen werden:

  • Rigoroses Modell auf der Basis physikalischer, chemischer bzw. verfahrenstechnischer Beziehungen.
  • Empirisches Modell (z.B. Regressionsansatz, neuronales Netz) unter Verwendung von Messdaten.

Beide Methoden weisen Vor- und Nachteile auf. Die Entwicklung eines rigorosen Modells führt in der Regel zu einem tieferen Anlagenverständnis. Darüber hinaus besteht bei einem rigorosen Modell ggf. die Möglichkeit zur Extrapolation der Erkenntnisse auf neu zu errichtende Anlagen. Diesen Vorteilen steht jedoch eine Reihe von Nachteilen gegenüber. So sind für viele interessierende Größen entsprechende physikalische Beziehungen überhaupt nicht bekannt. Dies trifft insbesondere für (makroskopische) Qualitätsgrößen wie Viskosität, optische Eigenschaften, Schlagzähigkeit etc. zu. Darüber hinaus liegt die mit rigorosen Modellen erreichbare Modellierungsgenauigkeit in der Regel deutlich unter der Genauigkeit empirischer Modelle. Eine präzise Formulierung der Qualitätsgrößen eines Prozesses auf der Basis sämtlicher Einflussfaktoren (einige Dutzend bis mehrere Hundert) mit physikalischen Beziehungen erreichen zu wollen, erscheint aussichtslos. Eine Verbesserung der Betriebspunkte einer Anlage in der Größenordnung von einigen Prozent (alle darüberhinausgehenden Versprechungen sind eher unrealistisch), setzt ja eine Modellgenauigkeit voraus, die mindestens in dieser Größenordnung liegt. Ein weiterer wesentlicher Vorteil der Verwendung empirischer Modelle ist der relativ geringe Modellierungsaufwand. Ausgehend von Messdaten, die bei modernen Anlagen ohnehin anfallen, kann die Modellierung durch eine geeignete Software mehr oder weniger automatisch durchgeführt werden. Der Modellierungsaufwand liegt in der Größenordnung von einigen Manntagen. Als Standardverfahren zur Modellierung auch nichtlinearer Zusammenhänge haben sich neuronale Netze etabliert. Im Folgenden wird zunächst die Methodik vorgestellt und anschließend spezifische Aspekte der Anlagenoptimierung diskutiert.

 [nach oben]

2. Methode der neuronalen Netze

Künstliche neuronale Netze (KNN) sind spezielle mathematische Modelle, die in besonderer Weise für Aufgaben des Anforderungstyps "Mustererkennung" geeignet sind. Dieser Begriff ist ganz allgemein zu verstehen, umfasst aber insbesondere das Erkennen von funktionalen Zusammenhängen zwischen physikalischen, chemischen, wirtschaftlichen etc. Größen. Durch diese Eigenschaften bilden künstliche neuronale Netze ein leistungsfähiges Instrument, um das in einer Vielzahl von Datenbanken bzw. Messdatenerfassungssystemen in Form von Anlagen- und Prozessmesswerten latent vorhandene Wissen über Verfahren, Prozesse, chemische Rezepturen etc. aufzudecken und für Anwendungen nutzbar zu machen. Insbesondere bieten KNNe die Möglichkeit auf der Basis von Messdaten aus der Anlagenhistorie ein Modell des zugrundeliegenden Prozesses zu generieren. Dabei werden keine a priori Annahmen über die Struktur der funktionalen Zusammenhänge zwischen verschiedenen Größen benötigt (im Gegensatz etwa zu linearen Regressionsansätzen mit nichtlinearen Ansatzfunktionen). Da die Automatisierung in der Industrie beständig zunimmt und somit für eine immer größere Zahl von Anlagen entsprechende Messdatenerfassungssysteme zur Verfügung stehen, kann davon ausgegangen werden, dass von dieser Möglichkeit in Zukunft zunehmend Gebrauch gemacht werden wird. Eine solcher Ansatz zeichnet sich gegenüber einer Modellierung auf der Basis physikalischer Gleichungen durch die folgenden Eigenschaften aus:

  • die Anforderungen an das vorab notwendige Prozessverständnis sind im Allgemeinen deutlich geringer. Totzeiten können z.B. automatisch ermittelt werden.
  • sehr geringer Aufwand.
  • vorurteilsfreie Modellierung.
  • Anlagendriften (Veränderungen mit großen Zeitkonstanten) sind leicht zu erfassen.
  • direkte Modellierung der Qualitätsgrößen des Produkts (z.B. Viskosität, Festigkeit, optische Eigenschaften etc.) als Funktion der Betriebsweise der Anlage.

Künstliche neuronale Netze entstanden aus dem Versuch die Informationsverarbeitung in biologischen Systemen zu kopieren und technisch nutzbar zu machen. Ein neuronales Netz besteht aus einer Menge miteinander vernetzter Verarbeitungseinheiten, auch Neuronen, Prozessoren oder Knoten genannt. Ein Teil dieser Einheiten dient der Kommunikation mit externen Ein- und Ausgabequellen (Tastatur, Prozessleitsysteme etc.). Die in der Praxis am häufigsten verwendeten neuronalen Netze sind vom Typ der "feedforward networks", bei denen die Neuronen in Schichten (Layers) angeordnet sind. Jedes Neuron erhält Eingangswerte von allen Neuronen der vorhergehenden Schicht und gibt seinen Ausgangswert an alle Neuronen der nachfolgenden Schicht (Abb. 1).

Abb. 1: Voll verbundenes Netz mit drei Schichten (Layers)

Die Eingänge eines jeden Neurons sind mit "Gewichten" versehen. Innerhalb einer jeden Verarbeitungseinheit wird ein Skalarprodukt der Eingangswerte mit den Gewichten gebildet und auf den Ergebniswert eine Funktion, die sogenannte Aktivierungsfunktion, angewendet. Der entstehende Wert wird an die Neuronen der nachfolgenden Schicht weitergegeben (Abb. 2).

Abb. 2: Schema einer Verarbeitungseinheit im neuronalen Netz

Die Neuronen der ersten Schicht (Inputlayer) bilden die Einflussgrößen xi, die Neuronen der letzten Schicht (Outputlayer) liefern die entsprechenden Funktionswerte. Als Aktivierungsfunktion hat sich eine sogenannte Sigmoidfunktion bewährt (Abb. 3).

Abb. 3: Sigmoidfunktion

Die Gewichte wi werden anhand von Beispieldatensätzen mittels eines numerischen Verfahrens an die konkrete Aufgabenstellung angepasst. Nach Abschluss dieser sogenannten "Lernphase" bildet das neuronale Netz ein in gewissem mathematischen Sinne optimales "Black-Box-Modell" des gesuchten funktionalen Zusammenhangs.

Zur Beurteilung der Güte eines solchen Modells wird das Modell nun auf Beispieldatensätzen getestet, die nicht zur Erstellung des Modells herangezogen wurden (sogenannter Testset). Dabei wird der auf der Basis der Eingangsgrößen prognostizierte Wert einer Ausgangsgröße mit den vorgegebenen gemessenen Werten in einem sogenannten Scatterplot verglichen (Abb. 4). Bei exakter Prognose (d.h. wenn der prognostizierte Wert exakt mit dem gemessenen übereinstimmt) müssten die Punkte im Diagramm genau auf der Linie y = x (Winkelhalbierende) liegen und die Korrelation R würde den Wert 1 annehmen. Dies ist aber schon aufgrund der Messfehler bei realistischen Daten unmöglich. Je nach Qualität der Messdaten und Vollständigkeit der relevanten Einflussgrößen müssen Korrelationen oberhalb von 0,8 schon als zufriedenstellend angesehen werden.

Abb. 4 Scatterplot

Aus der linearen Auftragung im Scatterplot darf nicht der Schluss gezogen werden, dass die Ausgangsgrößen linear von den Eingangsgrößen abhängen. Im Scatterplot werden die prognostizierten Ausgangsgrößen mit den gemessenen Ausgangsgrößen verglichen. Der Zusammenhang von Ausgangsgrößen und Eingangsgrößen kann auf der Basis des erstellten Modells in sogenannten Einflussplots untersucht werden (Abb. 5):

Abb. 5: Einfluss der Eingangsgrößen Komp1 und Komp5 auf die Qualitätsgröße Eig2

Wie die Abbildung 5 zeigt, ist in diesem Beispiel der Einfluss der Messgröße Komp1 auf die Qualitätsgröße Eig2 nichtlinear und hängt darüber hinaus auch vom Wert der Messgröße Komp5 ab. Dies ist geradezu charakteristisch für allgemein nichtlineare Zusammenhänge.

Das erstellte Modell kann nun u.a. zur Optimierung der Zielgrößen (z.B. bei der Bestimmung optimaler Betriebspunkte von Anlagen) herangezogen werden. Die Einsatzschwerpunkte neuronaler Netze in der Industrie liegen zum einen in der Modellierung von Verfahren und Anlagen. Typische Anwendungen sind Optimierungen von Betriebspunkten, Messdatenüberwachungen, online Fehlerdiagnosen und Anlagenregelungen. Den anderen Schwerpunkt bildet der Einsatz neuronaler Netze zur Auswertung und Optimierung von Versuchsreihen (Analyse von Rezeptur-Eigenschaftsbeziehungen, Prognose von Stoffeigenschaften).

[nach oben]

 

3. Struktur und Anwendungsbereich der neuronalen Netzsoftware NN-Tool

NN-Tool basiert ganz wesentlich auf den in einer Vielzahl von Projekten in der chemischen Industrie seit 1989 gewonnenen Erfahrungen. Die bei diesen Anwendungen gemachten Erfahrungen zeigen, dass für den produktiven Einsatz neuronaler Netze in der chemischen Industrie ganz spezifische Anforderungen bestehen, die von NN-Tool vollständig abgedeckt werden. Dies sind insbesondere die folgenden Punkte:

  • sehr schneller (praktisch immer konvergenter) Lernalgorithmus um auch große Probleme in vernünftiger Zeit handeln zu können. Mit NN-Tool wurden Aufgabenstellungen mit bis zu 2000 Parametern und bis zu 500.000 Datensätzen gerechnet.
  • schnellstmögliches Handling der Rohdaten zur Datenvorverarbeitung. Es muss für beliebige Probleme aus der Praxis möglich sein, aus den Rohdaten nach spätestens einem halben Tag ein neuronales Netz zu machen. Falls die Rohdaten gewisse Minimalforderungen bzgl. der Datenstruktur erfüllen, reduziert sich die Zeit auf wenige Minuten plus der reinen Laufzeit des Lernalgorithmus (typischerweise ebenfalls in der Größenordnung von Sekunden bis einigen Stunden).
  • Direkte Verarbeitung sogenannter Klassifikatoren. Klassifikatoren sind Parameter, die keine numerischen Werte annehmen, sondern durch eine von endlich vielen vorgegebenen Möglichkeiten beschrieben werden. Ein Beispiel ist der Klassifikator "Oberflächenfehler" mit den Klassen "Fehlerfrei", "Kratzer", "Kerben", "Riefen", "Dellen", "Löcher" etc. Diese Klassen lassen sich offensichtlich nicht durch einen linearen numerischen Wert beschreiben.
  • bestmögliches Handling unvollständiger Daten. Insbesondere bei dem in der chemischen Industrie weit verbreiteten Anwendungstyp "Rezeptur- Eigenschaftsbeziehung" tritt praktisch immer die Situation auf, dass die Datensätze bzgl. der Eingangsdaten (also der Rezepturkomponenten und ggf. weiterer Betriebsparameter) vollständig sind, bzgl. der Ausgangsgrößen aber den Anblick eines Flickenteppichs liefern. Typischerweise werden eben von der Vielzahl der möglichen Eigenschaften einer Rezeptur immer nur einige wenige vermessen. Die vermessenen Eigenschaften variieren dabei von Rezeptur zu Rezeptur. Das zu diesem Zweck bei NN-Tool eingesetzte Verfahren der "automatischen Einzeloptimierung" (siehe Technik) setzt wegen des hohen Rechenaufwands wiederum einen schnellen, praktisch immer konvergenten Lernalgorithmus voraus. Bei typischen Rezeptur- Eigenschaftsproblemen (z.B. Lacke, Farben, Kunststoffe, Pigmente, Gummimischungen) können mehrere Hundert Eigenschaften auftreten. NN-Tool erzeugt zunächst automatisch entsprechend viele einzelne neuronale Netze und bindet diese schließlich zu einem einzigen Netz zusammen.
  • Optimales Handling von sehr kleinen Datensätzen: Da Messdaten in der Praxis teuer sind (insbesondere bei Rezeptur- Eigenschaftsbeziehungen) stehen oft nur sehr wenige Datensätze (ca. 10 - 20) für die Modellierung zur Verfügung. In diesen Fällen müssen spezielle Methoden eingesetzt werden um das Maximum an Information aus den Daten zu extrahieren. Für diesen Zweck stellt NN-Tool u.a. die Methodik "Crossvalidation" zur Verfügung.
  • Automatische Bestimmung optimaler Inputs: Bei verfahrenstechnischen Anlagen hat man es oft mit der Situation zu tun, dass eine große Zahl (mehr oder weniger korrelierter) Eingangsgrößen prinzipiell für eine Modellierung der gewünschten Zielgrößen zur Verfügung stehen. Im Modus "Automatische Inputoptimierung" bestimmt NN-Tool selbstständig die bezüglich der Modellierungsgenauigkeit optimalen Eingangsgrößen.

Neben der Software zur Erstellung der Netze stehen darüber hinaus verschiedene Optimierungswerkzeuge zur Auswertung der erstellten Modelle zur Verfügung. Insbesondere lässt sich damit die sogenannte "inverse Fragestellung" beantworten. Das empirische Modell beschreibt zunächst die Abhängigkeit der Ausgangsgrößen (z.B. Qualitätsgrößen) von den Eingangsgrößen (z.B. Rezepturen und Betriebsparameter). D.h. man muss das Modell mit den Rezepturen und Betriebsparametern füttern, dann bekommt man eine Prognose für die Qualitäten. Von besonderem Interesse ist jedoch die folgende Frage:

"Wenn ich diese oder jene Qualitäten erreichen will, wie müssen denn dann die Rezepturen und Betriebsparameter sein?"

(inverse Fragestellung)

Bei dieser Fragestellung treten typischerweise noch Nebenbedingungen auf. So ist es in der Regel der Fall, dass bestimmte Rezepturkomponenten mit gewissen Minimalkonzentrationen in der Rezeptur auf jeden Fall vertreten sein müssen, oder dass die Betriebsparameter in bestimmten Grenzen gehalten werden müssen. Das genannte Optimierungswerkzeug ist in der Lage, unter Berücksichtigung einer Vielzahl von Neben- und Randbedingungen auf der Basis des erstellten Modells optimale Betriebspunkte und Rezepturen zu ermitteln. 

Weitere Anwendungskomponenten ermöglichen die Anbindung der erstellten Modelle an Prozessleitsysteme für "Softsensoranwendungen" und "modellgestützte Regelungen" (siehe Optimierung).

 [nach oben]

4. Zusammenfassung

Künstliche neuronale Netze können als äußerst leistungsfähige Werkzeuge zur Analyse, Optimierung und Regelung bestehender Anlagen, Verfahren und Rezepturen angesehen werden. Gerade die Modellierung der Qualität eines Produkts als Funktion der Betriebsweise bereitet heute oft noch größte Schwierigkeiten. In diesem Bereich kann das Anwendungsspektrum neuronaler Netze kaum überschätzt werden.
Mit dem Softwarepaket NN-Tool, das für Windows XP bis Windows 10 verfügbar ist, steht ein Werkzeug zur Verfügung, welches für die wichtigsten Einsatzgebiete in der chemischen Industrie - insbesondere den Anwendungsfall Rezeptur- Eigenschaftsbeziehungen, auch unter Verwendung zusätzlicher Produktionsparameter - Maßstäbe setzt.

 [nach oben]