Agglomeration
Zusammenfassen nahezu identischer Datensätze, z.B. durch ein Clusterverfahren zur Entfernung von Redundanzen. Oft sind bestimmte, häufige Betriebspunkte in Datensätzen zu stark überrepräsentiert. Rohdaten können durchaus zu 90% aus demselben Datensatz bestehen, der sich immer wiederholt. Bei gut geregelten Prozessen können sehr viele Datensätze nahe den Sollwerten der Anlage auftreten.
Ohne Agglomeration würden solche Datensätze die Anpassung eines datengetriebenen Modells erheblich stören. Sie würden übergewichtet werden, da sie beim Training mehrmals dem Modell präsentiert würden, obwohl sie keineswegs „wichtiger“ sind als weniger häufige Prozesszustände. Oft sind bei Modellen für regelungstechnische Zwecke gerade die seltenen Datensätze (Abweichungen von den häufigsten Betriebszuständen) interessant, um für sie entsprechende Regelstrategien zu entwickeln.

APC – Advanced Process Control
Begriff aus dem amerikanischen Sprachraum, welcher übersetzt „übergeordnete Prozessführung“ heißt. Das Warenzeichen „APC Professional®“ ist ein Europäisches Warenzeichen der atlan-tec Systems GmbH

Auditierung
Prozedur der strukturierten Befragung eines Wissensträgers, ursprünglich aus der Qualitätssicherung kommend.
Auditierung kann eingesetzt werden, um wissensbasierte Regler (Fuzzy-Regler oder Expertensysteme) zu entwickeln. In der Hausnorm der atlan-tec ist Auditierung eine auf Fragebögen gestützte Standardprozedur, um bei komplexen Projekten Projektierungsfehler sicher zu verhindern.

Basisregelung / Unterlagerte Regelung
Die Basisregelung regelt die Grundfunktionen eines (verfahrens-)technischen Systems. Basisregler sind entweder als einzelne Kompaktregler, als SPS (Speicher Programmierbare Steuerung) oder als PLS (Prozessleitsystem) realisiert. Die Anforderungen an die Basisregler sind geprägt von Sicherheitsüberlegungen. Basisregler müssen eine hohe Betriebssicherheit und Stabilität haben, um den Betrieb einer Anlage immer sicher zu gewährleisten.
In der Regel ist jedes System mit einer Basisregelung zu versehen, auf die ggf. eine überlagerte intelligente Regelung (APC = Advanced Process Control) aufzusetzen ist.

Clusteralgorithmus
Allgemein: Ein Algorithmus, der Daten auf der Basis eines angenommenen Ähnlichkeitsmaßes zu Klassen zusammenfasst.
NeuroModel® verfügt über einen speziellen Clusteralgorithmus, mit dem die historischen Daten für das Training eines KNN vorbereitet werden. NeuroModel® erkennt die Datensätze, bei denen die Eingangsvariablen des Modells im Rahmen des Messfehlers identisch sind. Für diese Datensätze werden die Ausgangsvariablen geprüft. Die Daten, bei denen auch die Ausgangsvariablen identisch sind, werden zu einem Typical zusammengefasst. Die Daten, zu denen widersprüchliche Ausgangswerte gehören, werden als Inkonsistenzen entfernt.
Auf diese Weise werden mehrfach auftretende Datensätze nicht übergewichtet, wie dies bei KNN sonst der Fall wäre. Außerdem würden widersprüchliche Datensätze das Training erheblich erschweren. Es ist deshalb nur in seltenen Ausnahmefällen empfehlenswert, ungeclusterte Daten zu trainieren.
Herkömmliche Clusterverfahren sind für diese Prozedur ungeeignet, da sie allen Größen den gleichen Fehlerradius zuordnen würden. Dies erlaubt weder die Verwendung des Messfehlers als besten Anhaltspunkt für die Identität zweier Werte, noch die gezielte Beeinflussung des Clusterverfahrens.

Datengetriebenes Modell
„Data Driven Model“ oder „Inferential Model“ bezeichnen Modelle, welche aus Beispieldatensätzen ohne a-priori-Wissen generiert werden und den Zusammenhang zwischen Datenpunkten „erlernen“ und in Form von Gleichungen abbilden.
Beispiele für solche Algorithmen sind statistische Modelle oder Neuronale Netze. Gerne werden aus Marketing-Gründen andere Namen verwendet.

Datenkompression (durch Mittelwertbildung o. ä. Methoden)
Oft sind gemessene Größen so stark mit Rauschen überlagert, dass ein einzelner Messwert sich von Datensatz zu Datensatz ganz erheblich unterscheidet, obwohl am Verfahren keine tatsächliche Veränderung aufgetreten ist.
Stehen in solchen Fällen sehr viele Daten zur Verfügung, kann man das Rauschen nicht nur durch Filterverfahren oder durch die Bildung von gleitenden Mittelwerten (auch die Berechnung des gleitenden Maximums, Minimums oder Modalwerts ist möglich) korrigieren. Es ist in solchen Fällen auch möglich, Blöcke von Datensätzen durch die Bildung von Mittelwerten aller Variablen zu einem Datensatz zusammenzufassen.
Der Vorteil der Methode besteht in der drastischen Verkleinerung der Datenbasis und damit der leichteren Datenverarbeitung, der kürzeren Trainingszeiten und der Übersichtlichkeit (beachten Sie beispielsweise, dass die Grafikauflösung von Bildschirmen und Druckern die Darstellung von mehreren zehntausend Datenpunkten eines Graphen gar nicht zulässt – hier berechnet der Computer eine Kompression!). Gängige Tabellenkalkulationen können übrigens nur ca. 64.000 Zeilen verarbeiten.
Wir empfehlen dieses Vorgehen jedoch nur bei umfangreichen Daten (mindestens 20.000 Datensätze und acht oder mehr Eingänge), um sicherzustellen, dass der Informationsverlust vertretbar bleibt.

Defragmentieren (Datenbanken)
Bei vielen Datenbanken werden zu löschende Datensätze nicht wirklich gelöscht, sondern nur als „zu löschen“ markiert. Erst der Vorgang des Defragmentierens löscht die betroffenen Daten wirklich (und endgültig). Dabei kann die Datenbank-Größe schnell von mehreren Megabyte auf einige Kilobyte schrumpfen.

DMC – Dynamic Matrix Control
Bezeichnung für Produkte, welche auf Konzepten der dynamischen Matrizenregelung basieren und zu den APC-Konzepten gehören. Meist werden in einer Matrix Differentialgleichungen erster Ordnung verwendet, welche die Beziehung zwischen Eingangsgrößen (Störgrößen und Manipulierbare Variablen) beschreiben. Da die Wirklichkeit nicht linear ist, verwendet man in DMCs teilweise „Linearisierungsterme“, die von Hand angepasst werden.
Invertiert man alle Differentialgleichungen, die zusammen ein Modell des Prozesses enthalten, erhält man theoretisch einen Regler.
Theoretisch kann man DMC als überlagerte Regelungen verwenden. In der Praxis ist jedoch der Aufwand für Konfiguration und Berieb dieser Regler sehr hoch, so dass ein wirtschaftlicher Betrieb nur in Raffinerien überhaupt möglich ist.

Edukt
Einsatzstoff oder Rohstoff eines Prozesses

Enthalpie
„Innere“ Energie, die von einem Stoff absorbiert oder freigesetzt wird, wenn dieser z.B. seine Temperatur, seinen Aggregatzustand oder seine Strukturformel verändert. Enthalpie ist in einem Stoff „gespeichert“ und wird bei bestimmten Zustandsänderungen freigesetzt (oder aufgenommen).
Beispiel: Gefriert Wasser zu Eis, gibt es dabei Wärme ab, die sogenannte Kristallisationsenthalpie. Ursache: Wärme ist Bewegung der Teilchen. Werden die Teilchen „eingefroren“, verlieren sie Freiheitsgrade und geben die Bewegungsenergie als Kristallisationsenthalpie an die Umgebung ab.

Entzerrung
Die Berücksichtigung von Zeitverhalten durch bestimmte Datenverarbeitungsschritte. In der Hauptsache besteht die Entzerrung darin, Messwerte um die Verweilzeiten zwischen den Messungen zu verschieben. Dadurch werden in einem Datensatz alle Messwerte kombiniert, die zu einem Segment des Produktstroms gehören (Produktverfolgung).
Auch die Berücksichtigung von Prozessdynamik erfolgt im Rahmen der Entzerrung durch Anwendung von Zeitfunktionen.

ERP-System
Enterprise Ressource Planing-System; übersetzt etwa „System zur Planung der Unternehmensressourcen“. Der bekannteste Vertreter dieser Systeme ist SAP. In ERP-Systemen laufen alle zentralen Unternehmensfunktionen zusammen.
Personalplanung, Finanzplanung, Bestellwesen, Einkauf, Rechnungswesen etc. sind alle mit speziellen Modulen dieses Systems verbunden. Aufgabe des Systems ist es, die Gewerke eines Unternehmens zu koordinieren und planbar, sowie steuerbar zu machen.

Genetischer Algorithmus
Genetische Algorithmen ahmen die Evolution bei Optimierungsproblemen nach. Die Variablen einer Funktion werden dazu als Bitketten (Chromosomen genannt) codiert. Diese Bitketten werden zunächst zufällig erzeugt und dann immer wieder miteinander gekreuzt (Crossing Over), mutiert, selektiert und vermehrt.
Bereits nach wenigen Generationen sind die überlebenden Chromosomen sehr nah am globalen Optimum – auch bei einer großen Zahl von Variablen und mehreren lokalen Optima, die mit anderen Optimierungsverfahren nicht beherrschbar wären.

„In to out“-Connection
Kurzbezeichnung für „Multilayer-Perceptron mit direkter Verbindung von Eingangs- und Ausgangsneuronenschicht“. Diese Form von KNN konvergiert nur, wenn die in den Trainingsdaten verborgene Funktion linear separierbar ist. Das bedeutet, dass zu jedem Ausgangswert genau eine eindeutige Eingangskombination gehört. Daraus folgt, dass solche Netze invertierbar sind.
Der Vorteil der In to out – Netze gegenüber herkömmlichen Multilayer-Perceptrons liegt in der schnelleren Konvergenz, die oft auch zu einem besseren Endergebnis führt.

 „Incremental Design“
Design eines APC-Reglers, bei dem dieser aus Sicherheitsgründen nur Inkremente auf die Sollwerte einer unterlagerten Regelung gibt. Diese Methode ist sehr robust und fehlertolerant: Würde der APC-Regler direkt auf Sollwerte von Reglern oder gar auf Stellgrößen schreiben, hätte ein Fehler im APC-Regler sofort sicherheitsrelevante Konsequenzen für den Prozess.

Inferential Models
Amerikanischer Begriff für “Datengetriebene Modelle”, also Modelle bei denen mit Hilfe statistischer Gleichungen oder Neuronaler Netze Daten funktional so aufeinander abgebildet werden, dass die resultierende Modellgleichung sich verhält, wie das System, aus dem die Daten stammen.

Inkonsistenzen
Widersprüche in den Daten.
Um ein empirisches Modell eines Prozesses aus Daten heraus erstellen zu können, ist es notwendig, dass der zu modellierende Zusammenhang in diesen Daten eindeutig wieder zu finden ist. Eine gleiche (oder sehr ähnliche) Kombination von Eingangsparametern muss immer zum gleichen (oder sehr ähnlichen) Ergebnis führen. Liegen aber bei gleichen Eingängen die Ausgänge weiter voneinander entfernt, als dies nach dem Messfehler der Größen zu erwarten wäre, sind die Daten inkonsistent.
Damit solche Inkonsistenzen die Modellierung nicht stören, müssen sie entfernt werden. Bei NeuroModel® wird das in einem ersten Schritt durch einen Clusteralgorithmus ausgeführt.
Wenn sehr viele Inkonsistenzen auftreten, kann das verschiedene Ursachen haben. Möglicherweise wurde eine wichtige Eingangsgröße nicht in die Modellierung einbezogen. Es könnte auch sein, dass der Messfehler der Ausgangsgröße größer ist als angenommen, oder dass der Messfehler z.B. durch mathematische Operationen verstärkt wurde. Die dritte häufige Ursache für widersprüchliche Daten ist eine fehlerhafte zeitliche Entzerrung (siehe Zeitverhalten).

Invertierbarkeit (eines KNN)
Einfachste Möglichkeit der Optimierung.
Anstatt das Modell aus den Prozessparametern eine Qualität prognostizieren zu lassen, kehrt man Ein- und Ausgänge um. Die Produktqualität wird dem Modell als Eingang vorgegeben, und einige Prozessparameter werden als Ausgang festgelegt. Zu einer gewünschten Qualität würde das Modell dann die notwendigen Prozessparameter ausgeben.
Leider ist das nur möglich, wenn die Qualität wirklich nur auf eine einzige, eindeutige Art und Weise erreichbar ist, denn die Prognose eines KNN muss ebenfalls eindeutig sein.
Ob ein Zusammenhang invertierbar ist, ist zu erkennen, wenn man ein KNN mit der Option „In to out“ trainiert. Wenn das Training gut konvergiert, ist das Modell invertierbar.
Die Invertierung ist nur selten möglich und auch nur dann sinnvoll anwendbar, wenn nur wenige Prozessparameter bestimmt werden sollen. Für nicht invertierbare Zusammenhänge und eine größere Zahl von zu beeinflussenden Prozessparametern empfiehlt sich der Einsatz genetischer Algorithmen (z.B. NeuroModel® GenOpt™).

KMA (Kleine und Mittlere Anlagen)
Spezielle Klasse von Prozessen mit geringem Investitionsvolumen.
Für diese Anlagentypen kommen komplexe Automatisierungskonzepte aus Kostengründen nicht in Frage. Um für diese Anlagen eine Lösung verkaufen zu können, muss diese Lösung sehr standardisiert und universell sein.

KNN
Künstliches Neuronales Netz. Künstliche Neuronale Netze können mit entsprechenden Trainingsalgorithmen den funktionalen Zusammenhang historischer Daten erlernen und auf neue Daten anwenden.

Kopf einer Kolonne
Oberster Teil einer Destillationskolonne, in dem das dampfförmige Produkt kondensiert wird und zum Teil flüssig abgezogen, zum Teil wieder zurückgeführt wird. Das Verhältnis zwischen Rückführung und Kopfabzug bezeichnet man als Rücklaufverhältnis. Je größer das Rücklaufverhältnis einer Kolonne ist, desto reiner ist das Kopfprodukt, desto weniger Kopfprodukt wird aber mit einer gegebenen Energiemenge erzeugt.

Kopplung von Regelkreisen
Die Regelkreise eines jeden Prozesses werden von der Regelungstechnik typischerweise so behandelt, als hätten diese nichts miteinander zu tun. Tatsächlich sind aber die zu regelnden Größen in einem Prozess nicht unabhängig voneinander. In komplexen Prozessen ist es notwendig oder zumindest sinnvoll, die Zusammenhänge zwischen einzelnen Größen zu kennen und durch eine Kopplung zwischen den einzelnen Regelkreisen zu berücksichtigen.

KPI
„Key Performance Indicator“ – übersetzt Kennzahl. Eine Kennzahl dient der Beurteilung der Leistungsfähigkeit und der Wirtschaftlichkeit einer produktiven Einheit.

Typische beispielhafte Kennzahlen für technische Anlagen sind:
Produktionskosten pro Tonne
ProduktMTTR (Mean Time to repair) = Mittlere Reparaturzeit
MTBF (Mean Time between failure) = mittlere Laufzeit bis Fehler

Manipulierbare Variablen (MV)
MVs sind Variablen, welche durch bewussten (Stell-)Eingriff variiert werden können, um Produktionsziele und wirtschaftliche Ziele zu erreichen. Jede MV bedeutet einen Freiheitsgrad des Systems und erhöht gleichzeitig die Möglichkeiten zum Erreichen von Produktionszielen, gestaltet damit aber auf der anderen Seite auch ein Optimierungsvorhaben aufwendiger und komplexer.
Ziel eines jeden Vorhabens der parametrischen Prozessoptimierung ist es, die MVs durch einen Automatismus oder durch eine manuelle Fahrstrategie so zu führen, dass zu jedem Zeitpunkt eine optimale Prozessführung gegeben ist.

Matrixregelung / Matrizenregelung
Technisch veraltetes Konzept zur Prozessführung von Prozessen auf der Basis einfacher statistischer Zusammenhänge zwischen Störgrößen, Manipulierbaren Variablen und Zielgrößen.

MES-System
„Management Execution System“ – ein Begriff der ursprünglich von der MESA eingeführt wurde und nun in der Norm VDI5600 für Europa genau beschrieben wurde.

Modell
Ein mathematisches Abbild eines Teiles der Wirklichkeit

Modellgüte
Genauigkeit, mit der ein Modell die Wirklichkeit beschreibt. Die Methode der Beurteilung der Modellgüte hängt vom Modellzweck ab.

Modellzweck
Verwendungszweck des Modells.

NeuroModel®
Patenrechtlich und warenzeichenrechtlich geschützte Software zur Erstellung von Modellen auf der Basis von KNN; speziell auf die Bedürfnisse der chemischen und verfahrenstechnischen Industrie abgestimmt. Hersteller: atlan-tec Systems GmbH, Willich.

 NeuroModel® GenOpt™
Optimierer auf der Basis von genetischen Algorithmen. NeuroModel® GenOpt™ ermittelt, am mit NeuroModel® generierten Modell, den in Bezug auf eine vordefinierte Zielfunktion optimalen Arbeitspunkt.
Die Besonderheit von NeuroModel® GenOpt™ ist die Möglichkeit, für alle Variablen Schranken festzulegen, wobei auch komplexe Funktionen möglich sind, z.B.: „‚T 305‘ > ‚T401‘ * 1.05 AND ‚T 305‘ < ‚T 401‘ * 1.5“.
NeuroModel® GenOpt™ erlaubt auch die direkte Online-Anbindung an Regler zur Sollwertvorgabe, um beispielsweise jederzeit den Arbeitspunkt einer Anlage automatisch optimal an neue Gegebenheiten anzupassen.

OPC
„Object linking and embedding for process control“, auf der Windows-Technologie „OLE“ basierendes standardisiertes Kommunikationsprotokoll zur Kommunikation zwischen Prozessleitsystemen oder SPS-Systemen und übergeordneten Systemen wie Prozessführungssystemen, ERP-Systemen und MES-Systemen.

OTS
Operator Training Simulator. Simulator für den Zweck des Trainings von Anlagenfahrern.

Prozessführung
Automatischer Betrieb eines Prozesses durch eine Basisregelung und eine überlagerte Regelung, in einer Weise, dass eine Anlage oder ein Prozess vollautomatisch läuft.

Prozessoptimierung
Alle Anstrengungen, die dazu führen, dass ein Prozess ökonomisch optimal läuft.

Rigorose Modelle
Modelle auf der Basis naturwissenschaftlich fundierter Gleichungen, also entweder Bilanzgleichungen (stationäre rigorose Modelle) oder Differentialgleichungen (dynamische rigorose Modelle). Da alle fundamentalen Gleichungen aber immer auf Annahmen beruhen und Vereinfachungen beinhalten, gibt es faktisch kein „echtes“ rigoroses Modell.

ROI
Return of Investment – Zeit, nach der eine Investition sich rentiert hat, also z.B. durch Einsparungen erwirtschaftet wurde.

Schranke / Constraint
Funktion, die meist eine technische Grenze beschreibt und das Erfüllen einer Zielfunktion beschränkt.

SecurityNet®
Bei herkömmlichen KNN sind Interpolation und Extrapolation schwierig. In der Nähe der trainierten Daten ist die Prognose stets recht genau. Bei zunehmender Entfernung von diesen Stützstellen wird das Verhalten des Netzes allerdings immer chaotischer.
NeuroModel® löst dieses Problem durch den SecurityNet®-Algorithmus, der im Hintergrund die Prognosen mehrerer auf die gleiche Weise trainierter KNN bestimmt. Die beste Interpolation/ Extrapolation wird ausgewählt und der Abstand zur schlechtesten Interpolation/ Extrapolation als Sicherheitsintervall (SecurityNet®-Wert) angegeben.

„Single Window Konzept“
Konzept mit dem Zweck, die Anlagenbediener nicht zu überfordern. Dieses aus der amerikanischen Papierindustrie stammende Konzept fordert, dass der Anlagenfahrer (Operator) nicht mehrere Bedienoberflächen haben darf. Es wird vorgeschlagen, alle Bedieneingriffe durch den Operator und die Information des Operators nur über das Prozessleitsystem zu erlauben. Werden also APC-Strategien aufgebaut, so sollten diese immer nur über das Prozessleitsystem bedienbar sein.

Stationäre Modelle
Künstliche neuronale Modelle sind im Prinzip stationäre Modelle. Sie betrachten stets nur einen Datensatz für sich genommen und können die Prozessdynamik deshalb nicht direkt verarbeiten oder abbilden.
Es ist aber möglich, durch geeignete Verfahren zur Datenaufbereitung die Prozessdynamik in einem Datensatz zu beschreiben und damit auch für die stationären KNN beherrschbar zu machen. Das eigentliche Modell muss dann allerdings von einem Verweilzeitmodell umgeben sein, um seine Aufgabe in der Produktion erfüllen zu können.
atlan-tec bezeichnet solche Verfahren, welche Verweilzeitmodelle auf Datensätze anwenden, als Zeitfunktionen.

Störgröße
Variable, die den Verlauf eines Produktionsprozesses stört, wenn sie nicht durch Benutzereingriffe oder Regleraktivitäten ausgeglichen wird.

Sumpf einer Kolonne
Unterster Teil einer Destillationskolonne, in dem das herunter laufende flüssige Produkt zum Teil wieder aufgeheizt und zum Teil flüssig abgezogen wird. Das Verhältnis zwischen Verdampfung und Sumpfabzug bezeichnet man als Aufheizverhältnis. Je größer das Aufheizverhältnis einer Kolonne ist, desto reiner ist das Sumpfprodukt, desto weniger Sumpfprodukt wird aber mit einer gegebenen Energiemenge erzeugt.

Trainingsverfahren
Bevor ein KNN angewendet werden kann, muss es anhand historischer Daten die gewünschten Zusammenhänge erlernen.
Dazu gibt es verschiedenste Algorithmen. Für den in NeuroModel® verwendeten Typ von KNN hat sich der Backpropagation-Algorithmus bewährt, der von atlan-tec modifiziert wurde, um zuverlässig, schnell und unter Berücksichtigung von hohen Sicherheitsanforderungen zu konvergieren.
Das Verfahren besteht im Wesentlichen darin, ein KNN zufällig zu initialisieren und dann die Parameter der Netzarchitektur so lange mit einem Näherungsverfahren zu variieren, bis die Quadratsumme der Abweichungen zwischen den KNN-Ausgängen und den wahren Ausgangswerten, die mit den Trainingsdaten vorgegeben werden, minimal ist.
Das besondere am NeuroModel®-Algorithmus ist das dynamische Anpassen der Parametervariation durch ein konjugiertes Gradientenverfahren, durch das das Hängenbleiben in lokalen Minima ebenso vermieden wird wie das Überspringen des globalen Fehlerminimums.
Außerdem verfügt NeuroModel® über den zum Patent angemeldeten SecurityNet®-Algorithmus, der die Prognosequalität verbessert und eine Einschätzung der Interpolations- und Extrapolationsfähigkeit des Netzes an jedem Punkt des Werteraums erlaubt.

Typical
Vom Clusterverfahren werden identische Datensätze zu Typicals agglomeriert (zusammengefasst). NeuroModel® verwendet dabei die Fehlerradien der verschiedenen Größen als zulässige Abweichung.
Die Bildung von Typicals ist notwendig, um den gesamten Wertebereich gleich gut modellieren zu können. Ohne diesen Schritt würden häufig vorkommende Datensätze vom Trainingsalgorithmus erheblich übergewichtet.
Da bei der Bildung von Typicals gleichzeitig Inkonsistenzen erkannt und entfernt werden, ist es nicht notwendig, die Qualität eines Datensatzes an der Häufigkeit seines Auftretens zu messen.

Validierung eines KNN
a) allgemein
Die Validierung ist der gezielte Test der Prognosen eines fertig trainierten KNN. Man gibt historische, aber dem KNN bisher unbekannte, Datensätze auf das KNN, lässt es eine Prognose errechnen und vergleicht diese mit dem tatsächlichen Wert der Ausgangsgrößen.
b) automatische Validierung bei NeuroModel®
NeuroModel® verfügt über eine besondere Form der Validierung. Dabei separiert es einen wählbaren Anteil von Datensätzen aus den Trainingsdaten, wobei auf Wunsch dem Benutzer die ausgewählten Datensätze nicht zugänglich gemacht werden. Mit diesen Daten wird das Netz nach dem Training validiert und das Ergebnis der Validierung im Netfile abgespeichert.
Da das Ergebnis der Validierung im Netfile fälschungssicher codiert ist und der Benutzer keine Möglichkeit hat, gezielt „einfache“ Validierungsdaten auszusuchen oder so oft Daten zu separieren, bis er zufällig eine ihm angenehme Auswahl erreicht, genügt diese Validierung den hohen Ansprüchen von Behörden wie TÜV und FDA (Food and Drug Administration, US-Arzneimittelbehörde).
Zur transparenten Validierung empfehlen wir, von der NeuroModel®-Option „zur Auswahl eines bestimmten Datenfiles zur automatischen Validierung“ Gebrauch zu machen, wenn keine Behördenauflagen bestehen. Das Ergebnis wird dann ebenfalls im Netfile abgelegt, aber Sie haben Zugriff auf die Validierungsdaten, können sich die Validierung grafisch anzeigen lassen usw.

Werteraumabdeckung
Interpolation und Extrapolation mit herkömmlichen KNN sind schwierig (und bei einigen Netztypen gar nicht möglich), da wirklich zuverlässige Prognosen nur in der Nähe der Stützstellen möglich sind. NeuroModel® löst dieses Problem durch den SecurityNet®-Algorithmus und erlaubt deshalb Interpolation und (in begrenztem Maß) Extrapolation.
Dennoch ist auch bei NeuroModel® eine gute Werteraumabdeckung anzustreben. Wie gut die Abdeckung des Werteraums ist, zeigen die SecurityNet®-Werte an. Sie sollten möglichst niedrig sein.
Wenn die Werteraumabdeckung eines Modells zunächst in Teilbereichen nicht ausreicht, kann man (z.B. unterstützt von der Post-Mortem-Versuchsplanung von NeuroModel®) zusätzliche Datensätze sammeln und später sehr schnell und einfach ein verbessertes Modell trainieren. In den gut abgedeckten Teilen des Werteraums ist das Modell aber bereits voll einsatzfähig. Dabei stellen die ständig berechneten SecurityNet®-Werte sicher, dass das Modell nicht unbemerkt in weniger zuverlässige Bereiche gerät.

Zeitfunktion
atlan-tec hat mehrere Datenverarbeitungsmethoden entwickelt, die die Berücksichtigung von Prozessdynamiken erlauben. Damit stationäre Modelle wie KNN Dynamik abbilden können, muss der Verlauf des dynamischen Wertes in einem einzigen Datensatz codiert werden.
Beispiele sind die Zeitfunktion TimeRow, bei der Stichproben aus der Vergangenheit eines Werts mit in den Trainingsdatensatz einbezogen werden, oder die Zeitfunktion TimePolynom, bei der der Verlauf einer Größe in Form von Polynomkoeffizienten erfasst wird.

Zeitverhalten
Der Begriff Zeitverhalten beinhaltet zwei Probleme:
Der erste Aspekt ist das Totzeitproblem. Verweil- und Totzeiten bei Prozessen bewirken, dass eine Änderung eines Parameters sich erst sehr viel später an den nachfolgenden Messungen zeigt, nämlich dann, wenn der Produktstrom dort ankommt.
Beispiel: Die Temperatur eines Drehrohrofens am Anfang des Prozesses wirkt auf die Qualität des Produkts, das die Anlage etwa 30 Minuten nach dem Ofen verlässt und dort analysiert wird. Bei der Betrachtung von Analysen und Temperaturen muss man die Temperaturwerte betrachten, die jeweils etwa 30 Minuten vor der Analyse gemessen wurden. Dieser Temperatur war die analysierte Probe tatsächlich ausgesetzt.
Die auf diese Weise erreichte Zuordnung von Ursache und Wirkung im gleichen Datensatz wird auch als Entzerrung der Daten bezeichnet.
Der zweite Aspekt von Zeitverhalten ist die Berücksichtigung von Prozessdynamik. Da KNN stationäre Modelle sind, muss die Prozessdynamik in nur einem Datensatz codiert und dem Modell präsentiert werden. Die dazu notwendigen komplexen Datenverarbeitungsmethoden werden von atlan-tec als Zeitfunktionen bezeichnet.
Während das Problem von Verweilzeiten in der Verfahrenstechnik sehr häufig auftritt (es wird dennoch oft übersehen), sind wirklich dynamische Prozesse vergleichsweise selten. Wenn aber Prozessdynamik vorliegt, kann sie die Modellierung erheblich erschweren.

Zielfunktion
Funktion, die ein Produktionsziel in einem mathematischen Formalismus beschreibt und in der Regel sehr komplex ist.

Optimiere Deine Möglichkeiten

Durch die weitere Nutzung der Seite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn Sie diese Website ohne Änderung der Cookie-Einstellungen verwenden oder auf "Akzeptieren" klicken, erklären Sie sich damit einverstanden.

Schließen