Roar-Net forscht an randomisierten Algorithmen

Prozessoptimierung per Zufallskomponente

Zur Optimierung industrieller Prozesse können mathematische Verfahren eingesetzt werden, in die eine Zufallskomponente eingebaut ist. Um diese randomisierten Algorithmen wettbewerbsfähiger zu machen, ist das europaweite Forschungsprojekt Roar-Net (Randomised Optimisation Algorithms Research Network) ins Leben gerufen worden.

Bild: 13FTStudio/stock.adobe.com
Bild: 13FTStudio/stock.adobe.com

„Randomisierte Optimierungsalgorithmen zeichnen sich dadurch aus, dass sie bei der Suche nach der besten Lösung für ein gegebenes Problem auf Zufallskomponenten zurückgreifen. Ihr Einsatz ist noch nicht weit verbreitet, es dominieren die herkömmlichen, deterministischen Verfahren. Die Aufgabe unseres Projekts ist es, die Möglichkeiten dieser Methoden bekannter und einfacher zugänglich zu machen“, sagt Naujoks vom Institut für Data Science, Engineering, and Analytics der TH Köln, der eine von sechs Arbeitsgruppen des Forschungsprojekts Roar-Net leiten wird.

Bei deterministischen Verfahren, die ohne den Zufall arbeiten, sind die Parameter im Voraus bekannt und das zu lösende Problem muss meist an den vorgegebenen Optimierungsalgorithmus angepasst werden. Randomisierte Verfahren hingegen sind flexibler und damit schneller zu beschreiben und zu implementieren als ihre deterministischen Gegenstücke. „Soll beispielsweise das Design einer Schiffsschraube optimiert werden, erzeugt der randomisierte Algorithmus erst einmal Lösungen, die sicher nicht zufriedenstellend sind. Danach werden Komponenten dieser Lösung zufällig verändert. Verbessert sich das Ergebnis, geht es in diese Richtung weiter; wenn nicht, dann wird der Ansatz verworfen. So nähert sich der Algorithmus sukzessive einem Optimum an“, erläutert Naujoks.

Das Ziel von Roar-Net

Das Forschungsprojekt ist in sechs Arbeitsgruppen gegliedert, in denen rund 150 Forschende aus ganz Europa jeweils Teilaspekte des Themas behandeln – etwa Problemmodellierung und Erfahrungen der Nutzer oder Auswahl und Konfiguration des Algorithmus. Naujoks leitet die Arbeitsgruppe Benchmarking, die die Ergebnisse verschiedener randomisierter Algorithmen experimentell miteinander vergleichen wird und diese auch in Bezug zu deterministischen Verfahren setzt. „Durch die Zufallskomponente kann der gleiche Algorithmus bei zehn Durchläufen auch zehn verschiedene Ergebnisse liefern. Ziel des Benchmarkings ist es, robuste Algorithmen zu identifizieren, die möglichst oft valide Ergebnisse bringen und dabei leistungsstärker als deterministische Verfahren sind“, so Naujoks.

Am Ende der vierjährigen Projektlaufzeit möchte das Konsortium ein Paket an zuverlässigen Algorithmen bereitstellen. Nutzer sollen dann auf einer Webseite auf Basis der Beschreibung des spezifischen Problems ein passendes Optimierungsverfahren finden.







  • Ähnlichkeit erkannt, Kosten reduziert

    In der Variantenfertigung können Medien- und Systembrüche sowie Prozesse ohne digitales Abbild schnell zu Fehlern und Fehleinschätzungen führen. Wer die Daten hingegen…


  • Innovationstreiber Thin[gk]athon: Kollaborative Intelligenz trifft auf Industrie-Expertise

    Der Thin[gk]athon, veranstaltet vom Smart Systems Hub, vereint kollaborative Intelligenz und Industrie-Expertise, um in einem dreitägigen Hackathon innovative Lösungsansätze für komplexe Fragestellungen…


  • Prozessoptimierung in der anspruchsvollen Montage

    Das Familienunternehmen Fimab aus Neubulach im Nordschwarzwald setzt bei der Prozessoptimierung auf die Webanwendung Newdrive Analytics. Entwickelt wurde das Tool von einem…


  • Was Assistenzsystemen oft im Weg steht

    Mit digitaler Werkerassistenz unterstützen Hersteller die Montageprozesse bei kleineren Losgrößen. Dabei sehen sich Unternehmen bei der Integration solcher Systeme oft mit Herausforderungen…


  • IT-Modernisierung als Softwareprojekt

    Softwarewechsel, alte Hardware und fehlende Skalierbarkeit – für die IT-Modernisierung gibt es viele Gründe. Wer umfassende Projekte dieser Art strategisch plant und…