<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Portfolio | Koehn AI</title><link>https://www.koehn.ai/de/portfolio/</link><atom:link href="https://www.koehn.ai/de/portfolio/index.xml" rel="self" type="application/rss+xml"/><description>Portfolio</description><generator>Hugo Blox Builder (https://hugoblox.com)</generator><language>de-DE</language><lastBuildDate>Mon, 04 Aug 2025 00:00:00 +0000</lastBuildDate><image><url>https://www.koehn.ai/media/logo.svg</url><title>Portfolio</title><link>https://www.koehn.ai/de/portfolio/</link></image><item><title>Optimierung der statistischen Prognose</title><link>https://www.koehn.ai/de/portfolio/supply_chain/</link><pubDate>Mon, 04 Aug 2025 00:00:00 +0000</pubDate><guid>https://www.koehn.ai/de/portfolio/supply_chain/</guid><description>&lt;h2 id="problemstellung"&gt;Problemstellung&lt;/h2&gt;
&lt;p&gt;Der Kunde setzte SAP IBP Demand Planning für die Bedarfsprognose seiner Produkte ein. Allerdings führten gravierende Marktturbulenzen – darunter Engpässe bei Erdgas, starke Preisvolatilität, ein sprunghafter Anstieg der Nachfrage nach Wärmepumpen sowie dynamische regulatorische Veränderungen in Deutschland – zu erheblicher Instabilität und beeinträchtigten die Prognosegenauigkeit deutlich. Ein Großteil der Produktzeitreihen zeigten signifikante Strukturbrüche, während das bestehende Forecasting-Setup nicht über die notwendige Robustheit verfügte, um auf diese externen Schocks adäquat zu reagieren. Insbesondere fehlten Verfahren zur systematischen Vorverarbeitung der Eingangsdaten: Weder wurden Ausreißer zuverlässig bereinigt, noch wurden temporäre Sondereffekte geglättet. In der Folge reagierten die Modelle überempfindlich auf kurzfristige Volatilität, was zu inkonsistenten und sprunghaften Prognoseverläufen führte.&lt;/p&gt;
&lt;p&gt;Zudem wurden Zubehörprodukte, die typischerweise in Kombination mit Kernprodukten abgesetzt werden, separat prognostiziert, wodurch relevante Nachfrageabhängigkeiten unberücksichtigt blieben.&lt;/p&gt;
&lt;h2 id="gelieferte-lösung"&gt;Gelieferte Lösung&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Einführung klar definierter Prozesse zur Datenvorverarbeitung, einschließlich der Erkennung und Korrektur von Ausreißern, um Zeitreihen zu glätten und die Stabilität der Eingangsdaten für die Modellierung zu erhöhen.&lt;/li&gt;
&lt;li&gt;Ablösung des bisherigen Best-Fit-Ansatzes durch eine Ensemble-Prognosestrategie in SAP IBP, bei der mehrere Modelle kombiniert werden, um belastbarere und genauere Vorhersagen über sämtliche Produktgruppen hinweg zu erzielen.&lt;/li&gt;
&lt;li&gt;Entwicklung einer maßgeschneiderten, Python-basierten Lösung zur Prognose von Zubehörprodukten. Das Modell basiert auf den statistischen Korrelationen zwischen Kern- und Zubehörprodukten und leitet die erwartete Zubehörnachfrage direkt aus den Prognosen der Kernprodukte ab.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="implementierung--ausführung"&gt;Implementierung &amp;amp; Ausführung&lt;/h2&gt;
&lt;p&gt;Zu Projektbeginn setzte der Kunde auf den Best-Fit-Algorithmus von SAP IBP, der ein einzelnes Modell (z. B. ARIMA, Exponential Smoothing, Gradient Boosting) basierend auf historischen Daten auswählte. Wir ersetzten diesen Ansatz durch eine Ensemble-Prognosestrategie, bei der mehrere Modelle zu einem gewichteten Gesamtergebnis kombiniert werden, um belastbarere und präzisere Prognosen zu erzielen. Die optimalen Modellgewichte wurden mittels Zeitreihen-Cross-Validation ermittelt, um die reale Prognoseleistung zu bestimmen und eine robuste Auswahl über verschiedene Nachfragemuster hinweg zu ermöglichen. Diese Gewichtungen wurden regelmäßig für Kernprodukte, Zubehör und stark saisonale Produktgruppen neu kalibriert.&lt;/p&gt;
&lt;p&gt;Ein zentraler Hebel für die Verbesserung der Prognosegüte war die Einführung einer gezielten Datenvorverarbeitung. Durch die systematische Glättung der Verkaufsdaten und die Korrektur von Ausreißern konnten kurzfristige Ausschläge wirksam abgefedert und die Prognosestabilität deutlich erhöht werden.&lt;/p&gt;
&lt;p&gt;Im Verlauf des Projekts entwickelten wir zusätzlich eine maßgeschneiderte Python-basierte Softwarelösung (&amp;ldquo;Core Product Governed Accessory Forecasting - CPGAF&amp;rdquo;) zur signifikanten Verbesserung der Bedarfsplanung für Zubehörprodukte. Die Software leitet die Bedarfsprognosen für Zubehörprodukte direkt aus der erwarteten Nachfrage der Kernprodukte ab und bezieht Produktlebenszyklen mit ein.&lt;/p&gt;
&lt;p&gt;Ergänzend führten wir strukturierte Analysen durch, um zentrale Performance-Treiber über unterschiedliche Produktgruppen, Regionen und Prognosegranularitäten hinweg zu erkennen.&lt;/p&gt;
&lt;h2 id="resultate--erfolge"&gt;Resultate &amp;amp; Erfolge&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Deutliche Steigerung der Prognosegüte mit einer Verbesserung zentraler KPIs um 15 bis 30 Prozent in den verschiedenen Zielmärkten.&lt;/li&gt;
&lt;li&gt;Erfolgreiche Einführung der Python-basierten CPGAF-Lösung zur präziseren und effizienten Zubehörplanung auf Basis der Prognosen für Kernprodukte.&lt;/li&gt;
&lt;li&gt;Sicherstellung verlässlicher Absatzprognosen auch unter volatilen Marktbedingungen, als Grundlage für fundierte, datengetriebene Entscheidungen.&lt;/li&gt;
&lt;/ul&gt;</description></item><item><title>Acoustic Monitoring for Predictive Maintenance of Turbines</title><link>https://www.koehn.ai/de/portfolio/acoustic_monitoring/</link><pubDate>Wed, 04 Jun 2025 00:00:00 +0000</pubDate><guid>https://www.koehn.ai/de/portfolio/acoustic_monitoring/</guid><description>&lt;p&gt;&lt;strong&gt;Acoustic Monitoring and Predictive Maintenance in Turbines&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;Predictive maintenance leverages advanced data analysis and machine learning to monitor equipment health, enabling early detection of emerging faults before they lead to costly downtime or catastrophic failures. By transforming raw sensor data into actionable insights, organizations can optimize maintenance schedules, reduce unplanned outages, and extend the life of critical assets. This proactive approach lowers operational costs while enhancing safety and reliability in demanding industrial environments.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Client Profile and Context&lt;/strong&gt;&lt;br&gt;
The client is a leading turbine manufacturer with turbines in service. They commissioned a research project to advance predictive maintenance using microphone-based acoustic monitoring. The goal was to explore unsupervised generative methods that learn reference audio spectra conditioned on operating state, using turbine acoustics and operational parameters, so that real acoustic emissions can be compared with modeled spectra, with a particular emphasis on out-of-domain performance.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Challenge&lt;/strong&gt;
The research team needed to develop generative models that represent normal turbine acoustics without relying on labeled fault data. Acoustic information originated from externally fitted microphones and was available as spectrograms with predefined frequency resolution rather than raw audio, paired with internal machine and ambient parameters. Selecting appropriate conditioning variables, such as inlet guide vane position, load and compressor inlet temperature, was essential to keep generated spectra physically plausible across operating regimes. High noise levels and the absence of labeled anomalies made learning and evaluation difficult. The team therefore pursued a robust unsupervised approach aimed at producing realistic reference spectrograms with out-of-domain generalization under varied turbine conditions, establishing the basis for future anomaly detection.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Our Approach and Solution&lt;/strong&gt;&lt;br&gt;
We began by conducting extensive exploratory data analysis (EDA) on spectrograms derived from externally fitted microphones. Dimensionality reduction, using Principal Component Analysis (PCA), indicated that inlet guide vane position and compressor inlet temperature were the primary drivers of separable operating domains. Data preparation involved selecting frequency bands with optimal signal-to-noise ratios and restricting records to normal operating conditions, with out-of-domain regimes held out for evaluation. Exponential mapping and logarithmic inversion prevented non-physical spectrogram values. Visualizations in Python with Plotly guided our feature-engineering decisions.&lt;/p&gt;
&lt;p&gt;Building on these insights, we developed a Conditional Variational Autoencoder (CVAE) in PyTorch. The CVAE’s convolutional neural network (CNN)–based encoder–decoder architecture was conditioned on key parameters to balance spectrogram reconstruction accuracy and latent-space regularization. Comprehensive grid searches optimized encoder and decoder layer depths, latent-space dimensions, and regularization strength. Iterative training rounds included hypothesis-driven evaluations of in-domain and out-of-domain spectrogram reconstructions. Throughout the project, our team collaborated closely with client experts, reviewing latent-space visualizations and refining conditioning strategies. The final deliverables comprised a trained CVAE for spectrogram generation, a detailed scientific report outlining methodology and findings, and a roadmap for extending the research to real audio anomaly detection (once raw audio is recorded) using pre-trained audio transformers.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;We provided&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Generative CVAE models trained to reconstruct and generate acoustic spectrograms from microphones under varied turbine conditions.&lt;/li&gt;
&lt;li&gt;Comprehensive exploratory analysis and data visualization, enabling clear identification of operational regimes.&lt;/li&gt;
&lt;li&gt;Identification and selection of critical machine parameters to ensure robust model conditioning.&lt;/li&gt;
&lt;li&gt;A detailed scientific report summarizing methodologies, findings, and actionable recommendations for future anomaly detection.&lt;/li&gt;
&lt;li&gt;A strategic roadmap for integrating real audio data once recorded and leveraging state-of-the-art anomalous sound detection methods.&lt;/li&gt;
&lt;/ul&gt;</description></item><item><title>Erklärbare KI für neuronale Netze in der Medikamentenentwicklung</title><link>https://www.koehn.ai/de/portfolio/explainable_ai/</link><pubDate>Mon, 26 May 2025 00:00:00 +0000</pubDate><guid>https://www.koehn.ai/de/portfolio/explainable_ai/</guid><description>&lt;p&gt;In den letzten Jahrzehnten haben sich Künstliche Intelligenz (KI) und Maschinelles Lernen (ML) als leistungsfähige Werkzeuge zur Beschleunigung der Arzneimittelentwicklung erwiesen, insbesondere durch Methoden wie die Modellierung quantitativer Struktur-Wirkungs-Beziehungen (QSAR), die die biologische Aktivität kleiner Moleküle vorhersagen. Allerdings sind die Ergebnisse von ML-Modellen, insbesondere von Neuronalen Netzen, für Wissenschaftler oft schwer zu interpretieren und werden häufig als &amp;ldquo;Black Boxes&amp;rdquo; bezeichnet .&lt;/p&gt;
&lt;p&gt;Zur Unterstützung eines rationalen Wirkstoffdesigns und zur Erfüllung der zunehmenden behördlichen Anforderungen an die Modelltransparenz werden jetzt erklärbare KI-Methoden (XAI) eingesetzt, um Einblicke in die Art und Weise zu geben, wie ML-Modelle ihre Vorhersagen treffen. Im Jahr 2024 wurde Koehn AI von einem deutschen Pharmaunternehmen gebeten, bei der Integration der neuesten Fortschritte bei XAI-Techniken in ihr neuronales QSAR-Netzwerk Pytorch zu helfen.&lt;/p&gt;
&lt;p&gt;Unsere Arbeit konzentrierte sich auf die Evaluierung von Erklärungswerkzeugen spezifisch für Neuronale Netze, wie Integrated Gradients (Integrierte Gradienten) über die Captum-Bibliothek, mit verallgemeinerbaren Ansätzen wie Local Interpretable Model-Agnostic Explanations (LIME) und kontrafaktischer Generierung unter Verwendung des STONED-Algorithmus in Verbindung mit Self-Referencing Embedded Strings (SELFIES) Molekularrepräsentationen. Diese Methoden wurden anhand von realen Aktivitätsklippendatensätzen verglichen und über verschiedene Modelltypen hinweg evaluiert, einschließlich tabellarischer, graphbasierter und chemischer Spracharchitekturen.&lt;/p&gt;
&lt;p&gt;Wir implementierten eine robuste Pipeline, die es den Forschern ermöglichte, die vorhergesagten molekularen Aktivitätsbeiträge auf einzelne Atome und molekulare Fingerabdrücke abzubilden, visualisierten durch RDKit Similarity-Maps, um intuitive, chemisch sinnvolle Interpretationen zu bieten. Die Lösung wurde hinsichtlich ihrer Leistung optimiert, um eine nahtlose und effektive Integration in die bestehenden Arbeitsabläufe des Kunden zu gewährleisten, und wurde mit dessen QSAR-Produktionsplattform eingesetzt, um die Entscheidungsfindung beim rationalen Wirkstoffdesign zu unterstützen.&lt;/p&gt;
&lt;h2 id="wir-lieferten"&gt;Wir lieferten:&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Entwicklung eines erklärbaren KI-Moduls, das in das neuronale QSAR-Netz des Kunden integriert ist&lt;/li&gt;
&lt;li&gt;Evaluierung von XAI-Methoden, einschließlich Captum, LIME und kontrafaktischer Daten mit SELFIES- und STONED-Algorithmen&lt;/li&gt;
&lt;li&gt;Unterstützung für mehrere Architekturen Neuronaler Netze mit Visualisierung durch RDKit&lt;/li&gt;
&lt;li&gt;Benchmarking mit Activity-Cliff-Datensätzen zur Bewertung der Relevanz und Zuverlässigkeit von Erklärungen&lt;/li&gt;
&lt;li&gt;Optimierung von Erklärbarkeits-Pipelines für effiziente Endnutzerinteraktion in Arbeitsabläufen&lt;/li&gt;
&lt;li&gt;Bereitstellung des finalen Moduls in der Produktionsumgebung des Kunden zur Unterstützung eines fundierten molekularen Designs&lt;/li&gt;
&lt;/ul&gt;</description></item><item><title>Vorausschauende Wartung und Erkennung von Anomalien in der grünen Energieerzeugung</title><link>https://www.koehn.ai/de/portfolio/predictive_maintenance/</link><pubDate>Wed, 09 Apr 2025 00:00:00 +0000</pubDate><guid>https://www.koehn.ai/de/portfolio/predictive_maintenance/</guid><description>&lt;p&gt;Um die Kosten für Ausfallzeiten kritischer Produktionsanlagen im Einsatz zu minimieren, hat ein global agierender Hersteller Koehn AI mit der Entwicklung eines vorausschauenden Wartungssystems beauftragt.
Wenn es um die Energieerzeugung geht, hat jeder noch so kurze Stillstand seinen Preis.
Es ist daher von entscheidender Bedeutung, mögliche Fehlerpunkte zu erkennen, bevor sie auftreten, so dass die Techniker den Fehler präventiv beheben und die Kosten minimieren können - in Echtzeit.&lt;/p&gt;
&lt;p&gt;Koehn AI wurde 2024 von einem weltweit tätigen Hersteller von Solartechnologiegeräten beauftragt, eine durchgängige Lösung für die vorausschauende Wartung zu entwickeln, mit der die Nutzer ihre Geräte auf Fehler und Anomalien überwachen können.
Wir haben uns vorgenommen, ein umfassendes End-to-End-Produkt zu entwickeln: von der Konfiguration der Geräte für die Datenausgabe über die Einrichtung von Datenpipelines und Data-Governance-Infrastrukturen bis hin zur Erstellung von KI-Modellen und der Visualisierung der Ergebnisse.
Dabei haben wir state-of-the-art Datenanalyse- und Warehouse-Dienste genutzt: Microsoft Fabric- und Databricks-Instanzen wurden in Azure mit einem Code-first-, Infrastructure-as-Code-Ansatz eingerichtet, auf denen ETL-Pipelines auf der Grundlage von Spark Structured Streaming eingesetzt wurden.
Nachdem der Zugang zu sauberen und verwertbaren Streaming-Daten sichergestellt war, kam das umfangreiche wissenschaftliche und technische Know-how von Koehn AI bei der Entwicklung von maßgeschneiderten, anwendungsspezifischen Algorithmen zum Tragen, die auf die interne Funktionsweise der Geräte abgestimmt waren.
Die Algorithmen, die nun zeitgesteuert über die Datenbank laufen, geben ihre Ergebnisse in einem ansprechenden Visualisierungs-Dashboard aus.&lt;/p&gt;
&lt;h2 id="was-wir-geliefert-haben"&gt;Was wir geliefert haben&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Eine skalierbare Echtzeit-Datenpipeline, die den wachsenden Anforderungen der expandierenden Geräteflotte des Kunden gerecht wird.&lt;/li&gt;
&lt;li&gt;Eine umfassende, marktfähige Lösung zur Erkennung von Anomalien als Mehrwertdienst für die Kunden des Auftraggebers.&lt;/li&gt;
&lt;li&gt;Ein benutzerfreundliches Dashboard, das Echtzeit-Überwachung und -Warnungen ermöglicht und für interne Entwickler zugänglich ist.&lt;/li&gt;
&lt;/ul&gt;</description></item></channel></rss>