Volker Bühner leitet die Business Unit Energie der Kisters-Gruppe. Er hat 1998 an der TU Dortmund am Lehrstuhl für elektrische Energieversorgung über den Einsatz von KI in der Energieversorgung promoviert und Projekterfahrung mit KI in den Themenbereichen Prognosen, Optimierung und Predictive Maintenance.
E&M: Herr Bühner, die Energiewirtschaft scheint in den letzten Jahren immer mehr von künstlicher Intelligenz durchdrungen worden zu sein. Ohne KI läuft gar nichts mehr. Trifft das zu?
Bühner: Man kann durchaus den Eindruck gewinnen, dass in den letzten beiden Jahren sehr viel an künstlicher Intelligenz neu geschaffen und in der Energiewirtschaft an allen möglichen Stellen eingeführt wurde. Tatsächlich hat man auf vieles, das vorher kein Etikett getragen hat, nun das Label ‚KI‘ draufgeklebt.
E&M: Zu Recht?
Bühner: Ja, auf jeden Fall. Auf sehr vielen Anwendungen stand bisher KI nicht drauf. Denken Sie nur an die vorausschauende Wartung von Windturbinen. Hier registrieren Sensoren die Laufgeräusche und können gegebenenfalls eine Unwucht oder sonstige Probleme feststellen. Viele Hersteller machen das schon seit Jahren, ohne immer auf die künstliche Intelligenz hinzuweisen. Es gibt noch eine ganze Reihe anderer Anwendungen mit ‚KI inside‘.
E&M: Wie erklären Sie sich diese Zurückhaltung?
Bühner: Das liegt in der Natur der Sache, etwa bei Prognosen. Wenn man mit einer Technologie bestimmte Werte prognostizieren, aber nicht garantieren kann, dass das Ergebnis auch richtig ist, muss man sehr überlegt mit den Kunden kommunizieren. Da sind vollmundige Marketingparolen nicht sehr hilfreich. Für die Anwender von Prognose-Tools kommt es darauf an, dass die Ergebnisse belastbar sind. In abgeschlossenen Bereichen, für ganz spezifische Anwendungen, kann man bei einer hinreichend großen Zahl an Trainingsdaten sehr gute Ergebnisse mit KI erzielen. Aber eben am besten in abgeschlossenen Bereichen.
E&M: … wie etwa bei den Laufgeräuschen der Windturbinen.
Bühner: Genau. Da kann man auch extrapolieren. Und dann findet man auch einen Versicherer, der für das Produkt eine Produkthaftung hinterlegt. Ganz anders verhält es sich bei den Large Language Models. Solche LLM wie Chat GPT werden im Prinzip auf das gesamte Internet losgelassen. Alles, was im Internet zu finden ist, kann prinzipiell als Input verwendet werden. Man kann vielleicht noch ganz bestimmte Inhalte − die würde ich unter den Begriff Political Correctness fassen − herausfiltern. Aber Inhalte mit einer Majorität setzen sich dann durch und werden als ‚Wahrheit‘ angenommen, vor allem wenn man die sozialen Medien mit einbezieht.
E&M: Dann müsste man bei branchenspezifischen Anwendungen sehr gewissenhaft filtern.
Bühner: Ja, wenn man beispielsweise wissenschaftliche Arbeiten heranzieht, die selbst ja einem wissenschaftlichen Review unterliegen, kann man davon ausgehen, dass sie korrekte Fakten enthalten. Wenn man ein System darauf trainiert, ist die Wahrscheinlichkeit groß, dass sich die ‚Wahrheit‘ durchsetzt.
E&M: Es kommt also auf die Daten an, mit denen man das System trainiert.
Bühner: Ja. Im Grunde kommt es auf die intelligente Auswahl und Aufbereitung der Trainingsdaten an. Denn wenn man Mist hineingibt, kommt auch Mist heraus. Deshalb ist es sehr hilfreich, wenn erst einmal Menschen die Daten auswählen beziehungsweise sortieren. Außerdem muss man sich natürlich im Klaren darüber sein, wie es mit der Datenhoheit und dem Datenschutz aussieht. Hierzulande ist das wichtig, auch wenn es etwa in Übersee teils anders gehandhabt wird.
Es kommt nicht nur auf Big Data an, sondern auch auf Big MoneyE&M: Ist KI heute noch eine Frage der Hardware?
Bühner: Das kann man nicht pauschal beantworten. Bei Large Language Models kommen wir in den Bereich von 400 Milliarden Parametern. Wenn man dieses Modell mit herkömmlicher Rechnertechnologie trainieren wollte, würde man mehrere Hundert Jahre brauchen. Deshalb benötigt man für LLM stark parallelisierte Spezialhardware wie eben Grafikkarten und große Rechenzentren. Da kommt es nicht nur auf Big Data an, sondern auch auf Big Money. Nur mit viel Geld wird man zu Trainingsdaten und Rechenleistung kommen, die sinnvolle Ergebnisse erwarten lassen. Unsere neuronalen Netze haben 20.000 bis 40.000 Parameter. Wenn man einen ganzen Tag prognostizieren möchte, braucht man 96 Viertelstundenwerte, von welchen Parametern auch immer. Zu den 96 Eingangsneuronen kommen noch weitere Werte hinzu, etwa die Temperatur. Am Ende hat man rund 200 Eingangsneuronen. Dazu gibt es noch mehrere Zwischenschichten. Wenn man all diese Neuronen permutiert, also jedes Neuron mit jedem anderen verbindet, landet man bei 20.000, 30.000 oder 40.000 Parametern. Für solche ‚herkömmlichen‘ Anwendungen reicht ein handelsüblicher Rechner inzwischen völlig aus.
E&M: Sind LLM für fachspezifische Anwendungen überhaupt ein Thema?
Bühner: Im Vertrieb und beim Support kann man Chatbots einsetzen. Heutzutage muss man am Telefon schon sehr genau hinhören, um zu erkennen, dass man mit einem Roboter kommuniziert. Im Support kann es eine gute Lösung sein, wenn man das Modell in einem ganz spezifischen Bereich trainiert. In der Softwareentwicklung nutzen wir selbst auch KI. Denn eine Programmiersprache hat eine ganz klare Syntax. Sie verzeiht keinen Fehler und ist eindeutig. Deshalb kann man mit KI sehr gut Programmierfehler entdecken. Das ist aber eher weniger ein Anwendungsbereich für generalistische LLM.
E&M: Braucht man dafür ein spezielles Betriebssystem?
Bühner: Nein. Diese Zeiten sind vorbei. Heute kann man auch Microsoft Windows nutzen. Aber man muss schon unterscheiden: Ein bereits trainiertes neuronales Netz kann man auf dem Handy ausführen. Um es aber zu trainieren, braucht man ungleich mehr Rechenpower.
E&M: Im Zusammenhang mit KI ist immer wieder von selbstlernenden Systemen die Rede. Ist jede KI selbstlernend?
Bühner: Nein. Man muss dem System vorgeben, ständig neue Lerndaten einzubeziehen. Oft ist das eine spezielle Art des Nachtrainings von bereits initial trainierten Netzen mit dem Ziel, möglichst schnell auf aktuelle Änderungen, zum Beispiel bei Preisprognosen, reagieren zu können. Alles, was an Daten hereinkommt, wird mehr oder weniger ungefiltert als Lernbasis verwendet. Man muss aber sehr vorsichtig sein und sich immer fragen, ob historische Daten valide sind. Bei Einspeisedaten ist das sicherlich der Fall. Strömungsgeschwindigkeiten oder Sonnenstunden sind physikalische Größen und hängen nicht von Börsenpreisen oder Wahlergebnissen ab. Anders verhält es sich mit Preisprognosen, wenn es zum Beispiel im Markt einen Regimewechsel gegeben hat. Dann sind die historischen Daten bis dahin möglicherweise nichts mehr Wert. Das war so, als an der Börse negative Preise eingeführt wurden. Deshalb braucht man eine externe Logik, die kontrolliert, ob es noch sinnvoll ist, in einer bestimmten Weise weiter zu trainieren. Es ist eine sehr spannende Frage, wie diese Kontrolle sichergestellt wird. Hilfreich ist auf jeden Fall, sich auf klar beschränkte Anwendungsfälle zu konzentrieren.
E&M: Bei LLM kommt es auch darauf an, wie eine Frage formuliert wird, damit das System eine Antwort gibt, die möglichst dem entspricht, was man wissen will.
Bühner: Das stimmt. Im Gespräch kann man Fragen unterschiedlich stellen und der Gesprächspartner weiß genau, was gemeint ist, und gibt die eine passende Antwort. Bei einem LLM trifft das so nicht zu. Denn das System ‚versteht‘ nicht wirklich die Syntax eines Satzes, sondern schaut nur auf die Reihenfolge von Buchstaben oder Silben, die in der Grammatik einer Sprache jeweils vorherrscht. Es hat Wahrscheinlichkeiten gelernt. Wie wahrscheinlich es ist, dass bestimmte Kombinationen auftreten? Am Ende handelt es sich immer noch um eine mathematische Interpolation und nicht um eine Interpretation. Deshalb ist das Prompting auch so wichtig und es gibt die Funktion des Prompt Engineerings. Es muss Leute geben, die das System verstehen und die Anfragen entsprechend stellen.
E&M: Wenn alles beachtet wird, ist dann ein solches System eine eierlegende Wollmilchsau?
Bühner: Von den Fähigkeiten her, vielleicht. Im Hinblick auf Wirtschaftlichkeit für die Anbieter sicherlich noch nicht. Open AI mit Chat GPT ist noch lange nicht wirtschaftlich. Und bei den Anwendern muss man unterscheiden: Im B2C-Bereich lassen sich sicherlich schnell Einsparungen erzielen, wenn Routineaufgaben durch die KI effizienter bearbeitet werden. Im B2B-Bereich ist es etwas anders. Da muss man sich fragen, welches Interesse beispielsweise ein Verteilnetzbetreiber hat, sein Netz zu optimieren. Entsprechende Use Cases gibt es auf jeden Fall. Aber Netzbetreiber haben unter dem Regime der Anreizregulierung keinen wirklichen Anreiz, effizient zu sein, wenn sie dann die Netzentgelte senken und Gewinne wälzen müssen. Bilanzkreisverantwortliche, für die Mengenabweichungen sehr teuer werden können, sind eher eine vielversprechende Zielgruppe.
 |
Volker Bühner Quelle: Kisters |
Freitag, 15.11.2024, 08:50 Uhr
© 2025 Energie & Management GmbH