Mitarbeiterauslastungsanalyse durch Large Language Models

Herausforderung der Kunden:
In jedem Beratungsunternehmen stellt sich am Monatsende immer wieder die gleiche Frage: Wie gut ist mein Team ausgelastet oder wie viele Stunden sind in diesem Monat kundenverrechenbar? Häufig liegen diese Informationen im CSV-Format oder in anderen Systemen vor, so dass für Mitarbeiter mit wenig technischem Wissen eine technische Barriere besteht, an diese Informationen zu kommen.


Lösungsweg:
ChatGPT hat uns gezeigt, wie einfach es ist, mit einer Maschine in natürlichen Sprache mit zu kommunizieren. Basierend auf dem LLM-Modell von ChatGPT, GPT 3.5, haben wir einen Chatbot für unseren Kunden implementiert, der Abfragen in natürlichen Sprachen zu CSV-Dateien ermöglicht. Ein Teamleiter kann z.B. fragen: “Wie viele Kundenstunden hat Max Mustermann im August gearbeitet” und erhält die Antwort innerhalb weniger Sekunde. Der Chatbot ist so implementiert, dass nur die in der CSV enthaltenen Informationen für die Antwort verwendet werden. Dementsprechend können Fragen ohne Bezug auf die CSV-Dateien nicht beantwortet werden. Der Inhalt der CSV-Datei und die gestellten Fragen verbleiben die ganze Zeit in der Kundenumgebung, so dass diese Daten nicht für das Training von GPT weiterverwendet werden. Somit sind auch die grundlegenden Datenschutzanforderungen unseres Kunden erfüllt.


Zusammenfassung:
“Kommunikation ist der Schlüssel zum Erfolg” und “Kommunikation besteht zu 55% aus Körpersprache“ wird oft gesagt! Für uns bedeutet dies, dass wir die Kommunikation mit einer Machine oder KI lernen müssen, um Missverständnisse zu vermeiden. Prompt Engineering beschreibt genau dieses Konzept der Kommunikation mit einer KI. Eine KI erhält einen Prompt oder eine Texteingabe mit Befehlen und sie führt diese aus. Je genauer und präziser diese Befehle sind, desto besser kann die KI die Aufgabe ausführen oder die Frage beantworten. Es gibt verschiedene Strategien für das Prompt Engineering, die von der Aufgabe und dem LLM-Modell abhängen. Eine Strategie, die für eine Aufgabe und ein Modell gut funktioniert hat, kann für eine andere Aufgabe oder ein anderes Modell nicht die optimale sein. In unserer Implementierung haben wir zum Beispiel im Kontext spezifiziert, in welchem Format und in welcher Sprache das Ergebnis zurückgegeben werden soll. Für komplexere Fragen haben wir unserem Kunden die Chain-of-Thought-Strategie empfohlen. Dabei werden komplexe oder lange Fragen in kleinere Schritte unterteilt. Welche Prompt Engineering Strategie am besten funktioniert, lässt sich letztlich nur durch Ausprobieren herausfinden.


Probieren Sie gerne unsere Demo aus!
https://qurixsoul-llmdemo-operation.azurewebsites.net

Vielleicht interessiert dich auch…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert