metaGPT: Wie wir bei metafinanz intern mit generativer KI arbeiten
Generative AI (GenAI) und allen voran ChatGPT passt gut zum Tagesgeschäft einer IT-Beratung wie metafinanz. Im Rahmen der unternehmensinternen Nutzung steht das Tool nun allen Mitarbeitern zur Verfügung. Dieser Artikel ist keine Blaupause, sondern ein Erfahrungsbericht.
Seit die Version 4 von ChatGPT 2023 veröffentlicht worden ist, haben Kolleginnen und Kollegen von metafinanz – wie sicherlich in den allermeisten Unternehmen – mit dem Large Language Model (LLM) experimentiert, beispielsweise für Textarbeit, Datenanalyse oder auch nur zum Formulieren einer E-Mail. Allerdings ist die Datennutzung in einer „öffentlichen KI“ ziemlich heikel, denn eine öffentlich zugängliche KI trainiert auf einem breiten Datensatz, der in der Regel von Anwender:innen stammt. Dies umfasst Daten externer Partnerunternehmen und Kunden ebenso wie Informationen über Mitarbeitende und das eigene Unternehmen. Werden sie hochgeladen, sind sie nicht mehr sicher.
Die Herausforderung war also, einen regelkonformen Umgang mit der generativen KI zu finden, ohne auf die Vorteile von ChatGPT zu verzichten. Daher war uns schnell klar: Unsere IT-Abteilung muss umgehend eine interne Lösung aufsetzen, die keine Daten nach außen übergibt. Im Verlauf des Jahres 2023 hat die IT dann für alle Mitarbeitenden den Zugang zu unserem „metaGPT“ geöffnet, mit dem wir chatten können und sogar unsere persönlichen Dateien hochladen.
metaGPT in Microsoft Azure
Heute gibt es viele öffentliche KI-Modelle, in die man sich einloggen und sie dann verwenden kann. Deren Cloud-Infrastruktur haben wir auch in der metafinanz nachgebaut. Das KI-Modell liegt in Microsoft Azure, in einer isolierten Umgebung. So wird sichergestellt, dass die Daten geschützt sind und unsere interne Umgebung nicht verlassen. Der gesamte Traffic – also Prompts und auch die Antworten von metaGPT – wird gespeichert und von Zeit zu Zeit überprüft. So können wir als Organisation sicherstellen, dass wir unserer Verantwortung nachkommen und dass metaGPT compliant sowie im Sinne des Unternehmens genutzt wird.
KI-Use-Cases
Heute nutzen bereits 60 bis 70 Mitarbeitende pro Tag das Tool metaGPT. Zu den vielen persönlichen Anwendungsfällen zählen:
- Marketing-Informationen erstellen;
- Texte optimieren;
- Ideenfindung und Brainstorming;
- User Stories für die Produktentwicklung entwickeln;
- Handlungspunkte aus Strategiedokumenten extrahieren und zusammenfassen;
- Inhalte von digitalen Whiteboards clustern.
Lessons Learned
1. Was sind die Treiber für ein internes GPT? In Unternehmen mit vielen IT-Entwicklern sowie digital-affinen Mitarbeiterinnen und Mitarbeitern dürfte die Nachfrage nach KI-Tools recht hoch sein – und sie wird perspektivisch steigen, auch wenn zur Zeit die Luft aus dem Hype gelassen wird. Ein interner GPT stellt sicher, dass sensible Informationen nicht nach außen abfließen und dass KI-Interessierte in einer sicheren Umgebung lernen können.
2. Gibt es konkrete KI-Use Cases, die einen Mehrwert bieten? Auch wenn metaGPT auf der persönlichen Ebene ansetzt, kann es an vielen Stellen Unterstützung leisten. Ich selbst erledige verschiedene Aufgaben mit dem Tool, darunter der Entwurf von Dokumentationen, die Erstellung und Zusammenfassung von Daten oder das Umformulieren von Konzepten für Menschen mit unterschiedlichen Wissensständen. Hier verkürzt metaGPT meine Arbeitszeit bisweilen um rund 80 Prozent. In anderen Use Cases wie der Entwicklung von komplexem Code oder der Lösung logischer Probleme fällt der Nutzen bei weitem nicht so groß aus. Und für manche Aufgaben passt es einfach nicht: mathematische Lösungen beispielsweise.
3. In welchem Verhältnis stehen Kosten und Benutzung der KI zu den Vorteilen, die wir davon erwarten können? Beim persönlichen metaGPT ist es schwierig, präzise Aussagen zum „Return“ zu treffen, denn harte Messgrößen gibt es nicht. Uns ging es erst einmal darum, die Hemmschwelle zum KI-Einsatz zu verringern und Erfahrungen zu sammeln. Eine metaGPT-Nutzung über die Phase des Ausprobierens hinaus kann meiner Meinung nach schon als Erfolg gewertet werden, denn mittelfristig kommen wir um den KI-Einsatz nicht herum.
4. Soll ich abwarten auf das nächste, bessere KI-Tool oder einfach loslegen und ausprobieren? Das ist vor allem eine Mentalitätsfrage der jeweiligen Organisation – zwischen Early Adopter und Late Follower. Wenn ich mit einem internen GPT starte, habe ich zusätzlichen Personalaufwand und höhere Kosten. Wenn ich abwarte, riskiere ich die Nutzung von Schatten-KI ohne Rücksicht auf Datensicherheit und Datenschutz. Zudem entwickelt sich KI allmählich von „nice to have“ zu „must have“. Und wer kalkuliert heute noch den Use Case für ein Firmen-Handy?
Fazit
IT-Beratungsunternehmen müssen sich zwangsläufig mit KI auseinandersetzen. In „normalen“ Firmen hingegen ist KI eine Frage des Mindsets und der Use Cases. Unstrittig ist jedoch, dass die Innovationsgeschwindigkeit immens ist. Inzwischen gibt es auch Local LLMs, bei denen man verschiedene Open-Source-Modelle herunterladen und auf dem Rechner laufen lassen kann. Dies wird die Karten wieder neu mischen, ebenso wie die sich anbahnende Artificial General Intelligence (AGI), die noch mehr intellektuelle Funktionen des Menschen ausführen kann.
Wie die Digitalisierung ist auch KI kein Ziel, sondern eine Reise. Wer früh einsteigt, kann sich noch einen Fensterplatz aussuchen.
Sie haben Fragen zur Einführung eines AI-Tools in ihrer Organisation und zu den Use Cases? Kontaktieren Sie mich einfach über mein Autorenprofil.