Die Beziehung Mensch-KI – Teamwork ist gefragt
Aufgrund der wirtschaftlichen Bedeutung von künstlicher Intelligenz konzentrieren sich Unternehmen darauf, diese in ihre Geschäftsabläufe zu integrieren, um bessere Produkte und Dienstleistungen anzubieten. Dennoch braucht KI immer noch menschliche Unterstützung im Betrieb: einerseits für das stetige Finetuning, andererseits um ethische Standards, Gesetze und Vorschriften einzuhalten sowie Cybersicherheit zu gewährleisten.
Im November 2022 wurde ChatGPT offiziell vorgestellt. Seitdem hat sich das Segment der Generativen KI (GenAI) rasant entwickelt, und neue Modelle sind in den Markt eingetreten. Angesichts des erhofften Potenzials für Effizienz und Geschwindigkeit haben bereits eine Reihe von Unternehmen KI-Pilotprojekte wie maßgeschneiderte Chatbots für den Kundenservice entwickelt, oder sie setzen KI für ihren Geschäftsbetrieb ein, um beispielsweise große Datenmengen zu analysieren.
KI erfordert menschlich Begleitung
Es genügt jedoch nicht, eine KI-Anwendung zu entwickeln und dann „einfach“ – autonom – arbeiten zu lassen. Vielmehr muss in allen Phasen des Lebenszyklus eine Begleitung durch den Menschen erfolgen. Im Sinne dieses Beitrags geht es insbesondere um die Einhaltung ethischer Standards sowie die Konformität zu Gesetzen wie dem EU AI-Act.
Um diese und weitere ähnliche Herausforderungen der KI in Gegenwart und Zukunft zu meistern, brauchen Unternehmen KI-bezogene Governance, passende Richtlinien, angemessene Risiko-Assessments und Kontrollen. Hat das Unternehmen nicht die notwendigen Fachleute hierfür, ist es ratsam, externe Expertise einzuholen. Dann erst können KI-Anwendungen nachhaltig entwickelt beziehungsweise betrieben werden, um die Beziehung zwischen Unternehmen und ihren Kunden langfristig positiv gestalten zu können.
KI und der Mensch im Kontext des (Ethical) Hacking
Die Konformität von KI-Anwendungen mit den Vorschriften in aller Welt zu gewährleisten, ist die eine wichtige Aufgabe des Menschen. Daneben werden jedoch auch andere Akteure wie ethische Hacker benötigt, um eine Abwehr gegen Kriminelle sicherzustellen. Denn sobald KI-Anwendungen laufen, werden Angreifer versuchen, deren Schwachstellen zu finden und auszunutzen. Auch herfür kommt es noch auf menschliche Expertise an.
KI-Systeme erfordern den Einsatz von ethischen Hackern zumindest aufgrund von drei Szenarien:
- Einerseits müssen KI-Systeme selbst intensiv getestet werden, um (bekannte) Schwachstellen herauszufinden und Cyberrisiken zu adressieren.
- Andererseits können KI- und GenAI-Tools von böswilligen Akteuren für Hacking-Zwecke verwendet werden. Insbesondere lässt sich durch KI die Arbeit von Angreifern beschleunigen, indem sie etwa die Erkennung ausnutzbarer Schwachstellen automatisiert.
- Zudem kann KI böswillige Akteure dabei unterstützen, über Deepfakes echte Personen zu imitieren oder sich als echte Person auszugeben und so technische und menschliche Authentifizierungskontrollen umgehen.
Daher kommt es für Unternehmen darauf an, die Lücken in der eigenen Verteidigung proaktiv – mit Ethical Hackers – zu finden und zu schließen. Durch ihre Erfahrung und Intuition können Menschen im Zusammenspiel mit der KI Angriffe vorhersehen oder bemerken, die einem automatisierten Verteidigungssystem womöglich entgangen wären. Zudem können sie durch ihr Fachwissen Schwachstellen in Systemen aufdecken und diese im Kontext des Unternehmens bewerten. Wer sich hingegen allein auf eine Lösung „durch den Markt“ verlässt, bietet offene Flanken.
Fazit
Der Verzicht auf die notwendige Expertise und das Personal, um KI-Systeme zu testen, mag sich kurzfristig „rechnen“. Langfristig ist es sinnvoller, vielfältige technische und rechtliche Kompetenzen in Mensch-KI-Teams zu bündeln, um Schwachstellen in den verschiedenen Intelligenzen zu identifizieren und zu adressieren. Auch hier gilt: Wenn das notwendige Wissen und das Fachpersonal nicht aufgebaut sind beziehungsweise der Aufbau eher langsam erfolgt, sollte dringend externe Expertise herangezogen werden, denn eins ist sicher: Angreifer werden nicht warten.