Künstliche Intelligenz
zwischen Begeisterung, Blindflug und Verantwortung
Wer heute mit Führungskräften arbeitet, kommt an einem Thema nicht mehr vorbei: Künstliche Intelligenz. In Workshops, Coachings und Strategiemeetings taucht sie inzwischen fast zwangsläufig auf. Die Erwartungen sind hoch, die Versprechen noch höher. KI soll Prozesse beschleunigen, Wissen zugänglich machen, Entscheidungen verbessern und nebenbei auch noch Kreativität fördern. Kurz gesagt: Sie scheint für viele die Antwort auf nahezu jede organisatorische Herausforderung zu sein.
Als Coach und Trainer beobachte ich diese Entwicklung mit großem Interesse – aber auch mit einer gewissen Skepsis. Nicht, weil ich technologische Innovation grundsätzlich kritisch sehe. Im Gegenteil: KI kann ein äußerst wertvolles Werkzeug sein. Problematisch wird es jedoch dort, wo aus Interesse ein Hype wird und aus Neugier ein unkritischer Gebrauch.
Was derzeit auffällt, ist die erstaunliche Arg- und Sorglosigkeit, mit der viele Menschen KI-Systeme nutzen. Texte werden generiert, Analysen erstellt, Zusammenfassungen übernommen – oft ohne eine ernsthafte Prüfung der Inhalte. Die scheinbare Autorität der Maschine verführt dazu, Ergebnisse als verlässlich zu betrachten. Doch genau hier liegt eine der zentralen Schwächen aktueller KI-Systeme: Wenn die Faktenbasis unsicher oder lückenhaft ist, beginnen sie zu halluzinieren.
Halluzination?
Klingt dramatisch, beschreibt aber ein relativ simples Problem: Die KI erzeugt plausible Formulierungen, die nicht zwingend auf überprüfbaren Fakten beruhen. Die Antwort klingt kompetent, strukturiert und überzeugend – kann aber dennoch falsch sein. Wie ich es gerne nenne: „Sicheres Auftreten bei vollständiger Ahnungslosigkeit“. Für Führungskräfte ist das ein relevantes Risiko. Wer Entscheidungen auf der Basis ungeprüfter KI-Ergebnisse trifft, bewegt sich unter Umständen auf sehr dünnem Eis.
Inzucht ist meist keine gute Idee!
Ein weiterer Aspekt wird in der öffentlichen Diskussion bislang erstaunlich selten thematisiert: die zunehmende Selbstreferentialität von KI-generierten Inhalten. Systeme wie ChatGPT, Googles Gemini oder Microsofts Copilot greifen bei der Generierung von Antworten auf vorhandene Texte im Netz zurück. Besonders leicht verarbeitbar sind dabei Inhalte, die bereits stark strukturiert sind – zum Beispiel FAQ-Seiten, Listen oder typische „Erklärtexte“.
Genau solche Formate werden inzwischen jedoch selbst häufig von KI erzeugt. Dadurch entsteht ein Kreislauf: KI-Systeme greifen auf Inhalte zurück, die möglicherweise schon von anderen KI-Systemen generiert wurden. Mit jeder Iteration steigt die Wahrscheinlichkeit, dass sich Ungenauigkeiten, Vereinfachungen oder schlicht falsche Informationen weiter verbreiten. Die Maschine beginnt gewissermaßen, sich selbst zu zitieren.
Mein Fazit
(um im KI-Sprech zu bleiben)
Für Führungskräfte und Organisationen stellt sich weniger die Frage, ob sie KI einsetzen sollten, sondern wie. Technologiekompetenz bedeutet heute nicht mehr, nur zu wissen, welche Tools existieren, sondern auch zu verstehen, wo ihre Grenzen liegen.
Ein verantwortungsvoller Umgang mit KI beginnt deshalb mit einer gesunden Portion kritischer Distanz. Ergebnisse sollten als Vorschläge verstanden werden, nicht als Wahrheiten. Quellen müssen überprüft, Aussagen eingeordnet und Ergebnisse mit eigenem Fachwissen abgeglichen werden. KI kann Denkprozesse unterstützen – sie sollte sie jedoch niemals ersetzen.
Gleichzeitig wäre es ein Fehler, KI pauschal zu verteufeln. In vielen Bereichen kann sie enorme Produktivitätsgewinne ermöglichen: bei der Strukturierung von Informationen, beim Entwickeln von Ideen oder beim schnellen Erfassen komplexer Themenfelder. Richtig eingesetzt, kann sie Führungskräfte entlasten und neue Perspektiven eröffnen.
Entscheidend ist dabei eine Haltung, die man vielleicht am besten als „kritische Offenheit“ beschreiben könnte. Offen genug, um neue Technologien auszuprobieren und ihre Chancen zu nutzen. Kritisch genug, um ihre Ergebnisse nicht ungeprüft zu übernehmen.
Gerade Führungskräfte tragen hier eine besondere Verantwortung. Sie prägen nicht nur die Entscheidungen ihrer Organisation, sondern auch den Umgang mit neuen Technologien. Wer KI als unfehlbare Autorität präsentiert, fördert eine Kultur der Abhängigkeit. Wer sie hingegen als Werkzeug begreift – leistungsfähig, aber nicht unfehlbar – stärkt die Kompetenz seiner Teams.
Vielleicht liegt genau darin die eigentliche Führungsaufgabe im Zeitalter der künstlichen Intelligenz: nicht die Technologie zu beherrschen, sondern den verantwortungsvollen Umgang mit ihr vorzuleben.
Oder um es mit Sam Altman, dem Gründer von OpenAI zu sagen:
Ich glaube nicht, dass die KI Menschen jemals wie Ameisen behandeln (gemeint ist u. a. : ein eigenes Bewusstsein entwickeln) wird. Aber es schadet nicht, sie – nur für den Fall, dass sie es doch tut – freundlich zu behandeln.
Trainer und Coach Galal Bayomi unterhält einen eigenen Channel bei YouTube, auf dem Sie alle verfügbaren Video-Botschaften anschauen können.

