IT-Fachkräfte nutzen Schatten-KI intensiv – | Johannes Krull wird Außendienstchef bei Heinekingmedia | ChannelPartner

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?quality=50&strip=all 1600w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”auto, (max-width: 1024px) 100vw, 1024px”>Fachkräfte aus den MINT-Berufen kennen die Risiken von Schatten-KI, nutzen sie aber trotzdem intensiv – besonders in Deutschland.Peter Marwan mit ChatGPT

Immer mehr Fachkräfte in den sogenannten MINT-Berufen setzen Künstliche Intelligenz am Arbeitsplatz ohne die Genehmigung des Arbeitgebers ein. In Deutschland nutzen drei von vier MINT-Fachkräften (77 Prozent) bei der Arbeit KI-Tools wie ChatGPT, Google Gemini oder Perplexity, ohne dass die KI-Anwendungen durch die IT-Abteilung oder Geschäftsführung freigegeben worden sind. Das ist das Ergebnis einer repräsentativen Umfrage unter MINT-Fachkräften durch das Meinungsforschungsinstitut YouGov im Auftrag der britischen Personalbereitung SThree.

Die Nutzung von nicht autorisierter Künstlicher Intelligenz in einer „Schatten-IT“ – also „Schatten-KI“ birgt nach Einschätzung von Experten erhebliche Risiken sowohl für die Arbeitnehmer selbst als auch für die Firmen, in denen sie tätig sind. Das geht bis zu rechtlichen Konsequenzen, weil sie dadurch gegen Bestimmungen wie die Europäische Datenschutz-Grundverordnung (DSGVO) oder Geheimhaltungsverträge verstoßen können. 

Im konkreten Anwendungsfall könnten Mitarbeiter sensible Daten wie Kundendaten oder interne Dokumente unbemerkt in KI-Tools hochladen. Weiterhin besteht die Gefahr, dass die KI-Anbieter wie OpenAI oder Google die Daten speichern und für Trainingszwecke verwenden. Dabei drohen hohe Bußgelder bei Verstößen gegen die Datenschutz-Grundverordnung, insbesondere wenn keine Auftragsverarbeitungsverträge existieren. 

Der Einsatz von nicht genehmigten KI-Tools birgt aber auch Risiken für den internen Betriebsablauf, weil auf Basis von unzureichend getesteten KI-Tools Entscheidungen getroffen werden oder Auswertungen erfolgen.

Fachkräfte in Deutschland besonders risikobereit 

Für die Studie wurden 5.391 MINT-Fachkräfte aus den USA und Großbritannien sowie aus Deutschland, den Niederlanden, Japan und den Vereinigten Arabischen Emiraten befragt. Über alle sechs Länder hinweg nutzten zwei von drei Befragten (64 Prozent) KI-Tools bei der Arbeit – auch ohne Genehmigung der Vorgesetzten.

In Deutschland nutzt knapp ein Viertel der befragten Fachkräfte (23 Prozent) nicht autorisierte KI-Tools mindestens einmal am Tag. Weitere 29 Prozent verwenden sie mindestens einmal in der Woche, 12 Prozent zumindest einmal im Monat.

Sie versprechen sich davon vor allem mehr Effizienz. Ein Drittel (34 Prozent) nutzt nicht autorisierte KI, um ihre Arbeit zu beschleunigen: viele sparen damit eigener Einschätzung nach über zehn Arbeitsstunden pro Woche. Drei Viertel sehen generelle Produktivitätsvorteile. Ein Antrieb ist aber auch die technische Neugier der Befragten: 29 Prozent sagen, dass sie dadurch Dinge lernen können, die der Arbeitgeber oder das Team nicht anbietet. Und jeder Fünfte Umfrageteilnehmer sagte ausdrücklich, dass ohne solche Tools Deadlines nicht mehr zu halten wären.

Wissen zu Datenschutz ist nicht das Problem

Gleichzeitig wissen über 90 der befragten Fachkräfte um die Gefahren für Datenschutz, IT-Sicherheit, Qualität und geistiges Eigentum. Führungskräfte verwenden Schatten-KI übrigens viermal häufiger als Mitarbeitende ohne Führungsfunktion, obwohl sie die Risiken sehr genau kennen. Oft verstehen sie KI als pragmatische Antwort auf Kompetenzlücken. Diese Zahlen zeugen von einer ausgeprägten „Quod licet jovi, non licet bovi“-Haltung: Was für den Gott Jupiter (oder den Halbgott in der IT-Abteilung) akzeptabel ist, wird beim Ochsen (oder dem Anwender in der Fachabteilung) noch längst nicht toleriert.

Die Autoren der Studie sehen das zentrale Problem jedoch weniger im Verhalten der Beschäftigten als in fehlenden Regeln: Nur 63 Prozent aller Unternehmen verfügen über klare KI-Policies. Damit besteht ein bereits vor einem Jahr erkanntes Problem auf höherem Niveau weiterhin.

Besonders kleinere Firmen sind der Umfrage zufolge gefährdet, weil ihnen Strukturen für sichere Nutzung fehlen. Empfohlen werden deshalb explizit verbindliche Richtlinien, sichere Testumgebungen und Trainings – nicht Verbote, sondern Rahmenbedingungen, die Innovation ermöglichen und Risiken kontrollieren.

Empfehlungen zur Eindämmung von Schatten-KI

Dieser Empfehlung schließt sich auch der Cybersecurity-Anbieter Forcepoint an. „Solche Tools zu verbieten und ihre Nutzung zu unterbinden ist freilich keine Option, denn damit würden Unternehmen auf große Produktivitätssteigerungen und viel Innovationskraft verzichten. Deshalb ist es besser, dafür zu sorgen, dass KI kontrolliert, transparent und sicher eingesetzt wird“, teilte er kürzlich mit.

„Neben technischen Vorkehrungen ist es wichtig, dass Unternehmen ihre Mitarbeiter in Schulungen über die Risiken von KI-Tools aufklären und für die Einhaltung der Richtlinien sensibilisieren“, empfiehlt Fabian Glöser, Manager Sales Engineering Central-, Eastern- & Northern-Europe bei Forcepoint.Forcepoint

Damit Unternehmen einen sicheren Einsatz ihrer Daten mit KI gewährleisten können, müssten sie zunächst wissen, welche vertraulichen Informationen sie überhaupt haben, wo die sich befinden und wie schützenswert sie sind. Außerdem sollten Unternehmen ermitteln, welche KI-Tools tatsächlich einen handfesten Nutzen bringen und Richtlinien aufstellen, welche Tools von welchen Nutzergruppen eingesetzt werden dürfen.

Danach ließen sich mit einem Secure Web Gateway und einem Cloud Access Security Broker (CASB) die Zugriffe steuern. Monitoring-Systeme, die DLP-Technologie (Data Loss Prevention) nutzen, helfen Unternehmen dann, die Interaktionen der Nutzer mit KI-Tools anonymisiert zu überwachen, riskante Verhaltensmuster zu identifizieren und problematische Aktionen zu stoppen. DLP-Technologie ermöglicht es zudem, Inhalte zu schützen. Wenn etwa versucht wird, Dokumente, PDFs, Bilder oder Quellcode in ein KI-Tool hochzuladen, prüft die Technologie, ob sie vertrauliche Informationen enthalten und verhindert gegebenenfalls den Upload.

Mehr zum Thema

Schatten-KI ist hausgemacht

Schatten-KI – ein weit verbreitetes Phänomen

KI-Nutzung am Arbeitsplatz bringt Firmen oft wenig 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?quality=50&strip=all 1600w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/11/Schatten-.KI-16-zu-9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”auto, (max-width: 1024px) 100vw, 1024px”>
Fachkräfte aus den MINT-Berufen kennen die Risiken von Schatten-KI, nutzen sie aber trotzdem intensiv – besonders in Deutschland.

Peter Marwan mit ChatGPT

Immer mehr Fachkräfte in den sogenannten MINT-Berufen setzen Künstliche Intelligenz am Arbeitsplatz ohne die Genehmigung des Arbeitgebers ein. In Deutschland nutzen drei von vier MINT-Fachkräften (77 Prozent) bei der Arbeit KI-Tools wie ChatGPT, Google Gemini oder Perplexity, ohne dass die KI-Anwendungen durch die IT-Abteilung oder Geschäftsführung freigegeben worden sind. Das ist das Ergebnis einer repräsentativen Umfrage unter MINT-Fachkräften durch das Meinungsforschungsinstitut YouGov im Auftrag der britischen Personalbereitung SThree.

Die Nutzung von nicht autorisierter Künstlicher Intelligenz in einer „Schatten-IT“ – also „Schatten-KI“ birgt nach Einschätzung von Experten erhebliche Risiken sowohl für die Arbeitnehmer selbst als auch für die Firmen, in denen sie tätig sind. Das geht bis zu rechtlichen Konsequenzen, weil sie dadurch gegen Bestimmungen wie die Europäische Datenschutz-Grundverordnung (DSGVO) oder Geheimhaltungsverträge verstoßen können. 

Im konkreten Anwendungsfall könnten Mitarbeiter sensible Daten wie Kundendaten oder interne Dokumente unbemerkt in KI-Tools hochladen. Weiterhin besteht die Gefahr, dass die KI-Anbieter wie OpenAI oder Google die Daten speichern und für Trainingszwecke verwenden. Dabei drohen hohe Bußgelder bei Verstößen gegen die Datenschutz-Grundverordnung, insbesondere wenn keine Auftragsverarbeitungsverträge existieren. 

Der Einsatz von nicht genehmigten KI-Tools birgt aber auch Risiken für den internen Betriebsablauf, weil auf Basis von unzureichend getesteten KI-Tools Entscheidungen getroffen werden oder Auswertungen erfolgen.

Fachkräfte in Deutschland besonders risikobereit 

Für die Studie wurden 5.391 MINT-Fachkräfte aus den USA und Großbritannien sowie aus Deutschland, den Niederlanden, Japan und den Vereinigten Arabischen Emiraten befragt. Über alle sechs Länder hinweg nutzten zwei von drei Befragten (64 Prozent) KI-Tools bei der Arbeit – auch ohne Genehmigung der Vorgesetzten.

In Deutschland nutzt knapp ein Viertel der befragten Fachkräfte (23 Prozent) nicht autorisierte KI-Tools mindestens einmal am Tag. Weitere 29 Prozent verwenden sie mindestens einmal in der Woche, 12 Prozent zumindest einmal im Monat.

Sie versprechen sich davon vor allem mehr Effizienz. Ein Drittel (34 Prozent) nutzt nicht autorisierte KI, um ihre Arbeit zu beschleunigen: viele sparen damit eigener Einschätzung nach über zehn Arbeitsstunden pro Woche. Drei Viertel sehen generelle Produktivitätsvorteile. Ein Antrieb ist aber auch die technische Neugier der Befragten: 29 Prozent sagen, dass sie dadurch Dinge lernen können, die der Arbeitgeber oder das Team nicht anbietet. Und jeder Fünfte Umfrageteilnehmer sagte ausdrücklich, dass ohne solche Tools Deadlines nicht mehr zu halten wären.

Wissen zu Datenschutz ist nicht das Problem

Gleichzeitig wissen über 90 der befragten Fachkräfte um die Gefahren für Datenschutz, IT-Sicherheit, Qualität und geistiges Eigentum. Führungskräfte verwenden Schatten-KI übrigens viermal häufiger als Mitarbeitende ohne Führungsfunktion, obwohl sie die Risiken sehr genau kennen. Oft verstehen sie KI als pragmatische Antwort auf Kompetenzlücken. Diese Zahlen zeugen von einer ausgeprägten „Quod licet jovi, non licet bovi“-Haltung: Was für den Gott Jupiter (oder den Halbgott in der IT-Abteilung) akzeptabel ist, wird beim Ochsen (oder dem Anwender in der Fachabteilung) noch längst nicht toleriert.

Die Autoren der Studie sehen das zentrale Problem jedoch weniger im Verhalten der Beschäftigten als in fehlenden Regeln: Nur 63 Prozent aller Unternehmen verfügen über klare KI-Policies. Damit besteht ein bereits vor einem Jahr erkanntes Problem auf höherem Niveau weiterhin.

Besonders kleinere Firmen sind der Umfrage zufolge gefährdet, weil ihnen Strukturen für sichere Nutzung fehlen. Empfohlen werden deshalb explizit verbindliche Richtlinien, sichere Testumgebungen und Trainings – nicht Verbote, sondern Rahmenbedingungen, die Innovation ermöglichen und Risiken kontrollieren.

Empfehlungen zur Eindämmung von Schatten-KI

Dieser Empfehlung schließt sich auch der Cybersecurity-Anbieter Forcepoint an. „Solche Tools zu verbieten und ihre Nutzung zu unterbinden ist freilich keine Option, denn damit würden Unternehmen auf große Produktivitätssteigerungen und viel Innovationskraft verzichten. Deshalb ist es besser, dafür zu sorgen, dass KI kontrolliert, transparent und sicher eingesetzt wird“, teilte er kürzlich mit.

Fabian Glöser ist Manager Sales Engineering Central-, Eastern- & Northern-Europe bei Forcepoint.
„Neben technischen Vorkehrungen ist es wichtig, dass Unternehmen ihre Mitarbeiter in Schulungen über die Risiken von KI-Tools aufklären und für die Einhaltung der Richtlinien sensibilisieren“, empfiehlt Fabian Glöser, Manager Sales Engineering Central-, Eastern- & Northern-Europe bei Forcepoint.

Forcepoint

Damit Unternehmen einen sicheren Einsatz ihrer Daten mit KI gewährleisten können, müssten sie zunächst wissen, welche vertraulichen Informationen sie überhaupt haben, wo die sich befinden und wie schützenswert sie sind. Außerdem sollten Unternehmen ermitteln, welche KI-Tools tatsächlich einen handfesten Nutzen bringen und Richtlinien aufstellen, welche Tools von welchen Nutzergruppen eingesetzt werden dürfen.

Danach ließen sich mit einem Secure Web Gateway und einem Cloud Access Security Broker (CASB) die Zugriffe steuern. Monitoring-Systeme, die DLP-Technologie (Data Loss Prevention) nutzen, helfen Unternehmen dann, die Interaktionen der Nutzer mit KI-Tools anonymisiert zu überwachen, riskante Verhaltensmuster zu identifizieren und problematische Aktionen zu stoppen. DLP-Technologie ermöglicht es zudem, Inhalte zu schützen. Wenn etwa versucht wird, Dokumente, PDFs, Bilder oder Quellcode in ein KI-Tool hochzuladen, prüft die Technologie, ob sie vertrauliche Informationen enthalten und verhindert gegebenenfalls den Upload.

Mehr zum Thema

Schatten-KI ist hausgemacht

Schatten-KI – ein weit verbreitetes Phänomen

KI-Nutzung am Arbeitsplatz bringt Firmen oft wenig

 Weiterlesen