Kollegen und Freunde wissen am ehesten von Ihren Geheimnissen, auch von den vertraulichen Daten Ihres Arbeitgebers.
Mit der zunehmenden Verbreitung von künstlicher Intelligenz (KI) am Arbeitsplatz teilen Mitarbeiter jedoch immer h?ufiger pers?nliche Daten mit ihrem neuen Freund –?dem Chatbot aus der Nachbarschaft.
Und Unternehmen stehen nun einer noch nie dagewesenen Sicherheitsbedrohung für ihre Daten gegenüber, auf die sie gar nicht erst vorbereitet sind.
Wenn Firmen dies bemerken, scheinen die Ma?nahmen an den extremen Enden zu liegen: entweder Verbot von Programmen wie ChatGPT oder der wachsenden Zahl von KI-gestützten Schreibwerkzeugen am Arbeitsplatz oder gar keine Regulierung der Nutzung von KI durch Mitarbeiter. Es gibt kaum einen Mittelweg.
Neben den Vertraulichkeitsregeln kann die Weitergabe von Informationen an KI-Tools auch eine Gelegenheit für Cyberkriminelle darstellen.
KI erobert die Arbeitswelt
CybSafe, ein Unternehmen für Verhaltenswissenschaften und Datenanalyse, führte eine Studie unter 1.000 Büroangestellten in Gro?britannien und den USA durch. Sie konzentrierte sich auf den Einsatz von KI am Arbeitsplatz.
Die Untersuchung ergab:
- 50 % der Befragten nutzen bereits KI-Tools bei der Arbeit –?ein Drittel w?chentlich und 12 % t?glich;
- 44 % setzen die Tools für Recherchen, 40 % für das Verfassen von Berichten, 38 % für die Datenanalyse und 15 % für das Schreiben von Code ein;
- 64 % der US-Büroangestellten haben schon einmal Arbeitsinformationen in ein generatives KI-Tool eingegeben, und weitere 28 % sind sich nicht sicher, ob sie dies getan haben;
- 38 % der US-amerikanischen Nutzer geben zu, dass sie Daten weitergeben, die sie einem Freund in einer Bar nicht einfach so verraten würden;
- Im Vereinigten K?nigreich und in den USA sind 69 % bzw. 74 % der Befragten der Meinung, dass die Vorteile des KI-Einsatzes die Risiken überwiegen;
- Ein erheblicher Prozentsatz der Teilnehmer würde KI-Tools auch dann weiter nutzen, wenn ihr Arbeitgeber sie verbietet;
- 21 % k?nnen nicht zwischen von Menschen erstellten Inhalten und KI-generierten Texten unterscheiden.
Neben Mitarbeitern, die KI-Tools als hilfreich und produktivit?tsf?rdernd empfinden, gibt es auch andere, die sie für nützlich halten –?Cyberkriminelle.
Dr. Jason Nurse, Direktor für Wissenschaft und Forschung bei CybSafe und au?erordentlicher Professor an der Universit?t von Kent, sagte: ?Die generative KI hat die Einstiegshürden für Cyberkriminelle, die Unternehmen ausnutzen wollen, enorm gesenkt.“
?Es hilft nicht nur dabei, überzeugendere Phishing-Nachrichten zu erstellen, sondern da sich die Arbeitnehmer zunehmend mit KI-generierten Inhalten vertraut machen, wird sich die Grenze zwischen dem, was als echt und was als gef?lscht wahrgenommen wird, deutlich verringern.“
Unternehmen mit einer ?No AI“-Liste
- Das Luft-, Raumfahrt- und Verteidigungsunternehmen Northrup Grumman hat KI-Tools verboten, bis sie vollst?ndig geprüft sind;
- Nachdem Mitarbeiter vertraulichen Code hochgeladen hatten, musste Samsung Lehrgeld zahlen und KI-Tools verbieten;
- Verizon hat den Zugang zu KI-Tools innerhalb seiner Systeme gesperrt;
- JPMorgan Chase hat den Einsatz von KI-Tools eingeschr?nkt, n?here Angaben sind jedoch nicht verfügbar;
- Deutsche Bank hat alle KI-Tools gesperrt;
- Accenture verbietet seinen Mitarbeitern die Verwendung von KI-Tools im Büro;
- Amazon ermutigt seine Mitarbeiter, den firmeneigenen Bot CodeWhisperer zu verwenden, hat aber offenbar den Zugang zu KI-Tools noch nicht gesperrt.
Fazit
KI h?lt Einzug in die Arbeitswelt, aber sie bietet der Cyberkriminalit?t neue Angriffsfl?chen. Unternehmen und ihre Mitarbeiter müssen daher stets wachsam sein und ihr Risikomanagement auf den neuesten Stand bringen.
Zugleich ist es für Firmen und Teams ?u?erst verlockend, ihren Mitarbeitern KI-Tools zur Verfügung zu stellen.
Diese widersprüchlichen Wahrheiten auszubalancieren ist also ein schwieriges, aber notwendiges Unterfangen.