LONDON/WASHINGTON, 11. August (Reuters) – Laut einer Reuters/Ipsos-Umfrage wenden sich viele Arbeitnehmer in den Vereinigten Staaten an ChatGPT, um Hilfe bei wichtigen Aufgaben zu erhalten, obwohl Bedenken bestehen, die Arbeitgeber wie Microsoft und Google dazu veranlasst haben, ChatGPT eher einzuschränken als zu nutzen.
Unternehmen auf der ganzen Welt untersuchen, wie sie ChatGPT optimal nutzen können, einen Chatbot, der generative KI nutzt, um Gespräche mit Benutzern zu führen und unzählige Eingaben zu beantworten. Sicherheitsfirmen und Firmen haben jedoch Bedenken geäußert, dass dies zu geistigen Eigentums- und Strategielecks führen könnte.
Zu den anekdotischen Beispielen von Menschen, die ChatGPT zur Unterstützung ihrer täglichen Arbeit nutzen, gehören das Verfassen von E-Mails, das Zusammenfassen von Dokumenten und das Durchführen vorläufiger Recherchen.
Etwa 28 % der Befragten einer Online-Umfrage zu künstlicher Intelligenz (KI) zwischen dem 11. und 17. Juli gaben an, dass sie ChatGPT regelmäßig am Arbeitsplatz nutzen, während nur 22 % angaben, dass ihre Arbeitgeber solche Tools von Drittanbietern ausdrücklich zulassen.
Die Reuters/Ipsos-Umfrage unter 2.625 Erwachsenen in den Vereinigten Staaten ergab ein Glaubwürdigkeitsintervall, ein Maß für die Genauigkeit, von etwa zwei Prozentpunkten.
Etwa 10 % der Befragten gaben an, dass ihre Vorgesetzten KI-Tools von Drittanbietern ausdrücklich verboten hätten, während etwa 25 % nicht wussten, ob ihr Unternehmen den Einsatz der Technologie erlaubte oder nicht.
ChatGPT hat sich nach seiner Einführung im November zur am schnellsten wachsenden App aller Zeiten entwickelt. Es hat sowohl für Aufregung als auch für Besorgnis gesorgt und den Entwickler OpenAI in Konflikt mit den Regulierungsbehörden gebracht, insbesondere in Europa, wo die Massendatenerfassung des Unternehmens Kritik von Datenschutzbeauftragten hervorgerufen hat.
Menschliche Prüfer anderer Unternehmen können alle generierten Chats lesen, und Forscher haben herausgefunden, dass eine ähnliche KI Daten reproduzieren kann, die sie während des Trainings aufgenommen hat, was ein potenzielles Risiko für geschützte Informationen darstellt.
„Menschen verstehen nicht, wie Daten verwendet werden, wenn sie generative KI-Dienste nutzen“, sagte Ben King, Vizepräsident für Kundenvertrauen beim Unternehmenssicherheitsunternehmen Okta (OKTA.O).
„Für Unternehmen ist dies von entscheidender Bedeutung, da Benutzer bei vielen KI-Systemen keinen Vertrag haben – da es sich um einen kostenlosen Dienst handelt – und Unternehmen daher keinen Risiken durch den üblichen Bewertungsprozess ausgesetzt sind“, sagte King.
OpenAI lehnte eine Stellungnahme ab, als es zu den Auswirkungen der Nutzung von ChatGPT durch einzelne Mitarbeiter befragt wurde, hob jedoch einen kürzlich veröffentlichten Unternehmensblogbeitrag hervor, in dem Unternehmenspartnern versichert wurde, dass ihre Daten nicht zur weiteren Schulung des Chatbots verwendet werden, es sei denn, sie erteilen ihre ausdrückliche Erlaubnis.
Wenn Nutzer Bard von Google verwenden, werden Daten wie Text, Standort und andere Nutzungsinformationen erfasst. Das Unternehmen ermöglicht Benutzern, frühere Aktivitäten aus ihren Konten zu löschen und die Entfernung von Inhalten zu beantragen, die in die KI eingespeist werden. Das zu Alphabet gehörende Google (GOOGL.O) lehnte eine Stellungnahme ab, als es um weitere Einzelheiten gebeten wurde.
Microsoft (MSFT.O) reagierte nicht sofort auf eine Bitte um Stellungnahme.
harmlose Aufgaben
Ein Tinder-Mitarbeiter in den USA sagte, dass Mitarbeiter der Dating-App ChatGPT für „harmlose Aufgaben“ wie das Schreiben von E-Mails nutzten, obwohl das Unternehmen dies offiziell nicht erlaubte.
sagte der Mitarbeiter, der sich weigerte, namentlich genannt zu werden, da er nicht befugt war, mit Reportern zu sprechen.
Der Mitarbeiter sagte, dass es bei Tinder eine „No ChatGPT-Regel“ gibt, die Mitarbeiter diese jedoch immer noch „in einer allgemeinen Art und Weise verwenden, die nichts über unsere Präsenz auf Tinder verrät“.
Reuters konnte nicht unabhängig bestätigen, wie Mitarbeiter bei Tinder ChatGPT nutzen. Tinder sagte, es biete „den Mitarbeitern regelmäßig Anleitungen zu bewährten Sicherheits- und Datenpraktiken“ an.
Im Mai verbot Samsung Electronics Mitarbeitern weltweit die Nutzung von ChatGPT und ähnlichen KI-Tools, nachdem festgestellt wurde, dass ein Mitarbeiter vertraulichen Code auf die Plattform hochgeladen hatte.
„Wir prüfen Maßnahmen, um eine sichere Umgebung für den generativen Einsatz künstlicher Intelligenz zu schaffen, die die Produktivität und Effizienz der Mitarbeiter steigert“, sagte Samsung in einer Erklärung vom 3. August.
„Bis diese Maßnahmen jedoch umgesetzt sind, schränken wir den Einsatz generativer KI über Unternehmensgeräte vorübergehend ein.“
Reuters berichtete im Juni, dass Alphabet seine Mitarbeiter vor der Verwendung von Chat-Software, darunter Bard von Google, gewarnt habe und die Software gleichzeitig weltweit vermarkte.
Google sagte, dass Bard zwar unaufgefordert Code-Vorschläge machen kann, Programmierern jedoch hilft. Das Unternehmen sagte außerdem, es wolle die Grenzen seiner Technologie transparent machen.
Ban-Decke
Einige Unternehmen teilten Reuters mit, dass sie ChatGPT und ähnliche Plattformen aus Sicherheitsgründen nutzen.
„Wir haben damit begonnen, zu testen und herauszufinden, wie KI die betriebliche Effektivität verbessern kann“, sagte ein Coca-Cola-Sprecher in Atlanta, Georgia, und fügte hinzu, dass die Daten innerhalb der Firewall bleiben.
„Intern haben wir kürzlich unsere Unternehmensversion von Coca-Cola ChatGPT für Produktivität eingeführt“, sagte ein Unternehmenssprecher und fügte hinzu, dass Coca-Cola plant, künstliche Intelligenz einzusetzen, um die Effektivität und Produktivität seiner Teams zu verbessern.
Unterdessen sagte Dawn Allen, CFO von Tate & Lyle (TATE.L), gegenüber Reuters, dass der globale Komponentenhersteller ChatGPT teste, nachdem es „eine Möglichkeit gefunden habe, es auf sichere Weise zu nutzen“.
„Wir lassen verschiedene Teams durch eine Reihe von Experimenten entscheiden, wie sie es nutzen wollen. Sollen wir es in der Investor Relations nutzen? Sollen wir es im Wissensmanagement nutzen? Wie können wir es nutzen, um Aufgaben effizienter zu erledigen?“
Einige Mitarbeiter geben an, dass sie auf Firmencomputern überhaupt nicht auf die Plattform zugreifen können.
„Es ist für das Büronetzwerk völlig tabu, weil es nicht funktioniert“, sagte ein Mitarbeiter von Procter & Gamble (PG.N), der anonym bleiben wollte, weil er nicht berechtigt war, mit der Presse zu sprechen.
Procter & Gamble lehnte eine Stellungnahme ab. Reuters konnte nicht unabhängig bestätigen, ob Mitarbeiter von P&G ChatGPT nicht nutzen können.
Paul Lewis, Chief Information Security Officer des Cybersicherheitsunternehmens Nominet, sagte, dass die Unternehmen zu Recht vorsichtig seien.
„Jeder profitiert von dieser erweiterten Fähigkeit, aber Informationen sind nicht völlig sicher und können geändert werden“, sagte er und verwies auf „böswillige Behauptungen“, die verwendet werden könnten, um KI-Chatbots dazu zu bringen, Informationen preiszugeben.
„Ein pauschales Verbot ist noch nicht gerechtfertigt, aber wir müssen vorsichtig vorgehen“, sagte Lewis.
Zusätzliche Berichterstattung von Richa Naidoo, Martin Coulter und Jason Lang; Herausgegeben von Alexander Smith
Unsere Standards: Thomson Reuters Trust-Grundsätze.
. „Zombie-Experte. Hipster-freundlicher Internet-Evangelist. Organisator. Kommunikator. Popkultur-Fanatiker. Web-Junkie.“