Die Google-Mutter Alphabet fordert ihre Mitarbeiter auf, sich vor KI-Chatbots in Acht zu nehmen
Alphabet hat seine Mitarbeiter angewiesen, keine vertraulichen Informationen in Bard einzugeben, den generativen KI-Chatbot, der von Google entwickelt und betrieben wird und zu dem Alphabet gehört.
Die Warnung des Unternehmens erstreckt sich auch auf andere Chatbots, wie beispielsweise den von Microsoft unterstützten ChatGPT von OpenAI, berichtete Reuters am Donnerstag.
Die KI-gestützten Chatbots haben in den letzten Monaten großes Interesse geweckt, da sie beeindruckend in der Lage sind, sich wie ein Mensch zu unterhalten, Aufsätze und Berichte zu schreiben und sogar in akademischen Tests erfolgreich zu sein.
Aber Alphabet hat Bedenken, dass seine Mitarbeiter über die Tools unbeabsichtigt interne Daten preisgeben könnten.
Bei der laufenden Arbeit an der Verfeinerung und Verbesserung der fortschrittlichen KI-Technologie können menschliche Prüfer die Gespräche der Benutzer mit den Chatbots mitlesen, was ein Risiko für die Privatsphäre und auch die potenzielle Offenlegung von Geschäftsgeheimnissen darstellt, worüber Alphabet offenbar besonders besorgt ist um.
Darüber hinaus werden die Chatbots teilweise mithilfe des Textaustauschs der Benutzer trainiert, sodass das Tool bei bestimmten Eingabeaufforderungen möglicherweise vertrauliche Informationen, die es in diesen Gesprächen erhält, an Mitglieder der Öffentlichkeit weitergeben könnte.
Wie ChatGPT ist Bard jetzt für jedermann kostenlos zum Ausprobieren verfügbar . Auf seiner Webseite warnt es Benutzer: „Bitte geben Sie in Ihren Bard-Gesprächen keine Informationen an, die zur Identifizierung von Ihnen oder anderen verwendet werden können.“
Es fügt hinzu, dass Google „Bard-Gespräche, zugehörige Produktnutzungsinformationen, Informationen über Ihren Standort und Ihr Feedback“ sammelt und die Daten verwendet, um Google-Produkte und -Dienste zu verbessern, die Bard umfassen.
Google gibt an, die Bard-Aktivität bis zu 18 Monate lang zu speichern, obwohl ein Nutzer dies in seinem Google-Konto auf drei oder 36 Monate ändern kann.
Es fügt hinzu, dass Bard-Konversationen aus Datenschutzgründen von einem Google-Konto getrennt werden, bevor ein menschlicher Prüfer sie sieht.
Laut Reuters gilt die Warnung von Alphabet zwar schon seit einiger Zeit, das Unternehmen hat sie jedoch kürzlich ausgeweitet und seine Mitarbeiter aufgefordert, die Verwendung präziser, von Chatbots generierter Computercodes zu vermeiden. Das Unternehmen teilte der Nachrichtenagentur mit, dass Bard manchmal „unerwünschte Codevorschläge“ machen kann, obwohl die aktuelle Version des Tools immer noch als brauchbare Programmierhilfe angesehen wird.
Alphabet ist nicht das einzige Unternehmen, das seine Mitarbeiter vor den Datenschutz- und Sicherheitsrisiken warnt, die mit der Nutzung der Chatbots verbunden sind. Samsung hat kürzlich eine ähnliche Anweisung an seine Mitarbeiter herausgegeben, nachdem einige von ihnen vertrauliche Halbleiterdaten in ChatGPT eingegeben hatten, und unter anderem Apple und Amazon haben Berichten zufolge ebenfalls eine ähnliche interne Richtlinie erlassen.