Teil 1:  Wie funktioniert Künstliche Intelligenz

Teil 2:  Der praktische Einsatz im Autohaus

Teil 3:  Risiken, Nebenwirkungen und Praxistipps für den KI-Einsatz im Autohaus

Risiken, Nebenwirkungen und Praxistipps für den Einsatz von KI im Autohaus

Sie möchten also Künstliche Intelligenz im Autohaus einsetzen?  Herzlichen Glückwunsch und viel Spaß!  Das ist durchaus ernst gemeint, denn Sie werden sowohl Situationen erleben, in denen Sie in Ehrfurcht  erstarren als auch solche, in denen Sie aus dem Lachen nicht mehr heraus kommen!

In diesem kleinen Beitrag möchte ich Sie auf das Abenteuer insofern etwas vorbereiten, indem ich zunächst beschreibe, was KI's nicht können und Ihnen dann einige Praxistipps für den KI-Einsatz in Ihrem Unternehmen gebe.

Wo sind die Grenzen von KI im betrieblichen Einsatz?

Ist KI wirklich der richtige Lösungsansatz?

Zunächst einmal sei an das letzte Kapitel des vorherigen Teils der Artikelserie verwiesen:  vergewissern Sie sich, dass KI wirklich der richtige  Ansatz für das Problem ist, das Sie lösen möchten, damit Sie z.B. nicht mit Kanonen auf Spatzen schießen.  Sie können sich eine Menge Arbeit ersparen ...

KI-Halluzination

Wenn dieser Test bestanden ist, dann müssen Sie beim Einsatz einer KI damit leben können, dass diese immer wieder falsche Antworten produziert, man sprich hier von KI-Halluzination.  Das liegt daran, dass z.B. generative Text-KI's immer nur das wahrscheinlichste nächste Wort aus einer Unmenge an Daten prognostizieren.  Es kann aber sein, dass dieses prognostizierte nächste Wort in Ihrem Kontext falsch ist. Ähnlich verhält es sich mit bilderzeugenden KI's, was in den Anfängen dazu führte, dass abgebildete Personen gerne einmal sieben Finger an einer Hand hatten.  Zudem kann es passieren, dass einem Bot aufgetragen wurde, 10 Seiten Inhalt zu füllen, aber seine Datenbasis, mit der er trainiert wurde, dafür nicht genug Material liefert.  Im Ergebnis fängt er dann z.B. ab dem dritten Absatz an Blödsinn zu faseln, nur um die Menge an Textzeichen voll zu bekommen.

Das Produzieren von Fehlern mag für interne Büroaufgaben, in denen ein Mensch jederzeit die Chance hat, das Ergebnis vor einer Veröffentlichung zu prüfen, unproblematisch erscheinen.  In diesen Einsatzgebieten überwiegen die Vorteile des KI-Einsatzes diesen Nachteil regelmäßig und deutlich.  Wenn Sie aber einen Chat-Bot auf Ihrer Webseite unüberwacht auf Ihre Kunden loslassen, kann Ihn passieren, was Air Canada passiert ist.  Hier hat ein Bot einem Kunden einen Rabatt versprochen, den es gar nicht gab.  Als der Kunde diesen einklagte und den Chatverlauf als Beweis mitbrachte, musste Air Canada zahlen.

In solchen Fällen besteht das Risiko, dass Nutzer das Vertrauen in die Glaubwürdigkeit der KI und Kunden damit auch das Vertrauen in Ihr Unternehmen verlieren.  Es entstehen neben dem Haftungsrisiko als auch das Risiko von unzufriedenen Kunden und einer Beschädigung der eigenen Marke.

Prüfen Sie also Ergebnisse, bevor Sie sie weiterverarbeiten und vereinbaren Sie mit Ihren Dienstleistern Regelungen, wie mit dem Thema Haftung bei Halluzination von KI-Produkten umzugehen ist.

Zu perfekte Ergebnisse

Die von KI's erzeugen Ergebnisse wirken i.d.R. zu perfekt, glatt oder auch kalt.  Es fehlt ihnen jegliche persönliche Note.   Woher soll sie auch kommen, ihre Ergebnisse sind ja nur Durchschnittsberechnungen aus großen Datenmengen.  Von generativen KI's eins-zu-eins übernommene Texte oder Bilder für die eigene Webseite können z.B. von jedem Mitbewerber nahezu identisch reproduziert werden und klingen bzw. sehen damit überall gleich aus.

Das entstehende Risiko ist, dass insbesondere Kunden, aber auch Bewerber und Bewerberinnen, nicht erkennen können, warum Sie einzigartig sind und was Ihre Alleinstellungsmerkmale sind.

Sie können diesem Risiko auf drei Arten begegnen:

  • Bearbeiten Sie die KI-Ergebnisse nach und bringen damit ihre persönliche Note ein.  Das bietet sich z.B. bei Texten an:  die KI formuliert den Text vor und Sie runden ihn mit Ihrer persönlichen Note ab.
  • Bringen Sie Ihre persönliche Note in den Prompt ein, indem Sie selbst geschriebene Texte mitliefern oder auf Ihre Webseite verweisen (die dann aber nicht ausschließlich mit einer KI erstellt worden sein darf).  Damit wird der KI mitgeteilt, dass sie bei der Erzeugung der Ergebnisse auf Ihre Besonderheiten einzugehen hat.  Problematisch daran ist, dass diese Informationen auch vorliegen müssen, was oft nicht der Fall ist.
  • Verbinden Sie das von der KI zu erzeugende Ergebnis mit persönlichen Daten des Adressaten.  Wenn Sie z.B. den Bot auf Ihrer Webseite mit Ihrem CRM-System verbinden, dann kann der Bot im Chat mit dem Kunden mit Wissen über den Kunden glänzen, was ihn persönlicher erscheinen lässt.

Datenschutz

Der Datenschutz ist Dauergast in Aufzählungen von Gründen, warum bestimmte, oft innovative Dinge schwierig werden oder gar nicht gehen und darf daher auch in dieser Aufzählung nicht fehlen.  Das Grundproblem im Zusammenhang mit KI ist, dass alles, was Sie beim Arbeiten mit der KI in den Prompt eingeben auf Server weitergeleitet wird, die u.U. nicht in der EU stehen, mit deren Betreibern Sie keine Auftragsdatenverarbeitungsvereinbarung geschlossen haben, ja, die Sie oft noch nicht einmal kennen.  Diese von Ihnen eingegebenen Daten werden auf diesen Servern sowohl dafür gespeichert, um die Antwort der KI zu erzeugen, sie werden aber u.U. auch dazu verwendet, die KI damit zu trainieren.  Das kann in zwei Bereichen zum Problem werden:

  • Wenn es sich bei den Daten um persönliche Daten handelt, müssen Sie vorher das Einverständnis desjenigen eingeholt haben, den diese Daten betreffen.  Wenn dies nicht vorliegt, verbietet es die DSGVO, seine Daten auf die skizzierte Reise durch die Serverlandschaften zu schicken.  Da diese Problematik recht neu ist, ist davon auszugehen, dass Ihre bislang von Kunden und Mitarbeitern eingeholten Datenschutzerklärungen die Weiterleitung von personenbezogenen Daten an Künstliche Intelligenzen nicht abdeckt und damit nicht erteilt wurde.
  • Wenn es sich bei den Daten um Betriebsgeheimnisse von Ihnen oder Ihren Geschäftspartnern handelt, dann kann es für Sie sehr ungemütlich werden, wenn herauskommt, dass Sie diese Daten den KI-Betreibern zur Kenntnis weitergeleitet haben.  Werden Sie sogar durch Training oder Erweiterung des Sprachraumes im Sprachmodell der KI abgelegt, können sie u.U. in einer späteren Antwort der KI an einen anderen Benutzer enthalten sind.  Es ist also nicht unbedingt eine gute Idee, z.B. den neuen Händlervertrag des Herstellers einer KI zu übergeben, damit diese einem das 100-seitige Juristendeutsch zusammenfasst und verständlich macht.  Denken Sie auch an die ungezählten Verschwiegenheitsvereinbarungen, die Sie in Ihrem Geschäftsleben unterzeichnet haben und gegen welche Sie u.U. verstoßen würden.

Sie können diese Risiken auf zwei Arten reduzieren:

  • Hosten Sie die KI selber oder zumindest bei einem Hoster in der EU, mit dem Sie eine Auftragsdatenverarbeitung abgeschlossen haben.  Ja, das ist möglich und noch nicht einmal sonderlich schwierig.
  • Vermeiden Sie die Eingabe von personenbezogenen Daten und Betriebsgeheimnissen in den Prompt der KI.

Rechtliche Unsicherheiten bei den KI-Betreibern

Für das Training der meisten generativen KI's (inkl. ChatGPT, Midjourney, Gemini, Llama etc.) wurde alles, was im Internet greifbar war ungefragt verwendet.  Ob jemand (Urheber-)Rechte an diesen Inhalten hält oder der Rechteinhaber gar die Verwendung der Inhalte für solche Zwecke verboten hat, hat OpenAI & Co. nicht wirklich interessiert.  Nach "guter Startup-Manier" folgte man auch hier dem Ansatz "erst mal machen, entschuldigen können wir uns später immer noch".  Mit einer einfachen Entschuldigung wird es jedoch in diesem Fall nicht getan sein, wenn man die Menge der Klagen sieht, mit der Künstler, Verlage, Autoren und deren Interessensvertreter die KI-Anbieter aktuell überziehen.

Da Risiko für Sie ist, dass Sie sich an einen KI-Anbieter gebunden haben, der diese Klagewelle nicht überlebt.  Sich vor diesem Risiko zu schützen ist aber nicht ganz einfach.  Zunächst muss man eingestehen, dass die heutige Leistungsfähigkeit der generativen KI's nicht denkbar wäre, ohne das Internet rücksichtslos zu plündern.  Im Ergebnis ist also jeder Anbieter einer nur halbwegs leistungsfähigen KI von diesem Risiko betroffen.  Man ist aber gut beraten, genauer hinzuschauen, welche Basismodelle einer generativen KI eines bestimmten Anbieters zugrunde liegen.

KI-Einsatz im Unternehmen zwischen reglementieren und ermuntern

Die KI-Richtlinien

Die vorgenannten Risiken und Nebenwirkungen haben dazu geführt, dass Unternehmen sogenannte KI-Richtlinien erlassen, die den Mitarbeitern, aber auch Geschäftspartnern Hilfestellungen im Bezug auf den Einsatz von Künstlicher Intelligenz geben.

Diese Richtlinien adressieren u.a. die folgenden Themen:

  • KI's, die im Unternehmen eingesetzt werden, sind so weit wie irgend möglich auf eigenen Servern zu implementieren.
  • Die zu verwendenden KI's sind auf bestimmte, geprüfte KI-Anbieter beschränkt.
  • Es werden Unternehmensbereiche (z.B. Legal, Forschung etc.) oder Themen (z.B. Personalthemen) aufgelistet, bei denen ein Einsatz von KI nicht erlaubt ist.
  • Es werden Regeln festgelegt, wie mit generierten KI-Inhalten umzugehen ist (u.a. Kennzeichnungspflicht).
  • Es werden KI-bezogene Regeln im Umgang mit Externen definiert (z.B. dürfen KI-Inhalte an diese gesendet bzw. von diesen empfangen werden?).
  • Es werden Prompt-Regeln erlassen (Einhaltung Datenschutz, Geschäftsgeheimnisse, sensible Daten, NDA‘s etc.).
  • Es werden Ansprechpartner für Fragen und Unsicherheiten benannt.
  • Die Regeln werden überwacht und Verstöße werden sanktioniert.

Genauso wichtig, wenn nicht sogar wichtiger als KI-Richtlinien ist aber, dass das Unternehmen den Mitarbeitern die Risiken und die daraus resultierenden Regeln in regelmäßigen Schulungen erläutert und verständlich macht.

Zum Spielen motivieren

Der Nachteil von strikten Regeln ist, dass sie wenig Lust machen, mit der neuen Technologie zu experimentieren, damit die Durchdringung der Technologie im Unternehmen erstickt wird und man von den Vorteilen nicht profitieren kann.

Daher sind Unternehmen gut beraten, gleichzeitig zum Erlass von Regeln aktiv zum Spielen mit KI's einzuladen, natürlich innerhalb der erlassenen Regeln.  Die Otto-Group aus Hamburg hat dazu z.B. einen Wettbewerb ausgeschrieben, in dem jeder Mitarbeiter bzw. jede Mitarbeiterin dazu eingeladen wurde, Beispiele einzusenden, wie mit KI die Produktivität des eigenen Teams verbessert, Aufgaben automatisiert oder neue Ideen generiert wurden.   Dafür wurde die selbst-gehostete KI ogGPT bereitgestellt, so dass alle Kolleginnen und Kollegen sofort anfangen konnten.