Allgemeine KI-Modelle – oft als Foundation Models bezeichnet – sind KI-Systeme, die für einen breiten Zweck trainiert wurden (z.B. große Sprachmodelle wie GPT-4, Bildgeneratoren wie DALL-E) und die in vielen Bereichen einsetzbar sind. Sie bilden das Grundgerüst für verschiedenste KI-Anwendungen. Solche Modelle bringen besondere Chancen (weil sie vielseitig einsetzbar sind), aber auch Risiken mit sich:
- Sie können falsche oder verzerrte Ausgaben liefern (Halluzinationen)
- Sie können für nicht vorgesehene Zwecke benutzt werden
- Ihr Training beruht oft auf riesigen Datenmengen, was Fragen nach Urheberrecht und Datenschutz aufwirft
Die KI-Verordnung legt deshalb zusätzliche Pflichten für Anbieter allgemeiner KI-Modelle fest. Insbesondere sollen Anbieter gewährleisten, dass sie Risiken analysieren und mindern, Qualitätsstandards für Trainingsdaten einhalten und eine technische Dokumentation veröffentlichen. Außerdem müssen generative KI-Modelle (die also eigenständig Inhalte erzeugen) sicherstellen, dass ihre Ausgaben als KI-generiert erkennbar sind – etwa durch Wasserzeichen oder Hinweise. Nutzer sollen informiert werden, dass ein bestimmter Text, Bild oder Video von einer KI stammt, damit niemand getäuscht wird. Diese Transparenzpflicht zielt z.B. auf sogenannte Deepfakes ab. Werden realistisch wirkende Medieninhalte durch KI erzeugt (z.B. ein Bild einer Person, die in Wirklichkeit nie so fotografiert wurde), muss kenntlich gemacht werden, dass es sich um einen künstlich erzeugten Inhalt handelt.
Auch KI-Systeme mit allgemeinem Verwendungszweck, die direkt mit Menschen interagieren (z.B. Chatbots wie ChatGPT), unterliegen Transparenzanforderungen: Der Benutzer muss darüber informiert werden, dass er es mit einer KI zu tun hat, sofern das nicht offensichtlich ist. In der Praxis bedeutet das: Ein KI-Chat auf Ihrer Website sollte sich z.B. durch einen Hinweis oder die Art der Ansprache als automatisiert zu erkennen geben (etwa „Ich bin ein virtueller Assistent …“).
Für Unternehmen, die solche Modelle lediglich nutzen, ist wichtig: Sie sollten sich auf die Angaben der Anbieter stützen können, was Risiken und richtige Verwendung angeht. Die EU plant eine zentrale Aufsichtsstruktur für große KI-Modelle: Ein EU-Büro für KI soll zukünftig diese Foundation Models überwachen.
Was sollten Sie tun? Als Nutzer sollten Sie die Dokumentationen und Informationen, die Anbieter bereitstellen (z.B. Model Cards, Warnhinweise über Grenzen des Modells), aufmerksam lesen und befolgen. Außerdem gilt – unabhängig von gesetzlichen Pflichten – ein gesundes Misstrauen gegenüber generativer KI: Die Ergebnisse müssen kritisch geprüft werden (dazu mehr in den Praxistipps – Teil 8 dieser Blogartikelreihe).
Häufige Frage: Müssen KI-generierte Inhalte gekennzeichnet werden?
Antwort: Ja, die KI-VO sieht eine Kennzeichnungspflicht vor. Diese richtet sich primär an die Anbieter generativer KI, die technische Vorkehrungen treffen sollen, dass z.B. ein Bild oder Text beim Erstellen als KI-Output markiert wird. Für Unternehmen, die KI-Inhalte nutzen, ist es aber ebenfalls ratsam, transparent zu sein. Zum Beispiel können Sie in Ihren Publikationen darauf hinweisen, wenn Teile des Inhalts von einer KI erstellt oder unterstützt wurden – zumindest intern sollten Sie es dokumentieren. Gerade wenn Inhalte für von Menschen erstellt gehalten werden können (etwa Produkttexte, Chat-Antworten), ist Transparenz wichtig, um Vertrauen zu erhalten und rechtlich auf der sicheren Seite zu sein. In bestimmten Bereichen (z.B. Journalismus, Bewerbungsgespräche) kann es ethisch geboten sein, KI-Einsatz offenzulegen. Zusammengefasst: Gesetzlich vorgeschrieben wird die Kennzeichnung vor allem durch die Technologie selbst, aber Unternehmen sollten proaktiv für Offenheit sorgen, wenn KI im Spiel ist.
Fazit
Allgemeine KI-Modelle bringen Risiken mit sich – von fehlerhaften Ausgaben bis hin zu Missbrauchspotenzialen. Die KI-Verordnung begegnet diesen Herausforderungen mit neuen Pflichten für Anbieter, darunter Risikobewertungen, Qualitätsstandards und Transparenzmaßnahmen wie Kennzeichnungen für generierte Inhalte. Unternehmen, die solche Modelle nutzen, sollten sich über deren Grenzen bewusst sein, die bereitgestellten Dokumentationen sorgfältig prüfen und Transparenz wahren – sei es durch Hinweise auf KI-generierte Inhalte oder eine kritische Überprüfung der Ergebnisse. So lässt sich der verantwortungsvolle Einsatz von KI sicherstellen.
Sie haben Fragen zur Anwendung der KI-VO in Ihrem Unternehmen? Kontaktieren Sie uns für ein individuelles Beratungsgespräch.
Weitere Artikel aus unserer Reihe „Die neue K-Verordnung“:
1. Die neue KI-Verordnung (EU AI Act) – Was bedeutet sie für Unternehmen?
2. Die neue KI-Verordnung – Konkrete Pflichten für Unternehmen und Geschäftsleitungen
3. Die neue KI-Verordnung – Wann gilt eine KI als hochriskant?