in

Haftungs-Folgen der neuen EU-Vorgabe, KI als Produkt.

AFPA/ Mag. Stephan Novotny

Warum jetzt Ausbildung, Kontrolle und klare Prozesse für den Einsatz von KI entscheidend sind.

Rechtsanwalt Mag. Stephan Novotny, ein auf Versicherungs- und Datenschutzrecht spezialisierter Anwalt, der seit mehr als 15 Jahren mit eigener Kanzlei in Wien – auch als AFPA-Lotse – tätig ist hat zum Schwerpunkt „Cybersicherheit“ in der Februar Print Ausgabe von risControl folgenden Kommentar gegeben:

Künstliche Intelligenz ist längst Teil des Arbeitsalltags. Im Vertrieb, in der Beratung, in der Schadenbearbeitung und zunehmend auch im internen Prozessmanagement unterstützen KI‑Systeme Entscheidungen, analysieren Daten und liefern Vorschläge. Gleichzeitig wächst die Abhängigkeit von digitalen Tools, deren Funktionsweise kaum jemand vollständig versteht. Damit steigen die Chancen, aber auch die Risiken. Besonders heikel wird es, wenn KI-Inhalte erzeugt, die auf den ersten Blick plausibel wirken, tatsächlich aber falsch sind. Fälle aus Australien, Großbritannien, Deutschland und den USA zeigen, dass KI sogar in Gerichtsverfahren Entscheidungen erfunden hat. In manchen Fällen mussten Anwaltskanzleien Strafen zahlen, weil sie diese Ergebnisse ungeprüft verwendet hatten. Auch vor österreichischen Gerichten waren fehlerhafte Zitate, die offensichtlich mithilfe von KI entstanden sind, ein Thema und führten zu einem entsprechenden OGH-Urteil.

Diese Beispiele verdeutlichen, warum es nicht ausreicht, KI als technisch beeindruckendes Hilfsmittel zu betrachten. Wer mit ihr arbeitet, trägt Verantwortung für das Ergebnis, unabhängig davon, wie überzeugend der Text aussieht oder wie zuverlässig das Software-Ergebnis präsentiert wird. Gerade in Branchen wie Versicherungen und Finanzdienstleistungen, in denen Beratung, Dokumentation und Rechtskonformität zentrale Rollen spielen, können Fehlentscheidungen schnell zu Schadenersatzforderungen oder regulatorischen Konsequenzen führen. Daher muss sich jeder bewusst sein: KI unterstützt, aber sie ersetzt kein Fachwissen. Sie ist leistungsfähig, aber sie ist nicht unfehlbar.

Verpflichtende KI‑Schulung für alle Berufsanwender seit 2025

Ein zweiter Aspekt, der die Branche unmittelbar betrifft, ist die seit Feber 2025 geltende Schulungspflicht. Der EU‑AI‑Act schreibt vor, dass alle Personen, die KI beruflich einsetzen oder mit deren Entwicklung bzw. Betrieb befasst sind, entsprechende Ausbildungen absolvieren müssen. Diese Pflicht gilt auch für Vermittler, Berater und Mitarbeiter im Finanz- und Versicherungsvertrieb. Die Erfahrung zeigt, dass Fehler im Umgang mit KI in vielen Fällen aus mangelndem Verständnis entstehen. Wer nicht weiß, wie ein Modell trainiert wird, wann es zu Halluzinationen kommt oder welche Daten im Hintergrund verarbeitet werden, kann das Risiko nicht einschätzen. Deshalb müssen Unternehmen sicherstellen, dass Schulungen durchgeführt, dokumentiert und regelmäßig wiederholt werden.

Neue EU-Vorgabe: KI gilt als Produkt
Parallel zur KI‑Verordnung hat die EU auch das Produkthaftungsrecht modernisiert. Die Reform stellt einen Wendepunkt dar: Software und KI gelten nun ausdrücklich als Produkte. Das bedeutet, dass digitale Anwendungen denselben Maßstab erfüllen müssen wie physische Waren. Wenn ein Update fehlerhaft ist, wenn Algorithmen falsche Daten verarbeiten oder wenn die Sicherheitsvorkehrungen unzureichend sind, so kann das ebenso zu Schadenersatz führen wie eine defekte Bremse im Auto. Besonders brisant: Die Haftung ist verschuldensunabhängig. Damit wird jede KI-basierte Anwendung zum potenziellen Haftungsrisiko. Neben finanziellen Schäden droht auch ein massiver Vertrauensverlust bei den Kunden.

Lesen Sie mehr in der risControl Print Ausgabe – Februar. 

1000 Cyberangriffe ausgewertet

Erfolgreiches Jahr