Du verletzt deine Sorgfaltspflicht, wenn du jetzt nichts tust

„Du verletzt deine Sorgfaltspflicht, wenn du jetzt nichts tust.“ Das war eins der prägenden Zitate von Montagabend beim BDI in Berlin. Ein Raum voller Aufsichtsräte, Beiräte und Governance-Profis. Ein Workshop zusammen mit ARMID, dem Berliner Institut für Governance & Leadership und uns, den German Digital Advisory Board Members. Thema: KI im Aufsichtsrat und Beirat.

Und ich sag euch, die Stimmung im Raum war anders als bei den meisten KI-Events die ich kenne. Kein PowerPoint-Marathon. Keine Folien mit „KI wird alles verändern“ in 48pt. Stattdessen: Laptops auf den Tischen. LLMs auf den Bildschirmen. Echte Fragestellungen aus echten Gremien. Orchestriert von meinen lieben Kollegen Stefan Schmidt und Thomas Kastner.

Der Moment der den Abend zusammenfasst

Eine Aufsichtsrätin hat zum ersten Mal in ihrem Leben einen Prompt geschrieben. Nicht für irgendeinen Test. Für eine strategische Analyse, die sie nächste Woche in ihrer Sitzung braucht. Ihre Reaktion: „Warum hat mir das vorher niemand gezeigt?“

Dieser Satz fasst das ganze Dilemma zusammen. Die Tools sind da. Die Möglichkeiten sind da. Aber niemand zeigt den Leuten in den Gremien wie sie die nutzen können. Und dann wundern wir uns dass Vorstände ohne KI-Kompetenz Entscheidungen über KI-Strategien treffen.

Der rechtliche Rahmen ist ernster als die meisten denken

Die Anwältinnen von Osborne Clarke haben an dem Abend den rechtlichen Rahmen aufgemacht. Danke Dr. Karen Frehmel-Kück, dass du das organisiert hast! Und der Rahmen ist deutlicher als viele erwarten.

Der AI Act ist in Kraft. Das ist keine Zukunftsmusik mehr. Unternehmen die KI einsetzen (und welches tut das nicht, auch wenn es nur ChatGPT auf dem Firmenhandy ist) müssen sich an klare Regeln halten. Risikoklassifizierung, Transparenzpflichten, Dokumentation.

Gleichzeitig ist Shadow-KI in vielen Unternehmen längst Realität. Mitarbeiter nutzen ChatGPT, Copilot, Claude für ihre tägliche Arbeit. Oft, ohne dass die Geschäftsführung davon weiss. Und definitiv, ohne dass der Aufsichtsrat davon weiss.

Für Aufsichtsratsmitglieder heisst das: Wenn ihr euch nicht aktiv mit KI beschäftigt, riskiert ihr nicht nur den strategischen Anschluss. Ihr riskiert eine Haftungsfalle. Eine der Teilnehmerinnen brachte es für mich auf den Punkt: Nichts tun ist keine Option. Es kann im Zweifel sogar eine Verletzung der Sorgfaltspflicht sein.

Was Gremien jetzt konkret tun sollten

Aus dem Workshop und den Diskussionen mit den anderen Teilnehmern nehme ich vier konkrete Handlungsempfehlungen mit.

Jetzt anfangen und wirklich ausprobieren. Nicht auf die perfekte KI-Strategie warten. Ein Rechner, ein lokales LLM, Daten und einen Case. Das reicht für den Anfang. Es geht darum, ein echtes Gefühl für Möglichkeiten und Grenzen zu entwickeln. Neugier schlägt Perfektion. Wer noch nie einen Prompt geschrieben hat, kann keine fundierte Aufsicht über KI-Projekte führen.

Den Diskurs im Gremium proaktiv prägen. Welche KI-Richtlinien gibt es im Unternehmen bereits? Welche braucht es? Was nutzen die einzelnen Vorstandsmitglieder und Mitarbeiter vielleicht schon heimlich? Und welche Rolle soll KI auch im Gremium selbst spielen? In der eigenen Vorbereitung und in der Überwachungsrolle.

Aktiver Sparringspartner für den Vorstand sein. Bei der KI-Strategie, bei der Leitlinienentwicklung, bei der Frage was Hochrisiko-KI im Sinne des AI Acts für das eigene Unternehmen bedeutet. Der Aufsichtsrat, der nur nickt wenn der Vorstand eine KI-Strategie vorlegt, hat seine Aufgabe nicht verstanden.

Dranbleiben. Die Technologie entwickelt sich schneller als jede Jahresplanung. Die Regulierung versucht mitzuhalten. Der AI Omnibus kommt 2027. Wer heute den Überblick behält und kontinuierlich lernt, bleibt vor der Welle. Wer wartet, wird von ihr überrollt.

KI ersetzt den Aufsichtsrat nicht

Das war die wichtigste Erkenntnis des Abends und sie kam nicht von mir, sondern aus der Gruppe selbst: KI ersetzt den Aufsichtsrat nicht. Aber gute Aufsicht macht KI erst wirksam.

Erfahrung, Urteilsvermögen und der Blick fürs grosse Ganze, das ist das, was Gremienarbeit ausmacht. KI kann dabei helfen. Sie kann Analysen beschleunigen, Muster erkennen, Szenarien durchrechnen. Aber die Entscheidung, die Verantwortung, die Haltung dahinter bleibt beim Menschen.

Nur muss der Mensch dafür wissen, was KI kann. Und was nicht.

Danke an Dr. Monika Wünnemann für das Hosting beim BDI, an die Kolleginnen von Osborne Clarke (Dr. Karen Frehmel-Kück, Natalie Merkle, Susanne Kühlthau, Dr. Lina Boecker) für die rechtliche Einordnung, und an Noemi Ingold und Dr. Philine Erfurt Sandhu vom BIGL für den Bärenjob der Organisation. Ohne die beiden wären wir da nicht angekommen.

Link zum DDB-Profil.

Ähnliche Beiträge