Bürokratie wirkt bei Künstlicher Intelligenz wie ein Bremsklotz
Im Interview: Kevin Bauer
Bürokratie wirkt bei KI wie ein Bremsklotz
Frankfurter Ökonom bescheinigt Deutschland gute Vorraussetzungen bei Künstlicher Intelligenz – Mentalitätswechsel in Politik und Wirtschaft dennoch nötig
Die deutsche Wirtschaft ist bei KI nicht so gut vom Startblock weggekommen. Aber das Potenzial ist groß, sagt Spieltheoretiker und KI-Ökonom Kevin Bauer von der Universität Frankfurt. Politik, Wirtschaft und auch die Gesellschaft sollten sich zügig auf Veränderungen vorbereiten, Regulierung abbauen oder vereinfachen.
Von Stephan Lorz, Frankfurt
Herr Bauer, während die USA zuletzt Super-Konzerne des Digitalzeitalters hervorgebracht haben, stecken wir im Industriezeitalter fest, wie ein Blick auf den Dax zeigt. Verspielt Deutschland nun auch seine KI-Zukunft?
Nein, noch nicht. Deutschland muss sich nicht verstecken, und man darf die Lage auch nicht schlechtreden. Gewiss ist aktuell stets von Anbietern der großen KI-Sprachmodelle die Rede wie OpenAI mit ChatGPT, Google mit Gemini oder Meta mit Meta AI. Aber wir haben die Köpfe – vor allem was die wissenschaftlichen Grundlagen anbelangt. Es besteht also durchaus das Potenzial, dass neue Durchbrüche auch in den großen Modellen aus Deutschland kommen wie durch TabPFN. Entscheidendes tut sich zudem in speziellen Anwendungsfällen, wo KI-Varianten genutzt werden. Hier könnten wir in der Zukunft mit der Erfahrung deutscher Unternehmen auftrumpfen.
Wo sind dann in Deutschland die Hotspots, aus denen einmal ein digitaler Milliardenkonzern erwachsen könnte?
Neben Berlin liegt auch München gut im Rennen, ebenso Frankfurt mit seiner Rhein-Main-Anbindung via Darmstadt und Mainz. Allerdings müssen wir jetzt darauf achten, dass auch die nötigen Voraussetzungen vorhanden sind, damit sich die Produkte entwickeln können: Top-Infrastruktur mit leistungsfähigen und leicht zugänglichen Rechenzentren, eine eher flache Regulierung mit wenig Bürokratie und vereinfachten – vor allem nicht durch Ländergrenzen zusätzlich komplizierten – Datenschutzbestimmungen, und natürlich eine schnelle Finanzierung, um vom Startup im Markt wachsen zu können.
Ein zentrales Hemmnis für die Wachstumsfinanzierung von KI-Startups in Deutschland liegt in der begrenzten internationalen Sichtbarkeit.
Warum klappt es hierzulande nicht so recht mit der Wachstumsfinanzierung?
Ein zentrales Hemmnis für die Wachstumsfinanzierung von KI-Startups in Deutschland liegt in der begrenzten internationalen Sichtbarkeit. Viele exzellente Projekte entstehen hier, erreichen aber oft nicht die globale Bühne, auf die Investoren aufmerksam werden.
Was tun?
Eine stärkere Bereitstellung öffentlicher Mittel für angewandte KI-Forschung, Ausbildung und insbesondere den Transfer in die Praxis wäre etwa ein wichtiges Signal. Wenn hier gezielt investiert wird, einschließlich der Finanzierung von Startups in frühen Phasen, zeigt das nicht nur Commitment, sondern kann auch private Investitionen mobilisieren. Gerade in wirtschaftlich herausfordernden Zeiten ist ein solches Engagement der öffentlichen Hand ein starkes Zeichen und kann helfen, das Vertrauen in den Innovationsstandort Deutschland zu stärken.

prvat
Wie hemmend wirkt sich die Bürokratie aus bei Forschung und Entwicklung?
Bürokratie wirkt in Forschung und Entwicklung wie ein Bremsklotz – besonders bei KI. Ein zentrales Problem ist dabei nicht der Datenschutz an sich, sondern wie er in Deutschland häufig übervorsichtig ausgelegt wird. Es entsteht der Eindruck, dass sich alle Beteiligten im Genehmigungsprozess primär absichern wollen – aus Angst, später juristisch belangt zu werden. Diese Kultur des Risikovermeidens verhindert viele datenbasierte Innovationsprojekte schon im Ansatz.
Ein zentrales Problem ist dabei nicht der Datenschutz an sich, sondern wie er in Deutschland häufig übervorsichtig ausgelegt wird.
Wo sollte man also politisch ansetzen?
Was es braucht, ist ein Mentalitätswechsel: Datenschutz ja, aber mit Augenmaß und Innovationsorientierung. Vor allem sollten Arbeitnehmervertreter in großen Unternehmen frühzeitig eingebunden werden. So lassen sich nicht nur Risiken besser adressieren, sondern auch die Vorteile datenbasierter Forschung für alle Beteiligten klarer kommunizieren. Denn viele der relevantesten wissenschaftlichen Erkenntnisse in der KI entstehen durch enge Kooperationen mit Unternehmen – etwa auf Basis gemeinsam genutzter Daten oder empirischer Feldstudien. Damit solche Partnerschaften funktionieren, brauchen wir weniger bürokratische Hürden und eine stärkere, vertrauensvolle Einbindung aller Stakeholder.
Welche Rolle spielt hier der AI-Act der EU? Bürokratiemonster? Oder Startpunkt für Geschäftsgründungen?
Die Grundidee des AI Act ist durchaus sinnvoll: Sicherheit und Transparenz bei der Anwendung von KI in den Mittelpunkt zu stellen, ist richtig und wichtig; gerade wenn es um sensible oder hochriskante Anwendungen geht. Allerdings besteht die Gefahr, dass der AI Act in seiner aktuellen Ausgestaltung zu Verunsicherung führt.
Wenn Regulierung nicht mit Augenmaß erfolgt, kann sie schnell zur Innovationsbremse werden.
Wo passiert das konkret?
Dies ist insbesondere bei Unternehmen und Startups der Fall, die sich fragen, wie die Regeln im Detail auszulegen sind und was auf sie zukommt. Wenn Regulierung nicht mit Augenmaß erfolgt, kann sie schnell zur Innovationsbremse werden. Das ist gerade für Geschäftsgründungen im KI-Bereich entscheidend, dass der AI Act als klare und zugleich praxistaugliche Grundlage verstanden wird. Dafür braucht es jetzt eine gute Umsetzung und vor allem Orientierungshilfen, die helfen, rechtliche Sicherheit zu schaffen, ohne den Unternehmergeist abzuwürgen.
Viele Unternehmen rechnen mit einem Produktivitätssprung durch KI. Sehen Sie das auch so?
Ja, ein Produktivitätssprung durch KI ist erkennbar, zumindest in bestimmten Bereichen. Aktuell sehen wir vor allem bei wiederkehrenden Aufgaben und konkreten Programmierarbeiten deutliche Effizienzgewinne. Wissenschaftliche Studien sprechen hier teils von Produktivitätssteigerungen von 20 bis 30%, selbst bei konservativer Schätzung. Langfristig wird nicht nur die Effizienz zulegen, sondern auch die Art und Weise, wie wir arbeiten, grundlegend verändern. Prozesse müssen neu gedacht, Aufgaben anders strukturiert werden. KI sollte dabei nicht als Ersatz, sondern als Partner verstanden werden. Sie kann Aufgaben eigenständig übernehmen oder uns mit wertvollem Input unterstützen, etwa für bessere Entscheidungen oder höhere kreative Produktivität.
Also eine Art Lebensbegleiter?
Ziel sollte eine human-centered oder responsible AI sein, also eine Künstliche Intelligenz, die dem Menschen dient, das Leben erleichtert und gleichzeitig verantwortungsvoll eingesetzt wird, ohne übermäßige Risiken zu erzeugen.
Es besteht die reale Gefahr, dass wir zu viel Verantwortung an die KI-Systeme abgeben und dabei eigene kognitive Fähigkeiten verlieren, weil wir Prozesse nicht mehr selbst durchdenken.
Wo sehen Sie die Vorzüge oder Gefahren, wenn KI-Anwendung die Geschäftswelt revolutioniert?
KI hat das Potenzial, Entscheidungs- und Geschäftsprozesse deutlich effizienter zu gestalten. Gleichzeitig besteht aber die Gefahr, dass wir zu viel Verantwortung an die Systeme abgeben. Wenn wir Entscheidungen zunehmend der KI überlassen, verlieren wir nach und nach auch kognitive Fähigkeiten, weil wir Prozesse nicht mehr selbst durchdenken. Ein zentrales Problem sehe ich auch darin, dass wir unsere Entscheidungen oft so strukturieren, damit sie möglichst gut von KI-Systemen verarbeitet werden können. So passen wir uns an die Technologie an, statt sie in unsere Denk- und Arbeitsprozesse zu integrieren. Wir müssen die Ergebnisse, die KI liefert, stets kritisch reflektieren und nicht einfach übernehmen. Der Mensch bleibt verantwortlich für das, was am Ende entschieden wird.
Nennen Sie doch ein Beispiel.
Wenn ein Empfehlungssystem Bewerber vorsortiert, darf das nicht heißen, dass wir uns die Vorschläge nicht mehr selbst anschauen. Wir müssen verstehen, warum bestimmte Entscheidungen getroffen wurden, sonst droht ein schleichender Kompetenzverlust.
Ein besonders spannender Anwendungsfall von KI in der Finanzindustrie ist die Demokratisierung von Finanzwissen.
Informatiker sehen die Entwicklung der großen KI-Sprachmodelle im Moment in einer Sackgasse, weil sie immer mehr auf KI-generiertes Material zugreifen müssen. Wo liegen hier Ihrer Einschätzung nach die Gefahren?
Tatsächlich besteht im Moment eine Gefahr, dass die Modelle übermäßig auf synthetischen Daten zugreifen, die von KI selbst erzeugt wurden. Das führt zu einer gewissen Selbstreferenzialität. Das könnte auch zu einem Kollaps der Modell-Performance führen. Aber auch hier ist es nötig, auf den Kern von KI hinzuweisen: das maschinelle Lernen. Bei konkreten Anwendungen jenseits der großen Sprachmodelle, die etwa auf echten Daten aus der Medizin oder dem Maschinenbau von Unternehmen fußen, können sie ihr ganzes Potenzial ausspielen. Und hierauf muss sich Deutschland fokussieren.
Wo sehen Sie spezifische Anwendungsfälle für die Finanzindustrie?
Hier gibt es in der Tat große Potenziale für den sinnvollen Einsatz. Ein besonders spannender Anwendungsfall ist die Demokratisierung von Finanzwissen. Mit KI ließe sich der Zugang zu komplexen Informationen stark vereinfachen. Denkbar sind individuelle KI-Agenten für Bankkunden. Diese analysieren finanzielle Informationen, schneiden sie auf individuelle Bedürfnisse zu und machen Vorschläge für sinnvolle Investitionen. Andere Ideen reichen von KI-gestützter Anlageberatung über automatisierte Risikoanalysen bis zu regulatorischen Anwendungen bei der Auswertung großer Datenmengen für Compliance-Zwecke.
Die Fragen stellte Stephan Lorz.
Weitere Beiträge zum Thema:
Europa hat viel geopolitisches Gewicht verloren
Nicht Sozialpolitik rettet den Standort sondern Spitzentechnologie