zum Hauptinhalt
ANZEIGE

Europas KI-Gesetz: Wegweiser oder Stolperstein?


Mit dem Artificial Intelligence Act (AI Act) hat die Europäische Union den weltweit ersten umfassenden Rechtsrahmen für Künstliche Intelligenz auf den Weg gebracht. Er soll Innovation fördern und gleichzeitig ethische Standards durch verbindliche Vorschriften sichern. Doch wie viel Regulierung verträgt der Fortschritt? Und welche Auswirkungen hat dieses Gesetz auf den geopolitischen Wettbewerb? 

Der AI Act, der eine Vielzahl von KI-Systemen und -Anwendungen betrifft, verfolgt einen risikobasierten Ansatz. Systeme, die als besonders gefährlich eingestuft werden – etwa in Bereichen wie Social Scoring oder biometrischer Massenüberwachung – sind gänzlich verboten. Für Anwendungen, die als hochriskant gelten, etwa im Gesundheitswesen oder in der Strafverfolgung, gelten strenge Auflagen hinsichtlich Transparenz, Sicherheit und menschlicher Aufsicht. Diese Vorgaben gelten für alle Anbieter, die KI-Systeme innerhalb der EU entwickeln, anbieten oder nutzen – unabhängig davon, ob sie in der EU ansässig sind oder nicht. 

Im Vorfeld der weltweit führenden Technologie- und Start-up-Messe GITEX Europe, die vom 21. bis 23. Mai 2025 erstmals in Berlin stattfindet, hat die Europäische Union ein umfangreiches Investitionspaket im Bereich der Künstlichen Intelligenz angekündigt. Während dieses Engagements darauf abzielt, Europas Position in den KI-Schlüsselbereichen zu stärken, rücken Fragen zur praktischen Umsetzung und den geopolitischen Konsequenzen des AI Acts zunehmend in den Vordergrund. 

EU-KI-Pakt: Freiwilliges Regulativ 

Die schrittweise Umsetzung des AI Acts sieht evor, dass verbotene Systeme seit Februar dieses Jahres eingestellt werden müssen, während die vollständige Anwendung aller Bestimmungen für August 2027 geplant ist. Für die Übergangszeit hat die EU-Kommission den freiwilligen KI-Pakt ins Leben gerufen. Mehr als 200 Unternehmen, darunter Technologieriesen wie Google, Microsoft, Amazon und OpenAI, haben sich verpflichtet, die Grundsätze des AI Acts bereits vor dessen vollständiger Inkraftsetzung anzuwenden. Die Einhaltung der Vorschriften wird streng überwacht – bei Verstößen drohen den Anbietern empfindliche Strafen von bis zu 35 Millionen Euro oder 7 Prozent ihres weltweiten Jahresumsatzes. 

Doch nicht alle Unternehmen sind bereit, diese strengen Anforderungen zu akzeptieren. Meta und Apple haben sich entschieden, dem Pakt nicht beizutreten, und halten einig ihrer KI-Tools in Europa zurück. Sie befürchten, dass die EU-Regulierungen das Tempo ihrer Entwicklungen drosseln könnten. Die EU droht nun ihrerseits mit Ermittlungen und möglichen Strafen gegen diese Unternehmen. Dieser Schritt könnte zu einer harten Auseinandersetzung über den regulatorischen Rahmen führen und die transatlantischen Beziehungen nachhaltig belasten. 

USA: Deregulierung und Großprojekte 

Während Europa mit dem AI Act einen klaren, risikobasierten Regulierungsrahmen für KI-Systeme favorisiert, verfolgen die USA einen völlig anderen Ansatz. Im Januar 2025 kündigte US-Präsident Donald Trump ein massives Investitionspaket im Bereich der Künstlichen Intelligenz an. Das Stargate-Programm investiert Milliarden von Dollar in die Förderung von High-Tech-Unternehmen, Start-ups und Forschungszentren mit dem Ziel, die USA als weltweit führende Nation in der KI zu etablieren. Dabei sollen insbesondere große US-Unternehmen wie Google, Amazon, Microsoft und Tesla von Subventionen und steuerlichen Anreizen profitieren. Die US-Regierung ist überzeugt davon, dass weniger Regulierung den Wettbewerbsdruck erhöhen und Unternehmen dazu anregen könnte, schneller und effizienter neue Technologien zu entwickeln. Anders als in Europa gibt es in den USA keine landesweiten Verbote für umstrittene Technologien wie Social Scoring oder biometrische Überwachung. 

China: Staatliche Kontrolle 

Seit 2017 verfolgt das Reich der Mitte eine Strategie der strikten staatlichen Kontrolle über die Entwicklung und den Einsatz von KI-Systemen, die bis 2030 den Weg für Chinas globale Führungsrolle in der KI-Technologie ebnen soll. In China ist es für Unternehmen nahezu unmöglich, sich einer umfassenden Datenüberwachung durch die Regierung zu entziehen. Ein weiteres Risiko ergibt sich aus der Ethik der KI-Nutzung. Weltweit gibt es massive Bedenken hinsichtlich der Datensammlung durch Technologien wie Gesichtserkennung und biometrischer Überwachung. Die Frage, wie weit diese Technologien in China eingesetzt werden, ohne die Privatsphäre und Rechte der Bürger zu gefährden, bleibt eine ungelöste Herausforderung. 

Der geopolitische Wettlauf: Wer setzt den globalen Standard? 

Die Umsetzung des europäischen AI Acts wird zur Nagelprobe. Befürworter der EU-Regulierung argumentieren, dass der AI Act eine Möglichkeit für Europa bietet, sich als vertrauenswürdiger Vorreiter im Bereich der Künstlichen Intelligenz zu positionieren – ähnlich wie es mit der Datenschutz-Grundverordnung (DSGVO) der Fall war. Der klar strukturierte Rechtsrahmen könne für Start-ups und mittelständische Unternehmen neue Möglichkeiten eröffnen und Innovationsräume schaffen, die durch sogenannte regulatorische Sandboxes gefördert werden. 

Kritiker warnen vor den potenziellen Nachteilen einer zu strengen Regulierung. Sie befürchten, dass vor allem kleine und mittelständische Unternehmen sowie Start-ups durch hohe Anforderungen und bürokratische Hürden Wettbewerbsnachteile haben könnten und in Länder abwandern, in denen weniger strenge Vorschriften gelten – etwa in den USA oder China. 

Das Rennen um die technologische Vorherrschaft im Bereich der Künstlichen Intelligenz ist in vollem Gange. In den kommenden Jahren wird sich zeigen, ob Europas risikobasierter Ansatz langfristig erfolgreicher ist – sowohl aus wirtschaftlicher als auch gesellschaftlicher Sicht. Klar ist jedoch, dass die Entwicklung und Regulierung von Künstlicher Intelligenz maßgeblich die neue geopolitische Ordnung prägen werden. 

Von Claudia Kleist

Artikel teilen
console.debug({ userId: "", verifiedBot: "false", botCategory: "" })