Die Europäische Union will mit dem AI Act ein weltweit erstes umfassendes Gesetz zur Regulierung Künstlicher Intelligenz (KI) schaffen. Doch jetzt, kurz vor der geplanten Umsetzung, kommt heftiger Gegenwind aus der Tech-Branche. Große Technologieunternehmen wie Meta, Apple, Google, Amazon und Microsoft fordern eine „Pause“ – sie kritisieren die geplanten Anforderungen als überreguliert, unklar und innovationsfeindlich. Was steckt hinter der Forderung? Und welche Folgen hätte ein Stopp oder eine Verzögerung des Gesetzes?
1. Was ist der AI Act?
Der AI Act ist das erste umfassende KI-Gesetz der Welt und soll innerhalb der Europäischen Union klare Regeln für die Entwicklung, Nutzung und Vermarktung von Künstlicher Intelligenz schaffen. Ziel ist es, Risiken für Verbraucher zu minimieren und europäische Werte wie Privatsphäre, Transparenz und Nichtdiskriminierung zu schützen.
Der AI Act teilt KI-Systeme in vier Risikostufen ein:
- Unakzeptables Risiko (z. B. Social Scoring) → verboten
- Hohes Risiko (z. B. biometrische Überwachung, KI im Gesundheitswesen) → strenge Auflagen
- Begrenztes Risiko → Transparenzpflicht
- Minimales Risiko → frei anwendbar
Zusätzlich soll es strenge Anforderungen für sogenannte generative KI wie ChatGPT, Claude oder Bard geben – insbesondere wenn die Modelle sehr leistungsstark (foundation models) und weit verbreitet sind. Genau hier setzt die Kritik der Konzerne an.
2. Was kritisieren die Tech-Unternehmen?
In einem offenen Schreiben an führende EU-Politiker fordern Branchenverbände wie CCIA (Computer & Communications Industry Association), in der unter anderem Meta, Apple, Amazon und Google organisiert sind, einen sofortigen „Pause“-Button beim AI Act. Die Argumente sind vielschichtig:
a) Zu komplexe Anforderungen
Die Unternehmen kritisieren, dass der AI Act in seiner jetzigen Form zu viele unklare Anforderungen stellt, besonders an sogenannte General Purpose AI (GPAI). Diese Modelle – wie GPT-4 oder Gemini – sollen besonders strenge Auflagen erfüllen: etwa Pflichtdokumentationen, Transparenz in der Trainingsdatenbasis, Offenlegung der Rechenleistung und robuste Sicherheitsmaßnahmen.
Viele Firmen befürchten jedoch, dass sie rechtlich gar nicht sicher einschätzen können, ob und wann sie unter diese Auflagen fallen – was Innovationen ausbremse.
b) Rechtsunsicherheit für Start-ups und Mittelstand
Besonders kleinere Unternehmen könnten durch überbordende Bürokratie abgeschreckt werden. Zwar ist der AI Act grundsätzlich risikobasiert – doch gerade im Bereich „generative KI“ könnte ein Start-up, das etwa ein multimodales Modell entwickelt, plötzlich in dieselbe Schublade wie Google DeepMind oder OpenAI fallen. Die Folge: gleiche Verpflichtungen bei deutlich geringeren Ressourcen.
c) Europas Wettbewerbsfähigkeit in Gefahr
Viele Tech-Konzerne warnen davor, dass Europa sich mit dem AI Act selbst aus dem globalen Wettbewerb drängen könnte. Während in den USA und China große Freiräume für KI-Experimente bestehen, würden in Europa Unternehmen durch die Regulierung gebremst. Die Gefahr: Innovationen wandern ab – und Europa bleibt als Konsument von KI zurück, anstatt selbst Standards zu setzen.
d) Keine klaren Standards für GPAI
Der Gesetzestext enthält bislang keine detaillierte technische Definition für Foundation-Modelle oder generische KI. Unternehmen kritisieren: Wer weiß schon, ob ein Modell als “General Purpose AI” zählt, wenn die Kriterien vage formuliert sind? Die daraus entstehende Rechtsunsicherheit hemmt Investitionen und Forschung.
3. Was fordert die Lobby konkret?
Die Lobbygruppen verlangen eine Pause bei der Umsetzung, um offene Fragen zu klären und mögliche negative Effekte auf Innovation und Wettbewerbsfähigkeit zu vermeiden. Im Klartext heißt das:
- Verschiebung der Pflichten für GPAI-Modelle
- Überarbeitung der Anforderungen an Transparenz und Rechenschaftspflicht
- Bessere Unterstützung für KMU und Start-ups
- Verlässliche technische Standards durch Expertengremien
- Evaluierungsphase vor flächendeckender Umsetzung
4. Reaktion der EU-Institutionen
Die EU-Kommission zeigt bislang wenig Bereitschaft, den AI Act zu verzögern. Vielmehr verweist sie auf das hohe Vertrauen der Bürgerinnen und Bürger in eine sichere und menschenzentrierte KI. EU-Binnenmarktkommissar Thierry Breton betonte mehrfach, dass Europa mit dem AI Act einen „Goldstandard“ schaffen wolle – der internationale Wirkung entfalten könnte.
Allerdings wird innerhalb der EU zunehmend diskutiert, wie pragmatisch der AI Act ausgestaltet werden muss, um Innovation nicht zu blockieren. Denkbar wäre eine Übergangsphase oder die schrittweise Einführung einzelner Anforderungen.
5. Chancen und Risiken der Regulierung
✅ Vorteile des AI Act:
- Schafft Vertrauen bei Bürgern und Unternehmen
- Setzt weltweit ethische Standards
- Verhindert Missbrauch sensibler KI-Anwendungen (z. B. Deepfakes, Diskriminierung)
- Fördert nachhaltige, verantwortungsvolle Innovation
⚠️ Risiken eines überregulierten Ansatzes:
- Hemmt junge Unternehmen durch übermäßige Pflichten
- Fördert Abwanderung von KI-Innovationen ins Ausland
- Führt zu hohen Compliance-Kosten für Unternehmen
- Verzögert die Umsetzung in der Praxis
6. Was sagen unabhängige Experten?
Viele KI-Forscher und Juristen unterstützen grundsätzlich das Ziel des AI Act, fordern aber mehr Flexibilität. Der Vorschlag: Eine Art „Sandkastenmodell“ für generative KI – also ein rechtlich geschützter Rahmen, in dem neue Modelle getestet werden können, bevor alle Pflichten greifen. Auch eine stärkere Differenzierung zwischen Anbietern und Anwendungsfällen wird empfohlen.
Ein weiteres Thema: die internationale Abstimmung. Denn KI kennt keine Grenzen. Ein zu starker Alleingang Europas könnte die Zusammenarbeit mit internationalen Partnern erschweren. Deshalb plädieren viele Experten für eine engere Koordination mit G7, OECD oder der UNESCO.
7. Fazit: Bremst die EU ihre KI-Zukunft aus – oder regelt sie sie rechtzeitig?
Die Kritik am AI Act zeigt deutlich, wie schwierig der Balanceakt zwischen Innovation und Regulierung ist. Während die EU als Vorreiterin für ethische KI-Standards gesehen werden will, warnen die großen Tech-Konzerne vor Überforderung und Intransparenz. Ein kompletter Stopp des AI Act ist jedoch unwahrscheinlich – zu weit ist der Gesetzgebungsprozess bereits fortgeschritten.
Stattdessen könnte es zu Nachbesserungen, Übergangsfristen oder präziseren Definitionen kommen. Entscheidend wird sein, ob die EU es schafft, ein Regelwerk zu etablieren, das sowohl Verbraucherschutz als auch Innovationskraft fördert.
Wenn die Balance gelingt, könnte der AI Act tatsächlich der viel beschworene „Goldstandard“ werden – und ein Vorbild für andere Weltregionen. Wenn nicht, riskiert Europa, seine Rolle im globalen KI-Rennen zu verlieren.