- Ambitionierte Pläne: Claude-Next soll GPT-4 übertrumpfen
- Fokus auf KI-Sicherheit: Anthropic gegen unsichere Systeme
- Frontier Model: Sicherheit und Leistungsfähigkeit vereint
- Kritik an OpenAI: Umgang mit Risiken und Regulierung
- Finanzierung und Zukunft: Anthropic auf der Überholspur
- Anthropic als Hoffnungsträger für KI-Sicherheit
- Zukunft der KI: Kooperation oder Konkurrenz?

Ambitionierte Pläne: Claude-Next soll GPT-4 übertrumpfen
Anthropic, das KI-Forschungsunternehmen, das von ehemaligen OpenAI-Mitarbeitern gegründet wurde, plant ein riesiges KI-Modell, das zehnmal leistungsfähiger sein soll als die mächtigsten KI-Systeme. Laut Geschäftsunterlagen rechnet das Unternehmen in den kommenden zwei Jahren mit bis zu fünf Milliarden US-Dollar an Einnahmen. Ziel ist es, mit dem Modell namens Claude-Next das Konkurrenzprodukt GPT-4 von OpenAI in den Schatten zu stellen.
Fokus auf KI-Sicherheit: Anthropic gegen unsichere Systeme
Im Gegensatz zu OpenAI konzentriert sich Anthropic auf die KI-Sicherheit. Die Gründer befürchten, dass der technische Fortschritt der kommenden Jahre zu unsicheren KI-Systemen führen könnte, wenn Unternehmen und Länder versuchen, mit der rasanten Entwicklung Schritt zu halten. Daher setzt das Unternehmen auf die Entwicklung sicherer KI-Modelle, um potenzielle Katastrophen abzuwenden.
Frontier Model: Sicherheit und Leistungsfähigkeit vereint
Anthropic plant, mit dem Frontier Model ein KI-System zu entwickeln, das sowohl leistungsfähig als auch sicher ist. Dabei steht die Vermeidung unvorhersehbaren und unerklärlichen Verhaltens im Vordergrund. Durch den Fokus auf Alignment-Forschung, automatisiertes Red-Teaming, Constitutional AI und weitere Methoden soll ein robustes, hilfreiches und sicheres KI-System entstehen.
Kritik an OpenAI: Umgang mit Risiken und Regulierung
Im Gegensatz zu Anthropic sind die Gründer von OpenAI, Sam Altman und Mina Murati, öffentlich besorgt über die Gefahren großer KI-Modelle wie GPT-4. Trotzdem bleibt die Informationspolitik bezüglich Sicherheitsmaßnahmen undurchsichtig. OpenAI ruft nach staatlicher Regulierung, scheint aber gleichzeitig Time-to-Market und Deployment-Strategien zu priorisieren, die nicht immer im Einklang mit Sicherheitsanforderungen stehen.
Finanzierung und Zukunft: Anthropic auf der Überholspur
Anthropic hat bisher fast eine Milliarde US-Dollar an Wagniskapital eingeworben und plant, weitere 300 Millionen Dollar in einer neuen Finanzierungsrundeufholbare Abhängigkeit zu geraten. Die EU hat daher eine verstärkte Kooperation im Bereich KI-Forschung beschlossen und plant, bis 2025 mindestens 20 Milliarden Euro jährlich in KI-Projekte zu investieren. Doch reicht das aus, um im globalen Wettbewerb mitzuhalten?