Wenn über KI im Finanzwesen gesprochen wird, geht es meistens um Chatbots in der Kundenberatung oder Fraud Detection im Payment-Bereich. Das sind die offensichtlichen Anwendungen. Die eigentliche Verschiebung passiert woanders: in der Infrastruktur, auf die sich Corporate-Strategy-Teams, VCs und PE-Firmen täglich verlassen.
Bloomberg Terminal: 24.000 Dollar pro Jahr. FactSet: ähnlich. PitchBook, S&P Capital IQ: alle im fünfstelligen Bereich pro Nutzer*In. Diese Preise sind nicht willkürlich. Sie spiegeln ein ökonomisches Modell wider, das über 40 Jahre funktioniert hat. Dieses Modell bricht gerade.
Zum ersten Mal verschiebt sich die Kostenstruktur, mit der aus Rohdaten verwertbare Finanzanalysen werden. Nicht inkrementell, sondern strukturell. Dieser Artikel ist für alle, die Finanzdaten täglich nutzen und kaufen: in Corporate Strategy, Private Equity, Venture Capital oder Beratung.
Warum Finanzdaten bisher so teuer waren
Die Finanzdatenindustrie entstand um ein spezifisches ökonomisches Modell. Umfassende Daten über Unternehmen, Transaktionen und Märkte zu erheben, erforderte enormen manuellen Aufwand. Informationen lagen verstreut in Geschäftsberichten, Pressemitteilungen, Patentdatenbanken, Earnings Calls und Transaktionsregistern. Jemand musste sie finden, extrahieren, kategorisieren, verifizieren und strukturieren.
Bloomberg, FactSet, S&P Capital IQ und PitchBook beschäftigen dafür große Teams von Datenspezialisten. Der typische Workflow: Analyst*Innen sichten Filings, extrahieren Kennzahlen, ordnen Unternehmensattribute zu, prüfen die Ergebnisse, aktualisieren die Datenbank. Dieses Modell skalierte über Labor Arbitrage. Die Datenerfassung wanderte nach Indien, auf die Philippinen, nach Kenia und in andere Märkte mit Stundenlöhnen von 1-2 Dollar.
Die Rechnung ging auf, solange zwei Bedingungen galten:
- Menschliche Arbeit war günstiger als die technologische Alternative
- Quartalsweise Aktualisierungszyklen waren für den Markt akzeptabel
Wenn beide stimmen, ist ein Mensch, der einen Geschäftsbericht liest und den Kontext versteht, die bessere Option als Software. Qualitätskontrolle funktionierte über Redundanz und Review-Schichten.
Das Modell hatte allerdings eingebaute Grenzen. Studien zeigen, dass menschliche Annotator*Innen bei komplexen Klassifizierungsaufgaben nur 60-70% Übereinstimmung erreichen. Rund 30% der erfassten Daten brauchen Nacharbeit. Optimiert man auf Durchsatz, leidet die Konsistenz. Optimiert man auf Konsistenz, explodieren die Kosten.
Und: Das Modell konnte nur extrahieren, wonach Menschen explizit suchen sollten. Wenn die Taxonomie "SaaS" oder "B2B" enthielt, konnten AnnotatorInnen das taggen. Aber subtile Verschiebungen in der Go-to-Market-Strategie oder sich anbahnende Wettbewerbsdynamiken zu erkennen, erforderte AnalystInnen-Level-Urteilskraft. Und die skalierte auf der Datenverarbeitungsebene schlicht nicht.
Warum es diesmal kein inkrementeller Wandel ist
Beide Bedingungen sind fast gleichzeitig weggefallen.
Erstens: Large Language Models können komplexe Extraktions- und Kategorisierungsaufgaben auf dem Niveau von geschulten Analyst*Innen ausführen. Nicht simples Keyword-Matching, sondern echtes Verständnis von Kontext und Zusammenhängen. Ein Modell liest einen Earnings Call, identifiziert strategische Verschiebungen, extrahiert Wettbewerbspositionierung und synthetisiert Implikationen über mehrere Quellen hinweg.
Zweitens: Die Grenzkosten dieser Verarbeitung sind kollabiert. Was vorher 1-2 Dollar pro Arbeitsstunde kostete, liegt jetzt bei Bruchteilen eines Cents pro Analyse. Das ist keine Effizienzsteigerung von 20%. Das ist eine andere Kostenstruktur.
Aber die Fähigkeitsverschiebung ist wichtiger als die Kostenreduktion. AI Agents können unstrukturierte Daten im großen Maßstab so verarbeiten, wie es vorher wirtschaftlich nicht machbar war.
| Traditioneller Workflow | Agent-basierter Workflow | |
|---|---|---|
| Quellen | Ausgewählte Filings, News, Transcripts | 100.000+ Echtzeitquellen simultan |
| Output | Vordefinierte Datenpunkte in Datenbankfeldern | Strukturierte Daten + unstrukturierte Insights |
| Zeitaufwand pro Unternehmen | Stunden bis Tage | Minuten |
| Analysefähigkeit | Begrenzt durch Schema und Analyst*Innen-Zeit | On-Demand für spezifische Fragestellungen |
Der Unterschied ist nicht Geschwindigkeit. Es ist die Art von Fragestellung, die wirtschaftlich machbar wird. "Zeig mir alle Unternehmen in diesem Sektor, die in den letzten sechs Monaten ihre Go-to-Market-Strategie verändert haben." Oder: "Analysiere, wie sich der R&D-Fokus dieses Unternehmens auf Basis von Patent-Filings und Earnings-Diskussionen entwickelt hat." Solche Fragen erfordern Synthese über mehrere unstrukturierte Quellen. Sie waren immer theoretisch möglich. Sie waren nie praktisch skalierbar.
Der Markt hat reagiert. Nachdem Anthropic die Fähigkeiten von Claude im Financial Modeling erweiterte, gab der Kurs von FactSet nach. Nicht wegen eines direkten Produktangriffs, sondern weil Investor*Innen die strukturelle Implikation erkannt haben: Wenn ein LLM dieselben Analyseschritte leisten kann, sinkt die Zahlungsbereitschaft für reine Datenbankzugänge.
Was das für Ihr Research-Team bedeutet
McKinseys aktuelle Erhebung zeigt: 44% der CFOs nutzten GenAI 2025 für mehr als fünf Use Cases. Ein Jahr zuvor: 7%. Das ist keine graduelle Adoption. Das ist ein Phasensprung.
Die Implikationen unterscheiden sich je nach Rolle, aber das Muster ist überall gleich: Der Engpass verschiebt sich vom Datensammeln zum Bewerten und Entscheiden.
Corporate Strategy und M&A
Screening von Akquisitionszielen, das bisher Wochen dauerte, wird in Tagen möglich. AI Agents können öffentliche Quellen, Hiring-Daten, Patent-Filings und Pricing-Informationen zu einem strukturierten Wettbewerbsbild zusammenstellen. Die Analyst*In bewertet. Die Maschine kompiliert.
Private Equity
AI reduziert die Deal-Evaluierung von Wochen auf Tage. PE-Firmen berichten, dass sie 50% mehr Deals evaluieren können, ohne Headcount aufzubauen. Laut einer Umfrage von Citizens Bank sagen 23% der PE-Firmen, dass mindestens drei Viertel ihrer Portfoliounternehmen AI einsetzen. 2024 waren es 8%.
Die Extraktion aus CIMs (Confidential Information Memorandums) liegt mit spezialisierten Tools für automatisierte Due Diligence unter einer Stunde pro Dokument. Bei manueller Bearbeitung: Tage.
Venture Capital
Signal-basiertes Sourcing statt Datenbankabfragen. Wer seinen Deal-Sourcing-Prozess auf AI Agents umgestellt hat, filtert nicht mehr nach Branchen und Funding-Runden. Stattdessen: Traction-Signale, Team-Qualität und Marktbewegungen in Echtzeit.
Beratung
Projektteams, die früher zwei Wochen für eine Marktanalyse brauchten, liefern erste Ergebnisse in Stunden. Der Wert verschiebt sich von der Recherche zur Interpretation. Und damit genau dorthin, wo erfahrene Berater*Innen ihren eigentlichen Wettbewerbsvorteil haben.
Aber: PwC warnt, dass Automatisierung oft Zeitersparnis bringt, die sich nie in strukturelle Kostenreduktion übersetzt. Nur 14% der Mitarbeiter*Innen nutzen AI täglich. Die Firmen, die tatsächlich Ergebnisse sehen, sind diejenigen, die Workflows umbauen. Nicht nur Tools kaufen.
Wer gewinnt, wer verliert
Nicht alle Anbieter stehen vor derselben Herausforderung. Die entscheidende Variable: Worin besteht der tatsächliche Moat?
Bloomberg: Sicher. Der Terminal war nie primär ein Datenverarbeitungsprodukt. Es ist ein Kommunikationsnetzwerk (jeder in Finance nutzt Bloomberg Chat), eine Marke und ein Geflecht aus institutionellen Beziehungen. Bloomberg kann KI-Agenten in Finanzwesen-Workflows integrieren, ohne den Kern-Moat zu gefährden.
PitchBook: Das Datennetzwerk bleibt intakt. Die Beziehungen zu GPs und LPs, die proprietären Private-Market-Daten: das verschwindet nicht, weil sich die Verarbeitungsökonomie ändert. Aber die Analytics-Schicht wird angreifbar. Wer nur für strukturierte Datenbankabfragen zahlt, bekommt das bald günstiger.
FactSet: Bereits unter sichtbarem Druck. Nach Anthropics Ankündigung erweiterter KI-Fähigkeiten für Research-Workflows reagierten FactSet-Aktien mit einem Sell-off. Die Implikation ist klar: Wenn LLMs dieselben Extraktions- und Analyseschritte leisten können, sinkt die Zahlungsbereitschaft für reine Datenzugänge.
Mid-Market-Anbieter: Höchstes Risiko. Wer als Hauptargument "strukturierte Daten zu fairen Preisen" hatte, verliert Differenzierung. Wenn Daten commoditisiert werden und Analyse automatisierbar ist, bleibt nur: überlegene Datenqualität, spezialisierte Domain-Expertise oder eine Infrastruktur, die Fähigkeiten ermöglicht, die niemand sonst hat.
AI-native Plattformen: AlphaSense, Quartr und Harmonic wurden von Anfang an auf Agent-Architekturen gebaut. Kein Technical Debt aus einer anderen Ära. NVIDIAs State of AI in Financial Services zeigt: 42% der Finanzinstitutionen nutzen oder evaluieren bereits Agentic AI. Praktisch jede Institution plant, ihr AI-Budget zu halten oder zu erhöhen.
| Anbieter-Typ | Moat | Risikoeinschätzung |
|---|---|---|
| Bloomberg | Netzwerkeffekte, Terminal, Marke | Niedrig |
| PitchBook | Proprietäre Private-Market-Daten | Mittel |
| FactSet | APIs, Integrations-Ökosystem | Mittel-Hoch |
| Mid-Market (diverse) | Preis-Leistung Structured Data | Hoch |
| AI-native Plattformen | Agent-first Architektur | Herausforderer |
Wie Sie Ihren nächsten Datenanbieter bewerten sollten
Die nächste Tool-Evaluation in Ihrem Team wird anders laufen als die letzte. Die alten Kriterien reichen nicht mehr.
| Altes Kriterium | Neues Kriterium |
|---|---|
| "Welche Daten habt ihr?" | "Welche Analysen generiert ihr on-demand?" |
| Datenbank-Größe | Quellenabdeckung + Refresh-Rate |
| Lizenzkosten pro Seat | Total Cost of Ownership (inkl. Analysten-Stunden) |
| Feature-Liste | Architektur (Agent-native vs. Bolt-on) |
| Historische Datenabdeckung | Fähigkeit, unstrukturierte Quellen zu synthetisieren |
Interface vs. Infrastruktur: Ein poliertes Dashboard kann veraltete Infrastruktur kaschieren. Fragen Sie nach Daten-Refresh-Raten, Quellenabdeckung und der technischen Architektur. Plattformen, die auf Agent-Architekturen aufgebaut sind, liefern Fähigkeiten, die bei Legacy-Systemen einen kompletten Rebuild erfordern.
Total Cost of Ownership: Der häufigste Fehler bei der Evaluation: nur Lizenzkosten vergleichen. Ein Tool, das fertige Insights liefert statt Rohdaten, die manuell zu Insights werden müssen, kostet pro Seat vielleicht mehr. Aber es reduziert die gesamten Research-Kosten erheblich, weil Kompilierungsarbeit wegfällt.
Die Verschiebung ist keine Frage des Ob. Die Frage ist, ob Ihr Team die neuen Möglichkeiten bereits nutzt, oder ob es den nächsten Budget-Zyklus abwartet, während Wettbewerber den Vorsprung ausbauen.
Vom Daten-Stack zum Intelligence Layer
Die meisten Research-Teams arbeiten mit 5-10 fragmentierten Due-Diligence-Tools, die nicht miteinander sprechen. Das Ergebnis: Analyst*Innen verbringen den Großteil ihrer Zeit mit Kompilieren statt Analysieren.
Drei Outputs, die Ihr Team sofort weiterbringen:
- On-Demand Company Analysis — Financials, Wettbewerb und Marktsignale aus 100+ Quellen in einem Report
- Automatisierte Competitive Intelligence — Echtzeit-Monitoring von Wettbewerber-Bewegungen ohne manuelle Recherche
- Due-Diligence-Entwürfe — Strukturierte Vorabprüfung mit quellenbasierter Evidenz in Stunden statt Wochen
Researchly baut den Intelligence Layer, der fragmentierte Datenquellen zu einem Research-Workflow verbindet. Für Corporate Strategy, PE, VC und Beratungsteams.





