Logo

← Zu allen Beiträgen

Aktualisiert: 2026-03-30

KI im Finanzwesen: Warum Ihre Finanzdaten-Infrastruktur gerade obsolet wird

Die Finanzdatenindustrie wird von AI Agents umgebaut. Was das für Research-Teams in PE, VC, Corporate Strategy und Beratung bedeutet — und wie Sie Ihren Daten-Stack jetzt evaluieren.

Leopold Bosankic

Leo ist CEO und Co-Founder von Researchly mit jahrelanger Erfahrung als Investment Manager, KI-Berater & Data Scientist.

LinkedIn Profil

Wenn über KI im Finanzwesen gesprochen wird, geht es meistens um Chatbots in der Kundenberatung oder Fraud Detection im Payment-Bereich. Das sind die offensichtlichen Anwendungen. Die eigentliche Verschiebung passiert woanders: in der Infrastruktur, auf die sich Corporate-Strategy-Teams, VCs und PE-Firmen täglich verlassen.

Bloomberg Terminal: 24.000 Dollar pro Jahr. FactSet: ähnlich. PitchBook, S&P Capital IQ: alle im fünfstelligen Bereich pro Nutzer*In. Diese Preise sind nicht willkürlich. Sie spiegeln ein ökonomisches Modell wider, das über 40 Jahre funktioniert hat. Dieses Modell bricht gerade.

Zum ersten Mal verschiebt sich die Kostenstruktur, mit der aus Rohdaten verwertbare Finanzanalysen werden. Nicht inkrementell, sondern strukturell. Dieser Artikel ist für alle, die Finanzdaten täglich nutzen und kaufen: in Corporate Strategy, Private Equity, Venture Capital oder Beratung.

Warum Finanzdaten bisher so teuer waren

Die Finanzdatenindustrie entstand um ein spezifisches ökonomisches Modell. Umfassende Daten über Unternehmen, Transaktionen und Märkte zu erheben, erforderte enormen manuellen Aufwand. Informationen lagen verstreut in Geschäftsberichten, Pressemitteilungen, Patentdatenbanken, Earnings Calls und Transaktionsregistern. Jemand musste sie finden, extrahieren, kategorisieren, verifizieren und strukturieren.

Bloomberg, FactSet, S&P Capital IQ und PitchBook beschäftigen dafür große Teams von Datenspezialisten. Der typische Workflow: Analyst*Innen sichten Filings, extrahieren Kennzahlen, ordnen Unternehmensattribute zu, prüfen die Ergebnisse, aktualisieren die Datenbank. Dieses Modell skalierte über Labor Arbitrage. Die Datenerfassung wanderte nach Indien, auf die Philippinen, nach Kenia und in andere Märkte mit Stundenlöhnen von 1-2 Dollar.

Die Rechnung ging auf, solange zwei Bedingungen galten:

  1. Menschliche Arbeit war günstiger als die technologische Alternative
  2. Quartalsweise Aktualisierungszyklen waren für den Markt akzeptabel

Wenn beide stimmen, ist ein Mensch, der einen Geschäftsbericht liest und den Kontext versteht, die bessere Option als Software. Qualitätskontrolle funktionierte über Redundanz und Review-Schichten.

Das Modell hatte allerdings eingebaute Grenzen. Studien zeigen, dass menschliche Annotator*Innen bei komplexen Klassifizierungsaufgaben nur 60-70% Übereinstimmung erreichen. Rund 30% der erfassten Daten brauchen Nacharbeit. Optimiert man auf Durchsatz, leidet die Konsistenz. Optimiert man auf Konsistenz, explodieren die Kosten.

Und: Das Modell konnte nur extrahieren, wonach Menschen explizit suchen sollten. Wenn die Taxonomie "SaaS" oder "B2B" enthielt, konnten AnnotatorInnen das taggen. Aber subtile Verschiebungen in der Go-to-Market-Strategie oder sich anbahnende Wettbewerbsdynamiken zu erkennen, erforderte AnalystInnen-Level-Urteilskraft. Und die skalierte auf der Datenverarbeitungsebene schlicht nicht.

Warum es diesmal kein inkrementeller Wandel ist

Beide Bedingungen sind fast gleichzeitig weggefallen.

Erstens: Large Language Models können komplexe Extraktions- und Kategorisierungsaufgaben auf dem Niveau von geschulten Analyst*Innen ausführen. Nicht simples Keyword-Matching, sondern echtes Verständnis von Kontext und Zusammenhängen. Ein Modell liest einen Earnings Call, identifiziert strategische Verschiebungen, extrahiert Wettbewerbspositionierung und synthetisiert Implikationen über mehrere Quellen hinweg.

Zweitens: Die Grenzkosten dieser Verarbeitung sind kollabiert. Was vorher 1-2 Dollar pro Arbeitsstunde kostete, liegt jetzt bei Bruchteilen eines Cents pro Analyse. Das ist keine Effizienzsteigerung von 20%. Das ist eine andere Kostenstruktur.

Aber die Fähigkeitsverschiebung ist wichtiger als die Kostenreduktion. AI Agents können unstrukturierte Daten im großen Maßstab so verarbeiten, wie es vorher wirtschaftlich nicht machbar war.

Traditioneller Workflow Agent-basierter Workflow
Quellen Ausgewählte Filings, News, Transcripts 100.000+ Echtzeitquellen simultan
Output Vordefinierte Datenpunkte in Datenbankfeldern Strukturierte Daten + unstrukturierte Insights
Zeitaufwand pro Unternehmen Stunden bis Tage Minuten
Analysefähigkeit Begrenzt durch Schema und Analyst*Innen-Zeit On-Demand für spezifische Fragestellungen

Der Unterschied ist nicht Geschwindigkeit. Es ist die Art von Fragestellung, die wirtschaftlich machbar wird. "Zeig mir alle Unternehmen in diesem Sektor, die in den letzten sechs Monaten ihre Go-to-Market-Strategie verändert haben." Oder: "Analysiere, wie sich der R&D-Fokus dieses Unternehmens auf Basis von Patent-Filings und Earnings-Diskussionen entwickelt hat." Solche Fragen erfordern Synthese über mehrere unstrukturierte Quellen. Sie waren immer theoretisch möglich. Sie waren nie praktisch skalierbar.

Der Markt hat reagiert. Nachdem Anthropic die Fähigkeiten von Claude im Financial Modeling erweiterte, gab der Kurs von FactSet nach. Nicht wegen eines direkten Produktangriffs, sondern weil Investor*Innen die strukturelle Implikation erkannt haben: Wenn ein LLM dieselben Analyseschritte leisten kann, sinkt die Zahlungsbereitschaft für reine Datenbankzugänge.

Was das für Ihr Research-Team bedeutet

McKinseys aktuelle Erhebung zeigt: 44% der CFOs nutzten GenAI 2025 für mehr als fünf Use Cases. Ein Jahr zuvor: 7%. Das ist keine graduelle Adoption. Das ist ein Phasensprung.

Die Implikationen unterscheiden sich je nach Rolle, aber das Muster ist überall gleich: Der Engpass verschiebt sich vom Datensammeln zum Bewerten und Entscheiden.

Corporate Strategy und M&A

Screening von Akquisitionszielen, das bisher Wochen dauerte, wird in Tagen möglich. AI Agents können öffentliche Quellen, Hiring-Daten, Patent-Filings und Pricing-Informationen zu einem strukturierten Wettbewerbsbild zusammenstellen. Die Analyst*In bewertet. Die Maschine kompiliert.

Private Equity

AI reduziert die Deal-Evaluierung von Wochen auf Tage. PE-Firmen berichten, dass sie 50% mehr Deals evaluieren können, ohne Headcount aufzubauen. Laut einer Umfrage von Citizens Bank sagen 23% der PE-Firmen, dass mindestens drei Viertel ihrer Portfoliounternehmen AI einsetzen. 2024 waren es 8%.

Die Extraktion aus CIMs (Confidential Information Memorandums) liegt mit spezialisierten Tools für automatisierte Due Diligence unter einer Stunde pro Dokument. Bei manueller Bearbeitung: Tage.

Venture Capital

Signal-basiertes Sourcing statt Datenbankabfragen. Wer seinen Deal-Sourcing-Prozess auf AI Agents umgestellt hat, filtert nicht mehr nach Branchen und Funding-Runden. Stattdessen: Traction-Signale, Team-Qualität und Marktbewegungen in Echtzeit.

Beratung

Projektteams, die früher zwei Wochen für eine Marktanalyse brauchten, liefern erste Ergebnisse in Stunden. Der Wert verschiebt sich von der Recherche zur Interpretation. Und damit genau dorthin, wo erfahrene Berater*Innen ihren eigentlichen Wettbewerbsvorteil haben.

Aber: PwC warnt, dass Automatisierung oft Zeitersparnis bringt, die sich nie in strukturelle Kostenreduktion übersetzt. Nur 14% der Mitarbeiter*Innen nutzen AI täglich. Die Firmen, die tatsächlich Ergebnisse sehen, sind diejenigen, die Workflows umbauen. Nicht nur Tools kaufen.

Wer gewinnt, wer verliert

Nicht alle Anbieter stehen vor derselben Herausforderung. Die entscheidende Variable: Worin besteht der tatsächliche Moat?

Bloomberg: Sicher. Der Terminal war nie primär ein Datenverarbeitungsprodukt. Es ist ein Kommunikationsnetzwerk (jeder in Finance nutzt Bloomberg Chat), eine Marke und ein Geflecht aus institutionellen Beziehungen. Bloomberg kann KI-Agenten in Finanzwesen-Workflows integrieren, ohne den Kern-Moat zu gefährden.

PitchBook: Das Datennetzwerk bleibt intakt. Die Beziehungen zu GPs und LPs, die proprietären Private-Market-Daten: das verschwindet nicht, weil sich die Verarbeitungsökonomie ändert. Aber die Analytics-Schicht wird angreifbar. Wer nur für strukturierte Datenbankabfragen zahlt, bekommt das bald günstiger.

FactSet: Bereits unter sichtbarem Druck. Nach Anthropics Ankündigung erweiterter KI-Fähigkeiten für Research-Workflows reagierten FactSet-Aktien mit einem Sell-off. Die Implikation ist klar: Wenn LLMs dieselben Extraktions- und Analyseschritte leisten können, sinkt die Zahlungsbereitschaft für reine Datenzugänge.

Mid-Market-Anbieter: Höchstes Risiko. Wer als Hauptargument "strukturierte Daten zu fairen Preisen" hatte, verliert Differenzierung. Wenn Daten commoditisiert werden und Analyse automatisierbar ist, bleibt nur: überlegene Datenqualität, spezialisierte Domain-Expertise oder eine Infrastruktur, die Fähigkeiten ermöglicht, die niemand sonst hat.

AI-native Plattformen: AlphaSense, Quartr und Harmonic wurden von Anfang an auf Agent-Architekturen gebaut. Kein Technical Debt aus einer anderen Ära. NVIDIAs State of AI in Financial Services zeigt: 42% der Finanzinstitutionen nutzen oder evaluieren bereits Agentic AI. Praktisch jede Institution plant, ihr AI-Budget zu halten oder zu erhöhen.

Anbieter-Typ Moat Risikoeinschätzung
Bloomberg Netzwerkeffekte, Terminal, Marke Niedrig
PitchBook Proprietäre Private-Market-Daten Mittel
FactSet APIs, Integrations-Ökosystem Mittel-Hoch
Mid-Market (diverse) Preis-Leistung Structured Data Hoch
AI-native Plattformen Agent-first Architektur Herausforderer

Wie Sie Ihren nächsten Datenanbieter bewerten sollten

Die nächste Tool-Evaluation in Ihrem Team wird anders laufen als die letzte. Die alten Kriterien reichen nicht mehr.

Altes Kriterium Neues Kriterium
"Welche Daten habt ihr?" "Welche Analysen generiert ihr on-demand?"
Datenbank-Größe Quellenabdeckung + Refresh-Rate
Lizenzkosten pro Seat Total Cost of Ownership (inkl. Analysten-Stunden)
Feature-Liste Architektur (Agent-native vs. Bolt-on)
Historische Datenabdeckung Fähigkeit, unstrukturierte Quellen zu synthetisieren

Interface vs. Infrastruktur: Ein poliertes Dashboard kann veraltete Infrastruktur kaschieren. Fragen Sie nach Daten-Refresh-Raten, Quellenabdeckung und der technischen Architektur. Plattformen, die auf Agent-Architekturen aufgebaut sind, liefern Fähigkeiten, die bei Legacy-Systemen einen kompletten Rebuild erfordern.

Total Cost of Ownership: Der häufigste Fehler bei der Evaluation: nur Lizenzkosten vergleichen. Ein Tool, das fertige Insights liefert statt Rohdaten, die manuell zu Insights werden müssen, kostet pro Seat vielleicht mehr. Aber es reduziert die gesamten Research-Kosten erheblich, weil Kompilierungsarbeit wegfällt.

Die Verschiebung ist keine Frage des Ob. Die Frage ist, ob Ihr Team die neuen Möglichkeiten bereits nutzt, oder ob es den nächsten Budget-Zyklus abwartet, während Wettbewerber den Vorsprung ausbauen.

Vom Daten-Stack zum Intelligence Layer

Die meisten Research-Teams arbeiten mit 5-10 fragmentierten Due-Diligence-Tools, die nicht miteinander sprechen. Das Ergebnis: Analyst*Innen verbringen den Großteil ihrer Zeit mit Kompilieren statt Analysieren.

Drei Outputs, die Ihr Team sofort weiterbringen:

  1. On-Demand Company Analysis — Financials, Wettbewerb und Marktsignale aus 100+ Quellen in einem Report
  2. Automatisierte Competitive Intelligence — Echtzeit-Monitoring von Wettbewerber-Bewegungen ohne manuelle Recherche
  3. Due-Diligence-Entwürfe — Strukturierte Vorabprüfung mit quellenbasierter Evidenz in Stunden statt Wochen

Researchly baut den Intelligence Layer, der fragmentierte Datenquellen zu einem Research-Workflow verbindet. Für Corporate Strategy, PE, VC und Beratungsteams.

14 Tage kostenlos testen →

FAQ

Frequently asked questions

Das könnte Sie auch interessieren

Weitere Einblicke in Marktanalysen, Innovationsmanagement und KI-Automatisierung.