- Die großen Sprachmodelle von OpenAI, Google, Anthropic und xAI setzen in Leistung und Verbreitung den Maßstab und führen das Feld an. Meta wurde abgehängt und startet eine neue Aufholjagd.
- Die Nutzerzahlen von KI-Chatbots und die Ausgaben für KI-Anwendungen wachsen rasant; KI-Agenten dürften diesen Trend weiter beschleunigen.
- Investitionen in KI-Hardware und Infrastruktur sind ungebrochen. Neue Akteure wie Sovereign Clouds¹ ergänzen die Ausgaben der Cloud-Anbieter.
- Unsere globalen Strategien bleiben im Megatrend KI investiert. Wir erwarten, dass der Wachstumstrend bei Halbleiterunternehmen wie Nvidia, Broadcom TSMC und BE Semiconductor in den kommenden Quartalen anhält. KI-Anwendungen und Agenten könnten das Wachstum der Cloud-Anbieter Microsoft und Amazon sowie von Meta als auch von SaaS-Unternehmen (Software as a Service-Unternehmen) wie ServiceNow und Datadog beflügeln.
- In den europäischen Strategien setzen wir bei KI vor allem auf die Halbleiterausrüster ASML, ASM International und BE Semiconductor sowie auf die KI-Schwergewichte SAP und Schneider Electric.
In unserem ersten Paper "Investitionen in KI jenseits des Hypes" haben wir die verschiedenen Phasen der KI-Entwicklung entlang der Wertschöpfungskette vorgestellt, siehe Abbildung 7. Wir gehen davon aus, dass die Wachstumsphase bei Infrastruktur und Anwendungen bereits begonnen hat.
Große Sprachmodelle (LLMs) wurden anfangs oft als austauschbare Commodities in einem „race to the bottom“ abgetan. Inzwischen zeigt sich jedoch eine klare Dominanz der „großen Vier“, deren Rolle Parallelen zu Betriebssystemen aufweist. Zudem steigen die KI-Ausgaben sowohl auf Unternehmens- als auch auf Konsumentenseite und Chatbots erfreuen sich wachsender Beliebtheit. Wir erläutern die Gründe für dieses rasante Wachstum und beleuchten den Erfolg von ChatGPT. KI-Agenten stellen die nächste Evolutionsstufe klassischer Chatbots dar und können komplette Arbeitsabläufe eigenständig abschließen. Wir zeigen, weshalb das Marktwachstum erst am Anfang steht und welche Faktoren für einen deutlich größeren Gesamtmarkt sprechen.
Nach den Zollandrohungen durch Donald Trump Anfang April wuchs bei Investoren die Sorge, dass die hohen Ausgaben für Künstliche Intelligenz in Zeiten zunehmender wirtschaftlicher Unsicherheit zurückgefahren werden könnten. Aufgrund der oben beschriebenen Nachfragefaktoren gehen wir jedoch weiterhin von robusten Investitionen aus. Darüber hinaus treten mit Sovereign Clouds neue Akteure auf, die zusätzliche Wachstumsfelder für Halbleiterunternehmen eröffnen. Wir quantifizieren die Größenordnungen und nennen die Spieler, die im kommenden Jahr besonders im Blick behalten werden sollten. Zusätzlich beleuchten wir die Profiteure der Investitionen in TSMCs N2 Technologieknoten.
Die „großen Vier“ und die Zukunft von LLMs
Die technologische Entwicklung bei LLMs schreitet mit bedeutenden Upgrades im Rhythmus von drei bis sechs Monaten rasant voran. Wie in Abbildung 1 zu sehen, ist das Rennen um das leistungsfähigste KI-Modell in vollem Gange. Ein echtes Kopf-an-Kopf-Rennen ist zwischen Googles Gemini, OpenAIs ChatGPT, Anthropics Claude und seit Kurzem auch xAIs Grok von Elon Musk entbrannt. In den vergangenen Monaten konnten sich die Marktführer weiter vom Rest absetzen. Trotz einer der führenden Technologien dürfte sich DeepSeek im westlichen Enterprise-Segment aufgrund seiner chinesischen Eigentümer nur schwer durchsetzen.
Metas Llama war phasenweise deutlich abgeschlagen, jedoch startete Meta-CEO Mark Zuckerberg eine Aufholjagd mit einer aggressiven Talent-Offensive. Er gewann bereits Spitzenforscher von OpenAI und Google DeepMind und holte Scale-AI-Gründer Alexandr Wang ins Boot. Parallel sichert sich Meta über eine 49%-Beteiligung an Scale AI strategischen Zugang zu hochwertigen Trainingsdaten.
Abbildung 1: xAI, OpenAI, Google und Anthropic führen den Artificial Analysis In-telligence Index¹ an
Wir sehen bei Unternehmen zunehmende Akzeptanz der Modelle und steigende Ausgaben, wie in Abbildung 2 dargestellt. Ursprünglich stempelten manche ExpertInnen LLMs als „race to the bottom“ und austauschbare Commodities ab. Einige wenige Modelle setzen sich jedoch vom Wettbewerb ab und weisen bereits Züge eines Betriebssystems auf: Sie bieten Kern-APIs, Entwickler-Ökosysteme und Vertriebsmodelle, auf denen Dritte eigenständige „Apps“ aufbauen. KI-Agenten, auf die wir später eingehen, sind ein prominentes Beispiel. Kurz gesagt: Die Kontrolle über führende LLMs, die nötigen Computer-Ressourcen, proprietäre Daten sowie Anwendungen, in denen diese Modelle verankert sind, bleiben ein entscheidender Baustein künftiger Technologiedominanz.
Abbildung 2: Anteil der US-Unternehmen mit kostenpflichtigem Abo für KI-Modelle inkl. Plattformen und Tools - OpenAI ist der Hauptprofiteur
Starkes Wachstum von KI-Chatbots
Seit der Einführung von OpenAIs ChatGPT Ende 2022 haben zahlreiche KI-Chatbots ein starkes Wachstum verzeichnet. Dank präziser, kontextbezogener Antworten erfreuen sie sich großer Beliebtheit bei den Nutzern. ChatGPT ist mit Abstand die am schnellsten wachsende Applikation für Konsumenten im Internetzeitalter, wie in Abbildung 3 dargestellt, und führt das Feld der Chatbots an. Dank der Veröffentlichung des kostenlosen Spitzenmodells GPT-4o, einer tieferen OS-Integration bei Apple, neuer Enterprise-Funktionen und teils drastischer Preissenkungen, wie etwa 20% günstigere ChatGPT-Abos und ein 80 % günstigerer o3-API-Tarif, verzeichnete OpenAI im ersten Halbjahr 2025 sein bislang stärkstes Wachstum.
Abbildung 3: ChatGPT ist die am schnellsten wachsende Applikation
Wie in Abbildung 4 dargestellt, sind Chatbots im Vergleich zum Traffic der Google-Suche zwar noch deutlich kleiner, gewinnen jedoch rasch an Bedeutung: ChatGPT.com war im Juni 2025 eine der weltweit meistbesuchten Webseiten, während Google.com unverändert Platz 1 hält. KI-Chatbots haben sich damit als wichtiges Werkzeug für Websuchen, Recherchen und zur Steigerung der Produktivität etabliert. ChatGPT verfügt über die bei Weitem stärkste Consumer-Marke und erzielt dank personalisierter Suchdialoge einen signifikanten User-Lock-in.
Abbildung 4: KI-Chatbots zeigen starkes Wachstum vs. Google Search
KI-Agenten als die nächste „Killer-App“
Mehrere Indikatoren sprechen dafür, dass wir in die nächste Entwicklungsphase von KI eintreten. KI-Agenten stellen die nächste Evolutionsstufe klassischer Chatbots dar: Sie leiten Ziele selbstständig ab, erstellen mehrstufige Pläne und führen Aktionen in externen Tools aus; von Code-Ausführung über API-Aufrufe bis hin zu Robotic-Process-Automation. Offene Frameworks (z. B. AutoGPT, LangChain) und tief integrierte Produkt-Features (Microsoft Copilot, Salesforce Agentforce, ServiceNow AI Agent) markieren die Bandbreite der Lösungen. Produktseitig dominieren unterschiedliche Lösungen:
- Anwendungsspezifische Agenten, wie beispielsweise Produktivitätstools für Softwareentwickler in Form von Cursor AI, Github Copilot oder Devin.
- Kollaborations-Agenten in SaaS-Suites wie Microsoft Copilot, ServiceNow Agent, Salesforce AgentForce und SAPs Joule Copilot.
- Frameworks zur Entwicklung maßgeschneiderter Agenten-Workflows wie AutoGPT und LangChain.
Die erste messbare Umsatzchance liegt im Coding-Segment: Weltweit gibt es rund 40 Mio. Softwareentwickler. Der Markt für Entwickler- und Produktivitäts-Software beläuft sich 2025 bereits auf über USD 90 Mrd. und wächst zweistellig.² Code-Agenten erwirtschaften hiervon inzwischen einen signifikanten Teil. Bei den großen Tech-Konzernen stammen heute grob ein Viertel bis ein Drittel des neu geschriebenen Codes bereits von KI-gestützten Code-Agenten. GitHub Copilot und Cursor AI erzielen jährliche wiederkehrende Umsätze von über USD 0,5 Mrd.³ Devin adressiert Power-User mit Preisen von bis zu USD 500 pro Monat (Team-Plan), während Cursor seit Juni 2025 ein Ultra-Abo für USD 200 pro Monat anbietet, für welches die Produktivitätsgewinne (Zeitersparnis, Fehlerreduktion) ein Vielfaches betragen.⁴
Code-Agenten sind jedoch erst der Anfang: Agentische Systeme versprechen komplette End-to-End-Prozesse in Unternehmen zu automatisieren, Kosten drastisch zu senken und neue Geschäftsmodelle zu ermöglichen – etwa automatisierte Kundenservice-Workflows oder Supply-Chain-Optimierungen. Wir denken, dass der Nutzen und das Marktpotential langfristig unterschätzt wird.
Für Software-Unternehmen ist die Entwicklung ein zweischneidiges Schwert. Zum einen wird die Entwicklung von Software vermutlich günstiger, zum anderen befeuert es den Wettbewerb durch neue Anbieter. Wir bevorzugen jene Software-Firmen, die auf der Welle der Nachfrage an Rechenleistung der Infrastrukturanbieter, wie der Cloud-Anbieter, reiten. Zudem möchten wir ein einzigartiges Datenset, eine starke Distributionsmacht und idealerweise eine starke Position in industriespezifischen Anwendungsbereichen sehen.
Kein Wendepunkt für Halbleiterinvestitionen
Nach den Zoll-Androhungen durch Donald Trump Anfang April war die Sorge unter Investoren zunächst groß: Werden die hohen Investitionen im Bereich Künstliche Intelligenz trotz zunehmender wirtschaftlicher Unsicherheit fortgeführt werden? Inzwischen zeichnet sich ein klareres Bild ab, nämlich, dass sich KI-Investitionen, trotz anhaltender wirtschaftlicher Unsicherheit, über die kommenden Monate weiter beschleunigen dürften. Ursächlich hierfür ist insbesondere die rasant wachsende praktische Nutzung be-reits entwickelter Modelle und ein damit verbundenes exponentielles Token-Wachstum. „Reasoning“-Modelle, also KI-Systeme, die komplex schlussfolgern, planen und agentenhaft handeln können, erfordern im Vergleich zu einfachen Chat-Bots häufig das Hundert- bis Tausendfache an Rechenleistung. Die Folge ist ein anhaltender Nachfrageanstieg nach Hochleistungs-Chips, wobei das verfügbare Angebot nicht ausreicht, um die gewünschten Kapazitäten zu bedienen.
Die Nachfrage kommt zum einen von den vier Big Tech-Anbietern. So haben Microsoft, Amazon, Google und Meta Platforms ihre Gesamtinvestitionen seit der Einführung von ChatGPT mehr als verdoppelt und sehen, mit Ausnahme von Microsoft, seit Jahresbeginn weitere deutliche Anstiege bei den Investitionsplänen (vgl. Abbildung 5). Daneben sind über die letzten Monate eine Reihe von Großprojekten entstanden:
- Stargate, ein Konsortium aus OpenAI, Oracle, MGX und Softbank, welches in den USA binnen vier Jahren ein umfangreiches Netz aus KI-Rechenzentren für bis zu 500 Mrd. USD aufbauen möchte.⁵
- „Colossus“, ein Supercluster von Elon Musks Unternehmen xAi, welches laut Angaben des Konzerns bis zu 1 Million Grafikprozessoren in seinen Rechenzentren nutzen könnte. Dies würde geschätzte 30-60 Mrd. USD an Gesamtinvestitionen bedeuten.⁶
- Diverse KI-Rechenzentrumsbetreiber, die außerhalb der oben genannten Top 4 umfangreiche Investitionen in Halbleiter vornehmen. Hierunter fallen Unternehmen wie CoreWeave, Lambda Labs, Nebius oder Cerebras Cloud sowie traditionellere Anbieter wie Oracle, die sich für die Bereitstellung von Rechenleistung neu positionieren.⁷
Es bleibt abzuwarten, welche Projekte tatsächlich in welchem Umfang umgesetzt werden. Dennoch suggerieren die bisher bekannten Pläne einen weiteren deutlichen Nachfrageanstieg über die kommenden Jahre.
Abbildung 5: Amazon hat die stärksten Analystenrevisionen der Investitionsausgaben der 4 „Big Tech“-Anbieter für 2025, in Mrd. USD
Neben privaten Geldgebern ruft die starke Nachfrage nach Künstlicher Intelligenz auch staatliche Akteure auf den Plan. Ähnlich wie Regierungen früher Schienennetze oder Infrastrukturprojekte finanzierten, fließen nun im Rahmen sogenannter „Sovereign AI“ Milliarden in KI-Rechenzentren und nationale Datenplattformen, die zunehmend an strategischer Relevanz gewinnen. Anschauliche Beispiele hierfür stellte Nvidia kürzlich auf seiner GTC-Konferenz in Paris vor. Aktuelle Planungen beziehen sich unter anderem auf:
- Den Ausbau von KI-Rechenleistung in Europa über die kommenden 24 Monate. Geplant sind ca. 20 KI-Zentren, welche die GPU-Rechenleistung auf dem Kontinent um ca. das Zehnfache steigern könnten. Hierzu sollen große Servercluster in Deutschland, Frankreich und Großbritannien installiert werden.
- Konkrete Projekte umfassen beispielsweise ein 18.000-GB200-System in Frankreich, ein 14.000 Blackwell-System von Nebius und Nscale im Vereinigten Königreich sowie eine ca. 10.000 GPUs umfassende industrielle KI-Cloud in Deutschland für Automobilhersteller und Robotikunternehmen.⁸
- Außerhalb Europas hat Saudi-Arabien ein KI-Investitionsprogramm namens „Project Transcendence“ angekündigt, welches bis zu 100 Mrd. USD für den Aufbau von „KI-Fabriken der Zukunft“ bereitstellen soll. Ziel ist es, ein eigenständiges nationales KI-Ökosystem zu schaffen und weite Teile der Wertschöpfungskette von Cloud über Rechenzentren bis zu eigenen KI-Modellen abzudecken.⁹
Neben den Hochleistungs-GPUs (Graphics Processing Unit) von Nvidia rückt maßgeschneidertes „Custom Silicon“ immer stärker in den Fokus. Inzwischen entwickeln alle großen Cloud-Anbieter eigene Spezialchips, die passgenau auf die Anforderungen ihrer Kunden ausgelegt sind. Für bestimmte Workloads und Anwendungsszenarien ist diese Lösung oft deutlich kostengünstiger als der Einsatz von Nvidias High-End-Chips. Hierunter fallen:
- Googles Tensor Processing Unit (TPU), welche primär für interne Workloads (Google Search, YouTube, etc.) eingesetzt wird. TPUs werden bereits seit 2016 zusammen mit Broadcom in der inzwischen 8. Generation entwickelt.
- Metas MTIA Prozessor, welcher Backend-Funktionalitäten wie Deep Learning, Werbeauswahl- und Ranking sowie die KI-Tools des Unternehmens auf Plattformen wie Instagram und Facebook unterstützt.
- Weitere Programme mit Bytedance, OpenAI und Arm. Die meisten dieser Programme befinden sich noch in einem frühen Stadium und sollen über die kommenden 24 Monate in die Produktion überführt werden. Broadcom erwartet, dass jeder dieser Kunden über die Zeit Cluster mit mehr als 1 Million Chips aufbaut.
Insgesamt erwarten wir, dass der Anteil von KI-Spezialchips an allen beschleunigten Rechenlasten in den kommenden Jahren von 12 % auf ca. 25-35% ansteigen kann. Broadcom hat sich in diesem Zusammenhang als der führende Co-Design-Partner für Custom Silicon etabliert. Aufgrund der starken und visiblen Auftragslage durch Großkunden erwartet das Unternehmen für 2026 im KI-Bereich bereits heute ein Wachstum von 60% gegenüber dem Vorjahr.
Die beschriebenen Entwicklungen stellen nur einen Auszug dar, verdeutlichen aber, dass die Nachfrage nach Hochleistungs-Chips inzwischen auf deutlich breiteren Beinen steht. Aufgrund der steigenden Nachfrage durch Cloud-Anbieter, staatliche Aufträge und Großunternehmen sieht Nvidia als Marktführer inzwischen eine Pipeline von ca. 1,5 Billionen USD an KI-Gesamtinvestitionen, was weiteres Wachstum für die kommenden Jahre in Aussicht stellt.¹⁰
Abbildung 6 führt die beschriebenen Entwicklungen zusammen. In 2022-24 war das Wachstum bei KI-Investitionen noch maßgeblich durch die vier großen „Big Tech“ Anbieter (Amazon, Microsoft, Google, Meta Platforms) getrieben. Über die kommenden Jahre werden jedoch Tier 2 Cloud-Anbieter, staatliche Projekte, Enterprise Applikationen und Custom Silicon eine zunehmend zentralere Rolle einnehmen. Dies führt zu einer wachsenden Divergenz in den erwarteten Ausgabentrends, welche die Abbildung verdeutlicht.
Auch wenn hinsichtlich zyklischer Einflussfaktoren, schneller Modellinnovationen und Exportrestriktionen weiterhin Risiken bestehen, deuten die meisten Datenpunkte auf ein anhaltend starkes Wachstum bei KI-Investitionen in diesem und im kommenden Jahr hin. Der globale Ausbau von Rechenzentren könnte auch traditionellen Industrieunternehmen wie Schneider Electric zugutekommen. Als einer der weltweit führenden Anbieter von hocheffizienten Energie-, Kühl- und USV-Systemen könnte Schneider von der steigenden Nachfrage in diesem Markt profitieren.
Abbildung 6: Das Wachstum bei KI-Investitionen ist zunehmend durch neue Akteure getrieben
Halbleiterausrüster profitieren von TSMCs neuem Technologieknoten
Die anhaltend starke Nachfrage nach KI-Chips und die nächste Smartphone-Generation treiben das Produktionswachstum bei TSMC. Der Auftragsfertiger ist bei High-End-KI-Chips von Nvidia, AMD, Broadcom und anderen, de facto der einzige Anbieter und profitiert von Verzögerungen bei Intel, welche dessen Einstieg in die Fertigung führender KI-Chips vermutlich bis 2027/28 hinauszögern. Daraus ergibt sich bis dahin eine quasi-monopolistische Stellung des Unternehmens bei der Fertigung von Hochleistungs-Chips der neusten Generation.
TSMCs neuer 2-nm-Technologieknoten (N2) soll Ende dieses Jahres in die Serienfertigung gehen. Eine hohe Auslastung dürfte die Investitionsbereitschaft der Halbleiterausrüster ASML, ASM International (ASMI) und BE Semiconductor Industries (Besi) zusätzlich befeuern; alle drei verfügen in ihren Segmenten über dominierende Marktstellungen:
- ASML hält das Monopol in der Lithografie. Der Wechsel auf N2 erfordert zusätzliche Extreme-Ultraviolet-(EUV-)Anlagen der neuesten Generation.
- ASMI ist führend bei Atomic-Layer-Deposition-(ALD-)Systemen. ALD ist Schlüsseltechnologie für die Gate-All-Around-(GAA-)Transistorarchitektur, die niedrigeren Stromverbrauch, höhere Leistung und geringere Wärmeentwicklung ermöglicht.
- Besi dominiert den Markt für Hybrid-Bonding-Anlagen. Diese Technik verbindet unterschiedliche Chip-Bauteile in dreidimensionalen Stapeln, was bei immer größeren und komplexeren KI-Chips Leistungs-, Effizienz- und Kostenvorteile schafft.
In Summe dürften die eng miteinander verknüpften Technologiesprünge bei TSMC und die Ausrüster-Oligopole von ASML, ASMI und Besi einander bis mindestens 2027/28 gegenseitig verstärken.
Fazit: Wachstum und Monetarisierung von KI nimmt Fahrt auf. Chip Investments gehen in die nächste Runde.
Wir sehen klare Signale dafür, dass die nächste Phase des KI-Zyklus bereits begonnen hat. In unserem ersten Paper „Investitionen in KI jenseits des Hypes“ haben wir in Abbildung 7 die Aktienkursentwicklung des mobilen Internets als Vergleichsmaßstab herangezogen. Während 2023 und 2024 vor allem Chatbots und Anwendungen mit begrenzter Intelligenz auf den Markt kamen, führen Fortschritte beim Training und bei der Inferenz großer Sprachmodelle nun zu deutlichen Qualitäts- und Geschwindigkeitssprüngen. Das hat ein explosionsartiges Wachstum sowohl der Chatbot-Nutzerzahlen als auch der Unternehmensadoption von KI-Applikationen ausgelöst. Dieser erhöhte Bedarf an Rechenleistung treibt wiederum kräftige Investitionen in Halbleiter an.
Vor diesem Hintergrund bleiben wir für den KI-Sektor konstruktiv: Nvidia ist nach wie vor die unangefochtene Nummer 1 bei GPUs, während Broadcom den Markt für kundenspezifische Chips („custom silicon“) dominiert. Die Fertigung solcher Bausteine ist derzeit ausschließlich mit den Werken und dem Know-how von TSMC möglich. Halbleiterausrüster ASML, ASMI und Besi profitieren von den Investitionen in TSMCs N2 Technologieknoten, der Ende dieses Jahres in die Serienfertigung geht.
Auf der Anwendungsseite hat sich ChatGPT mit über 800 Millionen monatlich aktiven Nutzern als klar führender Chatbot etabliert. Die stärkste Wachstumsbeschleunigung sehen wir bei den LLM-Anbietern OpenAI und Anthropic. In unseren globalen Aktienstrategien sind wir über Microsoft indirekt an OpenAI beteiligt, über Amazon indirekt an Anthropic. Microsoft profitiert durch seine Cloud-Partnerschaft mit OpenAI und ein wesentlicher Teil von Anthropics Rechenlast wird über Amazon Web Services (AWS) abgewickelt. Alle Cloud-Anbieter könnten zudem von der steigenden Nachfrage nach Rechenleistung für KI-Applikationen und KI-Agenten profitieren. SAP besitzt im Daten-Layer großer Unternehmen eine ausgesprochen starke Position und rechnet mit einem beschleunigten Wachstum, weil Firmen im KI-Zeitalter ihre ERP-Systeme (Enterprise Resource Planning-Systeme) verstärkt in die Cloud migrieren müssen. Der weltweite Ausbau von Rechenzentren befeuert das Geschäft von Schneider Electric, das als führender Anbieter hocheffizienter Energie- und Kühl-Systeme unmittelbar von der steigenden Nachfrage profitieren könnte.
Für Softwareunternehmen ist KI eine Chance und ein Risiko zugleich, weil es die Eintrittsbarrieren für neue Wettbewerber senkt. Datadog dürfte dank neuer Produkte und KI-Anwendungsfälle vom Wachstum der Cloud-Anbieter profitieren. Wir gehen davon aus, dass ServiceNow führend bleibt bei KI-gestützten Workflow- und Produktivitätslösungen.
Abbildung 7: Monetarisierungszyklus im mobilen Zeitalter

Martin Hermann
Martin Hermann ist seit Oktober 2017 Portfoliomanager bei Berenberg. Vor seinem Wechsel zu Berenberg war er als Portfoliomanager und Vice President innerhalb des mehrfach ausgezeichneten „Europe Equity Growth Team“ bei Allianz Global Investors tätig. Er war unter anderem als stellvertretender Fondsmanager für den International Equity Growth Fund verantwortlich. Er begann seine Karriere 2010 als Investment Trainee des Graduate Programms bei Allianz Global Investors. Martin Hermann hält einen Master in Investment Analysis und Corporate Finance der Universität Wien und ist außerdem CFA Charterholder.

Tim Gottschalk
Tim Gottschalk ist seit Januar 2022 Portfoliomanager bei Berenberg. Er begann seine berufliche Laufbahn im Berenberg International Graduate Programme mit Einsätzen im Asset Management, Wealth Management und Equity Research. Tim Gottschalk hält einen Bachelor of Science in Business Administration und einen Master of Science in Finance mit Distinction von der Universität zu Köln mit Auslandsaufenthalten in Dublin und Stockholm.