LLM-Entwicklung und Deployment - Kompaktkurs

-
In diesem fünftägigen Kurs lernen Sie, wie moderne LLM-Anwendungen aufgebaut, erweitert und produktiv eingesetzt werden. Sie entwickeln eigene RAG-Pipelines, arbeiten mit Tools wie LangChain, FAISS und Docker und setzen professionelle Deployment- und Monitoring-Strategien um.
-
Dieser Kompaktkurs vermittelt Ihnen praxisnahes Wissen zur Entwicklung und zum Betrieb moderner Large Language Model-Anwendungen. Sie lernen die grundlegenden Bausteine aktueller LLM-Architekturen kennen und entwickeln systematisch eigene Prompts und RAG-Pipelines. Ein besonderer Fokus liegt auf der Integration externer Wissensquellen mithilfe von LangChain oder LlamaIndex sowie dem Aufbau produktionsreifer Query-Antwort-Systeme mit Logging, API-Anbindung und semantischer Suche.
Abschließend beschäftigen Sie sich mit Infrastruktur, Sicherheit und Governance. Sie lernen, wie Sie LLM-Anwendungen mit Docker containerisieren, via FastAPI bereitstellen, überwachen und skalieren – inklusive Guardrails, Token-Tracking und Prompt-Management.
Angesprochener Teilnehmerkreis:
Technisch orientierte Fachkräfte, Entwickler, ML Engineers, AI-Produktmanager und alle, die LLMs systematisch entwickeln, erweitern und produktiv einsetzen möchten.Kursziel:
Teilnehmende sind in der Lage, LLM-gestützte Anwendungen zu entwickeln, externe Datenquellen einzubinden, produktionsreife Systeme mit RAG zu betreiben und diese sicher, skalierbar und nachvollziehbar zu verwalten. -
- Grundlagen & Architektur moderner LLMs
- Überblick Transformer, Kontext, Tokenisierung
- Prompt Design (Zero-/Few-Shot, System Prompts)
- Unterschiede zu klassischen NLP-Verfahren
- Hands-on: effektive Prompts entwickeln
- Retrieval-Augmented Generation (RAG) Essentials
- Rolle von Embeddings und Vektorsuche
- Praktische Arbeit mit FAISS, ChromaDB
- Integration externer Quellen über LangChain / LlamaIndex
- Aufbau einer einfachen RAG-Pipeline
- Erweiterte RAG-Pipelines in der Praxis
- Datenvorbereitung & semantische Abfragen
- Tool-Ketten in LangChain
- Query-Antwort-System mit API-Anbindung
- Best Practices: Trennung von Modell- und Wissenskomponente
- LLMOps – Deployment & Infrastruktur
- Deployment-Strategien: Hosted vs. On-Premise
- Containerisierung (Docker), Frameworks (FastAPI, BentoML)
- Monitoring & Logging (LangSmith, Weights & Biases, OpenTelemetry)
- Prompt- & Model-Management
- LLMOps – Governance, Security & Skalierung
- Sicherheit (Prompt Injection, Datenschutz, Auditierbarkeit)
- Kostenkontrolle: Token-Tracking, Caching, Request-Management
- CI/CD für LLM-Anwendungen
- Abschlussprojekt: Bau einer produktionsreifen Anwendung mit RAG, Logging, Monitoring & Guardrails
- Grundlagen & Architektur moderner LLMs
-
Solide Kenntnisse in Python und Grundverständnis von API-Nutzung, Machine Learning oder Cloud-Infrastruktur sind erforderlich. Erfahrung mit Tools wie Jupyter, VS Code oder Docker ist hilfreich.
Anmeldung
Preis
Teilnahmegebühr
ab 2.590,00 €
(3.082,10 € inkl. 19% MwSt.)
Durchführung ab 1 Teilnehmenden (mehr lesen ...)
Im Preis enthalten sind PC-COLLEGE - Zertifikat, Pausenverpflegung, Getränke und Kursmaterial.
-
27 Kunden haben bereits die Schulung:
LLM-Entwicklung und Deployment - Kompaktkurs gebucht. (innerhalb der letzten 24 Monate als offenes Seminar, Firmenschulung oder Workshop)
-
-
Bildungsanbieterauszeichnung
Wir wurden im Internationalen Bildungsanbieter-Elite-Ranking (IBER) der performNET AG mit der Höchstwertung von fünf Sternen ausgezeichnet.
PC-COLLEGE schreibt Kundenorientierung groß und hält Qualitätsstandards dauerhaft auf einem sehr hohem Niveau.
-
Schulungsexperte seit 1985
Wir haben mehr als 30 Jahre Schulungserfahrung. Dabei setzen wir auf Trainerinnen und Trainer mit langjähriger didaktischer und praktischer Erfahrung.
-
Nachbetreuung
Auch nach dem Seminar sind wir für Sie da. Vier Wochen nach jedem Training stehen wir Ihnen kostenfrei für programmspezifische Fragen zur Verfügung.
- ... alle Vorteile auf einen Blick
-
-
SeNr. Seminar Termin Dauer Standorte LMK
251117LLM-Entwicklung und Deployment
- Kompaktkurs17.11. - 21.11.2025 5 Tage Berlin LMK
260209LLM-Entwicklung und Deployment
- Kompaktkurs09.02. - 13.02.2026 5 Tage Berlin LMK
260413LLM-Entwicklung und Deployment
- Kompaktkurs13.04. - 17.04.2026 5 Tage Berlin LMK
260601LLM-Entwicklung und Deployment
- Kompaktkurs01.06. - 05.06.2026 5 Tage Berlin LMK
260727LLM-Entwicklung und Deployment
- Kompaktkurs27.07. - 31.07.2026 5 Tage Berlin LMK
260921LLM-Entwicklung und Deployment
- Kompaktkurs21.09. - 25.09.2026 5 Tage Berlin LMK
261116LLM-Entwicklung und Deployment
- Kompaktkurs16.11. - 20.11.2026 5 Tage Berlin
Verwandte Seminare/Schulungen
erfolgreich
sein!
- Präsenzschulung:
Ein Schulungserlebnis vor Ort
mit persönlichen Kontakten - Online-Schulung:
Modernes und interaktives
Live-Online-Training in
Echtzeit











