Java-Microservices mit KI-Power: Coding mit Spring AI & LangChain4j
placeKöln 10. Mär 2026 bis 12. Mär 2026 |
computer Online: Zoom 10. Mär 2026 bis 12. Mär 2026 |
placeKöln 15. Jun 2026 bis 17. Jun 2026 |
computer Online: Zoom 15. Jun 2026 bis 17. Jun 2026 |
placeKöln 21. Sep 2026 bis 23. Sep 2026 |
computer Online: Zoom 21. Sep 2026 bis 23. Sep 2026 |
Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen
Seminarziel
Nach diesem Seminar beherrschen Sie die Konzepte und Techniken zur Integration von LLMs in Java-Microservices mit Spring AI und LangChain4j. Sie entwickeln eigene KI-gestützte Microservices, binden externe Datenquellen ein, nutzen Prompt Engineering gezielt und bauen Agenten-Workflows auf. Sie verstehen sowohl den konzeptionellen Hintergrund als auch die konkrete Implementierung und sind in der Lage, KI-Funktionen sicher und effektiv in produktive Anwendungen zu überführen.Inhalt
-
Setup und Tooling
- IntelliJ AI-Setup: Dependency Management, Artifact-Repositories
- ChatGPT-Plugin für IntelliJ vs. ChatGPT-Webversion
- IntelliJ AI Assistant vs. Inline-AI-Coding
- Einführung & Zielset…
Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!
Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen
Seminarziel
Nach diesem Seminar beherrschen Sie die Konzepte und Techniken zur Integration von LLMs in Java-Microservices mit Spring AI und LangChain4j. Sie entwickeln eigene KI-gestützte Microservices, binden externe Datenquellen ein, nutzen Prompt Engineering gezielt und bauen Agenten-Workflows auf. Sie verstehen sowohl den konzeptionellen Hintergrund als auch die konkrete Implementierung und sind in der Lage, KI-Funktionen sicher und effektiv in produktive Anwendungen zu überführen.Inhalt
- Setup und Tooling
- IntelliJ AI-Setup: Dependency Management, Artifact-Repositories
- ChatGPT-Plugin für IntelliJ vs. ChatGPT-Webversion
- IntelliJ AI Assistant vs. Inline-AI-Coding
- Einführung & Zielsetzung
- AI-Themen: AI, ML, LLM, NLP, Generative AI, GPTs
- Einsatz von AI in der Softwareentwicklung
- Einordnung von LLMs in Enterprise-Anwendungen
- LLM-Grundlagen & Spring AI Einstieg
- Überblick über LLMs & Chat-Modelle
- Einstieg in Spring AI, Integration in Spring Boot
- Spring-AI-Setup (BOM, Starter, AutoConfig)
- Prompt Engineering & Prompt Templates
- Verstehen von Prompt Injection
- Few-Shot, Zero-Shot, Chain-of-Thought
- Prompt-Strategien: Q&A, Pro/Con, StepwiseChain
- Structured Output: OutputParser, JSON-Mapping
- Advisors API zur Vor- und Nachverarbeitung
- SimpleLoggerAdvisor und Custom Advisor Sample
- AI-gestützte Microservices
- Microservice-Architekturen mit LLM-Integration
- Spring AI ChatClient API als zentrale Schnittstelle
- Unterstützung von Prompt-Komposition, call(), stream(), Rollen (user, system, assistant)
- AI-gestützte reaktive Microservices
- Spring AI ChatClient: Streaming Model
- Antwortübertragung in Echtzeit
- Tool Calling mit Spring AI
- Tool-Integration mit @Tool
- Ablauf: Modell -> Tool-Auswahl -> Ergebnis-Integration
- Integration von realTime APIs
- MCP - Model Control Protocol
- Standardisierter Zugriff auf externe Tools und Ressourcen
- Strukturierter Einsatz in komplexen KI-Anwendungen
- Integration eigener Daten & APIs
- Grounding und Prompt Stuffing zur Datenanreicherung
- RAG - Retrieval Augmented Generation
- Konzept: Daten + Kontext -> intelligente Antwortgenerierung
- Embeddings API
- Vektor-Datenbanken mit Pgvector
- Document Loader und ETL Pipelines
- Konversationsspeicherung mit Chat Memory
- Entwicklung intelligenter, handlungsfähiger KI-Agenten mit
Spring AI
- Einführung in Agentenlogik: Decision Making, Agentic Loop
- Agentic Workflows
- ChainWorker, OrchestratorWorker, ParallelWorker
- Modellgesteuerte Workflows und effektive Agenten
- Verwendung lokaler Modelle (Ollama, chat4all)
- Vorteile lokaler Modelle: Datenschutz, Kostenkontrolle, Offlinefähigkeit
- Testing & Entwicklung
- Testcontainers und Mocking generativer Antworten
Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!
