KI lokal nutzen mit OLLAMA & Co. - Eigene LLMs ohne Cloud betreiben
Ziele der Schulung
In dieser 2-tägigen Schulung "KI lokal nutzen mit OLLAMA & Co. – Eigene LLMs ohne Cloud betreiben" erwerben Sie fundierte Kenntnisse über die Grundlagen von Large Language Models (LLMs), deren Funktionsweise sowie die Unterschiede zwischen Cloud- und lokalen LLMs hinsichtlich Datenschutz, Kosten und Performance. Sie lernen die Installation und Nutzung von OLLAMA und erfahren, wie sie verschiedene Frameworks für lokale LLMs einsetzen können.
Durch praxisorientierte Übungen entwickeln die Teilnehmer eigene LLM-gestützte Anwendungen, optimieren Modelle mittels Feintuning und Prompt Engineering und passen Performance- und Speicheranforderungen an verschiedene Hardware-Setups an.
Am Ende des Seminars sind Sie in der Lage, eigene LLM-Projekte zu entwickeln, zu optimieren und produktiv einzusetzen, wobei auch rechtliche und ethische Aspekte berücksichtigt werden.
Zielgruppe Seminar
- Entwickler und IT-Professionals, die LLMs in eigene Projekte einbinden möchten
- Data Scientists, die KI-Modelle lokal testen oder optimieren wollen
- Unternehmen, die datenschutzfreundliche Alternativen zu Cloud-LLMs suchen
- Technisch versierte Interessierte, die mit lokalen KI-Modellen experimentieren möchten
Voraussetzungen
- Grundkenntnisse in Python und CLI/Terminal-Nutzung sind von Vorteil, aber keine Voraussetzung
- Basiswissen über Machine Learning und KI sind von Vorteil, aber keine Voraussetzung
Lernmethodik
Die Schulung bietet Ihnen eine ausgewogene Mischung aus Theorie und Praxis in einer erstklassigen Lernumgebung. Profitieren Sie vom direkten Austausch mit unseren projekterfahrenen Trainern und anderen Teilnehmern, um Ihren Lernerfolg zu maximieren.
Seminarinhalt
Grundlagen von LLMs
- Was sind LLMs?
- Wie funktionieren LLMs?
- Wo liegen die Herausforderungen?
LLMs in der Cloud oder lokal nutzen
- Unterschiede zwischen Cloud- und lokalen LLMs: Datenschutz, Kosten, Performance
- Installation und erste Nutzung von OLLAMA auf verschiedenen Betriebssystemen
- Überblick über alternative Frameworks für lokale LLMs (llama.cpp, GPT4All, vLLM, DeepSeek, Mistral AI, etc.)
Praxis – Eigene Anwendungen entwickeln
- Nutzung der OLLAMA API für eigene Projekte
- Modell-Optimierung durch Feintuning
- Modell-Optimierung durch Prompt Engineering
- Auswahl eines Modells und Auswahl der lokalen Hardware
- Workshop: Entwicklung eines ersten eigenen LLM-gestützten Tools
Produktive Nutzung und Optimierung
- Einführung in das Benchmarking von LLMs
- Vergleich von Benchmarking-Methoden und Wechsel auf neuere Modelle
- Rechtliche und ethische Aspekte bei der lokalen KI-Nutzung
Open Badge für dieses Seminar - Ihr digitaler Kompetenznachweis

Durch die erfolgreiche Teilnahme an einem Kurs bei IT-Schulungen.com erhalten Sie zusätzlich zu Ihrem Teilnehmerzertifikat ein digitales Open Badge (Zertifikat) – Ihren modernen Nachweis für erworbene Kompetenzen.
Ihr Open Badge ist jederzeit in Ihrem persönlichen und kostenfreien Mein IT-Schulungen.com-Konto verfügbar. Mit wenigen Klicks können Sie diesen digitalen Nachweis in sozialen Netzwerken teilen, um Ihre Expertise sichtbar zu machen und Ihr berufliches Profil gezielt zu stärken.
Übersicht: LLM Schulungen Portfolio
Seminare kurz vor der Durchführung
Termin | Standort | Aktion |
---|---|---|
10.07. - 11.07.2025 | Hamburg | |
14.08. - 15.08.2025 | München | |
18.09. - 19.09.2025 | Köln | |
22.10. - 23.10.2025 | Nürnberg |