Modernes DL & CV ‑ Bootcamp: Von OpenCV/NumPy bis zum Trainieren, Evaluieren und Deployen von Vision‑Modellen.
PyTorch‑first Workflows mit optionalen TensorFlow/Keras‑Parallelen üben.
CNNs und Vision Transformers mit klarem Praxisfokus behandeln.
Praktische Erfahrung sammeln durch ~70% Labs mit realen Datensätzen und Projekten.
Nutzen: verlässliche Modelle bauen und per ONNX/TensorRT auf Edge deployen.
Für wen: konzipiert für Personen mit Python/C++‑Grundlagen, die Wahrnehmungsprobleme lösen.
Fokus auf Reproduzierbarkeit, robuste Metriken und verantwortungsvolle Evaluation.
Curriculum
Computer‑Vision‑Grundlagen mit OpenCV
- Laden/Speichern, Farbräume, Zeichenprimitiven, ROI/Cropping
- Transformationen: Resize/Rotate/Flip; Bildarithmetik; Masking; Kanal‑Operationen
- Kernels & Morphologie; Gradienten/Kanten; Beleuchtungsprobleme & Normalisierung
- Mini‑Lab: Lane‑Detection‑Pipeline
NumPy & Array‑Programmierung
- ndarray‑Basics, Broadcasting, Views vs Copies
- Vektorisierung, Speicherlayout, dtype & Präzisions‑Trade‑offs
- Kleines Lab: eine Faltung implementieren und mit OpenCV vergleichen
Neuronale Netze from scratch (Konzepte)
- Perceptron, Aktivierungen, Logits & Softmax, Cross‑Entropy
- Backprop & Gradientenabstieg; Initialisierung & Normalisierung
- Overfitting vs Generalisierung; Regularisierung – Überblick
PyTorch Essentials (mit TF/Keras‑Parallelen)
- Tensors, Autograd, Modules; einen Training‑Loop schreiben
- Datenpipelines: Dataset/DataLoader, Augmentierungen (Albumentations – Basics)
- Metriken & Evaluation; Konfusionsmatrix; Reproduzierbarkeit (Seed/Determinismus)
- Mixed Precision (AMP) und Multi‑GPU (DDP) — Überblick + Demo
CNNs, Transfer Learning & Fine‑Tuning
- CNN‑Bausteine; Receptive Fields & Shapes; Parameter zählen
- Pretrained Backbones (torchvision/timm) und Head‑Design
- Freeze/Partial Freeze; differenzierte Learning Rates; Early Stopping
- Lab: Classifier fine‑tunen; Augmentierungs‑Strategien vergleichen
Detection/Segmentation — schneller Überblick
- Detektionsfamilien (One‑Stage vs Two‑Stage) — Praxissicht
- Moderne Optionen: YOLO‑Familie, DETR/RT‑DETR (Überblick); Semantic vs Instance Segmentation
- Dataset‑Formate, Annotation‑Tools und Evaluation (mAP/IoU) — Basics
Attention & Vision Transformers (praxisnaher Überblick)
- Intuition zu Self‑Attention; Patches & Embeddings; Positional Encodings
- ViT/DeiT‑Feintuning‑Workflow
- Wann CNNs vs ViTs; Compute/Memory‑Aspekte
Optimierung: Trainingsrezepte, die zählen
- Scheduler (Cosine/One‑Cycle), Weight Decay, Label Smoothing
- Regularisierung: Dropout, Mixup/Cutmix (Überblick)
- Stabilitätstipps: Gradient Clipping, Batchgrößen, AMP‑Stolpersteine
- Experiment‑Tracking: MLflow oder Weights & Biases (kurz)
Verantwortungsvolles CV & Datenqualität
- Datensatzkurierung & Splits; Leakage & Shortcuts
- Bias, Robustheit, Augmentierungen vs Distribution Shift
- Dokumentation von Experimenten und Model Cards (leichtgewichtig)
Deployment auf Edge und in Produktion
- Export: TorchScript und ONNX; numerische Parität prüfen
- Beschleunigung: TensorRT / ONNX Runtime / OpenVINO — wann welches Tool
- Quantisierung (PTQ/QAT), Pruning & Distillation — Nutzen & Trade‑offs
- Serving: Triton Inference Server; Jetson‑Hinweise
Optionale Module
Optional — Zeitliche Modelle & Tracking
- Zeitliche Modellierung (RNN/LSTM/GRU vs 1D‑Temporal Convs)
- Grundlagen des Multi‑Object‑Tracking (Überblick)
Kursablauf
- Part 1: 09:00–10:30
- Break: 10:30–10:45
- Part 2: 10:45–12:15
- Lunch break: 12:15–13:15
- Part 3: 13:15–15:15
- Break: 15:15–15:30
- Part 4: 15:30–17:30