Edocti
Fortgeschrittene technische Ausbildung für den modernen Softwareingenieur
Edocti Training

Grundlagen von Deep Learning & Computer Vision

Fortgeschritten
28 h
4.7 (536 Bewertungen)
Grundlagen von Deep Learning & Computer Vision

Modernes DL & CV ‑ Bootcamp: Von OpenCV/NumPy bis zum Trainieren, Evaluieren und Deployen von Vision‑Modellen.

PyTorch‑first Workflows mit optionalen TensorFlow/Keras‑Parallelen üben.

CNNs und Vision Transformers mit klarem Praxisfokus behandeln.

Praktische Erfahrung sammeln durch ~70% Labs mit realen Datensätzen und Projekten.

Nutzen: verlässliche Modelle bauen und per ONNX/TensorRT auf Edge deployen.

Für wen: konzipiert für Personen mit Python/C++‑Grundlagen, die Wahrnehmungsprobleme lösen.

Fokus auf Reproduzierbarkeit, robuste Metriken und verantwortungsvolle Evaluation.

Curriculum

Computer‑Vision‑Grundlagen mit OpenCV
  • Laden/Speichern, Farbräume, Zeichenprimitiven, ROI/Cropping
  • Transformationen: Resize/Rotate/Flip; Bildarithmetik; Masking; Kanal‑Operationen
  • Kernels & Morphologie; Gradienten/Kanten; Beleuchtungsprobleme & Normalisierung
  • Mini‑Lab: Lane‑Detection‑Pipeline
NumPy & Array‑Programmierung
  • ndarray‑Basics, Broadcasting, Views vs Copies
  • Vektorisierung, Speicherlayout, dtype & Präzisions‑Trade‑offs
  • Kleines Lab: eine Faltung implementieren und mit OpenCV vergleichen
Neuronale Netze from scratch (Konzepte)
  • Perceptron, Aktivierungen, Logits & Softmax, Cross‑Entropy
  • Backprop & Gradientenabstieg; Initialisierung & Normalisierung
  • Overfitting vs Generalisierung; Regularisierung – Überblick
PyTorch Essentials (mit TF/Keras‑Parallelen)
  • Tensors, Autograd, Modules; einen Training‑Loop schreiben
  • Datenpipelines: Dataset/DataLoader, Augmentierungen (Albumentations – Basics)
  • Metriken & Evaluation; Konfusionsmatrix; Reproduzierbarkeit (Seed/Determinismus)
  • Mixed Precision (AMP) und Multi‑GPU (DDP) — Überblick + Demo
CNNs, Transfer Learning & Fine‑Tuning
  • CNN‑Bausteine; Receptive Fields & Shapes; Parameter zählen
  • Pretrained Backbones (torchvision/timm) und Head‑Design
  • Freeze/Partial Freeze; differenzierte Learning Rates; Early Stopping
  • Lab: Classifier fine‑tunen; Augmentierungs‑Strategien vergleichen
Detection/Segmentation — schneller Überblick
  • Detektionsfamilien (One‑Stage vs Two‑Stage) — Praxissicht
  • Moderne Optionen: YOLO‑Familie, DETR/RT‑DETR (Überblick); Semantic vs Instance Segmentation
  • Dataset‑Formate, Annotation‑Tools und Evaluation (mAP/IoU) — Basics
Attention & Vision Transformers (praxisnaher Überblick)
  • Intuition zu Self‑Attention; Patches & Embeddings; Positional Encodings
  • ViT/DeiT‑Feintuning‑Workflow
  • Wann CNNs vs ViTs; Compute/Memory‑Aspekte
Optimierung: Trainingsrezepte, die zählen
  • Scheduler (Cosine/One‑Cycle), Weight Decay, Label Smoothing
  • Regularisierung: Dropout, Mixup/Cutmix (Überblick)
  • Stabilitätstipps: Gradient Clipping, Batchgrößen, AMP‑Stolpersteine
  • Experiment‑Tracking: MLflow oder Weights & Biases (kurz)
Verantwortungsvolles CV & Datenqualität
  • Datensatzkurierung & Splits; Leakage & Shortcuts
  • Bias, Robustheit, Augmentierungen vs Distribution Shift
  • Dokumentation von Experimenten und Model Cards (leichtgewichtig)
Deployment auf Edge und in Produktion
  • Export: TorchScript und ONNX; numerische Parität prüfen
  • Beschleunigung: TensorRT / ONNX Runtime / OpenVINO — wann welches Tool
  • Quantisierung (PTQ/QAT), Pruning & Distillation — Nutzen & Trade‑offs
  • Serving: Triton Inference Server; Jetson‑Hinweise

Optionale Module

Optional — Zeitliche Modelle & Tracking
  • Zeitliche Modellierung (RNN/LSTM/GRU vs 1D‑Temporal Convs)
  • Grundlagen des Multi‑Object‑Tracking (Überblick)

Kursablauf

  • Part 1: 09:00–10:30
  • Break: 10:30–10:45
  • Part 2: 10:45–12:15
  • Lunch break: 12:15–13:15
  • Part 3: 13:15–15:15
  • Break: 15:15–15:30
  • Part 4: 15:30–17:30