KI-gestützte
CAD-Diagramm
Analyse
Automatisierte Auswertung hochauflösender CAD-Konstruktionszeichnungen mittels großer Sprachmodelle (LLM) — vollständig intern, sicher und offline.
Digital Ocean
Cloud — Was steckt dahinter?
In Version 1 wurde das KI-Sprachmodell (LLM) auf einem Server bei Digital Ocean — einem amerikanischen Cloud-Anbieter — gehostet. Mitarbeiter stellten über eine Webseite Fragen zu den CAD-Zeichnungen. Die Daten reisten dabei über das öffentliche Internet.
Datentransfer
Was müsste das Unternehmen ändern, um Cloud zu nutzen?
Der Internetverkehr zu den Digital Ocean Servern müsste explizit durch die Unternehmens-Firewall genehmigt werden. Dies erfordert eine Anpassung der IT-Sicherheitsrichtlinien.
Mit Digital Ocean müsste ein rechtsgültiger Data Processing Agreement (DPA) nach DSGVO-Standard abgeschlossen werden. Ohne diesen Vertrag ist die Cloud-Nutzung in der EU nicht legal.
Der gesamte Datenverkehr müsste über ein gesichertes VPN-Tunnel oder Ende-zu-Ende-Verschlüsselung (TLS 1.3) laufen. Ohne Verschlüsselung reisen CAD-Daten im Klartext.
Die IT-Abteilung müsste regelmäßige externe Sicherheitsaudits beim Cloud-Anbieter einfordern und deren Zertifizierungen (ISO 27001, SOC 2) prüfen.
Rechtliche Prüfung durch die Rechtsabteilung ob sensible CAD-Konstruktionsdaten überhaupt auf einem US-Server gespeichert werden dürfen (CLOUD Act Risiko).
Bei Internetausfall steht das gesamte Tool still. Keine Redundanz ohne teure Multi-Region-Architektur beim Cloud-Anbieter.
Werden unsere Daten zum Training fremder KI-Modelle verwendet?
In Version 1 wurde ein eigenes, selbst verwaltetes Modell auf Digital Ocean betrieben. Dieses Modell lernt nicht aus unseren Daten — es ist eingefroren nach dem Training. Die Daten werden verarbeitet, aber nicht zum Nachtraining genutzt. Allerdings liegen sie physisch auf fremden Servern.
Wenn man stattdessen direkt die API von OpenAI, Google, etc. nutzen würde: Diese Anbieter können Daten für ihr Training verwenden, sofern im API-Vertrag nicht explizit ausgeschlossen. Das hätte katastrophale Konsequenzen für Geschäftsgeheimnisse.
Version 2:
Lokal & Sicher
| Kriterium | ☁️ Version 1 — Cloud | 🖥️ Version 2 — Lokal (GPU-Server) |
|---|---|---|
| Datensicherheit | ✗ Daten reisen über Internet zu externem Server | ✓ Daten verlassen das Unternehmensnetz niemals |
| Internet-Abhängigkeit | ✗ Volles Internet erforderlich, Single Point of Failure | ✓ Funktioniert komplett offline, auch bei Internetausfall |
| Compliance / DSGVO | ⚠ Aufwändige Verträge nötig (DPA, CLOUD Act Problem) | ✓ Volle Datenkontrolle, DSGVO-konform ohne Zusatzaufwand |
| Laufende Kosten | ✗ Monatliche Cloud-Kosten, skalieren mit Nutzung | ✓ Einmaliger Hardware-Kauf, dann laufend günstig |
| Setup-Aufwand | ✓ Schnell deploybar, wenig Hardware-Aufwand | ✗ Höherer Initialaufwand: Server, Treiber, Setup |
| Latenz / Geschwindigkeit | ⚠ Abhängig von Internetverbindung | ✓ Lokales Netzwerk: sehr niedrige Latenz, schnell |
| Daten-Training Risiko | ⚠ Modell auf fremdem Server (kein Training, aber physischer Zugriff möglich) | ✓ Absolut kein Risiko — alle Daten bleiben intern |
| Wartung / Updates | ✓ Managed Service — Anbieter kümmert sich | ✗ Interne IT oder Entwickler zuständig |
Warum brauchen wir
eine dedizierte GPU?
- ⚡ 8–16 Kerne, sequenziell
- 📦 Hoher RAM-Bedarf (64GB+)
- 🔥 Überhitzungsgefahr bei Dauerlast
- ❌ Nicht praxistauglich für Produktion
- ⚡ 16.384 CUDA-Kerne, massiv parallel
- 📦 24 GB dedizierter VRAM
- 🌡️ Für KI-Dauerlast konzipiert
- ✅ Produktionstauglich
Die technische Erklärung (vereinfacht)
Ein KI-Sprachmodell besteht aus Milliarden von Zahlenwerten (Gewichten). Wenn das Modell eine Frage beantwortet, müssen diese Milliarden von Zahlen in winzigen Zeitfenstern multipliziert und addiert werden — das sind sogenannte Matrix-Multiplikationen.
Eine CPU hat wenige, sehr clevere Kerne (z.B. 16 Stück), die sich gut für viele verschiedene Aufgaben eignen. Für KI-Berechnungen ist das jedoch wie ein Umzug mit einem einzigen LKW — stur, langsam.
Eine GPU hingegen hat Tausende einfache Kerne, die alle gleichzeitig rechnen können — wie ein Umzug mit 16.000 Trägern. Diese parallele Architektur wurde ursprünglich für Grafik entwickelt, eignet sich aber perfekt für die Matrixrechnung bei KI.
Hochrangige
Systemarchitektur
Schichtweise Architektur
OCR (Optical Character Recognition / Optische Zeichenerkennung) ist die Technologie, die Bilder und gescannte PDFs in lesbaren Text umwandelt. CAD-Zeichnungen sind als Bilder gespeichert — ein Computer sieht nur Pixel. OCR extrahiert Texte, Zahlen, Bemaßungen und Beschriftungen, damit das KI-Modell sie verstehen kann. Ohne OCR wäre die Analyse der CAD-Daten nicht möglich.
Wenn eine CAD-Datei einmal analysiert wurde, speichert das System die Ergebnisse zwischen (Cache). Wird dieselbe Datei erneut abgefragt, muss das KI-Modell nicht nochmals die gesamte Analyse von Null beginnen. Dies reduziert Antwortzeiten von Minuten auf Sekunden und spart enorm GPU-Rechenzeit bei wiederkehrenden Fragen.
Zukunft &
Weiterentwicklung
Mögliche zukünftige Änderungen
Kann ein externer Freelancer helfen?
- Frontend-Anpassungen (Weboberfläche, Design)
- Neue Fragetypen oder Prompt-Templates hinzufügen
- Exportfunktionen (Excel, PDF Berichte)
- Benutzer-Authentifizierung anpassen
- Modell durch neuere Version ersetzen
- Zugang zum internen Netzwerk — nur via gesichertem VPN, nie physisch allein
- Einblick in CAD-Daten nur unter NDA und IT-Aufsicht
- Kern-Architektur-Änderungen sollten dokumentiert übergeben werden
Häufig gestellte
Fragen (FAQ)
.dwg, .stp) werden in Version 2 nicht direkt unterstützt, können aber zuvor nach PDF konvertiert werden.Laufend: Strom + IT-Betrieb ca. 50–100 €/Monat.
Cloud-Alternative: Vergleichbare GPU-Cloud-Kapazität ca. 500–1.500 €/Monat laufend.
→ Ab ca. 6–12 Monaten amortisiert sich die lokale Lösung gegenüber der Cloud.