Pentalink Consulting

Geschütztes Dokument

Bitte geben Sie das Passwort ein, um fortzufahren.

Falsches Passwort. Bitte versuchen Sie es erneut.

Pentalink Editor


Falsches Passwort
Pentalink Consulting

OT-Datenplattform

Angebot – Datenarchitektur & Bereitstellung für die Produktion
Weidemann-Wackerneusen | Werk Korbach März 2026 v0.5
Ausgangslage
Produktionsdaten sind der Schlüssel zu besseren Entscheidungen – aber heute fehlt der Zugang.

IST-SITUATION

  • IT liefert keine SAP-Daten an Fachabteilungen
  • 6–12 Monate Wartezeit pro Datenanfrage
  • Keine zentrale Produktionsdaten-Infrastruktur
  • Daten fragmentiert: SAP, PDFs, lokale Systeme
  • Use-Case-Anbieter (z.B. QS) ohne Datenzugang

ZIELBILD

  • 1x Datenmodell für alle Use Cases
  • Snowflake SaaS – kein Serverbetrieb nötig
  • REST API pro Anbieter (Key-Pair Auth)
  • Neue Use Cases ohne IT-Abstimmung möglich
  • Eigenständig nach einmaligem Setup
  • AI-Ready: KI-Workloads direkt auf der Plattform (Frankfurt, governed)
Warum Snowflake?
Enterprise-Datenplattform – sicher, hochverfügbar, AI-ready.
🔒

Sicherheit & Zugriffskontrolle

Zertifiziert nach SOC 2 Type II und ISO 27001 – den strengsten Standards für Cloud-Sicherheit. Alle Daten werden verschlüsselt gespeichert (AES-256) und verschlüsselt übertragen (TLS 1.2+). Jeder Anbieter erhält einen eigenen Service-User mit RSA-Schlüsselpaar und sieht ausschließlich seinen Data Mart – nicht mehr.

🏢

Hochverfügbarkeit

Reale Verfügbarkeit liegt in den meisten Regionen bei über 99,95% – das sind wenige Minuten ungeplante Downtime pro Jahr. Dahinter: 3-AZ-Deployment mit synchroner Replikation und Zero-Downtime-Updates, ohne Admin-Aufwand. Bei Business Critical zusätzlich: automatischer Failover auf beschreibbaren Standby in einer zweiten Region – ETL-Jobs und BI-Tools brauchen keine Umkonfiguration.

⚙️

Zero-Maintenance

100% SaaS – keine eigenen Server, keine Patches, keine Upgrades. Backup und Disaster Recovery sind inkludiert. Ihre IT muss keinen Datenbankbetrieb leisten – Snowflake übernimmt das komplett.

📈

Auto-Scaling

Skaliert automatisch mit dem Datenvolumen – von 100 bis 100 Millionen Datensätze, ohne Hardware-Planung. Wenn Ihr Datenaufkommen wächst, wächst die Plattform mit – ohne Migrationsprojekt.

💰

Pay-per-Use

Sie zahlen nur, was tatsächlich genutzt wird. Kein Vorab-Investment, keine Fixkosten. Initial geschätzt unter 300 €/Monat – die Kosten wachsen erst mit der tatsächlichen Nutzung.

🧠

AI-Ready

Snowflake Cortex und Snowpark ermöglichen KI- und ML-Workloads direkt auf Ihren Produktionsdaten – im Rechenzentrum Frankfurt, in Ihrer gegovernten Umgebung. Keine Daten verlassen die Plattform. Das Datenmodell aus Phase 0 ist die Grundlage für jeden zukünftigen KI-Use-Case: Predictive Quality, Anomalieerkennung, Dokumentenextraktion.

Architektur & Edge-Anbindung
Von der Quelle bis zum Use-Case-Anbieter – eine durchgängige Datenplattform.
SchichtBeschreibungBetriebScope
1. QuellsystemeSAP (Push), PDFs, lokale SystemeKunde / ITSchnittstelle
2. SnowflakeRaw → Staging → Curated → Data Mart
Native REST API
Managed SaaSPentalink
3. API-ZugriffSQL REST API, Key-Pair Auth
Service-User pro Anbieter
Managed SaaSPentalink
4. Edge / Use CasesKameras, Edge-Devices, Apps
Kommunikation via REST API
AnbieterNicht Pentalink

Edge-Konzept: Anbieter vor Ort ↔ Datenplattform in der Cloud

  • Edge-Geräte (Kameras, Sensoren, Industrierechner) laufen lokal im Werk
  • Daten werden per HTTPS REST API aus Snowflake abgerufen und Ergebnisse zurückgeschrieben
  • Kein VPN, keine Middleware, keine proprietären Protokolle – Standard-HTTPS reicht
  • Edge-Geräte werden mit ausreichend Daten versorgt, um auch bei temporärem Cloud-Ausfall autonom weiterzuarbeiten – die Synchronisation erfolgt automatisch, sobald die Verbindung wiederhergestellt ist
  • Neuer Anbieter? Service-User + Key-Pair + Data Mart = fertig (Stunden, nicht Wochen)
Zentrales Datenmodell
Die strategisch wichtigste Komponente: Einmal aufbauen, für alle Use Cases nutzen.

Warum zentral?

  • Single Source of Truth – keine Insellösungen
  • Einmalige Investition, dauerhaft nutzbar
  • Vendor-agnostisch: Anbieter A oder B – gleiche Schnittstelle
  • Zukunftssicher: Neue Dimensionen einfach ergänzbar
  • Grundlage für den POC: Ohne Modell kein sinnvoller Test

ENTWURF – wird in Phase 0 gemeinsam erarbeitet

Beispiel-DimensionVermutete QuelleMögliche Daten
Material / ProduktSAP MM/PPMaterialnr., Stückliste
FertigungsauftragSAP PP/COAuftragsnr., Menge
Auftragsausstattung*SAP PPVarianten, Merkmale
PDFs / KI*DokumentenablageKonfigurationen
ArbeitsplatzSAP PPID, Kapazität, Schicht
QualitätSAP QMPrüflose, Fehler
Lager / LogistikSAP MM/WMBestände, Bewegungen
ZeitZentralDatum, Schicht, KW

* = Optional · Alle Dimensionen sind Beispiele auf Basis öffentlich verfügbarer Informationen. Das finale Datenmodell wird in Phase 0 gemeinsam mit Ihrem Team erarbeitet.

Scope: Wer macht was
Pentalink = Daten. Anbieter = Use Cases. Kunde = IT-Push + Steuerung Anbieter.
Pentalink (dieses Angebot)Nicht im Scope
Zentrales DatenmodellKamerasystem / QS-Software
Snowflake-Plattform (Enterprise SaaS)Edge-Hardware
SAP-Push spezifizieren + testenSAP-seitige Implementierung (IT)
Daten-Layer (Raw → Curated → Data Mart)Produktions-IT / SPS / MES
REST API + Service-User pro AnbieterAnwendungsentwicklung
Schnittstellenabstimmung + OnboardingSteuerung Use-Case-Anbieter
KI PDF-Extraktion* (optional)Maschinensteuerung / Sensorik
Milestones & Investition
Bezahlung nur gegen konkretes Deliverable. Ausstieg nach jedem Milestone möglich.
Gesamtinvestition
86.472 €
Phase 0–6 (ohne Optional)
Milestones
7
M0 – M6
Laufzeit
17–25
Wochen (abh. IT-Reaktionszeit)
Personentage
~80
Phase 0–6
MS Milestone Deliverable Phase Anteil Betrag
M0 Datenmodell verabschiedet Datenmodell + SAP-Extraktspezifikation, reviewed + freigegeben 0 28% 23.940 €
M1 POC abgeschlossen POC-Ergebnisbericht + Go/No-Go Empfehlung 1 8% 6.660 €
M2 Snowflake live Produktive Plattform, Sicherheitskonzept, Push funktional 2 12% 10.560 €
M3 Daten-Layer komplett Alle Layer befüllt, DQ-Checks aktiv, Monitoring läuft 3 19% 16.476 €
M4 API & Anbieter live REST API konfiguriert, QS-Anbieter hat Zugang, Dokumentation fertig 4 14% 11.976 €
M5 Pilotbetrieb validiert E2E validiert, Rückschreibung getestet, QS produktiv 5 8% 7.140 €
M6 Handover & Abschluss Betriebsdoku, Schulung, Projektabschluss 6 11% 9.720 €
GESAMT7 Milestones über 17–25 Wochen 0–6100% 86.472 €
Review vor jeder Abrechnung

Ergebnis wird präsentiert, Feedback eingearbeitet, dann erst Abnahme und Rechnungsstellung.

Ausstieg nach jedem Milestone

Alle bisherigen Ergebnisse sind übergeben und eigenständig nutzbar. Kein Lock-in.

IT-Verzögerung ≠ Abrechnungsverzögerung

Pentalink-Anteil fertig? Milestone abrechnungsfähig. Stichtag + 2 Wochen Toleranz. Wiederaufnahme nach >4 Wochen Gap.

Arbeitspakete
Aufwand in Personentagen (PT). Details werden in Phase 0 geschärft.

⚙ Stundensätze (intern – nicht sichtbar für Kunden)

€ / Stunde
€ / Stunde
€ / Stunde
Nr. Arbeitspaket PT Jr Sr Mgr € Zeile Dauer Abhängig. MS
0Phase 0: Datenmodell & AnforderungsanalyseM0
0.1Kick-off Workshop2.040 €21 Tag
0.2Ist-Analyse Produktionsprozesse3.276 €31 Wo.0.1
0.3SAP-Datenlandschaft analysieren2.400 €21 Wo.0.1
0.4Nicht-SAP-Datenquellen erfassen2.040 €2parallel0.1
0.5Use-Case-Katalog erstellen2.184 €2parallel0.2
0.6Zentrales Datenmodell entwerfen6.000 €52 Wo.0.3–0.5
0.7Datenmodell-Review2.400 €22 Tage0.6
0.8SAP-Extraktspezifikation3.600 €31 Wo.0.7
Summe Phase 02123.940 €4–6 Wo.M0
1Phase 1: POC – SAP-Push validierenM1
1.1Snowflake Staging einrichten1.020 €11 TagM0
1.2SAP-Extraktspez. an IT übergeben1.200 €11 TagM0
1.3IT führt Test-Push durch2.040 €21–2 Wo.1.2
1.4POC-Validierung & Ergebnis1.200 €12 Tage1.3
1.5POC-Ergebnisbericht + Go/No-Go1.200 €11 Tag1.4
Summe Phase 166.660 €2–4 Wo.M1
2Phase 2: Snowflake Setup & SchnittstelleM2
2.1Snowflake produktiv einrichten2.040 €22 TageM1
2.2Sicherheitskonzept umsetzen2.400 €22 Tage2.1
2.3Push-Schnittstelle finalisieren2.184 €22 Tage2.1
2.4Staging/Streaming API produktiv1.896 €22 Tage2.3
2.5Integrationstest mit IT2.040 €22 Tage2.4
Summe Phase 21010.560 €2–3 Wo.M2
3Phase 3: Daten-Onboarding & TransformationM3
3.1Raw-Layer aufbauen2.844 €33 TageM2
3.2Staging-Layer: Bereinigung3.792 €44 Tage3.1
3.3Curated-Layer: Fachliche Modellierung5.100 €51 Wo.3.2
3.4Data Quality Checks2.844 €33 Tage3.3
3.5Monitoring & Alerting1.896 €22 Tage3.4
Summe Phase 31716.476 €3–4 Wo.M3
4Phase 4: API & Anbieter-OnboardingM4
4.1Data Marts definieren3.276 €33 TageM3
4.2Snowflake REST API konfigurieren3.060 €33 Tage4.1
4.3API-Zugriffsdokumentation2.040 €22 Tage4.2
4.4Schnittstellenabstimmung QS-Anbieter2.400 €22 Tage4.2
4.5Key-Rotation-Prozess1.200 €11 Tag4.2
Summe Phase 41111.976 €2–3 Wo.M4
5Phase 5: Pilotbetrieb DatenbereitstellungM5
5.1QS-Anbieter Testzugriff einrichten1.020 €11 TagM4
5.2Datenvalidierung mit QS-Anbieter2.040 €22 Tage5.1
5.3Rückschreibe-Pfad testen2.040 €22 Tage5.2
5.4End-to-End Validierung2.040 €22 Tage5.3
Summe Phase 577.140 €2–3 Wo.M5
6Phase 6: Dokumentation & HandoverM6
6.1Gesamttest & Abnahme3.060 €33 TageM5
6.2Betriebsdokumentation3.060 €33 Tage6.1
6.3Schulung Betriebsteam2.400 €22 Tage6.2
6.4Handover & Projektabschluss1.200 €11 Tag6.3
Summe Phase 699.720 €2 Wo.M6
7*Phase 7a/7b: KI PDF-Extraktion / Web-Eingabemaske (Optional)
7a*KI-DokumentenextraktionTBDTBDM3
7b*Web-EingabemaskeTBDTBDM3
GESAMT Phase 0–6~81 PT86.472 €17–25 Wo.7 MS
Nächste Schritte
1.
Grobkonzept freigeben
2.
Milestone-Preise abstimmen
3.
Phase 0 beauftragen (M0: Datenmodell)
4.
Phase 0 durchführen (4–6 Wochen)
5.
Review M0 – Datenmodell + Extraktspez. übergeben
6.
POC durchführen (M1, 2–4 Wochen)
7.
Go / No-Go
8.
Bei Go: Phasen 2–6 beauftragen (M2–M6)