Description du poste Big Data & Platform Engineer 80-100% à Suisse
AMAG Informatik recherche un Big Data &
Platform Engineer passionné.
Rejoignez une entreprise innovante offrant des conditions de travail flexibles.
TâchesDévelopper des pipelines de données scalables et performants.
Travailler avec des technologies cloud pour optimiser les architectures.
Implémenter des solutions Machine Learning et MLOps.
CompétencesDiplôme en informatique, Data Science ou domaine similaire requis.
Expérience en Python et développement d'applications.
Connaissance des pratiques Dev
Ops et CI/CD.
Wir bewegen und begeistern Menschen.
Einfach.
Nachhaltig.
Voraus.
DieAMAG Informatikin Cham ZG verantwortet mit ihren ca. 200 Mitarbeitenden für alle Konzernbereiche die gesamte IT-Wertschöpfungskette, vom Projekt über die Entwicklung und Integration bis hin zum Betrieb und Support.
Du brennst für Big Data, Cloud-Technologien und Machine Learning und willst skalierbare Lösungen entwickeln, die echten Mehrwert schaffen?
Dann bist du bei uns genau richtig!
Unser
Data Architecture &
Platform Managementsucht per sofort oder nach Vereinbarung eine dynamische Persönlichkeit als
Big Data &
Platform Engineer 80-100%.
Big Data &
Platform Engineer 80-100%Wie wir dich begeistern
Spezialkonditionen bei Fahrzeugkauf und Service:
Für dich und deine Familie - weil wir wissen, wie wichtig Mobilität ist
Reisen mit Vergünstigungen:
Weltweit günstiger unterwegs mit EuropcarZIF:
Zusätzliche individuelle Freitage - Kaufe dir zusätzliche Urlaubstage und gönne dir eine wohlverdiente längere Auszeit
Flexibilität leben:
Vereinbare Familie, Hobby und Beruf - geniesse die Flexibilität des hybriden Arbeitens
Life long learning:
Wir beteiligen uns an deiner Weiterbildung - booste deine Karriere!
Fit for free:
Nutze unser kostenloses Fitnessstudio für deine Gesundheit und Fitness
Exklusive Deals:
Plattform mit wechselnden Vergünstigungen - entdecke immer wieder neue Angebote und spare dabei
Was du bei uns bewegen kannst
Data Engineering:
Du unterstützt Projekte als Data Engineer und entwickelst skalierbare Datenpipelines für Data Ingestion, Transformation und Delivery.
Dabei modellierst du Datenstrukturen, stellst Datenqualität und Stabilität sicher und setzt moderne Frameworks ein, um saubere, wartbare und performante Lösungen zu schaffen
Cloud-Architektur:
Du arbeitest mit aktuellen Cloud-Technologien und entwickelst robuste, skalierbare Architekturen.
Bestehende Services kannst du automatisiert weiterentwickeln, optimieren und reibungslos in bestehende Plattformen integrieren
Entwicklung und Automation:
Du implementierst Python, SQL und Spark-Code für Pipelines, Services und APIs.
CI/CD-basierte Deployments gehören zu deiner täglichen Arbeit, und du bringst erste Erfahrung mit Infrastructure-as-Code-Ansätzen (bevorzugt Terraform) mit
Machine Learning und MLOps:
Du weisst, wie Machine-Learning-Modelle produktiv betrieben werden, und kennst die Anforderungen an eine belastbare MLOps-Umgebung.
Gemeinsam mit Data Scientists setzt du ML-Modelle erfolgreich in produktive Datenplattformen um.
Ausserdem hast du Interesse an Use Cases mit GenAIDatenberatung und Zusammenarbeit:
Du kannst Business-Anforderungen aufnehmen, fachlich bewerten und in tragfähige technische Lösungen übersetzen.
Dabei unterstützt du Teams dabei, Daten effizient, sicher und compliant einzusetzen - und fungierst als verbindendes Element zwischen Technologie und Fachbereich
Das bringst du mit
Ausbildung:
Abgeschlossenes Studium in (Wirtschafts-)Informatik, Data Science, Naturwissenschaften mit IT-Schwerpunkt oder eine vergleichbare Qualifikation
Erfahrung:
Mehrjährige praktische Erfahrung als Data Engineer, Cloud Engineer oder Platform Engineer - idealerweise im Umfeld von Mobilität, Automotive oder Energie, jedoch nicht zwingend erforderlich
Technische Skills:- Sehr gute Kenntnisse in Python und Erfahrung in der Software- bzw.
Applikationsentwicklung- Praktische Erfahrung mit Cloud-Technologien, bevorzugt Azure- Fundiertes Knowhow im Betrieb und der Weiterentwicklung von Datenplattformen (bevorzugt Databricks, Snowflake, Microsoft Fabric)- Erfahrung mit Dev
Ops-Praktiken, Git-Workflows und CI/CD-Pipelines- Idealerweise erste Erfahrung mit Infrastructure-as-Code (Terraform)- Erfahrung im Entwurf und der Umsetzung von Datenarchitekturen (Lakehouse-Architekturen, Verarbeitung von Batch- und Streaming-Daten,
Datenmodellierung für analytische Workloads,
Bewertung architektonischer Ansätze wie Data Mesh im organisatorischen Kontext)Sprachkenntnisse:
Stilsicheres Deutsch in Wort und Schrift sowie sehr gute Englischkenntnisse
Arbeitsweise und Persönlichkeit:
Du arbeitest selbstständig, analytisch und lösungsorientiert, kommunizierst klar und bringst Begeisterung für Daten, moderne Technologien und kontinuierliche Weiterentwicklung mit.
Ausserdem hast du kein Problem damit, komplexe technische Themen verständlich zu erklären und besitzt eine gesunde Portion Humor
Denkst du, dass wir zusammenpassen könnten?
Dann freuen wir uns auf deine Online-Bewerbung.
Übrigens:
Ein Motivationsschreiben brauchen wir nicht.
Nenne uns doch einfach drei überzeugende Gründe, wieso genau du die richtige Person für diese Stelle bist.
Hast du Fragen zur Stelle oder zum Bewerbungsprozess?
Dann kontaktiere mich doch einfach per Whats
App Kurznachricht.
Informationen zum Datenschutz findest du in unseren Datenschutzbestimmungen.
Dario Migliozzi +4144 846 11 32
Compétences requises
Petites et moyennes industries
Temps plein
Cham