151 Jobs für Spark in Österreich

Senior Data Engineer (Big Data Platforms)

6890 Bregenz, Vorarlberg WhatJobs

Vor 3 Tagen gepostet

Job angesehen

Tippen Sie erneut, um zu schließen

Arbeitsbeschreibung

full-time
Unser Klient sucht einen versierten Senior Data Engineer für den Aufbau und die Optimierung seiner Big Data-Infrastruktur am Standort Lustenau, Vorarlberg, AT . In dieser Rolle sind Sie maßgeblich an der Gestaltung skalierbarer und robuster Datenpipelines beteiligt, die es unserem Unternehmen ermöglichen, datengesteuerte Entscheidungen zu treffen und innovative Produkte zu entwickeln.

Ihre Hauptaufgaben:
  • Entwurf, Entwicklung und Wartung von hochperformanten Big Data-Plattformen und ETL/ELT-Prozessen.
  • Implementierung und Verwaltung von Data Warehouses und Data Lakes unter Verwendung modernster Technologien.
  • Sicherstellung der Datenqualität, -konsistenz und -verfügbarkeit für Analysen und Reporting.
  • Optimierung bestehender Dateninfrastrukturen hinsichtlich Leistung, Kosten und Skalierbarkeit.
  • Zusammenarbeit mit Data Scientists, Analysten und Softwareentwicklern, um deren Datenanforderungen zu verstehen und zu erfüllen.
  • Automatisierung von Datenprozessen und Implementierung von Monitoring- und Alerting-Systemen.
  • Evaluation und Einführung neuer Technologien und Tools im Big Data-Umfeld.
  • Sicherstellung der Datensicherheit und Einhaltung relevanter Datenschutzrichtlinien.
  • Dokumentation der entwickelten Systeme und Prozesse.
  • Mentoring von Junior Data Engineers und Wissensaustausch im Team.

Ihr Profil:
  • Abgeschlossenes Studium in Informatik, Ingenieurwesen, Wirtschaftsinformatik oder einem verwandten technischen Bereich.
  • Mehrjährige, nachweisbare Berufserfahrung als Data Engineer, idealerweise im Big Data-Umfeld.
  • Umfassende Kenntnisse in SQL und NoSQL-Datenbanken.
  • Erfahrung mit verteilten Datenverarbeitungssystemen wie Apache Spark, Hadoop, Kafka.
  • Kenntnisse in Cloud-Plattformen (AWS, Azure oder GCP) und deren Big Data Services.
  • Programmierkenntnisse in Sprachen wie Python, Scala oder Java.
  • Erfahrung mit Datenmodellierungstechniken und Data Warehouse-Konzepten.
  • Verständnis von ETL/ELT-Tools und -Prinzipien.
  • Fähigkeit, komplexe technische Probleme zu analysieren und zu lösen.
  • Gute Kommunikationsfähigkeiten und Teamfähigkeit.
  • Deutschkenntnisse sind ein Muss, Englischkenntnisse von Vorteil.
Wir bieten Ihnen eine spannende und herausfordernde Position in einem innovativen Umfeld mit der Möglichkeit, an wegweisenden Projekten mitzuwirken. Sie arbeiten eng mit einem hochqualifizierten Team zusammen und gestalten die Datenarchitektur der Zukunft mit. Die Stelle ist am Standort Lustenau, Vorarlberg, AT zu besetzen und erfordert Präsenz vor Ort.
Leider ist dieser Job in Ihrer Region nicht verfügbar

Senior Data Engineer - Big Data & Cloud

6850 Dornbirn, Vorarlberg WhatJobs

Vor 3 Tagen gepostet

Job angesehen

Tippen Sie erneut, um zu schließen

Arbeitsbeschreibung

full-time
Wir suchen für unseren Klienten einen erfahrenen Senior Data Engineer, der unser Data-Engineering-Team auf remote Basis verstärkt. In dieser Rolle sind Sie entscheidend für den Aufbau und die Optimierung unserer Big-Data-Plattformen und Datenpipelines. Sie werden eng mit Data Scientists, Analysten und anderen Ingenieuren zusammenarbeiten, um sicherzustellen, dass wir über skalierbare, zuverlässige und effiziente Dateninfrastrukturen verfügen. Ihre Hauptaufgaben umfassen die Konzeption, Entwicklung und Wartung von ETL/ELT-Prozessen, die Implementierung von Data Warehouses und Data Lakes sowie die Sicherstellung der Datenqualität und -verfügbarkeit. Sie sind verantwortlich für die Auswahl und Anwendung geeigneter Big-Data-Technologien und Cloud-Dienste, um die Anforderungen unserer Geschäftsbereiche zu erfüllen. Dies beinhaltet die Arbeit mit verteilten Systemen wie Spark und Hadoop, sowie Cloud-basierten Lösungen auf Plattformen wie AWS, Azure oder GCP. Wir erwarten von Ihnen ein abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder eines verwandten MINT-Fachs, sowie nachgewiesene Berufserfahrung im Bereich Data Engineering und Big Data. Tiefgreifende Kenntnisse in SQL und NoSQL-Datenbanken sowie Erfahrung mit Datenmodellierungstechniken sind unerlässlich. Umfangreiche Erfahrung mit Big-Data-Technologien (z.B. Apache Spark, Hadoop, Kafka) und Cloud-Plattformen (AWS, Azure, GCP) ist ein Muss. Kenntnisse in mindestens einer Skriptsprache (Python, Scala, Java) und Erfahrung mit Orchestrierungstools (z.B. Airflow) sind ebenfalls erforderlich. Sie verfügen über exzellente analytische Fähigkeiten, eine strukturierte Arbeitsweise und die Fähigkeit, komplexe technische Probleme zu lösen. Da die Position zu 100% remote ist, sind hervorragende Kommunikationsfähigkeiten, Selbstorganisation und die Fähigkeit, effektiv in einem verteilten Team zu arbeiten, absolut entscheidend. Wir bieten Ihnen die Möglichkeit, in einem innovativen Umfeld mit modernsten Technologien zu arbeiten, an herausfordernden Projekten mitzuwirken und Ihre Expertise im Bereich Big Data und Cloud weiter auszubauen. Sie werden Teil eines talentierten Teams, das Wert auf Zusammenarbeit, kontinuierliches Lernen und Spitzenleistungen legt. Gestalten Sie die Zukunft der Datenlandschaft unseres Klienten mit und treiben Sie datengesteuerte Entscheidungen voran. Wenn Sie die Leidenschaft für Daten haben und bereit sind, Verantwortung in einem flexiblen, remote Arbeitsumfeld zu übernehmen, freuen wir uns auf Ihre Bewerbung.
Leider ist dieser Job in Ihrer Region nicht verfügbar

Senior Data Engineer (Big Data & Cloud)

9020 Klagenfurt, Kärnten WhatJobs

Vor 3 Tagen gepostet

Job angesehen

Tippen Sie erneut, um zu schließen

Arbeitsbeschreibung

full-time
Unser Klient, ein führendes Unternehmen im Technologiesektor, sucht einen hochqualifizierten Senior Data Engineer zur Verstärkung seines Expertenteams. Diese Position ist **vollständig remote** und bietet Ihnen die Möglichkeit, an der Gestaltung und Optimierung unserer Big-Data-Infrastruktur und Cloud-Architekturen mitzuwirken. Sie werden verantwortlich sein für die Entwicklung skalierbarer Datenpipelines, die Integration verschiedener Datenquellen und die Sicherstellung der Datenqualität und -verfügbarkeit für Analysen und Machine-Learning-Anwendungen.

Ihre Hauptverantwortlichkeiten:
  • Entwicklung, Implementierung und Wartung robuster, skalierbarer und effizienter Datenpipelines (ETL/ELT).
  • Konzeption und Aufbau von Data Warehouses, Data Lakes und Data Marts in Cloud-Umgebungen (AWS, Azure oder GCP).
  • Integration von Daten aus einer Vielzahl von Quellen, darunter relationale Datenbanken, APIs und Streaming-Dienste.
  • Optimierung von Datenprozessen und Abfragen zur Verbesserung von Performance und Kosten-Effizienz.
  • Sicherstellung der Datenqualität, Datenintegrität und Datensicherheit über die gesamte Dateninfrastruktur hinweg.
  • Zusammenarbeit mit Data Scientists, Analysten und Softwareentwicklern, um deren Datenanforderungen zu erfüllen.
  • Bewertung und Einführung neuer Technologien und Tools im Big-Data- und Cloud-Bereich.
  • Entwicklung und Implementierung von Monitoring- und Alerting-Systemen für Datenpipelines und Infrastruktur.
  • Erstellung und Pflege technischer Dokumentationen.
  • Mentoring von Junior-Data-Engineers und Förderung von Best Practices im Team.

Ihr Profil:
  • Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik, Ingenieurwissenschaften oder einer verwandten quantitativen Disziplin.
  • Mehrjährige, fundierte Berufserfahrung als Data Engineer, insbesondere im Bereich Big Data und Cloud-Technologien.
  • Sehr gute Kenntnisse in mindestens einer großen Cloud-Plattform (AWS, Azure, GCP) und deren Data Services.
  • Erfahrung mit verteilten Datenverarbeitungssystemen wie Apache Spark, Hadoop oder ähnlichen Technologien.
  • Sicherer Umgang mit SQL und NoSQL-Datenbanken.
  • Kenntnisse in Programmiersprachen wie Python, Scala oder Java für Datenverarbeitung.
  • Erfahrung mit ETL/ELT-Tools und Orchestrierungswerkzeugen (z.B. Apache Airflow).
  • Verständnis von Data Warehousing-Konzepten und Datenmodellierung.
  • Erfahrung mit Containerisierungstechnologien (Docker, Kubernetes) ist von Vorteil.
  • Starke analytische Fähigkeiten, Problemlösungskompetenz und eine strukturierte Arbeitsweise.
  • Ausgezeichnete Kommunikationsfähigkeiten und Teamfähigkeit, auch im Remote-Umfeld.
  • Sehr gute Deutschkenntnisse und gute Englischkenntnisse.

Unser Klient bietet Ihnen eine herausfordernde und verantwortungsvolle Rolle in einem innovativen und international agierenden Unternehmen. Profitieren Sie von einer flexiblen, vollständig remote gestalteten Arbeitsumgebung, spannenden Projekten und exzellenten Entwicklungsmöglichkeiten. Wir fördern eine Kultur der Zusammenarbeit und des kontinuierlichen Lernens.
Leider ist dieser Job in Ihrer Region nicht verfügbar

Remote Data Engineer - Cloud & Big Data

3300 Amstetten District, Niederösterreich WhatJobs

Vor 3 Tagen gepostet

Job angesehen

Tippen Sie erneut, um zu schließen

Arbeitsbeschreibung

full-time
Unser Kunde, ein technologisch führendes Unternehmen, sucht einen erfahrenen Remote Data Engineer zur Gestaltung und Implementierung skalierbarer Dateninfrastrukturen. In dieser vollständig remote ausgelegten Position sind Sie verantwortlich für die Entwicklung, Wartung und Optimierung unserer Datenpipelines und -plattformen. Sie arbeiten mit modernsten Cloud-Technologien und Big-Data-Tools, um sicherzustellen, dass wir auf qualitativ hochwertige und effizient zugängliche Daten für analytische Zwecke und operative Anforderungen zugreifen können. Ihre Aufgabe ist es, die Grundlage für datengesteuerte Innovationen zu schaffen und die Effizienz der Datenverarbeitung über das gesamte Unternehmen hinweg zu steigern. Wir suchen jemanden, der proaktiv, detailorientiert und leidenschaftlich für saubere, gut strukturierte Daten ist.

Ihre Kernaufgaben:
  • Design, Aufbau und Wartung robuster und skalierbarer Datenpipelines (ETL/ELT) in Cloud-Umgebungen (AWS, Azure, GCP).
  • Integration verschiedener Datenquellen (Datenbanken, APIs, Logs, Streaming-Daten).
  • Optimierung der Datenqualität und -konsistenz.
  • Entwicklung und Implementierung von Data Warehousing und Data Lake Lösungen.
  • Automatisierung von Datenprozessen und Monitoring der Systemperformance.
  • Zusammenarbeit mit Data Scientists und Analysten, um deren Datenanforderungen zu verstehen und zu erfüllen.
  • Sicherstellung der Datensicherheit und Compliance.
  • Bewertung und Implementierung neuer Datenmanagement-Technologien.
  • Fehleranalyse und Fehlerbehebung in Dateninfrastrukturen.
  • Dokumentation von Datenmodellen, Pipelines und Prozessen.
Was Sie mitbringen:
  • Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder einer verwandten quantitativen Disziplin, oder vergleichbare praktische Erfahrung.
  • Nachgewiesene Erfahrung als Data Engineer oder in einer ähnlichen Rolle mit Fokus auf Cloud-Plattformen und Big Data Technologien.
  • Fundierte Kenntnisse in SQL und NoSQL Datenbanken.
  • Erfahrung mit Cloud-spezifischen Diensten (z.B. AWS S3, Redshift, Glue; Azure Data Factory, Synapse; GCP BigQuery, Dataflow).
  • Programmierkenntnisse in Python, Java oder Scala für Datenverarbeitung.
  • Erfahrung mit verteilten Datenverarbeitungssystemen wie Apache Spark oder Hadoop.
  • Kenntnisse in Containerisierung (Docker, Kubernetes) und Orchestrierung sind von Vorteil.
  • Ausgeprägte analytische und Problemlösungsfähigkeiten.
  • Fähigkeit, selbstständig und effektiv in einem Remote-Team zu arbeiten.
  • Sehr gute Deutsch- und Englischkenntnisse.
Dies ist eine exzellente Möglichkeit, in einem flexiblen Remote-Umfeld eine zentrale Rolle im Datenmanagement eines innovativen Unternehmens zu spielen und an der Gestaltung moderner Datenlandschaften mitzuwirken.
Leider ist dieser Job in Ihrer Region nicht verfügbar

Lead Data Engineer - Cloud & Big Data

3100 Sankt Pölten, Niederösterreich WhatJobs

Vor 3 Tagen gepostet

Job angesehen

Tippen Sie erneut, um zu schließen

Arbeitsbeschreibung

full-time
Unser Klient, eine führende gemeinnützige Organisation im Bereich Bildung, sucht einen erfahrenen Lead Data Engineer zur Verstärkung seines Data-Science-Teams. Diese vollständig remote Position ermöglicht es Ihnen, von jedem Ort aus zu arbeiten und die Dateninfrastruktur für wegweisende Projekte mitzugestalten. Sie sind verantwortlich für die Entwicklung und Optimierung unserer Big-Data-Plattformen und die Sicherstellung einer hohen Datenqualität und -verfügbarkeit.

Aufgaben:
  • Entwurf, Aufbau und Wartung skalierbarer Datenpipelines und ETL/ELT-Prozesse.
  • Konfiguration und Management von Big-Data-Plattformen (z.B. Hadoop-Ökosystem, Spark, Data Lakes).
  • Implementierung von Datenqualitätsstandards und -kontrollen.
  • Optimierung von Datenbanken und Data Warehouses für Performance und Kosteneffizienz.
  • Zusammenarbeit mit Data Scientists und Analysten, um deren Datenanforderungen zu verstehen und zu erfüllen.
  • Entwicklung und Implementierung von Monitoring- und Alerting-Systemen für die Dateninfrastruktur.
  • Sicherstellung der Datensicherheit und Einhaltung relevanter Datenschutzbestimmungen (z.B. DSGVO).
  • Evaluation und Einführung neuer Technologien im Bereich Big Data und Cloud Computing.
  • Mentoring und technische Anleitung für Junior Data Engineers im Team.
  • Automatisierung von Datenprozessen und Infrastrukturmanagement.

Anforderungen:
  • Abgeschlossenes Studium (Master/Promotion) in Informatik, Ingenieurwesen, Mathematik oder einem verwandten quantitativen Fachbereich.
  • Mehrjährige praktische Erfahrung als Data Engineer, idealerweise in einer leitenden oder Senior-Rolle.
  • Fundierte Kenntnisse in mindestens einer Programmiersprache wie Python, Scala oder Java.
  • Umfangreiche Erfahrung mit Big-Data-Technologien wie Apache Spark, Hadoop, Hive oder Presto.
  • Erfahrung im Umgang mit Cloud-Plattformen (AWS, Azure, GCP) und deren Datendiensten (z.B. S3, Blob Storage, BigQuery, Redshift).
  • Kenntnisse in SQL und NoSQL-Datenbanken.
  • Erfahrung mit Datenmodellierung und Data Warehousing-Konzepten.
  • Verständnis von agilen Entwicklungsmethoden und CI/CD-Praktiken.
  • Ausgezeichnete Problemlösungs- und analytische Fähigkeiten.
  • Sehr gute Kommunikationsfähigkeiten und die Fähigkeit, komplexe technische Sachverhalte zu erklären.
  • Fließende Deutschkenntnisse, gute Englischkenntnisse sind von Vorteil.
Diese remote Position mit Fokus auf datengesteuerte Entscheidungen im Bereich Bildung in der Nähe von St. Pölten, Niederösterreich, AT , bietet Ihnen die Möglichkeit, einen nachhaltigen Einfluss zu nehmen und Ihre Expertise in einem zukunftsorientierten Umfeld einzubringen.
Leider ist dieser Job in Ihrer Region nicht verfügbar

Big Data Administrator

Niederösterreich, Niederösterreich €60000 - €80000 Y TieTalent

Heute

Job angesehen

Tippen Sie erneut, um zu schließen

Arbeitsbeschreibung

Have you always wanted to work in a successful IT company? Then take advantage of your chance:
JOB WORLD GmbH is a partner of the leading IT companies in Austria. We offer dedicated Big Data Administrators (Apache Hadoop/Cloudera) top access to interesting IT jobs.
We are looking for ***DIRECT EMPLOYMENT*** for a renowned IT company
Big Data Administrator (Apache Hadoop/Cloudera) (all genders)

  • Administrate, monitor and optimize our Big Data environment based on Apache Hadoop from Cloudera (AWS-Cloud)
  • Manage and maintain services like Kafka, Flink, NiFi, DynamoDB and Iceberg Tables
  • IaaC deployment via Terraform
  • Plan and execute updates/upgrades
  • Advise our Data Engineers and Data Scientists on the selection of Hadoop services for business use cases
  • 3rd level support through troubleshooting and error analysis
  • Support workload optimization (eg. query optimization)
  • Evaluation and implementation of Cloud Native Services
  • Technical education (Computer Science HTL, Computer Science Degree, Data Science etc.)
  • Technical education (computer science studies, etc.)
  • At least 5 years experience in Apache Hadoop Cloudera environments. Migration to AWS
  • Experience in system administration of Linux systems (RedHat)
  • Expertise in building and operating Big Data environments based on Apache Hadoop clusters
  • Permanent position in a renowned IT company
  • Explicit willingness to overpay: The annual gross salary is at least € 70.000,- (full-time) depending on qualifications and experience
  • Our technology: Using state-of-the-art technologies is part of our mission
  • Modern company: Constantly growing company, flat hierarchies, self-organized teams and agile way of working
  • Attractive working environment: Homeoffice, flexible working hours, individual training, family-friendly company, ergonomic workplace, top hardware and much more
  • Your personal benefits: Additional day off on your birthday, parking spaces or good public transport connections, relocation support, meal allowance or company restaurant, community events, various benefits, company doctor, etc.
Leider ist dieser Job in Ihrer Region nicht verfügbar

Lead Data Engineer für Big Data Plattformen

6800 Feldkirch, Vorarlberg WhatJobs

Vor 3 Tagen gepostet

Job angesehen

Tippen Sie erneut, um zu schließen

Arbeitsbeschreibung

full-time
Unser Klient sucht einen erfahrenen und visionären Lead Data Engineer, der unsere Big-Data-Plattformen gestaltet, entwickelt und leitet. Diese Rolle ist vollständig remote angesiedelt und bietet die einmalige Gelegenheit, an der Spitze der Datenverarbeitungstechnologie zu arbeiten und die Dateninfrastruktur für unsere zukunftsweisenden Analysen und KI-Initiativen zu formen. Sie werden verantwortlich sein für das Design, die Implementierung und die Wartung robuster, skalierbarer und effizienter Datenpipelines, die große Mengen an strukturierten und unstrukturierten Daten verarbeiten. Dies beinhaltet die Auswahl und den Einsatz geeigneter Big-Data-Technologien und -Tools (z.B. Spark, Hadoop, Kafka, Flink), die Optimierung von Datenflüssen und Speichersystemen sowie die Gewährleistung der Datenqualität und -governance. Sie werden ein Team von Data Engineers führen, coachen und technisch beraten, um gemeinsame Ziele zu erreichen. Enge Zusammenarbeit mit Data Scientists, Analysten und anderen Stakeholdern, um deren Datenbedürfnisse zu verstehen und entsprechende Lösungen bereitzustellen, ist ebenfalls Teil Ihrer Aufgabe. Fundierte Kenntnisse in verteilten Systemen, Datenbanktechnologien (SQL, NoSQL) und Programmiersprachen wie Python oder Scala sind unerlässlich. Erfahrung mit Cloud-Plattformen (AWS, Azure, GCP) und deren Daten-Services ist ein Muss. Wir suchen jemanden mit einem starken analytischen Hintergrund, nachgewiesener Führungsstärke und der Fähigkeit, komplexe technische Herausforderungen zu lösen. Ein Master- oder Doktortitel in Informatik, Ingenieurwesen oder einem verwandten quantitativen Fachgebiet, gepaart mit mindestens 6 Jahren relevanter Berufserfahrung im Data Engineering, davon mehrere in einer leitenden Funktion, ist erforderlich. Exzellente Kommunikationsfähigkeiten zur Erklärung komplexer technischer Konzepte sind ebenfalls entscheidend. Wenn Sie die Herausforderung lieben, datengesteuerte Innovationen voranzutreiben und ein vollständig remote Arbeitsumfeld bevorzugen, dann ist dies Ihre Chance.
Aufgaben:
  • Entwurf, Entwicklung und Implementierung von skalierbaren Big-Data-Architekturen und Datenpipelines.
  • Auswahl und Integration von Technologien für Datenverarbeitung, -speicherung und -management.
  • Optimierung der Leistung und Effizienz von Datenflüssen und Datenbanken.
  • Gewährleistung von Datenqualität, -integrität und -sicherheit.
  • Führung und technisches Mentoring eines Teams von Data Engineers.
  • Zusammenarbeit mit Data Scientists und Business-Analysten zur Erfüllung von Datenanforderungen.
  • Entwicklung und Wartung von CI/CD-Pipelines für Dateninfrastruktur.
  • Überwachung und Troubleshooting von Big-Data-Systemen.
  • Etablierung von Data Governance-Praktiken.
Qualifikationen:
  • Master-Abschluss in Informatik, Ingenieurwesen oder einem verwandten quantitativen Bereich.
  • Mindestens 6 Jahre Erfahrung im Data Engineering, davon 2+ Jahre in einer Lead- oder Senior-Rolle.
  • Tiefes Verständnis von Big-Data-Technologien (z.B. Spark, Hadoop, Kafka, Hive).
  • Umfangreiche Erfahrung mit Cloud-Plattformen (AWS, Azure, GCP) und ihren Daten-Services.
  • Sehr gute Kenntnisse in Python, Scala oder Java und SQL.
  • Erfahrung mit verschiedenen Datenbanktypen (relationale, NoSQL, Data Warehouses).
  • Fähigkeit zur Analyse und Optimierung komplexer Datenflüsse.
  • Ausgeprägte Führungs- und Kommunikationsfähigkeiten.
  • Problemlösungskompetenz und proaktive Arbeitsweise.
Leider ist dieser Job in Ihrer Region nicht verfügbar
Seien Sie der Erste, der es erfährt

Über das Neueste Spark Jobs In Österreich !

Junior Data Engineer, Analytics & Big Data Platforms (Remote)

8010 Graz, Steiermark WhatJobs

Vor 3 Tagen gepostet

Job angesehen

Tippen Sie erneut, um zu schließen

Arbeitsbeschreibung

intern
Für unseren Klienten suchen wir einen motivierten und technikaffinen Junior Data Engineer für ein Praktikum in einem innovativen Umfeld. Diese Position ist vollständig remote konzipiert, sodass Sie wertvolle praktische Erfahrungen sammeln können, während Sie von Ihrem eigenen Standort aus arbeiten. Sie werden Teil des Data Engineering Teams, das für den Aufbau und die Wartung unserer Big-Data-Plattformen verantwortlich ist. Ihre Aufgaben umfassen die Unterstützung bei der Entwicklung und Implementierung von Datenpipelines, die Sammlung, Transformation und Speicherung großer Datenmengen. Sie helfen bei der Automatisierung von Datenprozessen und stellen die Datenqualität und -verfügbarkeit für Analyse- und Reportingzwecke sicher. Das Erlernen und Anwenden von SQL, Python und gängigen Big-Data-Technologien wie Spark und Hadoop steht im Vordergrund. Sie arbeiten eng mit Senior Data Engineers und Data Scientists zusammen, um deren Anforderungen zu verstehen und technische Lösungen bereitzustellen.
Ihre Qualifikationen:
  • Aktuell immatrikuliert in einem Bachelor- oder Masterstudium in Informatik, Data Science, Wirtschaftsinformatik oder einem verwandten technischen Bereich.
  • Grundlegendes Verständnis von Datenbanken, SQL und Datenmodellierung.
  • Erste Programmiererfahrung, idealerweise in Python.
  • Grundkenntnisse über Big-Data-Konzepte und -Technologien sind von Vorteil.
  • Analytisches Denkvermögen und eine hohe Problemlösungskompetenz.
  • Selbstständige und sorgfältige Arbeitsweise mit ausgeprägter Lernbereitschaft.
  • Gute Deutsch- oder Englischkenntnisse.
  • Hohe Motivation, sich in einem Remote-Umfeld zu engagieren und neue Fähigkeiten zu erlernen.

Wir bieten:
  • Eine spannende Gelegenheit, praktische Erfahrungen im Bereich Data Engineering und Big Data zu sammeln.
  • Mentoring durch erfahrene Fachleute in einem dynamischen Remote-Team.
  • Einblick in die Arbeit mit modernsten Technologien und Tools.
  • Eine flexible und remote Arbeitsumgebung, die eine gute Vereinbarkeit mit dem Studium ermöglicht.
  • Möglichkeit zur Übernahme in eine Festanstellung nach erfolgreichem Abschluss des Praktikums.

Wenn Sie ein/e ehrgeizige/r Student/in sind, der/die bereit ist, in die Welt des Data Engineering einzutauchen und eine Karriere in einem wachstumsstarken Feld anzustreben, dann ist dieses Praktikum perfekt für Sie. Unser Klient bietet ein förderndes Umfeld, in dem Sie Ihre Fähigkeiten entwickeln und einen echten Beitrag leisten können. Profitieren Sie von der Flexibilität einer Remote-Tätigkeit und bauen Sie wertvolle berufliche Kontakte auf. Diese Stelle ist ideal für angehende Talente, die eine solide Grundlage für ihre zukünftige Karriere im Datenbereich legen möchten.
Leider ist dieser Job in Ihrer Region nicht verfügbar

Remote Data Scientist & Machine Learning Engineer (Big Data)

8700 Leoben, Steiermark WhatJobs

Vor 3 Tagen gepostet

Job angesehen

Tippen Sie erneut, um zu schließen

Arbeitsbeschreibung

full-time
Our client , ein dynamisches und datengesteuertes Unternehmen im Bereich Verwaltung und Prozessoptimierung, sucht einen erfahrenen Data Scientist & Machine Learning Engineer zur Verstärkung seines zentralen Analytics-Teams. Diese Position ist zu 100% remote angesiedelt und bietet Ihnen die Möglichkeit, von überall auf der Welt aus zu arbeiten. Sie werden maßgeblich an der Entwicklung und Implementierung von fortschrittlichen Analysen und Machine Learning Modellen beteiligt sein, um komplexe Geschäftsherausforderungen zu lösen und datengestützte Entscheidungen zu ermöglichen. Unser Unternehmen legt großen Wert auf Innovation und die Nutzung neuester Technologien, um seine Dienstleistungen kontinuierlich zu verbessern.

Ihre Verantwortlichkeiten umfassen:
  • Entwicklung, Implementierung und Wartung von Machine Learning Modellen für verschiedene Anwendungsfälle (z.B. Vorhersagemodelle, Klassifizierung, Anomalieerkennung).
  • Analyse großer, komplexer Datensätze (Big Data) zur Identifizierung von Mustern, Trends und Einsichten.
  • Datenaufbereitung, Feature Engineering und Auswahl geeigneter Algorithmen.
  • Entwicklung von Algorithmen und Skripten zur Automatisierung von Prozessen und zur Optimierung von Geschäftsanwendungen.
  • Zusammenarbeit mit Produktmanagern, Ingenieuren und Stakeholdern, um deren Datenbedürfnisse zu verstehen und Lösungen zu entwickeln.
  • Aufbau und Pflege von Datenpipelines und ETL-Prozessen.
  • Validierung und fortlaufende Verbesserung bestehender Modelle.
  • Präsentation von Analyseergebnissen und Modellergebnissen in verständlicher Form für technische und nicht-technische Zielgruppen.
  • Bleiben Sie auf dem neuesten Stand der Forschung und der Technologien im Bereich Data Science und Machine Learning.

Ihr Profil:
  • Abgeschlossenes Masterstudium oder Promotion in Informatik, Statistik, Mathematik, Physik oder einem verwandten quantitativen Fachgebiet.
  • Mehrjährige Berufserfahrung als Data Scientist oder Machine Learning Engineer, mit nachweislicher Erfolgsbilanz bei der Entwicklung und Bereitstellung von ML-Modellen.
  • Starke Programmierkenntnisse in Python und/oder R sowie Erfahrung mit relevanten Bibliotheken (z.B. TensorFlow, PyTorch, Scikit-learn, Pandas, NumPy).
  • Erfahrung im Umgang mit Big-Data-Technologien (z.B. Spark, Hadoop, Hive) und Cloud-Plattformen (AWS, Azure, GCP).
  • Gute Kenntnisse in SQL und Erfahrung mit relationalen und NoSQL-Datenbanken.
  • Fundiertes Verständnis von statistischen Methoden, Machine Learning Algorithmen und Datenmodellierung.
  • Erfahrung in der Softwareentwicklung und im Umgang mit Versionskontrollsystemen wie Git.
  • Ausgezeichnete analytische und Problemlösungsfähigkeiten.
  • Sehr gute Kommunikationsfähigkeiten in Deutsch und Englisch.

Wir bieten Ihnen eine anspruchsvolle und abwechslungsreiche Tätigkeit in einem zukunftsorientierten Umfeld mit flexiblen Arbeitszeiten und der Möglichkeit, Ihre Expertise voll einzubringen. Gestalten Sie mit uns die Zukunft der Datenanalyse!
Leider ist dieser Job in Ihrer Region nicht verfügbar

Senior AI/ML Engineer (Cloud & Big Data)

6850 Dornbirn, Vorarlberg WhatJobs

Vor 3 Tagen gepostet

Job angesehen

Tippen Sie erneut, um zu schließen

Arbeitsbeschreibung

full-time
Unser Klient, ein wegweisendes Technologieunternehmen im Bereich künstliche Intelligenz und maschinelles Lernen, sucht einen herausragenden Senior AI/ML Engineer für sein remote-first Entwicklerteam. Sie werden an der Spitze der Innovationen arbeiten, komplexe Datenprobleme lösen und maßgeblich an der Entwicklung und Implementierung modernster KI-Modelle beteiligt sein. Diese Position bietet die einzigartige Gelegenheit, in einem global vernetzten Umfeld an zukunftsweisenden Projekten mitzuwirken, bei denen Ihre Expertise im Cloud Computing und Big Data von entscheidender Bedeutung ist. Der strategische Hauptsitz befindet sich in Dornbirn , jedoch operiert dieses Team vollständig virtuell.

Ihre Verantwortlichkeiten:
  • Entwurf, Entwicklung und Implementierung von skalierbaren Machine Learning Pipelines und KI-Modellen in der Cloud.
  • Arbeit mit großen Datensätzen (Big Data) und Optimierung von Datenverarbeitungsstrategien.
  • Auswahl und Anwendung geeigneter Algorithmen und Frameworks für ML-Aufgaben.
  • Training, Validierung und Deployment von Modellen unter Berücksichtigung von Effizienz und Leistung.
  • Zusammenarbeit mit Data Scientists, Softwareentwicklern und Produktmanagern zur Umsetzung von KI-Lösungen.
  • Aufbau und Pflege von MLOps-Infrastrukturen zur Automatisierung von Modellentwicklungs- und Deployment-Prozessen.
  • Überwachung und Optimierung der Performance von KI-Systemen in produktiven Umgebungen.
  • Forschung und Bewertung neuer Technologien und Methoden im Bereich KI/ML und Big Data.
  • Dokumentation von Prozessen, Modellen und Architekturen.
  • Mentoring jüngerer Teammitglieder und Förderung einer Kultur des Wissensaustauschs.
Ihr Profil:
  • Abgeschlossenes Studium (Master oder Promotion) in Informatik, Data Science, KI oder einem verwandten quantitativen Fach.
  • Mehrjährige praktische Erfahrung als AI/ML Engineer oder in einer vergleichbaren Rolle.
  • Fundierte Kenntnisse in Python und gängigen ML-Bibliotheken (TensorFlow, PyTorch, Scikit-learn).
  • Umfassende Erfahrung mit Cloud-Plattformen (AWS, Azure oder GCP) und deren ML-Diensten.
  • Expertise in Big Data Technologien wie Spark, Hadoop oder ähnlichen Ökosystemen.
  • Starkes Verständnis von Datenstrukturen, Algorithmen und Softwareentwicklungsprinzipien.
  • Erfahrung mit containerbasierten Technologien (Docker, Kubernetes).
  • Kenntnisse in MLOps-Praktiken und Werkzeugen.
  • Ausgeprägte Problemlösungsfähigkeiten und analytisches Denken.
  • Exzellente Kommunikationsfähigkeiten und Teamfähigkeit, auch in einem verteilten Team.
  • Sehr gute Englischkenntnisse in Wort und Schrift.
Wir bieten eine herausragende Karrieremöglichkeit mit einer wettbewerbsfähigen Vergütung, umfangreichen Benefits und der Möglichkeit, an Projekten mit globaler Reichweite zu arbeiten. Gestalten Sie die Zukunft der KI mit uns – remote und flexibel.

Leider ist dieser Job in Ihrer Region nicht verfügbar

Standorte in der Nähe

Andere Jobs in meiner Nähe

Industrie

  1. emoji_eventsAbsolventen
  2. apartmentArchitektur
  3. schoolAusbildungsplätze und Trainee
  4. directions_carAutomobilindustrie
  5. account_balanceBanken und Finanzen
  6. foundationBauingenieurwesen
  7. constructionBauwesen
  8. constructionBergbau
  9. schoolBildung und Lehre
  10. request_quoteBuchhaltung
  11. restaurantCatering
  12. scienceChemieingenieurwesen
  13. shopping_cartE-commerce und Social Media
  14. shopping_bagEinkauf
  15. storeEinzelhandel
  16. electrical_servicesElektrotechnik
  17. boltEnergie
  18. local_shippingFahren und Transport
  19. precision_manufacturingFertigung und Produktion
  20. sports_soccerFreizeit und Sport
  21. beach_accessGastgewerbe und Tourismus
  22. diversity_3Gemeinschaft und Sozialpflege
  23. health_and_safetyGesundheitswesen
  24. home_workImmobilien
  25. securityInformationssicherheit
  26. handymanInstallation und Wartung
  27. codeIT und Software
  28. smart_toyKI und aufstrebende Technologien
  29. child_friendlyKinderbetreuung
  30. child_friendlyKonsumgüterindustrie
  31. medical_servicesKrankenpflege
  32. brushKreativ und Digital
  33. currency_bitcoinKryptowährungen und Blockchain
  34. support_agentKundendienst und Helpdesk
  35. paletteKunst und Unterhaltung
  36. ecoLandwirtschaft und Forstwirtschaft
  37. inventory_2Logistik und Lagerhaltung
  38. flight_takeoffLuftfahrt
  39. supervisor_accountManagement
  40. campaignMarketing
  41. buildMaschinenbau
  42. perm_mediaMedien und Öffentlichkeitsarbeit
  43. local_hospitalMedizin
  44. local_hospitalMilitär und öffentliche Sicherheit
  45. local_gas_stationÖl und Gas
  46. person_searchPersonalberatung
  47. groupsPersonalwesen
  48. groupsPharmaindustrie
  49. checklist_rtlProjektmanagement
  50. gavelRecht
  51. clean_handsReinigung und Sanierung
  52. local_floristSchönheit und Wellness
  53. gavelStaatliche und gemeinnützige Organisationen
  54. wifiTelekommunikation
  55. psychologyTherapie
  56. petsTierarzt
  57. supervisor_accountUnternehmensberatung
  58. policyVersicherung
  59. point_of_saleVertrieb
  60. workVerwaltung
  61. precision_manufacturingWirtschaftsingenieurwesen
  62. scienceWissenschaftliche Forschung und Entwicklung
  63. volunteer_activismWohltätigkeit und Freiwilligenarbeit
  64. medical_servicesZahnmedizin
Alle anzeigen Spark Jobs