תיאור תפקיד:
לצוות חדש שהולך להוביל את כל פרויקטי ה-AI בארגון מחפשים Data Engineer פיתוח ותחזוקה של תשתיות דאטה, תהליכי Streaming ו-ETL בסביבת Big Data, עבודה עם Apache NiFi, Flink ו-Spark. פיתוח ממשקי API, עיבוד וטיוב נתונים ב-Python, אינטגרציה עם מערכות מידע, עבודה על בסיסי נתונים רלציוניים ולא רלציוניים (ElasticSearch, MongoDB, SQL), שימוש ב-Kafka ובסביבות Cloudera CDP, ושותפות בהקמת תשתית לפתרונות AI ארגוניים. הזדמנות לעבוד בצוות איכותי, בטכנולוגיות מתקדמות, בפרויקט עתיר משמעות עם אופק טכנולוגי.
מיקום: בני ברק | היברידיות: יומיים מהבית
דרישות:
דרישות חובה: לפחות 3 שנות ניסיון בפיתוח כ-Data Engineer ניסיון והתמחות בטכנולוגיות Streaming (לפחות אחד מהבאים: Apache NiFi / Flink / Spark) השכלה רלוונטית בתחום המחשבים או מערכות מידע (תואר / הנדסאי / קורסים / בוגרי יחידה טכנולוגית) ניסיון משמעותי בפיתוח ב-Python הבנה בארכיטקטורת Big Data, כולל פיתוח תהליכי עיבוד נתונים ואינטגרציה דרישות יתרון: ניסיון עם ElasticSearch כולל כתיבת שאילתות, ניהול אינדקסים ואופטימיזציה ניסיון בעבודה עם MongoDB כולל Aggregation Pipelines שליטה בכתיבת שאילתות SQL מורכבות ואופטימיזציה של ביצועים היכרות עם פלטפורמת Cloudera CDP ושירותי Kafka פיתוח ממשקי API ופתרונות מבוססי Microservices, כולל עבודה עם OpenShift היכרות עם כלי BI: SSAS ו-DataStage ניסיון בשילוב מודולי AI בפתרונות דאטה ויכולת הבנה של תשתיות מבוססות AI
היקף משרה:
משרה מלאה
קוד משרה:
JB-02397
אזור:
מרכז - תל אביב, פתח תקווה, רמת גן וגבעתיים, בקעת אונו וגבעת שמואל, חולון ובת-ים, מודיעין, שוהם
שרון - חדרה וזכרון יעקב, נתניה ועמק חפר, רעננה, כפר סבא והוד השרון, ראש העין, הרצליה ורמת השרון
השפלה - ראשון לציון ונס- ציונה, רמלה לוד, רחובות, יבנה
|