انضمّ إلى برنامج هندسة البيانات العملي من ZAKA ، وتعلّم أهم الأدوات والتقنيات اللازمة لنقل، وتحويل، وإدارة البيانات الضخمة (Big Data) بكفاءة عالية. يغطي البرنامج عمليات استخراج وتحويل وتحميل البيانات (ETL)، والمنصات السحابية، والأنظمة الموزعة، والأتمتة.
١٢ أسبوعًا من التعلّم + ٨ أسابيع للاستعداد المهني
المدة: أسبوع واحد
المهارات المكتسبة:
مخرجات التعلّم
ستتعرّف على دورة حياة البيانات والمصطلحات الأساسية لهندسة البيانات. كما ستتعرّف على الصورة الشاملة للعملية وعلى بنى البيانات الضخمة والمنصّات التي تحدّد متى تصبح البيانات “ضخمة”.
المدة: أسبوع واحد
المهارات المكتسبة:
مخرجات التعلّم
ستُنمّي مهاراتك في Python وتتعلم كيف يستخدمها مهندسو البيانات في استخراج وتحويل وتحميل البيانات. ستتعلّم أيضاً التعامل مع بيئات Linux وتشغيل السكربتات scripts، بالإضافة إلى استخدام Docker لنشر الأدوات والتطبيقات بسرعة وكفاءة.
المدة: أسبوع واحد
المهارات المكتسبة:
مخرجات التعلّم
ستتعرّف على نماذج البيانات المختلفة وأساسيّات قواعد بيانات SQL وNoSQL. ستستخدم أنظمة إدارة قواعد البيانات الشائعة وتصل إليها برمجيًا عبر Python.
المدة: أسبوع واحد
المهارات المكتسبة:
مخرجات التعلّم
ستتعرّف على حزم البيانات Data Stacks الأكثر استخدامًا في كل مرحلة، من استخراج البيانات إلى تحويلها وصولًا إلى تحميلها. في نهاية الأسبوع، ستقوم ببناء خط بيانات كامل (Pipeline).
المدة: أسبوع واحد
المهارات المكتسبة:
مخرجات التعلّم
ستتعلّم كيفية بناء مستودعات البيانات والاستعلام عنها. ومع فهم الصورة الشاملة لهندسة البيانات، ستتعلّم كيفية أتمتة وتشغيل خطوط البيانات.
المدة: أسبوع واحد
المهارات المكتسبة:
مخرجات التعلّم
ستتعلّم كيفية التعامل مع مستودعات البيانات الضخمة وإعداد Apache Hive على خوادم Hadoop وتحميل البيانات من النظام المحلّي وHDFS. كما ستتعرّف إلى مفهوم محرّكات الاستعلام، وإلى أساسيات تعلم الآلة Machine Learning باستخدام SparkML.
المدة: أسبوع واحد
المهارات المكتسبة:
مخرجات التعلّم
ستتعرف على أدوات جديدة ضمن بيئة Hadoop، بدءاً من أنظمة المراسلة مع Apache Kafka وكيفية استخدامه لإنتاج واستهلاك البيانات. ثم ستنتقل لمصادر البيانات المتدفقة مع Apache Flink، وترحيل البيانات العلائقية إلى مستودع البيانات. ستتعلم أيضاً أدوات مثل Apache Oozie/Airflow للأتمتة، وستفهم العلاقة التكاملية بين مهندسي البيانات ومهندسي ذكاء الأعمال.
المدة: أسبوع واحد
المهارات المكتسبة:
مخرجات التعلّم
بجانب العمل مع البيانات محليًا، ستتعلم جمع البيانات وتخزينها في السحابة. هذا الأسبوع، ستستكشف مختلف الخدمات التي تقدمها مزودات السحابة مثل AWS لمعالجة البيانات الضخمة.
المدة: أسبوع واحد
المهارات المكتسبة:
مخرجات التعلّم
تعلم كيفية معالجتها وتحليلها واستخدام أدوات Azure لإنشاء تصورات مرئية للبيانات.






















أكمل طلب البرنامج الخاص بك من خلال إجراء اختبار تقني
اخضع لمقابلة عامة للتأكد من أن البرنامج مناسب لك.
استلم قبولًا رسميًا للتسجيل.
تعلّم كيفية إدارة البيانات الضخمة، وأتمتة سير العمل، وبناء أنظمة جاهزة للإنتاج.
قدّم طلبك اليومانضم إلى برامجنا المبتكرة عبر الإنترنت بدوام جزئي لتتعلّم وتنمو مع زملاء يشاركونك الاهتمام نفسه.
عند إتمامك لتخصص تعلم الآلة، سيكون بإمكانك الحصول على شهادة معتمدة من CertNexus.
الأسئلة الشائعة
You’ll work on hands-on projects including ETL pipelines, data warehousing, real-time streaming, and cloud-based solutions using Spark, Hadoop, Kafka, Airflow, AWS, and Azure. By the end, you’ll have a portfolio-ready project demonstrating end-to-end data engineering skills.
يساعد وجود فهم أساسي للبرمجة ومفاهيم البيانات، لكنه ليس إلزاميًا. يغطي البرنامج الأساسيات ويقدّم تدريجيًا أدوات مثل SQL وعمليات ETL ومنصّات البيانات السحابية.
يمكن للخريجين الالتحاق بأدوار مثل مهندس بيانات، مطوّر بيانات ضخمة، أخصائي ETL، أو مهندس بيانات سحابية. ومع امتلاكك لمجموعة من خطوط الأنابيب المنشورة، وخبرة في التعامل مع السحابة، والتعرّض لمشاريع شاملة من البداية إلى النهاية، ستكون جاهزًا لمواجهة تحديات هندسة البيانات في العالم الحقيقي والتقدّم داخل المؤسسات التي يقودها التطوّر التكنولوجي.
يركز مسار هندسة البيانات على بناء البنية التحتية وخطوط الأنابيب لجعل البيانات متاحة وموثوقة وجاهزة للتحليل أو النمذجة. ستتعلّم إدارة قواعد البيانات، وأتمتة سير عمل البيانات، والتعامل مع أنظمة البيانات واسعة النطاق.
احجز مكانك في دفعتنا القادمة! كن جزءًا من تجربة تعليمية حصرية ستُحوّل مهاراتك ومسيرتك المهنية.
Form status message here.