دورة Apache Spark

عن الدرس

تستخدم الصناعات Hadoop على نطاق واسع لتحليل مجموعات البيانات الخاصة بها. والسبب هو أن إطار عمل Hadoop يعتمد على نموذج برمجة بسيط (MapReduce) ويتيح حلاً حاسوبيًا قابلاً للتطوير ومرنًا ومتسامحًا مع الأخطاء وفعالاً من حيث التكلفة. هنا، الاهتمام الرئيسي هو الحفاظ على السرعة في معالجة مجموعات البيانات الكبيرة من حيث وقت الانتظار بين الاستعلامات ووقت الانتظار لتشغيل البرنامج، تم تقديم Spark بواسطة مؤسسة Apache Software Foundation لتسريع عملية برامج الحوسبة الحسابية Hadoop.