تحليل البيانات الضخمة – المنهجية

تحليل البيانات الضخمة

من حيث المنهجية، تختلف تحليلات البيانات الضخمة بشكل كبير عن النهج الإحصائي التقليدي للتصميم التجريبي. التحليلات تبدأ بالبيانات. عادةً ما نقوم بنمذجة البيانات بطريقة تشرح الاستجابة. أهداف هذا النهج هي التنبؤ بسلوك الاستجابة أو فهم كيفية ارتباط متغيرات الإدخال بالاستجابة. عادة في التصاميم التجريبية الإحصائية، يتم تطوير التجربة واسترجاع البيانات نتيجة لذلك. يسمح ذلك بتوليد البيانات بطريقة يمكن استخدامها بواسطة نموذج إحصائي، حيث توجد افتراضات معينة مثل الاستقلالية، والحالة الطبيعية، والعشوائية.

في تحليلات البيانات الضخمة، يتم تقديم البيانات لنا. لا يمكننا تصميم تجربة تلبي النموذج الإحصائي المفضل لدينا. في تطبيقات التحليلات واسعة النطاق، يلزم قدر كبير من العمل (عادة 80% من الجهد) فقط لتنظيف البيانات، بحيث يمكن استخدامها بواسطة نموذج التعلم الآلي.

ليس لدينا منهجية فريدة لنتبعها في التطبيقات الحقيقية واسعة النطاق. عادة بمجرد تحديد مشكلة العمل، تكون هناك حاجة إلى مرحلة بحث لتصميم المنهجية التي سيتم استخدامها. ومع ذلك، من المهم ذكر الإرشادات العامة وتنطبق على جميع المشكلات تقريبًا.

واحدة من أهم المهام في تحليلات البيانات الضخمة هي النمذجة الإحصائية، وهذا يعني التصنيف أو مشاكل الانحدار الخاضعة للإشراف وغير الخاضعة للإشراف. بمجرد تنظيف البيانات ومعالجتها مسبقًا، وإتاحتها للنمذجة، يجب توخي الحذر عند تقييم النماذج المختلفة بمقاييس خسارة معقولة، ثم بمجرد تنفيذ النموذج، يجب الإبلاغ عن المزيد من التقييم والنتائج. من الأخطاء الشائعة في النمذجة التنبؤية هو مجرد تنفيذ النموذج وعدم قياس أدائه أبدًا.

Related posts

Apache Kafka نظرة عامة

تحليل البيانات الضخمة – متخصص علوم البيانات

Cassandra – نموذج البيانات