मोठा डेटा प्रवाह

लेखक: Laura McKinney
निर्मितीची तारीख: 1 एप्रिल 2021
अद्यतन तारीख: 1 जुलै 2024
Anonim
Fog Computing-I
व्हिडिओ: Fog Computing-I

सामग्री

व्याख्या - बिग डेटा स्ट्रीमिंग म्हणजे काय?

बिग डेटा स्ट्रीमिंग ही एक प्रक्रिया आहे ज्यामधून त्यामधून वास्तविक-वेळ अंतर्दृष्टी काढण्यासाठी मोठ्या डेटावर त्वरीत प्रक्रिया केली जाते. ज्या डेटावर प्रक्रिया केली जाते ती गतिशील डेटा आहे. मोठा डेटा प्रवाह हा एक वेगवान-केंद्रित दृष्टीकोन असतो ज्यामध्ये डेटाच्या सतत प्रवाहावर प्रक्रिया केली जाते.


मायक्रोसॉफ्ट अझर आणि मायक्रोसॉफ्ट क्लाऊडची ओळख | या संपूर्ण मार्गदर्शकामध्ये आपण क्लाउड संगणन करणे म्हणजे काय आणि मायक्रोसॉफ्ट अझर आपल्याला क्लाऊडवरून आपला व्यवसाय स्थलांतरित आणि चालविण्यात कशी मदत करू शकेल हे शिकाल.

टेकोपीडिया बिग डेटा स्ट्रीमिंगचे स्पष्टीकरण देते

बिग डेटा स्ट्रीमिंग ही एक प्रक्रिया आहे ज्यामध्ये अंतर्दृष्टी आणि उपयुक्त ट्रेंड मिळविण्याच्या एकमात्र उद्देशाने रीअल-टाइम डेटाच्या मोठ्या प्रवाहांवर प्रक्रिया केली जाते. डिस्कवर संग्रहित करण्यापूर्वी स्मृतीमध्ये विश्लेषित करण्यासाठी अखंड नसलेल्या डेटाचा सतत प्रवाह पाठविला जातो. सर्व्हरच्या क्लस्टरवर हे घडते. मोठ्या डेटा प्रवाहात गती सर्वात महत्त्वाची आहे. त्वरीत प्रक्रिया न केल्यास डेटाचे मूल्य, काळासह कमी होते.

रीअल-टाइम प्रवाह डेटा विश्लेषण हे एकल-विश्लेषण आहे. एकदा डेटा प्रवाहित झाला की विश्लेषक डेटाचे पुन: विश्लेषण करणे निवडू शकत नाहीत.