hadoop - कस्टम यूडीएफ को परिभाषित करने वाले हाइव प्रश्नों को चलाने के लिए ह्यू+मोम का उपयोग करते समय वितरित कैश को ताज़ा करने/साफ़ करने के लिए कैसे करें?



hive cloudera (1)

मैंने एक हडोप क्लस्टर (Cloudera प्रबंधक के माध्यम से Cloudera distro का उपयोग करके) स्थापित किया है और मैं ह्यू इंटरफ़ेस का उपयोग करके कुछ हाइव क्वेरी चला रहा हूं, जो कि नीचे के मक्खन का उपयोग करता है।

मेरे सारे प्रश्न ठीक चलते हैं और मैंने एक कस्टम यूडीएफ भी सफलतापूर्वक तैनात किया है।

लेकिन, यूडीएफ की तैनाती करते समय, मैं एक बहुत निराशाजनक संस्करण समस्या में भाग गया। मेरे यूडीएफ वर्ग के प्रारंभिक संस्करण में, मैंने एक तृतीय पक्ष वर्ग का उपयोग किया था जो एक StackOverflowError का कारण बना रहा था।

मैंने इस त्रुटि को तय किया और फिर सत्यापित किया कि यूडीएफ तैनात किया जा सकता है और सफलतापूर्वक हाइव कमांड लाइन से इस्तेमाल किया जा सकता है।

फिर, जब मैं फिर से ह्यू और बीसवेक्स का उपयोग करने के लिए वापस चला गया, तो मुझे वही त्रुटि मिलती रही। मैं इसे केवल यूडीएफ जावा वर्ग नाम बदलकर ठीक कर सकता हूं। ( Lower से Lower तक)

अब, मेरा सवाल है , इन प्रकार के संस्करण के मुद्दों से निपटने का सही तरीका क्या है?

मैं जो समझता हूं, जब मैं बाएं हाथ के फार्म फ़ील्ड का उपयोग करके जार जोड़ता हूं, तो उन्हें वितरित कैश में जोड़ा जाता है। तो, मैं कैसे वितरित कैश को रिफ्रेश / साफ़ कर सकता हूं? (मैं LIST JARS; नहीं पा रहा हूं आदि आदि। मुझे हाइव / बीसवेक्स के अंदर से चलाया जा सकता है। यह मुझे वाक्यविन्यास त्रुटि देता है।)


चूंकि वर्ग बीसवाक्स सर्वर जेवीएम पर लोड किए जाते हैं (उसी प्रकार हाइवेसेरवर 1 और हाइवेसेरवर 2 जेवीएम के साथ जाता है), एक जार के एक नए संस्करण की तैनाती के लिए अक्सर इन क्लास लोडिंग मुद्दों से बचने के लिए इन सेवाओं को पुनरारंभ करने की आवश्यकता होती है।





beeswax