PostgreSQL
 sql >> डेटाबेस >  >> RDS >> PostgreSQL

डेटाप्रोक पर स्कूप एवरो प्रारूप में डेटा निर्यात नहीं कर सकता

समस्या Dataproc के Hadoop (Avro 1.7.7) और Sqoop 1.4.7 (Avro 1.8.1) में विभिन्न एवरो संस्करणों में हो सकती है।

आप स्कूप को 1.4.6 पर डाउनग्रेड करने का प्रयास कर सकते हैं जो एवरो 1.7 पर निर्भर करता है और avro-tools-1.7.7.jar का उपयोग करता है। नौकरी जमा करने के दौरान।

संपादित:

क्लास-लोडिंग समस्या को हल करने के लिए, आपको mapreduce.job.classloader=true सेट करना होगा डेटाप्रोक जॉब सबमिट करते समय:

gcloud dataproc jobs submit hadoop --cluster=<CLUSTER_NAME> \
    --class=org.apache.sqoop.Sqoop \
    --jars=gs://<BUCKET>/sqoop-1.4.7-hadoop260.jar \
    --properties=mapreduce.job.classloader=true \
    -- \
    . . .



  1. Database
  2.   
  3. Mysql
  4.   
  5. Oracle
  6.   
  7. Sqlserver
  8.   
  9. PostgreSQL
  10.   
  11. Access
  12.   
  13. SQLite
  14.   
  15. MariaDB
  1. बहुविकल्पीय प्रश्नों के लिए django प्रश्नोत्तरी ऐप मॉडल

  2. PostgreSQL में विरल डेटा का प्रतिनिधित्व

  3. Ubuntu 16.04 पर PostgreSQL 10 को स्थापित और कनेक्ट करें

  4. समय क्षेत्र फ़ील्ड के बिना टाइमस्टैम्प पर अनुक्रमणिका का उपयोग नहीं करने वाली क्वेरी

  5. टेक्स्ट पर अजीब वर्णों का चयन करें, LIKE ऑपरेटर के साथ काम नहीं कर रहा है