मुझे mysql/mariadb के साथ यह सटीक समस्या थी, और इस प्रश्न से बड़ा सुराग मिला
तो आपका pyspark कमांड होना चाहिए:
pyspark --conf spark.executor.extraClassPath=<jdbc.jar> --driver-class-path <jdbc.jar> --jars <jdbc.jar> --master <master-URL>
त्रुटियों के लिए भी देखें जब pyspark "चेतावनी:स्थानीय जार ... मौजूद नहीं है, छोड़ना" शुरू होता है। और "ERROR SparkContext:Jar not found at...", शायद इसका मतलब है कि आपने रास्ते की वर्तनी गलत कर दी है।