Solución:
Una mesa de parquet colmena en Spark se puede utilizar siguiendo 2 flujos de lectura:
-
Flujo de colmena: se utilizará cuando
spark.sql.hive.convertMetastoreParquet
se establece enfalse
. Para que la partición pruining funcione en este caso, debe configurarspark.sql.hive.metastorePartitionPruning=true
.spark.sql.hive.metastorePartitionPruning: cuando es verdadero, algunos predicados se enviarán al almacén de metas de Hive para que las particiones que no coincidan se puedan eliminar antes. Esto solo afecta a las tablas de Hive que no se convierten en relaciones de origen de archivos (consulte HiveUtils.CONVERT_METASTORE_PARQUET y HiveUtils.CONVERT_METASTORE_ORC para obtener más información
-
Flujo de origen de datos: este flujo tiene activada la eliminación de particiones de forma predeterminada.