python valores Como dividir o vetor em colunas-usando o PySpark




use pyspark in python (2)

Contexto: Eu tenho um DataFrame com 2 colunas: word e vector. Onde o tipo de coluna de "vetor" é VectorUDT .

Um exemplo:

word    |  vector
assert  | [435,323,324,212...]

E eu quero conseguir isso:

word   |  v1 | v2  | v3 | v4 | v5 | v6 ......
assert | 435 | 5435| 698| 356|....

Questão:

Como posso dividir uma coluna com vetores em várias colunas para cada dimensão usando o PySpark?

desde já, obrigado


Uma abordagem possível é converter para e de RDD:

from pyspark.ml.linalg import Vectors

df = sc.parallelize([
    ("assert", Vectors.dense([1, 2, 3])),
    ("require", Vectors.sparse(3, {1: 2}))
]).toDF(["word", "vector"])

def extract(row):
    return (row.word, ) + tuple(row.vector.toArray().tolist())

df.rdd.map(extract).toDF(["word"])  # Vector values will be named _2, _3, ...

## +-------+---+---+---+
## |   word| _2| _3| _4|
## +-------+---+---+---+
## | assert|1.0|2.0|3.0|
## |require|0.0|2.0|0.0|
## +-------+---+---+---+

Uma solução alternativa seria criar um UDF:

from pyspark.sql.functions import udf, col
from pyspark.sql.types import ArrayType, DoubleType

def to_array(col):
    def to_array_(v):
        return v.toArray().tolist()
    return udf(to_array_, ArrayType(DoubleType()))(col)

(df
    .withColumn("xs", to_array(col("vector")))
    .select(["word"] + [col("xs")[i] for i in range(3)]))

## +-------+-----+-----+-----+
## |   word|xs[0]|xs[1]|xs[2]|
## +-------+-----+-----+-----+
## | assert|  1.0|  2.0|  3.0|
## |require|  0.0|  2.0|  0.0|
## +-------+-----+-----+-----+

Para Scala equivalente, consulte Spark Scala: Como converter Dataframe [vector] em DataFrame [f1: Double, ..., fn: Double)] .


def splitVecotr(df, new_features=['f1','f2']):
schema = df.schema
cols = df.columns

for col in new_features: # new_features should be the same length as vector column length
    schema = schema.add(col,DoubleType(),True)

return spark.createDataFrame(df.rdd.map(lambda row: [row[i] for i in cols]+row.features.tolist()), schema)

A função transforma a coluna do vetor de recursos em colunas separadas







apache-spark-ml