Pyspark Rdd - Acciones

Pyspark Rdd - Acciones
En Python, Pyspark es un módulo de chispa utilizado para proporcionar un tipo de procesamiento similar como Spark.

RDD significa conjuntos de datos distribuidos resilientes. Podemos llamar a RDD como una estructura de datos fundamental en Apache Spark.

Necesitamos importar RDD del Pyspark.módulo RDD.

En Pyspark para crear un RDD, podemos usar el método Parallelize ().

Sintaxis:

Spark_app.sparkcontext.Paralelizar (datos)

Dónde:

Los datos pueden ser un dimensional (datos lineales) o dos dimensiones (datos de columna de fila).

Acciones RDD:

Una acción en RDD es una operación que se aplica en un RDD para devolver un valor único. En otras palabras, podemos decir que una acción resultará de los datos proporcionados haciendo alguna operación en el RDD dado.

Veamos las acciones que se realizan en el RDD dado.

Lo discutiremos uno por uno.

Para todas las acciones, consideramos el RDD de los estudiantes como se muestra a continuación:

['Rollno': '001', 'nombre': 'sravan', 'edad': 23, 'altura': 5.79, 'Peso': 67, 'Dirección': 'Guntur',
'Rollno': '002', 'Nombre': 'ojaswi', 'edad': 16, 'altura': 3.79, 'Peso': 34, 'Dirección': 'Hyd',
'Rollno': '003', 'Nombre': 'Gnanesh Chowdary', 'Age': 7, 'Altura': 2.79, 'Peso': 17, 'Dirección': 'Patna',
'rollno': '004', 'nombre': 'rohith', 'edad': 9, 'altura': 3.69, 'Peso': 28, 'Dirección': 'Hyd',
'Rollno': '005', 'Nombre': 'Sridevi', 'Age': 37, 'Altura': 5.59, 'Peso': 54, 'Dirección': 'Hyd']

recolectar()


La acción de recopilación () en RDD se utiliza para devolver los datos del RDD dado.

Sintaxis:

Rdd_data.recolectar()

Dónde, los datos de RDD son el RDD

Ejemplo:

En este ejemplo, veremos cómo realizar una acción de colección () en el rdd de los estudiantes.

#Importa el módulo Pyspark
importar pyspark
#Import Sparksession para crear una sesión
de Pyspark.SQL Import Sparksession
# Importar RDD de Pyspark.RDD
de Pyspark.RDD import rdd
#cree una aplicación llamada Linuxhint
Spark_app = Sparksession.constructor.AppName ('Linuxhint').getorcreate ()
# Crear datos de estudiante con 5 filas y 6 atributos
Estudiantes = Spark_App.sparkcontext.Parallelize ([['Rollno': '001', 'Nombre': 'Sravan', 'Age': 23,
'Altura': 5.79, 'Peso': 67, 'Dirección': 'Guntur',
'Rollno': '002', 'Nombre': 'ojaswi', 'edad': 16, 'altura': 3.79, 'Peso': 34, 'Dirección': 'Hyd',
'Rollno': '003', 'Nombre': 'Gnanesh Chowdary', 'Age': 7, 'Altura': 2.79, 'Peso': 17, 'Dirección': 'Patna',
'rollno': '004', 'nombre': 'rohith', 'edad': 9, 'altura': 3.69, 'Peso': 28, 'Dirección': 'Hyd',
'Rollno': '005', 'Nombre': 'Sridevi', 'Age': 37, 'Altura': 5.59, 'Peso': 54, 'Dirección': 'Hyd'])
#Performación de la acción de recolección
Imprimir (estudiantes.recolectar())

Producción:

['Rollno': '001', 'nombre': 'sravan', 'edad': 23, 'altura': 5.79, 'Peso': 67, 'Dirección': 'Guntur',
'Rollno': '002', 'Nombre': 'ojaswi', 'edad': 16, 'altura': 3.79, 'Peso': 34, 'Dirección': 'Hyd',
'Rollno': '003', 'Nombre': 'Gnanesh Chowdary', 'Age': 7, 'Altura': 2.79, 'Peso': 17, 'Dirección': 'Patna',
'rollno': '004', 'nombre': 'rohith', 'edad': 9, 'altura': 3.69, 'Peso': 28, 'Dirección': 'Hyd',
'Rollno': '005', 'Nombre': 'Sridevi', 'Age': 37, 'Altura': 5.59, 'Peso': 54, 'Dirección': 'Hyd']

Puede notar que todos los datos se devuelven con el método recopilar ().

2. contar()

count () La acción en RDD se usa para devolver el número total de elementos/valores del RDD dado.

Sintaxis:

Rdd_data.contar()

Donde los datos de RDD son el RDD

Ejemplo:

En este ejemplo, veremos cómo realizar la acción Count () en el RDD de los estudiantes:

#Importa el módulo Pyspark
importar pyspark
#Import Sparksession para crear una sesión
de Pyspark.SQL Import Sparksession
# Importar RDD de Pyspark.RDD
de Pyspark.RDD import rdd
#cree una aplicación llamada Linuxhint
Spark_app = Sparksession.constructor.AppName ('Linuxhint').getorcreate ()
# Crear datos de estudiante con 5 filas y 6 atributos
Estudiantes = Spark_App.sparkcontext.Parallelize ([['Rollno': '001', 'Nombre': 'Sravan', 'Age': 23,
'Altura': 5.79, 'Peso': 67, 'Dirección': 'Guntur',
'Rollno': '002', 'Nombre': 'ojaswi', 'edad': 16, 'altura': 3.79, 'Peso': 34, 'Dirección': 'Hyd',
'Rollno': '003', 'Nombre': 'Gnanesh Chowdary', 'Age': 7, 'Altura': 2.79, 'Peso': 17, 'Dirección': 'Patna',
'rollno': '004', 'nombre': 'rohith', 'edad': 9, 'altura': 3.69, 'Peso': 28, 'Dirección': 'Hyd',
'Rollno': '005', 'Nombre': 'Sridevi', 'Age': 37, 'Altura': 5.59, 'Peso': 54, 'Dirección': 'Hyd'])
#Acción de conteo de rendimiento
Imprimir (estudiantes.contar())

Producción:

5

Puede notar que el número total de elementos se devuelve con el método Count ().

3. primero()

First () La acción en RDD se usa para devolver el primer elemento/valor del RDD dado.

Sintaxis:

Rdd_data.primero()

Donde los datos de RDD son el RDD

Ejemplo:

En este ejemplo, veremos cómo realizar la acción primero () en el RDD de los estudiantes.

#Importa el módulo Pyspark
importar pyspark
#Import Sparksession para crear una sesión
de Pyspark.SQL Import Sparksession
# Importar RDD de Pyspark.RDD
de Pyspark.RDD import rdd
#cree una aplicación llamada Linuxhint
Spark_app = Sparksession.constructor.AppName ('Linuxhint').getorcreate ()
# Crear datos de estudiante con 5 filas y 6 atributos
Estudiantes = Spark_App.sparkcontext.Parallelize ([['Rollno': '001', 'Nombre': 'Sravan', 'Age': 23,
'Altura': 5.79, 'Peso': 67, 'Dirección': 'Guntur',
'Rollno': '002', 'Nombre': 'ojaswi', 'edad': 16, 'altura': 3.79, 'Peso': 34, 'Dirección': 'Hyd',
'Rollno': '003', 'Nombre': 'Gnanesh Chowdary', 'Age': 7, 'Altura': 2.79, 'Peso': 17, 'Dirección': 'Patna',
'rollno': '004', 'nombre': 'rohith', 'edad': 9, 'altura': 3.69, 'Peso': 28, 'Dirección': 'Hyd',
'Rollno': '005', 'Nombre': 'Sridevi', 'Age': 37, 'Altura': 5.59, 'Peso': 54, 'Dirección': 'Hyd'])
#Apply First () Acción
Imprimir (estudiantes.primero())

Producción:

'Rollno': '001', 'nombre': 'sravan', 'edad': 23, 'altura': 5.79, 'Peso': 67, 'Dirección': 'Guntur'

Puede notar que el primer elemento se devuelve con el primer método ().

4. llevar()

Take () La acción en RDD se usa para devolver los valores de N desde la parte superior del RDD dado. Se necesita un parámetro - n. Donde se refiere a un entero que especifica el número de elementos para regresar de RDD.

Sintaxis:

Rdd_data.tomado)

Parámetro:

n- se refiere a un entero que especifica el número de elementos para devolver de RDD.

Ejemplo:

En este ejemplo, veremos cómo realizar una acción Take () en el RDD de los estudiantes devolviendo solo 2 valores.

#Importa el módulo Pyspark
importar pyspark
#Import Sparksession para crear una sesión
de Pyspark.SQL Import Sparksession
# Importar RDD de Pyspark.RDD
de Pyspark.RDD import rdd
#cree una aplicación llamada Linuxhint
Spark_app = Sparksession.constructor.AppName ('Linuxhint').getorcreate ()
# Crear datos de estudiante con 5 filas y 6 atributos
Estudiantes = Spark_App.sparkcontext.Parallelize ([['Rollno': '001', 'Nombre': 'Sravan', 'Age': 23,
'Altura': 5.79, 'Peso': 67, 'Dirección': 'Guntur',
'Rollno': '002', 'Nombre': 'ojaswi', 'edad': 16, 'altura': 3.79, 'Peso': 34, 'Dirección': 'Hyd',
'Rollno': '003', 'Nombre': 'Gnanesh Chowdary', 'Age': 7, 'Altura': 2.79, 'Peso': 17, 'Dirección': 'Patna',
'rollno': '004', 'nombre': 'rohith', 'edad': 9, 'altura': 3.69, 'Peso': 28, 'Dirección': 'Hyd',
'Rollno': '005', 'Nombre': 'Sridevi', 'Age': 37, 'Altura': 5.59, 'Peso': 54, 'Dirección': 'Hyd'])
#Performará medidas para devolver solo las 2 filas Top Top
Imprimir (estudiantes.tomar 2))
Producción:
['Rollno': '001', 'nombre': 'sravan', 'edad': 23, 'altura': 5.79, 'Peso': 67, 'Dirección': 'Guntur',
'Rollno': '002', 'Nombre': 'ojaswi', 'edad': 16, 'altura': 3.79, 'Peso': 34, 'Dirección': 'Hyd']

Puede notar que los primeros 2 elementos se devuelven con el método Take ().

5. saveStextFile ()

La acción de SaveStextFile () se utiliza para almacenar los datos RDD en un archivo de texto. Toma el nombre del archivo como parámetro de modo que el archivo se guarde con el nombre de archivo especificado.

Sintaxis:

Rdd_data.saveStextFile ('file_name.TXT')

Parámetro:

file_name: el archivo se guarda con el nombre de archivo especificado.

Ejemplo:

En este ejemplo, veremos cómo realizar la acción de SaveStextFile () en el RDD de los estudiantes almacenando el archivo.

#Importa el módulo Pyspark
importar pyspark
#Import Sparksession para crear una sesión
de Pyspark.SQL Import Sparksession
# Importar RDD de Pyspark.RDD
de Pyspark.RDD import rdd
#cree una aplicación llamada Linuxhint
Spark_app = Sparksession.constructor.AppName ('Linuxhint').getorcreate ()
# Crear datos de estudiante con 5 filas y 6 atributos
Estudiantes = Spark_App.sparkcontext.Parallelize ([['Rollno': '001', 'Nombre': 'Sravan', 'Age': 23,
'Altura': 5.79, 'Peso': 67, 'Dirección': 'Guntur',
'Rollno': '002', 'Nombre': 'ojaswi', 'edad': 16, 'altura': 3.79, 'Peso': 34, 'Dirección': 'Hyd',
'Rollno': '003', 'Nombre': 'Gnanesh Chowdary', 'Age': 7, 'Altura': 2.79, 'Peso': 17, 'Dirección': 'Patna',
'rollno': '004', 'nombre': 'rohith', 'edad': 9, 'altura': 3.69, 'Peso': 28, 'Dirección': 'Hyd',
'Rollno': '005', 'Nombre': 'Sridevi', 'Age': 37, 'Altura': 5.59, 'Peso': 54, 'Dirección': 'Hyd'])
#perform saveStextFile () acción para guardar RDD en el archivo de texto.
estudiantes.saveStextFile ('Students_File.TXT')

Producción:

Puedes ver que Students_File comienza a descargar.

Conclusión

En este tutorial de Pyspark, ves qué es un RDD y cómo realizar diferentes acciones disponibles en RDD. Las acciones que se realizan en RDD son: Count () para devolver el número total de elementos en RDD, Collect () para devolver los valores presentes en RDD, First () y Take () para devolver First Value y SaveStextFile () Action Para guardar el RDD en un archivo de texto.