Escribir en Redshift desde R a toda velocidad

Como muchos saben, Redshift es un fork de Postgres hecho por Amazon para entregar un servicio de Data Warehouse, la gran diferencia entre estos 2 productos es que el primero es una base de datos columnar y comprimida, mientras que el segundo no.

Las bases de datos columnares son muy rápidas para realizar agregaciones y cruces, pero no tanto para la inserción de registros (no esperes mas de 4 registros por segundo con un insert normal en Redshift), por lo que en general tienen alguna vía no standard. En el caso de Redshift el método es el siguiente:

  1. Si no existe la tabla en la base de datos: créela.
  2. Guarde la la tabla que quiere cargar en S3, idealmente en varios archivos CSV comprimidos en gzip.
  3. Desde Redshift llame al comando COPY para leer los archivos de S3 y cargarlos en la Base de Datos.

Como ven, no es un proceso standard, por lo que sicarul creó la librería redshiftTools que realiza todo este proceso secuencial mente, pero la librería era bastante lenta, para cargar un un dataset de 1.5 millones de registros y 800 columnas, toma 21 minutos, por lo que decidí revisar el codigo a ver si podía realizar algunas optimizaciones, dentro las las cuales encontré:

  1. El paquete usaba write.csv para generar los CSV, por lo que migré a fwrite.
  2. La compresión de los CSV era secuencial, por lo que paralelicé compresión de los CSV usando future.
  3. Solo existía una función para realizar un update de una tabla, lo que era lento, por lo que creé una función que solo inserta registros en una tabla.

Al realizar todos estos cambios, el proceso completo de carga bajó a menos de 6 minutos, siendo un 350% más rápido que el ya existente (por lo que ya llené un pull request al repositorio oficial).

Mientras el pull request es aceptado, pueden disfrutar de la libreria optimizada en mi GitHub, pueden instalarlo con los siguientes commandos desde R:

<br />
install.packages(&quot;aws.ec2metadata&quot;, repos = c(cloudyr = &quot;http://cloudyr.github.io/drat&quot;, getOption(&quot;repos&quot;)))<br />
packages = c(&quot;devtools&quot;, &quot;httr&quot;, &quot;package_n&quot;,&quot;aws.s3&quot;, &quot;Rcpp&quot;,&quot;DBI&quot;,&quot;data.table&quot;,&quot;future&quot;,&quot;future.apply&quot;,&quot;R.utils&quot;,&quot;dplyr&quot;)<br />
for(pack in packages){<br />
  if(!pack %in% rownames(installed.packages())){<br />
    print(paste(&quot;installing&quot;,pack))<br />
    install.packages(pack)<br />
  }<br />
}<br />
devtools::install_github(&quot;danielfm123/redshiftTools&quot;)<br />

un pequeño ejemplo de como usarlo en el siguiente código:

</p>
<p>library(data.table)<br />
library(RPostgreSQL)<br />
library(toolkitEntel)<br />
setDTthreads(0)</p>
<p>dataset = fread(&quot;Ruta a algun archivo que se quiera leer&quot;,data.table = F,sep = &quot;|&quot;,encoding = &quot;Latin-1&quot;,nrows = -1)</p>
<p>#COnectar a SQL<br />
con = dbConnect(<br />
  dbDriver(&quot;PostgreSQL&quot;),<br />
  dbname = &quot;nombre base de datos&quot;,<br />
  user = &quot;usuario&quot;,<br />
  password = &quot;contraseñna&quot;,<br />
  host = &quot;ip del servidor&quot;<br />
)</p>
<p># Crear una tabla, detecta tipos de columnas<br />
rs_create_table(<br />
  dataset,<br />
  dbcon = con,<br />
  table_name = 'table_name',<br />
  bucket = &quot;bucket_name&quot;,<br />
  region = &quot;us-east-2&quot;,<br />
  keys = &quot;AWS AIM KEY de S3&quot;,<br />
  secret_key = &quot;AWS AIM SECRET de S3&quot;<br />
)</p>
<p># agregar data a una tabla existente<br />
rs_append_table(<br />
  dataset,<br />
  dbcon = con,<br />
  table_name = 'table_name',<br />
  bucket = &quot;bucket_name&quot;,<br />
  region = &quot;us-east-2&quot;,<br />
  keys = &quot;AWS AIM KEY de S3&quot;,<br />
  secret_key = &quot;AWS AIM SECRET de S3&quot;<br />
)</p>
<p>#desconectarse de redshift<br />
dbDisconnect(con)</p>
<p>

Print Friendly, PDF & Email

Dejar una contestacion

Tu dirección de correo electrónico no será publicada.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.