Faire un job ETL avec Apache Spark (Partie 1)

job etl avec spark image de couverture

Apache Spark est un framework de data processing qui permet de traiter de gros volumes de données. Spark se charge de distribuer le calcul sur plusieurs machines en utilisant principalement les mémoires vives (RAM). Le projet a été initié par Matei Zaharia dans le  laboratoire AMPLAB de l’université de Berkeley en 2009 avant d’être confié à la fondation Apache. Matei est actuellement le CTO de Databricks, la société commerciale derrière Apache Spark.

Lire la suite

Synaltic recrute un/e fan d’ESB et d’ETL !

synaltic recrute developpeur ESB ETL

Vous savez ce que signifient les deux acronymes présents dans le titre de cette annonce ? Vous savez développer des jobs Talend stables et efficaces ? Les web services et les bases de données, ça vous connait ? Cette annonce est pour vous !

Lire la suite