|
Forums, dernières contributions
Chargement de données dans Hadoop
Bonjour, le plus simple est d'utilisé un ETL (example: Talend) pour faire l'extraction.
Vous pouvez utiliser sqoop aussi: http://shout.setfive.com/2011/09/14/getting-started-with-hadoop-hive-and-sqoop/
Merci CHERIF.......justement ma tâche est la mise en oeuvre du processus ETL sous l'environnement Hadoop Hive, càd je veux le performer vu que le Hadoop integre le paradigme MapReduce. cependant je veux faire l'extraction des données en MapReduce, j'ecris le programme d'extraction sous eclipse et je veux mettre les données extraites dans l'HDFS. Existe t-il un moyen de les transferer directement vers l'HDFS ??
si non il me reste plus qu'a utiliser le sqoop !!!
Bonjour, svp quelqu'un a une idée sur l'installation de sqoop ?!!!
j'ai telechargé le package depuis http://sqoop.apache.org/ je l'ai decompressé dans le root, mais j'arrive pas l'installer avec la commande sudo apt-get -q -y install sqoop
( je ne travaille pas avec cloudera, j'ai installé le Hadoop tout seul et le Hive tout seul)
Bonjour, svp est ce que je peux installer cloudera sur ubuntu oneiric 11.10 syst 64bits ?
Bonjour, moi je suis débutante dans le domaine de big data, je veux installer hadoop, pour cela j'ai installé Cygwin mais je n'ai pas su comment faire pour installer et configurer hadoop sous cet environnement. J'aimerai bien avoir de l'aide et merci
|