|
Forums, dernières contributions
Chargement de données dans Hadoop
Bonjour, je suis informaticienne et je travaille sur le Hadoop Hive, je veux savoir comment faire pour stocker des données extraites directement dans l''HDFS ? (ma base de données sources est dans MySQL, j''ai extrait les données avec eclipse et maintenant je veux les mettres dans l''HDFS mais j''ai pas su comment faire !!! ).
Bonjour, le plus simple est d'utilisé un ETL (example: Talend) pour faire l'extraction.
Vous pouvez utiliser sqoop aussi: http://shout.setfive.com/2011/09/14/getting-started-with-hadoop-hive-and-sqoop/
Merci CHERIF.......justement ma tâche est la mise en oeuvre du processus ETL sous l'environnement Hadoop Hive, càd je veux le performer vu que le Hadoop integre le paradigme MapReduce. cependant je veux faire l'extraction des données en MapReduce, j'ecris le programme d'extraction sous eclipse et je veux mettre les données extraites dans l'HDFS. Existe t-il un moyen de les transferer directement vers l'HDFS ??
si non il me reste plus qu'a utiliser le sqoop !!!
Bonjour, svp quelqu'un a une idée sur l'installation de sqoop ?!!!
j'ai telechargé le package depuis http://sqoop.apache.org/ je l'ai decompressé dans le root, mais j'arrive pas l'installer avec la commande sudo apt-get -q -y install sqoop
( je ne travaille pas avec cloudera, j'ai installé le Hadoop tout seul et le Hive tout seul)
Bonjour, svp est ce que je peux installer cloudera sur ubuntu oneiric 11.10 syst 64bits ?
|