Hallo ....
Ich stehe vor einem Problem. Ich bekomme viele und echt große CSV Dateien und diese muss ich parsen und in eine Datenbank schreiben. Zurzeit wird das in PHP gelöst nur dauert der import so ca. 3 Tage für einen! Shop.
Also, da wir unsere Daten auf Amazon (AWS) -S3- speichern wollen wir das System von Amazon auch nutzen ---> Cloud Computing. EC2, bzw. Amazon Elastic MapReduce (Hadoop).
So, kennt sich jemand vlt damit aus ?
Oder was denkt ihr was die beste Lösung ist um dieses Problem zu lösen, wie verarbeitet man 300 mb files mit 300.000 einträgen am schnellsten und trägt diese in eine DB ein ... ?
Ich stehe vor einem Problem. Ich bekomme viele und echt große CSV Dateien und diese muss ich parsen und in eine Datenbank schreiben. Zurzeit wird das in PHP gelöst nur dauert der import so ca. 3 Tage für einen! Shop.
Also, da wir unsere Daten auf Amazon (AWS) -S3- speichern wollen wir das System von Amazon auch nutzen ---> Cloud Computing. EC2, bzw. Amazon Elastic MapReduce (Hadoop).
So, kennt sich jemand vlt damit aus ?
Oder was denkt ihr was die beste Lösung ist um dieses Problem zu lösen, wie verarbeitet man 300 mb files mit 300.000 einträgen am schnellsten und trägt diese in eine DB ein ... ?