Hallo,
derzeit entwickele ich an einem Werkzeug, mit dem man Daten in einer Datenbank mit vorher aufgezeichneten Referenzdaten vergleichen kann. Diese Referenzdaten liegen in kommaseparierten Textdateien vor. Die Testdaten liegen auf einer Relationalen Datenbank. Der Vergleich der einzelnen Tabellen untereinander ist recht Einfach. Die Überprüfung der Fremdschlüsselbeziehungen dauert verhältnismäßig lange, da bei meiner jetzigen Implementierung die Textdatei mit der Tabelle, welche über den Fremdschlüssel referenziert ist jedesmal sequenziell durchsucht wird. Die Größe der Tabelle liegt bei ca 500.000 Datensätzen, weshalb eine komplette Verarbeitung im Hauptspeicher nicht in Frage kommt.
Hat jemand eine Idee, wie man über einen performanten Algorithmus auch diese Fremdschlüsselbeziehungen effizient überprüfen kann?
derzeit entwickele ich an einem Werkzeug, mit dem man Daten in einer Datenbank mit vorher aufgezeichneten Referenzdaten vergleichen kann. Diese Referenzdaten liegen in kommaseparierten Textdateien vor. Die Testdaten liegen auf einer Relationalen Datenbank. Der Vergleich der einzelnen Tabellen untereinander ist recht Einfach. Die Überprüfung der Fremdschlüsselbeziehungen dauert verhältnismäßig lange, da bei meiner jetzigen Implementierung die Textdatei mit der Tabelle, welche über den Fremdschlüssel referenziert ist jedesmal sequenziell durchsucht wird. Die Größe der Tabelle liegt bei ca 500.000 Datensätzen, weshalb eine komplette Verarbeitung im Hauptspeicher nicht in Frage kommt.
Hat jemand eine Idee, wie man über einen performanten Algorithmus auch diese Fremdschlüsselbeziehungen effizient überprüfen kann?