ALKIS-Daten einlesen: Unterschied zwischen den Versionen
Rahn (Diskussion | Beiträge) |
Rahn (Diskussion | Beiträge) |
||
Zeile 1: | Zeile 1: | ||
Es gibt "irgendwo" auf dem Server einen Ordner mit folgendem Inhalt: | Es gibt "irgendwo" auf dem Server einen Ordner mit folgendem Inhalt: | ||
− | + | :/eingang | |
− | + | :/eingelesen | |
− | + | :/postprocessing | |
− | + | :/sicherung | |
− | + | :/temp | |
:start_ff.sh | :start_ff.sh | ||
:ff.log | :ff.log | ||
+ | :ff.err | ||
Im Ordner "eingang" werden die gezippten NAS-Fortführungsdaten, die eingelesen werden sollen, abgelegt (Katalog- und Objektdaten). Dies sollte am besten auch automatisiert ablaufen. | Im Ordner "eingang" werden die gezippten NAS-Fortführungsdaten, die eingelesen werden sollen, abgelegt (Katalog- und Objektdaten). Dies sollte am besten auch automatisiert ablaufen. | ||
− | Wenn das Shell-Skript "start_ff.sh" ausgeführt wird, guckt es im Ordner "eingang" nach, ob dort ZIP-Dateien liegen. Diese werden | + | Wenn das Shell-Skript "start_ff.sh" ausgeführt wird, guckt es im Ordner "eingang" nach, ob dort ZIP-Dateien liegen. Diese werden nacheinander abgearbeitet. Jede Zip-Datei wird im Ordner "temp" ausgepackt und die entaltenen NAS-Dateien werden über ogr2ogr in die PostGIS-DB eingelesen. Das Ganze wird in der Datei "ff.log" geloggt. Das Einlesen wird als Transaktion durchgeführt (kein -skipfailures) und wenn fehlerfrei eingelesen wurde, wird die eingelesene Datei im Schema "alkis" in einer Tabelle "import" mit folgender Struktur eingetragen: |
CREATE TABLE alkis.import | CREATE TABLE alkis.import | ||
Zeile 17: | Zeile 18: | ||
id serial NOT NULL, | id serial NOT NULL, | ||
datum timestamp without time zone DEFAULT now(), | datum timestamp without time zone DEFAULT now(), | ||
− | datei text | + | datei text, |
+ | status text | ||
) | ) | ||
WITH( | WITH( |
Version vom 24. November 2015, 15:18 Uhr
Es gibt "irgendwo" auf dem Server einen Ordner mit folgendem Inhalt:
- /eingang
- /eingelesen
- /postprocessing
- /sicherung
- /temp
- start_ff.sh
- ff.log
- ff.err
Im Ordner "eingang" werden die gezippten NAS-Fortführungsdaten, die eingelesen werden sollen, abgelegt (Katalog- und Objektdaten). Dies sollte am besten auch automatisiert ablaufen.
Wenn das Shell-Skript "start_ff.sh" ausgeführt wird, guckt es im Ordner "eingang" nach, ob dort ZIP-Dateien liegen. Diese werden nacheinander abgearbeitet. Jede Zip-Datei wird im Ordner "temp" ausgepackt und die entaltenen NAS-Dateien werden über ogr2ogr in die PostGIS-DB eingelesen. Das Ganze wird in der Datei "ff.log" geloggt. Das Einlesen wird als Transaktion durchgeführt (kein -skipfailures) und wenn fehlerfrei eingelesen wurde, wird die eingelesene Datei im Schema "alkis" in einer Tabelle "import" mit folgender Struktur eingetragen:
CREATE TABLE alkis.import ( id serial NOT NULL, datum timestamp without time zone DEFAULT now(), datei text, status text ) WITH( OIDS=TRUE );
Diese Tabelle dient einerseits als Übersicht, was alles eingelesen wurde und andererseits kann damit verhindert werden, dass eine Datei doppelt eingelesen wird.
Wenn alle NAS-Dateien der Zip-Datei im Ordner "eingang" fehlerfrei eingelesen wurden, wird die Zip-Datei in den Ordner "eingelesen" verschoben. Tritt bei einer Datei ein Fehler auf, wird nicht weiter eingelesen, sondern eine "Meldung"(?) an den Administrator gesendet.
Nachdem fehlerfrei eingelesen wurde, werden alle Skripte, die sich im Ordner "postprocessing" befinden nacheinander ausgeführt.
Optional kann das Skript "start_ff.sh" vor jedem Einlesen auch eine Sicherung des Schemas "alkis" im Ordner "sicherung" ablegen.
Das Skript "start_ff.sh" wird per Cron-Job einmal täglich automatisch ausgeführt, kann bei Bedarf aber auch händisch gestartet werden.