BEANTWORTET


Artikel 3 der HVD-VO behandelt die Veröffentlichung der Daten über Anwendungsprogrammierschnittstellen (APIs). 

Wie müssen die Daten für die zentrale API aufbereitet werden und wie kann dabei eine redundante Datenhaltung vermieden werden?

Verweis auf FAQ

Kann die Bereitstellung einer API gemäß Artikel 3 der DVO-HVD durch eine zentrale Stelle bzw. über ein zentrales Portal erfolgen, um die Verfügbarkeit und Pflege der API-Nutzungsbedingungen und API-Dokumentation sowie die Bereitstellung einer Kontaktstelle für Fragen und Probleme zu den APIs zu vereinfachen? Wie müssen in diesem Fall die Daten für die zentrale API aufbereitet werden und wie kann dabei eine redundante Datenhaltung vermieden werden? 

2 Kommentare

  1. Renate Zweer sagt:

    Ich vermute, Sie zielen auf kontinuierlich gemessene Daten ab. Damit haben wir in der GDI BE bislang keine Erfahrung. Wenn wir Messstellendaten über Dienste abgeben, dann nur bezogen auf einen bestimmten Zeitpunkt oder der Dienst enthält messstellenbezogen lediglich einen Link auf ein Fachportal mit den Messdaten dieser Messstelle. Dort sind die Messdaten ansehbar und downloadbar durch den Nutzenden. Das zählt nicht als API-Zugriff. Für eine Bereitstellung nach DVO-HVD muss sich das ändern.

    (Bei uns werden die Daten (wie gesagt alle statisch oder als statisch behandelt) zurzeit aus den originär datenhaltenden Systemen in eine PostGIS-Datenbank überführt. Auf diese greifen die datenbereitstellenden Dienste-Server zu. Die Datenhaltung ist also bei uns per se redundant).

    Die genaue Erläuterung der Aufbereitungsschritte, die die Daten durchlaufen, überlasse ich anderen bzw. müsste ich ggf. recherchieren. Auf jeden Fall werden die Schlüssel auf Eindeutigkeit gecheckt und bei den sog. interoperablen Daten (transformiert in das INSPIRE-Datenmodell des Annex-Themas) werden die Schlüssel eineindeutig gemacht. 

  2. Ich kenne es technisch nur so, dass man einen Dienst / API immer auf einer Kopie der Original-Daten laufen lässt. Das ist ja allein schon aus Gründen der Datensicherheit notwendig. Von daher ist es ganz normal, dass man "redundante Daten hat", wenn man Dienste / Schnittstellen damit füttert. Nur gehen diese "redundanten Daten" die Öffentlichkeit nichts an. Sie sind nur eine interne technische Notwendigkeit. Die Befüllung läuft ja auch in ganz automatischen Worksflows. Von daher verursachen sie auch keine weitere Arbeit nach außen hin sichtbare Arbeit, brauchen nur ihren Speicherplatz. Sie existieren nach außen hin nicht. Verstehe sonst die Frage nicht.