Buch, Deutsch, 198 Seiten, Paperback, Format (B × H): 148 mm x 210 mm, Gewicht: 326 g
Ansätze zur Messung und Sicherung der Informationsqualität in heterogenen Datenbeständen unter Verwendung eines vollständig webbasierten Werkzeuges
Buch, Deutsch, 198 Seiten, Paperback, Format (B × H): 148 mm x 210 mm, Gewicht: 326 g
Reihe: Ausgezeichnete Arbeiten zur Informationsqualität
ISBN: 978-3-8348-0723-6
Verlag: Vieweg+Teubner Verlag
Die Autoren diskutieren die Problematik der Datenqualität im Fokus eines Integrationsprozesses. Sie stellen am Markt verfügbare Systeme zur Datenintegration und –analyse vor und entwickeln, basierend auf einer Anforderungsanalyse, ein webbasiertes Werkzeug, welches die Integration der Daten ermöglicht und die Qualität der Datenbestände testet. Die Analyse der Bestände, das Auffinden von Duplikaten und die Bereinigung der Daten stehen dabei im Fokus dieses Werkzeuges, welches eine Grundlage für eine umfassende Datenqualitäts- und Bereinigungslösung darstellen kann.
Zielgruppe
Studierende und Wissenschaftler auf den Gebieten der (Wirtschafts-) Informatik und Informationssysteme; Fachkräfte und Entscheider mit dem Arbeitsfeld Unternehmensinformationssysteme; Datenbank- und Webentwickler
Autoren/Hrsg.
Weitere Infos & Material
Datenbereinigung und Konsolidierung von heterogenen Datenbeständen.- Datenqualität.- Dimensionen und Architektur der Informationsintegration.- Data Cleaning.- Konzeption des Data Cleaning Toolkits.- Implementierung.- Zusammenfassung und Ausblick.- Auffinden und Bereinigen von Duplikaten in heterogenen Datenbeständen.- Informationen, Daten und Wissen- ein Definitionsversuch.- Informationsintegration im Fokus der Datenqualität.- Duplikate in Datenbeständen.- Konkrete Verfahren zur Dublettenauffindung und Klassifikation.- Konzept der Datenqualitätsanwendung „DCT“.- Implementierung, ausgewählte Algorithmen- und Datenstrukturen.- Fazit und Ausblick.