• Medientyp: E-Book
  • Titel: Webbasierte Datenintegration : Ansätze zur Messung und Sicherung der Informationsqualität in heterogenen Datenbeständen unter Verwendung eines vollständig webbasierten Werkzeuges
  • Enthält: Preliminary; Dimensionen und Architektur der Informationsintegration; Data Cleaning; Konzeption des Data Cleaning Toolkits; Teil II / Auffinden und Bereinigen von Duplikaten in heterogenen Datenbeständen; Einleitung; Informationen, Daten und Wissen- ein Definitionsversuch; Teil I / Datenbereinigung und Konsolidierung von heterogenen Datenbeständen; Informationsintegration im Fokus der Datenqualität; Einleitung; Duplikate in Datenbeständen; Datenqualität; Konkrete Verfahren zur Dublettenauffindung und Klassifikation; Konzept der Datenqualitätsanwendung „DCT"
    Implementierung, ausgewählte Algorithmen- und DatenstrukturenFazit und Ausblick; Implementierung; Zusammenfassung und Ausblick; Anhang
  • Beteiligte: Helmis, Steven [Sonstige Person, Familie und Körperschaft]; Hollmann, Robert [Sonstige Person, Familie und Körperschaft]
  • Erschienen: Wiesbaden: Vieweg+Teubner Verlag / GWV Fachverlage GmbH, Wiesbaden, 2009
  • Erschienen in: SpringerLink ; Bücher
  • Umfang: Online-Ressource (XXII, 197S. 67 Abb, digital)
  • Sprache: Deutsch
  • DOI: 10.1007/978-3-8348-9280-5
  • ISBN: 9783834892805
  • Identifikator:
  • RVK-Notation: ST 515 : Wissensmanagement, Information engineering
    ST 205 : Internet allgemein
    ST 265 : Datenstruktur, Datenorganisation
    ST 270 : Datenbanken, Datenbanksysteme, Data base management, Informationssysteme. Allgemein
    ST 530 : Data-warehouse-Konzept; Data mining
  • Schlagwörter: Datenbanksystem > Heterogenität > Datenintegration > Informationsqualität > Qualitätssicherung > Data-Profiling
    Datenbanksystem > Heterogenität > Datenintegration > Informationsqualität > Qualitätssicherung > Data-Profiling
  • Entstehung:
  • Anmerkungen: Description based upon print version of record
  • Beschreibung: Datenbereinigung und Konsolidierung von heterogenen Datenbeständen -- Datenqualität -- Dimensionen und Architektur der Informationsintegration -- Data Cleaning -- Konzeption des Data Cleaning Toolkits -- Implementierung -- Zusammenfassung und Ausblick -- Auffinden und Bereinigen von Duplikaten in heterogenen Datenbeständen -- Informationen, Daten und Wissen- ein Definitionsversuch -- Informationsintegration im Fokus der Datenqualität -- Duplikate in Datenbeständen -- Konkrete Verfahren zur Dublettenauffindung und Klassifikation -- Konzept der Datenqualitätsanwendung „DCT“ -- Implementierung, ausgewählte Algorithmen- und Datenstrukturen -- Fazit und Ausblick.

    Unternehmen und Organisationen verwenden heute enorme Menge an Daten, die durch verschiedene IT-Systeme erzeugt werden. Durch die Heterogenität der Datensätze ist eine ganzheitliche Sicht auf Informationen eine große Herausforderung, deren Lösung aber einen immensen Vorteil bietet. Um eine Integration verschiedener Ausgangssysteme zu erhalten, spielt die Informationsqualität, das Messen dieser, wie auch die Sicherung der Datenqualität eine große Rolle. Die Autoren diskutieren die Problematik der Datenqualität im Fokus eines Integrationsprozesses. Sie stellen am Markt verfügbare Systeme zur Datenintegration und –analyse vor und entwickeln, basierend auf einer Anforderungsanalyse, ein webbasiertes Werkzeug, welches die Integration der Daten ermöglicht und die Qualität der Datenbestände testet. Die Analyse der Bestände, das Auffinden von Duplikaten und die Bereinigung der Daten stehen dabei im Fokus dieses Werkzeuges, welches eine Grundlage für eine umfassende Datenqualitäts- und Bereinigungslösung darstellen kann.