CompTIA Data+
Ziele
In dieser 4-tägigen Schulung "CompTIA Data+" lernen Sie, wie Sie Geschäftsanforderungen in datengesteuerte Entscheidungen umwandeln können. Der Kurs bereitet Sie auf die Zertifizierung zum CompTIA Data+ (DA0-001) vor und vermittelt Ihnen die Fähigkeiten, Daten zu evaluieren, zu manipulieren und grundlegende statistische Methoden anzuwenden. Sie werden lernen, komplexe Datensätze zu analysieren und dabei Governance- und Qualitätsstandards während des gesamten Datenlebenszyklus zu berücksichtigen. Diese Schulung wird Ihnen helfen, ein fundiertes Verständnis von Datenanalyse und Datenmanagement zu entwickeln und Sie auf eine erfolgreiche Karriere im Bereich datenbasierter Entscheidungsfindung vorzubereiten.
Zielgruppe
- Data-Analysten
Voraussetzungen
Für eine optimale Teilnahme am Kurs empfehlen wir folgende Vorkenntnisse:
- 18–24 Monate Erfahrung in einer Position als Berichterstatter/Geschäftsanalyst
- Umgang mit Datenbanken und Analysetools
- ein grundlegendes Verständnis von Statistik und
- Erfahrung in der Datenvisualisierung
Lernmethodik
Die Schulung bietet Ihnen eine ausgewogene Mischung aus Theorie und Praxis in einer erstklassigen Lernumgebung. Profitieren Sie vom direkten Austausch mit unseren projekterfahrenen Trainern und anderen Teilnehmern, um Ihren Lernerfolg zu maximieren.
Agenda
1.0 Datenkonzepte und -umgebungen
Erkennen der Grundlagen von Datenschemata und Dimensionen
- Datenbanken
- Data Mart/Data Warehousing/Data Lake
- Schema-Konzepte
- Langsam wechselnde Dimensionen
Vergleich und Gegenüberstellung verschiedener Datentypen
- Date
- Numeric
- Alphanumeric
- Currency
- Text
- Diskret vs. continuous
- Kategorisch/Dimension
- Images
- Audio
- Video
Vergleich und Gegenüberstellung gängiger Datenstrukturen und Dateiformate
- Strukturen
- Dateiformate für Daten
2.0 Data Mining
Konzepte der Datenerfassung
- Integration
- Methoden der Datenerfassung
Identifizieren von Gründen für die Bereinigung und Profilierung von Datensätzen
- Doppelte Daten
- Redundante Daten
- Fehlende Werte
- Ungültige Daten
- Nicht-parametrische Daten
- Datenausreißer
- Unstimmigkeiten in der Spezifikation
- Validierung des Datentyps
Ausführen von Datenmanipulationstechniken
- Umkodierung von Daten
- Abgeleitete Variablen
- Zusammenführen von Daten
- Datenvermischung
- Verkettung
- Daten anhängen
- Imputation
- Reduktion/Aggregation
- Transponieren
- Daten normalisieren
- Parsing/string manipulation
Techniken zur Datenmanipulation und Abfrageoptimierung
- Datenmanipulation
- Abfrageoptimierung
3.0 Datenanalyse
Anwendung der geeigneten deskriptiven statistischen Methoden
- Maße der zentralen Tendenz
- Maße für die Streuung
- Häufigkeiten/Prozentsätze
- Prozentuale Veränderung
- Prozentuale Differenz
- Konfidenzintervalle
Zweck der inferenzstatistischen Methoden
- t-Tests
- Z-Score
- p-Werte
- Chi-squared
- Hypothesentests
- Einfache lineare Regression
- Korrelation
Arten von Analysen und wichtige Analysetechniken
- Verfahren zur Bestimmung der Analyseart
- Art der Analyse
Identifizierung gängiger Datenanalysetools
- SQL
- Python
- Microsoft Excel
- R
- Schnelles Mining
- IBM Kognos
- IBM SPSS Modeler
- IBM SPSS
- SAS
- Tableau
- Power BI
- Qlik
- MicroStrategy
- BusinessObjects
- Apex
- Dataroma
- Domo
- AWS QuickSight
- Stata
- Minitab
4.0 Visualisierung
Geschäftsanforderungen in einen Bericht umsetzen
- Inhalt der Daten
- Filtern
- Views
- Date Range
- Häufigkeit
- Zielgruppe
Gestaltung von Inhalten für Reports und Dashboards
- Deckblatt des Reports
- Design Elemente
- Elemente der Dokumentation
Methoden für die Entwicklung von Dashboards
- Überlegungen zum Dashboard
- Entwicklungsprozess
- Überlegungen zur Bereitstellung
Art der Visualisierung
- Liniendiagramm
- Kreisdiagramm
- Blasendiagramm
- Punktediagramm
- Balkendiagramm
- Histogramm
- Wasserfall
- Heatmap
- Geografische Darstellung
- Tree Map
- Stacked chart
- Infografik
- Word cloud
Vergleich und Gegenüberstellung von Berichtstypen
- Statische vs. dynamische Berichte
- Ad-hoc-/one-time-Bericht
- Self-service/on demand
- Wiederholende Reports
- Tactical/research Report
5.0 Datenverwaltung, -qualität und -kontrollen
Konzepte der Datenverwaltung
- Zugriffsanforderungen
- Anforderungen an die Sicherheit
- Anforderungen an die Speicherumgebung
- Anforderungen an die Nutzung
- Anforderungen an Entitätsbeziehungen
- Klassifizierung der Daten
- Anforderungen an die Rechtsprechung
- Meldung von Datenverletzungen
Konzepte zur Datenqualitätskontrolle anwenden
- Umstände zur Überprüfung der Qualität
- Automatisierte Validierung
- Dimensionen der Datenqualität
- Datenqualitätsregeln und -metriken
- Methoden zur Validierung der Qualität
Konzepte der Stammdatenverwaltung (MDM)
- Abläufe
- Bedingungen für MDM
Hinweise
Prüfung und Zertifizierung
Die Prüfungsgebühr ist nicht im Preis enthalten
- Anzahl von Fragen: 90
- Art der Fragen: Multiple choice and performance-based
- Dauer: 90 Minuten
- Benötigte Kenntnisse:
- 18–24 Monate Erfahrung in einer Position als Data Analyst
- Umgang mit Datenbanken und Analysetools
- ein grundlegendes Verständnis von Statistik und
- Erfahrung in der Datenvisualisierung
- Prüfungsgebühr: 228,-€ netto (zzgl. MwSt.)
Open Badge - Ihr digitaler Kompetenznachweis
Durch die erfolgreiche Teilnahme an einem Kurs bei IT-Schulungen.com erlangen Sie nicht nur Fachkenntnisse und Fähigkeiten, sondern bekommen zusätzlich zu Ihrem Teilnahmezertifikat ein Open Badge als digitalen Nachweis Ihrer Kompetenz.
Sie können diesen in Ihrem persönlichen und kostenfreien Mein IT-Schulungen.com Konto abrufen. Ihre verdienten Badges lassen sich problemlos in sozialen Netzwerken integrieren und weitergeben.
Kurz vor Durchführung
Termin | Standort | Aktion |
---|---|---|
21.05. - 24.05.2024 | Hamburg | |
25.06. - 28.06.2024 | München | |
23.07. - 26.07.2024 | Köln | |
27.08. - 30.08.2024 | Nürnberg |