English| Impressum & AGBs | Datenschutz

Advanced Analytics

Advanced Analytics sind ein Oberbegriff für fortgeschrittene statistische oder mathematische Ansätze. Das "Fortgeschrittene" weist mehrere Facetten auf:

  • komplexer statistischer Hintergrund
  • anspruchsvolle Modellierung und Interpretation der Ergebnisse
  • substantiell grosse Datenmengen (was u.a. statistische Signifikanzen obsolet macht)
  • Komplexität der ETL-Prozesse (ggf. inkl. Cleansing unsauberer Daten)

Wir analysieren Daten zu jeder Fragestellung aus jeder Disziplin. Auf jedem Skalenniveau, mit annähernd jeder statistisch-mathematische Methode, mit Datentabellen in jeder Größe: Von Datensätzen mit tausenden von Variablen und Milliarden von Datenzeilen, bis hin zu Datensätzen mit gerade mal ein paar Dutzend Werten (sofern hier Advanced Analytics Ansätze noch Sinn machen). Wichtig ist, dass Sie sich einen Eindruck davon verschaffen wollen, welchen Mehrwert Ihnen Advanced Analytics verschaffen können. Lassen Sie überzeugen. Nicht umsonst nennen wir solche ersten Explorationen auch "appetizer Analysen". Eine Auswahl von einigen Ansätzen ...

    Modellierung von Assoziation und Korrelation
  • intervall: z.B. Pearson's r
  • ordinal: z.B. Spearman's R, Gamma, Kendall's tau-b, Somer's D, Stuart's tau-c.
  • Assoziation: Bitte sehen Sie den Abschnitt zur Tabellenanalyse.
  • Konsistenz: Übereinstimmung, Konkordanz, Reliabilität (z.B. Kappa, Cronbach's Alpha)
    Modellierung von Kausalität: Analyse von Ursache und Folge
  • Regressionsmodelle: z.B. Linear, Multiple, Loglinear, Nonlinear, Nonparametric, Ridge, Robust, Binäre Logistische Regression, Ordinale Regression, Multinomiale Logistische Regression, Hedonische Regression, Quantil-, Logit-, Probit-, Tobit-, Kategoriale Regression einschl. Elastic Net, WLS, 2LS, Partial-Least Squares; Generalisierte Lineare Modelle; Time-to-Event Analyse / Überlebenszeitanalyse (u.a. Kaplan-Meier, Proportional Hazard) etc.; Multilevel Analyse/Regression etc. Ebenfalls Mixed Models und andere, speziellere Varianten.
  • Spezielle Regressionsphänomene: z.B. Over-/Underfitting, Regression zur Mitte, Mediationseffekte, Regressionsfalle, Ausreißeranalyse, etc.
  • Prüfen von Voraussetzungen: z.B. Multikollinearität, Autokorrelation, Varianzhomogenität etc.
  • Modellierung von Zeitreihen: z.B. Transfer-Funktions-Modelle einschl. Granger-Kausalitätstests für ökonomische Zeitreihendaten etc.
    Berücksichtigung des Faktors Zeit:
  • Regressionsmodelle (siehe oben)
  • Time-to-Event Modelle z.B.
  • Kaplan-Meier, Proportional Hazards, Versicherungsmathematische Methode etc.
  • Zeitreihenanalyse: (besonders ökonometrische) z.B. Stochastische Zeitreihen (ARIMA, Holt-Winters, Exponentiell) auch für hochvolatile Daten etc.
  • Modellierung von Veränderung über die Zeit: z.B. Varianzanalyse für Messwiederholungen, Zufallskoeffizientenansätze, Verbundene t-tests, Cochran–Armitage Test auf Trend etc.
    Analyse von Umfragen, Experimenten und Designs: Fokussierung auf Unterschiede Ursachen und Effekte:
  • Parametrische Ansätze: z.B. t-tests, ANOVA für balancierte Designs; GLM für nicht balancierte und andere Designs, Kovarianzanalyse, Split-plot-Analysen; Varianzanalyse für Messwiederholungen, multivariate Varianzanalyse; Varianzkomponentenmodellierung; Modellierung von Kovarianzstrukturen, Zufallskoeffizientenansätze (PROC MIXED). Varianzanalyse für Daten aus Experimenten im Lattice Design (PROC LATTICE). Varianzanalyse für genestete Zufallsmodelle (NESTED). Spezielle Anwendungen (ORTHOREG, TRANSREG). Multiples Testen und Vergleichen. Modellierung von festen und Zufallseffekten (PROC MIXED) z.B. für Mehrebenen-Modellierung. Äquivalenz-Tests (TOST by Schuirmann) etc. Data Mining Ansatz: Automatische Lineare Modellierung.
  • Nonparametrische Ansätze: z.B. Tests auf Lokation und Skalenunterschiede: Wilcoxon-Mann-Whitney, Median, Van der Waerden (normal), Savage, Siegel-Tukey, Ansari-Bradley, Klotz, Mood, Conover.
  • Design of Experiments (DoE): z.B. Optimale Designs (z.B. PROCs OPTEX, FACTEX), Statistische Power, Effektgrößen, Sample Größen (z.B. PROC POWER) etc.
  • Spezielle statistische Techniken: z.B. Simulationen, Parallelisierungen, Ziehungen, Fitting, Jack-Knifing (Reampling) etc.
    Predictive Analytics (Vorhersagen): Modellierung zukünftiger Ereignisse
  • Multivariate Ansätze: z.B. Entscheidungsbäume (CHAID, CART, C4.5/C5 etc.), Neuronale Netzwerke, Multilayer Perceptron, k-nearest neighbours (KNN), Diskriminanzanalyse, Binning etc.
  • Mathematische Ansätze: z.B. Modellierung von Kreditrisiko. LGD, EAD und PD (Komponentenmodell) gemäß Basel II Umfeld. Modellierung der Wahrscheinlichkeit zu Wechseln (z.B. Prozentansatz im Versicherungsumfeld). ROC/AUC Ansatz / Confusion Matrix (Sensitivität, Spezifität, Treffergenauigkeit, Depth, Lift).
  • Zeitreihenanalyse z.B. mit/ohne Trend, mit/ohne saisonale Effekte, Kalendereffekte etc.)
  • Regressionsmodelle (siehe oben).
  • Time-to-Event Modelle (siehe oben).
  • In der Angewandten Statistik oft eine Kombination von Ansätzen.
    Latent Modelling:
  • Klassen: z.B. Latent Class Analysis (PROC LCA, stand-alone SAS Prozedur).
  • Faktoren: z.B. Faktoranalyse (PFA, ML, Alpha, Image, ULS, GLS, Wong's etc.).
  • Pfade: z.B. Path Analyse, Strukturgleichungsmodelle, LISREL.
    Clusterung und Segmentierung:
  • Basics: Bedingungsgeleitete Ansätze, zufallsbasierte Ansätze, RFM Analyse.
  • Mathematisch: Clusteranalyse (Hierarchisch, k-means, Two-Step), Conjoint Analyse, Korrespondenzanalyse, Multi-Dimensionale Skalierung (MDS/MDA).
  • Data Mining: Neuronale Netzworke, Multilayer Perceptron, k-nearest neighbours (KNN), Diskriminanzanalyse, Kohonen, Binning etc.
  • Text Mining: Text Mining mit SPSS Modeller; Visual Analytics mit IBM COGNOS (a/k/a 'Many Eyes'); Analyse unstrukturierter Texte mittels Word Trees, Tag Clouds, Phrase Nets, und HISTORIO.
    Spezielle Themen, z.B. mit SAS:
  • Network Visualisierung und Analyse.
  • Statistisches Matching (zufallsbasiertes Matching einschl. Fuzzy Factor). Auch mittels kriterium-basierter Parallelisierung und Propensity Scores.
  • Zufallsziehungen (Random Sampling): (z.B. Unrestricted / Simple, PROC SURVEYSELECT).
  • GIS Visualisierung mit SAS: z.B. Kartenvisualisierung mittels GfK GeoMarketing Map Data Sets.
  • Geo-Analytics: Berechnung von Distanzen in 2d / 3d Raum.
  • Iterative Proportional Fitting (Small Area Estimation): z.B. Hochrechnung für Zensus Daten.
  • Bootstrapping.
  • Gewichtungen und Analyse mit Gewichten.
  • Ehrliche Einschätzung von Modellen und Scoring von Datensätzen.
    Tabellenanalyse
  • Maße: Intervall: Pearson's r, ordinal: Spearman's R, Gamma, Kendall's tau-b, Somer's D, Stuart's tau-c; nominal: Cramer's V, Kontingenzkoeffizient, Phi Koeffizient, Lambda, Uncertainty Coefficient), Simple Kappa Coefficient, Overall Kappa Coefficient, Cochran's Q, Binomial Proportion, Odds Ratio, Polychoric / Tetrachoric Correlation.
  • Tests: McNemar's Test, Test auf Symmetrie, Test for Equal Kappa Coefficients, Chi-Quadrat, Likelihood Ratio Chi-Quadrat, Mantel-Haenszel Chi-Quadrat, Fisher's Exakter Test, Jonckheere-Terpstra Test, Cochran-Armitage Trend Test.
    Andere Techniken, Methodologien, Anwendungen und Terminologien:
  • Evaluation z.B. DeGEval / SEval.
  • (Non)lineare Modellierung
  • Wahrscheinlichkeitsberechnungen
  • uvam.

Method Consult arbeitet vorzugsweise mit SAS 9.4, JMP 11 und SPSS 22 für statistische Analysen, neben anderen Anwendungen. Von Auswertungen mit MS EXCEL wird abgeraten (z.B. McCullough & Wilson, 2002, 1999): "McCullough and Wilson (1999) examined Microsoft Excel 97 and concluded “Persons desiring to conduct statistical analyses of data are advised not to use Excel”. An examination of Excel 2000 and Excel XP provides no reason to revise that conclusion" (McCullough & Wilson, 2002, 717).

 
Kontakt Sitemap
1998-2014 Copyright by Method Consult Switzerland, Dr.Schendera