Hier ein unvollständiger Überblick über die Methoden und Techniken, die ich immer wieder anwende:
-
Bivariate Analysen
- Chi²-Test, Fisher Exact Test
- Odds Ratio
- ANOVA mit post-hoc Tests
- Kaplan-Meier-Kurven
- Pearson Korrelationkoeffizient, Spearman’s Rho
- Mann-Whitney-U-Test, Kruskall-Wallis, Wilcoxon-Vorzeichen-Rang-Test, Dunn’s test…
- Visualisierungen: Boxplots, Balkendiagramme, Streudiagramm uvm
-
Messmodelle
- Cronbach Alpha, omega usw.
- Propensity Score matching
- Faktoranalyse
- SEM mit lavaan
- PCA
- Clusteranalyse
- Latent Profile, Latent Class
-
Generalized Linear Model (GLM)
- Lineare Regression
- Mediationsanalyse & Moderationsanalyse
- Numerische und graphische Tests der Modellannahmen
- Polynomiale Regression, splines
- Logistische Regression, Probit
- ordered/multinomial/conditional logit/probit
- Berechnung vom marginal effects und predicted probabilities
- Cox Proportional Hazard Model
- Poisson, Beta, (zero-inflated) negative binomial usw.
-
Generalized Linear Model (GLMM)
- Multilevel-Model
- mixed-effects models
- hierarchische Regression
- random intercept, random slopes mit lme4
- marginal effects und predicted probabilities
-
Experimente
- Poweranalyse
- Fallzahlplanung durch Simulationen
- RCT, Posttest-Only
- Discrete Choice Experiments (DCE)
- Design of Experiments
- Fractional Factorial Design
- Response Surface Design
- Repeated Measures
- Quasi-Experimental Designs, Eventstudien, natürliche Experimente
- Schätzung der Treatmenteffekte
-
Statistische Programmierung
- Automatisierte Reportings in html, docx und pdf
- Datenerfassung mit Optical Character Recognition
- Webscraping
- Auslesen von API’s und xmls
- Monte-Carlo-Simulationen
- Verarbeitung und Visualisierung von Geodaten
-
Machine Learning
- Random Forest
- Bagging & Boosting
- Artificial neural nets
- Transformer & language models