Stats workshops DH lab – Julia Müller
Data analysis in R – A comprehensive introduction for the humanities and social sciencesDates and times: Nov 7 & 21, Dec 5 & 19, Jan 9 & 23, Feb 6 (Fridays 1–5 s.t.)
Description of workshop series
This 7-part workshop series will teach participants how to turn any data into enlightening visualisations, run regression models tailored to relevant hypotheses, interpret the results, and present the analysis in professional documents.
It will be entirely taught in the free, open-source programming language R (no prerequisite knowledge is assumed). Participants will be able to practice new skills and apply concepts to unfamiliar data during the sessions.
The first three sessions („Statistics I“) will introduce the participants to R, an open-source programming language frequently used to analyse data. They will also cover creating informative and well-designed graphs that visualise data, calculating and understanding descriptive statistics, and presenting analyses in reproducible Quarto documents.
In the remaining four sessions („Statistics II“) we’ll discuss the linear regression model framework, covering generalised models like logistic and Poisson regressions and, in the final workshop, state-of-the-art mixed-effects models. Throughout the course, we’ll focus on interpreting models and plotting their predictions.
SL requirements
1 ECTS point can be awarded for participation in the first three sessions („Statistics I“) and an additional 2 ECTS points for participation in the final four sessions („Statistics II“). To receive credits, participants must attend all sessions and also submit a short analysis (3–4 pages) of novel data for Statistics I and pass an online exam for Statistics II.
Please note that successful completion of Statistics I or an equivalent class is a prerequisite for participation in Statistics II. Please get in touch with Julia Müller (julia.mueller@anglistik.uni-freiburg.de) if you are unsure.
Sign-up
If you are a student or PhD candidate and would like to receive ECTS points for Statistics I and/or II, please sign up on HisinOne.
Participation in only some sessions is also possible for those who are familiar with certain topics but would like to learn about others (without receiving ECTS points). To register for individual sessions, please email Julia Müller (julia.mueller@anglistik.uni-freiburg.de) and indicate which session(s) you’d like to participate in (note that places are limited).
(1) Statistics I, Part 1: Introducing R & Data visualisation
November 7, 1–5 s.t.
This first workshop will introduce the participants to R, a programming language which helps automate working with and analysing data. It’ll cover fundamental concepts such as variables and vectors, package installation, error and warning messages, and reading in data. Then, we’ll discuss data visualisation using the ggplot2 package with a focus on appropriate graphs for common (combinations of) data types before moving on to customisation options such as colours, labels, and themes.
(2) Statistics I, Part 2: Preparing data for analysis – Data tidying and wrangling
November 21, 1–5 s.t.
In this workshop, we learn how to prepare data, which is often messy when first collected, for subsequent analyses. The data wrangling functions encompass renaming, arranging, and subsetting data, creating new columns and changing the content of existing ones (including if-else and case-when statements), and joining several data frames into one. Finally, we conclude with an overview of data tidying operations such as joining and separating columns, and reshaping data by pivoting to and from long and wide formats.
(3) Statistics I, Part 3: Descriptive statistics & Reporting results
December 5, 1–5 s.t.
This session covers a range of descriptive statistics (such as the mean, median, variance, and standard deviation) and shows how to calculate them as well as (grouped) counts and percentages in R. We then move on to a demonstration of reproducible Quarto documents which update when the underlying data changes, thus allowing you to record your analysis and interpretations of the data in beautifully formatted Word documents.
(4) Statistics II, Part 1: Introducing linear regression models
December 19, 1–5 s.t.
This workshop introduces participants to regression models with a focus on how to check whether the model conforms to relevant assumptions and on how to extract model predictions to guide our interpretations. We also cover foundational concepts in inferential statistics such as standard errors, confidence intervals, null hypothesis significance testing, and p-values.
(5) Statistics II, Part 2: Linear regression models continued
January 9, 1–5 s.t.
In this session, we discuss linear and nonlinear data transformations, which can help models conform to assumptions and help us interpret them, and learn how R deals with categorical predictors in regressions. We then focus on interactions, learning how to define them, transform the involved variables, and interpret prediction plots.
(6) Statistics II, Part 3: Generalised linear regressions & Significance tests
January 23, 1–5 s.t.
This workshop expands the concept of generalised linear regression models to logistic and ordinal regression (to predict a binary and ordered dependent variable, respectively) and Poisson regression (to predict a count dependent variable). We conclude with a short discussion of significance tests such as t-tests and ANOVAs and show how they map onto regression models.
(7) Statistics II, Part 4: Mixed-effects models & Model building and reporting
February 6, 1–5 s.t.
This final session covers advanced mixed-effects (i.e., multilevel) regression models which are state-of-the-art analyses methods for data with dependent observations (such as several data points per participant or experimental item). These models can help us see the effect of the predictor(s) more clearly by accounting for unpredictable individual-level and/or item-level variation. We’ll also discuss generalised mixed-effects models and conclude the workshop series with a critical look at different model-building approaches and common pitfalls in model interpretation.
Dieser ganztägige Hackathon bietet einen intensiven Deep Dive in die praktische Anwendung des Promptotypings für individuelle Forschungsprojekte. Die Teilnehmenden arbeiten hands-on an ihren eigenen Forschungsaufgaben und entwickeln unter Anleitung funktionsfähige Prototypen. Das Spektrum möglicher Anwendungen reicht von KI-gestützten Analysetools über automatisierte Datenvisualisierungen und interaktive Modelle bis hin zu komplexen Forschungsworkflows, Textgeneratoren oder Annotationssystemen.
“’Fireside talk’: Corpora and AI/LLMs” Dienstag, 8. 7. 2025, 16 Uhr c.t., DH Lab, HS 1026 Dozierende: Mark Davies (emeritus, BYU, Provo, Utah, USA) hat die weltweit größte und meistgenutze Sammlung englischsprachiger Online-Korpora geschaffen (https://www.english-corpora.org/) und auch Großkorpora für das Spanische und Portugiesische erstellt (https://www.corpusdelespanol.org/; https://www.corpusdoportugues.org/). Unterrichtssprache: Englisch Ort: DH-Lab, Raum 1026
“english-corpora.org – New perspectives on the corpus-based study of linguistic and cultural trends” Dienstag, 8. 7. 2025, 10 Uhr c.t., HS 1221 Dozierende: Mark Davies (emeritus, BYU, Provo, Utah, USA) hat die weltweit größte und meistgenutze Sammlung englischsprachiger Online-Korpora geschaffen (https://www.english-corpora.org/) und auch Großkorpora für das Spanische und Portugiesische erstellt (https://www.corpusdelespanol.org/; https://www.corpusdoportugues.org/). Unterrichtssprache: Englisch Ort: KG I, HS 1221
Workshop „Digitale Musikedition“ Samstag 5. Juli, 10-16 Uhr Ort: DH Lab, KG I (HS 1026) Dozierende: Prof. Dr. Stefanie Steiner-Grage, Musikwissenschaftliches Seminar Freiburg Unterrichtssprache: Deutsch Ort: DH Lab, KG I (HS 1026) Prof. Dr. Stefanie Steiner-Grage, Musikwissenschaftliches Seminar Freiburg, lädt herzlich zur Sondersitzung ihrer Blockveranstaltung zur (digitalen) Musikedition ein mit dem externen Gast Jun.-Prof. Dr. Dennis Ried, Martin Luther-Universität Halle-Wittenberg Thema: Erarbeitung einer eigenen kleineren digitalen Edition von Musik- und anderen Quellen unter Nutzung von TEI- bzw. MEI, der Software „Edirom“ sowie Oxygen Editor und anderen.
Workshop „Natural Language Processing (NLP)“ 27.06.25, 9:00 – 18:00 Uhr Haus zur Lieben Hand, großer Saal Dozierende: Projekt Daidalos, HU Berlin: Dr. Andrea Beyer, Konstantin Schulz, Florian Deichsler Universität Freiburg: Prof. Dr. Stefan Tilg, Carolin Giere Unterrichtssprache: Deutsch Ort: Haus zur Lieben Hand, großer Saal Der Workshop wird gemeinsam mit der Daidalos-Gruppe abgehalten, die sich vorrangig der Entwicklung und Anwendung von Methoden des NLP (Natural Language Processing) in der Klassischen Philologie widmet (https://www.klassphil.hu-berlin.de/de/forschung-und-projekte/projekte/projekte-fachuebergreifend/dfg-projekt-daidalos). Dabei sollen auch Einsatzmöglichkeiten von LLMs (Large Language Models) erörtert werden. Der Workshop hat das Ziel, Forschende und Studierende zum selbständigen Arbeiten mit den vorgestellten Methoden zu befähigen und Ihnen Ansätze für die eigene Forschung zu liefern. Es wird zwei Vorträge geben („Digital Classics und KI“ und „NER: Von lexikonbasiert bis Deep Learning vs. chatbasiert mit einem LLM“ sowie einen Hands-on-Teil zu konkreten NER-Methoden, die zu den Forschungsinteressen passen). Es sind ausdrücklich Interessierte aller Forschungsrichtungen herzlich zur Teilnahme eingeladen!
Workshop “Regex in R for Multimodal Analysis” 23.05.25, 9:30 – 16.30 Uhr Veranstaltungsort: DH Lab der Universität Freiburg Dozierender: PD Dr. Christoph Rühlemann Unterrichtssprache: Englisch Ort: DH Lab der Universität Freiburg Beschreibung: Many researchers in the fields of Conversation Analysis and Interactional Linguistics painstakingly elaborate transcripts and manually implement annotations in ELAN, a software for multimodal annotation. Few researchers, however, seem to know how to post-process this immensely valuable data in a way that allows synthesis, aggregation, transformation, large-scale analysis and visualization. This workshop aims to present some solutions for these tasks implemented in R and based on Regular Expression (or regex), a syntax used to match, select, edit, and extract data and to reshape data frames based on regularities (patterns) in the data. The full-day workshop will cover these topics: – Basics of R and regex (Crash Course) – Convert (multimodal) transcripts to R data frames to make them machine-readable – Analyze (multimodal) transcripts in R data frames – Export and structure ELAN annotations in R data frames – Analyze and visualize ELAN annotations in R data frames The workshop is open to beginners and more experienced users of R. To facilitate a running start for everybody, the workshop will start with a crash course on the key syntactic elements of regex and some key R functions before we turn to using them for Multimodal Analysis. The workshop aims for maximum relevance to the participants: participants are encouraged to articulate to the instructor what special tasks they wish to achieve with their data prior to the workshop (no later than 9 May, 2025). Concrete solutions to these tasks could be discussed during the workshop. Vortrag „The VESUM Dictionary as a Source of Ukrainian Morphological Data for NLP, Corpora, and Humans“, 21.05.2025, 14:15 Uhr (hybrid: live oder per Zoom) Dr. Vasyl‘ Starko (L’viv) Ort: Slavisches Seminar, Werthmannstr. 14, 1. OG, Raum 01004 und per Zoom Workshop “Galaxy: Die Open-Source-Plattform als Einstieg in Digital Humanities und Forschungsdatenmanagement” 19.05.2025, 14 – 16 Uhr Veranstaltungsort: DH Lab der Universität Freiburg Dozierende: Daniela Schneider, Informatik Uni Freiburg Unterrichtssprache: Deutsch Der Einstieg in die Digital Humanities konfrontiert Forschende häufig mit hohen Softwarekosten, fehlenden Programmierkenntnissen und beschränkten Rechenressourcen. Wie kann also effiziente und gute wissenschaftliche Praxis mit gutem Forschungsdatenmanagement gelingen? Der Workshop stellt die Open-Source-Plattform Galaxy (https://usegalaxy.eu/) vor, die diesen Herausforderungen begegnet. Am Beispiel eines Textvergleichs chinesischer Zeitungen lernen die Teilnehmenden, wie die Analyseplattform Galaxy, ursprünglich für die Lebenswissenschaften entwickelt, Forschung in den Digital Humanities ohne Programmierkenntnisse unterstützt. Statt eines zeitintensiven manuellen Vergleichs der Texte wird im Workshop gezeigt, wie Unterschiede in den Texten automatisch in der Plattform extrahiert werden können. Sofern gewünscht, sind die (Teil)Ergebnisse der Analyse und der Ablauf (Workflow) mit wenigen Klicks teilbar oder mit anderen Parametern wiederholbar, was FAIRes Forschungsdatenmanagement erleichtert. Das Galaxy Training Network mit über 400 Tutorials bietet darüber hinaus offen zugängliches Lehrmaterial (Open Educational Resources), das sowohl für selbstständiges Lernen als auch in der Lehre Anwendung findet. Der Workshop bietet einen Einstieg in Galaxy, nach dem die Forschenden die Plattform für ihre eigenen Analysen nutzen können. Neben Textanalysen sind auch zahlreiche Programme zur Analyse von Bildern oder Audiodateien verfügbar. Durch das Baukastenprinzip bietet Galaxy breites Anwendungspotenzial über verschiedene Fachbereiche hinweg. Forschende können sich auf ihre Kernkompetenzen, die Analyse und Einordnung ihres Materials, konzentrieren und zugleich die Sichtbarkeit und Nachvollziehbarkeit ihrer Methoden verbessern, womit die typischen Herausforderungen digitaler Analyse in den Geisteswissenschaften adressiert werden. Und das alles aus dem Browser heraus.
Workshop „Web Developement für Forscherinnen – Grundbegriffe und ‚Vibe Working‘ mit generativer K.I.“ 16.05.25, 9.30-11 Uhr, Online via Zoom Dozierender: Christian Steiner, DH Craft, Graz Unterrichtssprache: Deutsch Beschreibung: Der Workshop richtet sich an Forschende aller Fachrichtungen unserer Fakultäten, die ohne tiefgehende technische Vorkenntnisse ihre Ergebnisse digital aufbereiten möchten. Die vermittelten Kenntnisse sind auch für Projektplanung, Antragstellung und die interdisziplinäre Zusammenarbeit wertvoll. Es wird um Grundlagen wie Basistechnologien gehen, die man benötigt, wenn man als Forscher: in zu seinen Daten unkompliziert eine simple Website online präsentieren möchte sowie um Hintergründe des Promptotyping in Bezug auf die Ausgabe der KI. —————————————————————————————————————————————————-
Stipendien
1. Zertifikatsstipendium (1 Stipendium)
Für Studierende des DH-Zertifikatsprogramms der Philologischen Fakultät, die sich parallel zu ihrem Fachstudium intensiv auf das Zertifikatsprogramm konzentrieren möchten.
Fördersumme: 600 € monatlich
Laufzeit: 12 Monate
2. Masterarbeitsstipendien (2 Stipendien)
Für Masterstudierende, die ihre Abschlussarbeit im Bereich der Digital Humanities verfassen und sich voll auf ihre Forschungsarbeit konzentrieren möchten. Das Stipendium unterstützt die Arbeit im DH Lab oder ermöglicht Vernetzungen mit anderen DH-Spezialist:innen, um neue Methoden zu erlernen, mit neuen Geräten/Anwendungen zu arbeiten und sich fachlich zu vernetzen.
Eine Teilnahme am DH-Zertifikatsprogramm ist für Masterstudierende nicht erforderlich.
Bewerbungsunterlagen
Für das Zertifikatsstipendium:
- Aktuelle Leistungsübersicht
- Motivationsschreiben (ca. 2 Seiten), in dem Sie mit Bezug auf die Freiburger Situation und mit konkreten Beispielen reflektieren, inwieweit das DH-Zertifikat zu Ihrer Kompetenzerweiterung und Ihren Ausbildungszielen beiträgt
Für die Masterarbeitsstipendien:
- Aktuelle Leistungsübersicht
- Projektbeschreibung (ca. 2 Seiten), in der Sie das Thema Ihrer Abschlussarbeit schildern, den digitalen Bezug deutlich machen sowie ausführen, inwieweit die am DH Lab vorgehaltene Hard- und Software sowie die dort entwickelte Expertise zum Erreichen Ihres Forschungsziels beitragen
Hinweis zur Nutzung von KI:
Bei der Erstellung Ihres Motivationsschreibens bzw. Ihrer Projektbeschreibung darf generative KI verwendet werden. In diesem Fall sollten Sie jedoch klar und konkret darauf eingehen, inwieweit durch die erforderliche Spezifität bzw. den Konkretheitsgrad des Schreibens Grenzen der Sprachmodelle sichtbar wurden bzw. inwieweit die Formulierungen angepasst werden mussten.
Bewerbungsmodalitäten
Bewerbungsschluss: 31. Oktober 2025
Bewerbung an: digitalhumanities@mail.uni-freiburg.de
Stipendienantritt: Baldmöglichst nach der Auswahlentscheidung
Bewerbungen sind auf Deutsch und Englisch möglich.
Für Rückfragen zum Stipendium oder zur Bewerbung wenden Sie sich gerne an:
digitalhumanities@mail.uni-freiburg.de
Wir freuen uns auf Ihre Bewerbungen!