Aktuelle Projekte
Hier finden Sie aktuelle Forschungsprojekte der Digital Humanities in Regensburg. Die studentischen Projekte sind im Rahmen des MA-Studienganges Digital Humanities entstanden. Bei den Forschungsprojekten handelt es sich um aktuelle Forschungsvorhaben der Professur für Digital Humanities. Die Projekte werden laufend aktualisiert und folgen einer umgekehrt chronologischen Ordnung.
WiM – Wissenschaftlerinnen in den Medien
Wissenschaflerinnen sind in den Medien weniger präsent und werden anders dargestellt als männliche Forschende, so die Ausgangshypothese des WiM-Projektes, dass von Judith Ackermann an der Fachhochschule Potsdam geleitet wird. Das Projekt hat sowohl eine Forschungskomponente als auch eine praktische. Auf unterschiedlichen Social-Media-Kanälen macht das WiM-Team in einer Reihe von eigens entwickelten Formaten Forscherinnen gezielt sichtbar. In der Reihe “eine Frau, ein Buch” werden z.B. auf Instagram Promotionen vorgestellt und unter dem Hashtag #IchbinWissenschaftlerin können Forscherinnen Videos auf Instagram und TikTok posten und mit dem Projektaccount verlinken.
Die DH Regensburg beteiligen sich als assoziiertes Mitglied an der Forschungskomponente des Projektes: Große Textkorpora mit Social-Media-Daten von den Plattformen Instagram und Twitter werden mit Textmining-Methoden untersucht. Ziel ist es, wiederkehrende Narrative zu finden, mit denen Wissenschaftlerinnen häufig in Verbindung gebracht werden.
m*w – Genderstereotype und non-binäre Darstellungen in der Literatur
Im Projekt m*w werden seit 2019 typische Darstellungen literarischer Figuren unterschiedlicher Gender und die Abweichungen davon untersucht. Das Projekt wird gemeinsam von Mareike Schumacher (Uni Regensburg) und Marie Flüh (Uni Hamburg) geleitet. Zur Anwendung kommt ein literaturhistorischer Ansatz, bei dem Korpora aus unterschiedlichen Jahrhunderten betrachtet und miteinander verglichen werden. So standen bereits Novellen und Dramen des 19. und Romane des 18.-21. Jahrhunderts im Zentrum der Betrachtung. Außerdem verfolgen wir in dem Projekt das Ziel einer an Diversität orientierten theoretischen Modellierung von Gender, die bei der Implementierung computationeller Methoden zur Anwendung kommt. Auf diese Weise möchten wir dazu beitragen, dass im Rahmen der Digital-Humanities-Forschung die noch häufig genutzte Binärklssifikation von Gender überwunden werden kann.
Im Jahr 2022 wurde das Teilprojekt DisKo ins Leben gerufen, das von der Deutschen Nationalbibliothek (DNB) mit Expertise, Infrastruktur und Digitalisierungsmitteln unterstützt wird. Im Rahmen von DisKo bauen wir ein Diversitätskorpus auf, in dem Texte der letzten 100 Jahre enthalten sind, in denen ungewöhnliche Genderdarstellungen eine Rolle spielen, die sich nicht klar in ein Binärschema mit den Kategorien männlich-weiblich einordnen lassen. In DisKo wird eine Public-Humanities-Komponente umgesetzt, die die Beteiligung interessierter Persönlichkeiten innerhalb und außerhalb der wissenschaftlichen Community ermöglicht. Im Rahmen einer Umfrage rufen wir laufend zur Beteiligung an DisKo auf: https://forms.zenkit.com/i/klZHAjPGg/kE2jyYgbV/siegert-mia-somebody-told-me?v=a_yTRtpsWR
RaDiHum20 – Das Radio für Digital Humanities
Seit Juli 2020 werden im Podcast RaDiHum20 – das Radio für Digital Humanities regelmäßig Gäste aus den Digital Humanities interviewt. Das vierköpfige Host-Team besteht aus Jonathan Geiger (AdW Mainz), Lisa Kolodzie (Init), Jascha Schmitz (HU Berlin) und Mareike Schumacher (Uni Regensburg). Interviewt haben wir bereits Studierende und Forschende der digitalen Geisteswissenschaften sämtlicher Karrierestufen. Ebenso vielfältig sind die Themen: Von Research Software Engineering bis Infrastrukturen, von Studiengangsmanagement bis datenfeministischer Debattierclub wurden in über 50 Folgen und vier Staffeln die DH in ihrer Vielfalt präsentiert.
Vergangene Projekte
Dieser Abschnitt gibt einen Überblick über vergangene Digital-Humanities-Projekte an der Universität Regensburg. Viele der Projekte sind im Rahmen des Studienmoduls „Digital Humanities“ entstanden, welches im Masterprogramm der Medieninformatik, der Informationswissenschaft und der Medienwissenschaft seit WS 2012 / 2013 angeboten wurde. Die Projekte sind systematisiert nach deren fachlicher Zuordnung; soweit vorhanden sind jeweils bestehende Publikationen zu den Projekten verlinkt.
Sprachwissenschaft
PaLaFra – Vom Latein zum Französischen: Aufbau und Analyse eines digitalen Korpus spätlateinischer und altfranzösischer Texte (DFG-Projekt)
Abstract
Aus der DFG-Projektbeschreibung:
Es ist allgemein bekannt, dass die Rekonstruktionen der Historisch-Vergleichenden Sprachwissenschaft keine direkte Verbindung zwischen den ersten romanischen Texten und dem Spätlatein herstellen kann. Zwischen dem durch den Vergleich der romanischen Sprachen rekonstruierten ‚Proto-Romanisch‘ und dem schriftlich überlieferten Spätlatein klafft eine Lücke, ein no man’s land, das die unmittelbare und vollständige Ableitung der romanischen Strukturen aus den lateinischen unmöglich macht. Der Abstand ist kein zeitlicher, denn das Spätlatein und die romanischen Varietäten koexistieren im gemeinsamen spätantiken und frühmittelalterlichen Kommunikationsraum. Er hat vielmehr einen funktionellen Hintergrund und geht auf die Komplementarität von (lateinischer) Distanzsprache und nähesprachlichen (romanischen) Varietäten zurück. Das beantragte Projekt macht es sich zur Aufgabe, dieses komplexe Verhältnis am Beispiel der Entwicklung vom (Spät)Latein zu den altfranzösischen Varietäten zu untersuchen. An diesem Vorhaben werden sowohl latinistische als auch romanistische Forscher beteiligt sein, die den Übergang zwischen den sprachlichen Systemen von beiden Seiten beleuchtet. Das Projekt vereint drei Arbeitsgruppen: (i) Die deutsche Arbeitsgruppe bringt ihre linguistische Expertise auf dem Gebiet des Spätlateinischen ein. Ausgehend von den Textsammlungen der Monumenta Germaniae Historica entsteht in Zusammenarbeit mit Medieninformatikern ein digitales lateinisches Korpus, das morphosyntaktisch annotiert und lemmatisiert ist. Darüber hinaus sollen Verfahren der digitalen Registerkennzeichnung bzw. der digital basierten konzeptionellen Profilierung von Texten bzw. Textteilen entwickelt werden. (ii) Die Arbeitsgruppe in Lyon baut ihre Erfahrung bei der Erstellung elektronischer Korpora des Altfranzösischen (Base de français médiéval) weiter aus. Sie fügt das bereits bestehende altfranzösische und das entstehende lateinische Korpus zusammen und sorgt für eine gemeinsame Präsentation und parallele Abfragemöglichkeiten. Außerdem arbeitet sie an einem zweisprachigen Korpus altfranzösischer Übersetzungen von lateinischen Texten. (iii) Die Gruppe in Lille koordiniert die Auswertung dieses zweisprachigen Korpus durch eine bereits eingerichtete Arbeitsgruppe, die Latinisten und Forscher zur altfranzösischen Sprachgeschichte vereint. Die Arbeitsgruppe nutzt die vom Projekt zur Verfügung gestellten Daten bei der Abfassung eines Handbuchs zum Übergang vom Spätlatein zum Altfranzösischen. Auf diese Weise können die Analyse- und Annotationsstrategien direkt auf ihre Brauchbarkeit und ihr ergonomisches Profil hin überprüft werden.
Die Rolle der Medieninformatik liegt in der technischen Unterstützung dieses computerlinguistischen Forschungsvorhabens, etwa durch die Bereitstellung entsprechender Annotationswerkzeuge, Natural Language Processing Tools und Text Mining-Verfahren.
Vortragsfolien vom Workshop „Digital Humanities and the Technologies of the Semantic Web: Decolonizing Description for the Sake of Digital Humanities”, im Rahmen des Internationalen Symposiums für Informationswissenschaft 2015, in Zadar:
Weitere Informationen finden Sie im entsprechenden Blog-Post.
Publikation:
- Döhling, L., Burghardt, B., & Wolff, C. (to appear). Introducing PaLaFra – A Project on the Creation and Analysis of an Electronic Corpus of Historical Texts of Old French and Late Latin. In Proceedings of the 1st GSCL/CEDIFOR-Workshop on Corpora and Resources for Low Resource Languages with a Special Focus on Historical Languages.
HSVW – Historisch syntaktisches Verbwörterbuch des Deutschen
Abstract:
Aus der HSVW-Projektbeschreibung:
Die Verben bilden aufgrund ihrer Hauptfunktion, das Prädikat in einem Satz zu stellen, eine wichtige Schnittmenge zwischen Grammatik (Syntax) und Lexikon. Verben sind nicht nur morphologisch und semantisch definiert, sondern besonders auch durch ihre Eigenschaft, bei der Satzbildung quantitativ und qualitativ definierte „Leerstellen“ für Satzglieder zu „eröffnen“ (Valenz), die durch entsprechende Formulierungen besetzt werden können/müssen. Wie diverse Valenzwörterbücher zeigen, gehört die Angabe des Valenzpotentials eines Verbs auch zu seiner vollständigen Beschreibung im Wörterbuch.
Die Ausweitung der Valenztheorie auf historische Sprachstufen des Deutschen und die Ausarbeitung entsprechender Valenzwörterbücher zeigt bereits, welch großer Gewinn nicht nur für die historische Grammatik, sondern auch für die Interpretation der Quellentexte selbst durch die Herausarbeitung der Verbvalenz auf den historischen Sprachstufen zu erzielen ist. Der Erkenntnisgewinn wird noch vergrößert durch den diachronen Aspekt, das heißt, durch die Aufarbeitung der Valenzgeschichte der Verben vom Beginn ihres Auftretens in der deutschen Sprachgeschichte bis zu ihrer syntaktischen, semantischen und stilistischen Verwendung in der heutigen Kommunikation. Fallbeispiele wie die diachrone Analyse des Verbs gelüsten (ahd. gilusten) zeigen, dass die Valenzgeschichte der Verben nicht nur Aufschlüsse über den semantischen und syntaktischen Wandel eines Verbs liefert, sondern z.B. auch Erklärungen für das Verschwinden eines Verbs aus der aktuellen Kommunikation daraus abgeleitet werden können.
Dieser Aufgabe, aus den historischen Quellen die Valenzgeschichte der Verben des Deutschen zu erarbeiten und in Lexikonartikeln zusammenzufassen, unterziehen sich die Projektbeteiligten. Dabei gehen sie nach folgender Methode vor. Zugrunde gelegt werden Wortfelder (begonnen wurde mit den Verben der Emotion). Als Quellen dienen die historischen Wörterbücher des Deutschen und andere (digitalisierte) Belegrepositorien. Für die Bearbeitung der auf den drei historischen Sprachstufen pro Wortfeld vorhandenen Verben ist je ein Team zuständig. Ein viertes Team verfasst durch Vergleich der Analyseergebnisse auf den Sprachstufen mit Bezug auf das Neuhochdeutsche eine zusammenfassende Valenzgeschichte pro Verb.
Blog: https://histvw.wordpress.com/
Publikation:
- Burghardt, M., & Reimann, S. (erscheint 2016). Möglichkeiten der elektronischen Aufbereitung und Nutzung eines historisch syntaktischen Verbwörterbuchs des Deutschen. In A. Greule & J. Korhonen (Eds.), Historisches syntaktisches Verbwörterbuch. Valenz- und konstruktionsgrammatische Beiträge (Finnische ). Peter Lang Verlag.
Erstellung eines Bayerisch-Deutsch-Lexikons mithilfe der Facebook-Community
Auf Facebook findet sich eine große Zahl von offenen Gruppen[1], in denen sich Menschen zu regionalen Themen in Dialektsprache äußern:
„zefix, des konns ja ned sa – do hoggsd im Büro und de Fluign fiesln de ob – dann daschlogsd oane mid´n Fluigduscha und zwoa andere kemman zuar Beerdigung“ (Beispiel aus der Facebookgruppe „Niederborisch für Anfänger und Runaways“, online verfügbar unter https://www.facebook.com/groups/121572707986445/)
Aus sprach- und kulturwissenschaftlicher Perspektive stellen diese Belege verschriftlichter Dialektsprache ein interessantes Forschungsobjekt dar. Wir haben mit einem eigenen Textmining-Programm die Dialektwörter von der Facebook-Seite extrahiert und mit einem Crowdsourcing-Ansatz von der Community übersetzen lassen. Das Ergebnis ist ein kollaborativ erstelltes Bayerisch/Deutsch-Lexikon.
Publikation:
- Burghardt, M., Granvogl, D., & Wolff, C. (to appear). Creating a Lexicon of Bavarian Dialect by Means of Facebook Language Data and Crowdsourcing. In Proceedings of the 10th edition of the Language Resources and Evaluation Conference (LREC).
Digitalektor – Android-App zur Aufnahme von Dialektsprache
Abstract: Digitalektor ist eine Android-App, die mithilfe eines Crowdsourcing-Ansatzes die Erhebung von Dialektdaten erleichtern soll. Die App erlaubt es gesprochene Dialekt-Samples zusammen mit diversen Metadaten des Sprechers (Alter, Geschlecht, Herkunftsort) schnell und einfach zu erheben. Mithilfe dieser Daten ist es dann möglich, spezifische Korpora für weitere dialektologische Untersuchungen über ein Analyse-Dashboard zu erstellen, etwa ein Korpus mit Sprachbelegen von 18 bis 25-jährigen, männlichen Sprechern aus dem Raum Regensburg. Gleichzeitig könnte mithilfe der Daten aber auch eine interaktive Bayernkarte mit jeweils verlinkten Dialekt-Beispielen erstellt werden, oder ein Dialekt-Quiz konzipiert werden („Aus welcher Region kommt das nachfolgende Dialektbeispiel?“).
SocialTV – Twitter als interaktive Erweiterung des Mediums Fernsehen: Inhaltliche Analyse von Tatort-Tweets
Abstract: Diese Studie widmet sich der Nutzung von Twitter als interaktive Erweiterung des statischen Mediums Fernsehen. Dabei wurden ca. 3.700 Live-Tweets zu einer Folge der deutschen Krimireihe Tatort nach Inhalt und Funktion kategorisiert und anschließend in Hinblick auf vornehmlich medienwissenschaftliche Erkenntnisinteressen untersucht. Die Studie liefert interessante Ergebnisse zur Medienkonvergenz von Twitter und der Krimireihe Tatort.
Unter dem Schlagwort „Social TV“ gewinnen soziale Medien wie Facebook und Twitter zunehmend an Bedeutung, da sie für die Zuschauer einen interaktiven Rückkanal für das ansonsten weitestgehend statische Medium Fernsehen bieten. Wir präsentieren eine Studie im Spannungsfeld von Sprachwissenschaft und Medienwissenschaft, welche den Microblogging-Dienst Twitter als interaktive Erweiterung der etablierten TV-Krimireihe „Tatort“ untersucht. Hierzu wurde mit Hilfe des Tools Tweet-Archivist ein Korpus mit allen Live-Tweets (ca. 3.700) zu einer ausgewählten Tatortfolge (#tatort) erstellt. Neben den grundlegenden Metadaten, die Twitter automatisch für jeden Tweet liefert (Autor, Zeit, Datum, Sprache, Verlinkungen, etc.) wurde zusätzlich ein Annotationsschema mit insgesamt 17 Kategorien erarbeitet, welches es erlaubt jeden Tatort-Tweet (zunächst manuell) zu klassifizieren. Beispielhafte Kategorien sind etwa „Kritik“, „Spekulation“, „Zitat“, „Logik“, „Scherzhaftes“ etc.
Auf Basis der Kategorienannotation wurden dann die folgenden Fragestellungen untersucht:
- Kategorienverteilung | Welche Kategorien kommen wie oft vor?
- Frequenzanalyse markanter Wörter | Gibt es bestimmte Wörter, Emoticons oder Sonderzeichen, die besonders häufig in den einzelnen Tweet-Kategorien vorkommen?
- Zeitliche Analyse | Zu welchen Zeiten (während der Sendung) kommen welche Tweet-Kategorien in welcher Anzahl vor?
- Hashtags | Welche Hashtags treten (neben #tatort) noch häufig auf, und lassen sich Unterschiede für die einzelnen Tweet-Kategorien feststellen?
Die Analyse und Interpretation der Daten erfolgte vor einem vornehmlich medienwissenschaftlich/literaturwissenschaftlichen Hintergrund. Die Ergebnisse der Studie liefern interessante Erkenntnisse über die Medienkonvergenz von Twitter und der Krimireihe Tatort.
Foliensatz: Tatort-Tweets_Slides
Publikation:
- Burghardt, M., Karsten, H., Pflamminger, M., & Wolff., C. (2013). Twitter als interaktive Erweiterung des Mediums Fernsehen: Inhaltliche Analyse von Tatort-Tweets. In Workshop Proceedings of the GSCL 2013, Darmstadt. (PDF)
WebNLP – Web-GUI für Python NLTK-Funktionen und Voyant
Abstract: Das Python NLTK ist eine äußerst mächtige Standard Software-Bibliothek im Bereich des Natural Language Processing (NLP). Obwohl grundlegende NLP-Funktionen, wie etwa POS-Tagging oder Lemmatisierung, für viele Geisteswissenschaftler relevant sind, wird die Benutzung durch ein ausschließlich kommandozeilen-basiertes Interface für viele technisch weniger versierte Nutzer erschwert. Zudem erfordert die Konfiguration des Python NLTK auf dem eigenen Rechner grundlegendes Wissen zum Python-Interpreter sowie zur Python-Paketverwaltung. Mit dem „WebNLP“-Projekt liegt eine grafische Benutzeroberfläche vor, die es erlaub Textdokumente über den Browser mit grundlegenden NLP-Funktionen aus dem Python-Toolkit zu verarbeiten. Die Ergebnisse dieser Verarbeitung können entweder als XML-Datei heruntergeladen werden, oder als Input für das web-basierte Visualisierungstool „Voyant“ weiterverwendet, und direkt im Browser dargestellt werden (WordClouds, ScatterPlots, etc.).
Tool-Demo: http://132.199.139.24/~poj29145/nltk
Publikation:
- Burghardt, M., Pörsch, J., Tirlea, B., & Wolff, C. (2014) WebNLP – An Integrated Web-Interface for Python NLTK and Voyant. In Ruppenhofer, J. & Faaß, G. (eds.). Proceedings of the 12th edition of the KONVENS conference, S. 235 – 240. (PDF)
Social Media Analysis
TWISTA – Tool für die Analyse und Visualisierung von Tweet-Sammlungen
Abstract:
Social media services like Twitter churn out user-generated content in vast amounts. The massive availability of this kind of data demands new forms of analysis and visualization, to make it accessible and interpretable. We introduce Twista, an application that can be used to create tailored tweet collections according to specific filter criteria, such as the occurrence of certain keywords or hashtags. Once the tweet collection has been created, Twista calculates basic statistics, e.g. the average tweet length or the most active user. Furthermore, the application can perform basic sentiment analysis, analyze tweets with regard to their date of publication, and analyze the communication between different Twitter users. The results of these analyses are visualized by means of the data driven documents toolkit (d3.js) and can be viewed directly in the browser, or are available for download in PDF and JSON format. We also present three exemplary use cases („Mollath“, „Xbox“, „Israel conflict“) that illustrate the possible use of Twista for different scenarios:
Twista Video-Demo
Publikationen:
- Spanner, S., Burghardt, M., & Wolff, C. (2015). Twista – An Application for the Analysis and Visualization of Tailored Tweet Collections. In Proceedings of the 14th International Symposium of Information Science (ISI 2015) (pp. 191–202).
- Burghardt, M. (2015). Tools for the Analysis and Visualization of Twitter Language Data. 10Plus1 Journal, Special Issue on “Media Linguistics,” 1(1).
Tworpus – Tool für die Erstellung benutzer-definierter Twitter-Korpora
Abstract: Mit TWORPUS liegt ein einfach zu benutzendes Tools zur Erstellung benutzer-definierter Twitter-Korpora vor. TWORPUS ermöglicht es Sprachwissenschaftlern Korpora aus Tweet-Sprachdaten zu erstellen, ohne sich mit den technischen Aspekten der Twitter API auseinandersetzen zu müssen. Gleichzeitig berücksichtig TWORPUS die Nutzungsregelungen von Twitter, welche genau vorgeben in welcher Form Tweet-Daten genutzt und verbreitet werden dürfen. Mit TWORPUS können Korpora beliebiger Größe über eine GUI anhand unterschiedlicher Parameter wie etwa Sprache und Zeitraum erstellt und heruntergeladen werden.
Tool-Demo: http://132.199.139.24:3000/ (Hinweis: TWORPUS wurde nochmals überarbeitet, und stimmt an einigen Stellen nicht mehr mit der Beschreibung in der Publikation überein)
Publikation:
- Bazo, A., Burghardt, M., & Wolff, C. (2013). TWORPUS – An Easy-to-Use Tool for the Creation of Tailored Twitter Corpora. In Proceedings of the GSCL 2013, Darmstadt. (Springer-PDF)
Sentilyzer – Sentiment Analysis-Tool für Facebook-Seiten
Abstract: Dieses Projekt analysiert die Facebook-Likepage der Reality-TV-Serie „Ich bin ein Star, holt mich hier raus (Dschungelcamp)“. Dabei wurde ein Tool erstellt, welches über die Facebook-API alle Benutzer-Kommentare nach Kandidaten und Dschungelprüfungen (regelmäßige Events im Laufe der Sendung) gefiltert extrahiert, und auf Basis eines frei verfügbaren BAWL (Berlin Affective Wordlist) Sentiment-Korpus die tendenzielle Stimmung der Kommentare erfasst. Über eine Analyseschnittstelle kann betrachtet werden, welcher Kandidat zu welchem Zeitpunkt eher positiv oder eher negativ in den Kommentaren diskutiert wurde.
Tool-Demo: http://dh.wappdesign.net/
Publikation:
- Glücker, H., Burghardt, M., & Wolff, C. (2014) Sentilyzer – A Mashup Application for the Sentiment Analysis of Facebook Pages. In Ruppenhofer, J. & Faaß, G. (eds.). Workshop proceedings of the 12th edition of the KONVENS conference, S. 58 – 61. (PDF)
Kulturwissenschaft / Alltagskultur
BagTag – Kollaboratives Sammeln und Taggen von Handtaschen und deren Inhalt
Abstract: Auf nahezu allen größeren Social Media-Plattformen finden sich mittlerweile dedizierte Gruppen, bei denen die Nutzer unter der Losung „What’s in my bag?“ die Inhalte ihrer Handtaschen und Rucksäcke fotografieren und mit ihrer Community teilen. Um diese interessanten Momentaufnahmen von Alltagskultur aus Perspektive der Kulturwissenschaft sowie auch der (Alltags-)Soziologie nutzbar zu machen, fehlen aber meist einschlägige Metadaten. Für die Beantwortung von Fragen wie „Unterscheiden sich die Tascheninhalte von Frauen und Männern, und gibt es regionale oder altersbedingte Unterschiede?“ bedarf es neben einer Fotografie der Tascheninhalte auch grundlegender Angaben zur Besitzerin oder zum Besitzer der Tasche. Idealerweise sollten die einzelnen Objekte auch mit einem standardisierten Tagging-Vokabular verschlagwortet werden, um später automatische Analysen der Datenbasis zu erleichtern. Vor diesem Hintergrund präsentieren wir eine Web-Plattform (BagTag), die mithilfe eines Crowdsourcing-Ansatzes das Sammeln, Archivieren und Taggen von Tascheninhalten befördern will.
Webseite: www.sergelution.de/BagTag/
Streetartfinder – Web-Anwendung zur Dokumentation und Kartierung von Streetart
Abstract: Mit dem Streetartfinder liegt eine Web-Anwendung vor, die es ermöglicht Streetart-Bilder auf eine gemeinsame Plattform hochzuladen. Dabei werden Informationen zur Geolocation erfasst, welche es der Anwendung erlauben eine interaktive Karte der hochgeladenen Streetartbilder zu erstellen. Zusätzlich werden Informationen zum Uploader, zum Datum des Uploads sowie zur Streetart-Kategorie. Ziel ist der Aufbau einer umfangreichen digitalen Ressource zum Thema „Streetart“, welche in Folgestudien mit kunsthistorischen, soziologischen und kulturwissenschaftlichen Ansätzen näher untersucht werden können.
Weitere Informationen finden Sie im entsprechenden Blog-Post.
Webseite: http://streetartfinder.de/
Publikation:
- Burghardt, M., Schneider, P., Bogatzki, C., & Wolff, C. (2015). StreetartFinder – Eine Datenbank zur Dokumentation von Kunst im urbanen Raum. In Book of Abstracts, DHd 2015. (Download Poster + Extended Abstract)
Latrinalia – Crowdsourcing-Plattform zur Dokumentation und Transkription von Toiletten-Graffiti
Abstract: „Latrinalia“ beschreiben Graffitis in öffentlichen Toiletten. Im Rahmen dieses Projekts wurde eine App entwickelt, die es ermöglicht Fotos solcher Graffitis auf eine gemeinsame Plattform hochzuladen. Auf dieser Plattform können die Bilder dann mit Metadaten (inhaltliche Kategorie, Ort, Männer- vs. Frauentoilette, etc.) versehen werden, und vom Uploader selbst oder anderen Nutzern transkribiert werden (Crowdsourcing-Ansatz). Ziel ist der Aufbau einer umfangreichen digitalen Ressource zum Thema „Latrinalia“, welche in Folgestudien mit linguistischen, soziologischen und kulturwissenschaftlichen Ansätzen näher untersucht werden können.
Webseite: http://latrinalia.de/
Facebook: https://www.facebook.com/latrinalia.de
Publikation:
- Burghardt, M., Hertlein, F., Hinterleitner, B., Lehenmeier, C., & Spröd, T. (2015). A Crowdsourced Approach for the Documentation and Transcription of Graffiti in Public Restrooms. In Proceedings of the 14th International Symposium of Information Science (ISI 2015).
Literaturwissenschaft
To See or Not to See – Visualisierung und Analyse von Shakespeare-Dramen
Abstract: „To See or Not to See“ beschreibt ein web-basiertes Interface, welches die Visualisierung und Analyse quantitativer Aspekte aus Shakespeare-Dramen erlaubt. Die Datengrundlage stellen dabei Texte aus der Folger Digital Library, welche vollständig mit strukturellem TEI-Markup versehen sind, dar. Das Interface visualisiert dabei grundlegend welcher Character was und wieviel zu einem bestimmten Zeitpunkt im Stück sagt.
Weitere Informationen finden Sie im entsprechenden Blog-Post.
Tool-Demo: http://www.thomaswilhelm.eu/shakespeare/output/hamlet.html
Publikation:
- Wilhelm, T., Burghardt, M., & Wolff, C. (2013). „To See or Not to See“ – An Interactive Tool for the Visualization and Analysis of Shakespeare Plays. In Franken-Wendelstorf, R., Lindinger, E., & Sieck, J. (eds.) Kultur und Informatik: Visual Worlds & Interactive Spaces. Verlag Werner Hülsbusch, Glückstadt, S. 175-185.
Musikwissenschaft
MusicXML Analyzer
Abstract: Die Universität Regensburg ist im Besitz einer – in dieser Form einzigartigen – Liedblattsammlung, die insgesamt etwa 140.000 Blätter mündlich oder handschriftlich tradierter Volkslieder, aus dem gesamten deutschsprachigen Raum, beinhaltet. In einem laufenden Projekt beschäftigen wir uns mit der Digitalisierung dieser Liedblätter. Dabei sollen über automatische Verfahren, soweit möglich, die Liedtexte erfasst werden, und über ein webbasiertes Crowdsourcing-Tool auch die Melodien sukzessive transkribiert werden. Im Ergebnis entsteht eine maschinenlesbare Datenbank mit Texten und Melodien, die über ein öffentliches Informationssystem verfügbar gemacht werden soll. Weiterhin soll anhand dieser Datenbasis untersucht werden können, ob es charakteristische Melodiemuster für bestimmte Regionen gibt, oder welche Wörter besonders häufig in den Texten deutschsprachiger Volksmusik auftreten. Ein erster Prototyp in Form des MusicXML Analyzers liegt bereits vor. Dieser erlaubt die Suche nach beliebigen Melodiesequenzen; die Ergebnisse werden als virtuelle Notenblätter dargestellt und sind zudem digital abspielbar.
Demo-Video: https://dl.dropboxusercontent.com/u/4194636/MusicXML-Analyzer.mp4
Tool-Demo: http://music-xml-analyzer.herokuapp.com/
Publikationen:
- Burghardt, M., Lamm, L., Lechler, D., Schneider, M., & Semmelmann, T. (2015). MusicXML Analyzer. Ein Analysewerkzeug für die computergestützte Identifikation von Melodie-Patterns. In Proceedings des 9. Hildesheimer Evaluierungs- und Retrievalworkshops (HiER) (pp. 29–42).
- Burghardt, M., Lamm, L., Lechler, D., Schneider, M., & Semmelmann, T. (to appear). Tool‑based Identification of Melodic Patterns in MusicXML Documents. In Book of Abstracts of the International Digital Humanities Conference (DH).
Metal-Bass Analyzer
Abstract: Auf Basis von MusicXML-kodierten Bass-Tabulaturen zahlreicher Songs aus dem Genre des „Metal“, wurde eine web-basierte Analyseumgebung entwickelt. Das Tool erlaubt einerseits eine grundlegende statistische Analyse (z.B. welche Tonart kommt wie oft vor), andererseits aber auch die Suche nach bestimmten Ton- oder Rhythmus-Patterns, um so etwa Gemeinsamkeiten bei unterschiedlichen Metal-Songs aufzudecken.
Nutzerstudien und Informationsverhalten
Digitale Arbeitspraktiken in den Regensburger Geisteswissenschaften
Abstract: Im Zeitraum vom 25. März bis 1. Mai 2013 wurde eine umfangreiche Online-Umfrage durchgeführt, die Rückschlüsse über digitale, geisteswissenschaftliche Arbeitspraktiken an der Universität Regensburg erlauben soll. Insgesamt wurde der Online-Fragebogen von 93 Personen ausgefüllt (Rücklaufquote ca. 18%). Die Teilnehmer waren ausschließlich wissenschaftliches Personal aus den primär geisteswissenschaftlichen Fakultäten der Universität Regensburg: „Katholische Theologie“, „Philosophie, Kunst-, Geschichts- und Gesellschaftswissenschaften“, „Psychologie, Pädagogik und Sportwissenschaft“ sowie „Sprach-, Literatur- und Kulturwissenschaften“. Neben demografischen Angaben wurden die Teilnehmer vor allem nach typischen Tätigkeiten während des Forschungsprozesses und ggf. der Verwendung digitaler Tools zur Unterstützung dieser Tätigkeiten befragt.
Publikation:
- Burghardt, M., Traber. M., Schubert A. & Wolff C. (2014). Empirische Untersuchung zu digitalen, geisteswissenschaftlichen Arbeitspraktiken an der Universität Regensburg (Posterbeitrag). 1. Jahrestagung der „Digital Humanities im deutschsprachigen Raum“, Passau. (PDF)
Annotationspraktiken im akademischen Kontext
Abstract: Dieses Forschungsprojekt untersucht, wie aktuelle Annotationstools für Tablet-Computer Annotationsformen umsetzen, die bereits aus dem Schreib- und Printbereich bekannt sind. Für ein exemplarisches Tool untersuchen wir, welche Annotationsformen wie oft genutzt werden, wenn es darum geht einen wissenschaftlichen Text mit Annotationen aufzubereiten und zu erschließen. Dabei wird deutlich, dass bestimmte Annotationsformen häufiger im digitalen Kontext als im Printkontext verwendet werden. Wir diskutieren die Ergebnisse dieser Vergleichsstudie und leiten daraus Designimplikationen für digitale Annotationswerkzeuge im akademischen Kontext ab.
Publikation:
- Hastreiter, I., Burghardt, M., Elsweiler, D., & Wolff, C. (2013). Digitale Annotation im akademischen Kontext : Empirische Untersuchung zur Annotationspraxis von Studierenden auf Tablet-Computern. In: Hobohm, HC (ed.) Informationswissenschaft zwischen virtueller Infrastruktur und materiellen Lebenswelten: Proceedings des 13. Internationalen Symposiums für Informationswissenschaft (ISI 2013). Schriften zur Informationswissenschaft, 63. Hülsbusch, Glückstadt, S. 118-129. (PDF)
Wissenschaftsgeschichte
Women in Botany – Informationssystem und Visualisierung einer großen Datenbank zu Botanikerinnen
Abstract: In Zusammenarbeit mit der Botanischen Gesellschaft Regensburg und der Universitätsbibliothek, hat der Lehrstuhl für Wissenschaftsgeschichte (Prof. Meinel) an der Universität Regensburg eine umfangreiche Datenbank mit Biographien und historischen Daten zu ca. 9.000 Botanikerinnen erstellt. Der Lehrstuhl für Medieninformatik hat sich hier mit der visuellen Aufbereitung der Daten in einem Informationssystem beschäftigt, in dem die Botanikerinnen diachron, also entlang der Zeitachse, anhand unterschiedlicher Parameter wie etwa Geburts-und Sterbedaten interaktiv auf einer Karte dargestellt werden können. Zudem werden einfache Statistiken zu den Spezialisierungen sowie zu den Geburts- und Sterbeorten berechnet.
Digital Library
Research Sherlock
Abstract: Im Rahmen des Projekts „Research Sherlock“ wurde eine Android-App entwickelt, die es erlaubt Bücher aus der Universitätsbibliothek durch Eingabe oder Abscannen (OCR) der ISBN in der Anwendung zu verwalten. Die App erlaubt es Bücher mit Aufgaben zu verknüpfen, und soll so den wissenschaftlichen Arbeits- und Organisationsprozess vereinfachen. Außerdem macht die App Vorschläge (auf Basis von BibTip) zu weiteren relevanten Büchern, und erlaubt es die bibliographischen Daten im BibTex-Format zu exportierne.
Publikation (Winner of Best Poster Presentation Award):
- Haas, B., Kautetzky, M., Voit, M., Burghardt, M., & Wolff, C. (2015). ResearchSherlock: Toward a seamless integration of printed books into the digital academic workflow. In Proceedings of the 14th International Symposium of Information Science (ISI 2015).
Virtual und Augmented Reality
Augmented Reality-App: „Kunst auf dem Campus“
Abstract: Auf dem Regensburger Campus gibt es eine Vielzahl von Kunstwerken, die für den Laien oftmals nicht unmittelbar verständlich oder überhaupt erst zu erkennen sind. In einem Sammelband der Regensburger Kunstgeschichte sind all diese Kunstwerke systematisch dokumentiert, und mit relevanten Hintergrundinformationen versehen. Mit unserer Augmented Reality-App (erstellt mit Junaio–SDK) präsentieren wir einen interaktiven Guide für ausgewählte Kunstwerke auf dem Campus der Universität Regensburg. Dabei kann der Benutzer der App einerseits über eine eingebaute Kartenfunktion zu den Points of Interest navigieren, und andererseits, sobald das Smartphone auf eines der Kunstwerke gerichtet wird, interessante Zusatzinformationen erhalten. Diese Informationen werden „augmentiert“ dargestellt, d.h. der Benutzer sieht das tatsächliche Kunstwerk über die Kamera des Smartphones, auf dem Display werden aber zusätzliche Grafiken oder Texte in überlagerter Form angezeigt.
Virtual Bookshelf – Konzeptstudie für ein Natural User Interface zur Organisation und Exploration digitaler Dokumente
Abstract: Mit der hohen Verfügbarkeit digitaler Textdokumente stellt sich auch die Frage, wie die Fülle an digitaler Information angemessen verwaltet und organisiert werden kann. Mit dem Virtual Bookshelf liegt ein konzeptueller Entwurf vor, welcher in Ergänzung der etablierten Desktopmetapher die Vorzüge der physischen Medienpräsentation und -ordnung in das digitale Medium überträgt.
Publikation:
- Bazo, A., Burghardt, M., & Wolff, C. (2013). Virtual Bookshelf. Ein Natural User Interface zur Organisation und Exploration digitaler Dokumente. In: Hobohm, HC (ed.) Informationswissenschaft zwischen virtueller Infrastruktur und materiellen Lebenswelten: Proceedings des 13. Internationalen Symposiums für Informationswissenschaft (ISI 2013). Schriften zur Informationswissenschaft, 63. Hülsbusch, Glückstadt, S. 490-493. (PDF)
Virtuelle Rekonstruktion des Regensburger Ballhauses
Abstract: Auf Basis historischer Beschreibungen (Hofarchiv Thurn und Taxis) erfolgte eine Rekonstruktion des (heute nicht mehr vorhandenen) Regensburger Ballhauses am Ägidienplatz. Die 3D-Rekonstruktion modelliert einerseits das Innenleben des Ballhauses, und liefert andererseits textuelle Informationen zu interessanten Objekten. Die Rekonstrution kann mit Hilfe der Virtual Reality-Brille Oculus Rift interaktiv exploriert werden.
3D-Modellierung und Video von Martin Dechant, Musik von Johannes Molz.
Weitere Informationen finden Sie im entsprechenden Blog-Post.
Publikation:
- Dechant, M., & Burghardt, M. (2015). Virtuelle Rekonstruktion des Regensburger Ballhauses. In Book of Abstracts, DHd 2015.