Public Humanities Tools: Der Bedarf an niederschwelligen Services

paper
Authorship
  1. 1. Jürgen Hermes

    Bergische Universität Wuppertal; Universität zu Köln

  2. 2. Harald Klinke

    Centrum für Informations- und Sprachverarbeitung - Ludwig-Maximilans-Universität München (Ludwig Maximilian University of Munich)

  3. 3. Dennis Demmer

    Bergische Universität Wuppertal; Universität zu Köln

Work text
This plain text was ingested for the purpose of full-text search, not to preserve original formatting or readability. For the most complete copy, refer to the original conference program.


Spätestens mit der Herausbildung des Social Web (auch Web 2.0) seit
knapp 15 Jahren, das nicht nur für die Verteilung von Information,
sondern tatsächlich auch zur Mitgestaltung von Inhalten genutzt werden
kann, hat das Internet die gesellschaftliche Kommunikationskultur
(jedenfalls die derjenigen, die über verlässlichen Zugang verfügen und
diesen nutzen) entscheidend gewandelt. Mit ResearchGate, Academia.edu,
Mendeley und als neue, explizit nicht-kommerzielle Variante
HCommons
entstanden eine Reihe sozialer Medien spezifisch für den
wissenschaftlichen Bereich, über die Forschungsergebnisse
ausgetauscht und bewertet werden können und mit denen v.a. der
Kontakt zu Kolleg|inn|en aufgenommen werden kann (Sugimoto et
al. 2016). Jenseits dieser spezialisierten sozialen Medien nutzen
Wissenschaftler|innen auch die allgemeinen Plattformen wie Facebook
und Twitter, letzteres vor allem, um wissenschaftlichen Diskussionen
zu folgen, Forschung zu kommentieren und auf eigene
Veröffentlichungen - von Ergebnissen, jedoch auch von Daten und
Software - aufmerksam zu machen (vgl. van Noorden 2014). Über die
allgemein gebräuchlichen sozialen Medien ist es möglich, auch Laien
zu erreichen, sei es, um die
eigene Reichweite zu erhöhen oder um neue Nutzerkreise zu gewinnen, die mitunter sogar am Forschungsprozess partizipieren können. Entsprechende Programme wie public engagement
oder Citizen bzw. Crowd
Science sind institutionell erwünscht (vgl. Deutsche Akademie der Technikwissenschaften et al. 2014) und innerhalb der Wissenschaften durchaus verbreitet (vgl. Franzoni & Sauermann 2014).

Die öffentliche Publikation von Forschungsdaten

Forschung – nicht zuletzt die in den Geisteswissenschaften – generiert große Mengen an Daten, Information und Wissen, die für (Teil)Öffentlichkeiten interessant und relevant sein können.
Nun ist die Publikation von Forschungsdaten – zusätzlich zu den
bisher gebräuchlichen Publikationsmedien – zwar weithin erwünscht (siehe RFII 2016), zur Zeit allerdings alles andere als weitreichend umgesetzt.
Dafür können sehr viele unterschiedliche Ursachen ausgemacht werden
(vgl. Kaden 2018). Auf der anderen Seite bieten soziale Medien, hier
vor allem Twitter, die Möglichkeit, granulare Informationshäppchen fein dosiert in den Timelines von Nutzer|inne|n erscheinen zu lassen und über diesen Weg deren Aufmerksamkeit zu gewinnen.
Die Nutzung von privatwirtschaftlichen Plattformen, die vorwiegend
monetäre Interessen verfolgen, für die Wissenschaftskommunikation ist
nicht unproblematisch. Momentan existieren allerdings schlicht keine
nicht-kommerziellen Alternativen Plattformen, über die man auf relativ
simple Weise ein ähnlich großes Publikum erreichen könnte.

Ein Twitterprojekt, das weitreichende Beachtung fand bis hin zu einem Artikel in der New York Times
, war das Projekt @9nov38 -
heute vor 75 Jahren, in dem fünf Historiker|innen
die zeitliche Dimension in die Erzählung von Ereignissen der
Reichspogromnacht über Twitter mit einbezogen. Nun ist die manuelle
Erstellung einzelner Tweets sehr aufwendig und für größere Datensätze
eigentlich nicht ohne weiteres zu leisten. Doch im Grunde liegen die
Daten, die für derartige Projekte gesammelt wurden, im Normalfall
bereits in einem strukturierten Format vor, etwa in einer Datenbank
oder als Spreadsheet. Auf dieser Grundlage wurde nach einem Austausch
mit den am @9Nov38-Projekt beteiligten Historiker|innen auf dem Histocamp 2015 der Webservice
autoChirp entwickelt, zunächst im Rahmen eines Projektseminars, seither weiter betreut durch das Institut für Digital Humanities
(IDH) in Köln (Hermes et al. 2017). autoChirp ist ein Webservice, der nicht auf eine spezifische Anwendung hin entwickelt wurde, sondern eine Plattform bietet, um diversen, u.a. historischen Projekten einen niedrigschwelligen Zugang zu für sie hilfreicher Technologie zu ermöglichen. In dem bewusst einfach gehaltenen Webinterface können strukturierte Daten hochgeladen werden, um sie automatisiert auf spezifizierte Zeitpunkte zu schedulen und zu veröffentlichen. Das erste Projekt, das autoChirp nutzte, war @NRWHistory, bei dem in einem Projektseminar von Düsseldorfer Historiker|innen die Entstehung des Landes NRW um 70 Jahre zeitversetzt nacherzählt wurde
(siehe ). Kurz darauf wurde über
autoChirp mit @TiwoliChirp ein
weiterer Veröffentlichungskanal für bereits über eine Smartphone-App
veröffentlichten Forschungsergebnisse der Literaturwissenschaft
eingesetzt.

Inzwischen greifen eine ganze Reihe von Projekten, die regelmäßige Tweets publizieren, auf autoChirp zurück. Das mit mehr als 4000 Followern mit Abstand reichweitenstärkste davon ist
@Die_Reklame, mit
dem Akteure aus dem Projekt @9Nov38
bemerkenswerte historische Werbeanzeigen twittern. Von Interesse sind
diese, weil gerade Werbung extrem gegenwartsbezogen ist, was einen
Einblick in die entsprechende Zeit der ursprünglichen Publikation gibt
(vgl. Hoffmann 2018). Ein weiteres Projekt mit historischem Bezug ist
Verbrannte Orte (@pictureXnet), das die Orte von Bücherverbrennungen im Dritten Reich auf einer Karte sammelt
(siehe ) und diese an den entsprechenden Jahrestagen der Verbrennungen vertwittert. Die Twitter-Plattform hilft hier dabei, Aufmerksamkeit zu generieren und auch Daten zu den Ereignissen zu sammeln. Einen sehr ähnlichen Ansatz verfolgt das Projekt @gedenkplaetze.

2019 jährte sich zum 250. Mal des Geburtstag von Alexander von Humboldt. In diesem Jahr von besonderem Interesse war daher seine Chronik
(siehe ), die von der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) herausgegeben wird und inzwischen auch über autoChirp an Twitter angebunden wurde (Hermes 2017). Bemerkenswert hier ist, dass die Chronik unter den Twitter-Account @AvHChrono
jahrestagsaktuell verfolgt werden kann, was von knapp 200 Leser|innen in Anspruch genommen wird. Diese tagesaktuelle Konsultation der Daten hat auch schon zur Feststellung von Fehlern geführt, die an die BBAW rückgemeldet und anschließend korrigiert wurden. Auch dieses Beispiel zeigt, dass Social Media keine Kommunikation auf der Einbahnstraße sein muss.

Die Perspektive der Kunstgeschichte
Zwei der neuesten autoChirp-nutzenden Projekte kommen aus dem Bereich der Kunstgeschichte, einer bildbasierten Wissenschaft, deren Grundlage historische visuelle Objekte sind. Daher bedeutet die Einführung digitaler Methoden in das Fach vor allem die Entwicklung von Analyseprozessen, die sich auf Bild- und Metadaten beziehen (Klinke 2018). Diese werden nicht nur in der Forschung erzeugt, sondern kommen bisher vor allem aus den Sammlungsinstitutionen (GLAM).

Abbildung 1: Ein Tweet aus dem Fundus des ClevelandFunFacts-Twitterbots

Museen sind einer umfangreichen Transformation unterworfen, in der sie ihre Aufgaben unter dem Vorzeichen der Digitalisierung, Social Media und Virtual Reality neu definieren müssen (Kohle 2019). So eröffnet die Publikation der Sammlungsdaten als Open Data neue Möglichkeiten, die kulturellen Artefakte in neue, zeitgenössische Zusammenhänge zu bringen, in denen sie neue Bedeutungszuschreibungen erhalten können. Durch die Verwendung von autoChirp können offene Sammlungsdaten und globale Öffentlichkeit durch das visuelle Medium Twitter zusammengebracht werden. Auch hier erlaubt Twitter nicht nur die Kommunikation in eine Richtung, sondern auch die Partizipation des Publikums durch Kommentare, Retweets und das Einbinden in neue Kontexte.

Zwei Beispiele aus dem Jahr 2019 machen dies deutlich: Der Tweetbot @cart_fun_facts
baut auf der Open Data-Strategie des Cleveland Museum of Art auf. Das
1916 gegründete Museum ist eines der umfassendsten Kunstmuseen der
Welt, das am 23. Januar 2019 bekannt gegeben hat, dass es sich ab
sofort als eine Open-Access-Institution betrachtet, die die
Bezeichnung Creative Commons Zero (CC0) für hochauflösende Bilder und
Daten im Zusammenhang mit ihrer Sammlung verwendet (siehe ).
Die Öffentlichkeit hat damit jetzt die Möglichkeit, Bilder von mehr als 30.000 gemeinfreien Kunstwerken zu kommerziellen und nichtkommerziellen Zwecke zu teilen, neu zu mischen und wiederzuverwenden. Der von Harald Klinke (LMU München) entwickelte Tweetbot verwendet die in der Datenbank befindlichen “Fun Facts”, die täglich auf Flashcards zusammen mit den Abbildungen der Kunstwerke im Format eines visuellen Memes über den autoChirp-Service getwittert werden
(siehe Abbildung 1).

Ein weiteres Beispiel ist der auf der Digital Art History Summer School 2019 in Malaga (DAHSS) durch Studierende entwickelte Tweetbot
@thyssenmlgbot. Dieser twittert die Werke des dortigen Museum Carmen Thyssen unter Zuhilfenahme von NLP-Techniken und autoChirp, wodurch die Beschreibungstexte auf relevante Topics untersucht und diese in Hashtags umgewandelt werden. Dieses Projekt hat einerseits gezeigt, wie Studierende mithilfe von digitalen Kompetenzen einer GLAM-Institution helfen können, ihre Werke einer breiteren Öffentlichkeit zu vermitteln. Andererseits, wie diese Vermittlung einen Rückkanal erhalten kann, der es dem Publikum erlaubt, auf die Werke zu reagieren (beispielsweise durch in die Tweets integrierte Frage nach der vermuteten Entstehungszeit des Werks). Auf diese Weise können auch Werke, die üblicherweise nicht in der Ausstellung gezeigt werden, sondern im Depot verbleiben, sichtbar gemacht werden. Ein Online-Tool wie autoChirp ist dafür ein Hilfsmittel, das einen niederschwelligen Zugang zu neuen Formen der digitalen Museumskommunikation ermöglicht und deshalb gerade auch in der Lehre eingesetzt werden kann.

autoChirp und autoPost

Das IDH betreibt inzwischen neben autoChirp zur automatisierten Veröffentlichung auf Twitter auch autoPost
für analoge Aufträge für Facebook-Seiten. Beide Services basieren auf
Spring, einem quelloffenen Java-Framework für Web-Anwendungen.
Der Quellcode ist unter Open Source-Lizenz (Eclipse
Public Licence) auf GitHub beziehbar (siehe
und ),
so dass eigene Services betrieben werden können. Das IDH stellt aber
auch beide Services für alle Interessierten zur Verfügung (siehe
https://autochirp.spinfo.uni-koeln.de
und ). Bei der Implementation wurde vor allem auf Modularität und Erweiterbarkeit geachtet, um das Programm ohne größeren Aufwand auf weitere Social Media Plattformen, wie z.B. Instagram portieren zu können, sofern diese eine entsprechende API (Application-Programming-Interface) anbieten.

Abbildung 2: Screenshot des autoPost-Services, mit dem große
Mengen von geplanten Facebook-Posts realisiert werden können (hier zum Tiwoli-Projekt).

Bei der Datenpersistenz wurde bei autoPost auf eine schwergewichtigere, aber performantere Datenbank gesetzt, da die Erfahrung mit autoChirp gezeigt hat, dass ein freier Scheduling-Service sehr gut angenommen wird und die Zahl der Datenbankeinträge dementsprechend groß werden kann. Um Nutzer|inne|n von autoChirp die Möglichkeit zu bieten, ihre Inhalte, die in autoChirp schon geplant sind, auch auf Facebook zu veröffentlichen, wurde für autoChirp eine Export-Funktion angelegt. Tweets können gruppenweise als TSV-Datei heruntergeladen und in autoPost als Facebook Posts importiert werden.

Zwischenfazit zum Nutzerzuspruch
Während autoChirp schon seit 2016 läuft und für knapp 150 Nutzer|innen-Accounts bereits über 17.500 Tweets veröffentlicht hat (weitere 10.000 Tweets sind terminiert, aktuelle Zahlen erhält man über die
Statistik-Seitedes
Services), startete autoPost erst im Herbst 2019.
Mit
Syrian Modern History
und

Public History Weekly
konnten aber bereits zwei wissenschaftlich betreute Accounts mit kombiniert über 36.000 Facebook-Abonnent|inn|en gewonnen werden, die autoPost täglich zur Bewerbung von Archiv-Artikeln nutzen.

Die Services autoChirp und autoPost sind Beispiele, an denen sich eine der wichtigen Aufgaben für die Digital Humanities spezifizieren lässt: Die Entwicklung erfolgte, weil Wissenschaftler|innen (nicht nur) aus den Geisteswissenschaften einen Bedarf hatten, ihre Daten auf Social Media Plattformen zu teilen. Dafür benötigten sie Tools, die eine niedrige Einstiegsschwelle haben und ihnen dabei Arbeit abnehmen können, wenn sie Aspekte ihrer Forschung öffentlich sichtbar machen und Studierende sowie die interessierte Öffentlichkeit in den Forschungsprozess (hier zuvorderst: In die Datensammlung) einbinden wollen. Insofern verstehen wir die Entwicklung von autoChirp und autoPost als Hilfsmittel zur Etablierung einer offenen, transparenten und partizipativen Wissenschaft (Open Science). Die Erfahrungen mit den hier vorgestellten Tools zeigt, dass die Methoden sowohl von den Wissenschaftler|inne|n, als auch vom Publikum angenommen werden und mithin das Potenzial haben, den Geisteswissenschaften eine größere Präsenz in der Öffentlichkeit zu ermöglichen und damit eine höhere Relevanz in der Gesellschaft zu erzielen.

Bibliographie

Deutsche Akademie der Technikwissenschaften / Union der Deutschen Akademien der Wissenschaften / Deutsche Akademie der Naturforscher Leopoldina
(2014): “Zur
Gestaltung der Kommunikation zwischen Wissenschaft, Öffentlichkeit und den Medien. Empfehlungen vor dem Hintergrund aktueller Entwicklungen.” München: acatech – Deutsche Akademie der Technikwissenschaften e.V. / Mainz: Union der Deutschen Akademien der Wissenschaften e.V. / Halle (Saale): Deutsche Akademie der Naturforscher Leopoldina e.V. – Nationale Akademie der Wissenschaften.

Fischer, Frank / Strötgen, Jannik (2015):
„When Does German Literature Take Place? – On the Analysis of Temporal Expressions in Large Corpora”, in:
Proceedings of DH2015, Sydney: Alliance of Digital Humanities Organisations.

Franzoni, Chiara / Sauermann, Henry
(2014): “Crowd science: The organization of scientific research in open collaborative projects”, in:
Research Policy, Amsterdam: Elsevier Volume 43/1, 1-20.

Hermes, Jürgen
(2017): „Neu: Alex von Humboldt auf Twitter!", in
TEXperimenTales, 17/08/2017,
.
[letzter Zugriff 18.12.2019]

Hermes, Jürgen / Hoffmann, Moritz / Eide, Øyvind / Geduldig, Alena / Schildkamp, Philip
(2017): „Twhistory with autoChirp" in:
DHd 2017 Bern – Digitale Nachhaltigkeit. Abstractband. Bern: DHd, 277ff.

Hoffmann, Moritz
(2018): „Von Funden und Schwellen: Die Reklame“,

[letzter Zugriff 18.12.2019]

Kaden, Ben
(2018): „Warum Forschungsdaten nicht publiziert werden“, in:
LIBREAS, Library Ideas 33.

Klinke, Harald
(2018): „Daten­analyse in der Digitalen Kunstgeschichte. Neue
Methoden in Forschung und Lehre und der Einsatz des DHVLab in der
Lehre”, in: Harald Klinke (Hg.):
#DigiCampus. Digitale Forschung und Lehre in den Geisteswissenschaften, München, 2018, S. 19-34.

Kohle, Hubertus
(2019):
Museen digital. Eine Gedächtnisinstitution sucht den Anschluss an die Zukunft. Heidelberg: Heidelberg University Publishing.

RfII – Rat für Informationsinfrastrukturen
(2016): Leistung aus Vielfalt. Empfehlungen zu Strukturen, Prozessen und Finanzierung des Forschungsdatenmanagements in Deutschland, Göttingen. URL:
[letzter Zugriff 18.12.2019]

Schwarz, Ingo
(2019): „Zur Alexander von Humboldt-Chronologie”, in Ottmar Ette
(Hg):
edition humboldt digital, hg. v. Berlin-Brandenburgische Akademie der Wissenschaften, Berlin. Version 5 vom 11.09.2019. URL:
[letzter Zugriff 18.12.2019]

If this content appears in violation of your intellectual property rights, or you see errors or omissions, please reach out to Scott B. Weingart to discuss removing or amending the materials.

Conference Info

Incomplete

DHd - 2020
"Digital Humanities zwischen Modellierung und Interpretation"

Hosted at Universität Paderborn

Paderborn, Germany

March 2, 2020 - March 6, 2020

130 works by 319 authors indexed

Conference website: https://zenodo.org/record/3666690

Contributors: Patrick Helling, Harald Lordick, R. Borges, & Scott Weingart.

Series: DHd (7)

Organizers: DHd