Digital Humanities Archive – ZfL BLOG https://www.zflprojekte.de/zfl-blog/tag/digital-humanities/ Blog des Leibniz-Zentrums für Literatur- und Kulturforschung, Berlin Mon, 28 Nov 2022 15:45:08 +0000 de-DE hourly 1 https://wordpress.org/?v=6.6.1 https://www.zflprojekte.de/zfl-blog/wp-content/uploads/2019/01/cropped-ZfL_Bildmarke_RGB_rot-32x32.png Digital Humanities Archive – ZfL BLOG https://www.zflprojekte.de/zfl-blog/tag/digital-humanities/ 32 32 Eva Geulen: DISTANT READING UP CLOSE: Moretti zieht Bilanz https://www.zflprojekte.de/zfl-blog/2022/11/25/eva-geulen-distant-reading-up-close-moretti-zieht-bilanz/ Fri, 25 Nov 2022 13:25:08 +0000 https://www.zflprojekte.de/zfl-blog/?p=2783 Die Digital Humanities (DH) haben enorme Erfolge zu verbuchen: Fördermittel, technische Ausstattung, Professuren, Studiengänge. Das Digitale ist aus unseren Fächern längst nicht mehr wegzudenken. Gerade weil die »Wende« auf breiter Front gelungen ist, fällt in Franco Morettis Buch zuerst die Enttäuschung der Erwartungen aus den Nullerjahren ins Auge, als die DH noch »quantitative Literaturwissenschaft« hießen Weiterlesen

Der Beitrag Eva Geulen: DISTANT READING UP CLOSE: Moretti zieht Bilanz erschien zuerst auf ZfL BLOG.

]]>
Die Digital Humanities (DH) haben enorme Erfolge zu verbuchen: Fördermittel, technische Ausstattung, Professuren, Studiengänge. Das Digitale ist aus unseren Fächern längst nicht mehr wegzudenken. Gerade weil die »Wende« auf breiter Front gelungen ist, fällt in Franco Morettis Buch zuerst die Enttäuschung der Erwartungen aus den Nullerjahren ins Auge, als die DH noch »quantitative Literaturwissenschaft« hießen (Falsche Bewegung. Die digitale Wende in den Literatur- und Kulturwissenschaften, übers. von Bettina Engels, Konstanz: Konstanz University Press 2022). Ausgerechnet der Autor, der uns 2009 in seinem Buch Kurven, Karten, Stammbäume mit originellen Anwendungsmöglichkeiten datengetriebener, messender Literaturwissenschaft die Augen geöffnet und Hoffnungen auf ganz andere Literaturgeschichten gemacht hatte,[1] bilanziert jetzt Verluste und »Illusions perdues«[2]: abgebrochen die Verbindung »zur großen theoretischen Tradition des 20. Jahrhunderts« (9), der erhoffte »intellektuelle[] Schlagabtausch« (164) zwischen close und distant reading, Hermeneutik des Einzelgebildes und quantitativer Analyse fand nicht statt. Die »Lawine kleinerer Studien« blieb »ohne jede geistige Synthese« (165). »Die Literaturforschung wurde mathematisiert – und verlor darüber alle wissenschaftlichen Ambitionen« (ebd.). Und verloren ging auch ein Konzept der »Form« (9).

Bei der ›verlorenen Form‹ stutzt man erst einmal. Denn kaum einem Begriff wurde im vergangenen Jahrzehnt in den Literatur- und Kulturwissenschaften mehr Aufmerksamkeit geschenkt.[3] Die zahlreichen Ausprägungen dieser Form-Obsession sind sicher zu vielgestaltig, um sie auf einen Nenner zu bringen. Doch mit Blick auf die besonders intensiv und auch kontrovers rezipierte Studie Forms: Whole, Rhythm, Hierarchy, Network (2015) von Caroline Levine[4] kann man festhalten, dass sich das jüngere Interesse an der Form einem Ungenügen an der Reduktion von Literatur auf ihre Inhalte oder Themen verdankt. Gerade der gesellschaftlichen und sozialen Dimension der Kunst will man mit der Form auf neue Weise habhaft werden. Ein erweiterter Formbegriff soll den Königsweg zur sozialen und historischen Dimension des Kunstwerks bahnen. Diese Rückbesinnung auf die Form von Literatur ist überraschend und neu, weil die Beschäftigung mit Form lange als ahistorisch und unpolitisch galt.

Der Lukács- und Spitzer-Leser, Marxist und Morphologe Moretti hatte solche Rückbesinnung nie nötig. Lange vor ›Neuen Formalismen‹ und quantitativen Methoden war Form für ihn die zentrale Kategorie der Literaturwissenschaften, weil in ihr die »wahrhaft soziale Dimension der Literatur« (9) stecke: Künstlerische Form ist Arbeit an der Wirklichkeit, Kampf um Organisation und, mit einem Wort Aby Warburgs, »›antichaotisch[]‹« (89), sie unterwirft historisches Material der Umgestaltung. Aber die Widerstände, denen diese Intervention ausgesetzt ist, haben ebenfalls Anteil an der Form. Mit dem Biologen Wentworth D’Arcy Thompson, dessen Studie On Growth and Form (1917) Moretti immer schon gerne zitiert hat, ist jede Form auch ein Parallelogramm der auf sie einwirkenden Kräfte (vgl. 41). Die Form ist also die Schnittstelle zwischen historischen Kräften, die auf sie einwirken, und dem gestaltend-umwandelnden Eingriff: Schauplatz eines Kampfes zwischen Kräften und Gegenkräften. Diese »antagonistische Qualität« der Form (89), die aus ihr ein Indiz, einen »Fingerabdruck der Geschichte« macht,[5] gehe jedoch in den quantifizierenden Methoden des topic modelling und data mining, die Texte »wie ›Wortsäcke‹« analysieren (9 u.ö.), auf verschiedenen Ebenen verloren.

Diese Verfahren unterbrechen und suspendieren zunächst den Bezug zur Formerfahrung in der Lektüre eines Einzelgebildes. Und das ist für einen analog geschulten und brillanten Leser wie Moretti durchaus ein Problem (vgl. 157). Die Aufgabe, aber auch die Chance statistischer Verfahren besteht jedoch nun einmal darin, eine komplexe Struktur mit vielen Elementen und Beziehungen auf wenige Merkmale zu reduzieren, um so gleichsam synthetisch eine Form zweiter Ordnung zu generieren, die über große Textmengen und Zeiträume hinweg beobachtet werden kann. Mit anderen Worten: In den DH wird Hamlet nicht nur nicht gelesen, sondern Hamlet wird ›gemacht‹ (47), d.h. durch strategisch bestimmte Reduktion, Selektion und Abstraktion formaler Merkmale analysierbar und sogar simulierbar gemacht (vgl. das Kapitel zur »Simulation dramatischer Netzwerke«).

Neben der verführerischen Verfügbarkeit von immer mehr Daten spielen bei der Anwendung statistischer Verfahren die unverzichtbaren Visualisierungsstrategien häufig eine fatale Rolle. Das wird im fünften von insgesamt sechs Kapiteln anhand einer Metanalyse zu »Datenvisualisierung in den Humanwissenschaften« gezeigt (verfasst gemeinsam mit Oleg Sobchuk). Auf den inzwischen vertrauten Wimmelbildern mit den vielen mehr oder weniger dicht geclusterten Punkten schafft der Trend in Gestalt der Trendlinie Klarheit. Deren Problematik erhellt eine Studie zur durchschnittlichen Einstellungslänge in Filmen der vergangenen hundert Jahre.[6] Der sichtbare Trend zur kürzeren Dauer ›beweist‹ schrumpfende Aufmerksamkeitsspannen. Verborgen bleibt der Umstand, dass die US-amerikanische Action-Film-Industrie andere Filmgattungen sukzessive vom Markt verdrängt hat. Die Dominanz dieses auf kurze Einstellungen abonnierten Genres steckt hinter dem Trend. Die schöne Linie kaschiert bzw. verleugnet überdies deutlich sichtbare Sprünge in der Entwicklung. Moretti fragt: »Sehen sie ihre eigenen Daten nicht? Natürlich sehen sie sie; Trendlinien haben aber verändert, wie wir sehen« (123). Mit der Trendlinie haben wir »eine Möglichkeit gefunden«, das zu »übersehen«, was »durch die Dominanz des Kanons« verdeckt wird (ebd.).

Natürlich weiß Moretti, dass nicht nur Datenvisualisierungen anfällig für solche Interpretationsfehler sind. Auch hermeneutische Interpretationen schießen beim Versuch, durch den interpretierenden Rückbau der Form – Moretti bezeichnet das Verfahren als »Reverse Engineering« (28) – die historische Welt (wieder) zu entdecken, der das Kunstwerk und seine Form entstammen, oft genug über ihre Daten hinaus und verlegen sich aufs Fabulieren. Dass hermeneutische und statistische Methode noch in ihren Irrtümern divergieren, liegt an der Inkompatibilität der Welten, in denen sie operieren: »Die Interpretation bewegt sich zwischen Form und Welt« (30), also in der Vertikalen. Die Quantifizierung bewegt sich immer nur zwischen Form und Form, also auf der Horizontalen: »Es sind entgegengesetzte Impulse. Dionysos, Apollo. […] Beides große Leidenschaften. Doch zu exklusiv, um ihre Kräfte auf ein gemeinsames Ziel hin zu bündeln« (30f.). Aber wie hieß es bei Nietzsche? »Und siehe! Apollon konnte nicht ohne Dionysus leben!«[7] Ergebnis ihrer Kollaboration war das Wunderwerk der attischen Tragödie. Und in der Tat, auch wenn die Königskinder der Hermeneutik und der statistisch-quantitativen Literaturwissenschaft »nicht wechselseitig in ihre jeweilige Arbeit eingreifen« (31) können, scheint ihre komplementäre Ergänzung zu wundersamen Zwecken möglich.[8]

***

Morettis Buch bilanziert also nicht nur Verluste, sondern macht auch eine Gegenrechnung auf. Die versammelten Best-of-Praktiken erheben den Anspruch, den dokumentierten Fehlentwicklungen der vergangenen Jahre etwas entgegenzusetzen. Sie wollen Wege zu einer fruchtbaren Koexistenz von close und distant reading weisen. In einer im fünften Kapitel angeführten Dostojewski-Studie wurde beispielsweise die »Lautstärke« der Figuren ›gemessen‹ nach Maßgabe der ihren Aussagen von der Erzählstimme attribuierten Verben »schreien«, »sagen« und »flüstern«. Heraus kam eine Art Partitur von Dostojewskis Romanen, die Bachtins Formkonzept der Polyphonie eindrucksvoll bestätigt (vgl. 133). Morettis Begeisterungsfähigkeit für empirische Verifikation oder »Operationalisierung« (137 u.ö.) ästhetischer Kategorien ungeachtet, ist allein die Bestätigung dessen, was man schon vorher wusste, etwas dürftig. Gleichwohl erhellt das Beispiel sowohl die praxeologische Dimension von Morettis Auseinandersetzung mit Glanz und Elend der digitalen Methoden wie auch den hohen Stellenwert, den ästhetische Theoreme und Formkonzepte bei ihm genießen.

Das in dieser Beziehung vielleicht aufregendste, weil Theorie nicht bloß bestätigende, sondern sie erweiternde Beispiel für die Operationalisierung eines theoretischen Konzeptes liefert das vierte Kapitel zu Aby Warburg, das Moretti zusammen mit Leonardo Impett verfasst hat. Wie D’Arcy Thompson und Moretti selbst war auch Warburg ein passionierter Morphologe. Sein berühmter Bilderatlas Mnemosyne galt dem Versuch, über Zeiten, Gattungen und Formate hinweg wiederkehrende figürliche Bewegungsmuster zu identifizieren, die er Pathosformeln nannte. Was das sei, wollten Moretti und sein Team genauer wissen. Und warum Warburg von Formeln statt von Formen sprach, haben sie bei der Arbeit auch herausgefunden. Wenn Formen gelernt haben, sich zu replizieren, werden daraus Formeln, die von Menschen und Maschinen problemlos wiedererkannt werden, obwohl es weder den einen noch den anderen gelingt, die innere Logik der wahrgenommenen Familienähnlichkeiten verbindlich zu formulieren (vgl. 89).

Moretti und sein Team unternahmen also den abenteuerlichen Versuch, Pathosformeln zu ›messen‹. Zu diesem Zweck waren Hunderte bewegter Gestalten auf den 63 Tafeln von Warburgs Atlas in eine statistisch analysierbare Form mit für Algorithmen hinreichendem Abstraktionsgrad zu verwandeln. Heraus kamen zwölf Strichmännchen mit Armen, Beinen und Rumpf, die aber immerhin den Gliederpuppen glichen, die ältere Maler bekanntlich oft zur Hand hatten. Daraus ergaben sich insgesamt elf verschiedene Winkelformationen der einzelnen Körperteile, die den Algorithmus auf die Spur von Pathosformeln setzen sollten. Und siehe da, der Algorithmus clusterte richtig; er ›erkannte‹ die Pathosformeln, die Warburg auch schon erkannt hatte. Jetzt schien der Weg frei für einen Atlas von sehr viel größeren Ausmaßen.

Das gemeinsame morphologische Merkmal, das der Algorithmus zum Clustern verwendet hatte, war die gleichzeitige Bewegung der Arme und Beine. Erwin Panofskys Gegenüberstellung von Pathosformeln und der Technik des Kontrapost leistete klärende Amtshilfe. Die durch Symmetrisierung im Kontrapost erreichte Einheit wird vom Pathos aufgebrochen; unter seinem Einfluss machen sich Beine und Arme gewissermaßen gegeneinander selbständig: »Es geht hier um Körper, die zugleich an zwei Fronten kämpfen« (105). Von einem Biomechaniker lernte das Team, dass es sich dabei um hochgradig instabile Posen handelt, denen auch der beste Tänzer keine Dauer verleihen kann. (Deshalb sehen die der Pathosformel »Nymphe« zugehörigen Figuren stets so aus, als würden sie gleich stolpern oder ihre Last verlieren.) Die andernorts entwickelte »LifeForms«-Software vermag diese instabilen Posen so ins Bild zu setzen, wie es natürlichen Körpern nie gelingen könnte. Fazit: Pathosformeln zerbrechen die Einheit und sprengen die anatomisch-physischen Möglichkeiten eines natürlichen Körpers mithilfe einer Dissonanz, über die der Körper mit sich selbst in Konflikt gerät (vgl. 106).

Dass man zu diesem Ergebnis auch auf konventionelle Weise gelangen kann, zeigt der in diesem Kapitel von Anfang an mitlaufende Aufsatz der Kunsthistorikerin Maria Luisa Catoni, die anhand eines einzelnen Bildes einer »Verzweifelte[n] Frau in Bewegung« denselben Effekt festgestellt und im Register der Rhetorik als »Oxymoron« des Körpers bezeichnet hatte (107). Das von ihr analysierte Bild findet sich in Warburgs Atlas nicht. Aber die verzerrte Haltung der verzweifelten Frau ähnelt einer von Warburg aufgenommenen Mänade, die der Algorithmus im Schaubild weitab von den anderen Figuren mit Pathosformeln platziert hatte: ein »absolute[r] Ausreißer« (108). Aber gerade dieser Ausreißer ist der vorgeschobenste Posten – die Avantgarde – und gibt der »kleine[n] Armee« (109) auf dem Schaubild die Richtung vor: »dass der-Körper-als-Oxymoron keine singuläre Anomalie ist, sondern die logische Entfaltung der inneren Struktur der Pathosformeln« (109).

Man kann fast nicht anders, als in dem Pathosformeln charakterisierenden Widerstreit der Gliedmaßen ein Emblem der auseinanderstrebenden Vektoren von close und distant reading zu entdecken. Durch sie geht dieselbe Dissonanz, die im Begriff der Pathosformel quasi hegelianisch punktuell aufgehoben erscheint. Denn ohne Cantonis Exegese wäre die Mänade am äußersten Rand des Schaubildes eine Anomalie geblieben. Ohne die Arbeit des Algorithmus nach Maßgabe der Strichmännchen wäre Catonis Lektüre singulär geblieben. Das eine erhellt das andere, und gemeinsam enthüllen sie Logik und inneren Zusammenhang aller Pathosformeln: »Und das ist genug« (109). Wechselseitige Erhellung der Methoden und besondere Aufmerksamkeit für Ausreißer sind entscheidend.[9] Beides hatte schon im zweiten Kapitel »Ausnahmen, Normen, Extremfälle« zu Carlo Ginzburg eine Rolle gespielt. Und auch im dritten Kapitel erweisen sich gerade die Fehler der Simulationen als aufschlussreich, weil sie Interpretationen herausfordern, die das Verfahren nicht mitliefert. Auch eingefleischte DH-Skeptiker werden sich vom Potential der Methoden überzeugen lassen, wenn sie so theorieaffin und kenntnisreich eingesetzt werden, dass sie sogar ein paar Rätsel von Warburgs Pathosformeln lösen helfen.

***

Aber wo ist die Geschichte geblieben, der sich diese Formen und Formeln verdanken und der sie entstammen? Sie hat sich förmlich verflüchtigt. Hinter (oder auch: unter) dem so eindrücklich veranschaulichten Zusammenspiel (nicht: der Zusammenarbeit) von Hermeneutik und quantitativ-statistischen Methoden lauert jene Kluft, die Form und Geschichte trennt. Moretti schließt nicht aus, dass es sich dabei um eine »objektive Antinomie« handeln könnte (70). Denn auch als Kräftediagramm oder »Fingerabdruck der Geschichte« tendiert Form zur Statik; nur indem sie sich aus dem geschichtlichen Prozess herauslöst, wird sie überhaupt als Form erkennbar. Schon Goethe wollte schier daran verzweifeln, dass er die Übergänge von einer Form zur anderen nicht »rund herausbringen« konnte, weil wir die »unmerklichen Übergänge« weder wahrnehmen noch diskursiv darstellen können.[10] Bei Nietzsche heißt es: »[U]nser Intellekt ist zu stumpf, um die fortwährende Verwandlung wahrzunehmen: das ihm Erkennbare nennt er Form. In Wahrheit kann es keine Form geben, weil in jedem Punkte eine Unendlichkeit sitzt.«[11] Und Moretti weiß ebenfalls, »wie radikal sich die Morphologie, wenn sie ihrem Dämon folgt – und was ist Forschung anderes, als dem eigenen Dämon zu folgen? – aus der Geschichte zurückziehen kann« (70). »Es gibt keine Formen ohne Geschichte« (142). Und es gibt auch keine Geschichte ohne Formen. Aber wie Formen und Geschichte aufeinander bezogen werden können, bleibt ein Rätsel.

Morphologie und Geschichte: Das ist ein sehr langes, sehr abwechslungsreiches, zuletzt – aber vielleicht geht es ja gar nicht um das Letzte – immer aporetisches und zuzeiten auch abgründiges Kapitel, insbesondere in den Literaturwissenschaften. In ihm spielt Goethe eine wichtige Rolle, viele Biologen vor und nach D’Arcy Thompson. Auch Außenseiter wie der Wiener Paul Kammerer mit seinem Gesetz der Serie (1919) kommen darin vor, die russischen Formalisten, Gestalttheoretiker, die Germanisten André Jolles, Günther Müller, Horst Oppel und Eberhard Lämmert, Kunsthistoriker wie Warburg, Panofsky und George Kubler, Architekten wie Gilbert Simondon, Filmtheoretiker wie Siegfried Kracauer, Philosophen wie Ernst Cassirer und Hans Blumenberg.[12] Sie alle waren auf der Suche nach dem Kreuzungs- und Konvergenzpunkt, an dem die Form in einem antagonistischen Prozess geschichtlich emergiert, und haben dabei entweder die Form oder die Geschichte verloren.

Moretti beschließt das Buch im sechsten und letzten Kapitel mit einem Selbstrückblick: seine frühe Begegnung mit Fernand Braudel, seine hoffnungsfrohen Erwartungen an die quantitativen Methoden, die Aussichten auf eine »Literaturgeschichte ohne Texte« (20) in Analogie zu Wölfflins »Kunstgeschichte ohne Namen« – und dann die Desillusionierung angesichts der stattgehabten Entwicklungen. Es fehle, so resümiert Moretti, an der »wissenschaftlichen Phantasie […], die den Naturwissenschaften ihre grandiose intellektuelle Verwegenheit verleiht. Wenn wir doch nur so schöne Theorien hätten …« (166).

Geblieben ist dem enttäuschten Moretti sein unerschütterliches Vertrauen in die Phantasie der Naturwissenschaften. Das ist beim Marxisten Moretti unter Umständen verständlich, mit dem Morphologen verträgt es sich schlecht. Die Morphologie zählte nämlich noch nie zu den anerkannten naturwissenschaftlichen Ideen oder Theorien. Allenfalls als Hilfsdisziplin wird sie in einem breiten Fächerspektrum sowohl natur- wie humanwissenschaftlicher Provenienzen geduldet. Morphologen wie der tendenziell anti-darwinistische D’Arcy Thompson (der allerdings die Computer-Technik des Morphing vorwegnahm und auch die später validierte Theorie der Constraints evolutionärer Entwicklung),[13] waren keineswegs wohlgelittene Mitglieder der naturwissenschaftlichen Zunft. Carlo Ginzburg, auch er ein Morphologe, der mit seiner Mikrostudie zu Menocchio an dem einen Ende der methodischen Formanalysen angesiedelt ist, an deren anderem die quantitativen Verfahren liegen, hat jüngst noch einmal die morphologische Intuition betont, die ihn geleitet habe und oft jahrzehntelang auf empirische Substanziierung warten musste.[14] Morphologische Intuition ist kein naturwissenschaftliches Verfahren. Und wenn Moretti angesichts des berühmten Darwin-Diagramms über den Ursprung der Arten drei quantitative Studien anführt, bei denen man fast »Zeuge der Entstehung einer neuen kulturellen Art« sei (146), dann ist das kein Beweis für die »Verwegenheit« der Naturwissenschaften, sondern für die Macht morphologischer Intuitionen.

Nicht nur zwischen Morphologie und Geschichte klafft ein Bruch. Schon durch die Morphologie selbst geht ein Schisma. Wie Warburgs Pathosformeln war Morphologie stets ein Oxymoron und in sich gespalten. Sie war einerseits methodisch kontrollierte Reihenbildung und daneben immer auch Intuition, morphologische Schau, wie sie Kracauer noch geltend machte für die Aufgabe des Historikers, wenn er aus den erhobenen Daten der Vergangenheit so etwas wie Geschichte machen wollte.[15] Die Morphologie ist wirklich ein Dämon: »janusköpfig mit einem Antlitz der Zeitlichkeit und einem der Struktur zugewandt«.[16]

Aber das sind ›letzte Dinge‹, über die man unweigerlich ins Fabulieren gerät. Vorläufig wäre dafür zu sorgen, dass Morettis jüngstes Buch Pflichtlektüre für alle wird, die weiterhin besinnungs- und geistlos in die digitale Wende in den Literatur- und Geisteswissenschaften investieren.

Die Literaturwissenschaftlerin Eva Geulen ist die Direktorin des ZfL.

[1] Vgl. Franco Moretti: Kurven, Karten, Stammbäume. Abstrakte Modelle für die Literaturgeschichte, übers. von Florian Kessler, Frankfurt a.M. 2009.

[2] Ders.: Falsche Bewegung. Die digitale Wende in den Literatur- und Kulturwissenschaften, übers. von Bettina Engels, Konstanz 2022, S. 164. Weitere Zitate daraus werden durch Angabe der Seitenanzahl in Klammern im Fließtext nachgewiesen.

[3] Vgl. den Überblick im Einleitungskapitel von Eva Axer/Eva Geulen/Alexandra Heimes (Hg.): Aus dem Leben der Form. Studien zum Nachleben von Goethes Morphologie in der Theoriebildung des 20. Jahrhunderts, Göttingen 2021, S. 7–40.

[4] Caroline Levine: Forms: Whole, Rhythm, Hierarchy, Network, Princeton 2015. Zur Diskussion vgl. Eva Axer: »›Einfache Formen‹: Eine doppelte Perspektive auf Form. André Jolles, Caroline Levine«, in: Axer/Geulen/Heimes (Hg.): Aus dem Leben der Form (Anm. 3), S. 235–270.

[5] Moretti: Kurven, Karten, Stammbäume (Anm. 1), S. 71.

[6] Die Bevorzugung des Jahrhunderts als Untersuchungszeitraum ist übrigens auch ein Zeichen dafür, dass sich die Literaturgeschichte »nicht merklich verändert« hat (8) und viele ältere Annahmen und Usancen die Umstellung auf neue Verfahren unbeschadet überlebt haben.

[7] Friedrich Nietzsche: »Die Geburt der Tragödie«, in: ders.: Sämtliche Werke Kritische Studienausgabe in 15 Einzelbänden, hg. von Giorgio Colli/Mazzino Montinari, Bd. 1: Die Geburt der Tragödie. Unzeitgemäße Betrachtungen I–IV. Nachgelassene Schriften 1870–1873, München 1988, S. 9–156, hier S. 40.

[8] In dem aus den Sozialwissenschaften importierten Jargon spricht man auch von mixed methods approaches. Ob der zu einem entangled methods approach erweitert werden kann, hat Rabea Kleymann untersucht in »Datendiffraktion: Von Mixed zu Entangled Methods in den Digital Humanities«, in: ZfDGZeitschrift für digitale Geisteswissenschaften, Sonderband 5: Fabrikation von Erkenntnis – Experimente in den Digital Humanities (2021–2022). Über Formfragen habe ich mich mit Rabea Kleymann für den ZfL Podcast Bücher im Gespräch (Episode 9, 2022) unterhalten.

[9] Schon im Vorwort zu Morettis großer Studie über den Entwicklungsroman spielte das Motiv der imperfections eine wichtige Rolle; vgl. Franco Moretti: The Way of the World. The Bildungsroman in European Culture, London 2000, S. xii. Im Übergang zum distant reading zerfiel allerdings die im Zeichen der morphologischen Bricolage hergestellte Äquivalenz von Einzelwerk, Gattung und Geschichte. Vgl. dazu Eva Geulen: »Formen der Zeit in Geschichtstheorie und Literaturforschung. Wilhelm Dilthey, Siegfried Kracauer, Hans Jonas, Hans Blumenberg/Günther Müller, Horst Oppel, Eberhard Lämmert, Franco Moretti«, in: Axer/Geulen/Heimes: Aus dem Leben der Form (Anm. 3), S. 271–317, hier S. 316.

[10] Vgl. Eva Geulen: Aus dem Leben der Form. Goethes Morphologie und die Nager, Berlin 2016.

[11] Friedrich Nietzsche: Frühe Schriften, Bd. III, Schriften der Studenten- und Militärzeit 1864–1868, hg. von Hans Joachim Mette und Karl Schlechta, München 1994, S. 387.

[12] Vgl. Axer/Geulen/Heimes: Aus dem Leben der Form (Anm. 3).

[13] Vgl. Stephen Jay Gould: »D’Arcy Thompson and the Science of Form«, in: New Literary History 2.2 (1971), S. 229–258.

[14] Vgl. Carlo Ginzburg: »Medals and Shells. On Morphology and History, Once again«, in: Critical Inquiry 45.2 (2019), S. 380–395.

[15] Vgl. Eva Geulen: »Morphologie in der Geschichtstheorie nach 1945. Zum Verhältnis von Epochen und Chronologie bei Kracauer, Kubler und Blumenberg«, in: Timothy Attanucci/Ulrich Breuer (Hg.): Leistungsbeschreibung/Describing Cultural Achievements. Literarische Strategien bei Hans Blumenberg/Hans Blumenberg’s Literary Strategies, Heidelberg 2020, S. 199–210.

[16] Moretti: Kurven, Karten, Stammbäume (Anm. 1), S. 25.

 

VORGESCHLAGENE ZITIERWEISE: Eva Geulen: Distant Reading Up Close: Moretti zieht Bilanz, in: ZfL Blog, 25.11.2022, [https://www.zflprojekte.de/zfl-blog/2022/11/25/eva-geulen-distant-reading-up-close-moretti-zieht-bilanz/].
DOI: https://doi.org/10.13151/zfl-blog/20221125-01

Der Beitrag Eva Geulen: DISTANT READING UP CLOSE: Moretti zieht Bilanz erschien zuerst auf ZfL BLOG.

]]>
Rabea Kleymann: ÜBER DAS ERZÄHLWÜRDIGE DER THEORIE IN DEN DIGITAL HUMANITIES https://www.zflprojekte.de/zfl-blog/2021/02/08/rabea-kleymann-ueber-das-erzaehlwuerdige-der-theorie-in-den-digital-humanities/ Mon, 08 Feb 2021 09:20:12 +0000 https://www.zflprojekte.de/zfl-blog/?p=1702 Unter dem Label »Digital Humanities« (DH) werden unterschiedliche Themen, Gegenstände und Erkenntnisansprüche subsumiert. Vielen gelten die DH als Erweiterung des klassischen Methodenkanons, da sie computergestützte Verfahren für die Geisteswissenschaften in Aussicht stellen. Gleichzeitig verstärken die DH, indem sie unter anderem neue Werkzeuge anbieten, auch praxeologische Tendenzen innerhalb der Geisteswissenschaften. Infolgedessen haben sich die Rede von Weiterlesen

Der Beitrag Rabea Kleymann: ÜBER DAS ERZÄHLWÜRDIGE DER THEORIE IN DEN DIGITAL HUMANITIES erschien zuerst auf ZfL BLOG.

]]>
Unter dem Label »Digital Humanities« (DH) werden unterschiedliche Themen, Gegenstände und Erkenntnisansprüche subsumiert. Vielen gelten die DH als Erweiterung des klassischen Methodenkanons, da sie computergestützte Verfahren für die Geisteswissenschaften in Aussicht stellen. Gleichzeitig verstärken die DH, indem sie unter anderem neue Werkzeuge anbieten, auch praxeologische Tendenzen innerhalb der Geisteswissenschaften. Infolgedessen haben sich die Rede von der Theorielosigkeit der DH sowie Erzählungen vom »Ende der Theorie«[1] in den Diskussionen über digitale Methoden, Praktiken und Forschungsinfrastrukturen als Hauptnarrative etabliert. Dem Status der Theorie in den DH widmete sich die Tagung Theorytellings: Wissenschaftsnarrative in den Digital Humanities, die am 8. und 9. Oktober 2020 in Leipzig stattfand und von der Arbeitsgruppe »Digital Humanities Theorie« des Verbandes »Digital Humanities im deutschsprachigen Raum« und dem »Forum für Digital Humanities Leipzig« organisiert wurde.

Ihr zentrales Anliegen war es, Wissenschaftler*innen aus verschiedenen Disziplinen zusammenzubringen, um gemeinsam über Bedeutung, Form und Einsatz von Theorien in den DH zu diskutieren. Mit Blick auf den Forschungsdiskurs hat sich gezeigt, dass die Möglichkeiten von Theoriearbeit oftmals mit Fragen nach Legitimation und Relevanz der DH selbst verknüpft sind. Die Tagung lud nun dazu ein, von den vermeintlich unerzählten oder nicht erzählbaren Geschichten der Theorie in den DH zu berichten. In insgesamt fünf Vorträgen wurde nicht nur das Feld der Theorie in den DH neu begangen, sondern es wurden auch erzählwürdige Theorytellings sichtbar gemacht.

***

Eröffnet wurde die Tagung mit dem Vortrag Wider die Tiefenrhetorik‹. Über die Kulturtechnik der Verflachung, diagrammatische Maschinen und dasDeep Learning‹ der Philosophin Sybille Krämer (FU Berlin / Leuphana Universität Lüneburg). Ausgangspunkt dieses Vortrags war ein in Bezug auf Interpretationsvorgänge positiv besetzter »Gestus des Tiefgangs«. In den Geisteswissenschaften werde das Generieren von Bedeutungen häufig über ein Durchdringen von Oberflächen imaginiert. Die erkenntnistheoretischen Potenziale von Oberflächen hingegen würden fortwährend diskreditiert. Ein Theoriebeitrag der DH, so Krämers These, bestehe in der Rehabilitierung einer »Epistemologie der Oberfläche«. Die DH stellten nämlich eine produktive Gegenbewegung zur forcierten Tiefenrhetorik hermeneutischer Wissenschaften dar. Krämer skizzierte Perspektiven einer solchen spezifischen Epistemologie. Zuerst sei es wichtig, das kulturstiftende Potenzial in der Kulturtechnik der Verflachung zu erkennen: »Wir denken nicht nur auf der Fläche, sondern mit der Fläche.« Computer würden dann als Oberflächentechnologien deutbar, die über datenanalytische Operationen intrinsische Bedeutungen generieren. Gleichzeitig kehre jedoch mit diesem Bedeutungsverstehen des Computers eine unkontrollierbare Tiefendimension, eben eine neue Form des Blackboxing, zurück. Krämer beschrieb »Blackboxing« – Bruno Latours Ansatz folgend – als ein »Unsichtbarmachen wissenschaftlicher und technischer Arbeit durch ihren eigenen Erfolg«.[2] Hinter dem Bildschirm entstehe ein Netz von Protokollen, Algorithmen und virtuellen Maschinen, das von den Nutzer*innen gewöhnlich weder eingesehen noch verstanden wird. Die damit einhergehende Dialektik der Ent- und Verbergung sei sogleich Teil einer zukünftigen Epistemologie der DH. Am Beispiel von maschinellen Lernverfahren, hier Convolutional Neural Networks, zeigte Krämer abschließend erkenntnistheoretische Implikationen des Blackboxing auf. Entscheidend ist in ihren Augen dabei, dass Deep Learning selbst mit der Vervielfachung von maschinenintern bearbeiteten Oberflächen einhergeht.

Der Historiker Manfred Thaller (Universität zu Köln) rückte in seinem Vortrag Können Reaktionäre und Revolutionäre die gleiche Theorie haben? die hermeneutische Tradition der Geisteswissenschaften in den Fokus. Anhand dreier Beispiele – dem Einsatz von Computern in den Literaturwissenschaften, der Geschichtswissenschaft und der Archäologie – zeichnete er den Einfluss von fachspezifischen Theoriebeziehungen auf die Implementierung und Anwendung von informationstechnischen Werkzeugen historisch nach. Thaller erklärte, dass IT-Anwendungen sowohl von Reaktionär*innen wie Revolutionär*innen der Fächer favorisiert würden, denen gemeinsam sei, dass die informationstechnischen Möglichkeiten in Bezug zur Hermeneutik gedacht werden. Der theoretische Beitrag der DH liegt für ihn daher in einer »Ehrenrettung der Hermeneutik«. Hierzu formulierte er zwei Thesen: Erstens müssten die metaphysischen Prämissen in traditionell hermeneutischen Theorien verbannt und durch Ansätze aus den modernen Kognitionstheorien ersetzt werden. Nur so könne das hermeneutische Vorgehen durch Informationssysteme unterstützt werden. Daran schloss Thaller seine zweite These an: Gegenwärtig werden IT-Anwendungen in den Geisteswissenschaften meist nur für einzelne Arbeitsschritte im Forschungsprozess eingesetzt (z.B. für eine Korpusexploration). Zukünftige digitale Forschungsumgebungen sollten jedoch gerade den zirkulären Interpretationsvorgängen von Geisteswissenschaftler*innen Rechnung tragen (z.B. durch Netzwerkvisualisierungen). Auf diese Weise könnten IT-Anwendungen nicht nur einzelne Arbeitsschritte, sondern den gesamten geisteswissenschaftlichen Forschungsprozess unterstützen.

Hier knüpften die Überlegungen der Literaturwissenschaftlerinnen Evelyn Gius und Janina Jacke (TU Darmstadt) unmittelbar an. In ihrem Vortrag Sinn und Unsinn von Strukturalismus in den DH nahmen sie modellhaft Arbeitsschritte von hermeneutisch-literaturwissenschaftlichen Textanalysen und Interpretationen in den Blick, um ein etabliertes ›Anti-Theorienarrativ‹ neu zu verhandeln. Vonseiten der traditionellen Literaturwissenschaft würden computationelle Forschungsansätze zuweilen mit dem Vorwurf konfrontiert, dass sie rein strukturalistisch arbeiten. Hinter diesem Vorwurf verberge sich die Vorstellung, dass computationelle Zugänge literarische Texte lediglich auf formalistisch beschreibbare und numerisch zu erfassende Variablen reduzieren. Gius und Jacke gingen diesem Vorwurf nicht nur auf den Grund, sondern diskutierten am konkreten Beispiel von Text-Mining-Methoden auch, wo eine literaturtheoretische Fundierung stärker eingefordert werden könne. Sorgfältig prüften sie, inwiefern der Vorwurf des Strukturalismus und einer damit unterstellten Theorielosigkeit anhand dreier Zusammenhänge begründet werden kann: (1) beim Einsatz von computationellen Methoden für eine freie Exploration von Texten, (2) beim Erkennen relevanter Phänomene in der Analyse, (3) für die Erklärung ausgewählter Muster und Beispiele in der Interpretation. Neben einer Beliebigkeit der Auswahl von Methoden bei der freien Exploration führten sie als methodologische Probleme auch eine begründete Auswahl von Befunden sowie das prekäre Verhältnis von Daten und Interpretation auf. Es wurde jedoch deutlich, dass vermeintliche (theoretische) Defizite von computationellen Zugängen (wie z.B. das ungeklärte Verhältnis von quantitativen Auffälligkeiten und qualitativ verstandener Exemplarität) ebenso den traditionellen Literaturwissenschaften zugeschrieben werden können. Kriterien für Interpretationen werden in den Literaturwissenschaften häufig nicht ausreichend expliziert, sodass auch eine systematische Reflexion zu kurz komme. Die gemeinsame theoretische Auseinandersetzung mit diesen Defiziten obliege nun, so Gius und Jacke abschließend, den traditionellen wie den digitalen Literaturwissenschaften gleichermaßen.

Vom Strukturalismus ging es weiter zu Michel Foucaults Diskursanalyse. An den Anfang seines Vortrags Vom Archiv zum Computer. Foucault und die Digitalen Humanwissenschaften stellte der Medienwissenschaftler Henning Schmidgen (Bauhaus-Universität Weimar) eine Vorhersage des französischen Historikers Emmanuel Le Roy Ladurie aus dem Jahr 1968: »Der zukünftige Historiker wird Programmierer sein, oder er wird nicht sein.« Ein Jahr später antwortete Foucault auf diese Herausforderung mit seinem Werk Archäologie des Wissens, das Schmidgen in seinem Vortrag neu zu lesen versuchte. Seine Kernthesen waren dabei, dass Foucaults archäologische Überlegungen nicht nur die Implikationen der beginnenden automatisierten Informationsverarbeitung reflektieren. Vielmehr adressiere Foucault in seiner Vorgehensweise bereits wesentliche Fragestellungen der DH. Erstens sieht Schmidgen in der von Foucault wiederholt hervorgehobenen Dispersion des Diskurses die Übernahme einer im weitesten Sinne statistischen Perspektive begründet. Entscheidend sei zweitens, dass Foucaults archäologischer Ansatzpunkt gerade Umbrüche in übergreifenden Wahrnehmungsstrukturen zum Gegenstand habe und er in seiner Diskursanalyse auch der Frage nachgehe, wie in der Masse diskursiver Elemente einzelne Entitäten abzugrenzen seien. Drittens könnten Foucaults Überlegungen zur inneren Ordnung des Diskurses zu zeitgenössischen und aktuellen Verfahren der Stilometrie und Indexikalisierung ins Verhältnis gesetzt werden. Eine weitere Parallele zu aktuellen Problemstellungen der DH sei ferner, dass auch Foucault die immanenten Regelmäßigkeiten des Diskurses auf einer oberflächlichen Ebene verorte. Im Epilog entwarf Schmidgen dann ein noch zu erzählendes Theorytelling der DH, das im Sinne von Foucaults Diskursanalyse die »Algorithmen der Algorithmenanalyse« selbst untersucht. Von dieser Erzählung der Theorie, so Schmidgen, sei es aber noch ein weiter Weg in die Praxis der DH.

Während Schmidgen die Implementierung von Foucaults Diskursanalyse erst in einer fernen Zukunft sah, präsentierte die Sozialwissenschaftlerin Ramona Roller (ETH Zürich) in ihrem Vortrag Warum wurde Luther protestantisch? Erklärungsnarrative mit statistischen Modellen entwickeln und zur Theoriebildung nutzen. Vorschläge zur Operationalisierung von Theorieansätzen. Dazu schlug sie zunächst drei heuristische (Forschungs-)Narrative vor: Einem »Gegenwartsnarrativ« folgen Forschungsansätze, die ohne theoretisches Setting auf große Datensätze zugreifen. Dabei seien statistische Zufallseffekte und nicht replizierbare Datensätze prägend; es handele sich, salopp gesprochen, um eine »data piñata«.[3] Davon unterschied Roller ein »Klassiknarrativ« der Theoriebildung, dessen Ausgangspunkt eine Forschungsfrage sei, die bereits an einen theoretischen Ansatz anknüpfe. Es würden dann Hypothesen generiert, die anhand von kleineren Datensätzen falsifiziert werden. Rollers zukünftiges »Sollnarrativ« stellte eine Kombination der beiden genannten Narrative dar. Hierbei werden disziplinäre Theorieansätze berücksichtigt und große Datensätze bearbeitet. In ihrem Vortrag ging Roller sogar noch einen Schritt weiter, indem sie anhand der konkreten Forschungsfrage »Warum wurde Luther protestantisch?« das zuvor skizzierte Sollnarrativ evaluierte. Neben der disziplinären Theorie der Konfessionalisierung präsentierte sie Datensätze, operationalisierende Faktoren und generierte Hypothesen. Mit ihrem Vortrag warf Roller die grundsätzliche Frage auf, wie sich etablierte humanwissenschaftliche Theorien zu computationellen Analysen verhalten. Für sie besteht der Beitrag der DH vor allem in der Weiterentwicklung von bestehenden Theorieansätzen.

***

Die Frage nach dem Status der Theorie in den DH verschiebt den Fokus von den technischen Verfahrensweisen hin zu epistemischen, ästhetischen und disziplinären Implikationen der Digitalität in den Geisteswissenschaften. Auffällig ist insbesondere das heterogene Verständnis von Theorie. Einerseits wird Theoriearbeit als eine Auseinandersetzung mit vorhandenen theoretischen Ansätzen (z.B. Strukturalismus oder Diskursanalyse) verstanden. Andererseits lassen sich wissenschaftstheoretische Reflexionen über die Geisteswissenschaften sowie statistische Modellierungen anschließen. Auf die Frage nach Bedeutung und Relevanz von Theorien in den DH gibt es, wie die Tagung zeigte, viele Antworten und noch mehr erzählwürdige Geschichten. Gerade die mit dem Tagungsthema initiierten Theorytellings deuten nicht nur auf diverse Zugänge und neue Orte der Theoriebildung in den DH hin. Vielmehr erproben solche Theorytellings auch mögliche partizipative Formen. Statt einer großen Erzählung präsentierte die Tagung daher heterogene theoretische Unternehmungen einer (zukünftigen) Theorie im Plural.

 

Die Literaturwissenschaftlerin Rabea Kleymann verfolgt am ZfL ihr Projekt »Kompostierungen. Stoffkreisläufe und Wiederverwertbarkeit in Biologie, Literatur und Technologie«. Sie ist Co-Sprecherin der Arbeitsgruppe »Digital Humanities Theorie« im Verband DHd (Digital Humanities im deutschsprachigen Raum) und Mitherausgeberin der Sonderausgabe »Theorytellings: Epistemic Narratives in the Digital Humanities« des Journal of Cultural Analytics.

 

[1] Chris Anderson: »The End of Theory: The Data Deluge Makes the Scientific Method Obsolete«, in: Wired, 23.6.2008.

[2] Bruno Latour: Die Hoffnung der Pandora. Untersuchungen zur Wirklichkeit der Wissenschaft, Frankfurt a.M. 2002, S. 373.

[3] Simon Lindgren: Data Theory. Interpretive Sociology and Computational Methods, Cambridge u.a. 2020, S. 22.

 

VORGESCHLAGENE ZITIERWEISE: Rabea Kleymann: Über das Erzählwürdige der Theorie in den Digital Humanities, in: ZfL BLOG, 8.2.2021, [https://www.zflprojekte.de/zfl-blog/2021/02/08/rabea-kleymann-ueber-das-erzaehlwuerdige-der-theorie-in-den-digital-humanities/].
DOI: https://doi.org/10.13151/zfl-blog/20210208-01

Der Beitrag Rabea Kleymann: ÜBER DAS ERZÄHLWÜRDIGE DER THEORIE IN DEN DIGITAL HUMANITIES erschien zuerst auf ZfL BLOG.

]]>
Tatjana Petzer: SYNERGIEWISSEN ALS FREIES WISSEN https://www.zflprojekte.de/zfl-blog/2018/11/12/tatjana-petzer-synergiewissen-als-freies-wissen/ Mon, 12 Nov 2018 09:40:45 +0000 http://www.zflprojekte.de/zfl-blog/?p=932 Mit ›Synergie‹ werden kooperative Interaktionen bezeichnet, die zu einer neuen Qualität führen bzw. führen sollen. Spätestens im 19. Jahrhundert wurde auf den von synérgeia (›Mitwirkung, Zusammenarbeit‹) abgeleiteten Gräzismus die Bedeutung des aristotelischen Satzes »Das Ganze ist mehr als die Summe seiner Teile« übertragen.[1] Nicht nur in den Natur- und Geisteswissenschaften, sondern auch in Ökonomie, Technik Weiterlesen

Der Beitrag Tatjana Petzer: SYNERGIEWISSEN ALS FREIES WISSEN erschien zuerst auf ZfL BLOG.

]]>
Mit ›Synergie‹ werden kooperative Interaktionen bezeichnet, die zu einer neuen Qualität führen bzw. führen sollen. Spätestens im 19. Jahrhundert wurde auf den von synérgeia (›Mitwirkung, Zusammenarbeit‹) abgeleiteten Gräzismus die Bedeutung des aristotelischen Satzes »Das Ganze ist mehr als die Summe seiner Teile« übertragen.[1] Nicht nur in den Natur- und Geisteswissenschaften, sondern auch in Ökonomie, Technik und Kunst haben Debatten über Synergien und ihre Effekte seit einiger Zeit Konjunktur. Dabei stellt sich die wissenstheoretische Frage, wie derartige Synergie-Modellierungen in die Generierung und Strukturierung von Wissen eingreifen und welches Innovationspotential sie für die Wissensgesellschaft mit Blick auf die Zukunft haben.

Seit 2010 gehen wir dieser Frage in dem Projekt »Wissensgeschichte der Synergie« aus interdisziplinärer Perspektive nach.[2] Für den fächerübergreifenden Austausch sind digitale Infrastrukturen und eine internetbasierte Wissenskommunikation grundlegend. Von Anfang an wurde die Arbeit am von der VolkswagenStiftung mit einem Dilthey-Fellowship geförderten Projekt transparent und kollaborativ gestaltet. 2011 haben wir die DokuWiki-Plattform SynergieWissen eingerichtet, auf der die laufenden Aktivitäten und Diskussionen im Forschungsnetzwerk sowie die Ergebnisse im Open Access dokumentiert werden. Doch mit der Bereitstellung von Informationen und Texten sind noch lange nicht alle Möglichkeiten erschöpft, die Online-Formate wie Wikis für den Umgang mit wissenschaftlichen Erkenntnissen eröffnen. Wiki-Software basiert auf stark vereinfachten Prinzipien von Wissensmanagementsystemen (KMS) und stellt einer digitalen Community Mittel zur Verfügung, gemeinsam und direkt im Webbrowser Informationen zu sammeln, zu bearbeiten, zu vernetzen und online zu publizieren. Der einfache Einstieg in die Nutzung der ›sozialen Software‹ ist Programm: auf Hawaiisch bedeutet wiki ›schnell‹.

Für acht Monate diente uns das gemeinsam von Wikimedia Deutschland, dem Stifterverband und der VolkswagenStiftung betreute Fellow-Programm »Freies Wissen« als ergebnisorientierter Rahmen, anhand unseres SynergieWikis den eigenen Umgang mit digitaler Kommunikation und offenen Methoden zu überdenken. Open Science basiert auf dem Verständnis von Wissenschaft, die der US-amerikanische Soziologe Robert Merton mit den folgenden vier Prinzipien beschreibt: Universalismus, Kommunismus (im Sinne von Gemeineigentum), Uneigennützigkeit und organisierter Skeptizismus.[3] Die Digitalisierung bietet die Chance, diese Prinzipien konsequent umzusetzen. Wiki-Projekte (wie Wikipedia, WikiData, Wikiversity usw.) erlauben es, Wissen und Wissenschaft offen zu gestalten: d.h. transparent, kollaborativ, nachprüfbar, frei zugänglich und nachnutzbar.[4] Das gilt auch für unser SynergieWiki, dessen Inhalte durch eine überschaubare Wissenschaftscommunity organisiert werden. Vor diesem Hintergrund und mit Blick auf die 2019 bevorstehende Beendigung des Forschungsprojekts stellten wir uns die Aufgabe, das SynergieWiki in ein nachnutzbares Projektarchiv umzuwandeln, wozu eben nicht nur der Zugriff auf Forschungsergebnisse, sondern auch der Zugriff auf die Produktionsprozesse dieser Forschungsergebnisse, d.h. auf die Arbeitsprozesse selbst zählt.

Schon 1958 vertrat der französische Philosoph Gilbert Simondon – digitalen Technologien vorauseilend – die Position, dass die Existenzweise technischer Objekte strukturell nicht länger von einer Funktion her, sondern vielmehr als »Synergie für Synergie«[5], als synergetisches Ensemble von Technik und Umgebung zu verstehen sei. Der systemische Blick auf die Gesamtheit von Wechselwirkungen geht der Neuorientierung der Wissenschaften voraus. Im Zeitalter der Netzwerke ist der Universalbegriff der Synergie relevanter denn je. ›Synergie‹ ist, könnte mit Simondon formuliert werden, charakteristisch für ein Milieu vernetzten Wissens. In einer digitalen Umgebung bezeichnet ›Synergie‹ dann Effekte einer kollaborativen (und konkreativen), Wissen potenzierenden Praxis, die sich zunehmend an Offenheit und Teilhabe orientiert, und ist damit im Raum des Freien Wissens zu verorten.

Wie lassen sich also Syn-Energien mittels einer Open-Science-Ressource freisetzen? Für unser SynergieWiki stellten sich konkret drei Aufgaben:

  1. eine bessere Strukturierung und Verschlagwortung (Tagging) für eine allgemeine (wissenschaftliche) Nutzung sowie für gezielteren Zugriff auf Schlüsselbegriffe und Themenfelder des Projekts durch eine Begriffs- bzw. Themennavigation (TopicList),
  2. die Entwicklung weiterer Rubriken und Tools, die offene Inhalte und damit auch deren Weiterverwendung, vor allem aber kollaborative Methoden der Textbearbeitung unterstützen,
  3. die Einrichtung eines Log-Buchs, um den Arbeitsprozess offen zu legen.

Ein Kernstück der Umgestaltung unseres SynergieWikis bildete die Einrichtung eines digitalen Zettelkastens (SlipBox). Die in der Forschung anfallenden Notizen, Befunde, Ideen, kurzum ›Wissensschnipsel‹ konnten nun in ein offenes Ablagesystem integriert werden, das gut Belegbares mit wenig erforschten bzw. noch zu erforschenden Themen, aber auch Disparates, (noch) gänzlich Ungeordnetes oder Unzuordenbares in einer Art Blackbox zusammenführt und durch Tags miteinander verlinkt. Ein derartiger Zettelkasten ist ein Stolperkasten, der stets Neues und Überraschendes bereithält – dafür steht Niklas Luhmanns imposante Notizensammlung Pate. Entscheidend für die SlipBox ist aber die als kollaborative Methode im digitalen Raum angelegte nachhaltige Struktur, die eine offene und gemeinsame Erarbeitung von Inhalten überhaupt erst ermöglicht; dafür zirkuliert ein entsprechender Call for Data.

Der digitale Zettelkasten wird als Methode erprobt, um mit den – trotz der, vielleicht aber auch gerade wegen der gegenwärtigen Konjunktur – erstaunlich vagen Bedeutungen von Synergie (als Begriff, Modell, Methode) umzugehen. Mit seiner Hilfe lässt sich die Genese unterschiedlicher Synergie-Konzepte nachvollziehen, können diese als treibende Kraft der holistischen Modellbildung in interdisziplinären Forschungs- und Praxisfeldern identifiziert werden, kann aber auch die dem Synergie-Begriff immanente Rhetorik des Übersummativen und des damit verbundenen Mehrwerts hinterfragt werden. Daran schließt auch die Rubrik Lab an – ein Raum des Experiments, der die weitere Nachnutzung des Textkorpus SynergieWissen an der Schnittstelle zu Sprachanalyse und Datenvisualisierung anstoßen soll. Verwiesen sei in diesem Zusammenhang auf die Methode einer semiautomatischen digitalen Begriffsgeschichte, wie sie der Philosoph Alexander Friedrich und der maßgeblich an der Entwicklung der Open-Source-Anwendung JoBimText beteiligte Informatiker Chris Biemann vorgeschlagen haben.[6] Damit können nicht nur relative Wortfrequenzen festgestellt, sondern komplexe semantische Cluster bzw. Wortfelder und Bedeutungsrelationen modelliert werden.

Zu Offener Wissenschaft gehört auch, Einsicht in Arbeitsprozesse zu geben, sie nachvollziehbar und wiederholbar zu machen. Das Team des Synergie-Projekts richtete dafür ein LogBook ein, das es erlaubt, in kleinteiligen Schritten Ziele und Versuchsanordnungen, Erprobungen und Ergebnisse festzuhalten. Es liegt sicher nicht nur am Zeitfaktor, dass derartige Formate zu den weniger gängigen Arbeitsmitteln von Geisteswissenschaftlern zählen. Immer wieder stellt sich die Frage, welche Inhalte ohne Einschränkung in der Community verhandelt und zu welchem Zeitpunkt sie unter eine CC-Lizenz gestellt werden können, ohne sich die eigene Forschungsgrundlage zu entziehen. Wesentlicher noch ist aber die Frage nach dem ja ohnehin kaum kalkulierbaren Output webbasierter kollaborativer Arbeit: Hat die offene Sammlung, Rezeption und Nachnutzung von Inhalten überhaupt nennenswerte Bedeutung für das Hervorbringen von Wissen? Werden offene Methoden kurzfristig Forschungsergebnisse zeitigen und neue Forschung anstoßen? Darüber ließe sich im Moment nur spekulieren. Eins ist (digitale) Synergie jedenfalls nicht: ein Automatismus.

[1] Susanne Krasmann: »Synergie«, in: dies./Ulrich Bröckling/Thomas Lemke (Hg.): Glossar der Gegenwart, Frankfurt am Main 2004, S. 251. Hier, wie andernorts auch, wird Aristoteles (Metaphysik, VII, 17 (1041b)), der an dieser Stelle aber nicht von Synergie spricht, verkürzt angeführt. Vgl. Tatjana Petzer: »Einleitung: Begriff und Denkfigur der Synergie«, in: dies./Stephan Steiner (Hg.): Synergie. Kultur- und Wissensgeschichte einer Denkfigur, Paderborn 2016, S. 9–30.

[2] Das Team des Synergie-Projekts einschließlich seiner studentischen Mitarbeiterinnen und Mitarbeiter (seit 2016 Hannes Puchta) arbeitet eng mit den Wiki-Administratorinnen des ZfL Berlin, Susanne Hetzer und Ruth Hübner, zusammen, denen an dieser Stelle herzlich gedankt sei.

[3] Robert K. Merton: »Science and Technology in a Democratic Order« (1942), dt.: »Die normative Struktur der Wissenschaft«, in: ders.: Entwicklung und Wandel von Forschungsinteressen. Aufsätze zur Wissenschaftssoziologie, übersetzt und mit einer Einleitung von Nico Stehr, Frankfurt am Main 1985, S. 86–99.

[4] Vgl. Open Science Foundation Deutschland: »Open Science« (letzter Zugriff: 01.09.2018).

[5] Gilbert Simondon: Die Existenzweise technischer Objekte, aus dem Franz von Michael Cuntz, Zürich 2012, S. 32.

[6] Alexander Friedrich/Chris Biemann: »Digitale Begriffsgeschichte? Methodologische Überlegungen und exemplarische Versuche am Beispiel moderner Netzsemantik«, in: Forum Interdisziplinäre Begriffsgeschichte 5 (2016) 2, S. 78–96.

Die Literaturwissenschaftlerin und Slawistin Tatjana Petzer leitet als Dilthey-Fellow am ZfL das Forschungsprojekt Wissensgeschichte der Synergie.

 

VORGESCHLAGENE ZITIERWEISE: Tatjana Petzer: Synergiewissen als freies Wissen, in: ZfL BLOG, 12.11.2018, [https://www.zflprojekte.de/zfl-blog/2018/11/12/tatjana-petzer-synergiewissen-als-freies-wissen/].
DOI: https://doi.org/10.13151/zfl-blog/20181112-01

Der Beitrag Tatjana Petzer: SYNERGIEWISSEN ALS FREIES WISSEN erschien zuerst auf ZfL BLOG.

]]>