Crowd Editions:
Call for Reviews (Deutsch)

Call for Reviews in English / Projektvorschläge für Rezensionen

Oktober 2023

Das Institut für Dokumentologie und Editorik (IDE) ruft zur Einreichung von Rezensionen digitaler Editionen auf, die einen besonderen Fokus auf Crowd Editing und Peer Sourcing legen. Eine Publikation der Rezensionen ist in der online Rezensionszeitschrift für digitale Editionen und Ressourcen RIDE unter dem Themenschwerpunkt „Crowd Edited Digital Scholarly Editions“ als Rolling Release im Jahr 2024 vorgesehen.

Wir laden zur Begutachtung solcher digitalen Editionen aus allen geisteswissenschaftlichen Disziplinen ein. “Crowd Editing” wird hier in einem weiten Sinne verstanden: Es beschreibt eine Form der digital ermöglichten, öffentlichen oder teilöffentlichen Beteiligung an den Aufgaben, die die Erstellung und Veröffentlichung einer digitalen wissenschaftlichen Edition mit sich bringen. Typische editorische Aufgaben wie die Transkription, Kollationierung, Annotation, (Quer-)Verlinkung oder Kommentierung können “crowd sourced” oder “peer sourced” sein, d.h. sie können von einer zufälligen Gruppe engagierter Personen über eine öffentlich zugängliche Plattform durchgeführt werden. Es kann auch bedeuten, dass die jeweilige Edition vollständig von einer unabhängigen öffentlichen Nutzergruppe erstellt wird, z. B. auf einer Social-Media-Plattform (“soziale Edition”).

Um Gutachter:innen durch den Begutachtungsprozess zu begleiten und einen Rahmen für die Bewertung von „Crowd Edited Digital Scholarly Editions“ zu schaffen, gibt es dafür zu berücksichtigende Richtlinien, die sich am Ende dieses Calls befinden. Die allgemeinen Richtlinien für Digitale Editionen (Version 1.1) finden Sie hier: https://www.i-d-e.de/publikationen/weitereschriften/kriterien-version-1-1/.

Wir bitten Sie, uns vor der Begutachtung einer „Crowd Edited Digital Scholarly Edition“ eine E-Mail an ride-crowd@i-d-e.de zu schicken, mit einem Vorschlag, welche Ressource Sie begutachten möchten. Bitte senden Sie uns zudem eine kurze Erläuterung Ihrer Zugehörigkeit, Ihrer Verbindung zu der zu begutachtenden Edition/dem Projekt und Ihrem Fachgebiet. So kann vermieden werden, dass dieselbe Edition mehrfach begutachtet wird, und es lassen sich mögliche Interessenkonflikte erkennen.

Bitte informieren Sie sich im Vorfeld auch über die Regelungen zur Abfassung von RIDE-Rezensionen und über die RIDE-Einreichungsrichtlinien. Das Ziel von RIDE ist es, Rezensionen zu veröffentlichen, die als Peer-Review-Artikel gelten. Um eine gewisse Tiefe der Diskussion zu erreichen, sollten Rezensionen mindestens 2000 Wörter lang sein. Rezensionen können auf Deutsch oder Englisch eingereicht werden. Die Veröffentlichungen werden unter CC BY 4.0 lizenziert. RIDE erhebt keine Einreichungs-, Bearbeitungs- oder Veröffentlichungsgebühren jeglicher Art.

Hintergrund

Crowd-Editing gehört derzeit nicht zu den traditionellen Methoden, die für die Erstellung einer wissenschaftlichen Edition genutzt werden. Mit dem Aufkommen digitaler Umgebungen ist es jedoch nicht nur sehr viel einfacher geworden, die Kompetenzen der Crowd für hochspezialisierte, arbeitsintensive und/oder langwierige Aufgaben im Kontext wissenschaftlicher Editionen zu aktivieren, sondern Crowd-Editing ist auch zu einer zumindest potenziell relevanten Methode geworden, um den politisch attraktiven Bereich der sogenannten Citizen Science zu adressieren. Die Idee des Crowd-Editing, der Beteiligung von Personen an wissenschaftlichen Prozessen im Rahmen digitaler Editionsprojekte entstand im angloamerikanischen Raum vor etwa fünfzehn Jahren (vgl. Busch/Roeder 2023), wobei das Finden des Break-Even-Points in der Gleichung von Arbeitsaufwand der Crowd versus Arbeitsaufwand des Crowd-Managements und der Qualitätskontrolle eine Herausforderung geblieben ist, für die es noch keine Lösung gibt. Ein Ziel der RIDE-Ausgabe ist es, die verschiedenen Erfahrungen gegenüberzustellen und generische “best practices” der Organisation von “Crowd-Editionen” zu identifizieren.

Die Vielfalt der von den Peers behandelten Aufgaben ist groß: einfache Transkription, Korrektur nach der OCR, Zusammenstellung, Annotation, (Quer-)Verknüpfung, Erkennung benannter Entitäten, Bildbearbeitung oder Annotation, Datenbereinigung, Auszeichnung, Kommentierung und so weiter. Zweitens gibt es unterschiedliche Ansätze, wie viel Qualitätskontrolle die Crowd benötigt: Verfügt das “Community Brain” über genügend Erfahrung, um Fehler oder Mehrdeutigkeiten zu erkennen, oder gibt es eine akzeptable Fehlerquote? Muss jede Aufgabe von einer/m erfahrenen Editor:in kontrolliert werden? Das Augenmerk auf diese Fragen zu lenken, dient nicht nur der Kalkulation von zusätzlichen Kosten, sondern beleuchtet auch die verschiedenen Rollen innerhalb des Projekts und bestimmt auch das Verhältnis zwischen Öffentlichkeit und Wissenschaft. In vielen Fällen beruht ein erfolgreicher Crowd-Editing-Ansatz sehr viel eher auf gegenseitigem Vertrauen als auf tatsächlicher Crowd-Kontrolle (vgl. Moczek 2023). – Zum Thema »Crowd Editions« ist in der offenen Zotero-Bibliographie weiterführende Literatur zu finden.

Die Zeitschrift RIDE wurde 2014 gegründet, um einen Rahmen für die Bewertung digitaler wissenschaftlicher Editionen zu schaffen. RIDE ist Open Access, Rezensionen werden als HTML veröffentlicht und können als TEI heruntergeladen werden. Die RIDE-Ausgabe zu Crowd Edited Digital Scholarly Editions wird von Anna Busch, Martin Prell und Torsten Roeder herausgegeben.

Details zur Einreichung

Wenn Sie daran interessiert sind, eine Rezension zu schreiben, kontaktieren Sie uns bitte im Voraus, um inhaltliche Überschneidungen zu vermeiden. Rezensionen werden in Englisch und Deutsch angenommen. Die Länge der Rezension kann variieren (ca. 2000-5000 Wörter).

Bitte reichen Sie Ihre Rezension als editierbare Textdatei ein (vorzugsweise, aber nicht unbedingt als .docx, um die Konvertierung in TEI zu erleichtern). Abbildungen senden Sie bitte als separate Bilddateien (PNG) und hinterlassen im Text eine Notiz als Platzhalter für jedes Bild. Zusätzlich zum Text sammeln wir Schlüsselwörter (bis zu fünf pro Rezension). Jeder Rezension sollte eine kurze Zusammenfassung in englischer Sprache beigefügt werden, unabhängig von der im Haupttext verwendeten Sprache.

Weitere Informationen finden Sie in den allgemeinen RIDE-Richtlinien für das Verfassen und Einreichen von Artikeln unter https://ride.i-d-e.de/reviewers/submission-guidelines/. Der in der Checkliste für die Einreichung erwähnte Fragebogen wurde für wissenschaftliche digitale Ausgaben im Allgemeinen entwickelt.

Alle Rezensionen werden einem Peer-Review unterzogen, um ein hohes Qualitätsniveau der Bewertungen zu erreichen. Wir halten dies für sinnvoll, da die Bewertung digitaler wissenschaftlicher Ressourcen in der Regel eine doppelte Expertise in digitalen Methoden sowie in einzelnen wissenschaftlichen Disziplinen erfordert.

Besonders zu berücksichtigende Richtlinien 

Wir würden es begrüßen, wenn in der Rezension die folgenden Punkte besonders berücksichtigt würden:

  • Konzeptionelle Aspekte
    • Wie nennt sich die Edition? Wie hebt sie die Crowd-Aspekte hervor?
    • Verweis auf Vorbilder? Partnerprojekte?
    • Was verspricht sich die Edition davon, dass sie die Crowd einbindet?
    • Was sind die Benefits für die Einzelnen beteiligten? (Gamification, soziale Einbindung, Studiencredits etc.)
  • Praktische Umsetzung
    • Wie kann man sich beteiligen? (Anmeldeprozess, Lernkurve)
    • Was macht die Crowd? => typisch z.B. Transkription und Annotation; wie weit werden aber auch “editorische” Aufgaben übernommen wie z.B. Textkritik und Kommentierung?
    • Wer managt das Ganze (die Crowd selbst = Social Edition oder die Projektleitung = Crowdsourcing)? Qualitätsmanagement?
    • Welche Plattform wird verwendet? (z.B. MediaWiki, eigene Plattform)
    • technische Aspekte, wie wird das umgesetzt?
  • Rechtliche Aspekte
    • Gibt es eine Nutzungsrechtabtretung oder eine Freiwilligen-Vereinbarung?
    • Wie wird die Beteiligung akkreditiert?
    • Wie werden die gecrowdeten Inhalte lizenziert?