Anmelden (DTAQ) DWDS     dlexDB     CLARIN-D

Publikationen

1  Artikel

  • Susanne Haaf: Corpus Analysis based on Structural Phenomena in Texts: Exploiting TEI Encoding for Linguistic Research. In: Nicoletta Calzolari et al.: Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC 2016), 23.-28. Mai 2016, Portorož (Slovenia). Paris: ELRA, 2016. [Online-Version]
  • Bryan Jurish: Diachronic Collocations and Genre. In R. J. Whitt (Hrsg.), Diachronic Corpora, Genre, and Language Change: Book of Abstracts, (Nottingham, 8.-9. April, 2016), S. 22-24, 2016. [PDF, EPUB]
  • Bryan Jurish, Alexander Geyken, Thomas Werneke: DiaCollo: diachronen Kollokationen auf der Spur. In DHd 2016: Modellierung - Vernetzung - Visualisierung, (Leipzig, 7.-12. März, 2016), Digital Humanities im deutschprachigen Raum e.V., S. 172-175, 2016. [PDF, EPUB]
  • Susanne Haaf, Christian Thomas: Die Historischen Korpora des Deutschen Textarchivs als Grundlage für sprachgeschichtliche Forschungen. Erscheint in: Holger Runow/Volker Harm/Levke Schiwek (Hgg.): Sprachgeschichte des Deutschen: Positionierungen in Forschung, Studium, Schule. Stuttgart: Hirzel, vorauss. 2016. [Vorabdruck, PDF]
  • Bryan Jurish: DiaCollo: On the trail of diachronic collocations. In K. De Smedt (Hrsg.), Proceedings of the CLARIN Annual Conference 2015, Wrocław, Polen, 14.-17. Oktober, S. 28-31, 2015. [PDF, BibTeX]
  • Kay-Michael Würzner, Bryan Jurish: Dsolve - Morphological segmentation for German using conditional random fields. In C. Mahlow and M. Piotrowski (Hrsg.), Systems and Frameworks for Computational Morphology (Proceedings of the Fourth International Workshop SFCM 2015, Stuttgart, 17.-18. September, 2015), volume 537 of Communications in Computer and Information Science (CCIS), Springer, S. 94-103, 2015. [epub, PDF:draft, BibTeX]
  • Kay-Michael Würzner, Bryan Jurish: gramophone: A hybrid approach to grapheme-phoneme conversion. In Proceedings of the 12th International Conference on Finite State Methods and Natural Language Processing (FSMNLP) (Düsseldorf, 22.-24. June, 2015), ACL, 2015. [PDF]
  • Susanne Haaf, Alexander Geyken, Frank Wiegand: The DTA “Base Format”: A TEI Subset for the Compilation of a Large Reference Corpus of Printed Text from Multiple Sources, In: Journal of the Text Encoding Initiative [Online], Issue 8 – PREVIEW | 2014–2015. [http://jtei.revues.org/1114; DOI: 10.4000/jtei.1114]
  • Alexander Geyken, Thomas Gloning: A living text archive of 15th-19th-century German. Corpus strategies, technology, organization. In: Gippert, Jost / Gehrke, Ralf (Hrsg.): Historical Corpora. Challenges and Perspectives. Tübingen 2015, S. 165–180.
  • Christian Thomas, Frank Wiegand: Making great work even better. Appraisal and digital curation of widely dispersed electronic textual resources (c. 15th–19th centuries) in CLARIN-D. In: Gippert, Jost / Gehrke, Ralf (Hrsg.): Historical Corpora. Challenges and Perspectives. Tübingen 2015, S. 181–196.
  • Bryan Jurish, Henriette Ast: Using an alignment-based lexicon for canonicalization of historical text. In: Gippert, Jost / Gehrke, Ralf (Hrsg.): Historical Corpora. Challenges and Perspectives. Tübingen 2015, S. 197–208.
  • Susanne Haaf, Matthias Schulz: Historical Newspapers & Journals for the DTA. In: Language Resources and Technologies for Processing and Linking Historical Documents and Archives – Deploying Linked Open Data in Cultural Heritage – LRT4HDA. Proceedings of the workshop, held at the Ninth International Conference on Language Resources and Evaluation (LREC'14), May 26–31, 2014, Reykjavik (Iceland), p. 50–54. [Online-Version]
  • Bryan Jurish, Christian Thomas, Frank Wiegand: Querying the Deutsches Textarchiv.
    In: U. Kruschwitz, F. Hopfgartner, & C. Gurrin (Hg.): Proceedings of the Workshop MindTheGap 2014: Beyond Single-Shot Text Queries: Bridging the Gap(s) between Research Communities (co-located with iConference 2014, Berlin, 4. März, 2014), S. 25–30, 2014. [Paper, Slides – online-Versionen vom 5. März 2014]
  • Bryan Jurish, Kay-Michael Würzner: Word and Sentence Tokenization with Hidden Markov Models. In: Journal for Language Technology and Computational Linguistics (JLCL), vol. 28/2, 2013.
    [http://www.jlcl.org/2013_Heft2/3Jurish.pdf – online-Version vom 20. Dezember 2013]
  • Frederike Neuber, Christian Thomas: Kurz vor dem Ziel: Das Kurationsprojekt 1 der F-AG 1 »Deutsche Philologie«. In: Clarin-D-Newsletter, Nummer 5, 2013, November, S. 29–32. [online-Version vom 25. November 2013]
  • Bryan Jurish, Marko Drotschmann, Henriette Ast: Constructing a canonicalized corpus of historical German by text alignment. In Paul Bennett, Martin Durrell, Silke Scheible, and Richard J. Whitt (editors), New Methods in Historical Corpora, volume 3 of Corpus Linguistics and Interdisciplinary Perspectives on Language (CLIP), pages 221-234. Narr, Tübingen, 2013.
    [URL (Buch): http://pub.ids-mannheim.de/laufend/clip/clip03.html – online-Version vom 22. Oktober 2013]
  • Bryan Jurish, Kay-Michael Würzner: Multi-threaded composition of finite-state automata. In Proceedings of the 11th International Conference on Finite State Methods and Natural Language Processing (St Andrews, Scotland, 15th - 17th July, 2013), pages 157-161, 2013.
    [http://www.aclweb.org/anthology/W13-1813 – online-Version vom 10. Oktober 2013]
  • Bryan Jurish: Canonicalizing the Deutsches Textarchiv. In: Perspektiven einer corpusbasierten historischen Linguistik und Philologie. Internationale Tagung des Akademienvorhabens „Altägyptisches Wörterbuch“ an der Berlin-Brandenburgischen Akademie der Wissenschaften, 12.–13. Dezember 2011, herausgegeben von Ingelore Hafemann, Berlin 2013, S. 235–244.
    [urn:nbn:de:kobv:b4-opus-24433 – online-Version vom 8. August 2013]
  • Alexander Geyken: Wege zu einem historischen Referenzkorpus des Deutschen: das Projekt Deutsches Textarchiv. In: Perspektiven einer corpusbasierten historischen Linguistik und Philologie. Internationale Tagung des Akademienvorhabens „Altägyptisches Wörterbuch“ an der Berlin-Brandenburgischen Akademie der Wissenschaften, 12.–13. Dezember 2011, herausgegeben von Ingelore Hafemann, Berlin 2013, S. 221–234.
    [urn:nbn:de:kobv:b4-opus-24424 – online-Version vom 8. August 2013]
  • Susanne Haaf, Frank Wiegand, Alexander Geyken: Measuring the Correctness of Double-Keying: Error Classification and Quality Control in a Large Corpus of TEI-Annotated Historical Text. In: Journal of the Text Encoding Initiative (jTEI) 4, 2013.
    [online-Version vom 26. März 2013]
  • Christian Thomas, Frank Wiegand: Making great work even better. Appraisal and Digital Curation of widely dispersed Electronic Textual Resources (c. 15th–19th cent.) in CLARIN-D. Full Paper for the International Conference “Historical Corpora 2012”, December 6–9, 2012; Goethe University, Frankfurt, Germany.
    [urn:nbn:de:kobv:b4-opus-23081 – online-Version vom 31. Oktober 2012]
  • Frederike Neuber, Christian Thomas: Vorstellung des Kurationsprojekts 1 der Clarin-D-FAG 1 »Deutsche Philologie«. In: Clarin-D-Newsletter, Nummer 3, 2012, November, S. 11–13.
    [online-Version vom 3. Dezember 2012]
  • Alexander Geyken, Susanne Haaf, Frank Wiegand: The DTA ‘base format’: A TEI-Subset for the Compilation of Interoperable Corpora. In: 11th Conference on Natural Language Processing (KONVENS) – Empirical Methods in Natural Language Processing, Proceedings of the Conference. Edited by Jeremy Jancsary. Wien, 2012 (= Schriftenreihe der Österreichischen Gesellschaft für Artificial Intelligence 5).
    [online-Version vom 13. September 2012]
  • Alexander Geyken, Susanne Haaf, Bryan Jurish, Matthias Schulz, Christian Thomas, Frank Wiegand: TEI und Textkorpora: Fehlerklassifikation und Qualitätskontrolle vor, während und nach der Texterfassung im Deutschen Textarchiv. In: Jahrbuch für Computerphilologie – online, 2012.
    [online-Version vom 21. August 2012]
  • Alexander Geyken, Susanne Haaf, Bryan Jurish, Matthias Schulz, Jakob Steinmann, Christian Thomas und Frank Wiegand: Das Deutsche Textarchiv: Vom historischen Korpus zum aktiven Archiv. In: Digitale Wissenschaft. Stand und Entwicklung digital vernetzter Forschung in Deutschland, 20./21. September 2010. Beiträge der Tagung. Hrsg. von Silke Schomburg, Claus Leggewie, Henning Lobin und Cornelius Puschmann. 2., ergänzte Fassung. hbz, 2011, S. 157–161.
    [online-Version vom 12. Juli 2011]
  • Bryan Jurish: More than Words: Using Token Context to Improve Canonicalization of Historical German. In: Journal for Language Technology and Computational Linguistics (JLCL), vol. 25/1, 2010.
    [online-Version vom 7. Januar 2011]
  • Bryan Jurish: Comparing canonicalizations of historical German text. In Proceedings of the 11th Meeting of the ACL Special Interest Group on Computational Morphology and Phonology (SIGMORPHON), S. 72-77, Association for Computational Linguistics, 2010.
    [online-Version]
  • Bryan Jurish: Efficient online k-best lookup in weighted finite-state cascades. In Language and Logos: Studies in Theoretical and Computational Linguistics, Hrsg. von T. Hanneforth & G. Fanselow. Studia grammatica 72, Akademie Verlag, Berlin, 2010.
  • Bryan Jurish: Finding canonical forms for historical German text. In Text Resources and Lexical Knowledge: selected papers from the 9th Conference on Natural Language Processing (KONVENS 2008), Hrsg. von A. Storrer, A. Geyken, A. Siebert & K.-M. Würzner. Berlin, de Gruyter, 2008.

2  Monographien

3  Vorträge

  • Susanne Haaf: Corpus Analysis based on Structural Phenomena in Texts: Exploiting TEI Encoding for Linguistic Research. Vortrag im Rahmen der 10. Language Resources and Evaluation Conference (LREC), 23.–28. Mai 2016, Portorož (Slowenien).
  • Susanne Haaf: Vortrag im Rahmen des Kolloquiums Les corpus de textes numériques comme objets de recherche, 18./19. April 2016, Lyon.
  • Bryan Jurish: Diachronic Collocations and Genre: a case for DiaCollo? Vortrag auf der Konferenz „Diachronic Corpora, Genre, and Language Change“, Nottingham, UK, 8.–9. April, 2016. [Folien]
  • Matthias Boenig, Kay-Michael Würzner, Arne Binder, Uwe Springmann: Über den Mehrwert der Vernetzung von OCR-Verfahren zur Erfassung von Texten des 17. Jahrhunderts. Vortrag auf der 3. Tagung des Verbands Digital Humanities im deutschsprachigen Raum e. V. (DHd) 2016: „Modellierung – Vernetzung – Visualisierung. Die Digital Humanities als fächerübergreifendes Forschungsparadigma“, 7.–12.3.2016, Universität Leipzig.
  • Bryan Jurish, Alexander Geyken, Thomas Werneke: DiaCollo: diachronen Kollokationen auf der Spur. Vortrag auf der 3. Tagung des Verbands Digital Humanities im deutschsprachigen Raum e. V. (DHd) 2016: „Modellierung – Vernetzung – Visualisierung. Die Digital Humanities als fächerübergreifendes Forschungsparadigma“, 7.–12.3.2016, Universität Leipzig.
  • Susanne Haaf: Beitrag zum Panel Fachwissenschaftliche Nutzungsszenarien der CLARIN-D Infrastruktur (mit Gregor Wiedemann, Thomas Gloning, Andreas Blätte und Maret Keller) auf der 3. Tagung des Verbands Digital Humanities im deutschsprachigen Raum e. V. (DHd) 2016: „Modellierung – Vernetzung – Visualisierung. Die Digital Humanities als fächerübergreifendes Forschungsparadigma“, 7.–12.3.2016, Universität Leipzig.
  • Christian Thomas: Beitrag zum Panel Nachhaltigkeit technischer Lösungen für digitale Editionen. Eine kritische Evaluation bestehender Frameworks und Workflows von und für PraktikerInnen (Peter Andorfer, Matej Durco, Thomas Stäcker, Vera Hildenbrandt, Johannes Stigler, Sibylle Söring, Lukas Rosenthaler) auf der 3. Tagung des Verbands Digital Humanities im deutschsprachigen Raum e. V. (DHd) 2016: „Modellierung – Vernetzung – Visualisierung. Die Digital Humanities als fächerübergreifendes Forschungsparadigma“, 7.–12.3.2016, Universität Leipzig.
  • Bryan Jurish: Visualisierung diachroner Kollokationen mit DiaCollo. Vortrag beim Workshop "Die geisteswissenschaftliche Perspektive: Welche Forschungsergebnisse lassen Digital Humanities erwarten?", Akademie der Wissenschaften und der Literatur, Mainz, 19.02.2016. [Folien]
  • Susanne Haaf, Matthias Boenig, Christian Thomas, Alexander Geyken, Bryan Jurish, Frank Wiegand: Vernetzung von Daten im Deutschen Textarchiv. Beitrag im Rahmen des Workshops „Entwicklung und Nutzung interdisziplinärer Repositorien für historische textbasierte Korpora“ auf der 3. Tagung des Verbands Digital Humanities im deutschsprachigen Raum e. V. (DHd) 2016: „Modellierung – Vernetzung – Visualisierung. Die Digital Humanities als fächerübergreifendes Forschungsparadigma“, 7.–12.3.2016, Universität Leipzig. [Abstract, Folien]
  • Christian Thomas: Forster, Humboldt, Chamisso im Deutschen Textarchiv: Hochwertige Volltexte, computerlinguistische Analysen und Tools als Grundlage kooperativer Forschung. Vortrag auf der 3. Internationalen Chamissokonferenz „Weltreisen: Aufzeichnen, aufheben, weitergeben – Forster, Humboldt, Chamisso“, 25. bis 27.2.2016, Staatsbibliothek zu Berlin – Preußischer Kulturbesitz, Berlin. [Abstract, Folien]
  • Christian Thomas: Das Deutsche Textarchiv und das CLARIN-D-Servicezentrum der BBAW: Plattform zur Erstellung, Überarbeitung, Qualitätssicherung und Publikation von Primärtexten und Editionen. Vortrag auf Workshop Virtuelle Infrastrukturen für digitale Editionen. Entwicklungen, Perspektiven und Projekte. 12. bis 14. November 2015, Herzog-Ernst-Kabinett, Forschungsbibliothek Gotha, Schloss Friedenstein, Gotha. [Folien]
  • Susanne Haaf, Christian Thomas: DTABf-M: A TEI-conformant Base Format for Manuscripts. Vortrag im Rahmen der „Text Encoding Initiative Conference and Members' Meeting 2015. Connect, Animate, Innovate“, 28.-31.10.2015, Lyon (FR). [Abstract]
  • Christian Thomas: Standardized Information on historical Proper Names in Digital Full Text Transcriptions. Crowdsourcing ref="[ID]"s for <placeName> and <persName> tags in the corpora of the German Text Archive / Deutsches Textarchiv. Vortrag auf der Interdisciplinary Conference on Digital Cultural Heritage, 29. Oktober 2015, Staatsbibliothek zu Berlin, Berlin. [Abstract, Folien]
  • Christian Thomas: Die Korpora des Deutschen Textarchivs: Erfassung, Annotation, Analyse und Qualitätssicherung textbasierter Forschungsdaten für die Digital Humanities. Vortrag im Rahmen der Reihe „Digital Humanities – Theorie und Methodik“, 20.10.2015, Universität Leipzig. [Abstract, Folien]
  • Kay-Michael Würzner, Bryan Jurish: Dsolve - Morphological segmentation for German using conditional random fields. Vortrag auf dem Fourth International Workshop on Systems and Frameworks for Computational Morphology (SFCM), 17.-18. September 2015, Stuttgart. [Folien]
  • Bryan Jurish: DiaCollo: ein interaktives Werkzeug zur Extraktion und Exploration diachroner Kollokationen. Vortrag auf dem Workshop Historische Semantik und Semantic Web der Arbeitsgruppe "Elektronisches Publizieren" der Union der deutschen Akademien der Wissenschaften, 14.-16. September 2015, Heidelberg. [Folien, Abstract]
  • Kay-Michael Würzner, Bryan Jurish: gramophone: A hybrid approach to grapheme-phoneme conversion. Vortrag auf dem 12th International Conference on Finite State Methods and Natural Language Processing (FSMNLP), 22.-24. Juni 2015, Düsseldorf. [Folien, Resourcen]
  • Christian Thomas: Zeitliche Verlaufskurven in den DTA- und DWDS-Korpora: Wörter und Wortverbindungen über 400 Jahre (1600–2000). Vortrag auf der Jahrestagung der DHd 2015: Von Daten zu Erkenntnissen: Digitale Geisteswissenschaften als Mittler zwischen Information und Interpretation, 23.–27. Februar 2015, Graz. [Folien, Abstract]
  • Susanne Haaf: Text Type Classification for the Historical DTA Corpus. Vortrag auf dem CLARIN-NeDiMAH Workshop Exploring Historical Sources with Language Technology: Results and Perspectives, 8./9.12.2014, Den Haag (NL).
  • Susanne Haaf: Homogene Aufbereitung Historischer Zeitungen: Richtlinien und Workflows des Deutschen Textarchivs. Vortrag auf dem Workshop Die Zeitung als das Medium der neueren Sprachgeschichte? Korpora, Analyse und Wirkung, Institut für Deutsche Sprache Mannheim, 20./21.11.2014. [Folien]
  • Matthias Boenig, Christian Thomas: Annotationen automatisch erkennen – und darüber hinaus: Die Grimmbibliothek auf dem Weg ins Deutsche Textarchiv? Vortrag auf dem Workshop Die digitale Grimm-Bibliothek – Workshop zu einem Projektentwurf zur Arbeitsbibliothek von Jacob und Wilhelm Grimm. Berlin, Humboldt-Universität, 31.10.2014.
  • Alexander Geyken: Kollokationsdatenbanken für das Sprachlernen. Vortrag gehalten am 23. Oktober 2014, Università Cattolica del Sacro Cuore Brescia, Dipartimento di Scienze linguistiche e letterature straniere (Italien). [Folien].
  • Alexander Geyken: Corpus Based Analysis of Collocations: brief overview about the past 50 years. Vortrag gehalten am 22. Oktober 2014, Università Cattolica del Sacro Cuore Facoltà di Scienze linguistiche e letterature straniere, Milano (Italien). [Folien].
  • Frank Wiegand: Das Deutsche Textarchiv als Repositorium und Werkzeug. Vortrag gehalten beim Workshop des Projekts LAUDATIO, 7. Oktober 2014, Humboldt-Universität zu Berlin. [Folien].
  • Bryan Jurish, Kai Zimmer: Webservices des Zentrums Sprache an der BBAW. Vortrag gehalten beim 1. ifDHb-Rundgang an der BBAW Berlin, 1. September 2014. [Folien].
  • Susanne Haaf, Christian Thomas: Historical Text Corpora for the Humanities and Social Sciences. Digitization, Annotation, Quality Assurance and Analysis. Kurs im Rahmen der Gemeinsamen ESU DG K & T und CLARIN-D Sommeruniversität, 22.–26. Juli 2014, Leipzig. [Introduction, Annotation]
  • Susanne Haaf, Matthias Schulz: Historical Newspapers & Journals for the DTA. Vortrag auf dem Workshop LRT4HDA im Rahmen der LREC'14, 26.–31. Mai 2014, Reykjavik (Island) [s. oben Abschnitt Artikel].
  • Frank Wiegand: Qualitätssicherung im Deutschen Textarchiv. Vortrag auf der 3. DGI-Konferenz, 8. Mai 2014, Frankfurt am Main. [Folien].
  • Christoph Leijser: eTRACES – Recherche und Analyse von Zitationsspuren. Vortrag auf dem Abschlussworkshop eTRACES, 14. April 2014, Leipzig. [Folien].
  • Kathrin Pindl, Christopher Kolbeck, Susanne Haaf: Vom Archiv ins WWW – Digitale Korpora und (sprach-)historische Synergien. Vortrag auf der Tagung Offene Archive 2.1 – Social media im deutschen Sprachraum und im internationalen Kontext, 3.–4. April 2014, Stuttgart. [Folien].
  • Christian Thomas: The CLARIN-D Service Centre at the Berlin-Brandenburg Academy of Sciences and Humanities (BBAW): Corpora, Tools, Methods, and Best Practices for text-based interdisciplinary research. Vortrag auf dem NeDiMAH-Workshop Using Large Scale Text Collections for Research am 1. April 2014 in Würzburg [Folien].
  • Alexander Geyken: OCR Volltexte als Forschungsdaten: Standards und Interoperabilität. Vortrag auf dem Workshop Verfahren zur Verbesserung von OCR-Ergebnissen am 13. März 2014 in Bonn [Folien].
  • Alexander Geyken: Interoperable Standards als Voraussetzung für die Nutzung von Volltexten als Forschungsdaten. Vortrag auf der Sitzung W 135 des Niedersächsischen Beirats für Bibliotheksangelegenheiten, 27. und 28. Februar 2014 in Etelsen [Folien].
  • Susanne Haaf: Einführung in die Transkription und Annotation mit Hilfsmitteln und Techniken des DTA. Workshop und Arbeitstreffen zur Vorbereitung eines DFG-Antrags zur CLARIN-konformen Digitalisierung von Regensburger Rechnungsbüchern des 14. bis 20. Jahrhunderts, 10.–13. Januar 2014, Regensburg.
  • Susanne Haaf: Strukturelle und linguistische Annotation in historischen Textkorpora am Beispiel des Deutschen Textarchivs. Vortrag im Rahmen der AG Korpusbasierte Linguistik auf der 40. Österreichischen Linguistiktagung, 23. November 2013, Salzburg. [Folien].
  • Alexander Geyken: Historische Textkorpora für die Geistes- und Sozialwissenschaften. Das Beispiel „Deutsches Textarchiv“. Vortrag auf dem Workshop Best Practice: Digitale Korpora der AG „Elektronisches Publizieren“ der Union der deutschen Akademien und der Berlin-Brandenburgischen Akademie der Wissenschaften am 8. Oktober 2013 in der Berlin-Brandenburgischen Akademie der Wissenschaften [Folien].
  • Susanne Haaf, Alexander Geyken: The Lifecycle of the DTA Base Format (DTABf). Vortrag im Rahmen der TEI Conference and Members Meeting, 2.–5. Oktober 2013, Sapienza, Università di Roma (IT) [Folien].
  • Alexander Geyken: Keynote address: TEI for written historical corpora: why and how? Vortrag auf dem Workshop CLARIN, Standards and the Text Encoding Initiative im Rahmen des TEI Members Meeting 2013 am 30. September 2013 in der Sapienza, Universita di Roma (IT) [Folien].
  • Susanne Haaf: Introduction to TEI-XML. Workshop im Rahmen der International Summer School "Digitization and its Impact on Society" an der Technischen Universität Dresden, 30. September 2013 [Folien].
  • Susanne Haaf, Christian Thomas: Die historischen Korpora des Deutschen Textarchivs (DTA) als Grundlage für sprachgeschichtliche Forschungen. Vortrag auf dem Deutschen Germanistentag "Germanistik für das 21. Jahrhundert. Positionierungen des Faches in Forschung, Studium, Schule und Gesellschaft", 22.09.–25.09.2013, Christian-Albrechts-Universität Kiel. [Folien]
  • Frank Wiegand: Integration of Wikisource data sets into the CLARIN-D Infrastructure. Showcase auf dem CLARIN-D "M24 workshop", 27.-28.6.2013, Konzertgebäude De Vereeniging, Nimwegen (NL) [Abstract].
  • Bryan Jurish, Kay-Michael Würzner, Maria Ermakova, S. Arana: Canonicalization techniques for computer-mediated communication. Vortrag gehalten von Kay-Michael Würzner auf dem Workshop Verarbeitung und Annotation von Sprachdaten aus Genres internetbasierter Kommunikation auf der GSCL Conference 2013 in Darmstadt, 23. September 2013 [Folien].
  • Bryan Jurish, Kay-Michael Würzner: Multi-threaded composition of finite-state automata. Vortrag gehalten von Bryan Jurish auf der 11th International Conference on Finite State Methods and Natural Language Processing (St Andrews, Schottland, 15.–17. Juli 2013), 17. Juli 2013 [Folien].
  • Christian Thomas: Möglichkeiten der Nutzung des Grenzboten mit Werkzeugen des Deutschen Textarchivs (DTA). Vortrag im Rahmen der Vorstellung der digitalen Präsentation der Zeitschrift „Die Grenzboten“ in der Staats- und Universitätsbibliothek Bremen. 31.05.2013, Bremen. [Folien]
    Material zum Vortrag:
  • Alexander Geyken: Text Curation for the Deutsches Textarchiv. Workshop „Outils et expériences en humanités numériques“ („Digital Humanities: Infrastrukturen und Werkzeuge, Korpora und Erfahrungen“). Atelier organisé par le Centre Marc Bloch. 23.–24. April 2013, Berlin. [Folien]
  • Christian Thomas, Bryan Jurish: Named Entity Recognition (NER) im Deutschen Textarchiv – Computerlinguistisch gestützte Identifikation von Personen- und Ortsnamen in den Korpora des DTA. Workshop „Mehr Personen – Mehr Daten – Mehr Repositorien“, 4.–6. März 2013 in der Berlin-Brandenburgischen Akademie der Wissenschaften. [Abstract] [Folien]
  • Christian Thomas: Schriften Alexander von Humboldts in den Korpora des Deutschen Textarchivs: computerlinguistisch gestützte Recherche- und Analysemöglichkeiten. Workshop „Alexander von Humboldt und die Digital Humanities“. Humboldt Institut für Internet und Gesellschaft. 14.12.2012, Berlin. [Folien]
  • Alexander Geyken, Thomas Gloning: A living text archive of 15th–19th c. German. Corpus strategies, technology, organization. International Conference on “Historcal Corpora 2012”, 6.–9.12.2012, Johann Wolfgang Goethe-Universität, Frankfurt (Main). [Abstract] [Folien]
  • Christian Thomas: Making great work even better: Appraisal and Digital Curation of widely dispersed Electronic Textual Resources (c. 15th–19th cent.) in CLARIN-D. International Conference on “Historcal Corpora 2012”, 6.–9.12.2012, Johann Wolfgang Goethe-Universität, Frankfurt (Main). [Abstract] [Folien]
  • Bryan Jurish, Henriette Ast: Using an Alignment-based Lexicon for Canonicalization of Historical Text. International Conference on “Historcal Corpora 2012”, 6.–9.12.2012, Johann Wolfgang Goethe-Universität, Frankfurt (Main). [Abstract] [Folien]
  • Matthias Schulz: Präsentation des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Kooperationsprojektes „AEDit Frühe Neuzeit“, 5. Marburger Personalschriften-Symposion, 1.–3.11.2012, Marburg.
  • Susanne Haaf: Erstellen und Verwenden eines projektspezifischen TEI-Datenschemas. Vortrag gehalten am 10. Oktober 2012 auf der Autumn School „Digitale Editionen – Methoden und Technologien für Fortgeschrittene“ des Instituts für Dokumentologie und Editorik (i|d|e), 8.–12. Oktober 2012 in Chemnitz. [Foliensatz]
  • Susanne Haaf: The DTA `base format’: A TEI-Subset for the Compilation of Interoperable Corpora. Vortrag gehalten am 21. September 2012 auf der LTHist2012 – First International Workshop on Language Technology for Historical Text(s) im Rahmen der Konferenz KONVENS2012 – The 11th Conference on Natural Language Processing, 19.–21. September in Wien.
  • Alexander Geyken, Susanne Haaf, Christian Thomas, Frank Wiegand, Thomas Stäcker, Thomas Gloning: Compiling large historical reference corpora of German: Quality Assurance, Interoperability and Collaboration in the Process of Publication of Digitized Historical Prints. Panelsession auf der Konferenz Digital Humanities 2012 in Hamburg, 16.–20 Juli 2012. [Abstract, Videomitschnitt]
  • Frank Wiegand: Identification and Integration of distributed text resources in DTAE. Vortrag gehalten am 27. Juni 2012 auf dem CLARIN-D M12 Workshop in Leipzig. [Folien]
  • Christian Thomas: Enlarging the reference corpus of the Deutsches Textarchiv (DTA). Production, conversion and interchange of TEI-XML encoded data. Vortrag gehalten am 23. Februar 2012 auf dem Workshop Digitization Lifecycle Mapping the Landscape of eResearch am MPI für Bildungsforschung, Berlin. [Folien]
  • Im Rahmen der internationalen Tagung Perspektiven einer corpusbasierten historischen Linguistik und Philologie des Akademienvorhabens Altägyptisches Wörterbuch (Berlin, 12.–13. Dezember 2011):
    • Alexander Geyken: Das Deutsche Textarchiv Auf dem Weg zu einem Referenzcorpus der deutschen Sprache
    • Bryan Jurish: Finite-state canonicalization techniques for historical German
  • Frank Wiegand: DTAQ – Quality Assurance Tools. Vortrag gehalten am 28. November 2011 auf dem Workshop Tools for Digital Scholarly Editions – Building the Community of Digital Humanities Software Developers in Köln. [Folien]
  • Susanne Haaf: Measuring the correctness of double-keying: Error classification and quality control in a large corpus of TEI-annotated historical text. Vortrag gehalten am 13. Oktober 2011 auf dem Annual Conference and Members' Meeting of the TEI Consortium in Würzburg, 10.–16. Oktober 2011.
  • Bryan Jurish, Marko Drotschmann, Henriette Ast: Constructing a Canonicalized Corpus of Historical German by Text Alignment. Vortrag gehalten auf der Konferenz New Methods in Historical Corpora, 29.–30. April 2011 in Manchester, UK. [Folien]
  • Workshop Das Deutsche Textarchiv – Vernetzung und Nachnutzung, 11.–12. Oktober 2010, Berlin:
    • Matthias Schulz: Das Deutsche Textarchiv – Einblick und Ausblick
    • Susanne Haaf: „Von den Natürlichen und übernatürlichen Dingen“. Die Texte des 17./18. Jahrhunderts im Deutschen Textarchiv
    • Bryan Jurish: More Than Words: Orthographic Standardization in the Deutsches Textarchiv
    • Alexander Geyken: Kumulatives Arbeiten mit dem Deutschen Textarchiv
    • Michael Solf und Christian Thomas: Erweiterungsmöglichkeiten des Deutschen Textarchivs auf der Grundlage des Quellenverzeichnisses des Deutschen Wörterbuchs
    [Workshop-Programm]
  • Matthias Schulz: Vom Buch zum Deutschen Textarchiv. Vortrag gehalten am 5. Oktober 2010 auf dem Workshop Repositorien – Workshop der Arbeitsgruppe Elektronisches Publizieren der deutschen Akademien der Wissenschaften, 4.–6. Oktober 2010 in Düsseldorf.
  • Bryan Jurish: Comparing canonicalizations of historical German Text. Vortrag gehalten am 15. Juli 2010 auf dem 11th Meeting of SIGMORPHON in Uppsala (Schweden). [Folien]
  • Christiane Fritze, Oliver Duntze: Das Deutsche Textarchiv. Vortrag gehalten am 6. November 2009 beim Kolloquium zu innovativen Dienstleistungen im Bibliothekswesen an der Staatsbibliothek zu Berlin.
  • Christiane Fritze: The German Text Archive – insights and outlook. Vortrag gehalten am 2. Oktober 2009 auf dem Workshop <philtag n="8"/> in Würzburg.
  • Oliver Duntze, Christiane Fritze: DTA – Das Deutsche Textarchiv Vortrag gehalten am 5. Juni 2009 auf dem 98. Deutschen Bibliothekartag in Erfurt. [Folien]
  • Bryan Jurish: Finding canonical forms for historical German text. Vortrag gehalten am 30. September 2008 auf der Konferenz KONVENS 2008 – die 9. Konferenz zur Verarbeitung natürlicher Sprache, 30. September – 02. Oktober 2008, Berlin.

4  Posterpräsentationen

  • Adrien Barbaresi: Visualisierung von Ortsnamen im Deutschen Textarchiv. Posterpräsentation auf der 3. Tagung des Verbands Digital Humanities im deutschsprachigen Raum e. V. (DHd) 2016: „Modellierung – Vernetzung – Visualisierung. Die Digital Humanities als fächerübergreifendes Forschungsparadigma“, 7.–12.3.2016, Universität Leipzig.
  • Michael Beißwenger, Axel Herold, Harald Lüngen, Angelika Storrer: Das Dortmunder Chat-Korpus in CLARIN-D: Modellierung und Mehrwerte. Posterpräsentation auf der 3. Tagung des Verbands Digital Humanities im deutschsprachigen Raum e. V. (DHd) 2016: „Modellierung – Vernetzung – Visualisierung. Die Digital Humanities als fächerübergreifendes Forschungsparadigma“, 7.–12.3.2016, Universität Leipzig.
  • Bryan Jurish: DiaCollo: On the trail of diachronic collocations. Poster-/Demosession auf der CLARIN Annual Conference 2015, Wrocław, Polen, 14.-17. Oktober, 2015. [Poster]
  • Susanne Haaf, Christian Thomas, Frank Wiegand: Projektpräsentation „Deutsches Textarchiv“ auf dem Workshop „Grenzen überschreiten – Digitale Geisteswissenschaft heute und morgen“ am 28. Februar 2014 an der FU Berlin [Poster].
  • Susanne Haaf, Christian Thomas, Frank Wiegand: Projektpräsentation „Digitales Wörterbuch der deutschen Sprache (DWDS)“ auf dem Workshop „Grenzen überschreiten – Digitale Geisteswissenschaft heute und morgen“ am 28. Februar 2014 an der FU Berlin [Poster].
  • Frank Wiegand: TEI/XML Editing for Everyone’s Needs. Poster-/Demosession auf dem TEI Members Meeting 2013, 2.–5. Oktober 2013, Sapienza, Universita di Roma (IT) [Poster].
  • Frank Wiegand: Integration von Wikisourcedatensätzen in die CLARIN-D-Infrastruktur. Poster-/Demosession auf 2. CLARIN-D Disseminationsworkshop, 30. September 2013, Mediencampus Leipzig [Poster].
  • Frederike Neuber: Curation and integration of historical text resources of the 15th–19th century into the CLARIN-D Infrastructure. Poster-/Demosession auf dem CLARIN-D „M24 workshop“, 27.–28. Juni 2013, Konzertgebäude De Vereeniging, Nimwegen (NL) [Poster].
  • Alexander Geyken, Christian Thomas: Deutsches Textarchiv: From Diverse Text Resources to One Homogeneous High-Quality TextCorpus und Quality Assurance in a Large Corpus of Historical Texts. Posterpräsentation und Live-Demonstration auf dem 14th General Assembly of the All European Academies (ALLEA), 29./30. April 2013, BBAW.
    [DTA-Poster als PDF-Download], [DTAQ-Poster als PDF-Download]
  • Frank Wiegand: DTAQ – Quality Assurance in a Large Corpus of Historical Texts. Posterpräsentation auf der Konferenz Digital Humanities 2012 in Hamburg, 16.–20 Juli 2012. [Abstract]
  • Susanne Haaf, Christian Thomas, Frank Wiegand: DTAE – From diverse text resources to one homogeneous high-quality text corpus. Posterpräsentation auf dem Workshop CLARIN-D M12, 27.–28. Juni 2012 in Leipzig.
  • Susanne Haaf: Sicherung der Qualität und Nachnutzbarkeit digitalisierter Volltexte. Posterpräsentation während der CLARIN-D-Tage 27.–30. März 2012 in Saarbrücken.
  • Frank Wiegand, Alexander Geyken: Quality Assurance of Large TEI Corpora. Posterpräsentation während des Annual Conference and Members' Meeting of the TEI Consortium in Würzburg, 10.–16. Oktober 2011. [Poster als PDF-Download]

Stand dieser Seite: Wed Jun 1 08:40:27 2016