Books by Paolo Monella
The PDF version of the book is available in open access at https://store.streetlib.com/it/paolo-... more The PDF version of the book is available in open access at https://store.streetlib.com/it/paolo-monella/metodi-digitali-per-linsegnamento-classico-e-umanistico
Abstract:
Il volume propone una riflessione critica di carattere metodologico su alcuni strumenti e tecniche digitali per l'insegnamento scolastico ed universitario in ambito umanistico, con un'attenzione particolare alla didattica delle lingue, letterature e culture classiche. Per ciascuno strumento digitale, si valuta se esso comporti un effettivo miglioramento dal punto di vista dei metodi, alla luce di alcuni obiettivi e principi educativi generali: sono presentate e discusse solo innovazioni digitali che, in chiave costruttivista, rendano l'apprendimento più attivo, più critico, più creativo e più orientato verso un contributo positivo alla società. Alla riflessione sui metodi viene affiancata una serie di proposte didattiche, in cui tali metodi vengono incarnati in esempi concreti di attività per l'insegnamento delle discipline classiche.
Sinossi:
Nell'"Introduzione" vengono presentati, insieme agli obiettivi e all'organizzazione interna delvolume, i principi pedagogici di riferimento.
Il capitolo "Strumenti e infrastrutture locali" offre qualche considerazione preliminare sulla cassetta degli attrezzi di cui ogni scuola o università dovrebbe dotarsi per rendere possibile la didattica digitale: computer, proiettori (più che LIM), software open source (non proprietario) ed una buona connessione.
Il capitolo "Condivisione di materiali didattici tra docenti" discute problemi e prospettive per la creazione di repository condivisi per lo scambio e il riuso di materiali didattici.
Nel capitolo "Imparare online: i learning management system", dopo aver esaminato le principali modalità di rapporto tra insegnamento in presenza e uso della rete (corsi blended e MOOC, ovvero interamente online), l'autore introduce le potenzialità offerte dai learning management system (LMS), i sistemi di gestione dell'insegnamento online.
I capitoli successivi, dedicati all'uso della rete per l'insegnamento classicistico, sono stati profondamente ripensati dopo l'emergenza sanitaria del 2020 legata al Covid-19: in essi, partendo da un bilancio dell'esperienza diffusa di didattica a distanza dei mesi del lockdown del 2020, vengono presentati e discussi metodi digitali di apprendimento attivo, in un quadro pedagogico costruttivista.
In "Dalla lezione (ultra)frontale alla flipped classroom" l'autore avanza la proposta di usare gli strumenti della didattica online, a partire dagli LMS, per applicare il metodo della flipped classroom, potenziando tra l'altro i sempre più necessari laboratori di traduzione dal greco e dal latino.
Il capitoletto "Mesta digressione: la versione al tempo di Internet" è dedicato alla questione specifica della copiatura delle versioni dal web, che rende di fatto inefficace la tradizionale pratica di assegnare versioni e frasi da tradurre a casa.
Il capitolo "Nuove forme di interazione: tutoraggio, forum, cloud e social media" esplora i modi in cui è possibile usare la rete per integrare e arricchire - non impoverire - l'interazione tra docente e studenti, e degli studenti tra di loro.
In "Valutazione ed esercizi online" l'autore suggerisce di integrare i questionari strutturati che proliferano in ambiente digitale, utili per esercitare e valutare solo i livelli più bassi dei processi di apprendimento, con strumenti di verifica 'aperta' con cui valutare le competenze più importanti, e si esamina il possibile uso ludico di quei questionari.
Nel capitolo "Politiche della formazione digitale: inclusione e istruzione pubblica" vengono affrontati due problemi resi evidenti proprio dalle pratiche didattiche del lockdown del 2020: ci si chiede chi rischia di rimanere escluso dalla didattica digitale e perché, e si discutono le ragioni per cui si rende ormai necessaria la creazione di infrastrutture digitali pubbliche per l'insegnamento, per evitare il rischio che i giganti della rete monopolizzino le infrastrutture dell'istruzione.
Gli ultimi due capitoli propongono metodi didattici basati rispettivamente sull'uso dei corpora testuali greco-latini e delle piattaforme wiki.
A monograph on the saga of Procne and Philomela from Homer to Ovid, surveyed first from a mytholo... more A monograph on the saga of Procne and Philomela from Homer to Ovid, surveyed first from a mythological point of view - taking into account the development of the myth's different versions -, then from a metaliterary one, following the path of the poet-nightingale metaphor from archaic Greek literature to augustan Latin literature (ISBN - 88-555-2798-3).
Editions by Paolo Monella
A scholarly digital edition of the Chronicon by Romualdus Beneventanus (XII Century), edited by P... more A scholarly digital edition of the Chronicon by Romualdus Beneventanus (XII Century), edited by Paolo Monella within the ALIM Project.
An experimental scholarly digital edition of section De nomine (folia 1r-11r) of the Adbreviatio ... more An experimental scholarly digital edition of section De nomine (folia 1r-11r) of the Adbreviatio artis grammaticae by Ursus from Benevento from codex Casanatensis 1086 (IX century), edited by Paolo Monella within the ALIM Project (2017).
Articles by Paolo Monella
Informatica umanistica, Digital Humanities: verso quale modernità?, 2024
Come si insegna oggi l'informatica umanistica (DH) nei corsi di studio, triennali e magistrali, n... more Come si insegna oggi l'informatica umanistica (DH) nei corsi di studio, triennali e magistrali, nei master, nei corsi di dottorato, nelle summer school e negli altri percorsi di formazione per studenti e ricercatori in Italia?
La questione formativa è strettamente intrecciata a quella disciplinare e a quella istituzionale, ovvero da un lato alla definizione delle DH (come disciplina, trans-disciplina, semplice comunità legata a pratiche professionali), dall'altro al loro ruolo istituzionale nel nostro paese, anche in relazione alle politiche culturali della transizione digitale. Discuteremo qui separatamente, per pura comodità dialettica, dei corsi singoli e dei percorsi formativi.
(A) I singoli corsi DH -- dalle materie (o laboratori) all'interno di corsi di laurea, ai seminari per dottorandi, alle summer school -- stanno utilmente disseminando competenze digitali nel mondo degli studi umanistici. Se però tali iniziative vengono concepite nel quadro di una concezione puramente strumentale delle DH, esse rischiano di trasformarsi in un mero addestramento all'uso degli strumenti attuali, che sono peraltro destinati ad essere rapidamente sostituiti. Quando ciò accade, si perde l'occasione di offrire una formazione ai principi specifici delle DH, formazione che sola permette di fare DH in modo consapevole, ripensando criticamente i processi di ricerca e generando vera innovazione metodologica e culturale.
(B) D'altra parte, è tornato a crescere il numero dei percorsi formativi (laurea, master, dottorato) specificamente centrati sulle DH, anche in seguito all'istituzione della classe di lauree magistrali LM-43, "Metodologie informatiche per le discipline umanistiche". Tali iniziative costituiscono probabilmente il laboratorio più promettente per un'informatica umanistica che apra nuove prospettive culturali e di ricerca. Qui la questione disciplinare e quella istituzionale si pongono con ancor maggiore evidenza, almeno a due livelli:
(B.1) Nella progettazione e nella gestione di tali percorsi. Se si ritiene che non esista un proprium disciplinare o metodologico delle DH, sarà sufficiente realizzare una 'fusione a freddo' tra docenti e insegnamenti provenienti da un dipartimento umanistico e uno scientifico. Se invece si ritiene che tale specificità esista, e se su di essa si vuole centrare il percorso di studio, sarà necessario reclutare stabilmente un certo numero di docenti che siano specialisti DH. In Italia, però, ciò è assai problematico, perché l'assenza di un settore scientifico disciplinare (SSD) per le DH rende difficile l'accesso all'abilitazione scientifica nazionale (ASN) e a posizioni stabili a quanti abbiano fatto delle DH il fulcro del proprio profilo scientifico. L'intero sistema di reclutamento (ASN, concorsi) e valutazione (ANVUR) è infatti saldamente -- e rigidamente -- ancorato al sistema degli SSD.
(B.2) Nella fase dell'inserimento nel mondo del lavoro. Chiedersi quale sia il ruolo dell'umanista informatico -- ad esempio di un laureato in una LM-43 -- nel gruppo di lavoro di un progetto di ricerca umanistico, in una start-up che operi nell'ambito dei beni culturali, nella pubblica amministrazione, negli organigrammi della scuola o in quelli dell'università, equivale a chiedersi -- solo in una chiave più pratica -- quale sia il ruolo delle DH nel quadro complessivo degli studi umanistici e sociali, e anzi nel quadro ancora più ampio della transizione digitale.
Lexicon Philosophicum: International Journal for the History of Texts and Ideas, 2021
Since schools and universities in Italy still have an instrumental, rather than a transformative,... more Since schools and universities in Italy still have an instrumental, rather than a transformative, vision of information technology, they are outsourcing, as mere 'services', two key functions: scholarly publication and digital teaching. Today, the digital transition provides research institutions and funding agencies with a chance to 'reinternalize' publication. This would enhance both Open Access as well as innovative and open forms of communication and exchange in the academia (Open Data/Science). During the Covid-19 pandemic, schools and universities have been using platforms for digital teaching belonging to the multinationals of digital mass profiling. Teaching and assessment techniques have hardly been renovated and adjusted to the new medium. As digital practices arisen during emergency distance learning become a permanent integration of blended education, schools and universities urgently need to tackle issues such as student and teacher personal data protection, constructivist digital learning methods and social inclusion policies.
Pan. Studi dell’Istituto di Filologia latina, Dec 21, 2022
The new collation of manuscripts for the new edition of Priscians’ Ars grammatica, which is the m... more The new collation of manuscripts for the new edition of Priscians’ Ars grammatica, which is the main aim of the PAGES ERC project, allows us to improve Hertz’s text in four passages of the eleventh book, dealing with the participle: in GL II 557, 8, from Hertz’s illae autem minime to illae autem eam minime; in GL II 562, 4-5 derivativa [vel composita], quorum primitiva [vel simplicia] in usu non sunt → derivativa [vel simplicia], quorum primitiva in usu non sunt; in GL II 562, 11-12 conspicio a specio [non est in usu] → cum spicio in usu non est. In GL II 560, 5, the reading of the archetype aestuo luo does not seem acceptable: some conjectures are proposed for this passage.
La collazione dei manoscritti condotta in vista della nuova edizione dell’Ars grammatica di Prisciano prevista dal progetto ERC PAGES permette di migliorare il testo di Hertz in alcuni punti dell’undicesimo libro, dedicato al participio: in GL II 557, 8, da illae autem minime di Hertz a illae autem eam minime; in GL II 562, 4-5 derivativa [vel composita], quorum primitiva [vel simplicia] in usu non sunt → derivativa [vel simplicia], quorum primitiva in usu non sunt; in GL II 562, 11-12 conspicio a specio [non est in usu] → cum spicio in usu non est. In GL II 560, 5, inoltre, la lezione d’archetipo aestuo luo non appare accettabile: si avanza qualche ipotesi di congettura.
Umanistica Digitale, 2021
Durante la pandemia COVID-19, la didattica a distanza d’emergenza in Italia, sia a scuola sia all... more Durante la pandemia COVID-19, la didattica a distanza d’emergenza in Italia, sia a scuola sia all’università, è stata realizzata quasi esclusivamente tramite infrastrutture e piattaforme proprietarie appartenenti alle grandi multinazionali informatiche, soprattutto Google (G-Suite for Education), Microsoft (Teams), Facebook (Whatsapp) e Zoom. Questo apre problemi di tutela dei dati degli studenti ampiamente sottovalutati nel dibattito pubblico. In altri paesi, tra cui ad esempio la Francia, il Ministero dell’Istruzione ha messo a disposizione infrastrutture pubbliche e fondate su protocolli aperti. La comunità scientifica ha la responsabilità di elaborare e proporre un bilancio ragionato di quanto è avvenuto nel fuoco dell’emergenza per costruire alternative realizzabili nell’immediato del secondo anno di pandemia, e per evitare che pratiche deteriori diventino sistematiche nella formazione scolastica e universitaria del futuro. D’altra parte, è auspicabile che le istituzioni formative (MIUR, USR, Atenei e loro consorzi) si assumano la responsabilità di costruire infrastrutture per la didattica digitale che siano pubbliche, condivise e fondate su tecnologie aperte.
AIUCD 2021 - Book of Extended Abstracts, 2021
Durante la pandemia COVID-19, la didattica a distanza d’emergenza in Italia, sia a scuola sia all... more Durante la pandemia COVID-19, la didattica a distanza d’emergenza in Italia, sia a scuola sia all’università, è stata realizzata quasi esclusivamente tramite infrastrutture e piattaforme proprietarie appartenenti alle grandi multinazionali informatiche, soprattutto Google (G-Suite for Education), Microsoft (Teams) e Facebook (Zoom e Whatsapp). Questo apre problemi di tutela dei dati degli studenti ampiamente sottovalutati nel dibattito pubblico. In altri paesi, tra cui ad esempio la Francia, il Ministero dell’istruzione ha messo a disposizione infrastrutture pubbliche e fondate su protocolli aperti. La comunità scientifica ha la responsabilità di elaborare e proporre un bilancio ragionato di quanto è avvenuto nel fuoco dell’emergenza per costruire alternative realizzabili nell’immediato del secondo anno di pandemia, e per evitare che pratiche deteriori diventino sistematiche nella formazione scolastica e universitaria del futuro. D’altra parte, è auspicabile che le istituzioni formative (MIUR, USR, Atenei e loro consorzi) si assumano la responsabilità di costruire infrastrutture per la didattica digitale che siano pubbliche, condivise e fondate su tecnologie aperte.
Analecta Romana Instituti Danici, Jul 16, 2021
This talk discusses three key methodological aspects of a possible model for a digital critical e... more This talk discusses three key methodological aspects of a possible model for a digital critical edition of Priscian's Ars grammatica:
1. the glossae found in manuscripts and their relationship with the manuscript text;
2. the presence of Greek text and its importance for the recensio and the construction of a stemma codicum;
3. literary quotations from classical works.
Such research is connected with the project of a new edition of the Ars, initiated by Michela Rosellini with her 2015 edition of the second part of the XVIII book of the work.
1. Glossae. Their inclusion in the edition poses specific modelling challenges, since they bear a complex relationship with Priscian's text: a glossa lives in a manuscript's page, so it refers to the text of that specific witness, not to the abstract text proposed by the editor, and as such it must be modelled in the edition. This can be achieved in the TEI XML encoding by linking each glossa to the manuscript it belongs to, and to the specific manuscript reading it comments upon.
2. Greek text. As Rosellini pointed out, while contamination is very common in Priscian's manuscripts, it is much less frequent for the Greek portions of the text, so the latter become key for the recensio. In the proposed edition model, Greek passages will be encoded on two layers, i.e. with both a normalized and a palaeographic transcription. As a consequence, not only "substantial" readings, but also "palaeographic" and "orthographic" variants will be recorded for those textual portions, thus providing scholars of Priscian's text with additional philological evidence.
3. Literary quotations. They will be marked with formal (machine-readable and processable) citations of their sources through the newly-developed Distributed Texts Services (DTS) protocol.
Selected Papers from the CLARIN Annual Conference 2020, Oct 6, 2020
This paper aims at showing how integrating the Archive of the Italian Latinity of the Middle Ages... more This paper aims at showing how integrating the Archive of the Italian Latinity of the Middle Ages (ALIM) into the ILC4CLARIN repository can provide mutual benefits. Making ALIM available to a large community of scholars and researchers, on the one side, represents the first step to reduce the lack of resources for Medieval Latin in CLARIN and, on the other side, constitutes an unprecedented contribution to not only linguistic investigations, but also to the studies of the culture and science at the basis of the Western European society. The paper describes the adopted approach aiming to keep intact the structure of the archive and its metadata, which are both accurately mirrored into the ILC4CLARIN repository in order to maintain existing access practices of the users. This structure can be found in exactly the same state within the CLARIN VLO. Finally, the paper illustrates the advantages of experimenting with some ALIM data, once introduced within the CLARIN Language Resource Switchboard service: first results are shown from the analysis of some texts with the UDPipe tool suite and the distant reading tool Voyant.
Letteratura e altre rivoluzioni. Scritti per Raul Mordenti, 2020
The article discusses two examples of how current digital encoding technologies misrepresent non-... more The article discusses two examples of how current digital encoding technologies misrepresent non-Western scripts, namely the graphical systems of India (Devánāgarī) and the Middle East (Arabic). Digital encodings such as Unicode inherit three rigid principles from print: (A) 1 ↔ 1, one grapheme corresponds to one letter; (B) 1 = 1, all graphemes (e.g. vowels, consonants) have the same status; (C) 1, 2, 3…, writing is a sequence of elements all on the same "level".
These principles, however, did not apply to handwritten medieval European graphic systems and do not apply today to non-western ones, including their print version. In Devánāgarī, some vowels are written before the consonant that they represent; in European medieval writing systems and in Arabic, diacritics orbit around (above, under or after) base graphemes. In order to provide a digital encoding of those writing systems accordingly to the cultures they belong to, such diacritics should be provided with a special status, distinguishing them from (and linking them to) their base graphemes.
In the case of Arabic, ḥarakāt are added above or below a consonant to specify the short vowel with which it should be pronounced. Since in Arabic a word is identified by its consonants and long vowels only, ḥarakāt are optional diacritics.
The pronunciation of vowels varies largely in time and space among the Arabic-speaking world. A word is the same word from Morocco to Iraq only as long as one only writes its consonants and long vowels, i.e. only within the structure of the Arabic script. Current text encoding technologies fail to represent the optional and relative nature of ḥarakāt. Thus, they make short vowels semiotically pertinent at the same level of consonants. This has potential practical, cultural and social implications in the self-representation of the cultural unity of the Arabic-Islamic world.
Atti del IX Convegno Annuale AIUCD. La svolta inevitabile: sfide e prospettive per l'Informatica Umanistica, Jan 14, 2020
Current digital scholarly editions (DSEs) have the opportunity of evolving to dynamic objects int... more Current digital scholarly editions (DSEs) have the opportunity of evolving to dynamic objects interacting with other Internet-based resources thanks to open frameworks such as IIIF and LOD. This paper showcases and discusses two new functionalities of EVT (Edition Visualization Technology), version 2: one improving the management of named entities (f.i. personal names) through the use of LOD resources such as FOAF and DBpedia; the other, providing integration of the published text with digital images of the textual primary sources accessed from online repositories (e.g. e-codices or digital libraries such as the Vaticana or the Ambrosiana) via the IIIF protocol.
Le edizioni critiche digitali oggi hanno l’opportunità di diventare sistemi dinamici che interagiscono con altre risorse su Internet grazie a framework aperti come IIIF e LOD. Questo saggio mostra e discute due nuove funzionalità della versione 2 di EVT (Edition Visualization Technology): il primo migliora la gestione delle named entities (ad es. i nomi di persona) attraverso l’uso di risorse LOD come FOAF e DBpedia; il secondo integra il testo pubblicato con le immagini digitali delle fonti testuali, recuperate da server online (ad es. e-codices o le biblioteche digitali Vaticana e Ambrosiana) tramite il protocollo IIIF. The workshop focusses on some teaching methods for classics based on the following digital technologies: cloud platforms (Google Drive/Documents, Framasoft/Framapad); Greek and Latin textual corpora (TLG and PHI 5.3 on cd-rom with Diogenes and online, Perseus); Wikimedia Foundation projects (such as Wikipedia, Wikisource and Wikibooks).
by Libreriauniversitaria.it Edizioni, Elena Spangenberg Yanes, Michela Rosellini, Ermanno Malaspina, Paolo Monella, Matthew James Driscoll, Fabrizio Della Seta, Federico Marchetti, Eleonora Di Cintio, Federica Rovelli, and Salvatore Talia Storie e linguaggi, 2019
Fascicolo monografico: Textual Philology Facing ‘Liquid Modernity’: Identifying Objects, Evaluati... more Fascicolo monografico: Textual Philology Facing ‘Liquid Modernity’: Identifying Objects, Evaluating Methods, Exploiting Media
a cura di Andrea Chegai, Michela Rosellini, Elena Spangenberg Yanes
Indice
Preliminary Remarks
1. Aggiornamento metodologico e riflessioni critiche sui procedimenti ecdotici / Methodological Enhancement in the Digital Era: New Questions about Critical Editing
Michela Rosellini
2. La singolare natura della testualità musicale / The Peculiar Nature of Musical Textuality
Andrea Chegai
3. Textual Critical Challenges in the Digital World
Elena Spangenberg Yanes
I. Sorting Methods in Critical (Digital) Editing
Nove tesi e mezza per la filologia nell’era della liquidità digitale / Nine and a Half Theses for Philology in the Liquid Digital Age
Lorenzo Tomasin
Il futuro dell’edizione critica (cioè lachmanniana), più o meno digitale. Riflessioni (in)attuali / Critical (Lachmannian) Editions - a More or Less Digital Future? Reflections, New and Old
Ermanno Malaspina
L’edizione critica digitale: la critica del testo nella storia della tradizione / The Critical Digital Edition: Textual Criticism within the History of the Tradition
Paolo Monella
The Genesis of the Arnamagnæan Method
Matthew James Driscoll
The Critical Edition in Old Norse Philology: Its Demise and Redefinition
Odd Einar Haugen
La filologia dell’opera italiana fra testo ed evento / Philology of the Italian Opera between Text and Event
Fabrizio Della Seta
II. Editing Texts with a Complex Transmission
Critical Digital Editions of Christian Apocryphal Literature in Latin and Greek: Transcription and Collation of the Acts of Barnabas
Caroline Macé, Maïeul Rouquette, Violeta Seretan, Frédéric Amsler, Patrick Andrist, Cecilia Antonelli
The Study of codices descripti as a Neo-Lachmannian Weapon Against the Notions of variance and Textual Fluidity.
A Few Words to Introduce the Theme
Paolo Trovato
The Use of codices descripti to Determine Scribal Habits
Federico Marchetti
Di chi è la Penelope? Sull’autorialità di un melodramma di tardo Settecento / Who Composed the Penelope? On the Authoriality of a Late-18th-Century Melodrama
Eleonora Di Cintio
Edizioni genetiche e strategie di visualizzazione digitale. Un prototipo per il quartetto op. 59, nr. 3 di Beethoven / Genetic Editions and Strategies of Digital Visualization. A Prototype for Beethoven’s Quartet Op. 59, No. 3
Federica Rovelli
III. Textual Criticism Applied to the Internet
Classics into Code: Latin Texts in the Digital Space
Dániel Kiss
Dalla stampa al digitale, dal digitale alla stampa. Tradizione indiretta dei classici latini in Rete / From Print to Digital Texts, from Digital Texts to Print. Indirect Tradition of Latin Classics on the Web
Claudio Giammona, Elena Spangenberg Yanes
Un progresso obsoleto? Vicende digitali della Chanson de Roland e del Cantar de Mio Cid / Obsolete Progress? Digital Ups and Downs of the Chanson de Roland and the Cantar de Mio Cid
Claudio Lagomarsini
Fake texts e Wiki edizioni. Per una filologia digitale sostenibile / Fake Texts and Wiki Editions. For a Sustainable Digital Philology
Paola Italia
La narrazione della storia in Wikipedia: pratiche, ideologie, conflitti per la memoria nell’Enciclopedia Libera / The Narration of History in Wikipedia: Practices, Ideologies, Conflicts about Memory in the Free Encyclopedia
Benedetta Pierfederici, Salvatore Talia (Gruppo di ricerca “Nicoletta Bourbaki”)
This collection gathers the essays by eight scholars from disparate areas of textual criticism, a... more This collection gathers the essays by eight scholars from disparate areas of textual criticism, addressing a general main topic, that is philology and digital humanities, and dealing with old and new-Lachmannian approaches, anti-Lachmannian responses, treatments of varia lectio, stemmatology, qualitative and quantitative methods of textual inquiry, and the establishment of standards for digital scholarly editions. The investigated data sets comprise canonical ancient traditions (Paolo Monella), Byzantine scriptural Greek (Barbara Crostini), the dawn of vernacular literacy, with Old Saxon (Marina Buzzoni), the still variable poetic and narrative corpora from the 12th century onwards (Thomas Bein, Anna Cappellotto), French and German epics (Luca Cadioli, Adele Cipolla), the reassessment of neo-Lachmannian procedures to Old French vernacular traditions, as that of the Bédierian Lai de l’ombre (Paolo Trovato). Every author dealt with a given issue from his or her own field of study, searching for and testing the performance of specific digital solutions. All of them touched on and suggested answers to often quite old but still sensitive critical issues.
Textual Philology Facing Liquid Modernity: Identifying Objects, Evaluating Methods, Exploiting Media, 2019
The traditional output of philological work aiming at the constitutio textus is the print critica... more The traditional output of philological work aiming at the constitutio textus is the print critical edition with apparatus footnotes showing select variant readings. The digital scholarly edition, instead, is not constrained by the space limits of the printed page, so it can encode and visualize synoptically many versions of a text, as found in different textual witnesses. This opportunity has often been exploited by New Philology editions, in which textual versions are juxtaposed without any attempt to reconstruct an "original" text. However, the digital critical edition can constitute a "third way" between constitutio textus and New Philology: the digital editor can provide different versions of a text from individual witnesses and add a further version, the editor's own textus constitutus, thus putting Giorgio Pasquali's "critica del testo" in the framework of the "storia della tradizione".
La Filologia Medievale. Comparatistica, critica del testo e attualità. Atti del Convegno (Viterbo, 26-28 settembre 2018), a c. di Paolo Canettieri, Giovanna Santini, Rosella Tinaburri, Roberto Gamberini, L'Erma Di Bretschneider: Roma, 2019
Nella prima parte dell'articolo (paragrafi 1-3), Edoardo D'Angelo ha scritto sulla storia e gli... more Nella prima parte dell'articolo (paragrafi 1-3), Edoardo D'Angelo ha scritto sulla storia e gli obiettivi di ALIM. La seconda parte dell'articolo (paragrafi 4-10), scritta da Paolo Monella, discute gli aspetti informatico-umanistici della transizione del progetto ALIM da una codifica procedurale (HTML) e proprietaria dei testi e dei loro metadati a standard descrittivi (TEI XML) e open source, e propone in chiusura una riflessione sui modelli di collaborazione tra umanisti, umanisti informatici e informatici all'interno del progetto.
In the first part of this article (paragraphs 1-3), Edoardo D'Angelo wrote about the history and goals of ALIM. In the second part (paragraphs 4-10), Paolo Monella wrote a reflection on the digital humanities aspects of the transition of the ALIM project from HTML to TEI XML (both for the texts and the metadata of the archive); he also discusses issues raised by collaboration between humanites, digital humanists and IT specialists in the ALIM project.
[English abstract] This article reflects on the modelization of texts of our cultural heritage in... more [English abstract] This article reflects on the modelization of texts of our cultural heritage in the current very early phase of Digital Philology by asking the question: what "form" are we forcing upon our texts? I explore three ways in which our textual models reflect our cultural and technologicalbias: first, the OHCO hierarchical model behind TEI XML; second, the sequential alphabetical model based on Western print, lying behind Unicode. A third aspect has been less explored in the scholarly discussion: citation protocols such as CITE/CTS are based on specific corpora. For example, the canonic corpora for classical Greek and Latin texts are TLG and PHI 5.3. Each of those corpora freezes author identification, authorship attribution, text boundaries, paragraph and line numbering in a specific canonic form. A dilemma arises: on the one side, interoperability requires that CTS URIs are based on a fixed textual canon, which hinders scholarly modifications of that canon; on the other side, the principles of philology suggest that URIs point to specific versions of texts, which in its turn cripples the interoperability potential of the protocol.
[Italian abstract] L'articolo costituisce una riflessione sulla modellizzazione dei testi appartenenti alla nostra tradizione culturale in questa fase aurorale della Filologia Digitale e parte dalla domanda: che "forma" stiamo dando ai nostri testi? Vengono asplorati tre aspetti per cui i nostri modelli testuali riflettono i nostri presupposti culturali e tecnologici: in primo luogo, il modello gerarchico OHCO che sta alla base di TEI XML; in secondo luogo, il modello sequenziale alfabetico basato sulla stampa delle lingue occidentali, che sta alla base di Unicode. Un terzo aspetto, poi, è il meno esplorato nella ricerca: protocolli per la citazione testuale come CITE/CTS sono basati su corpora specifici. Per esempio, i corpora canonici per i testi greci e latini classici sono il TLG e il PHI 5.3. Ciascuno di questi corpora fissa in una forma canonica l'identificazione degli autori, l'attribuzione delle opere, la delimitazione dei testi, la numerazione di porzioni testuali come paragrafi e versi. Ne scaturisce un dilemma: da una parte, l'interoperabilità richiede che gli URI CTS siano basati su un canone testuale fisso, il che tende ad ostacolare le modifiche al canone da parte dei filologi; d'altra parte, i principi della filologia suggeriscono che gli URI puntino a versioni specifiche dei testi, il che però riduce il potenziale di interoperabilità del protocollo.
P. Boot, A. Cappellotto, W. Dillen, F. Fischer, A. Kelly, A. Mertgens, A.-M. Sichani, E. Spadini, D. van Hulle (eds), Advances in Digital Scholarly Editing, Sidestone Press (2017), 141-143
https://www.sidestone.com/books/advances-in-digital-scholarly-editing
Digital humanists so far have been reluctant to analyse the socio-political nature (and impact) o... more Digital humanists so far have been reluctant to analyse the socio-political nature (and impact) of their “technical” choices, so a conference on social sciences seems the ideal venue for starting to debate these issues. We will focus on three encoding tools widely used in the Humanities and Social Sciences communities: HTML, the de facto standard for encoding Web documents and pages, Unicode, an industry standard designed to allow text and symbols from all of the writing systems of the world to be consistently represented and manipulated by computers, and XML, which defines a set of rules for encoding documents.
Uploads
Books by Paolo Monella
Abstract:
Il volume propone una riflessione critica di carattere metodologico su alcuni strumenti e tecniche digitali per l'insegnamento scolastico ed universitario in ambito umanistico, con un'attenzione particolare alla didattica delle lingue, letterature e culture classiche. Per ciascuno strumento digitale, si valuta se esso comporti un effettivo miglioramento dal punto di vista dei metodi, alla luce di alcuni obiettivi e principi educativi generali: sono presentate e discusse solo innovazioni digitali che, in chiave costruttivista, rendano l'apprendimento più attivo, più critico, più creativo e più orientato verso un contributo positivo alla società. Alla riflessione sui metodi viene affiancata una serie di proposte didattiche, in cui tali metodi vengono incarnati in esempi concreti di attività per l'insegnamento delle discipline classiche.
Sinossi:
Nell'"Introduzione" vengono presentati, insieme agli obiettivi e all'organizzazione interna delvolume, i principi pedagogici di riferimento.
Il capitolo "Strumenti e infrastrutture locali" offre qualche considerazione preliminare sulla cassetta degli attrezzi di cui ogni scuola o università dovrebbe dotarsi per rendere possibile la didattica digitale: computer, proiettori (più che LIM), software open source (non proprietario) ed una buona connessione.
Il capitolo "Condivisione di materiali didattici tra docenti" discute problemi e prospettive per la creazione di repository condivisi per lo scambio e il riuso di materiali didattici.
Nel capitolo "Imparare online: i learning management system", dopo aver esaminato le principali modalità di rapporto tra insegnamento in presenza e uso della rete (corsi blended e MOOC, ovvero interamente online), l'autore introduce le potenzialità offerte dai learning management system (LMS), i sistemi di gestione dell'insegnamento online.
I capitoli successivi, dedicati all'uso della rete per l'insegnamento classicistico, sono stati profondamente ripensati dopo l'emergenza sanitaria del 2020 legata al Covid-19: in essi, partendo da un bilancio dell'esperienza diffusa di didattica a distanza dei mesi del lockdown del 2020, vengono presentati e discussi metodi digitali di apprendimento attivo, in un quadro pedagogico costruttivista.
In "Dalla lezione (ultra)frontale alla flipped classroom" l'autore avanza la proposta di usare gli strumenti della didattica online, a partire dagli LMS, per applicare il metodo della flipped classroom, potenziando tra l'altro i sempre più necessari laboratori di traduzione dal greco e dal latino.
Il capitoletto "Mesta digressione: la versione al tempo di Internet" è dedicato alla questione specifica della copiatura delle versioni dal web, che rende di fatto inefficace la tradizionale pratica di assegnare versioni e frasi da tradurre a casa.
Il capitolo "Nuove forme di interazione: tutoraggio, forum, cloud e social media" esplora i modi in cui è possibile usare la rete per integrare e arricchire - non impoverire - l'interazione tra docente e studenti, e degli studenti tra di loro.
In "Valutazione ed esercizi online" l'autore suggerisce di integrare i questionari strutturati che proliferano in ambiente digitale, utili per esercitare e valutare solo i livelli più bassi dei processi di apprendimento, con strumenti di verifica 'aperta' con cui valutare le competenze più importanti, e si esamina il possibile uso ludico di quei questionari.
Nel capitolo "Politiche della formazione digitale: inclusione e istruzione pubblica" vengono affrontati due problemi resi evidenti proprio dalle pratiche didattiche del lockdown del 2020: ci si chiede chi rischia di rimanere escluso dalla didattica digitale e perché, e si discutono le ragioni per cui si rende ormai necessaria la creazione di infrastrutture digitali pubbliche per l'insegnamento, per evitare il rischio che i giganti della rete monopolizzino le infrastrutture dell'istruzione.
Gli ultimi due capitoli propongono metodi didattici basati rispettivamente sull'uso dei corpora testuali greco-latini e delle piattaforme wiki.
Editions by Paolo Monella
Articles by Paolo Monella
La questione formativa è strettamente intrecciata a quella disciplinare e a quella istituzionale, ovvero da un lato alla definizione delle DH (come disciplina, trans-disciplina, semplice comunità legata a pratiche professionali), dall'altro al loro ruolo istituzionale nel nostro paese, anche in relazione alle politiche culturali della transizione digitale. Discuteremo qui separatamente, per pura comodità dialettica, dei corsi singoli e dei percorsi formativi.
(A) I singoli corsi DH -- dalle materie (o laboratori) all'interno di corsi di laurea, ai seminari per dottorandi, alle summer school -- stanno utilmente disseminando competenze digitali nel mondo degli studi umanistici. Se però tali iniziative vengono concepite nel quadro di una concezione puramente strumentale delle DH, esse rischiano di trasformarsi in un mero addestramento all'uso degli strumenti attuali, che sono peraltro destinati ad essere rapidamente sostituiti. Quando ciò accade, si perde l'occasione di offrire una formazione ai principi specifici delle DH, formazione che sola permette di fare DH in modo consapevole, ripensando criticamente i processi di ricerca e generando vera innovazione metodologica e culturale.
(B) D'altra parte, è tornato a crescere il numero dei percorsi formativi (laurea, master, dottorato) specificamente centrati sulle DH, anche in seguito all'istituzione della classe di lauree magistrali LM-43, "Metodologie informatiche per le discipline umanistiche". Tali iniziative costituiscono probabilmente il laboratorio più promettente per un'informatica umanistica che apra nuove prospettive culturali e di ricerca. Qui la questione disciplinare e quella istituzionale si pongono con ancor maggiore evidenza, almeno a due livelli:
(B.1) Nella progettazione e nella gestione di tali percorsi. Se si ritiene che non esista un proprium disciplinare o metodologico delle DH, sarà sufficiente realizzare una 'fusione a freddo' tra docenti e insegnamenti provenienti da un dipartimento umanistico e uno scientifico. Se invece si ritiene che tale specificità esista, e se su di essa si vuole centrare il percorso di studio, sarà necessario reclutare stabilmente un certo numero di docenti che siano specialisti DH. In Italia, però, ciò è assai problematico, perché l'assenza di un settore scientifico disciplinare (SSD) per le DH rende difficile l'accesso all'abilitazione scientifica nazionale (ASN) e a posizioni stabili a quanti abbiano fatto delle DH il fulcro del proprio profilo scientifico. L'intero sistema di reclutamento (ASN, concorsi) e valutazione (ANVUR) è infatti saldamente -- e rigidamente -- ancorato al sistema degli SSD.
(B.2) Nella fase dell'inserimento nel mondo del lavoro. Chiedersi quale sia il ruolo dell'umanista informatico -- ad esempio di un laureato in una LM-43 -- nel gruppo di lavoro di un progetto di ricerca umanistico, in una start-up che operi nell'ambito dei beni culturali, nella pubblica amministrazione, negli organigrammi della scuola o in quelli dell'università, equivale a chiedersi -- solo in una chiave più pratica -- quale sia il ruolo delle DH nel quadro complessivo degli studi umanistici e sociali, e anzi nel quadro ancora più ampio della transizione digitale.
La collazione dei manoscritti condotta in vista della nuova edizione dell’Ars grammatica di Prisciano prevista dal progetto ERC PAGES permette di migliorare il testo di Hertz in alcuni punti dell’undicesimo libro, dedicato al participio: in GL II 557, 8, da illae autem minime di Hertz a illae autem eam minime; in GL II 562, 4-5 derivativa [vel composita], quorum primitiva [vel simplicia] in usu non sunt → derivativa [vel simplicia], quorum primitiva in usu non sunt; in GL II 562, 11-12 conspicio a specio [non est in usu] → cum spicio in usu non est. In GL II 560, 5, inoltre, la lezione d’archetipo aestuo luo non appare accettabile: si avanza qualche ipotesi di congettura.
1. the glossae found in manuscripts and their relationship with the manuscript text;
2. the presence of Greek text and its importance for the recensio and the construction of a stemma codicum;
3. literary quotations from classical works.
Such research is connected with the project of a new edition of the Ars, initiated by Michela Rosellini with her 2015 edition of the second part of the XVIII book of the work.
1. Glossae. Their inclusion in the edition poses specific modelling challenges, since they bear a complex relationship with Priscian's text: a glossa lives in a manuscript's page, so it refers to the text of that specific witness, not to the abstract text proposed by the editor, and as such it must be modelled in the edition. This can be achieved in the TEI XML encoding by linking each glossa to the manuscript it belongs to, and to the specific manuscript reading it comments upon.
2. Greek text. As Rosellini pointed out, while contamination is very common in Priscian's manuscripts, it is much less frequent for the Greek portions of the text, so the latter become key for the recensio. In the proposed edition model, Greek passages will be encoded on two layers, i.e. with both a normalized and a palaeographic transcription. As a consequence, not only "substantial" readings, but also "palaeographic" and "orthographic" variants will be recorded for those textual portions, thus providing scholars of Priscian's text with additional philological evidence.
3. Literary quotations. They will be marked with formal (machine-readable and processable) citations of their sources through the newly-developed Distributed Texts Services (DTS) protocol.
These principles, however, did not apply to handwritten medieval European graphic systems and do not apply today to non-western ones, including their print version. In Devánāgarī, some vowels are written before the consonant that they represent; in European medieval writing systems and in Arabic, diacritics orbit around (above, under or after) base graphemes. In order to provide a digital encoding of those writing systems accordingly to the cultures they belong to, such diacritics should be provided with a special status, distinguishing them from (and linking them to) their base graphemes.
In the case of Arabic, ḥarakāt are added above or below a consonant to specify the short vowel with which it should be pronounced. Since in Arabic a word is identified by its consonants and long vowels only, ḥarakāt are optional diacritics.
The pronunciation of vowels varies largely in time and space among the Arabic-speaking world. A word is the same word from Morocco to Iraq only as long as one only writes its consonants and long vowels, i.e. only within the structure of the Arabic script. Current text encoding technologies fail to represent the optional and relative nature of ḥarakāt. Thus, they make short vowels semiotically pertinent at the same level of consonants. This has potential practical, cultural and social implications in the self-representation of the cultural unity of the Arabic-Islamic world.
Le edizioni critiche digitali oggi hanno l’opportunità di diventare sistemi dinamici che interagiscono con altre risorse su Internet grazie a framework aperti come IIIF e LOD. Questo saggio mostra e discute due nuove funzionalità della versione 2 di EVT (Edition Visualization Technology): il primo migliora la gestione delle named entities (ad es. i nomi di persona) attraverso l’uso di risorse LOD come FOAF e DBpedia; il secondo integra il testo pubblicato con le immagini digitali delle fonti testuali, recuperate da server online (ad es. e-codices o le biblioteche digitali Vaticana e Ambrosiana) tramite il protocollo IIIF. The workshop focusses on some teaching methods for classics based on the following digital technologies: cloud platforms (Google Drive/Documents, Framasoft/Framapad); Greek and Latin textual corpora (TLG and PHI 5.3 on cd-rom with Diogenes and online, Perseus); Wikimedia Foundation projects (such as Wikipedia, Wikisource and Wikibooks).
a cura di Andrea Chegai, Michela Rosellini, Elena Spangenberg Yanes
Indice
Preliminary Remarks
1. Aggiornamento metodologico e riflessioni critiche sui procedimenti ecdotici / Methodological Enhancement in the Digital Era: New Questions about Critical Editing
Michela Rosellini
2. La singolare natura della testualità musicale / The Peculiar Nature of Musical Textuality
Andrea Chegai
3. Textual Critical Challenges in the Digital World
Elena Spangenberg Yanes
I. Sorting Methods in Critical (Digital) Editing
Nove tesi e mezza per la filologia nell’era della liquidità digitale / Nine and a Half Theses for Philology in the Liquid Digital Age
Lorenzo Tomasin
Il futuro dell’edizione critica (cioè lachmanniana), più o meno digitale. Riflessioni (in)attuali / Critical (Lachmannian) Editions - a More or Less Digital Future? Reflections, New and Old
Ermanno Malaspina
L’edizione critica digitale: la critica del testo nella storia della tradizione / The Critical Digital Edition: Textual Criticism within the History of the Tradition
Paolo Monella
The Genesis of the Arnamagnæan Method
Matthew James Driscoll
The Critical Edition in Old Norse Philology: Its Demise and Redefinition
Odd Einar Haugen
La filologia dell’opera italiana fra testo ed evento / Philology of the Italian Opera between Text and Event
Fabrizio Della Seta
II. Editing Texts with a Complex Transmission
Critical Digital Editions of Christian Apocryphal Literature in Latin and Greek: Transcription and Collation of the Acts of Barnabas
Caroline Macé, Maïeul Rouquette, Violeta Seretan, Frédéric Amsler, Patrick Andrist, Cecilia Antonelli
The Study of codices descripti as a Neo-Lachmannian Weapon Against the Notions of variance and Textual Fluidity.
A Few Words to Introduce the Theme
Paolo Trovato
The Use of codices descripti to Determine Scribal Habits
Federico Marchetti
Di chi è la Penelope? Sull’autorialità di un melodramma di tardo Settecento / Who Composed the Penelope? On the Authoriality of a Late-18th-Century Melodrama
Eleonora Di Cintio
Edizioni genetiche e strategie di visualizzazione digitale. Un prototipo per il quartetto op. 59, nr. 3 di Beethoven / Genetic Editions and Strategies of Digital Visualization. A Prototype for Beethoven’s Quartet Op. 59, No. 3
Federica Rovelli
III. Textual Criticism Applied to the Internet
Classics into Code: Latin Texts in the Digital Space
Dániel Kiss
Dalla stampa al digitale, dal digitale alla stampa. Tradizione indiretta dei classici latini in Rete / From Print to Digital Texts, from Digital Texts to Print. Indirect Tradition of Latin Classics on the Web
Claudio Giammona, Elena Spangenberg Yanes
Un progresso obsoleto? Vicende digitali della Chanson de Roland e del Cantar de Mio Cid / Obsolete Progress? Digital Ups and Downs of the Chanson de Roland and the Cantar de Mio Cid
Claudio Lagomarsini
Fake texts e Wiki edizioni. Per una filologia digitale sostenibile / Fake Texts and Wiki Editions. For a Sustainable Digital Philology
Paola Italia
La narrazione della storia in Wikipedia: pratiche, ideologie, conflitti per la memoria nell’Enciclopedia Libera / The Narration of History in Wikipedia: Practices, Ideologies, Conflicts about Memory in the Free Encyclopedia
Benedetta Pierfederici, Salvatore Talia (Gruppo di ricerca “Nicoletta Bourbaki”)
In the first part of this article (paragraphs 1-3), Edoardo D'Angelo wrote about the history and goals of ALIM. In the second part (paragraphs 4-10), Paolo Monella wrote a reflection on the digital humanities aspects of the transition of the ALIM project from HTML to TEI XML (both for the texts and the metadata of the archive); he also discusses issues raised by collaboration between humanites, digital humanists and IT specialists in the ALIM project.
[Italian abstract] L'articolo costituisce una riflessione sulla modellizzazione dei testi appartenenti alla nostra tradizione culturale in questa fase aurorale della Filologia Digitale e parte dalla domanda: che "forma" stiamo dando ai nostri testi? Vengono asplorati tre aspetti per cui i nostri modelli testuali riflettono i nostri presupposti culturali e tecnologici: in primo luogo, il modello gerarchico OHCO che sta alla base di TEI XML; in secondo luogo, il modello sequenziale alfabetico basato sulla stampa delle lingue occidentali, che sta alla base di Unicode. Un terzo aspetto, poi, è il meno esplorato nella ricerca: protocolli per la citazione testuale come CITE/CTS sono basati su corpora specifici. Per esempio, i corpora canonici per i testi greci e latini classici sono il TLG e il PHI 5.3. Ciascuno di questi corpora fissa in una forma canonica l'identificazione degli autori, l'attribuzione delle opere, la delimitazione dei testi, la numerazione di porzioni testuali come paragrafi e versi. Ne scaturisce un dilemma: da una parte, l'interoperabilità richiede che gli URI CTS siano basati su un canone testuale fisso, il che tende ad ostacolare le modifiche al canone da parte dei filologi; d'altra parte, i principi della filologia suggeriscono che gli URI puntino a versioni specifiche dei testi, il che però riduce il potenziale di interoperabilità del protocollo.
Abstract:
Il volume propone una riflessione critica di carattere metodologico su alcuni strumenti e tecniche digitali per l'insegnamento scolastico ed universitario in ambito umanistico, con un'attenzione particolare alla didattica delle lingue, letterature e culture classiche. Per ciascuno strumento digitale, si valuta se esso comporti un effettivo miglioramento dal punto di vista dei metodi, alla luce di alcuni obiettivi e principi educativi generali: sono presentate e discusse solo innovazioni digitali che, in chiave costruttivista, rendano l'apprendimento più attivo, più critico, più creativo e più orientato verso un contributo positivo alla società. Alla riflessione sui metodi viene affiancata una serie di proposte didattiche, in cui tali metodi vengono incarnati in esempi concreti di attività per l'insegnamento delle discipline classiche.
Sinossi:
Nell'"Introduzione" vengono presentati, insieme agli obiettivi e all'organizzazione interna delvolume, i principi pedagogici di riferimento.
Il capitolo "Strumenti e infrastrutture locali" offre qualche considerazione preliminare sulla cassetta degli attrezzi di cui ogni scuola o università dovrebbe dotarsi per rendere possibile la didattica digitale: computer, proiettori (più che LIM), software open source (non proprietario) ed una buona connessione.
Il capitolo "Condivisione di materiali didattici tra docenti" discute problemi e prospettive per la creazione di repository condivisi per lo scambio e il riuso di materiali didattici.
Nel capitolo "Imparare online: i learning management system", dopo aver esaminato le principali modalità di rapporto tra insegnamento in presenza e uso della rete (corsi blended e MOOC, ovvero interamente online), l'autore introduce le potenzialità offerte dai learning management system (LMS), i sistemi di gestione dell'insegnamento online.
I capitoli successivi, dedicati all'uso della rete per l'insegnamento classicistico, sono stati profondamente ripensati dopo l'emergenza sanitaria del 2020 legata al Covid-19: in essi, partendo da un bilancio dell'esperienza diffusa di didattica a distanza dei mesi del lockdown del 2020, vengono presentati e discussi metodi digitali di apprendimento attivo, in un quadro pedagogico costruttivista.
In "Dalla lezione (ultra)frontale alla flipped classroom" l'autore avanza la proposta di usare gli strumenti della didattica online, a partire dagli LMS, per applicare il metodo della flipped classroom, potenziando tra l'altro i sempre più necessari laboratori di traduzione dal greco e dal latino.
Il capitoletto "Mesta digressione: la versione al tempo di Internet" è dedicato alla questione specifica della copiatura delle versioni dal web, che rende di fatto inefficace la tradizionale pratica di assegnare versioni e frasi da tradurre a casa.
Il capitolo "Nuove forme di interazione: tutoraggio, forum, cloud e social media" esplora i modi in cui è possibile usare la rete per integrare e arricchire - non impoverire - l'interazione tra docente e studenti, e degli studenti tra di loro.
In "Valutazione ed esercizi online" l'autore suggerisce di integrare i questionari strutturati che proliferano in ambiente digitale, utili per esercitare e valutare solo i livelli più bassi dei processi di apprendimento, con strumenti di verifica 'aperta' con cui valutare le competenze più importanti, e si esamina il possibile uso ludico di quei questionari.
Nel capitolo "Politiche della formazione digitale: inclusione e istruzione pubblica" vengono affrontati due problemi resi evidenti proprio dalle pratiche didattiche del lockdown del 2020: ci si chiede chi rischia di rimanere escluso dalla didattica digitale e perché, e si discutono le ragioni per cui si rende ormai necessaria la creazione di infrastrutture digitali pubbliche per l'insegnamento, per evitare il rischio che i giganti della rete monopolizzino le infrastrutture dell'istruzione.
Gli ultimi due capitoli propongono metodi didattici basati rispettivamente sull'uso dei corpora testuali greco-latini e delle piattaforme wiki.
La questione formativa è strettamente intrecciata a quella disciplinare e a quella istituzionale, ovvero da un lato alla definizione delle DH (come disciplina, trans-disciplina, semplice comunità legata a pratiche professionali), dall'altro al loro ruolo istituzionale nel nostro paese, anche in relazione alle politiche culturali della transizione digitale. Discuteremo qui separatamente, per pura comodità dialettica, dei corsi singoli e dei percorsi formativi.
(A) I singoli corsi DH -- dalle materie (o laboratori) all'interno di corsi di laurea, ai seminari per dottorandi, alle summer school -- stanno utilmente disseminando competenze digitali nel mondo degli studi umanistici. Se però tali iniziative vengono concepite nel quadro di una concezione puramente strumentale delle DH, esse rischiano di trasformarsi in un mero addestramento all'uso degli strumenti attuali, che sono peraltro destinati ad essere rapidamente sostituiti. Quando ciò accade, si perde l'occasione di offrire una formazione ai principi specifici delle DH, formazione che sola permette di fare DH in modo consapevole, ripensando criticamente i processi di ricerca e generando vera innovazione metodologica e culturale.
(B) D'altra parte, è tornato a crescere il numero dei percorsi formativi (laurea, master, dottorato) specificamente centrati sulle DH, anche in seguito all'istituzione della classe di lauree magistrali LM-43, "Metodologie informatiche per le discipline umanistiche". Tali iniziative costituiscono probabilmente il laboratorio più promettente per un'informatica umanistica che apra nuove prospettive culturali e di ricerca. Qui la questione disciplinare e quella istituzionale si pongono con ancor maggiore evidenza, almeno a due livelli:
(B.1) Nella progettazione e nella gestione di tali percorsi. Se si ritiene che non esista un proprium disciplinare o metodologico delle DH, sarà sufficiente realizzare una 'fusione a freddo' tra docenti e insegnamenti provenienti da un dipartimento umanistico e uno scientifico. Se invece si ritiene che tale specificità esista, e se su di essa si vuole centrare il percorso di studio, sarà necessario reclutare stabilmente un certo numero di docenti che siano specialisti DH. In Italia, però, ciò è assai problematico, perché l'assenza di un settore scientifico disciplinare (SSD) per le DH rende difficile l'accesso all'abilitazione scientifica nazionale (ASN) e a posizioni stabili a quanti abbiano fatto delle DH il fulcro del proprio profilo scientifico. L'intero sistema di reclutamento (ASN, concorsi) e valutazione (ANVUR) è infatti saldamente -- e rigidamente -- ancorato al sistema degli SSD.
(B.2) Nella fase dell'inserimento nel mondo del lavoro. Chiedersi quale sia il ruolo dell'umanista informatico -- ad esempio di un laureato in una LM-43 -- nel gruppo di lavoro di un progetto di ricerca umanistico, in una start-up che operi nell'ambito dei beni culturali, nella pubblica amministrazione, negli organigrammi della scuola o in quelli dell'università, equivale a chiedersi -- solo in una chiave più pratica -- quale sia il ruolo delle DH nel quadro complessivo degli studi umanistici e sociali, e anzi nel quadro ancora più ampio della transizione digitale.
La collazione dei manoscritti condotta in vista della nuova edizione dell’Ars grammatica di Prisciano prevista dal progetto ERC PAGES permette di migliorare il testo di Hertz in alcuni punti dell’undicesimo libro, dedicato al participio: in GL II 557, 8, da illae autem minime di Hertz a illae autem eam minime; in GL II 562, 4-5 derivativa [vel composita], quorum primitiva [vel simplicia] in usu non sunt → derivativa [vel simplicia], quorum primitiva in usu non sunt; in GL II 562, 11-12 conspicio a specio [non est in usu] → cum spicio in usu non est. In GL II 560, 5, inoltre, la lezione d’archetipo aestuo luo non appare accettabile: si avanza qualche ipotesi di congettura.
1. the glossae found in manuscripts and their relationship with the manuscript text;
2. the presence of Greek text and its importance for the recensio and the construction of a stemma codicum;
3. literary quotations from classical works.
Such research is connected with the project of a new edition of the Ars, initiated by Michela Rosellini with her 2015 edition of the second part of the XVIII book of the work.
1. Glossae. Their inclusion in the edition poses specific modelling challenges, since they bear a complex relationship with Priscian's text: a glossa lives in a manuscript's page, so it refers to the text of that specific witness, not to the abstract text proposed by the editor, and as such it must be modelled in the edition. This can be achieved in the TEI XML encoding by linking each glossa to the manuscript it belongs to, and to the specific manuscript reading it comments upon.
2. Greek text. As Rosellini pointed out, while contamination is very common in Priscian's manuscripts, it is much less frequent for the Greek portions of the text, so the latter become key for the recensio. In the proposed edition model, Greek passages will be encoded on two layers, i.e. with both a normalized and a palaeographic transcription. As a consequence, not only "substantial" readings, but also "palaeographic" and "orthographic" variants will be recorded for those textual portions, thus providing scholars of Priscian's text with additional philological evidence.
3. Literary quotations. They will be marked with formal (machine-readable and processable) citations of their sources through the newly-developed Distributed Texts Services (DTS) protocol.
These principles, however, did not apply to handwritten medieval European graphic systems and do not apply today to non-western ones, including their print version. In Devánāgarī, some vowels are written before the consonant that they represent; in European medieval writing systems and in Arabic, diacritics orbit around (above, under or after) base graphemes. In order to provide a digital encoding of those writing systems accordingly to the cultures they belong to, such diacritics should be provided with a special status, distinguishing them from (and linking them to) their base graphemes.
In the case of Arabic, ḥarakāt are added above or below a consonant to specify the short vowel with which it should be pronounced. Since in Arabic a word is identified by its consonants and long vowels only, ḥarakāt are optional diacritics.
The pronunciation of vowels varies largely in time and space among the Arabic-speaking world. A word is the same word from Morocco to Iraq only as long as one only writes its consonants and long vowels, i.e. only within the structure of the Arabic script. Current text encoding technologies fail to represent the optional and relative nature of ḥarakāt. Thus, they make short vowels semiotically pertinent at the same level of consonants. This has potential practical, cultural and social implications in the self-representation of the cultural unity of the Arabic-Islamic world.
Le edizioni critiche digitali oggi hanno l’opportunità di diventare sistemi dinamici che interagiscono con altre risorse su Internet grazie a framework aperti come IIIF e LOD. Questo saggio mostra e discute due nuove funzionalità della versione 2 di EVT (Edition Visualization Technology): il primo migliora la gestione delle named entities (ad es. i nomi di persona) attraverso l’uso di risorse LOD come FOAF e DBpedia; il secondo integra il testo pubblicato con le immagini digitali delle fonti testuali, recuperate da server online (ad es. e-codices o le biblioteche digitali Vaticana e Ambrosiana) tramite il protocollo IIIF. The workshop focusses on some teaching methods for classics based on the following digital technologies: cloud platforms (Google Drive/Documents, Framasoft/Framapad); Greek and Latin textual corpora (TLG and PHI 5.3 on cd-rom with Diogenes and online, Perseus); Wikimedia Foundation projects (such as Wikipedia, Wikisource and Wikibooks).
a cura di Andrea Chegai, Michela Rosellini, Elena Spangenberg Yanes
Indice
Preliminary Remarks
1. Aggiornamento metodologico e riflessioni critiche sui procedimenti ecdotici / Methodological Enhancement in the Digital Era: New Questions about Critical Editing
Michela Rosellini
2. La singolare natura della testualità musicale / The Peculiar Nature of Musical Textuality
Andrea Chegai
3. Textual Critical Challenges in the Digital World
Elena Spangenberg Yanes
I. Sorting Methods in Critical (Digital) Editing
Nove tesi e mezza per la filologia nell’era della liquidità digitale / Nine and a Half Theses for Philology in the Liquid Digital Age
Lorenzo Tomasin
Il futuro dell’edizione critica (cioè lachmanniana), più o meno digitale. Riflessioni (in)attuali / Critical (Lachmannian) Editions - a More or Less Digital Future? Reflections, New and Old
Ermanno Malaspina
L’edizione critica digitale: la critica del testo nella storia della tradizione / The Critical Digital Edition: Textual Criticism within the History of the Tradition
Paolo Monella
The Genesis of the Arnamagnæan Method
Matthew James Driscoll
The Critical Edition in Old Norse Philology: Its Demise and Redefinition
Odd Einar Haugen
La filologia dell’opera italiana fra testo ed evento / Philology of the Italian Opera between Text and Event
Fabrizio Della Seta
II. Editing Texts with a Complex Transmission
Critical Digital Editions of Christian Apocryphal Literature in Latin and Greek: Transcription and Collation of the Acts of Barnabas
Caroline Macé, Maïeul Rouquette, Violeta Seretan, Frédéric Amsler, Patrick Andrist, Cecilia Antonelli
The Study of codices descripti as a Neo-Lachmannian Weapon Against the Notions of variance and Textual Fluidity.
A Few Words to Introduce the Theme
Paolo Trovato
The Use of codices descripti to Determine Scribal Habits
Federico Marchetti
Di chi è la Penelope? Sull’autorialità di un melodramma di tardo Settecento / Who Composed the Penelope? On the Authoriality of a Late-18th-Century Melodrama
Eleonora Di Cintio
Edizioni genetiche e strategie di visualizzazione digitale. Un prototipo per il quartetto op. 59, nr. 3 di Beethoven / Genetic Editions and Strategies of Digital Visualization. A Prototype for Beethoven’s Quartet Op. 59, No. 3
Federica Rovelli
III. Textual Criticism Applied to the Internet
Classics into Code: Latin Texts in the Digital Space
Dániel Kiss
Dalla stampa al digitale, dal digitale alla stampa. Tradizione indiretta dei classici latini in Rete / From Print to Digital Texts, from Digital Texts to Print. Indirect Tradition of Latin Classics on the Web
Claudio Giammona, Elena Spangenberg Yanes
Un progresso obsoleto? Vicende digitali della Chanson de Roland e del Cantar de Mio Cid / Obsolete Progress? Digital Ups and Downs of the Chanson de Roland and the Cantar de Mio Cid
Claudio Lagomarsini
Fake texts e Wiki edizioni. Per una filologia digitale sostenibile / Fake Texts and Wiki Editions. For a Sustainable Digital Philology
Paola Italia
La narrazione della storia in Wikipedia: pratiche, ideologie, conflitti per la memoria nell’Enciclopedia Libera / The Narration of History in Wikipedia: Practices, Ideologies, Conflicts about Memory in the Free Encyclopedia
Benedetta Pierfederici, Salvatore Talia (Gruppo di ricerca “Nicoletta Bourbaki”)
In the first part of this article (paragraphs 1-3), Edoardo D'Angelo wrote about the history and goals of ALIM. In the second part (paragraphs 4-10), Paolo Monella wrote a reflection on the digital humanities aspects of the transition of the ALIM project from HTML to TEI XML (both for the texts and the metadata of the archive); he also discusses issues raised by collaboration between humanites, digital humanists and IT specialists in the ALIM project.
[Italian abstract] L'articolo costituisce una riflessione sulla modellizzazione dei testi appartenenti alla nostra tradizione culturale in questa fase aurorale della Filologia Digitale e parte dalla domanda: che "forma" stiamo dando ai nostri testi? Vengono asplorati tre aspetti per cui i nostri modelli testuali riflettono i nostri presupposti culturali e tecnologici: in primo luogo, il modello gerarchico OHCO che sta alla base di TEI XML; in secondo luogo, il modello sequenziale alfabetico basato sulla stampa delle lingue occidentali, che sta alla base di Unicode. Un terzo aspetto, poi, è il meno esplorato nella ricerca: protocolli per la citazione testuale come CITE/CTS sono basati su corpora specifici. Per esempio, i corpora canonici per i testi greci e latini classici sono il TLG e il PHI 5.3. Ciascuno di questi corpora fissa in una forma canonica l'identificazione degli autori, l'attribuzione delle opere, la delimitazione dei testi, la numerazione di porzioni testuali come paragrafi e versi. Ne scaturisce un dilemma: da una parte, l'interoperabilità richiede che gli URI CTS siano basati su un canone testuale fisso, il che tende ad ostacolare le modifiche al canone da parte dei filologi; d'altra parte, i principi della filologia suggeriscono che gli URI puntino a versioni specifiche dei testi, il che però riduce il potenziale di interoperabilità del protocollo.
Many witnesses, many layers: the digital scholarly edition of the Iudicium coci et pistoris iudice Vulcano by Vespa (Anth. Lat. 199 Riese)
Original title: Più testimoni, più livelli: l'edizione critica digitale del Iudicium coci et pistoris iudice Vulcano di Vespa (Anth. Lat. 199 Riese)
During my post-doc scholarship at the Centro Linceo Interdisciplinare “B. Segre” of the Accademia dei Lincei, I have been working to a digital scholarly edition of the Iudicium coci et pistoris iudice Vulcano by Vespa (Anth. Lat. 199 Riese), a Latin text in verse from Late Antiquity with a multi-testimonial textual tradition.
This edition aims to apply concepts of Semiotics, Linguistics and Graphology, especially derived from the theoretical and methodological work of Tito Orlandi (see Informatica testuale, Laterza: Roma 2010). It also aims to use XML/TEI markup, while customising it.
In my edition, each primary source (medieval Latin manuscripts) will be encoded at three layers:
* the graphical layer, whose minimal units are the graphemes of a specific witness' graphical system, its paragraphematic signs (like punctuation, word breaks, line breaks etc.) and its systematic abbreviations;
* the alphabetic layer, whose minimal units are the “alphabemes” (by which word Raul Mordenti means alphabetical letters; alphabemes are different from graphemes, in that the latter represent the former);
* the 'linguistic' layer, whose minimal units are inflected words, regardless of the graphical system and even of the alphabet used in specific witnesses.
The digital edition will include a module for automatic collation of witnesses at different layers. For textual criticism, collation will happen at the 'linguistic' layer, but more complex collation systems can by devised to compare the graphical and alphabetical layers of different manuscripts.
This edition aims to be a proof-of-concept to test whether a more sophisticated model of encoding of primary textual sources and of digital scholarly edition can be implemented with a 'sustainable' workflow. Its main innovations are:
* the distinction of different textual layers within each witness;
* the declaration of a 'table of signs' for the graphical and the alphabetical layers of each witness;
* a collation process carried out ad different layers.
A major challenge will be to adapt XML/TEI to fit the purposes of this model of edition. Related issues include the encoding:
* of primary sources generally;
* of so-called 'characters' (including paragraphematic signs);
* of systematic abbreviations."
The theme of corpses dismemberment appears at the end of the episode of the shipwreck, the one immediately preceding the Crotonian section, through Encolpius' reflections on the sepultura practice and the destiny of human bodies after our death (Petronius, Satyricon 115, 6-19); the same theme closes the introductory speech of the farmer on the city of Croton (Sat.116, 9: Adibitis, inquit, oppidum tanquam in pestilentia campos, in quibus nihil aliud est nisi cadavera quae lacerantur aut corvi qui lacerant). The connection between 'eating' heritages and eating human bodies is made explicit in the final paragraphs of the extant text of the novel (Sat. 140 and 141), not only through Eumolpus' testament dispositions, but also through a net of symbols identifying man (or, more precisely, his objectified body) with his patrimony, including the bait metaphor in Sat. 140, 15, and the suggestion to the aspiring cannibal heredipeta in Sat. 141, 7: Operi modo oculos, et finge te non humana viscera, sed centies sestertium comesse.
In this net of narrative and symbolic elements, a significant role is played by the allusion to the mythological figure of Philomela through the character of the greedy matrona who offers her children to the sexual desire of Eumolpus. In paragraph 140 of the Satyricon, the language used to describe the woman and her acts seems to allude to the mythical background of the Procne and Philomela legend (especially to the narrative in the sixth book of Ovid's Metamorphoses), but paradoxically, in the petronian novel, it is the flesh of the sexually greedy Eumolpus which should eventually be eaten - together with his (imaginary) substances - by Philomela's children and the other Crotonian heredipetae.
Our project is devoting particular attention to the Greek portions of the Ars (Priscians’ Graeca): only for them, (a) we are encoding diplomatic transcriptions of the readings of all manuscripts, even those including only minor or merely orthographic variants; and (b) we are recording all glosses commenting on them.
In our data model, each reading of a Graecum and each gloss have two properties (among others): a reference to a location in the main text (identified through word offsets), and the manuscript ID.
Software can thus connect a specific gloss in a manuscript with the specific reading of that manuscript. It can also identify relations between glosses commenting on the same text location.
However, a number of issues arise from the data model described above.
1. Textual variability. The main text varies among the manuscripts, so using the critical text as base for anchors is not trivial. Think, for example, on a case in which a manuscript has extra text not present in the critical text, and a gloss in that manuscript comments on it. For example, in Ars 13, 22, 3 Hertz’s text is ut eadem sit et agens et patiens, potest significare ἑαυτοῦ sui, but manuscripts have ut eadem sit et agens et patiens, quae ιδιοπαθιαν potest significare ἑαυτοῦ sui. If the editor decides not to include the words quae ιδιοπαθιαν in the critical text, we will not be able to anchor the glosses on ιδιοπαθιαν to a location in the main text.
2. Granularity. In this model, the formal connection gloss/MS variant, as well as the connection between glosses of different manuscripts commenting on the same Graecum, require that they all point to the same main text offset. This is more easily done with MS variants. However, if a Graecum is constituted of many words (e.g. ἐμαυτοῦ σαυτοῦ in Ars 12, 25, 2), it is often the case that different glosses specifically point to different portions of the main text. In our example, MSS ZTbNWMko have glosses on ἐμαυτοῦ; bWMko on σαυτοῦ, NvIYk on both words; please note that most MSS have one gloss on a specific word, and another one on the whole Graecum (with k having three glosses, one for each word plus one on both). Even word boundaries may be challenged: the reading of Z is εμαιτοι ϲ.υτοι (εμοιτοι ϲουτοι post corr.), and it interestingly has four clearly distinguished glosses commenting on four groups of letters identified as separated words: mei (on εμαι/εμοι), huius (on τοι), tui (on ϲου), huius (on τοι).
What is the added value of the computational technologies in a critical digital edition? Why should a textual scholar choose digital over print in this specific field? The drawbacks of the digital choice include additional training and costs, slower workflow, less interoperability and durability. Do its 'pluses' balance them out, or even surpass them?
1. Funding
The additional funding that research funding agencies seem eager to pour on projects involving digital aspects is producing an (etymologically) preposterous situation: instead of inquiring whether digital methods can help their research, many applicants first decide that some digital must be involved, they try to find out how.
But I think that we can all agree that, if we want to be intellectually honest, we should not take the economic metaphor of the 'added value' so literally as to consider increased funding opportunities per se a 'plus' for the Humanities. Otherwise, the digital contribution to our research will be mostly cosmetic today, and the relative funding will eventually dry out – as it happens with shallow trends.
2. Availability
The availability of large textual corpora is compensated, on the negative side, by the interoperability and durability issues I mentioned above.
Also, the goal of creating and making comprehensively textual corpora available has long been achieved, and hardly complex digital models and formats such as plain text or PDF are sufficient for the purpose of browsing and reading them, while plain text is sufficient for simple, Boolean or lemmatised searches.
3. Annotation and analyis
The advantages of digital (also semantic) text annotation and analysis software are apparent. Such features arguably make an edition more 'scholarly', since commentary and analysis are part of the editorial work at large, but do they make it more 'critical'?
4. Witness facsimiles
A quite common feature of such editions is the linking of the text to the facsimiles of witnesses: this is contributing to the success of digital philology in those sub-fields of textual editing in which information about the document itself is key – papyrology, epigraphy, codicology, editions of texts with meaningful text-image interaction such as Leonardo’s notebooks or of unique textual historical sources such as the Old Bailey or the Codex Sinaiticus.
5. 'Plural' texts
Another such feature of digital scholarly editions is the possibility of recording an extensive amount of variants or parallel versions from a textual tradition, potentially much more than that which would find place in a print edition.
These features, however, can not only improve the visualisation (the human reading) of additional philological data: they can also allow for further processing (computation by algorithms) of such data.
Digital philology thus provides a clear added value in research fields in which textual variants or even parallel versions of a text are considered culturally significant per se – medieval textual mouvance, genetic editions and filologia d’autore of contemporary authors, New Philology.
6. Popperian falsifiability
While the value of 4 is perceived only by specific areas of the Humanities and 5 does not appeal the philologists who are interested in the constitutio textus of a canonical' work, a third advantage does apply to all editions: an increased availability of philological data would greatly improve the falsifiability of the edition in a Popperian sense, thus its scholarly value.
This, however, raises the issue of the sustainability of the open research data that a project makes available to the scholarly community.
La seconda parte esemplifica alcuni di questi metodi con proposte didattiche concrete che riguardano l'uso di Wikipedia, Wikibooks e dei corpora testuali di testi latini classici; l'editing collaborativo nel cloud; l'interazione asincrona online tra docente e studenti; video registrati nell'ottica della flipped classroom. Per questa parte si usano le slide qui allegate.
triennali e magistrali, nei master, nei corsi di dottorato, nelle
summer school e negli altri percorsi di formazione per studenti
e ricercatori in Italia?
La questione formativa è strettamente intrecciata a quella disciplinare e a
quella istituzionale, ovvero da un lato alla definizione delle DH (come
disciplina, trans-disciplina, semplice comunità legata a pratiche
professionali), dall'altro al loro ruolo istituzionale nel nostro paese, anche
in relazione alle politiche culturali della transizione digitale. Discuteremo
qui separatamente, per pura comodità dialettica, dei corsi singoli e dei
percorsi formativi.
(A) I singoli corsi DH -- dalle materie (o laboratori) all'interno di corsi di
laurea, ai seminari per dottorandi, alle summer school -- stanno utilmente
disseminando competenze digitali nel mondo degli studi umanistici.
Se però tali iniziative vengono concepite nel quadro di una concezione
puramente strumentale delle DH, esse rischiano di trasformarsi in un mero
addestramento all'uso degli strumenti attuali, che sono peraltro destinati
ad essere rapidamente sostituiti. Quando ciò accade, si perde l'occasione
di offrire una formazione ai principi specifici delle DH, formazione
che sola permette di fare DH in modo consapevole, ripensando criticamente
i processi di ricerca e generando vera innovazione metodologica e culturale.
(B) D'altra parte, è tornato a crescere il numero dei percorsi formativi
(laurea, master, dottorato) specificamente centrati sulle DH, anche in
seguito all'istituzione della classe di lauree magistrali LM-43,
"Metodologie informatiche per le discipline umanistiche". Tali iniziative
costituiscono probabilmente il laboratorio più promettente per
un'informatica umanistica che apra nuove prospettive culturali
e di ricerca. Qui la questione disciplinare e quella istituzionale
si pongono con ancor maggiore evidenza, almeno a due livelli:
(B.1) Nella progettazione e nella gestione di tali percorsi.
Se si ritiene che non esista un proprium disciplinare o metodologico
delle DH, sarà sufficiente realizzare una 'fusione a freddo'
tra docenti e insegnamenti provenienti da un dipartimento umanistico
e uno scientifico. Se invece si ritiene che tale specificità esista,
e se su di essa si vuole centrare il percorso di studio, sarà necessario
reclutare stabilmente un certo numero di docenti che siano specialisti DH.
In Italia, però, ciò è assai problematico, perché l'assenza di un settore
scientifico disciplinare (SSD) per le DH rende difficile l'accesso
all'abilitazione scientifica nazionale (ASN) e a posizioni stabili
a quanti abbiano fatto delle DH il fulcro del proprio profilo scientifico.
L'intero sistema di reclutamento (ASN, concorsi) e valutazione (ANVUR)
è infatti saldamente -- e rigidamente -- ancorato al sistema degli SSD.
(B.2) Nella fase dell'inserimento nel mondo del lavoro. Chiedersi
quale sia il ruolo dell'umanista informatico -- ad esempio di un laureato in
una LM-43 -- nel gruppo di lavoro di un progetto di ricerca umanistico,
in una start-up che operi nell'ambito dei beni culturali, nella pubblica
amministrazione, negli organigrammi della scuola o in quelli
dell'università, equivale a chiedersi -- solo in una chiave
più pratica -- quale sia il ruolo delle DH nel quadro complessivo
degli studi umanistici e sociali, e anzi nel quadro ancora più ampio
della transizione digitale.
We can perform Hjelmslev's "analyis" on raw character data and formally identify "entities" both on the syntagmatic axis (textual structures and relations) and on the paradigmatic axis (tokens, lemmas, stylistic features, named entities). In the Italian tradition of Digital Humanities this operation is commony called "formalizzazione" or "codifica". In the English/international terminology, the key terms for it are "markup" or, more generically, "annotation".
1. On this basis, the first possible added value of a SDE is that we can formalize and visualize complex relations within the text (structure, syntax, metatext), at its threshold (paratext) and beyond a monolithic/abstract concept of "Text" (versions, text/document). An important issue arises with the information itself: once the concept of text "explodes" and includes metatext, paratext, parallel versions and material philology, the quantity of information grows exponentially, in a "fractal" way (one paragraph, two versions, four glosses -- one for each version -- and so on). Is it worth to encode it digitally? Also, visualization is the only function commonly applied here, which exposes these digital philology applications to Kiss's argument. Ultimately, the question is: how much does each area of textual studies (papyrology, epigraphy, classical/medieval/genetic philology etc.) want to invest on the digital recording of such "fractal" information, with the sole purpose of visualizing it? It depends on how much each area is focussed on the plural nature of the text (versions) and on the documents bearing the texts.
2. The second possible added value lies in the semiotic concept of "isotopy", defined by Greimas as "un ensemble redondant de catégories sémantiques". If we formally identify entities on the paradigmatic axis (tokens, lemmas, stylistic features, named entities/Linked Open Data), algorithms can identify isotopies throughout a text -- that is, they can track the recurrence of entities of the same class, such as lemmas of the same lexical field, similar linguistic and stylistic features, place names etc. The question now becomes: what do we do with those isotopies?
2.1 We can apply simple algorithms to create a linear visualization of the isotopy, i.e. of the recurrence of elements of the same class (highlighting, search, indices, maps). A possible objection here regards both information and functionality: print editions might theoretically record/visualize trivial information (such as the linguistic annotation of a morphologic category) through formatting, but they do not do so because the mere visualization of such basic information would not bring any strong scientific advantage. If, instead, the information is more meaningful (e.g. people, names, concepts), also print indices in a book may track it throughout the text. Which suggests that mere linear visualization of isotopies does not necessarily provide a compelling added value of SDEs over print editions.
2.2 In addition, we can apply more complex algorithms to further process an isotopy (the recurrence of some elements) and produce secondary data with non-linear outputs. Examples of such algorithms include topic modelling, stylometry, word vectors or, if we use entities/Linked Open Data entities as input, social network analysis (for people) and network analysis (for places and other concepts). Outputs include tables, graphs and other forms of complex data visualization. In this case, the added value is apparent both in terms of information (the data produced is new, meaningful, and it is not encoded manually, but produced by software, thus removing the issue of limited time/human resources) and in terms of functionality (data is produced dynamically based on analysis algorithms and their adjustable parameters).
3. A third category of fairly apparent added values regards the social dimension of SDEs: the very availability of large plain text corpora (with the connected basic functions of browse and string matching search); social editing (based on shared research infrastructures such as papyri.info); Open Science (resource interoperability based on APIs, data reuse based on Open Data repositories).
In conclusion, compelling arguments for the added value of SDEs certainly come from the functionalities in the third category above (3. social dimension) and from the information and functionalities of category 2.2 (complex algorithms that process isotopies and produce a non-linear output). The advantage produced by category 2.1 (simpler algorithms that produce a linear visualization of isotopies) is less compelling. This suggests that the development of computational text analysis methods (2.2) is a key challenge for digital philology. As for category 1 (visualization of textual relations), only those areas of textual studies which are more deeply concerned with "plural" texts and with the text/document relation currently find it convenient to invest vast resources (in terms of time, training and funding) to encode that kind of potentially "fractal" information.
During the seminar we will discuss digital teaching methods that make learning more active, critical, society-oriented; assessment practices that can evaluate learning processes, complex skills, critical thinking; strategies to create learning platforms that, unlike Big Tech videoconference and learning management systems, comply with the GDPR (EU General Data Protection Regulation).
As digital learning, introduced as an emergency solution, gets integrated in school and university, the educational community needs to come together to thoughtfully design this integration.
What is the added value of the computational technologies in a critical digital edition in classics? Why should a textual scholar choose digital over print in this specific field? The drawbacks of the digital choice include additional training and costs, slower workflow, less interoperability and durability. Do its 'pluses' balance them out, or even surpass them?
### 1. Funding
The **additional funding** that research funding agencies seem eager to pour on projects involving digital aspects is producing an (etymologically) preposterous situation: instead of inquiring *whether* digital methods can help their research, many applicants first decide that some digital must be involved, they try to find out how.
But I think that we can all agree that, if we want to be intellectually honest, we should not take the economic metaphor of the 'added value' so literally as to consider increased funding opportunities *per se* a 'plus' for classical research. Otherwise, the digital contribution to our research will be mostly cosmetic today, and the relative funding will eventually dry out -- as it happens with shallow trends.
The same, but from the opposite perspective, goes for the individual careers of digital classicists (full disclaimer: like me) and for the destiny of digital humanities (DH) centres and institutions: we should not ask ourselves what Classics can do for the DH (how to find a spot for them in our projects and universities), but what the DH can actually do for Classics. And this question should be asked by digital classicists and 'classicists at large' together, "tearing the wall" between them -- as Samuel Huskey said in a previous seminar of this series.
### 2. Availability
The **availability** of large textual *corpora* is compensated, on the negative side, by the interoperability and durability issues I mentioned above.
Also, the goal of creating and making comprehensively classical *corpora* available has long been achieved, and hardly complex digital models and formats such as plain text, Beta code or PDF are sufficient for the purpose of browsing and reading them, while plain text is sufficient for simple, Boolean or lemmatised searches.
### 3. Annotation and analyis
The advantages of digital (also semantic) **text annotation and analysis software** are apparent. Such features arguably make an edition more 'scholarly', since commentary and analysis are part of the editorial work at large, but do they make it more 'critical'?
In Classics, the very definition of a 'critical edition' relies on an original work of *consititutio textus* and on its documentation through an *apparatus criticus*: what is the added value of digital methods in this?
### 4. Phylogenetics
**Phylogenetic** algorithms make a strong claim at providing 'specifically philologic' added value, since they help in the phase of the *recensio*, an important step towards the *constitutio textus*.
Their experimentation is ongoing, amid some diffidence from 'traditional' scholars and a methodological tension between 'counting' and 'weighing' variants.
Also disputed is the cost-benefit analysis of the application of these algorithms, compared to traditional variant evaluation.
### 5. Witness facsimiles and enhanced recording of variants/versions
An important 'plus' of digital scholarly editions, upon which its success in fields outside the critical edition of 'canonical' classical texts, is an increased potential of recording philological data closer to the 'document'
-- papyrus, inscription, manuscript, *incunabulum* etc:
- A quite common feature is the linking of the text to the **facsimiles** of witnesses.
- Another such feature is the possibility of recording an extensive amount of **variants or parallel versions** from a textual tradition, potentially much more than that which would find place in a print edition.
If those variants are tagged and distinguished between 'orthographic', 'substantive', 'stemmatically meaningful' etc., visualisation sofware can sort, show or hide them.
But what is the added value of this enhanced availability of philological data, especially for a classicist?
Let us start by saying that facsimiles and enhanced recording of variants/versions can serve two goals:
- Improving the *visualisation* (the human reading) of additional philological data;
- Allowing the *processing* (computation by algorithms) of such data.
The *visualisation* of facsimiles, parallel versions and non-Lachmannina variants
can produce three scientific advantages:
**5.1 Text/document**
As far as Classics are concerned, only texts with unitestimonial traditions such as inscriptions and papyri have taken advantage of this aspect of digital editing.
**5.2 'Plural' texts**
The added value of digital philology is also apparent in research fields or in which textual variants or even parallel versions of a text are considered culturally significant *per se*. In Classics, among texts with multi-testimonial traditions, only a few 'non-canonical' ones have digital editions -- including Homeric papyiri, non-literary works with multiple ancient versions -- because for these traditions different versions are considered culturally significative.
**5.3 Popperian falsifiability**
A third advantage applies to all editions, including those of 'canonical' classical author: an increased availability of philological data would greatly improve the *falsifiability* of the edition in a Popperian sense, thus its scholarly value.
A very influential definition by Patrick Sahle (<https://doi.org/10.0.45.127/OBP.0095.02>) says that a digital (not digitised) scholarly edition "cannot be given in print without a significant loss of information or functionality". The advantages described in 5.1, 5.2 and 5.3, focussed on the mere *visualisation* of additional philological information, can be confuted by an interesting objection raised by Daniel Kiss during his talk in this seminar series: Dr. Kiss argued that with the availability of enough pages, every quantity of information, including facsimiles and myriads of variants, can theoretically be "given in print" too, not only in digital form.
However, digital editions live up to Sahle's definition if we move from *visualisation* to **processing** of formalised philological information, i.e. if we create algorithms (software) that *process* that wealth of data and produce further information for the consideration of scholars.
Processing produces further potential advantages:
**5.4 Analysis of paleography and orthography**
The scientific advantage is apparent for sciences such as paleography or linguistic history (Latin, Greek and Neo-latin languages alike), but not for the traditional goals of classical studies.
**5.5 Analysis of variants**
Human comparison and study of select variants can be aided by spreadsheet-like technologies. However, one might wonder whether the added value it provides compared to 'traditional' comparison of variants counterbalance the additional work of populating variant tables.
Points 5.4 and 5.5 fall
within the realm of Sahle's "functionality": the latter, in fact, "cannot be given in print", not even with unlimited abundance of pages.
### Conclusions
In an article that I published in 2018 (<http://hdl.handle.net/10447/294132>) I focussed on point 5 above, and concluded that the potential added value of digital philology would not appeal classicists unless they would open themselves to a new type of edition, in which medieval (secondary) textual variance would be considered meaningful *per se* (see point 5.2 above), for instance to provide materials for the study of the history of Latin and Greek language, orthography and paleography in the Middle Ages.
In another article, published the next year (<http://hdl.handle.net/10447/394714>), I argued, somewhat more optimistically, that digital editions could host *both* the *textus constitutus* *and* additional data on the different stages of the tradition.
After further years of experience, I tend to return to the somewhat gloomy conclusions of 2018 for the application of digital philology in Classics, though with some hope *in cauda*:
- The building of large plain-text *corpora* (point 2 above), as well as annotation and textual analysis (point 3), will likely continue to thrive, but they do not belong to the core of textual criticism, at least as it is conceived in Classics;
- If phylogenetic methods (point 4) will reach such a level of maturity to convince classicists, they might become part of scholarly practices;
- Yet, a wider recording of textual variance, either to increase falsifiability of philological hypotheses (point 5.3) or for further computation and analysis (point 5.4) seems to be very far from penetrating editorial practices in Classics (except, maybe, for point 5.5).
Mentre il contributo del digitale all’edizione critica, intesa come mirata alla ricostruzione di un testo il più vicino possibile all’intenzione dell’autore, è ancora oggetto di sperimentazione e dibattito, un altro filone di ricerche informatico-umanistiche è ormai in uno stadio più maturo ed offre numerose realizzazioni: si tratta dell’annotazione digitale di concetti specifici (ad esempio luoghi, persone, ruoli) nei testi.
Tale annotazione, detta “semantica”, si distingue da quella delle semplici partizioni strutturali (titoli, paragrafi, capitoli, versi, strofe, sezioni incipitarie) in quanto collega singole parole o espressioni polirematiche a rappresentazioni formali del loro significato, che si trovano in database distribuiti e aperti in rete. Le tecnologie relative a queste annotazioni e a questi collegamenti, che superano la “parola” digitalizzata in vista del “concetto”, prendono il nome di “web semantico” e, più di recente, di “LOD - Linked Open Data”.
Ad esempio, è possibile marcare in questo modo, in un’edizione digitale di testi del teatro latino di età repubblicana, le espressioni che indicano personaggi e “maschere” della palliata, come il senex, lo iuvenis, la giovane prostituta, il servo. Lo stesso metodo può essere applicato a qualunque genere teatrale in cui il sistema dei personaggi sia in qualche misura standardizzato – l’esempio che viene subito in mente è quello della commedia dell’arte.
Tali annotazioni dovrebbero essere collegate ad un modello digitale del sistema dei personaggi, operazione però non priva di difficoltà.
In primo luogo, sono ancora in gran parte da sviluppare gli strumenti informatico-umanistici per gestire entità come i personaggi teatrali – ovvero ontologie, URI LOD e altri aspetti specialistici su cui non mi soffermo in questa sede.
In secondo luogo, la costruzione di un modello digitale (ovvero fortemente formalizzato) dei personaggi della palliata non è affatto sempice dal punto di vista concettuale perché in essa, come in qualunque genere teatrale, tale sistema non è interamente sclerotizzato e fisso: di opera in opera cambiano non solo i nomi (aspetto assai facilmente gestibile in un modello digitale), ma anche le caratteristiche dei personaggi e le relazioni tra di essi.
Esporrò dunque, a titolo esemplificativo, due strade attraverso le quali un’annotazione semantica digitale dei personaggi teatrali, collegata ad un modello digitale del sistema dei personaggi comune ad un determinato genere, potrebbe dare qualche frutto ermeneutico.
La prima strada presuppone un’edizione digitale di testi teatrali rivolta alla lettura distesa. Se le entità relative ai personaggi (nomi con le loro varianti, epiteti etc.) fossero marcate digitalmente e collegate a risorse LOD, l’edizione digitale potrebbe recuperare automaticamente le informazioni presenti su quel personaggio nel web semantico e permettere al lettore di visualizzarle in schede di commento generate automaticamente.
Questo si fa ormai abbastanza comunemente, in informatica umanistica, per i luoghi e i personaggi storici: ad esempio, il progetto Hestia (https://hestia.open.ac.uk/) è partito da un’annotazione semantica dei luoghi citati nelle Storie di Erodoto e da un loro collegamento a risorse LOD presenti in rete. Nel sito web del progetto, il lettore può leggere il testo erodoteo, cliccare sul nome di un luogo citato ed aprire così una scheda informativa contenenti dati su tale luogo estratti automaticamente da altre risorse scientifiche digitali. Vedrà così non solo la collocazione del luogo su una mappa, ma anche dati tratti dal “gazetteer” scientifico Pleiades (https://pleiades.stoa.org/), come i diversi nomi del luogo in varie lingue, le date in cui è effettivamente stato abitato, gli altri luoghi connessi ad esso, i testi classici e la bibliografia secondaria in cui esso è citato (con relativi link) e altro.
Si realizzerebbe così una forma di ‘edizione scientifica distribuita’, in cui alle note di commento locali si aggiungerebbero informazioni, soprattutto fattuali, estratte automaticamente dall’esterno, ovvero dal web semantico.
Una seconda strada, anch’essa percorsa dal progetto Hestia per i nomi di luogo, è quella dei dati statistici. Non si tratterebbe però di far calcolare al computer frequenze e co-occorrenze di parole, ma di concetti.
Per chiarire: già oggi posso usare strumenti come Voyant Tools (https://voyant-tools.org/) per calcolare quali altre parole ricorrano più frequentemente in prossimità della parola Ilium (frequenza di co-occorrenze, o “collocations”), e trarre da grandi quantità di dati di questo genere ulteriori piste di ricerca o supporto per la verifica di ipotesti ermeneutiche. Tuttavia si tratterebbe di dati relativi alle parole, non al loro significato: una ricerca del genere, ad esempio, ‘perderebbe’ le co-occorrenze relative allo stesso luogo, citato con una parola diversa (ad esempio Troia).
Invece, in un corpus testuale annotato semanticamente, le nostre annotazioni ricollegano sia le occorrenze di Ilium sia quelle di Troia ad un unico concetto, che ha un suo identificativo unico LOD (https://pleiades.stoa.org/places/550595 nel gazetteer Pleiades). A questo punto, ogni ricerca o statistica effettuata su tali annotazioni semantiche prenderebbe in considerazione tutte le effettive occorrenze del luogo Troia nel testo, al di là delle parole o delle espressioni usate per indicarlo.
Per tornare all’esempio del progetto Hestia, i suoi algoritmi di analisi producono risultati di vario genere, anche molto diversi dalle tradizionali ricerche testuali: ad esempio, per ogni luogo antico citato da Erodoto Hestia può produrre dinamicamente un grafo avente al centro il luogo selezionato, e disposti intorno tutti gli altri luoghi citati vicino ad esso nel testo: quanto più un altro luogo è citato spesso in co-occorrenza con quello selezionato, tanto più vicino esso sarà collocato nel grafo stesso. Questo dà un’idea immediata delle co-occorrenze di luoghi nel testo erodoteo.
Pur senza giungere alle raffinate visualizzazioni dei dati statistici offerte da progetti come Hestia, statistiche testuali – anche di co-occorrenze – basate su una marcatura semantica dei personaggi nel teatro antico potrebbero offrire dati interessanti sulla presenza e sulle interazioni di tali personaggi, dati articolati per autore, per opera, e nelle diverse sezioni strutturali delle singole opere (proemi, monologhi, parti cantate etc.), e dunque confrontabili tra autori, opere e sezioni diverse.
Una precisazione, in conclusione: tali dati, di origine formale e quantitativa, non intendono affatto sostituire la lettura e l’analisi ‘umana’. L’auspicio è invece che anche negli studi letterari, come già avviene in ambito scientifico, seppure in modo e misura diversi, tali dati possano costituire un ulteriore supporto al servizio dello studioso: un punto di partenza, una base su cui fondare interpretazioni e ipotesi.
The workshop primarily targets school and college instructors specializing in the humanities. It comprises two main parts. (1) A presentation on digital teaching methods tailored to the humanities. This segment will emphasize the utilization of digital tools and platforms to promote active learning, critical thinking, and social engagement. (2) Following the presentation, participants will engage in a hands-on workshop. Here, attendees will acquire the skills necessary to guide their students in creating and editing Wikipedia articles related to humanities subjects, as well as annotated editions of literary texts on Wikibooks.
Italiano:
Il workshop è pensato per docenti, di scuola e università, di materie umanistiche. Si compone di due parti. (1) Una presentazione su alcuni metodi didattici digitali per le discipline umanistiche, e in particolare sull'uso di strumenti e piattaforme digitali per promuovere l'apprendimento attivo, il pensiero critico e l'impegno sociale. (2) Un workshop pratico, in cui i corsisti acquisiranno le competenze necessarie per guidare i loro studenti nella creazione o nell'editing di articoli Wikipedia su argomenti umanistici, e di edizioni commentate di testi letterari su Wikibooks.
Un workshop pratico per studenti di discipline umanistiche dell'Università di Pavia sul markup testuale, dai charset alla marcatura strutturae e semantica in TEI XML.
Il seminario presenterà l’idea di un’edizione scientifica digitale ‘distribuita’ che, oltre al testo, comprenda
- link dinamici alle immagini del documento (manoscritto, graffito, manufatto archeologico con iscrizione) che si trovino su server IIIF (come ad es. quello della Biblioteca Vaticana);
- riferimenti a informazioni distribuite nel Web semantico (ad esempio coordinate geografiche e mappe di luoghi da progetti come Pelagios).
English:
The seminar will introduce the idea of a 'distributed' scholarly digital edition, which includes, in addition to the text:
- dynamic links to facsimiles of the source document (manuscript, archeological manuscript with inscription) located in IIIF servers (such as that of the Vatican Library);
- connections with information distributed in the Semantic Web (such as geographic coordinates and maps of places drawn from projects such as Pelagios).
1. "Edizioni critiche digitali usando EVT" (R. Rosselli Del Turco) ha fornito un'introduzione pratica alla produzione di edizioni digitali fondate sulla codifica TEI XML, visualizzate tramite il software EVT;
2. "Digital libraries: dai metadati ai dati" (M. Cassella) ha introdotto i corsisti all'uso del framework IIIF (International Image Interoperability Framework) e dei LOD (Linked Open Data) per la metadatazione.
Nel presente workshop i corsisti:
1. proseguiranno il lavoro iniziato durante il modulo di R. Rosselli Del Turco arricchendo la loro edizione digitale TEI XML, visualizzata con EVT, con due caratteristiche più avanzate: il collegamento con le immagini del documento-fonte tramite il framework IIIF, e la marcatura di entità definite nel Web semantico (LOD) come persone, luoghi, concetti;
2. applicheranno le tecnologie IIIF e LOD al testo delle loro edizioni, dopo avere già esplorato la loro applicazione ai metadati all'interno del modulo di M. Cassella.
I corsisti saranno guidati in un percorso induttivo e laboratoriale a creare un modello digitale (formale, gestibile dal computer) di una poesia, a partire dalle strutture elementari del funzionamento del computer (una sequenza di stati binari, "aceso/spento", "sì/no", spesso rappresentati con "0" ed "1"), fino ai numeri binari, a quelli decimali, ai CharSet (tabelle di caratteri come ASCII o Unicode), per arrivare, sempre induttivamente, a creare un loro linguaggio di markup. Infine, sarà loro presentata la sintassi SGML/XML e poi specificamente il linguaggio TEI XML. I corsisti quindi codificheranno un testo in versi in TEI XML. Due brevi lezioni, ricollegandosi all'esperienza laboratoriale, faranno il punto sulla filologia digitale: la prima presenterà una panoramica delle sue principali realizzazioni; la seconda, di carattere metodologico, rifletterà sulla sua potenzialità di integrare storia della tradizione e critica del testo.
They will follow a inductive path, moving from the elementary structures of the computer (a sequence of binary states, "on/off", "yes/no", often represented by "0" and "1") to binary and decimal numbers and CharSets (ASCII and Unicode). At this point, the hands-on experience will begin: students will create their own textual markup language based on symbols of their choice and will be asked to reflect on the theoretical and methodological issues arising from inline markup. They will then be introduced to the SGML/XML syntax and to the TEI XML vocabulary and will encode a brief poem.
At this point, we shall move from the concept of (digital textual) model to that of algorithm (procesing that model). The students will be asked to edit, by filling in the gaps, some JavaScript code, in order to visualize the text in a browser and to perform simple textual analysis on it (word count and average verse length).
The goals of the workshop are to gain some hands-on experience on textual markup, but more importantly to understand the basic concepts of the Turing Machine (formalization, formal model, input, output, software, programming).
In the first part of the workshop, led by Paolo Monella and centered on digital textual modelling and TEI XML, students will create a digital (formal, machine-actionable) model of a portion of a text from a medieval manuscript, both gaining hands-on experience and reflecting on the methodological and theoretical foundations and issues of textual modelling. They will follow a inductive path, moving from the elementary structures of the computer (a sequence of binary states, "on/off", "yes/no", often represented by "0" and "1") to binary and decimal numbers and charsets (ASCII and Unicode). At this point, the hands-on experience will start: students will create their own textual markup language based on symbols of their choice and will be asked to reflect on the theoretical and methodological issues arising from inline markup. They will then be introduced to the SGML/XML syntax and to the TEI XML vocabulary and will encode a brief textual portion taken from a medieval manuscript, based on its digital images and using the TEI module for the transcription of primary sources. The students will then be presented, and will practice, two alternative strategies for combining TEI XML, the current standard for scholarly text encoding, with IIIF, the rising standard for online image metadata and annotation: (A) the first approach consists in linking to the digital images of the manuscript from within the TEI XML source, for example with the TEI attribute @facs; (B) with the second approach, the whole TEI XML transcription is included in the IIIF metadata as an "Annotation". This will constitute a bridge with the second part of the workshop, led by Fabio Cusimano, focussed on IIIF.
Abstract in italiano:
Nella prima parte del workshop, condotta da Paolo Monella e centrata sulla modellizzazione digitale del testo e su TEI XML, gli studenti creeranno un modello (formale, machine-actionable) di una porzione di testo tratto da un manoscritto medievale, da un lato ottenendo esperienza diretta e dall'altro riflettendo sulle basi teorico-metodologiche e sulle questioni aperte della modellizzazione del testo. I corsisti saranno accompagnati in un percorso induttivo e laboratoriale che partirà dalle strutture elementari del funzionamento del computer (una sequenza di stati binari, "aceso/spento", "sì/no", spesso rappresentati con "0" ed "1"), fino ai numeri binari, a quelli decimali, ai CharSet (tabelle di caratteri come ASCII o Unicode). A questo punto, inizierà l'esperienza diretta: gli studenti creeranno un loro linguaggio di markup basato su simboli scelti da loro, e saranno portati a riflettere sulle questioni teoriche e metodologiche legate all'inline markup. Saranno dunque introdotte la sintassi SGML/XML e il vocabolario TEI XML. Gli studenti codificheranno una breve porzione testuale tratta da un manoscritto medievale, partendo dalle sue riproduzioni digitali e usando il modulo TEI per la trascrizione delle fonti testuali. Infine, si presenteranno agli studenti due strategie alternative di integrazione tra TEI XML (lo standard attuale per la codifica testuale nel mondo della ricerca umanistica) e IIIF (lo standard emergente per la metadatazione e l'annotazione di immagini nel Web): (A) il primo approccio consiste nel creare nel codice TEI XML (ad esempio tramite l'attributo TEI @facs) link che puntino alle immagini digitali del manoscritto; (B) col secondo approccio, l'intera trascrizione TEI XML è incusa all'interno dei metadati IIIF come "Annotation". Gli studenti praticheranno entrambe le strategie. Ciò costituirà un ponte verso la seconda parte del workshop, condotta da Fabio Cusimano e centrata su IIIF.