Convegno
LESSICOGRAFIA, FILOLOGIA E CRITICA
Catania-Siracusa 26-28 aprile 1985
Tito ORLANDI
PROBLEMI DI CODIFICA E TRATTAMENTO INFORMATICO IN CAMPO FILOLOGICO
1. Fra le molte discipline di carattere umanistico per le quali si è
pensato di sperimentare l'applicazione dell'elaboratore elettronico,
la filologia intesa in senso tecnico, cioè restituzione critica di un
testo antico, risulta essere una delle più refrattarie. Si sono fatti,
è vero, molti tentativi; e si sono affrontati ed approfonditi molti
problemi. Ma, per quanto è dato giudicare dalla bibliografia in
materia (che per verità potrebbe non dare un'idea compiuta del lavoro
anche nascosto che si stia svolgendo), si deve concludere che, dopo
l'importante incontro di Parigi del 1978 (la pratique des ordinateurs
dans la critique des textes) che ha molto contribuito a chiarire i
termini dei problemi, non si siano fatti sostanziali progressi in
questo campo.
Appare evidente che in questo campo ci siano piuttosto problemi da
porre che soluzioni da mostrare. Non mi consta che si sia finora
prodotta alcuna edizione, se non completamente, almeno in larga parte
derivata da procedimenti automatici. Collazione dei manoscritti;
ordinamento dei codici in base a statistiche sulle varianti; scelta di
lezioni -- per nessuno di questi punti è stata ancora presentata una
proposta davvero soddisfacente di automazione.
Nè, per la verità, abbiamo noi oggi qualcosa del genere da proporre.
Per cui ce ne sarebbe abbastanza per consigliare di accantonare la
questione fino a un momento più propizio. Ed invece a me sembra che
proprio questo sia il momento di condurre un'operazione di
chiarificazione metodologica, molto al di là di quanto è stato fatto
nel colloquio di Parigi.
Se infatti è dato notare in campo informatico una stanchezza nelle
discussioni a proposito della stemmatica e della sua possibile
automazione; e scarsi o nulli risultati nella produzione automatica di
edizioni critiche di tipo "classico"; è dato anche notare, in campo
filologico, un interrogarsi sulla propria stessa metodologia
"convenzionale", quasi con la scoperta della scarsa coerenza e
consapevolezza che circondano il cosiddetto metodo del Lachmann, e
d'altra parte con la diffidenza verso un metodo così meccanico come
quello proposto da Dom Quentin e dai suoi continuatori.
Si noti che l'uno e l'altro fenomeno si sono tutt'altro che
influenzati a vicenda, ma che sono piuttosto indipendenti l'uno
dall'altro. Quello "filologico", fra l'altro, precede quello
"informatico", dal momento che possiamo citare fra i suoi momenti più
significativi le pubblicazioni di Dain, Timpanaro, Avalle (Pasquali e
Maas vanno visti in altra prospettiva).
Noi crediamo che la crisi in ambito filologico sia dovuta soprattutto
all'apertura, relativamente recente, al tardo-antico. I testi di
questo periodo presentano un numero di codici sproporzionato rispetto
a quelli classici; ed oltretutto in questi codici sono molto più
facili interventi di tipo redazionale, proprio dato il carattere di
quelle opere, d'interesse più immediato per i lettori medievali,
rispetto alle altre.
Una delle conseguenze è stata fra l'altro una maggiore attenzione data
ai singoli codici in quanto prodotti culturali autonomi, in certo modo
oltre e al di là della catena che lega il loro contenuto ai modelli ed
alle copie. I lavori di Reynolds-Wilson e poi di Cavallo e di Petrucci
ne sono oggi le principali manifestazioni.
Per quanto riguarda poi il terreno più propriamente applicativo
dell'elaboratore elettronico, io credo che un momento di ripensamento
sia reso necessario da un'evoluzione interna e teoretica che
sicuramente avrà notevole impatto nel prossimo futuro in tutto questo
genere di applicazioni. Molto di quanto dirò si lega appunto a questo
tema; ma è necessario anticipare fin d'ora che si tratta del fatto che
lo studio del funzionamento dell'elaboratore e delle sue possibili
applicazioni dimostra chiaramente che questa macchina, al di là del
suo sfruttamento pratico, ha aperto la strada ad una nuova disciplina,
l'INFORMATICA, i cui risultati possono aiutare a risolvere molti
problemi delle altre discipline.
Dunque quello che mi propongo di fare è tentare di spiegare quali
siano, e come possano interagire (a mio modesto avviso), i recenti
sviluppi di queste tre discipline: l'INFORMATICA, l'ECDOTICA
(preferisco questo termine in quanto più tecnico rispetto a
FILOLOGIA), la CODICOLOGIA, per risolvere - o meglio per spostare su
un piano teoricamente più coerente - i problemi posti fino ad oggi
dalla FILOLOGIA.
2. Domandiamoci prima di tutto quali appaiono oggi i rapporti fra
l'informatica intesa in senso tradizionale di "utilizzazione del
computer" e la filologia. Si tratta essenzialmente di tre campi: 1.
ricerca automatica delle varianti; 2. produzione automatica degli
stemmi di derivazione dei codici; 3. procedimento automatico di stampa
dell'edizione critica.
I campi 1 e 3 costituiscono un semplice ausilio meccanico (sebbene vi
siano delle implicazioni che di solito si trascurano, e su cui
ritorneremo).
Il campo 2 è quello su cui si sono esercitate soprattutto le
discussioni teoriche, e sembra dunque essere quello più promettente
dal punto di vista di risultati nuovi ottenuti con l'"informatica". Ma
non si può fare a meno di chiedersi dove stia la novità, che non sia
semplicemente data dall'interesse soggettivo di non filologi (per cui
si vedono degli ingegneri che disputano molto seriamente sul valore
delle varianti); e se non si tratti semplicemente di cercare di
applicare corrette teorie statistiche dove prima l'applicazione era
scorretta, senza che la macchina, nuovamente, non sia che un mero
strumento pratico.
L'"informatica" come disciplina autonoma in tutto questo è puramente
neutrale. Ai filologi (aiutati, se si vuole, dai matematici) spetta lo
stabilire quale sia il modo migliore di costruire lo stemma, dal
momento che sembra impossibile farne a meno, oggi, per un'edizione
veramente critica. Quando essi si siano decisi, la macchina lo farà
docilmente, senza troppi problemi, e con rapidità e precisione. Così
come nella fase iniziale li avrà aiutati a evidenziare le varianti, e
nella fase finale li aiuterà a stampare il risultato della loro opera.
Mi sembra evidente che, da questo punto di vista, l'informatica
semplicemente NON ESISTE. E questa può essere in effetti una
soluzione: che tutto proceda come prima, soltanto con la prospettiva
di maggiore rapidità e minor costo nella diffusione dei risultati.
Si può tuttavia cominciare ad ampliare parzialmente la prospettiva,
notando come, anche mantenendo questo punto di vista così restrittivo,
l'informatica ponga al filologo delle questioni in qualche modo nuove.
Essa lo spinge per lo meno a precisare assai più di quanto non fosse
necessario prima, quanta parte del suo lavoro può essere affidata a
procedimenti "automatici" piuttosto che intuitivi.
Questo sforzo di precisazione metodologica sembra in verità portare
soprattutto a questa conclusione: che restando sul piano su cui si è
finora rimasti, questo tipo di precisazione non potrà mai avvenire. Da
questo punto di vista sembrano importanti soprattutto le osservazioni
di C. SEGRE e alcune delle conclusioni delle Tavole Rotonde, nel
Congresso di Parigi. Infatti, se le varianti, anche ai fini di
costituire uno stemma, hanno valori diversi che possono essere
riconosciuti solo dallo studioso, il problema si avvicina molto a
quello della traduzione artificiale, ancora molto lontano dalla
soluzione.
E comunque, lontana o meno lontana la soluzione, mi sembra che il
punto vero della questione sia ben diverso. Esso è costituito, secondo
me, da una considerazione nuova dei fini della filologia, ottenuta
attraverso la medizione dell'informatica come è stata delineata più
sopra.
3. Proviamo prima di tutto a rendere espliciti i fini del lavoro
filologico, come oggi sono generalmente ammessi. Si parte dal
principio che è esistito un testo scritto nell'antichità, dal quale è
derivata una quantità di manoscritti con vari rapporti di spazio e di
tempo, nei quali per varie cause si sono introdotte varianti rispetto
al testo originale. Mediante il confronto dei manoscritti a nostra
disposizione, è possibile tentare di ricostruire una catena che ci
riporti al testo originale, considerato che, salvo casi solitamente
individuabili, i responsabili a cui si deve la copiatura dei vari
manoscritti, obbedivano all'interesse di tramandare quanto più
fedelmente quel testo originale. Finalmente, una volta ottenuto il
testo originale (secondo la capacità dell'editore), lo si stampa con
l'intento di sostituirlo, come mezzo per la diffusione
dell'informazione contenuta nel testo, a tutti i singoli manoscritti.
E' chiaro che quanto abbiamo detto descrive in maniera molto
abbreviata il lavoro del filologo. Ma, secondo noi, le vere
abbreviazioni non consistono nell'aver taciuto i molti problemi
particolari che tutti conosciamo (problema di doppie redazioni;
interpolazioni; emendazioni; etc.), ma nel non aver approfondito
problemi che, per quanto ci consta, i filologi tendono a trascurare.
Se li pone invece un informatico.
Dal suo punto di vista, il lavoro del filologo consiste soprattutto
nella manipolazione e nella trasmissione di informazione e dunque lo
tocca molto da vicino. La manipolazione consiste nella ricostruzione
di precedenti trasmissioni, basandosi dunque sulla comprensione della
loro codifica, per ritrovare il testo esatto della codifica originale.
La trasmissione consiste nel ricodificare il testo in modo che da
adesso in avanti possa essere diffuso senza alterazioni. Questo si
ottiene tramite la stampa.
Noi vogliamo sottolineare che proprio l'avvento della stampa come fine
ultimo del lavoro del filologo ha avuto un ruolo determinante nello
stabilirsi della filologia nelle forme che essa ha in effetti assunto.
E' vero che il problema principale non è stato all'inizio quello della
costituzione di un buon testo, ma quello della diffusione a minor
costo. Ma tale diffusione avveniva (e questo è l'altro lato della
questione) a scapito di quello che possiamo chiamare vitalità della
tradizione manoscritta. Ogni manoscritto era un prodotto a se stante;
e se ciò poteva significare l'introduzione di errori o comunque di
varianti al testo, poteva anche significare la correzioni di quegli
stessi errori. Nel testo a stampa, invece, quello che appariva sulla
prima copia appare necessariamente (salvo i noti casi di correzioni
durante la stampa...) sull'ultima.
Si era di fronte alla cristallizzazione di un processo che prima era
assai più vivace; e questo a poco a poco rese necessaria una maggiore
attenzione al testo che veniva stampato; e quindi consigliò di
giustificare le lezioni adottate, dove potevano esservi dubbi, citando
le ragioni o comunque le fonti manoscritte; e finalmente si arrivò
all'idea dell'apparato critico.
Abbiamo ricordato tutto ciò per sottolineare la caratteristica della
stampa, rispetto al manoscritto, che ci interessa in questa sede:
quella appunto di essere o di tendere ad essere una forma statica ed
entro certi limiti definitiva, dunque un punto di arrivo; mentre il
manoscritto era sempre il momento di un processo, assai più
direttamente inserito non solo nella tradizione appunto manoscritta
(fra un modello ed una copia), ma soprattutto in un ambiente cognitivo
in cui generalmente il committente, lo scriba, gli altri eventuali
veicoli fra testo e lettore, erano assai più interdipendenti e
interattivi.
Ora, poiché l'utilizzazione della macchina tende ad inserirsi nel
processo che porta alla stampa, è lecito chiedersi se questo potrà
influire sulle caratteristiche che abbiamo ora delineato. Per una
risposta soddisfacente occorre prima di tutto chiarire che cosa
intendiamo per disciplina "informatica", legata alla macchina ma non
esaurita nella sua utilizzazione.
4. L'immagine dell'informatica che propongo non è quella
convenzionale. Essa nasce dal lavoro del Gruppo di Ricerca
"Informatica e Discipline Umanistiche" dell'Università di Roma, che ho
l'onore di dirigere dal 1983. Esso si propone di esaminare tutti i
risvolti teorici dell'interazione fra l'informatica, intesa come
disciplina autonoma, e ciascuna delle discipline umanistiche.
Per questo abbiamo elaborato una definizione di informatica come una
scienza che è nata dall'esperienza di applicazione dei calcolatori, ma
dopo essersi interrogata sui presupposti teorici di tale applicazione
e del funzionamento stesso della macchina, ha riconosciuto come suo
proprio e specifico, lo studio di un gruppo di fenomeni attraverso una
particolare metodologia che solo parzialmente coincide con l'uso della
macchina.
Il gruppo di fenomeni oggetto dell'informatica è quello che viene
chiamato comunemente l'informazione; la metodologia si basa su tre
concetti fondamentali che chiamiamo: CODIFICA, LOGICA FORMALE,
PROCEDIMENTI AUTOMATICI (ALGORITMI). Non è possibile soffermarsi sulle
ragioni di questa posizione, nè approfondire il significato di questi
concetti, cosa che è stata fatta comunque in altra sede.
Proseguirò piuttosto dicendo che i principi basilari sui cui si fonda
l'informatica sono a nostro avviso due. Primo: l'informazione può
essere presa in considerazione indipendentemente dal suo rapporto con
la realtà oggettiva che suppone di rappresentare. Secondo: il valore
globale dell'informazione ed i rapporti fra gli elementi che la
costituiscono non cambiano se sottoposti a procedimenti di
trasmissione o di elaborazione che siano corretti sotto il profilo
della logica formale.
Da questi due principi deriva (per quanto riguarda le discipline
umanistiche, ed in particolare quelle filologiche) la possibilità di
usare tipi di codifica differenti per scopi differenti e soprattutto a
livelli differenti (transcodifica) per presentare in modo vario uno
stesso gruppo di informazioni, o, se si vuole, per rappresentare in
modo vario ma con gli stessi rapporti intrinseci un medesimo gruppo di
fenomeni.
Penso che a questo punto si possano vedere, seppure non chiaramente, i
rapporti fra l'informatica come la vedo io e la macchina.
L'informatica giustifica la possibilità di fornire alla macchina
informazioni in codifica binaria (e poi transcodifiche di vario
tipo: p.es. caratteri alfabetici etc.) e fornisce il presupposto
teorico affinché la macchina le gestisca mediante i propri circuiti
logici. Ma rimarrà oscuro il rapporto che ci possa essere fra questa
informatica e la filologia, peggio ancora l'ecdotica.
5. Abbiamo già detto che l'informatico riconosce che il filologo
lavora come lui sulle informazioni. In particolare, l'informatico non
solo si sente autorizzato a classificare il lavoro del filologo
secondo certi parametri per lui convenienti; ma si sente anche
autorizzato, una volta riconosciuta la stampa come veicolo di uno dei
sistemi possibili di codifica, confrontabile con il manoscritto da un
lato, e con la macchina dall'altro, a chiedersi se vi siano differenze
sostanziali fra quei veicoli, e, qualora esistano, se gli utenti se ne
rendano conto ed usino in maniera conveniente i sistemi (di codifica e
altro) creati per quei veicoli ed i veicoli stessi.
Posta così la questione, la mia risposta è la seguente: una grande (e
forse sostanziale) differenza fra quei veicoli è quella cui
accennavamo prima: due di essi sono "dinamici" (il manoscritto e il
computer); il terzo è "statico" (la stampa). (Si badi che la
distinzione non è tassativa, ma comunque proponibile abbastanza
chiaramente). Stando così le cose, il computer usato con gli stessi
criteri usati per la stampa è impiegato in maniera impropria.
Cominciamo dal primo punto. Abbiamo già accennato ad alcuni dei motivi
che ci inducono a considerare dinamico (in altri termini "vitale") il
manoscritto rispetto alla staticità della stampa. Aggiungeremo che
un'altro motivo, che ora diventa più importante, è costituito dal
fatto che il manoscritto si caratterizzava come comunicazione da un
individuo ad un altro individuo, mentre la stampa piuttosto come
comunicazione ad un gruppo assai vasto ed indistinto.
Il computer è sotto questo aspetto parzialmente differente da ambedue
i sistemi, perché dispone di una capacità logica sua propria che si
interpone fra il soggetto e l'oggetto della comunicazione. Ma, per
quanto strano possa sembrare, si avvicina piuttosto al manoscritto (e
anzi lo supera), perché la sua capacità logica permette all'oggetto
della comunicazione di intervenire in maniera dialettica ma coerente
rispetto alle intenzioni del soggetto, stabilendo con ciò un dialogo
per lo meno implicito. Quel dialogo che era esaltato dal manoscritto e
mortificato dalla stampa.
Per quanto riguarda il secondo punto, che il computer venga usato
sostanzialmente con i criteri validi per la stampa si deduce
abbastanza chiaramente (e si potrebbero fare alcune distinzioni, ma di
poco rilievo) dal fatto che tutti quelli che lo usano pensano a
produrre come risultato finale un'edizione a stampa. Per questo i
passaggi precedenti possono essere orientati in un solo modo, anche se
risultano in qualche modo modificati dall'impiego della macchina.
Da questo discende che, se si accettano come vere le caratteristiche
della macchina che abbiamo sopra delineato, il suo uso NON come
sostituto, ma come ANTECEDENTE della stampa è fondamentalmente
errato. Bisognerà dunque trovare l'uso della macchina specificamente
coerente con le sue caratteristiche: non solo quelle che abbiamo
delineato finora, ma anche altre.
6. Di nuovo occorre qui introdurre il punto di vista dell'informatica
come disciplina che può anche prescindere dalla macchina. Si tratta
infatti, da un lato, di mettere a confronto strumenti di comunicazione
delle informazioni di tipo vario, dunque utilizzando una scienza che
non si occupa di uno solo di quegli strumenti; dall'altro, di
interrogarsi davvero sul fenomeno dell'informazione, e in esso
inquadrare il problema della trasmissione dei testi antichi: compito
che non può essere di competenza di una scienza dipendente dalla
macchina.
Dichiariamo anche che useremo (come del resto abbiamo già fatto) il
termine di "codifica" al posto di quello per certi lati più pertinente
di "espressione" per sottolineare un maggior senso tecnico dato al
concetto, ed un certo disinteresse per l'oggetto primario (a livello
di esperienza vitale) dell'espressione o della codifica.
Partendo dall'autografo (sia pure come punto di riferimento forse non
del tutto reale, forse mai esistito, ma idealmente utile; lo stesso si
può dire dell'archetipo), esso potrà essere visto come la codifica su
supporto cartaceo del testo, cioè del prodotto di un linguaggio che
esprime (qui si non si può fare a meno dell'"espressione", perché non
si tratta di codifica) le intenzioni dell'autore. Le successive copie
manoscritte rappresentano uno sforzo di riprodurre in maniera
soprattutto ANALOGICA, su un medesimo supporto, quella codifica, o più
precisamente quell'insieme di strutture codificate.
Qui abbiamo già i primi accenni di interazione fra codifica di un
linguaggio e riferimenti a ciò che esso esprime. Si possono avere
infatti degli interventi da parte del curatore del manoscritto,
soprattutto quando sembra che la codifica che si trova nel "modello"
non sia conforme, prima di tutto, alla volontà espressiva dell'autore,
e quindi alla (probabile) codifica originale dell'"autografo" (o
archetipo).
Finché questo resta nell'ambito di una tradizione manoscritta, non
crea molti problemi, come si è visto storicamente (in quanto il lavoro
delle edizioni antiche è stato importante ma relativamente modesto),
ma anche si può giustificare teoreticamente. Intendo dire che una
interazione del tipo di cui abbiamo parlato viene naturale in presenza
di un ambiente di scambio (ambiente culturale) ristretto come numero
di persone, e di criteri di produzione del materiale scritto inseriti
direttamente nel contesto culturale dei riceventi (e spesso
contemporanemente degli autori, sia pure lontani nel tempo). Un
manoscritto viene generalmente prodotto per una persona e con un scopo
preciso; la produzione è culturalmente "mirata".
Con l'avvento della stampa (sia pure dopo un necessario processo
storico) il clima cambia radicalmente, soprattutto con la distinzione
fra problemi di vera e propria codifica e problemi di critica
ermeneutica. Il filologo "puro" non si pone come fine di giudicare il
testo di cui si occupa, ma di restituirne quanto più fedelmente
possibile la forma originale. E' chiaro che questo presuppone una
conoscenza storico-linguistica ed anche un giudizio "ermeneutico" di
base, al di là di ogni capacità tecnica di indagine paleografica e
statistica sulle varianti; e tuttavia proprio il prodotto finale
tipico del lavoro del filologo (la pura edizione critica) esclude ogni
evidente apprezzamento ermeneutico.
Ma ci si chiede allora: che cosa e come davvero vuole riprodurre il
filologo? Non la codifica dei manoscritti in quanto tale (dopo il
primo errato approccio "analogico" dei primi stampatori); e nemmeno la
codifica in senso fisico (si pensi anche alla divisione delle linee, a
segni diacritici vari etc.; che anzi si aggiungono e si mutano segni
di paragrafo e punteggiatura etc.) del più o meno supposto autografo o
archetipo. Siamo comunque ad un ibrido, che tramite un nuovo tipo di
codifica (appunto la stampa, con la sua caratteristica di
riproducibilità analogica quasi all'infinito) si pone a mezzo fra il
testo dell'autore come pura espressione linguistica non materialmente
codificata ed "un" manoscritto come codifica "ad hoc" (per un fine
preciso, per lettori precisi) con le sue caratteristiche culturali
soggettive e dunque con la probabilità di travisamenti (errori o
interventi etc.).
Questo prodotto era evidentemente il meglio che si poteva concepire,
quando si poteva ragionare solo in termini di stampa, come supporto di
codifica. Oggi può non essere più così, alla presenza di un supporto
di codifica assai più sofisticato, ma soprattutto (e anche di
conseguenza) di un atteggiamento anche teorico di "informatizzazione"
che supera il mero rapporto con la macchina, col riconoscerne la
caratteristica di operare (anche) LOGICAMENTE, dunque in qualche modo
attivamente, e non solo passivamente.
7. Secondo il nostro punto di vista, l'informatica offre una
metodologia, se non risolutiva, per lo meno molto interessante per
chiarire tutte le questioni inerenti alla trasmissione dei testi
classici. Abbiamo già accennato al fatto che due degli elementi
costitutivi di questa metodologia sono: la CODIFICA e la LOGICA
FORMALE. E' ora il momento di approfondire la loro incidenza sul tema
che stiamo trattando.
7a. L'informatica ci insegna che una codifica attraverso la quale si
trasmette informazione (trasmette qui può anche avere senso solo
implicito: poter trasmettere) può essere manipolata e mutata a
piacere, purché si resti costantemente nell'ambito di una
corrispondenza biunivoca fra i vari sistemi di (trans-)codifica. E'
questo il principio in base al quale è possibile "copiare" un
manoscritto, farne un'edizione a stampa, o anche immagazzinarlo in una
memoria magnetica.
Tuttavia l'"equivalenza" fra due codifiche differenti (sia
intrinsecamente, sia anche per il solo fatto che uno stesso sistema è
applicato su due supporti differenti in tempi differenti) ha un doppio
significato: puramente formale, e sostanziale. Dal punto di vista
formale, significa soltanto che ad ogni SEGNO di un codice possiamo
essere sicuri che corrisponda un solo SEGNO dell'altro codice. Dal
punto di vista sostanziale, significa che attraverso l'uso di ambedue
i sistemi di codifica viene "espressa" (qui torna questo termine) la
medesima informazione.
Si tratta di due valenze distinte, che potremmo chiamare FORMALE e
SEMANTICA. Noi abbiamo accennato sopra che l'informatica non si
occupa, di per sè, della seconda valenza (semantica) del principio di
codifica; ma naturalmente non la può ignorare. Essa fa presente al
filologo soprattutto due cose:
1. Che la valenza formale della codifica è sicura, ma che da questo
punto di vista ciò che è possibile (trans-)codificare è solamente UN
manoscritto.
2. Che la valenza semantica è assai meno sicura, ma d'altra parte è
quella che davvero interessa poi gli utilizzatori del lavoro del
filologo (consueto intreccio di ecdotica ed ermeneutica cui si
accennava prima), ed è quella che giustifica il lavoro "critico" di
confronto e (tentata) unificazione (riduzione all'originale:
archetipo, autografo...) dei manoscritti a disposizione.
La conseguenza importante è che se si accetta, e nei limiti in cui si
accetta, la valenza semantica, deve esser possibile trovare una
codifica in cui i segni siano in corrispondenza biunivoca non già con
"una" delle forme dei semantemi, ma col loro "senso" o "significato"
(in senso molto restrittivo). Oltretutto in questo processo la
macchina può avere un'utilizzazione importantissima, in quanto si basa
alla radice su un alfabeto binario, dal quale si formano poi altri
livelli di alfabeti complicati a piacere di chi la gestisce.
Non si tratta di una strada già segnata, ma di una serie di tentativi.
Essi vanno, per es., da uno di tipo molto semplice, quale quello della
uniformazione grafica, su cui si può trovare un sostanziale accordo
(coelum/caelum; sed/set; causa/caussa; etc.), ad altri di tipo più
discutibile quale quello di interventi sintattici
(indicativo/congiuntivo: faciunt/faciant etc.).
In tutti questi casi la codifica può essere fatta in modo che il testo
possa essere automaticamente uniformato (nel senso voluto dal singolo
editore, o addirittura dal fruitore) quando lo si vuole; ma che
restituisca le caratteristiche di un singolo codice, quando lo si
ritenga opportuno.
7b. Per quanto riguarda la logica formale, i procedimenti propri
dell'informatica, che derivano (almeno per quello che è la situazione
attuale) da un tipo di logica dei predicati legato all'algebra c.d. di
Boole ed alla teoria degli insiemi, ci portano direttamente al cuore
del problema dei rapporti fra il "documento" e la "interpretazione"
(cui si accennava prima parlando di ecdotica e di ermeneutica).
Di nuovo siamo di fronte al problema di "vitalità" degli strumenti
della trasmissione e diffusione del testo (cioè dell'informazione). E'
noto (dopo gli sviluppi non solo dello storicismo ma anche della
fenomenologia) che la ricezione totalmente oggettiva dell'informazione
è un'idea utopica, e dunque che l'esistenza di un testo "oggettivo",
in sè, avviene soltanto a livello puramente materiale e formale
(codifica nel primo senso esposto sopra), e come tale inservibile per
il lavoro ermeneutico, che è quello che davvero importa.
D'altra parte, quella di giungere alla valutazione di un testo quanto
più possibile vicina alle intenzioni dell'autore, e non dei critici, è
un'esigenza insopprimibile, senza la quale si negherebbe la
possibilità di ogni approccio storicistico.
Una delle possibili soluzioni è quella di escogitare e di dichiarare
molto chiaramente la metodologia che si segue nell'eseguire il lavoro
ermeneutico su quella che prima di esso è soltanto un prodotto di
codifica. Ebbene, se quella metodologia fa propri i principi della
logica formale, la sua applicazione al testo può essere addirittura
automatizzata, cioè eseguita materialmente dalla macchina.
Questo ha tre vantaggi: 1. Quello di poter processare con sicura
uniformità una quantità di dati talmente grande, da non poter
sicuramente essere presente alla mente di qualsiasi studioso nel suo
insieme (con relativa possibilità di difformità metodologiche più o
meno inconsce). 2. Quello di poterlo fare in un tempo assai ridotto.
Questo è un vantaggio meno importante teoricamente, ma i cui effetti
non tarderanno a notarsi sullo sviluppo delle discipline umanistiche.
3. Quello di avere a disposizione un mezzo sicuramente imparziale per
applicare la metodologia scelta.
Quest'ultimo vantaggio è per noi di gran lunga il più importante,
soprattutto se lo si vede unito alla possibilità da parte di chi
riceve l'informazione (se ha disponibile anch'egli una macchina, e
dunque la riceve codificata in modo binario = elettronico) di
intervenire direttamente sulla metodologia, per sperimentarne una
parzialmente o totalmente differente, e valutarne i risultati.
Con questi sitemi, quel carattere "ibrido" che avevamo indicato come
tipico della stampa (cioè di porsi come qualcosa a mezzo fra il testo
idealmente originale e quello materialmente esistente in un
manoscritto) viene a risolversi tramite la chiarificazione estrema
delle operazioni informatiche riconosciute nella documentazione a
nostra disposizione e condotte su di essa per ricuperare nella
globalità quello che non è offerto dal singolo documento.
8. Fin qui la teoria; ma per quanto riguarda la prassi? Penso che gli
interrogativi oggi siano soprattutto due: se sia davvero possibile
procedere sulla strada sopra indicata, dati i mezzi di cui possiamo
disporre; e se tale strada sia già stata in qualche modo imboccata da
qualcuno, per poter dire che non sia piuttosto una fantasia o un pio
"desideratum".
Vorrei partire da questo secondo interrogativo, e rispondere in
maniera forse un po' provocatoria, dicendo che, per quanto strano
possa sembrare, tutti coloro (e non sono pochi) che hanno utilizzato
sistemi informatici (in sostanza il calcolatore) possono essere citati
come esempi dell'aver imboccato quella strada e dell'aver ottenuto già
alcuni risultati.
Infatti quello che abbiamo tentato di fare sopra non è stato di
indicare qualche metodo rivoluzionario nell'uso dell'informatica, ma
solo di interpretare nella maniera più coerente possibile le
esperienze fatte finora.
Si potrà obiettare che in concreto non molto hanno portato quelle
esperienze, e l'abbiamo già detto noi stessi. Ma risultati negativi e
discussioni suscitate spesso non sono meno importanti dei risultati
pratici. Si pensi appunto al rinnovato fervore di discussioni intorno
alle teorie del Quentin; alla qualificazione o meno delle varianti; al
modo di presentare (sia pure in stampa) il testo critico. Molto di
questo non si sarebbe avuto, senza i nuovi orizzonti aperti
dall'informatica.
Occorre andare più in là (e qui veniamo al primo degli interrogativi
che avevamo proposto). Ma come? Prima di tutto prendendo coscienza
della sfida logica e metodologica (non solo pratica) che ci pone
l'informatica. E quanto al lato operativo, cercando di mettere a punto
sempre di più e sempre meglio dei sistemi INTERATTIVI fra macchina e
studiosi. Sottolineo il plurale, studiosi; perché occorre considerare
sia chi propone un lavoro critico sia chi si pone in un primo momento
come ricevente di tale lavoro, ma può diventare a sua volta proponente
di qualcosa di diverso.
La base, il punto di partenza di un sistema interattivo, non può che
essere ciascuno singolo codice codificato (in codifica binaria) nella
maniera più opportuna (anche su questo sarebbe bene aprire una
discussione). Il contributo poi degli studiosi deve consistere nel
proporre da un lato i tipi di programmi gestionali più adatti (dal
semplice confronto dei testi ad un programma, per es., che trasformi
delle concordanze in banca dati), e dall'altro degli interventi
diretti (sotto forma di "glosse" o note elettroniche, che per es.
appaiano a volontà sullo schermo in corrispondenza dei passi a cui si
riferiscono), che stanno al posto delle emendazioni, del riempimento
delle lacune, etc.).
Il tutto dovrebbe continuare poi col lavoro interpretativo e storico,
che applicherebbe al materiale così formato, quasi come a una banca
dati, metodi di interrogazione e di gestione (e di annotazione...)
suoi propri.
Tutto questo dovrebbe permettere il computer, a differenza della
stampa. Si tratterebbe, ripetiamo, non di una rivoluzione
metodologica, ma di uno svolgimento più chiaro, coordinato, e coerente
(vorrei dire più logico) di un lavoro che un sistema che oggi appare
rudimentale come la stampa permette di compiere solo lentamente,
faticosamente, e pertanto in modo più confuso.
SEGNALAZIONI BIBLIOGRAFICHE.
AA VV, Il libro e il testo (Atti del Convegno internazionale,
Urbino 20-23.9.1982), Urbino (Università degli Studi) 1985. Cf.
specialmente: G. CAVALLO, Frammenti di un discorso grafico-
testuale, p. 415-430; A. PETRUCCI, Minuta, autografo, libro
d'autore, p. 397-414.
AA VV, La pratique des ordinateurs dans la critique des textes, Paris
(Ed. du CNRS) 1979. Per quanto ci riguarda, cf. specialmente: J.
FROGER, La méthode de Dom Quentin, la méthode des distances et le
problème de la contamination, p. 13-22; C. SEGRE, Les transcriptions
en tant que diasystèmes, p. 45-50; J. G. GRIFFITH, Non-Stemmatic
Classification of Manuscripts by Computer Methods, p. 73-86; R.
MARICHAL, Conclusions du colloque, p. 285-288.
AA VV, Probleme der Edition Mittel- und Neulateinischen Texte
(Colloquium der DFG, Bonn 26-28.2.1973), Boppard (Boldt) 1978.
D'Arco Silvio AVALLE, Principi di critica testuale, Padova (Antenore)
1972.
Susan HOCKEY, A Guide to Computer Applications in the Humanities,
Baltimore-London (J. Hopkins U.P.) 1980.
L. D. REYNOLDS - N. G. WILSON, Scribes and Scholars, Oxford (Oxford
U.P.) 1968 (tr. it.: Copisti e filologi, Padova, Antenore, 1974).
Fabio SARTOR, Filologia Classica e Computer, "Informatica e
Documentazione", 11, (1984) 286-306 (con ampia bibliografia).
Sebastiano TIMPANARO, La genesi del metodo del Lachmann, Firenze (Le
Monnier) 1963.