Tito Orlandi

INFORMATICA, FORMALIZZAZIONE E DISCIPLINE UMANISTICHE

Tito Orlandi

Fra la disparata quantità di opinioni espresse sul fenomeno, ormai abbastanza consolidato, dell'utilizzazione dei computer da parte degli studiosi di discipline umanistiche(1), una sembra essere ormai condivisa largamente, anche perchá in fondo banale. Si tratta della facile previsione che, comunque si giudichi il fenomeno, le discipline umanistiche non potranno evitare il confronto con le nuove tecnologie informatiche, nelle loro varie possibilità offerte alla gestione o alla trasmissione dell'informazione sotto forma di testi linguistici, immagini, o suoni; e che queste tecnologie diventeranno altrettanto comuni come sono oggi la stampa, la fotografia, la registrazione dei suoni, la televisione, etc.

D'altra parte questa opinione nulla dice sul significato che tale confronto (e si potrebbe parlare addirittura di impatto, di cui si intravvedono oggi solo alcune avvisaglie) è destinato ad avere sul lavoro degli studiosi. Questo tema viene affrontato, volendo semplificare, da due punti di vista principali. Il primo è quello sociologico e antropologico. I temi che esso affronta sono p.es. l'eventuale tramonto del libro, l'integrazione di informazioni testuali e non testuali, le caratteristiche della lettura non lineare, le nuove possibilità in campo educativo e culturale, etc.; senza parlare delle conseguenze piú ampie in campo politico e sociale. Questo punto di vista esula completamente dalle questioni considerate in questo contributo.

I temi che vorrei affrontare riguardano invece il secondo punto di vista, cioè l'influsso che le tecnologie di origine informatica avranno o potranno avere sulla metodologia delle discipline umanistiche, quale si è sviluppata prima che quelle tecnologie facessero il loro ingresso in scena. Si noti che un'opinione condivisa da molti tende radicalmente a negare il tema stesso, affermando che, presentandosi le nuove tecnologie sotto forma di semplici macchine, piú sofisticate ma non essenzialmente diverse da quelle già esistenti ed usate, nessun influsso esse possono avere sulla metodologia delle discipline umanistiche, ma solo alcune delle conseguenze limitate all'aspetto pratico del lavoro degli studiosi.

È quest'ultima un'opinione da considerare col massimo riguardo, anche perchá parte da alcune premesse indubbiamente valide. Essa aiuta a ridimensionare, se non a rifutare, concetti come quello di intelligenza artificiale o processi neuronali, chiarendone il carattere puramente metaforico, e privo di fondate basi teoriche. L'idea di affidare alle macchine compiti di sintesi scientifica, se davvero si pesano le parole, risulta semplice fantascienza.

Ma sotto altri aspetti tale opinione trascura una serie di dati a mio avviso di grande rilevanza, che dimostrano come proprio le metodologie di ricerca (anche teoriche) sono destinate a mutare ove vengano utilizzati in tutta la gamma delle loro possibilità i nuovi strumenti che l'informatica mette a disposizione. Per illustrare come e perchá questo avvenga occorre preliminarmente esporre alcune considerazioni sulla natura e sull'uso di quegli strumenti.

Propongo prima di tutto la constatazione, ormai di comune dominio, che storicamente, nel campo dell'informatica, si è assistito ad un rapporto dialettico e complementare fra l'invenzione di macchine e riflessione sugli aspetti teorici del lavoro che esse compiono, nel quale è difficile stabilire una priorità all'uno o all'altro dei due aspetti(2). È accaduto a varie riprese che siano state prodotte delle macchine, nuove e potenti, ma con scopi limitati e praticamente semplici, e che soltanto dopo esse abbiano generato una riflessione teorica, che dunque ha seguito e non preceduto l'innovazione tecnologica. Cosí la pascalina (o se si preferisce la calcolatrice di Schickhard) ha preceduto le riflessioni di Leibniz; la macchina di Babbage le riflessioni di Boole; l'ENIAC le riflessioni di von Neumann; e se la celebre memoria di Turing(3) ha preceduto l'ENIAC, il suo significato sotto questo aspetto è stato compreso soltanto in un secondo tempo.

Tuttavia sono state proprio le riflessioni teoriche che hanno mostrato il vero significato dei risultati che si potevano ottenere con le macchine, e anche il vero significato dei procedimenti che esse richiedevano per ottenerli. Limitandoci ora al computer, il passo teorico decisivo (a mio modo di vedere) è quello che ha proposto (per la verità fino da tempi molto vicini alla costruzione dell'ENIAC, del Mark 2 di Manchester, se si vuole anche dello Z2 di Zuse) lo studio non del funzionamento materiale della macchina, ma del modello matematico che rappresenta la medesima macchina, o meglio i principi del funzionamento della medesima macchina.

È questo un passaggio particolarmente delicato, soprattutto in rapporto al tema qui affrontato, dei rapporti con le discipline umanistiche, perchá in un primo tempo esso ha dato luogo al noto pregiudizio che il problema potesse essere discusso appunto solo o in modo privilegiato in ambito matematico, e che il computer fosse appannaggio delle cosiddette ``scienze esatte''. La realtà non è cosí semplice, anche se quel pregiudizio non è del tutto falso; ed io credo di poter esprimere una visione diversa, pur evitando di addentrarmi in discussioni di tipo tecnico.

Prima di tutto si deve prendere atto che la teoria dei modelli matematici della computazione, che fondamentalmente è quella che va sotto il nome di ``teoria della ricorsività''(4), ha sviluppato una serie di riflessioni il cui oggetto e insieme il cui prodotto sono i linguaggi formali, da cui discendono le attuazioni pratiche conosciute come linguaggi di programmazione, dai cosiddetti ``linguaggi di macchina'' ai ``compilatori'' via via fino ai linguaggi evoluti, dal primo geniale Fortran al popolare Basic, e ai cosiddetti linguaggi di seconda, terza, quarta genrazione, e cosí via, fino a quelli ``orientati verso particolari realizzazioni'' (``object oriented'') etc.

Questi linguaggi formali, e la teoria sottostante, nascono dal concetto intuitivo di algoritmo, come metodo rigoroso di risolvere problemi, attraverso un numero definito di passaggi semplici ed univoci. Con questo si passa (direi impercettibilmente) da un concetto di modello matematico delle macchine a quello di modello matematico dei problemi. E di qui si comprende facilmente che l'aggettivo matematico viene opportunamente sostituito da quello meno preciso, ma piú aperto a sviluppi che toccano piú discipline, anche umanistiche, di ``formale''. In realtà è stato proprio il tentativo di dare un assetto formalmente rigoroso ai principi della matematica che ha determinato il nascere di discussioni essenziali per l'informatica (come scienza della computazione) e della stessa ``macchina di Turing''.

Occorre dunque fissare l'attenzione sul mondo teorico della formalizzazione. Di nuovo, come nel caso dell'algoritmo, ci troviamo di fronte ad un concetto intuitivo, non derivabile da precedenti assiomi, e dunque da definire al meglio mediante il linguaggio comune. Ed in effetti di formalità e formalizzazione si è discusso in vari ambiti ed in diverse epoche: p.es. in dipendenza dal concetto di ``forma'' in Aristotele e nella scolastica; ed in seguito nelle diverse concezioni post-rinascimentali da Descartes a Spinoza, fino a Kant.(5)

Ma è stato col rinascere degli studi della logica (appunto) formale, opposta a logiche di tipo trascendentale o speculativo, come quelle di Kant o di Hegel, che il problema ha assunto le valenze che qui ci interessano. Ricorderemo con Mangione(6) che alla metà del XIX secolo ``la ricerca matematica diveniva consapevole della necessità di una giustificazione di tipo `logico' dei suoi fondamenti'', ed in tal senso, mentre ``la geometria, a partire dagli Elementi di Euclide, ha sempre costituito il prototipo della teorizzazione matematica e quindi ― almeno dai greci in poi ― il terreno su cui si è confrontata l'analisi logica, fu l'algebra per il suo ruolo di scienza formale indipendente dal contenuto geometrico e numerico a fornire un modello per la nozione stessa di logica come scienza delle forme inferenziali.''

Siamo già qui sul terreno in cui ``formale'' si oppone a ``contenutistico''; ma un sottile e pur fondamentale spostamento si avrà piú tardi, negli anni '20, con Hilbert, massimo esponente della ``scuola formalista''. Di nuovo sulla scorta di Mangione (p. 519-520) ricorderemo che ``Hilbert accetta [...] un primo principio direttivo, secondo il quale, in accordo con Kant, `la matematica dispone di un contenuto certamente indipendente da ogni logica e non si può quindi assicurarle una fondazione con i soli mezzi della logica'. [...] con la teoria della dimostrazione si trasforma ogni proposizione matematica in una formula che può essere esibita concretamente; e ciò che in questo procedimento va assunto come dato `sono certi oggetti extralogici che sono intuitivamente presenti come esperienza immediata antecedente a ogni pensiero''.

In questo caso l'opposizione non è piú fra formale e sostanziale, ma fra formale e ``intuizionistico'', dove le intuizioni sono relegate ai puri dati immediati e non ad eventuali passaggi o regole della logica. Inoltre si chiarisce un punto importante, e cioè che il formalismo deve appunto consistere in formule di tipo algebrico. Occorre tuttavia tener presente, dal nostro punto di vista, che la polemica tra formalisti e intuizionisti ha solo un senso chiarificatore di problemi, e non fondante. Infatti la polemica fra formalisti e intuizionisti ha valore solo se si discute dei fondamenti di una scienza (p.es. della matematica); altrimenti è facile notare che anche gli intuizionisti fanno uso (e direi soprattutto) di formalismi.

A noi interessa andare, per quanto possibile, alla radice del formalismo; e per questo giova tornare alle problematiche di Leibniz e di Boole, per i quali la formalizzazione si oppone sí all'intuizione (come visione diretta del reale), ma soprattutto si oppone alla sua espressione in linguaggio comune (o naturale). Esso era ritenuto non produttivo all'interno di certi procedimenti, in quanto non sufficientemente univoco e preciso, in altri termini non obiettivo; e doveva essere sostituito con formule di tipo algebrico, che sarebbero state indiscutibili.

Le caratteristiche di queste formule, e dunque del formalismo, mi sembra si possano sintetizzare in quattro punti:
- L'uso di simboli al posto dei contenuti concreti, cosí come in algebra si usano simboli al posto di numeri.
- La definizione di poche operazioni essenziali per la manipolazione di tali simboli.
- L'assunzione di un piccolo numero di assiomi convenzionali.
- L'uso di simboli per indicare le operazioni sui simboli.
Con ciò si passa da un concetto intuitivo, e da una definizione alquanto vaga di formalizzazione come precisione o rigore, ad un criterio obiettivo per stabilire quando propriamente si possa parlare di formalismo, e dunque anche si arriva a stabilire la correttezza della formalizzazione in sá. È ovvio che questo non basta a stabilire la correttezza dei risultati ottenuti con le procedure formali, che dipendono anche dalla correttezza dei dati, e dunque del rapporto fra i dati e i simboli che li rappresentano; ma è essenziale che in questo ambito siano posti molto chiaramente i problemi metodologici del rapporto fra i dati e le procedure di analisi e di sintesi, insomma di giudizio, a cui essi sono sottoposti. Tali problemi sono appunto alla base anche delle discipline umanistiche, e con questo si torna alla questione posta inizialmente dei reali, profondi rapporti che possono intercorrere fra l'informatica e tali discipline.

Formalizzazione dei dati: i problemi connessi a questa procedura sono stati oggetto dell'attenzione degli stessi teorici dell'informatica solo quando essa ha trovato larga applicazione anche a scienze (diciamo cosí) non numeriche, e dunque relativamente tardi. In realtà ci si può chiedere se quei problemi siano meglio affrontati dagli informatici o dagli specialisti dei diversi campi di applicazione. Mi sembra opportuno che, per quanto riguarda le discipline umanistiche, siano i loro cultori ad occuparsene. Ciò non toglie che, offrendo gli informatici interessanti motivi di riflessione, essi debbano essere tenuti in seria considerazione.

Insegnano dunque gli informatici che, per ottenere risultati utili mediante la gestione dei dati, questi ``devono essere descritti in modo formale mediante modelli'' (7). I modelli, per quanto mi è dato di capire (dal momento che la concettualizzazione di questi procedimenti è tuttora in uno stato non troppo uniforme nella stessa informatica), sono la rappresentazione mentale delle relazioni fra i dati, e si possono studiare su due livelli diversi (Ausiello p. 182). Il primo livello è costituito dal cosiddetto ``modello concettuale'', o astratto, cioè da un modello universale sulla base del quale costruire i modelli concreti, riempiti coi dati dei singoli problemi, che rappresentano appunto il secondo livello.

Il primo livello è quello che qui piú interessa; ed è significativamente definito da Ausiello (p. 183) come quello in cui i modelli ``non sono rivolti tanto a descrivere la realizzazione informatica, quanto piuttosto la realtà di interesse(8); sono, per cosí dire, modelli rivolti verso la realtà, piú che verso il calcolatore.'' Essi si ottengono mediante il procedimento di astrazione, cioè ``un procedimento mentale che permette di evidenziare alcune proprietà, ritenute significative, degli oggetti osservati, escludendone altre giudicate non rilevanti.'' Si possono dare (sempre secondo Ausiello, ibid.) astrazioni di classificazione, attraverso le quali si giunge alla definizione di una classe cui appartengono oggetti aventi le medesime proprietà; di aggregazione, che definiscono un insieme di parti componenti o proprietà; di generalizzazione, che definiscono un insieme di classi; di specializzazione, che definiscono oggetti a partire da classi.

Come si vede, troviamo (finalmente) qui indicato abbastanza nei dettagli un procedimento concreto di formalizzazione, che appare assai importante anche nel campo delle discipline umanistiche. Esso dovrà essere discusso, in quanto implica concetti come quelli di proprietà, classe, contenuto, che per l'informatica generale possono essere assunti come intuitivi, meritano invece un approfondimento quando sono utilizzati nell'ambito delle metodologie umanistiche. Ma non è possibile farlo in questa sede; ci limiteremo a dire che quei concetti vanno posti alla base del metodo logicistico propugnato opportunamente dal Gardin(9) che a nostro avviso è alla base dell'utilizzazione dell'informatica in ambito umanistico. È invece opportuno discutere qualche altro problema.

Mi sembra che il concetto di modello sia molto importante anche nell'ambito delle discipline umanistiche come base dei procedimenti di formalizzazione, a patto che si mettano in evidenza due componenti essenziali del modello, che in altri ambiti hanno minore importanza, e dunque vengono lasciati come impliciti e non discussi. La prima componente è la necessità di individuare i dati, cioè di identificare precisi elementi singoli della realtà, in una realtà che di per sá si presenta invece alla coscienza come un flusso continuo di esperienze(10). La seconda è quella di esprimerli mediante simboli, chiarendo fino in fondo il rapporto fra i simboli e i dati reali.

Per approfondire la prima componente, ciò che in linguaggio informatico si direbbe il passaggio dal continuo della realtà al discreto dei dati, ritengo utile ricorrere al concetto husserliano dell'intenzionalità del soggetto, che nel flusso della propria esperienza individua appunto una serie di oggetti con una loro datità in senso husserliano. Questo permette di mettere in evidenza la funzione del soggetto, senza tuttavia schiacciare i dati su una pura soggettività che introdurrebbe un elemento di rigidezza non passibile di discussione, ma nello stesso tempo senza dare ai dati caratteristiche di evidenza primaria con conseguenze aberranti sulla valutazione dei risultati derivati dalla loro gestione, che essa sia fatta automaticamente o no.

Dunque i dati, che verranno poi espressi mediante simboli, sono il risultato di un atto soggettivo (o per lo meno anche soggettivo). Tale qualità essi naturalmente conservano nei loro rapporti coi simboli, sicchá nel ritornare dai simboli ai dati (una volta effettuata una computazione) occorrerà in qualche modo ristabilire il rapporto fra il dato ed il soggetto che lo ha espresso. Sin qui la base piú strettamente filosofica, e, ne sono cosciente, anche piú discutibile, del problema.

Vi è un altro lato, che chiamerei pragmatico, che riguarda l'aspetto della comunicazione dei dati. Sotto questo profilo occorre introdurre il concetto di informazione, come di una qualità eventuale della conoscenza (già come atto conoscitivo di un dato oggetto), che ne permette la comunicazione con altri soggetti. Tale qualità rimane tuttavia puramente potenziale, se scissa da una aspetto materiale che ne permetta di fatto la comunicazione, cioè in sostanza da un simbolo materializzato.

Giungiamo con questo alla seconda componente essenziale dei modelli, proposta sopra. Occorre premettere alla sua trattazione che l'uso dei simboli (a preferenza di termini lessicali) è talmente connessa storicamente con la matematica, e per suo tramite con le scienze che l'hanno assunta come loro sistema descrittivo privilegiato, che l'applicazione dell'informatica in tale ambito non ha dato luogo ad alcun dibattito teorico specifico.

Diverso è il caso delle discipline umanistiche, qui distinte dalle cosiddette scienze umane, che da tempo avevano anch'esse adottato la matematica. Il problema dei rapporti con questo tipo di linguaggio formale è stato risolto nella maggioranza dei casi col ``quantizzare'' le ricerche umanistiche (spesso per la verità sulla base anche di esperienze precedenti l'informatizzazione): intendiamo alludere alle metodologie della storia quantitativa, dell'archeologia statistica, della linguistica computazionale, della stilometria, dell'ecdotica probabilistica, etc. Il difetto di queste soluzioni (ciascuna delle quali ha una sua utilità molto relativa) sta nella confusione fra significato logico e significato matematico della formalizzazione e della computazione. Esse si limitano ad applicare quel particolare uso della logica formale che ne fa il possibile fondamento della matematica, e dunque equiparano in modo meccanico scienze della natura e scienze storicistiche.

Per superare questo limite occorre invece vedere nei simboli lo strumento per mettere in atto una computazione che riproduca in modo formale, per quanto e fino a quanto ciò sia possibile, i ragionamenti (che chiamerei storicistici) finora attuati nell'ambito delle discipline umanistiche. È perfino banale osservare che quei ragionamenti erano basati sul linguaggio naturale, e destinati a testi scritti, e quindi finalizzati alla lettura. Lo scambio di informazione fra studiosi (intendendo il termine in senso lato) avveniva tramite il processo materiale di lettura-scrittura.

Vi è a mio avviso una differenza sostanziale fra simboli destinati alla lettura, e simboli destinati alla computazione. Questi ultimi sono destinati a funzionare con un programma ben definito e prestabilito, anche se non strettamente dipendente da chi ha prodotto i simboli. I simboli destinati alla lettura sono invece funzionali ad un ambiente di competenza (comprensione del mondo reale) indefinita ma sicuramente grande, in parte coincidente con la competenza di chi scrive, e in cui competenza e gestione dei significati dei simboli in certo modo si confondono, e comunque interagiscono.

In altri termini, l'intelligenza (del lettore) gestisce significati, mentre la computazione gestisce simboli. Una certa confusione che può nascere dal fatto che il computer è capace di ``simulare'' l'intelligenza (metodi c.d. di intelligenza artificiale) rimanda comunque a procedimenti predefiniti, anche se piú complicati e flessibili. Ne consegue che nel caso dell'informatica c'è una frattura fra simbolo e significato che precede la gestione dei simboli, e pone il problema del ricongiungimento di simbolo e significato dopo la gestione, al momento della valutazione dei risultati ottenuti.

Con ciò siamo entrati, come era inevitabile data la qualità dei problemi affrontati, nel campo della semiotica, con cui ritengo necessario confrontarsi, anche se si vogliano mantenere le distanze da alcuni suoi fondamenti che possono apparire invadenti nei riguardi della ``visione del mondo''. Penso infatti che non sia necessario accettare tutti i presupposti filosofici dei maggiori rappresentanti della semiotica, per utilizzare importanti osservazioni e teorie da essi elaborate.

Vorrei far notare, a questo punto, che le discipline umanistiche sono di carattere storico, in senso vichiano, cioè si propongono di studiare oggetti, testi, avvenimenti, in quanto prodotti dalla mente umana, e, in parte, dalla volontà umana di comunicare con altri esseri umani, o comunque di agire su altri esseri umani o sul mondo del reale. Di conseguenza i dati studiati dalle discipline umanistiche sono da considerare veicoli di un messaggio, e in questo senso da sottoporre alle riflessioni della semiotica.

Gli oggetti che formano i dati della ricerca umanistica non vengono studiati al fine di trovare regole, leggi, o strutture, che siano interni ad essi (come in un certo senso si limitano a fare le scienze della natura, ed anche quelle ``umane'', nel senso di attualistiche come opposto a storicistiche, nei confronti dei loro dati); ma al fine di trovare la ``competenza'' (cf. sotto) che ha determinato la struttura etc. dei dati.

La semiotica conduce a mio parere all'approfondimento di molti concetti essenziali nel nostro contesto. Ne proporremo alcuni, sulla scorta della fondamentale e del resto equilibratissima opera di Winfried Noth(11). Prima di tutto la funzione del simbolo come qualcosa che ``sta per'': ``Peirce's specification that the ``standing for'' must be ``for something in some respect'' has the advantage of precluding a common misinterpretation. It says clearly that the relation of ``standing for'' is not one of substitution (...). The more precise nature of the ``standing for'' relation depends, of course, on the nature of the relata'' (p. 86). Questo significa che il simbolo, in quanto uno dei tanti segni possibili (cf. sotto), è materialmente indipendente di volta in volta dal suo correlato; ma in quanto funzionale, cioè nell'uso, è ad esso strettamente legato. La qualità di tale legame dovrà essere esplicitamente dichiarata.

La tipologia dei segni: ``Sebeok establishes a typology comprising six species of signs. His definitions are: Signal: When a sign token mechanically or conventionally triggers some reaction on the part of a receiver Symptom: a compulsive, automatic, nonarbitrary sign, such that the signifier is coupled with the signified in the manner of a natural link. Icon: when there is a topological similarity between a signifier and its denotata. Index: A sign is said to be indexic insofar as its signifier is contiguous with its signified, or is a sample of it. Symbol: A sign without either similarity or contiguity, but only with a conventional link between its signifier and its denotata, and with an intensional class for its designatum. Name: A sign which has an extensional class for its designatum'' (p. 108). Con questo giungiamo a definire abbastanza esattamente la natura del simbolo

Importante (soprattutto in informatica) è distinguere fra segno, significante, e veicolo segnico: The typology of signs is multidimensional. Since the sign is not a class of objects, and one and the same signifier may have many semiotic functions, a single sign vehicle may be perceived from several perspectives as belonging to several classes of sign. As Peirce observe, ``It is a nice problem to say to what class a given sign belongs; since all the circumstances of the case have to be considered''. Various dimensions of the typology of signs have been discussed by Eco. A possible general framework for distinguishing typologies of signs is Morris's syntax-semantics-pragmatics trichotomy. However, the syntactic dimension will be extended to sign- and code-related criteria, thus comprising not only the aspect of sign combination, but also the dimensions of structure and system'' (p. 109).

L'intenzionalità: ``Intention involves volition and goal-directed activity. In communication, intention is the addresser's conscious attempt to influence the addressee by means of a message, and the addressee's response is a reaction based on the assumption of intentions on the part of the addresser. Most visible bodily expressions of emotion are unintentional'' (p. 172). Questo ci conduce al concetto di competenza; ci può essere intenzionalità di un tipo, e messaggio recepito, anche correttamente, come se fosse derivato da una diversa intenzione(-alità).

Secondo le mie vedute, la competenza, per quanto attiene all'informatica, dunque in ambito formalizzato, è l'insieme di regole che hanno guidato un autore a produrre un determinato oggetto (nel senso di oggetto semiotico): p.es. un ``testo''. Questo sostituisce vantaggiosamente il piú banale richiamo al ``mondo reale'', spesso invocato dall'intelligenza artificiale, perchá riconduce husserlianamente all'intenzionalità dell'autore, che comprende in sá la parte soggettiva che organizza e struttura la sua visione del mondo reale, con la quale possiamo mettere in relazione (biunivoca) un nostro sistema di codifica.

In tema di competenza, e di coincidenza o non coincidenza (voluta o meno) della competenza, è importante naturalmente tener conto dell'autonomia del ricevente: ``(...) the still inadequate representation of the role of the receiver. To overcome these objections, models have been developed which emphasize the receiver's autonomy in communication processes first in text semiotics, and more recently also in communication theory'' (p. 178).

Con questo non vogliamo proporre una teoria semiotica nel campo dell'informatica, ma solo attirare l'attenzione su una serie di problemi che concernono quella che si chiama generalmente l'operazione di codifica, e che tanto spesso viene descritta come una necessaria ma banale trasposizione da un sistema ad un altro di segni perfettamente equivalenti. Quanto essi lo siano, o lo possano essere, davvero, è invece questione assai delicata che richiede approfondimenti impegnativi, sia sul piano pratico che teorico.

Sia concesso osservare che, da questo punto di vista, l'importante e apprezzabile proposta globale (in fatto di codifica dei testi scritti) denominata ``Text Encoding Initiative''(12) manca proprio di una preliminare discussione dei temi ora proposti.

Desidero comunque, a conclusione di questa parte, proporre una sintesi (anche visiva) del processo semiotico in cui si inseriscono le operazioni di codifica (e decodifica) per le applicazioni informatiche, che può fornire se non altro una base di partenza per ulteriori approfondimenti.

Descrizione verbale della tavola
Osservazione: i dati sono molto importanti anche nel determinare i confini fra le diverse discipline umanistiche. Se ci si fissa per questo sulle metodologie....[v. appunti]

È tempo di tornare al concetto di modello, al suo significato, ed alla sua applicazione nell'ambito delle discipline umanistiche. Finora abbiamo approfondito gli aspetti che riguardano i dati del modello ed i procedimenti per ottenerli, perchá sono generalmente trascurati sul piano teorico. Gli altri aspetti riguardano naturalmente il funzionamento del modello, cioè le relazioni che vengono poste fra i dati, e la gestione dei dati stessi, che in sostanza consiste nella trasformazione di quelle relazioni.

Per chiarire con un esempio concreto, quando si ``memorizza'' un testo, cioè lo si riproduce su memoria magnetica, le relazioni fra le lettere alfabetiche, e quindi le parole, ed inoltre gli altri elementi che concorrono a formare il testo insieme con le lettere alfabetiche, sono in sostanza le stesse relazioni che quei dati hanno nel testo scritto, cioè memorizzato su supporto cartaceo. Molto semplicemente, esse consistono nella sequenza dei dati. Quando si produce un indice, si cambia la sequenza dei dati, in modo che le parole assumano un ordine alfabetico; il tutto è accompagnato da una serie di calcoli, che permettono di affiancare alle parole l'indicazione simbolica (numerica) di ciascuna delle parole nella sequenza originale.

Allo stesso modo un archivio di dati (banca dati) riproduce in prima istanza le relazioni che i dati hanno, o si suppone che abbiano, nella realtà; quando si procede ad una interrogazione, si isolano alcuni elementi e si evidenziano delle relazioni che possono non coincidere con quelle originarie, anche se in esse sono in qualche modo implicite.

Questo tipo di procedimenti è analogo al lavoro che uno studioso compie sui dati, mediante procedimenti non formali, che possiamo chiamare ``convenzionali''. Egli applica ai dati la propria metodologia, e ne fornisce l'interpretazione, che dal punto di vista informatico consiste nell'ordinarli secondo un modello diverso, che corrisponde non piú a quello con cui i dati sono ordinati nella ``presa di coscienza'' iniziale da parte dello studioso, ma a quello con cui i dati erano ordinati secondo la competenza di chi li ha prodotti. In altre parole, lo studioso vuole trovare il significato dei dati: essi sono considerati a loro volta il risultato di procedimenti, dunque si tratta di trovare quali procedimenti li hanno prodotti. La struttura attuale dei correlati (le relazioni fra i dati) darà la chiave per comprendere i procedimenti che li hanno prodotti.

L'informatica aiuta a costruire modelli che potranno simulare tali procedimenti, in modo da verificare se, posta una struttura iniziale dei dati, sottoponendoli ai procedimenti supposti, si ottiene davvero la nuova struttura, corrispondente a quella che i dati hanno nella realtà. Occorre capire quanto di queste operazioni può essere formalizzato, in modo da mantenere il contatto fra la realtà e i modelli.

Il momento della identificazione dei dati (passaggio dal continuo al discreto) non può essere formalizzato. Esso fornisce la base di partenza, la cui giustificazione può consistere solo nella massima chiarezza nell'esporre le scelte compiute. La formalizzazione comincia con la scelta e l'assegnazione dei simboli, che avviene in quello che chiameremmo ambiente semiotico. Le strutture derivate possono essere formalizzate, almeno in parte. Con questo si tocca però il delicato rapporto fra l'intuizione e la logica nella metodologia delle singole discipline umanistiche, meglio ancora dei singoli studiosi, che ha dato appunto l'avvio alla sequenza di seminari i cui risultati sono pubblicati in questo libro, ed ai quali dunque rimandiamo per una prima discussione del problema.

NOTE

(1) Una visione generale in: Tito Orlandi, Informatica Umanistica, (Studi Superiori NIS, 78), Roma, La Nuova Italia Scientifica, 1990; Luciano Gallino (ed.), Informatica e scienze umane. Lo stato del\%l'arte, (Collana Gioele Solari), Milano, Franco Angeli, 1991; Fondazione IBM Italia, Calcolatori e scienze umane. Scritti del Convegno organizzato dal\%l'Accademia Nazionale dei Lincei e dalla Fondazione IBM Italia [Roma, 7-8 ottobre 1991], [a cura di Marcello Morelli], Milano, Etas Libri, 1992. Per una esauriente bibliografia, cf. G. Adamo, Bibliografia di informatica umanistica, Bulzoni, Roma, 1994.

(2) I testi rilevanti in: Brian Randell (ed.), The Origins of Digital Computers. Selected Papers, (Texts and Monographs in Computer Science), Berlin, Springer-Verlag, 1982 (Terza edizione). Cf. Gabriele Lolli, La Macchina e le dimostrazioni, Bologna, Il Mulino, 1987, p. 70.

(3) Cf. Rolf Herken (ed.), The Universal Turing Machine. A Half-Century Survey, Wien-New York, Springer, 1995.

(4) Hartley Rogers, Theory of Recursive Functions and Effective Computability, Cambridge (Mass.), MIT Press, 1988 (seconda edizione).

(5) Cf. Vito Fazio-Allmeyer in Enc.Ital. s.v. Forma.

(6) Corrado Mangione - Silvio Bozzi, Storia della logica. Da Boole ai nostri giorni, Milano, Garzanti, 1993, p. 16

(7) Giorgio Ausiello et all., Modelli e linguaggi dell'informatica, Milano, 1991, McGraw Hill Libri Italia, p. 175.

(8) Con questa espressione, invero non troppo felice, si intende quella porzione di realtà, cioè di fenomeni del reale, a cui è in quel momento rivolta l'attenzione del costruttore del modello.

(9) Rimandiamo alla nostra recensione di: Jean-Claude GARDIN, Maria Novella BORGHETTI, L'architettura dei testi storiografici, a cura di Ivo MATTOZZI, Bologna, Clueb, 1995; cf. anche id., La logique du plausible, Paris, 1987(2)).

(10) Mi richiamo qui in termini generali al passaggio dal pragmatismo alla fenomenologia in pensatori come Bergson o James, ma soprattutto al concetto husserliano della Erlebnisstrom, che a mio avviso procede oltre, ed è essenziale in questo contesto.

(11) Handbook of Semiotics, Indiana Univ. Press, 1990.

(12) Per una informazione generale: N. Ide, J. Véronis, Text Encoding Initiative. Background and Context, Dordrecht etc., Kluwer, 1995.