1. GUIDO VETERE
Dai dati alla conoscenza, passando per l’informatica.
Guido Vetere
1 Introduzione
Un diluvio di dati ci sta sommergendo. Dati più o meno strutturati, prodotti da processori sempre più pervasivi e da utenti sempre più attivi. L’ecosistema digitale produce migliaia di petabyte all'anno, e la situazione peggiora (o migliora, dipende dai punti di vista) di giorno in giorno. Per le macchine di calcolo, i dati sono ancora oggi per lo più una massa amorfa di byte, ma a noi umani queste sequenze di zero e uno interessano solo in quanto informazione e conoscenza. Trasformare il piombo dei dati nell’oro del sapere in seno agli automi stessi, traendone immensi vantaggi, è l'obiettivo di un'alchimia moderna che si coltiva con le tecnologie dell’informazione. La pietra filosofale degli antichi alchimisti donava l'onniscienza; l’informatica di oggi, applicata ai dati, dovrebbe analogamente promuovere i byte al rango del sapere.
Come può avvenire questa magia? Alcuni degli esoterismi informatici che si suppone siano in grado di compierla si chiamano “tecnologie semantiche”, il cui paradigma è dato dal cosiddetto “semantic web”. Grazie a queste tecnologie, le macchine avrebbero accesso al significato dei dati, e potrebbero fare ragionamenti che oggi sono appannaggio esclusivo del genere umano. Certo, messe da parte certe hype iniziali dei soliti venditori di visioni, nessuno può oggi nascondersi la difficoltà di realizzare cose di questo genere. La stessa denominazione, peraltro, può apparire controversa: letteralmente, una “tecnologia semantica” dovrebbe essere l’applicazione per mezzo dei calcolatori di una “scienza del significare” che tuttavia filosofi e linguisti, in millenni di ricerca, non hanno fornito in modo definito e stabile. Basti pensare che molti tra essi hanno sostenuto che della semantica non si dà scienza, ma al più storia (De Mauro, 1999). Se lo sviluppo dell’elettronica poggia sulla fisica dell’elettromagnetismo, e quello dell’informatica sulla logica formale, non è chiaro dunque quali possano essere le fondamenta teoriche di una “tecnologia semantica”.
Tuttavia, la trasformazione informatica dei dati in conoscenza è un’impellente necessità, a cui in qualche modo si deve sopperire. A quella che si può chiamare “ascesa epistemica” del dato sono legate le sorti dell’economia in senso lato, non solo cioè del commercio e dell’industra, ma anche del benessere immateriale, della partecipazione sociale e politica, del buon governo. Solo passando dai byte agli elementi della conoscenza (qualsiasi cosa essi siano) i sistemi informatici possono sollevare l’utente dalla pena di essere l’unico a capire cosa succede in giro per la rete. E l’ascesa epistemica del dato avviene davvero, in molti sistemi effettivamente realizzati, così come avviene davvero che, umanamente, riusciamo a comprenderci pur senza avere un’idea precisa di cosa sia il significato. Si tratta però di un’ascesa che si costruisce caso per caso, sistema per sistema, integrazione per integrazione, tabella per tabella, record per record, con gran fatica, ingenti costi, e spesso risultati insoddisfacenti.
Comprendere come realizzare efficacemente sistemi di rappresentazione e processi di trattamento della conoscenza, considerando di volta in volta requisiti e vincoli, fa la differenza tra successo e fallimento di qualsiasi sistema informativo di qualche complessità. Si confrontano su questo terreno due filoni di ricerca: uno che insiste sull’aumento delle capacità di calcolo, un altro che insiste sulla qualità dei modelli e la loro aderenza alla realtà. Non che calcoli e modelli siano in contrapposizione, naturalmente. Ma di fatto si registrano alcuni atteggiamenti estremi, come quelli di chi, grazie al calcolo, vorrebbe eliminare i modelli, o quelli di chi punta all’espressività dei modelli trascurando i problemi di calcolo.
Ciò che segue è una breve discussione che si propone di delineare il ruolo dei modelli informatici come costruzioni ipotetico-deduttive, le quali svolgono un ruolo fondamentale nel passaggio dei dati alla conoscenza all’interno di processi costruttivi improntati al paradigma delle scienze.
2 Modelli e teorie
In un suo famoso editoriale sulla rivista Wired del 2008, Chris Anderson sostiene che la quantità di dati disponibili, e la capacità di processarli, segnerà la fine del metodo scientifico basato sulla nozione di teoria: «possiamo analizzare i dati senza alcuna ipotesi su ciò che mostrano» (Anderson, 2008). Anderson si appella anche all’autorità di Peter Norvig, direttore della ricerca di Google, che parafrasando il celebre motto di George Box dice: «tutti i modelli sono sbagliati, e sempre più spesso possiamo farne a meno». Che si tratti di ingenuità, di provocazioni intelletuali o più banalmente di marketing, queste posizioni ci riportano al tempo del positivismo, quella declinazione dell’idealismo romantico che considerava il progresso scientifico come qualcosa di “necessario e continuo” (Abbagnano e Forniero, 1999) situato al di sopra nella necessità storica di teorizzare. In effetti, i venditori di visioni tecnologiche dipingono spesso grandi affreschi a tinte positivistiche in cui i dati divengono conoscenza in virtù delle magnifiche proprietà di qualche algoritmo, di qualche linguaggio di markup, o della potenza di qualche nuova macchina (o ‘nuvola’) di calcolo.
In realtà, né algoritmi, né linguaggi, né calcoli, per quanto efficienti e sofisticati, possono esonerarci dal dover codificare le nostre conoscenze in forma di teorie riguardanti le cose di cui ci si occupa, che i sistemi e i loro utenti dovranno sottoporre all’esercizio concreto. L’epistemologia novecentesca, con Popper e Kuhn (Popper, 1970; Kuhn, 1979), ha chiarito il carattere ipotetico, costruttivo e storico delle nostro sapere, insito nella natura della conoscenza, che è sempre e comunque fatta di rappresentazioni non riducibili al processing delle osservazioni empiriche. Le tecnologie sono ben riconoscibili come costruzioni sociali in cui la decisione dell’uomo è sempre all’opera (Bijker et al, 1987), e non sembra che il “neopositivismo tecnologico” di oggi possa andare oltre a quelle facili iperboli che infestano il mercato delle idee.
In ogni caso, anche se scevri dall’illusione di avere in tasca qualche silver bullet tecnologico, coloro i quali affrontano la conoscenza col mezzo dell’informatica fanno in genere ricorso a risorse teorico-pratiche, a principi e metodi. L’indagine scientifica, col suo gioco di ipotesi, deduzioni e verifiche, presenta un paradigma che ha molto in comune col difficile lavoro dell’informatico. I modelli di cui si nutre la computer science non appaiono come astratti dettati metafisici, bensì come modeste (ma in genere oneste) teorie descrittive delle entità e delle relazioni con cui gli addetti forniscono alle macchine alcune provvisorie rappresentazioni, per sottoporle alla prova dei fatti. Il successo di un approccio modesto al trattamento automatico della conoscenza non dipende allora dalla garanzia formale di qualche tecnologia, ma dall’adeguatezza empirica delle ipotesi, cioè dalle qualità sostanziali delle teorie che siamo in grado di formulare a beneficio delle macchine. Se questo è vero, allora, in informatica, non si può fare a meno di entrare nel merito di queste qualità, di guardare alla sostanza delle soluzioni, problema per problema.
Con buona pace dei tecno-positivisti, l’informatica di oggi fa largo uso modelli: schemi, classificazioni, regole. Questi sono spesso tra loro competitivi, e si valutano empiricamente, confrontando e aggiornando paradigmi, come avviene nelle scienze fisiche e naturali. Nella progettazione di sistemi informativi, i modelli sono di solito destinati a catturare enti e relazioni del “dominio di interesse” o dell’ambiente operativo, allo scopo di ricondurre i dati ad enti e processi. Questi modelli non contengono necessariamente impegni ontologici ben riconoscibili; essi si collocano infatti, in prima approssimazione, al livello delle costruzioni logiche. Come i simboli di predicato in una teoria logica, classi e relazioni di cui si compongono sono del tutto privi di significato, fintanto che non sono messi in relazione rispetto a qualcosa al di fuori del linguaggio, vale a dire ad un “mondo”. In informatica, ciò si fa di solito implicitamente, utilizzando il linguaggio naturale come “colla semantica”. Semplicemente, le classi e le relazioni sono identificati con parole il cui significato dovrebbe intuitivamente dare all'utente un'idea dell’interpretazione intesa dal progettista rispetto al dominio di interesse. Tuttavia, nulla in un modello, classi, relazioni o etichette linguistiche, implica che qualcosa esista davvero, o che sia da tutti referenziato mediante gli stessi significanti. Un modello può mettere insieme cose fittizie ed enti della vita quotidiana, o mischiare metadati tecnici e nozioni di business, come accade effettivamente per molte applicazioni anche serie e funzionanti. Viceversa, esso può omettere nozioni fondamentali del dominio applicativo semplicemente perché esse non sono menzionate nelle specifiche del sistema. In effetti, a ben vedere, nulla in un modello concettuale garantisce un impegno nei confronti della realtà. In questa luce, la definizione classica di ontologia in voga oggi nelle scienze dell'informazione, e cioè “specificazione di una concettualizzazione” (Gruber, 1993) sembra un po’ fuorviante.
3 Vocabolari e ontologie
L’incontro dei modelli informatici con la realtà può avvenire con maggiore o minore mediazione del linguaggio naturale. In generale, i vocabolari (o business glossaries) che sono alla base di molte applicazioni si impegnano rispetto alle entità del mondo reale proprio attraverso la semantica del linguaggio naturale, qualsiasi cosa essa sia. Il loro scopo principale è quello di elencare e organizzare le nozioni caratteristiche del dominio applicativo, e di legarle alle risorse tecniche e informative. Dal momento in cui partono da concetti linguistici, invece che da esigenze applicative, e nella misura in cui il “linguaggio di business” è (avvertito come) seriamente impegnato rispetto alla realtà, i vocabolari sono di solito considerati come portatori di impegni ontologici stringenti. Tuttavia, perfino facendo professione del realismo linguistico più ingenuo, si vede bene che la relazione tra parole ed entità è ben lungi dall'essere semplice: vaghezza e polisemia sono i fenomeni che con più evidenza turbano la trasparenza ontologica del linguaggio. A guardar bene, l'ontologia di un vocabolario risiede nelle conoscenze di sfondo delle comunità che lo utilizza, ed emerge in situazioni e contesti specifici. Nel processo di creazione dei vocabolari per l’informatica, capita spesso che un contesto applicativo specifico divenga l’unico orizzonte semantico, e talune abitudini linguistiche vengano promosse surrettiziamente al rango di ontologia. Si comprende bene come l'obiettivo degli informatici sia quello di raggiungere una buona interazione uomo-macchina nei tempi e nel budget del progetto, non certo quello di fare filosofia o decostruzione linguistica. Ma un approccio disimpegnato, agnostico o ciecamente pragmatico può portare spesso a risultati scadenti in termini di riusabilità e interoperabilità, e dunque, alla lunga, alla diseconomia.
In informatica, le ontologie sono spesso considerate come un modo sofisticato di specificare modelli concettuali o vocabolari di business. Il loro contributo consisterebbe in questo caso nella ricchezza del linguaggio logico con cui si usa scriverle, e questo in effetti spiegherebbe come mai molta ricerca si sia indirizzata in questi anni non tanto all’ontologia in quanto tale ma alla logica descrittiva, cioè ad aspetti formali piuttosto che sostanziali. Ma c’è – o ci dovrebbe essere – un modo più corretto e specifico per guardare alle ontologie; c’è – o ci dovrebbe essere – un cambiamento di paradigma nella loro adozione. L’analisi ontologica (propriamente detta) si concentra infatti su ciò che esiste nel dominio di applicazione, a prescindere dai requisiti tecnici, dalle pratiche linguistiche, da ogni altra cosa. Le ontologie (quelle vere) non sono banalmente modelli concettuali fatti meglio, bensì modelli in cui ci si impegna su una specifica teoria delle entità reali su cui il sistema insiste. Esse mirano a modellare l'essenza di ciò che vi è nel mondo dei sistemi informativi, le proprietà fondamentali degli enti di cui ogni agente nell'ecosistema digitale dovrebbe essere a conoscenza (Smith e Welty, 2001). Questa essenza è ipotizzata come invariabile rispetto agli ambienti applicativi, le esigenze pratiche, le consuetudini linguistiche dei singoli agenti. Ciò che caratterizza un’ontologia non è dunque un formalismo, ma la prospettiva specifica che essa adotta (Guarino, 2009). Un’ontologia intesa da tutti gli agenti in modo coerente è quell’insieme di ipotesi che deve essere posta alla base di qualsiasi semantica per l’interscambio informativo di successo, consentendo la comunicazione e l’interoperabilità. Comprendere la necessità di questo tipo di artefatti non equivale alla capacità di produrli e metterli effettivamente in opera: l’analisi ontologica non è banale, richiede competenze specifiche ed è comunque legata a procedimenti ipotetici. Ma non comprendere bene il ruolo di questa analisi significa spesso, nell’information technology, sbagliare il progetto.
4 Conclusione
Che sia socialmente costruita o data in natura, la realtà, per definizione, esiste, ed è, per inciso, l’unica cosa che tutti abbiamo in comune. La comprensione dei dati con cui codifichiamo e scambiamo le nostre conoscenze mediante le tecnologie dell’informazione, in e tra diversi contesti culturali, passa necessariamente attraverso la loro promozione ad elementi conoscitivi della realtà. Questo non avviene grazie ad una magia tecnologica, ma grazie a metodi e risorse che sono frutto di procedimenti teoretici, i quali si estrinsecano in una varietà artefatti che chiamiamo modelli. In qualche modo, diretto o mediato, corretto o sbagliato, questi modelli sono modelli della realtà. Ma si tratta, come ogni teoria, di costruzioni culturali in cui sono all’opera (e alla prova) le decisioni dell’uomo. Battezzare i modelli informatici col nome di ontologie, con quel vezzo verbalistico in cui a volte indugiano gli informatici, non basta per far sì che concetti, relazioni e regole divengano d’incanto un’efficace teoria di quello che esiste. Una disciplina specifica che si occupa della realtà c’è però da molto tempo: si chiama appunto Ontologia (Ferraris, 2008), e forse si dovrebbe iniziare a metterne a frutto alcune individuazioni con maggiore convinzione.
Bibliografia
Abbagnano, N. Forniero, G. (1999), Protagonisti e testi della filosofia, Volume III, Paravia
Anderson, C. (2008) The End of Theory: The Data Deluge Makes the Scientific Method Obsolete, Wired, 16.07
Bijker et al. Editori (1987),The Social Construction of Technological Systems: MIT Press
De Mauro, T. (1999) Introduzione alla semantica, Bari, Laterza
Ferraris, M. (2008), Storia dell'ontologia (con altri), Milano, Bompiani.
Gruber, T (1993), A Translation Approach to Portable Ontology Specifications, Elsevier, Academic Press
Guarino, N. (2009), The Ontological Level: Revisiting 30 Years of Knowledge Representation Conceptual Modelling: Foundations and Applications. in: Essays John Mylopoulos, Springer Verlag 2009, pp. 52-67.
Kuhn, T. (1979) La struttura delle rivoluzioni scientifiche, Einaudi, Torino.
Popper, K. (1970) Logica della scoperta scientifica, Einaudi, Torino.
Smith, B. e Welty, C. (2001), Ontology: Towards a New Synthesis, negli atti di FOIS’01, ACM Press