• If you are citizen of an European Union member nation, you may not use this service unless you are at least 16 years old.

  • You already know Dokkio is an AI-powered assistant to organize & manage your digital files & messages. Very soon, Dokkio will support Outlook as well as One Drive. Check it out today!

View
 

LIBRO per Paolo ZOCCHI

This version was saved 14 years, 1 month ago View current version     Page history
Saved by Attilio A. Romita
on February 2, 2010 at 12:32:35 am
 

IL MIO è QUI: LE COMMUNITY ONLINE PER LA FORMAZIONE NELL'ERA DEL WEB 2.0 

DANIELA MARATEA

 

Il mio è qui: Ci sono nuvole davanti a noi: scenari per il cloud computing nel settore pubblico

Scusate, ma con questo wiki non ci ho capito niente. Non ho trovato il template, non so come si carica un file, non ho capito quel è il criterio.

Insomma, intanto l'ho caricato così, poi sono disponibile a fornirlo in qualsiasi formato.

Paolo Subioli

 

 

“L’identità digitale  e la soddisfazione del diritto di cittadinanza nell’era di internet.

Il cittadino invisibile.”

Come si coniuga la tutela della privacy con la rappresentazione digitale dell’individuo. La leggerezza della soluzione dell’ID ,indispensabile al sostegno dell’utilità , potrà reggere alle pressioni  di un concetto  pesante della  sicurezza ?

Miranda Brugi – Sonia Massobrio

http://barcamp.org/Brugi-Massorbio-Identit%C3%A0-digitale#view=edit

 

 

1. GUIDO VETERE

 

Dai dati alla conoscenza, passando per l’informatica.

 

Guido Vetere

 

1     Introduzione

Un diluvio di dati ci sta sommergendo. Dati più o meno strutturati, prodotti da processori sempre più pervasivi e da utenti sempre più attivi. L’ecosistema digitale produce migliaia di petabyte all'anno, e la situazione peggiora (o migliora, dipende dai punti di vista) di giorno in giorno. Per le macchine di calcolo, i dati sono ancora oggi per lo più una massa amorfa di byte, ma a noi umani queste sequenze di zero e uno interessano solo in quanto informazione e conoscenza. Trasformare il piombo dei dati nell’oro del sapere in seno agli automi stessi, traendone immensi vantaggi, è l'obiettivo di un'alchimia moderna che si coltiva con le tecnologie dell’informazione. La pietra filosofale degli antichi alchimisti donava l'onniscienza; l’informatica di oggi, applicata ai dati, dovrebbe analogamente promuovere i byte al rango del sapere.

Come può avvenire questa magia? Alcuni degli esoterismi informatici che si suppone siano in grado di compierla si chiamano “tecnologie semantiche”, il cui paradigma è dato dal cosiddetto “semantic web”. Grazie a queste tecnologie, le macchine avrebbero accesso al significato dei dati, e potrebbero fare ragionamenti che oggi sono appannaggio esclusivo del genere umano. Certo, messe da parte certe hype iniziali dei soliti venditori di visioni, nessuno può oggi nascondersi la difficoltà di realizzare cose di questo genere. La stessa denominazione, peraltro, può apparire controversa: letteralmente, una “tecnologia semantica” dovrebbe essere l’applicazione per mezzo dei calcolatori di una “scienza del significare” che tuttavia filosofi e linguisti, in millenni di ricerca, non hanno fornito in modo definito e stabile. Basti pensare che molti tra essi hanno sostenuto che della semantica non si dà scienza, ma al più storia (De Mauro, 1999). Se lo sviluppo dell’elettronica poggia sulla fisica dell’elettromagnetismo, e quello dell’informatica sulla logica formale, non è chiaro dunque quali possano essere le fondamenta teoriche di una “tecnologia semantica”.

Tuttavia, la trasformazione informatica dei dati in conoscenza è un’impellente necessità, a cui in qualche modo si deve sopperire. A quella che si può chiamare “ascesa epistemica” del dato sono legate le sorti dell’economia in senso lato, non solo cioè del commercio e dell’industra, ma anche del benessere immateriale, della partecipazione sociale e politica, del buon governo. Solo passando dai byte agli elementi della conoscenza (qualsiasi cosa essi siano) i sistemi informatici possono sollevare l’utente dalla pena di essere l’unico a capire cosa succede in giro per la rete. E l’ascesa epistemica del dato avviene davvero, in molti sistemi effettivamente realizzati, così come avviene davvero che, umanamente, riusciamo a comprenderci pur senza avere un’idea precisa di cosa sia il significato. Si tratta però di un’ascesa che si costruisce caso per caso, sistema per sistema, integrazione per integrazione, tabella per tabella, record per record, con gran fatica, ingenti costi, e spesso risultati insoddisfacenti.

Comprendere come realizzare efficacemente sistemi di rappresentazione e processi di trattamento della conoscenza, considerando di volta in volta requisiti e vincoli, fa la differenza tra successo e fallimento di qualsiasi sistema informativo di qualche complessità. Si confrontano su questo terreno due filoni di ricerca: uno che insiste sull’aumento delle capacità di calcolo, un altro che insiste sulla qualità dei modelli e la loro aderenza alla realtà. Non che calcoli e modelli siano in contrapposizione, naturalmente. Ma di fatto si registrano alcuni atteggiamenti estremi, come quelli di chi, grazie al calcolo, vorrebbe eliminare i modelli, o quelli di chi punta all’espressività dei modelli trascurando i problemi di calcolo.

Ciò che segue è una breve discussione che si propone di delineare il ruolo dei modelli informatici come costruzioni ipotetico-deduttive, le quali svolgono un ruolo fondamentale nel passaggio dei dati alla conoscenza all’interno di processi costruttivi improntati al paradigma delle scienze.

2     Modelli e teorie

In un suo famoso editoriale sulla rivista Wired del 2008, Chris Anderson sostiene che la quantità di dati disponibili, e  la capacità di processarli, segnerà la fine del metodo scientifico basato sulla nozione di teoria: «possiamo analizzare i dati senza alcuna ipotesi su ciò che mostrano» (Anderson, 2008). Anderson si appella anche all’autorità di Peter Norvig, direttore della ricerca di Google, che parafrasando il celebre motto di George Box[1] dice: «tutti i modelli sono sbagliati, e sempre più spesso possiamo farne a meno».  Che si tratti di ingenuità, di provocazioni intelletuali o più banalmente di marketing, queste posizioni ci riportano al tempo del positivismo, quella declinazione dell’idealismo romantico che considerava il progresso scientifico come qualcosa di “necessario e continuo” (Abbagnano e Forniero, 1999) situato al di sopra nella necessità storica di teorizzare. In effetti, i venditori di visioni tecnologiche dipingono spesso grandi affreschi a tinte positivistiche in cui i dati divengono conoscenza in virtù delle magnifiche proprietà di qualche algoritmo, di qualche linguaggio di markup, o della potenza di qualche nuova macchina (o ‘nuvola’) di calcolo.

In realtà, né algoritmi, né linguaggi, né calcoli, per quanto efficienti e sofisticati, possono esonerarci dal dover codificare le nostre conoscenze in forma di teorie riguardanti le cose di cui ci si occupa, che i sistemi e i loro utenti dovranno sottoporre all’esercizio concreto. L’epistemologia novecentesca, con  Popper e Kuhn  (Popper, 1970; Kuhn, 1979), ha chiarito il carattere ipotetico, costruttivo e storico delle nostro sapere, insito nella natura della conoscenza, che è sempre e comunque fatta di rappresentazioni non riducibili al processing delle osservazioni empiriche. Le tecnologie sono ben riconoscibili come costruzioni sociali in cui la decisione dell’uomo è sempre all’opera (Bijker et al, 1987),  e non sembra che il “neopositivismo tecnologico” di oggi possa andare oltre a quelle facili iperboli che infestano il mercato delle idee.

In ogni caso, anche se scevri dall’illusione di avere in tasca qualche silver bullet tecnologico, coloro i quali affrontano la conoscenza col mezzo dell’informatica fanno in genere ricorso a risorse teorico-pratiche, a principi e metodi. L’indagine scientifica, col suo gioco di ipotesi, deduzioni e verifiche, presenta un paradigma che ha molto in comune col difficile lavoro dell’informatico. I modelli di cui si nutre la computer science non appaiono come astratti dettati metafisici, bensì come modeste (ma in genere oneste) teorie descrittive delle entità e delle relazioni con cui gli addetti forniscono alle macchine alcune provvisorie rappresentazioni, per sottoporle alla prova dei fatti. Il successo di un approccio modesto al trattamento automatico della conoscenza non dipende allora dalla garanzia formale di qualche tecnologia[2], ma dall’adeguatezza empirica delle ipotesi, cioè dalle qualità sostanziali delle teorie che siamo in grado di formulare a beneficio delle macchine. Se questo è vero, allora, in informatica, non si può fare a meno di entrare nel merito di queste qualità, di guardare alla sostanza delle soluzioni, problema per problema.

 

Con buona pace dei tecno-positivisti, l’informatica di oggi fa largo uso modelli: schemi, classificazioni, regole. Questi sono spesso tra loro competitivi, e si valutano empiricamente, confrontando e aggiornando paradigmi, come avviene nelle scienze fisiche e naturali. Nella progettazione di sistemi informativi, i modelli sono di solito destinati a catturare enti e relazioni del “dominio di interesse” o dell’ambiente operativo, allo scopo di ricondurre i dati ad enti e processi. Questi modelli non contengono necessariamente impegni ontologici ben riconoscibili; essi si collocano infatti, in prima approssimazione, al livello delle costruzioni logiche. Come i simboli di predicato in una teoria logica, classi e relazioni di cui si compongono sono del tutto privi di significato, fintanto che non sono messi in relazione rispetto a qualcosa al di fuori del linguaggio, vale a dire ad un “mondo”. In informatica, ciò si fa di solito implicitamente, utilizzando il linguaggio naturale come “colla semantica”. Semplicemente, le classi e le relazioni sono identificati con parole il cui significato dovrebbe intuitivamente dare all'utente un'idea dell’interpretazione intesa dal progettista rispetto al dominio di interesse. Tuttavia, nulla in un modello, classi, relazioni o etichette linguistiche, implica che qualcosa esista davvero, o che sia da tutti referenziato mediante gli stessi significanti. Un modello può mettere insieme cose fittizie ed enti della vita quotidiana, o mischiare metadati tecnici e nozioni di business, come accade effettivamente per molte applicazioni anche serie e funzionanti. Viceversa, esso può omettere nozioni fondamentali del dominio applicativo semplicemente perché esse non sono menzionate nelle specifiche del sistema. In effetti, a ben vedere, nulla in un modello concettuale garantisce un impegno nei confronti della realtà. In questa luce, la definizione classica di ontologia in voga oggi nelle scienze dell'informazione, e cioè “specificazione di una concettualizzazione” (Gruber, 1993) sembra un po’ fuorviante.

 

3     Vocabolari e ontologie

 

L’incontro dei modelli informatici con la realtà può avvenire con maggiore o minore mediazione del linguaggio naturale. In generale, i vocabolari (o business glossaries) che sono alla base di molte applicazioni si impegnano rispetto alle entità del mondo reale proprio attraverso la semantica del linguaggio naturale, qualsiasi cosa essa sia. Il loro scopo principale è quello di elencare e organizzare le nozioni caratteristiche del dominio applicativo, e di legarle alle risorse tecniche e informative. Dal momento in cui partono da concetti linguistici, invece che da esigenze applicative, e nella misura in cui il “linguaggio di business” è (avvertito come) seriamente impegnato rispetto alla realtà, i vocabolari sono di solito considerati come portatori di impegni ontologici stringenti. Tuttavia, perfino facendo professione del realismo linguistico più ingenuo, si vede bene che la relazione tra parole ed entità è ben lungi dall'essere semplice: vaghezza e polisemia sono i fenomeni che con più evidenza turbano la trasparenza ontologica del linguaggio. A guardar bene, l'ontologia di un vocabolario risiede nelle conoscenze di sfondo delle comunità che lo utilizza, ed emerge in situazioni e contesti specifici. Nel processo di creazione dei vocabolari per l’informatica, capita spesso che un contesto applicativo specifico divenga l’unico orizzonte semantico, e talune abitudini linguistiche vengano promosse surrettiziamente al rango di ontologia. Si comprende bene come l'obiettivo degli informatici sia quello di raggiungere una buona interazione uomo-macchina nei tempi e nel budget del progetto, non certo quello di fare filosofia o decostruzione linguistica. Ma un approccio disimpegnato, agnostico o ciecamente pragmatico può portare spesso a risultati scadenti in termini di riusabilità e interoperabilità, e dunque, alla lunga, alla diseconomia.

In informatica, le ontologie sono spesso considerate come un modo sofisticato di specificare modelli concettuali o vocabolari di business. Il loro contributo consisterebbe in questo caso nella ricchezza del linguaggio logico con cui si usa scriverle, e questo in effetti spiegherebbe come mai molta ricerca si sia indirizzata in questi anni non tanto all’ontologia in quanto tale ma alla logica descrittiva, cioè ad aspetti formali piuttosto che sostanziali. Ma c’è – o ci dovrebbe essere – un modo più corretto e specifico per guardare alle ontologie; c’è – o ci dovrebbe essere – un cambiamento di paradigma nella loro adozione. L’analisi ontologica (propriamente detta) si concentra infatti su ciò che esiste nel dominio di applicazione, a prescindere dai requisiti tecnici, dalle pratiche linguistiche, da ogni altra cosa. Le ontologie (quelle vere) non sono banalmente modelli concettuali fatti meglio, bensì modelli in cui ci si impegna su una specifica teoria delle entità reali su cui il sistema insiste. Esse mirano a modellare l'essenza di ciò che vi è nel mondo dei sistemi informativi, le proprietà fondamentali degli enti di cui ogni agente nell'ecosistema digitale dovrebbe essere a conoscenza (Smith e Welty, 2001). Questa essenza è ipotizzata come invariabile rispetto agli ambienti applicativi, le esigenze pratiche, le consuetudini linguistiche dei singoli agenti. Ciò che caratterizza un’ontologia non è dunque un formalismo, ma la prospettiva specifica che essa adotta (Guarino, 2009). Un’ontologia intesa da tutti gli agenti in modo coerente è quell’insieme di ipotesi che deve essere posta alla base di qualsiasi semantica per l’interscambio informativo di successo, consentendo la comunicazione e l’interoperabilità. Comprendere la necessità di questo tipo di artefatti non equivale alla capacità di produrli e metterli effettivamente in opera: l’analisi ontologica non è banale, richiede competenze specifiche ed è comunque legata a procedimenti ipotetici. Ma non comprendere bene il ruolo di questa analisi significa spesso, nell’information technology, sbagliare il progetto.

 

4     Conclusione

Che sia socialmente costruita o data in natura, la realtà, per definizione, esiste, ed è, per inciso, l’unica cosa che tutti abbiamo in comune. La comprensione dei dati con cui codifichiamo e scambiamo le nostre conoscenze mediante le tecnologie dell’informazione, in e tra diversi contesti culturali, passa necessariamente attraverso la loro promozione ad elementi conoscitivi della realtà. Questo non avviene grazie ad una magia tecnologica, ma grazie a metodi e risorse che sono frutto di procedimenti teoretici, i quali si estrinsecano in una varietà artefatti che chiamiamo modelli. In qualche modo, diretto o mediato, corretto o sbagliato, questi modelli sono modelli della realtà. Ma si tratta, come ogni teoria, di costruzioni culturali in cui sono all’opera (e alla prova) le decisioni dell’uomo. Battezzare i modelli informatici col nome di ontologie, con quel vezzo verbalistico in cui a volte indugiano gli informatici, non basta per far sì che concetti, relazioni e regole divengano d’incanto un’efficace teoria di quello che esiste. Una disciplina specifica che si occupa della realtà c’è però da molto tempo: si chiama appunto Ontologia (Ferraris, 2008), e forse si dovrebbe iniziare a metterne a frutto alcune individuazioni con maggiore convinzione.  

 

 

Bibliografia

Abbagnano, N. Forniero, G. (1999), Protagonisti e testi della filosofia, Volume III, Paravia

Anderson, C. (2008) The End of Theory: The Data Deluge Makes the Scientific Method Obsolete, Wired, 16.07

Bijker et al. Editori (1987),The Social Construction of Technological Systems: MIT Press

De Mauro, T. (1999) Introduzione alla semantica, Bari, Laterza

Ferraris, M. (2008), Storia dell'ontologia (con altri), Milano, Bompiani.

Gruber, T (1993), A Translation Approach to Portable Ontology Specifications, Elsevier, Academic Press

Guarino, N. (2009), The Ontological Level: Revisiting 30 Years of Knowledge Representation Conceptual Modelling: Foundations and Applications. in: Essays John Mylopoulos, Springer Verlag 2009, pp. 52-67.

Kuhn, T. (1979) La struttura delle rivoluzioni scientifiche, Einaudi, Torino.

Popper, K. (1970) Logica della scoperta scientifica, Einaudi, Torino.

Smith, B. e Welty, C. (2001), Ontology: Towards a New Synthesis, negli atti di FOIS’01, ACM Press

 



[1] Essentially, all models are wrong, but some are useful  (Box, George E. P.; Norman R. Draper (1987). Empirical Model-Building and Response Surfaces. Wiley.)

[2] Ciò ovviamente non implica che alcune garanzie formali, ad esempio la decidibilità, non siano spesso necessarie.

 

------------------------------------------------------------------------------------------------------------------------------------------

 

 

2. Nello Iacono

Cittadinanza digitale

      1.   Cittadinanza Digitale

 

2.    Introduzione

Il tema della cittadinanza digitale va trattato sia come metafora del profondo cambiamento culturale necessario per “capire la Rete”, i suoi meccanismi e le modalità di farla penetrare nel quotidiano, sia come luogo dove si riconfigurano i diritti e i doveri primari dell’essere cittadino.

Il discorso su questo tema si incentra così, necessariamente, sui nuovi paradigmi mentali da acquisire, per superare la pigrizia o l’equivoco di affrontare le questioni della società digitale con “vecchi arnesi” non più adeguati. In questo, credo sia fondamentale superare il dualismo digitale-non digitale, riconoscendo la natura ibrida reale-virtuale delle relazioni, delle interazioni, delle transazioni sociali e commerciali e quindi riconoscendo la necessità di un approccio sistemico e circolare in cui la cittadinanza digitale non è altro che l’estensione naturale, il completamento e l’interpretazione globale delle nuove forme di interazione e di vita sociale e politica.

Non si tratta, pertanto, di esplorare le potenzialità della rete e di attivarsi per massimizzare l’utilizzo delle nuove tecnologie, quanto di puntare i riflettori sui diritti di cittadinanza ancora non compiuti, ancora non soddisfacenti, e di interrogare le nuove opportunità della rete per riuscire a realizzarli, coscienti però che ogni nuovo territorio di diritti porta con sé la sua regolamentazione di doveri, di responsabilità ed etica.

In questo, la dimensione digitale della cittadinanza e della nostra “società in rete” consente di sperimentare l’ampiezza dei limiti globali (virtuali-reali) in cui si colloca il nuovo gioco democratico. Siamo ad un possibile rimescolamento delle carte delle percezioni, delle regole, dei limiti, delle interpretazioni. La cittadinanza digitale può essere anche questo. Può essere, per dirla con Paolo Zocchi, la porta per “la democrazia possibile”, verso un approccio in cui “è l’amministrazione che deve andare dal cittadino per facilitare la fruizione di un suo diritto” (Zocchi P., 2003).

3. Dei diritti perduti

 

3.1. Accedere

L’”essere digitali” comporta un rimescolamento profondo dei diritti di cittadinanza, perché da un lato introduce ostacoli e barriere nuove all’accesso di diritti ritenuti ormai acquisiti, dall’altro consente di mettere sul tavolo della discussione sulla cittadinanza altri diritti che semplicemente non erano nella sfera delle possibilità.

Credo che sia utile affrontare in questo modo il tema della cittadinanza digitale, così da poterlo leggere come estensione della cittadinanza “non digitale”, così come il cittadino digitale non è che l’estensione sulla rete del cittadino non digitale e ne condivide l’identità. Non siamo in cerca di una nuova identità, ma di arricchire quella che già abbiamo, e di far sì che questo ci consenta una migliore qualità della vita. Partiamo, allora, dal considerare i diritti acquisiti che rischiamo di perdere o, almeno, di vedere limitati.

Il primo, in ordine di priorità “logica”, è il diritto all’accesso per usufruire dei propri diritti o per espletare i propri doveri. Se io devo interagire con l’Amministrazione pubblica per compilare la mia dichiarazione dei redditi, e mi si richiede di compilare i moduli online, si presuppone che io sia in grado di farlo. Si presuppone che io disponga di un computer, di una buona connessione di rete e sia anche in grado di destreggiarmi bene sui moduli (che abbia anche una buona competenza digitale, oltre che una competenza tale da comprendere come compilare i singoli campi dei moduli). Prima, mi si richiedeva di compilare un modulo cartaceo e di saper spedire i moduli via posta. Ciò che mi si richiede adesso è quindi sia a livello di nuove competenze sia a livello di nuova strumentazione. È come se avessero trasferito tutti gli uffici postali e le nuove locazioni fossero note solo a chi possiede un decifratore di mappe e sapesse leggere con l’inchiostro simpatico. Nuove competenze, nuovi strumenti che diventano necessari per accedere all’espletamento di un proprio dovere. L’alternativa è arrendersi al ricorso ad un mediatore digitale. Affidarsi ad una figura/ente che si fa carico di mettere in relazione il cittadino non competente digitale con l’Amministrazione.

L’evoluzione tecnologica non “accompagnata” da interventi di supporto ai cittadini ha come effetto l’allontanamento di molti di loro dall’interazione diretta con l’Amministrazione e l’inserimento di uno stuolo di mediatori che hanno come principale effetto non l’attenuazione del “disagio digitale”, ma il suo consolidamento.

Tutte le Amministrazioni stanno cercando di realizzare progetti di innovazione tecnologica puntando alla digitalizzazione dell’interazione e quindi all’eliminazione del bisogno di incontro fisico e cartaceo con il cittadino. Ma quale cittadino? Il cittadino a cui pensano è un cittadino che “sa essere digitale” e “può essere digitale”.

In Italia, se seguiamo le ultime statistiche Istat, solo il 54% delle famiglie dispone di almeno un computer e di una connessione ADSL. Quasi la metà dei cittadini italiani ha quindi bisogno di un mediatore per interagire con l’Amministrazione. Viene da pensare ai primi del Novecento e ai mediatori resi necessari dall’analfabetismo. E vengono i brividi. Vengono i brividi perché quella era una realtà in cui la pienezza dei diritti era praticamente impossibile per chi non riusciva a comunicare per iscritto e non riusciva a leggere le regole e le norme.  Oggi gli studenti universitari non possono accedere alle informazioni indispensabili per i propri esami se non attraverso il web, e anche ai liceali si richiede di svolgere alcuni compiti tramite Internet. Effetto dell’evoluzione tecnologica, si dirà. Ma questo vuol dire che il divario digitale (fatto di competenze e strumenti, e quindi legato alla situazione economica, sociale e geografica molto più che alla generazione) divide tra chi può usufruire dei propri diritti “come prima” e chi non può più farlo.

Ecco, il problema dei “vecchi diritti” può essere rappresentato in questo modo: quanto più la società sfrutta le opportunità del digitale (e si “sbarazza” delle vecchie prassi ormai desuete), quanto più diventa urgente la diffusione massima del poter e saper agire digitale. Il rischio, altrimenti, è la marginalizzazione di una parte sempre più consistente della popolazione, costretta ad affidarsi a mediatori o, in mancanza di mezzi sufficienti, a rinunciare ai propri diritti.

Il diritto all’accesso ed all’inclusione digitale diventa, così, il diritto primario e “propedeutico” alla cittadinanza. Poiché se è naturale (e senz’altro positivo) che i servizi (delle amministrazioni, dei privati) si sposteranno sempre più verso la rete in modo esclusivo, senza interventi pubblici é naturale prevedere che la popolazione marginalizzata aumenterà sempre più.

Il futuro della cittadinanza dipende in gran parte dalla capacità di invertire questa tendenza. Il problema, tutto politico, è sul come combattere l’esclusione digitale e, così, decidere se investire per rendere meno costosa al singolo cittadino la mediazione “a basso valore aggiunto” (mediazione da mancata alfabetizzazione) oppure (ed è la strada della vera evoluzione sociale) investire sull’alfabetizzazione digitale, sulla costruzione delle condizioni che consentano l’interazione digitale diretta dei cittadini. Per quanto banale sembri la scelta, a livello nazionale non è stata intrapresa in modo determinato nessuna di queste due strade.

Il nostro Paese è pieno di buoni esempi di amministrazioni che si sono impegnate e si impegnano sul fronte dell’eliminazione del divario digitale, ma senza un progetto di sistema ogni intervento è destinato ad essere una piccola/grande oasi nel deserto. Si tratta, invece, di intervenire in modo integrato sulla banda larga, sulla creazione di punti di accesso pubblici assistiti, sull’uso quotidiano delle nuove tecnologie nelle scuole, di realizzare una grande campagna di informazione e di formazione per lo sviluppo delle competenze digitali necessarie ad esercitare i diritti di cittadinanza.

Intervenire in modo integrato e sistemico, perché stiamo parlando di coniugare lo sviluppo dell’innovazione tecnologica nelle Amministrazioni con gli investimenti nella Scuola e nelle Università, di considerare interventi di assistenza sociale i progetti di alfabetizzazione digitale, di correlare l’evoluzione delle norme con l’evoluzione ICT.

Alla politica non si richiede però attenzione e buona volontà, ma di cambiare profondamente paradigma mentale. Fino a considerare il diritto alla connessione allo stesso modo con cui si considerava (prima) il diritto a poter accedere ad un posto telefonico pubblico. E, così, considerare il wi-fi nei servizi pubblici come possibilità naturale, non come privilegio, e la sua gratuità per l’accesso ai servizi dell’Amministrazione allo stesso modo con cui non ci sogneremmo mai di pagare per entrare in un ufficio pubblico.

L’esperienza di Venezia, in cui il Comune ha avviato un complesso e organico progetto di cittadinanza digitale[1] ed ha intrapreso la scommessa dell’accesso wi-fi gratuito, è un’indicazione chiara dell’obiettivo che possiamo proporci di raggiungere a livello nazionale. Il dibattito è tutto da intavolare sul fronte del “come” e non del “se”.

3.2. Identità e indirizzo

Un altro tema, conseguente all’accesso, ma tutto interno alla definizione della nuova cittadinanza, è quello relativo all’identità e all’indirizzo.

Anche qui, sembra banale. Se i servizi sono portati sulla rete, ed io posso e devo accedere in rete, vorrà dire che esisterà sulla rete un protocollo di comunicazione simile a quello esistente nella “vita non digitale”.

Nella “vita non digitale”, l’Amministrazione pretende che io abbia un unico indirizzo di residenza e mi assegna un identificativo univoco (il codice fiscale), oltre a riferirsi alle informazioni presenti in Anagrafe. Questo consente di comunicare via posta, con vantaggio reciproco, e di rendermi riconoscibile a tutti gli enti e le amministrazioni.

Similmente, non c’è ragione perché non sia così, dovrebbe avvenire per la “vita digitale”: è vantaggio reciproco (e sociale) che io abbia un unico identificativo (una unica identità digitale) e un unico indirizzo “ufficiale” (una casella di posta elettronica, possibilmente certificata). Ed è altrettanto naturale che la scelta più semplice sia che l’attribuzione avvenga a cura dell’Amministrazione, così da garantire scelte omogenee ed attribuzioni esaustive. Nella “vita non digitale” questi sono diritti che nessuno si sognerebbe mai di mettere in discussione.

Oggi, lo sappiamo, non è così. Ogni amministrazione gestisce un sistema di identificazione autonomo, e si attende che l’indirizzo sia inserito a nostra cura. La modalità di identificazione è poi varia e multiforme, e noi cittadini “digitali” ci troviamo sommersi da pin e username tutti diversi, ciascuna con propria anagrafica, in pieno regime di incomunicabilità. Aumenta la difficoltà di essere digitali, si innalzano le barriere digitali, aumenta la necessità di ricorrere ai mediatori.

 

4 Nuovi diritti all’orizzonte

4.1. Il controllo delle informazioni

Giddens, negli anni scorsi (Giddens A., 2000), ha parlato di “democratizzazione della democrazia”[2], nel senso di “approfondimento della democrazia”, pensando all’effetto necessario dell’evoluzione digitale sul potere di controllo delle informazioni.

Sappiamo che una delle potenzialità maggiori della rete riguarda proprio l’annullamento del potere di controllo sulle informazioni. Non solo ciascuno può essere fonte informativa e con strumenti molto poco costosi (basta un telefono per mandare via web il filmato proibito delle manifestazioni di piazza in Iran o in Cina), ma ciascuno di noi può anche informarsi su tutto scegliendo tra più fonti. Nulla di tutto questo può essere posto sotto controllo, perché la circolazione delle informazioni “è” Internet. D’altra parte, nessun principio democratico può negare che questo rientri nei diritti di cittadinanza. La possibilità di accedere in modo semplice all’informazione fa sì che il problema si sposti, per l’Amministrazione, dal “cosa rendere disponibile” al “perché non rendere disponibile”, in quanto non ci sono ragioni per negare l’accesso all’informazione se non per casi di sicurezza e riservatezza. L’informazione diventa un diritto ancora più forte e si porta dietro anche il diritto ad informare, a porre quesiti, ad essere ascoltato.

L’interazione conseguente all’evoluzione digitale è proporzionale alle opportunità della rete.

4.2. I nuovi confini della democrazia rappresentativa

La possibilità di interagire in rete a basso costo con grandi quantità di persone (eliminando le barriere logistiche e temporali) ha come conseguenza anche il superamento della necessità di porre un limite “ragionevole” per la partecipazione alla discussione e alle scelte della comunità locale e nazionale. La democrazia rappresentativa diventa una scelta e non più una necessità “fisica”, per cui la sua riconfigurazione nel contesto della società in rete può permettersi di combinare ed inglobare in modo del tutto nuovo elementi della democrazia diretta. E se può permetterselo, perché gli strumenti lo consentono, anche qui il problema si ribalta: deve esserci una buona ragione (politica) per porre dei limiti e delle regolamentazioni[3]. La e-partecipation, la e-democracy, non sono che delle etichette poste alla riconfigurazione della democrazia in un mondo che ha esteso in modo indefinito la gestione del luogo e del tempo. Il problema non è facile da affrontare, ci sono esperienze molto avanzate nei Paesi del nord-Europa, mentre in Italia siamo pressoché al palo. Le forze politiche nazionali probabilmente pensano che questo sia un terreno minato (e probabilmente l’ignoranza diffusa sulle nuove tecnologie accentua il timore). Sta di fatto che nulla di concreto si sta muovendo e si sta progettando. Qualche esperimento, qui e là, per dare la percezione di una certa sensibilità all’argomento.

Eppure, la rete è un pullulare di dibattiti, di gruppi, di iniziative che diventano reali manifestazioni (reali, nei corpi dei manifestanti), è un luogo dove si tocca con mano (virtuale) l’energia della partecipazione, dove si ha la percezione che il momento dei cambiamenti è arrivato. Può arrivare. È qui che la cittadinanza digitale si coniuga in modo indissolubile con la cittadinanza attiva.

Nell’attuale cronaca politica si parla di riforme, ma nessuna di quelle di cui si parla ha a che fare con le nuove forme di partecipazione democratica, che oggi sono possibili e necessarie. Non è facile progettarle, ma insieme alle competenze che mancano a troppi esponenti politici, gioca a sfavore l’idea che sia meglio intraprendere la strada della mediazione (vedi capitolo precedente) o provare a far sì che la rete sia uno strumento di omologazione invece che di partecipazione. In questo senso, affermare il diritto alla partecipazione significa impegnarsi per dare un futuro democratico alla rete, per far sì che la rete sia davvero un’opportunità per “democratizzare la democrazia”.

4.3. Contenuti digitali pubblici

Infine, credo sia importante evidenziare (anche se si tratta di un argomento ormai consolidato) il tema della fruibilità dei contenuti digitali e dei formati “aperti” per quanto riguarda i contenuti di “fonte pubblica”.

E lo si può affrontare da due punti di vista:

  • dal punto di vista della neutralità tecnologica, in quanto nessuna norma può richiedere al cittadino di munirsi di un certo dispositivo (software, hardware) per l’utilizzo di un contenuto pubblico. È come se, altrimenti, l’accesso agli archivi fosse consentito solo ai possessori di una certa marca di occhiali o se le fotocopie di documenti pubblici fossero rese leggibili solo ai possessori di lavagne luminose di una certa ditta. Nulla di più illogico;
  • dal punto di vista della proprietà, in quanto ciò che è pubblico deve essere reso fruibile nei limiti stabiliti dalla legge. E quale legge può impedire o impedisce la piena utilizzabilità di un contenuto pubblico anche se digitale?

Come negli altri casi, la presenza di una possibilità ribalta la logica: sta all’Amministrazione motivare il perché un certo contenuto può avere una limitazione di utilizzo (ed il suo formato è una limitazione) e perché applicare una regola di diritto di proprietà che rende oneroso l’utilizzo e non invece una regola che segue la logica del “copyleft”, dei Creative Commons.

5. Un approccio possibile: l’Ecologia digitale

C’è un filo rosso che lega il problema del divario digitale e della proprietà dei contenuti in rete, il tema dell’accesso e della competenza digitale necessario, e che attiene alla maturità sociale e ai rischi di una evoluzione digitale che amplifica le fratture sociali e le divaricazioni. L’ampiezza di intervento richiede un approccio ampio, solistico, multidisciplinare. Questo può essere rappresentato dall’ecologia digitale, che qui accenno soltanto[4], e che è pertanto parte fondamentale del percorso per la realizzazione di una piena Cittadinanza Digitale.

Anche se generalmente poco frequentato, questo approccio ha già diversi anni. Già nel 2001 Boyle ampliava, infatti, il concetto originario di ecologia digitale dovuto a Newstrom[5]  paragonando la politica della proprietà e del copyright alla politica ambientale.

A partire dalla protezione della proprietà intellettuale, infatti, secondo Boyle (Boyle, 2001), i gruppi privati hanno una naturale tendenza all’eccesso di protezione, fino alla chiusura effettiva degli accessi all’ambiente digitale. L’azione politica deve essere quindi rivolta alla difesa del “pubblico dominio”. In questo senso Boyle interpreta il termine come rivolto alla dinamica di forza tra chi vuole appropriarsene, creando monopoli e controllandone lo sfruttamento e l’accesso, e chi non ha mezzi, la società nel suo complesso. L’accento è quindi prima di tutto sulla proprietà e sull’accesso all’ambiente digitale.

Diventa così necessario applicare un approccio basato sull’ecologia digitale per la ricerca dell’equilibrio tra persone ed ecosistema informativo e nell’ecosistema informativo stesso, restituendo centralità alla persona ed alle sue esigenze e negando la centralità della tecnologia in quanto fine. Da qui si può procedere per raggiungere la necessaria maturità sociale nell’utilizzo delle tecnologie e della rete, maturità che si basa sul superamento, insieme, del divario digitale, degli ostacoli all’accesso e del sovraffollamento informativo.

La maturità necessaria sull’uso della tecnologia, che deve raggiungere la società digitale (ma anche tutte le organizzazioni), non è in fondo altro che la ricerca dell’equilibrio ambientale che dobbiamo costruire intorno alle categorie tipiche  dell’esistenza umana e sociale: il tempo, il luogo, lo spazio[6].

L’approccio olistico, multidisciplinare, dell’ecologia digitale permette, in questo ambito, di affrontare simultaneamente i problemi della società digitale che sono comuni ai macro e ai micro ambienti, e rivelano i loro effetti sia sul piano della cittadinanza sia su quello del lavoro sia su quello privato.

6. Il confine tra non digitale e digitale, reale e virtuale

Il punto chiave, comunque, è il superamento del dualismo digitale-non digitale. La cittadinanza digitale, è bene ribadire, non è una forma “diversa” di cittadinanza, ma l’estensione della cittadinanza che abbiamo fin qui conosciuto.

Così, non c’è nessun confine da riconoscere tra digitale e non digitale, se non perché il non digitale limita l’esercizio di alcuni diritti (partecipazione, informazione, interazione) che grazie al digitale possono essere pienamente esercitati. La chiave di volta è il ribaltamento dell’ottica con cui si guarda al nostro essere nella società, non con un prima e un dopo, un qui ed un oltre, ma con dei “come” legati agli strumenti disponibili. Muoversi dalla rete alla “realtà”, e viceversa, implica un passaggio quotidiano che non obbliga a “cambi di stato” e consente la simultaneità. L’interazione che avviene tra più persone in un luogo fisico non nega la possibilità dell’interazione virtuale e anzi se ne nutre, perché la simultaneità reale-virtuale è un arricchimento (il successo di Twitter ne è una dimostrazione). E non c’è ragione perché venga limitato.

Da questo punto di vista, le nostre esperienze sono ancora molto embrionali, e dal punto di vista dell’applicazione sociale e politica praticamente primordiali.

Rispetto alle opportunità offerte dalle nuove tecnologie, i nostri processi di partecipazione e di decisione sono del tutto insufficienti. E questa insufficienza ci nega dei diritti, impedisce alla società di sperimentare nuove forme di comunicazione e di costruzione, di crescere, di evolvere.

È, questa, l’immagine di una frattura, di una divaricazione tra possibile e reale, tra aspettative di una fascia sempre più folta di “popolazione digitale” (in gran parte formata da nativi digitali, in gran parte giovani marginalizzati dal mercato del lavoro) e capacità di reazione e comprensione della società strutturata e regolamentata.

7. Se non si sviluppano le competenze digitali

L’affermazione dei diritti (e dei doveri) della cittadinanza digitale comporta l’acquisizione delle competenze digitali necessarie da parte dei cittadini.

Qui credo sia opportuno una breve riflessione. Spesso si confondono le competenze digitali con l’alfabetizzazione informatica. Non è la stessa cosa, l’alfabetizzazione consente di acquisire una competenza digitale di base, ma non è sufficiente. Le competenze digitali sono quelle che consentono di muoversi nella rete con la stessa cognizioni con cui ci si muove nei luoghi “non digitali”. Per questo abbiamo finora parlato di necessità di “alfabetizzazione digitale”.

Ormai la definizione unanimemente adottata è quella proposta dall’Unione Europea (Unione Europea, 2006):

la competenza digitale consiste nel saper utilizzare con dimestichezza e spirito critico le tecnologie della società dell’informazione (TSI) per il lavoro, il tempo libero e la comunicazione. Essa è supportata da abilità di base nelle TIC: l’uso del computer per reperire, valutare, conservare, produrre, presentare e scambiare informazioni nonché per comunicare e partecipare a reti collaborative tramite Internet

Questa definizione, declinata secondo la forma suggerita da Le Boterf (Le Boterf, 2009), e quindi in termini di “saper agire” in un determinato contesto secondo una determinata modalità, può essere così articolata (Fini A., 2009): è la capacità di

§  saper esplorare ed affrontare in modo flessibile situazioni tecnologiche nuove;

§  saper analizzare, selezionare e valutare criticamente dati e informazioni;

§  sapersi avvalere del potenziale delle tecnologie per la rappresentazione e soluzione di problemi e per la costruzione condivisa e collaborativa della conoscenza;

mantenendo la consapevolezza della responsabilità personali, del confine tra sé e gli altri e del rispetto dei diritti/doveri reciproci.

In questo senso, la competenza digitale attraversa tre dimensioni (tecnologica, cognitiva ed etica) ed è legata chiaramente alle capacità di base dell’essere individuale, “tout-court” (mantenere capacità critica rispetto alle informazioni e alle opinioni, saper affrontare le situazioni problematiche), del divenire (essere capaci di accogliere i cambiamenti derivanti dall’innovazione tecnologica) e dell’essere sociale (essere parte di una comunità ed interagire). Non è la stessa cosa che imparare ad usare un computer. Delegare l’interazione digitale ad un mediatore è allora come affidarsi ad un assistente sociale perché incapaci di interagire con la comunità, perché incapaci di vivere in modo autonomo.

Se questo oggi sta avvenendo per circa metà della popolazione italiana, la domanda è: possiamo permetterci l’incompetenza digitale di una così grande parte della popolazione? E non è necessario, invece, lanciare una grande campagna di alfabetizzazione/formazione digitale?

E non è forse il caso di investire nella Scuola, perché sia veicolo primario di questa competenza digitale? Oggi la preoccupazione maggiore dell’Amministrazione è di aumentare il numero degli strumenti tecnologici e dei computer distribuiti. Ma, a differenza delle scuole del Nord-Europa dove sono previste risorse dedicate allo sviluppo della conoscenza condivisa tra i docenti, in modo da meglio porre le basi per uno sviluppo diffuso della competenza digitale, in Italia si continua a percorrere la strada dei progetti isolati, del volontariato, dei risultati di apparenza.

Intanto, il tempo passa e il cambiamento ci sfugge.

 

8. Conclusione

Quando si affrontano temi come questi, da un lato si corre il rischio di rilanciare argomenti triti e ritriti, dall’altro di dare per scontate conclusioni e argomentazioni che forse lo sono soltanto per una nicchia (fortunata?).

Il cammino che con Paolo Zocchi ci ha portato attraverso sei edizioni del Libro Bianco sull’Innovazione e un libro (Zocchi P., Iacono G., 2005) ci ha condotti anche ad una situazione di saturazione: abbiamo detto ciò che si poteva dire e abbiamo proposto ciò che si poteva proporre. Rimane il fare. Paolo ha iniziato con la sua esperienza di governo (troppo breve) e con la sua proposta per innovare Roma, ponendo al centro la qualità della vita, i diritti dei cittadini. Con le nuove tecnologie, sempre più pervasive, al servizio della popolazione.

Se ci ritroviamo qui, a riannodare tutti i fili dei discorsi fatti, a rimettere sul tavolo i temi che secondo noi devono trovare soluzione e realizzazione, è grazie alla passione con cui abbiamo percorso insieme questi anni.

Perché non possiamo arrenderci.

7. Bibliografia essenziale

 

1.    Castells M., Galassia Internet, Feltrinelli, 2002.

2.    Boyle J., intervento alla conferenza Code, Cambridge, UK, 2001.

3.    Fini A., La competenza digitale dei Digital Natives, LTE – Università di Firenze Bari, 27 marzo 2009

4.    Giddens A., Il mondo che cambia, Il Mulino, 2000.

5.    Fiorini L. a cura di, Cittadinanzadigitale, edizioni Junior, 2009.

6.    Iacono G, Verso l’ecologia digitale delle organizzazioni, Angeli, 2003.

7.    Istat, Le tecnologie dell'informazione e della comunicazione: disponibilità nelle famiglie e utilizzo degli individui, Rapporto ISTAT,  febbraio 2009.

8.    Le Boterf G., Costruire le competenze individuali e collettive, Guida, 2009.

9.    Unione Europea, Raccomandazione del Parlamento Europeo e del Consiglio relativa a competenze chiave per l’apprendimento permanente, (2006/962/CE), 18 dicembre 2006. URL:

http://eurlex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2006:394:0010:0018:IT:PDF

10.  Zocchi P., Internet, la democrazia possibile, Guerini e Associati, 2003.

11.  Zocchi P., Iacono G., L’Innovazione Tradita, Editori Riuniti, 2005.

 



[2] Secondo Giddens, la “democratizzazione della democrazia” è necessaria “perché i vecchi meccanismi di governo non funzionano in una società dove i cittadini dispongono delle stesse informazioni di coloro che sono al potere”(Giddens A., op.cit.)

[3] Rimane attuale quanto affermava Castells qualche anno fa: “In realtà, la libertà non è mai un dato di fatto. È una lotta costante; è la capacità di ridefinire l’autonomia e applicare la democrazia in ogni contesto sociale e tecnologico. Internet offre un potenziale straordinario per esprimere i diritti dei cittadini e comunicare i valori umani” (Castells M., 2002).

[4] Qui utilizzo la seguente definizione di ecologia digitale (Iacono G., 2003):

“L’ecologia digitale

§  tratta della comprensione degli ecosistemi informativi;

§  ha lo scopo di comprendere la produzione, la distribuzione, la conservazione, l’accessibilità, la proprietà, la selezione e l’uso dell’informazione negli ambienti determinati dalla tecnologia;

§  punta a preservare e incrementare la diversità e la vita culturale nell’ecosistema informativo;

§  punta all’educazione all’uso umano della tecnologia e alla valorizzazione della persona e degli approcci “high-touch” nel loro rapporto con l’ecosistema informativo”.

[5] Newstrom, vicepresidente dell’EDS, al convegno internazionale sull’ICT di Chicago, 2000: “La mia tesi è questa: io credo che la nostra Ecologia Digitale sia fuori controllo… sembra che abbiamo perduto il nostro senso di equilibrio! La popolazione mondiale si sta polarizzando ai due estremi:  o diluvio o siccità… festa o carestia… vasti oceani o enormi deserti… di informazione! Nel mondo miliardi di persone sono affamate per l’informazione… mentre un piccolo numero di persone sembra soffrirne per gli eccessi”.

 

[6] Dove, nell’evoluzione digitale, lo spazio e il luogo diventano liquidi e il tempo rimane “drammaticamente solido”, poiché “abbiamo lo stesso tempo di quando la realtà appariva solida” (Fiorini L., 2009).

----------------------------------------------------------------------------------------------------------

 

------------------------------------------------------------------------------------------------------------------------------------------- 

 

La Medicina e la Rete:

situazione attuale e prospettive future

 

 

Gerardo Piacentini, Flavia Ventriglia

Unità Operativa Complessa di Cardiologia Pediatrica e Malattie Respiratorie

Dipartimento di Pediatria

Sapienza Università di Roma

 

Introduzione 

La diffusione di Internet ha profondamente cambiato la vita di tutti noi. In tutti i settori è ormai uno strumento indispensabile per operatori e utenti che solo digitando su una tastiera possono accedere a qualsiasi informazione.

L'avvento del WEB 2.0 ha inoltre introdotto la possibilità per gli utenti di interagire attraverso blog, forum e social network.

L'area medico-sanitaria non poteva restare indifferente a questa rivoluzione e nel corso degli anni si è assistito ad una costante evoluzione che ha trasformato Internet da semplice mezzo per lo studio e la ricerca (soprattutto attraverso banche dati specifiche come PubMED) ad una vera e propria piattaforma di interazione tra professionisti e utenti.

Il WEB 2.0 sta portando ad un continuo fiorire di siti e di strumenti per l'aggiornamento professionale, per la condivisione di conoscenze mediche tra colleghi e tra professionisti e utenti, per la creazione di servizi all'utente (educazione sanitaria al paziente, prenotazioni di esami, refertazione online degli esami), per la creazione di comunità di pazienti. Si stanno facendo strada social network nei quali i medici appartenenti a una stessa comunità possono scambiarsi informazioni sui casi clinici, cercare consigli per effettuare una diagnosi e condividere le proprie conoscenze.

Internet sta diventando sempre di più uno strumento indispensabile di confronto e di condivisione sia per i professionisti della salute sia per gli utenti e il bisogno di comunicazione, così importante nel campo della cura del paziente, ha portato alla nascita di concetti come Medicina 2.0 e Salute 2.0 che costituiscono il futuro della rete nell'ambito sanitario. Come tutti gli strumenti che l'innovazione tecnologica ci offre, ci sono, però, anche aspetti negativi che nascono dal cattivo utilizzo degli stessi.

 

 

1. Web e Web 2.0 

 

 

Le nuove tecnologie dell'informazione e della comunicazione sono teoricamente diventate disponibili a tutti con l'avvento, nel 1994, del World Wide Web (WWW), ma in questa sua prima versione, l'interazione tra internauti era limitata allo scambio di messaggi di posta elettronica (e-mail) o allo scambio di messaggi sui forum, perché la realizzazione e la pubblicazione on-line di un sito web richiedeva delle conoscenze di base della programmazione HTML o le disponibilità finanziarie per pagare un webmaster che realizzasse il sito.

Tutto questo cambia con l'avvento di nuove tecnologie per il Web che hanno cambiato tanto il volto di Internet da far nascere un nuovo termine per indicare una versione nuova, aggiornata del World Wide Web e cioè Web 2.0, termine utilizzato per la prima volta nel 2004.

Le tecnologie del Web 2.0 permettendo una reale interazione tra gli internauti hanno portato alla costituzione di vere e proprie comunità. Gli utenti hanno non solo la possibilità di creare contenuti propri, ma hanno anche la possibilità di commentare e di valutare i contenuti prodotti da altri utenti. 

Il Web 2.0 ha profondamente cambiato la nostra società. Il cosiddetto "User-generated content" cioè il "contenuto creato dall'utente" che caratterizza il Web 2.0 permette di creare un dialogo non solo tra consumatori, ma anche tra consumatori e produttori di beni e servizi.

In campo sanitario questa nuova accessibilità alle informazioni, insieme alla possibilità di far parte di comunità e gruppi sta modificando profondamente, così come in tutti gli altri campi, la nostra vita quotidiana.

 

2. Tecnologie del Web 2.0

 

Le tecnologie più utilizzate e più caratterizzanti del Web 2.0 sono i blog, i wiki e i social network.

I blog permettono a utenti che non abbiano conoscenze del linguaggio di programmazione HTML di creare siti web in cui pubblicare pagine che appaiono in ordine cronologico (come in un diario) e di poter permettere agli altri utenti di poter commentare questi contenuti.

I wiki consentono la creazione di pagine enciclopediche che possono essere modificate dall'autore, ma anche da chiunque voglia aggiornare o ampliare le informazioni riportate (es. Wikipedia).

I social network sono vere e proprie comunità in cui gli utenti creano pagine personali con i propri dati, fotografie e informazioni personali costruendo una vera e propria rete di relazioni (es. Facebook).

 

2.1 Blog

Il blog è uno strumento facile e veloce per poter condividere online informazioni, esperienze e opinioni. Sono migliaia i blog di tematica scientifica e medica che affollano la rete, sia di tipo professionale che personale.

Numerose riviste scientifiche pubblicano da tempo blog tematici in cui i lettori possono commentare i vari argomenti: è questo il caso di riviste come The Lancet, British Medical Journal, New England Journal of Medicine, che sono tra le più prestigiose in campo medico a livello internazionale.

Affianco alle riviste scientifiche di settore esistono i blog dei singoli professionisti che scrivono per fare vera e propria educazione sanitaria o semplicemente per condividere casi clinici ed esperienze professionali.

 

2.2 Wiki

Come abbiamo accennato i wiki sono siti nei quali ogni pagina può essere creata o modificata dal lettore.

La più famosa enciclopedia stile wiki è senza dubbio Wikipedia che ha creato un’ampia sezione riguardante la medicina, ma stanno nascendo sempre più wiki specifiche tra cui possiamo citare Flu Wiki che raccoglie informazioni relative a influenze e epidemie pandemiche come l’influenza aviaria o l’influenza A/H1N1 e MedPedia, ideato da quattro prestigiose università statunitensi come Harvard, Stanford, Berkley e l’università del Michigan assieme a istituti come il National Institute of Health e il Center for Disease Control and Prevention statunitensi ed alcune società scientifiche anche europee con lo scopo di creare una vera e propria enciclopedia medica.

 

2.3 Social network

Sono numerosi gli esempi di social networking in cui i professionisti della salute condividono esperienze con altri colleghi: un esempio è la comunità americana DOCTRS, mentre DottNet è un social network tutto italiano destinato a medici, farmacisti e operatori sanitari che ha lo scopo di permettere agli utenti di condividere con altri professionisti esperienze, informazioni e conoscenze scientifiche. 

Ma se da un lato gli operatori sanitari sentono il bisogno di creare relazioni in rete con i propri colleghi, si sta diffondendo sempre di più la creazione di comunità di pazienti che parlano delle loro esperienze con la malattia e cercano di dare supporto a persone che vivono esperienze simili come ad esempio PATIENTLIKEME.

 

 

3. Salute 2.0 e Medicina 2.0

 

Come abbiamo visto gli strumenti del Web 2.0 analizzati possono essere utilizzati dagli internauti per motivi legati alla salute e questo può avvenire a titolo personale o professionale.

I termini Salute 2.0 o Medicina 2.0 si riferiscono ad una medicina partecipativa, grazie alla condivisione di esperienze tra pazienti e professionisti della salute.

Hughes et al. suggeriscono la seguente definizione per Medicina 2.0:

 

La Medicina 2.0 consiste nell'utilizzo di uno specifico insieme di strumenti web (blog, wiki, social network ecc.) da parte di medici, pazienti, ricercatori, seguendo i principi dell' "open source" e dello "user-generated content" per personalizzare l'assistenza sanitaria, collaborare e promuovere l'educazione sanitaria.

 

Sebbene spesso siano utilizzati come sinonimi i termini Medicina 2.0 e Salute 2.0 hanno in effetti significati diversi: il primo termine si riferisce alla medicina come scienza e alla scienza di curare i pazienti, il secondo termine si riferisce al business della salute in generale comprendendo informazioni sulla qualità, la sicurezza, il costo dei servizi per gli utenti, dei farmaci, sia per quanto riguarda la medicina tradizionale, sia per quanto riguarda medicine alternative o qualsiasi altro aspetto della nostra salute.

 

Secondo Eysenbach gli aspetti principali della Medicina 2.0 possono essere raggruppati in cinque temi o idee principali: social networking, partecipazione, apomediazione, collaborazione e trasparenza.

 

3.1 Social networking

Il social networking è un aspetto centrale per molte applicazioni del Web 2.0 e quindi della Medicina 2.0 e comporta la formazione di connessioni tra le persone che formano così una rete complessa di relazioni. Permette agli utenti di vedere ciò che i loro "amici" o "colleghi", stanno facendo, permette la condivisione di informazioni personali e non ed è uno strumento efficace per coinvolgere gli utenti, in quanto prevede incentivi per inserire, aggiornare e gestire le informazioni personali. 

 

3.2 Partecipazione

La partecipazione è un altro tema centrale della Medicina 2.0, particolarmente importante per i consumatori e i pazienti, ma anche per gli operatori sanitari e ricercatori. Internet è uno strumento che ha permesso agli utenti di sentirsi più coinvolti e gli strumenti Web 2.0 portano il "potere" partecipativo dell'utente a un nuovo livello.

I wiki sono un ottimo esempio per dimostrare che il tema della "partecipazione" è importante anche per gruppi di utenti come ricercatori e operatori sanitari, e può essere utilizzato come strumento per la comunicazione scientifica.

Lo sviluppo di piattaforme di social networking come le citate Facebook o PatientsLikeMe creano quindi un nuovo livello di partecipazione del paziente e l'opportunità di partecipare attivamente alle decisioni che riguardano la propria salute, di condividere informazioni sulla propria salute e di mettersi in contatto con operatori sanitari, ricercatori e altri pazienti. Questo responsabilizza sia il paziente che il sanitario ad un reciproco coinvolgimento riguardo una adeguata gestione delle diverse patologie, umanizzando un rapporto che spesso è difficoltoso per i motivi più vari.

 

 

3.3 Apomediazione

Apomediazione (in inglese Apomediation) è un neologismo coniato da Eysenbach e descrive la "terza via" per cercare e ottenere informazioni su Internet.

Il primo approccio possibile è quello di affidarsi a intermediari "competenti": per esempio il medico che offre informazioni ai pazienti in qualità di persona "competente" in materia. Questo è il caso di siti Internet controllati in cui solo esperti del settore possono dare informazioni ai pazienti. 

La seconda possibilità è quella di bypassare l'intermediario completamente: i pazienti cercano direttamente le informazioni di cui hanno bisogno sul web non interpellando il proprio medico, con il rischio di incorrere in informazioni poco precise se non addirittura totalmente errate.

Il terzo modo, tipico dell'era del Web 2.0 consiste in una particolare strategia di ricerca delle informazioni in cui gli utenti non si rivolgono agli "esperti" tradizionali, ma a delle "guide" che fungono da apomediatori. La differenza tra un intermediario e un apomediatore (in inglese apomediary) è che l'intermediario si situa tra il consumatore e le informazioni (dal latino mediare, essere tra due cose) e quindi la correttezza delle informazioni dipende dall'affidabilità dell'intermediario; al contrario apomediazione significa che ci sono agenti (persone, strumenti) che guidano il consumatore nella ricerca delle informazioni, perché particolarmente esperte in un determinato settore o perché semplicemente hanno già avuto una certa esperienza, ma con un potere limitato, rispetto agli intermediari classici, di modificare o selezionare le informazioni. 

Gli apomediatori possono essere utenti che hanno sviluppato una particolare esperienza che non è ufficialmente riconosciuta, ma può essere utile. Per esempio, un paziente che ha acquisito una notevole conoscenza di una particolare malattia, sintomo o trattamento.

Un altro esempio è quello dei consumatori che valutano prodotti o servizi e attraverso le loro opinioni "guidano" l'utente alla scelta del servizio o del prodotto da acquistare.

 

3.4 Collaborazione

E' la collaborazione tra colleghi attraverso gli strumenti che abbiamo precedentemente descritto, con la costituzione di comunità on-line per riunirsi ed interagire. Si può intendere anche la collaborazione tra gruppi di utenti per favorire la partecipazione del pubblico alle decisioni sull'assistenza sanitaria o sulla ricerca scientifica. 

 

 

3.5 Trasparenza

Medicina 2.0 implica anche apertura e trasparenza che permette all'utente l'accesso a strumenti e dati a cui il pubblico ha sempre avuto un accesso limitato, come ad es. i dati sulla ricerca scientifica (un esempio sono le riviste scientifiche "open access", quindi con contenuto liberamente consultabile) permettendo al pubblico di interessarsi direttamente alle questioni che riguardano la ricerca ("open peer-review", cioè la valutazione "aperta" dei lavori scientifici).

 

4. I pericoli della Medicina 2.0

 

 

Anche se è sempre più chiaro quanto il Web possa migliorare la qualità dell'informazione sanitaria e dell'assistenza sanitaria, sono diverse le critiche sollevate riguardo all'applicazione di Internet alla medicina.

In primo luogo l'utilizzo sempre più frequente di motori di ricerca non specifici usati come strumento diagnostico da parte di pazienti, ma anche di medici, attraverso la ricerca di sintomi e segni con lo scopo di effettuare una diagnosi. 

In secondo luogo, desta preoccupazione l'utilizzo del web per la ricerca di informazioni sanitarie da parte dei pazienti, pratica che potrebbe ritardare una consulenza medica o addirittura ridurre senza motivo la fiducia del paziente nel proprio medico, perché le informazioni trovate su internet sono discordanti da quelle fornite dal proprio medico. 

Il terzo punto, forse il più importante, riguarda la qualità dei contenuti ottenuti dagli utenti, con una particolare attenzione per la qualificazione delle fonti, annoso problema dell'informazione medica che circola in rete, spesso frutto del lavoro di utenti non qualificati e senza nessun titolo o esperienza specifica e con il rischio di creare disinformazione, piuttosto che informazione. 

Secondo Hughes et al. ci sono quattro grandi problematiche legate alla Medicina 2.0: la mancanza di una chiara definizione, la perdita di controllo dell'informazione sanitaria da parte degli operatori sanitari stessi, la qualità delle fonti e quindi il rischio di disinformazione e la tutela della privacy dei pazienti. 

Per limitare queste criticità sono in corso varie iniziative come per l'esempio la creazione del wiki medico Medpedia cui abbiamo accennato, il cui contenuto, a differenza del noto Wikipedia, non è liberamente modificabile da qualsiasi utente e quindi più controllato.

Sono inoltre presenti in rete organismi che cercano di tutelare l'informazione medica in rete come l'Healthcare Blogger Code of Ethics, un vero e proprio codice di comportamento per i blog che si occupano di medicina oppure l'Health on the Net Foundation, un organismo non governativo che ha lo scopo di promuovere una buona qualità delle informazioni mediche in rete.

 

Volendo tracciare delle linee guida per un corretto utilizzo delle informazioni sanitarie ottenute su Internet diamo risalto ad alcuni aspetti in particolare.

Per i pazienti:

1)         Fidarsi solo di fonti assolutamente attendibili: quelle di sicura rilevanza scientifica sono quelle provenienti da siti legati a strutture ospedaliere o universitarie note o a riviste scientifiche reperibili su PubMed;

2)         Se il paziente ha appreso notizie della propria patologia prima di una visita medica specialistica, deve informare sempre il medico a cui si rivolge delle informazioni che ha già ottenuto da Internet specificandone le fonti, così il medico può utilizzare un linguaggio più consono alle sue conoscenze;

3)         Se il paziente va ad informarsi su Internet dopo aver già avuto una diagnosi ed un indirizzo terapeutico, deve informare il medico di fiducia o lo specialista a cui si è rivolto degli eventuali dubbi, domande, perplessità o altri aspetti non chiari che sono emersi dal confronto tra le notizie ricevute dal sanitario e quelle apprese su Internet;

4)         E’ indispensabile avere sempre molto chiaro che ogni paziente costituisce un caso clinico a sé stante e spesso unico, anche se la patologia sottostante è della stessa natura, e che le casistiche riportate su siti anche ufficiali costituiscono la mediana di una curva di cui il caso e quindi il paziente in questione si può porre al centro o su ciascuno degli estremi;

5)         Ogni singola patologia va considerata nell’insieme globale del paziente, pertanto quello che può andare bene per uno può non andare bene per l’altro; pertanto le informazioni apprese dai forum di comunicazione tra pazienti non vanno mai prese ed applicate senza un confronto con il sanitario di riferimento;

6)         Nei forum di comunicazione diretta con sanitari ed in modo particolare con specialisti di settore accertarsi che il sanitario interpellato sia realmente tale; le specializzazioni dei medici sono verificabili sui diversi siti degli Ordini dei Medici che sono accessibili a tutti e che riportano la data della laurea, l’iscrizione all’Ordine e le specializzazioni ottenute nelle Università ufficialmente riconosciute. Esistono blog scritti da persone che non sono nemmeno medici e spesso sono corredati da allettante materiale fotografico e pubblicitario;

7)         L’utilizzo delle e-mail, spesso reperibili su Internet, dei diversi medici può essere una buona strada per avere un primo contatto diretto con il sanitario e qualche informazione preliminare, ma bisogna considerare che non tutti i medici sono disposti a questo tipo di comunicazione e non sempre le e-mail vengono lette a breve distanza dall’invio, pertanto è possibile perdere tempo prezioso nell’attesa di una risposta. E’ consigliabile seguire nel frattempo anche la via ufficiale della prenotazione presso la struttura pubblica o privata in cui esercita il sanitario;

8)         Spesso, ma non sempre, gli specialisti di settore realmente esperti pubblicano su riviste scientifiche internazionali, pertanto effettuare quella che si chiama una Med-Line su PubMed sulle pubblicazioni scientifiche del sanitario prescelto può dare una idea abbastanza precisa su quanto quello specialista si sia occupato dell’argomento in questione.  Bisogna però anche considerare che alcuni grandi specialisti non hanno il tempo di pubblicare, ma questo non toglie nulla alla loro capacità e professionalità, e, viceversa, chi pubblica può essere scientificamente competente sull’argomento, ma esserlo meno dal punto di vista della pratica clinica. Resta però un dato certo che se si è pubblicato a livello internazionale su un argomento in una qualche forma si è realmente competenti, starà poi all’onestà dello specialista indirizzare a chi, ad esempio, tratterà meglio di lui quella patologia di cui ci si è occupati di più dal punto di vista speculativo.

 

 

Per i medici:

9)         Un buon suggerimento è quello di utilizzare sempre di più Internet per un costante aggiornamento sulle riviste internazionali e nazionali che, per la maggior parte, oggi solo on-line e spesso con accesso libero e di partecipare a forum clinici su casi clinici risolti ed irrisolti con colleghi di tutto il mondo, confrontandosi e non avendo timore di sbagliare perché solo con il confronto si migliora le proprie capacità diagnostiche e terapeutiche;

 

 

Per entrambi:

10)     Per pazienti e medici vale sempre la regola d’oro del buon senso, non dimenticando mai che per arrivare a diagnosticare e a curare, è necessario visitare accuratamente il paziente partendo dalla sua storia clinica e privilegiando oggi un approccio olistico. Il paziente che si sente considerato come persona e non come un numero su una lista, prenderà fiducia nella sua possibilità di guarigione ed in questo percorso seguirà i consigli e le prescrizioni del medico, utilizzando anche quegli strumenti che oggi il progresso ci ha messo a disposizione e che vedono nella Rete una delle sue più importanti espressioni nel settore dell’informazione medica e della comunicazione nel campo della salute.

 

 

5. Conclusioni

Da tutto quello che è stato esposto, finora, in maniera semplice, da medici che lavorano spesso con Internet e non da specialisti del settore, si evince in maniera chiara che oggi un medico del terzo millennio per potersi tenere costantemente aggiornato e per avere un rapporto professionalmente corretto e competente con il paziente deve saper utilizzare Internet e dovrebbe poter suggerirne un corretto uso ai pazienti con cui viene in contatto. Il fine è quello di migliorare sempre di più quella relazione particolare ed unica che si stabilisce tra medico e paziente e che dovrebbe portare alla cura ed alla guarigione clinica della malattia acuta o all’accompagnamento clinico-terapeutico nella malattia cronica.

Crediamo che una frase del Prof. Nadas, noto cardiologo pediatra del XX secolo, riassuma in maniera unica il compito del medico di fronte ad una malattia da diagnosticare: “Si trova quel che si cerca e si cerca quel che si sa”.

La Rete, se utilizzata in maniera corretta e competente, ci aiuta a cercare e a trovare.

 

 

Ringraziamenti

 

 

Un ringraziamento a quanti hanno voluto questo libro in memoria di Paolo, mio cugino coetaneo, ed un ricordo di Paolo, carico di tanti sentimenti,  per la sua intelligenza, per la sua capacità di confrontarsi e per la sua capacità di stimolare alla ricerca, stimoli che mi ha sempre dato, pur in settori così diversi, che oggi però si sono potuti incontrare su questo libro.

Un ringraziamento a Gerardo, primo autore di questo articolo, prima studente ed oggi valido collega, “mago di Internet”, che ha permesso con le sue competenze tecniche di dare una base strutturata a tutto quello che con l’esperienza quotidiana ho appreso sul corretto utilizzo in Medicina di questo indispensabile strumento.

 

 


Bibliografia essenziale

 

Eysenbach G. (2008). Medicine 2.0: Social Networking, Collaboration, Participation, Apomediation, and Openness. J Med Internet Res, 10: e22

 

 

Giustini, D. (2006). How Web 2.0 is changing medicine: Editorial. British Medical Journal, 333:1283-1284

 

 

Hughes B, Joshi I, Wareham J. (2008). Health 2.0 and Medicine 2.0: Tensions and Controversies in the Field, J Med Internet Res, 10: e23

 

 

Santoro E. (2009). Web 2.0 e medicina. Il Pensiero Scientifico Editore. Roma, pp 260.

Silber D. (2009). Medicine 2.0: the stakes of partecipatory medicine. Presse Med 38:1456-1962

 

 

Tan H, Ng JHK. (2006). Googling for a diagnosis—use of Google as a diagnostic aid: internet based study. BMJ;333:1143-5.

 

 

 

 

Link

www.ncbi.nlm.nih.gov/sites/entrez (motore di ricerca PubMed)

medbloggercode.com (Healthcare Blog Code of Ethics)

www.hon.ch (Health on the Net Foundation)

 

 

Blog

blogs.bmj.com (Blog della rivista British Medical Journal)

www.thelancetglobalhealthnetwork.com (Blog della rivista The Lancet)

 

Wiki

www.medpedia.com

www.fluwikie.com

 

Social network

www.doctrs.com

www.dottnet.it

www.patientslikeme.com

 

 

----------------------------------------------------------------------------------------------------------------------------

Arturo Di Corinto

 

Così il web 2.0 aiuta il cittadino ad innovare

di Arturo Di Corinto

per il libro dedicato a Paolo Zocchi

Finora le politiche di e-Government in Italia hanno puntato molto alla modernizzazione della macchina pubblica e solo parzialmente alla creazione di servizi innovativi per i cittadini e le imprese. Inoltre le politiche pubbliche hanno spesso trascurato il ruolo attivo che i cittadini possono svolgere nella definizione, progettazione e realizzazione dei servizi che poi useranno. Eppure perchè l’e-government possa traghettarci verso una società dell’informazione inclusiva, bisognerebbe favorire proprio l’effettiva partecipazione dei cittadini allo sviluppo di srumenti, policy e decisioni pubbliche, in un contesto di sicurezza, privacy, autonomia, rispetto e fiducia reciproca. Secondo precise direttrici di sviluppo: innovazione, efficienza, trasparenza, partecipazione, ecologia.

Primo. L’innovazione riguarda metodi, tecnologie e contenuti. Il riuso dei dati e delle applicazioni,del software e dell’hardware, facilitati come sono da soluzioni open source e di green computing, non solo permettono un risparmio di denaro e la valorizzazione di asset deperibili come l’ambiente, ma sono altrettante strategie innovative nella gestione delle ICT applicate al cambiamento. Secondo. L’efficienza dei servizi resi, che presuppone un trasferimento efficace dell’informazione, produce valore economico solo se diventa veicolo di siluppo e promozione del territorio, di valorizzazione e tutela del patrimonio, di coesione, e integrazione sociale, pertanto l’accesso ai suoi contenuti non può prescindere dall’adozione di standard riconosciuti, dall’interoperabilità dei dati e degli applicativi. Terzo: mentre il miglioramento del rapporto costi/benefici nell’erogazione di beni e servizi a cittadini e imprese passa per l’incremento dell’efficacia e dell’efficienza della comunicazione dei servizi online, non si può sottovalutare il ruolo che portali, blog, social networks hanno nel favorire la partecipazione e la trasparenza delle azioni istituzionali.

Perciò se l’obiettivo di fare dell’Europa la più vasta e competitiva economia della conoscenza è sempre attuale, per realizzare una crescita sostenibile, una migliore qualità della vita, una maggiore coesione sociale e migliori condizioni di lavoro, il settore pubblico deve usare diversamente la leva dell’egovernment. In particolare, secondo l’IPTS (Institute for Prospecrive Technological Studies) i trend socio-tecnici rappresentati dal Web 2.0 possono avere specifiche implicazioni per i servizi pubblici innovativi quali l’eGovernment, l’eHealth e l’eLearning.

Infatti, a dispetto del limitato uso dei servizi online di governi e amministrazioni, le tecnologie alla base del web 2.0 hanno dimostrato di avere un eccezionale impatto nella vita sociale, nell’industria dell’intrattenimento, della pubblicità e dei media. Le applicazioni web based del web 2.0 si fondano sul concetto dell’utilizzatore come produttore: di software (free and open source software); di contenuti (blog, vlog, wiki, Flickr, Youtube), di tendenze, (Last.fm, de.li.cious), di reti sociali (Myspace, Facebook) e di reputazione (eBay). E si fondano anche sull’idea dell’utente come fornitore di connettività (wifi sharing, mesh networks) e di business intelligence.

Le tecnologie alla base del web 2.0 sono innnovazioni introdotte negli ultimi venti anni per incrementare usabilità, integrazione e riuso di applicazioni web che a loro volta consentono la pubblicazioni di dati e informazioni in maniera agile e veloce, di condividerle, e di farlo collaborando. Infatti si tratta di applicazioni che, come dice O’Reilly, “più vengono usate, più migliorano”, e la collaborazione che ne risulta è sempre maggiore della somma dei suoi elementi. Per intenderci, quando parliamo di web 2.0 parliamo di una combinazione di tecnologie (Ajax, XML, OpenAPI, Microformats, Flash/Flex), di applicazioni (Blog, Wiki, Podcast, RSS feeds, Tagging, Social Networks, Search Engine, MPOGames), di valori e principi (l’utente come autore, l’intelligenza collettiva, la continua sperimentazione, l’estrema facilità d’uso).

Gli strumenti del web 2.0 sono già stati usati all’interno del settore pubbico e governativo, e gli esempi sono molti. Fra i più interessanti possiamo citare Intellipedia, Peer to Patent, PatientOpinion, Mybikelane, Culturalazio, Openpolis.

Al di là dei singoli progetti, la natura di tale impatto riposa principalmente sul ruolo proattivo degli utenti che producono contenuti, offrono valutazioni, recensioni, manipolano contenuti generati da altri utenti, offrono saggi di gradimento e attenzione. Si tratta di un work in progress, dove il valore della partecipazione si trasforma in servizi.

I benefici specifici di questo approccio possono aiutare le amministrazioni a rendere il loro governo: semplice e orientato all’utenza, trasparente e affidabile, partecipativo e inclusivo, ampio e coeso.

La scarsa partecipazione, la scarsa qualità dei contributi, comportamenti distruttivi degli utenti e un uso elitario, sono rischi di questo approccio che non vanno sottovalutati..

In ogni caso si tratta di un utilizzo che non si può ignorare e che sta portanto profonde modificazioni in ogni ambito della comunicazione, congiutamente ad altri trend come il consumo consapevole, la formazione di una classe di knowledge worker, l’importanza sempre maggiore dell’apprendimento informale, la comunicazione delle conoscenze tacite e implicite, l’innovazione diretta dagli utenti, nuove forme organizzative a rete e la commercializzazione del mercato IT.

Il web 2.0 funziona bene in contesti di alta fiducia reciproca, e in ambienti caratterizzati da una forte spinta alla collaborazione e alla condivisione di tipo knowledge intensive. Ma una forte spinta e un’alta motivazione strategica fanno il resto. Insieme a una goverance chiara e definita degli ambienti che le interazioni web based creano. Non c’è motivo di credere che la Pubblica Amministrazione italiana non ne sia capace.

 

------------------------------------------------------------------------

Marta Ferraro

Contributo per Paolo Zocchi

Innovare per Formare. Formare per Innovare

 

Introduzione

 

In seguito alle trasformazioni sociali, politiche, economiche e tecnologiche avvenute a livello nazionale e sopranazionale, negli ultimi venti anni la Pubblica Amministrazione italiana ha attraversato un periodo di grande cambiamento che, ancora oggi, non può dirsi concluso.

Il processo di cambiamento è iniziato alla fine degli anni ottanta e l’inizio degli anni novanta in un momento in cui l’Italia ha vissuto un difficile periodo politico, che ha generato l’esigenza di riqualificare a livello nazionale l’immagine e l’operato della Pubblica Amministrazione.

Tale trasformazione è nata anche dalla crescente domanda dei cittadini di partecipare alla gestione della cosa pubblica. Essi, abbandonando sempre di più una posizione di sudditanza, sono giunti a guadagnarsi una posizione di cittadinanza attiva. Tra i fattori che hanno agevolato questo evolutivo processo sociale si evidenzia il ruolo di una maggiore scolarizzazione di massa, l’introduzione e il diffondersi delle nuove tecnologie nella vita quotidiana e una maggiore consapevolezza dei diritti di ogni cittadino.

Ad accelerare la presa di coscienza dei cittadini riguardo all’esercizio dei loro diritti, è stata anche l’azione dei mezzi di comunicazione che con il loro lavoro hanno contribuito a denunciare all’opinione pubblica le mancanze della Pubblica Amministrazione.

In questo scenario politico-sociale della nazione si sono innestati gli articolati meccanismi della globalizzazione, che hanno richiesto un sistema macro territoriale più efficiente, cancellando qualsiasi frontiera e connettendo tutti i settori in un’unica rete. Così tutti i soggetti che ne facevano parte sono stati obbligati ad essere competitivi per evitare il grave rischio di essere esclusi dai molteplici processi che tale sistema imponeva.

Considerando l’appartenenza dell’Italia all’Unione Europea, inoltre, si è assistito alla nascita di una sempre più forte esigenza di congruità tra ordinamento nazionale e istituzioni europee. Il nostro sistema normativo è stato sottoposto ad un lento, ma continuo processo di europeizzazione allo scopo di acquisire le giuste caratteristiche ed essere considerato membro di tale istituzione sovranazionale.

Tutte queste condizioni hanno portato ad una società caratterizzata dal moltiplicarsi e dall’intrecciarsi dei fabbisogni dei cittadini generando un complesso di fenomeni che si incrociano ed interferiscono determinando una particolare concezione dell’identità.

Per dare una risposta esauriente ad una società complessa e  mutevole, il Legislatore ha cominciato ad avviare un lungo processo di riforma della Pubblica Amministrazione, attraverso le leggi Bassanini, al fine di innovare la gestione dei rapporti tra l’Ente pubblico e il cittadino, di riorganizzare le strutture in modo tale da renderle più efficaci e capaci di fornire servizi più efficienti. Nel lungo periodo tali norme cambieranno profondamente la Pubblica Amministrazione nella gestione dei rapporti con il cittadino attraverso strutture più efficaci ed espressioni più efficienti e più trasparenti. L’obiettivo, ad oggi, è quello di giungere a costruire una Pubblica Amministrazione che, come affermava già all’inizio del secolo scorso Filippo Turati, assomigli sempre di più ad una “casa di vetro” e che quindi sia il più possibile aperta al dialogo ed al confronto con i cittadini, i loro primi e più importanti interlocutori. Oggi, ciò può essere possibile anche grazie all’introduzione e all’uso pianificato delle nuove tecnologie.

Per dirsi efficace ed efficiente, la Pubblica Amministrazione deve giungere ad essere sempre più lineare e fornire servizi validi senza far risentire al cittadino il processo organizzativo. In questa evoluzione verso la modernizzazione la Pubblica Amministrazione da un’organizzazione fortemente burocratizzata sta cercando di giungere, invece, ad un modello organizzativo innovativo, orientato all’ascolto dei suoi stakeholder.

Con una struttura fortemente burocratizzata la Pubblica Amministrazione non riesce, infatti, a cogliere le attuali esigenze dei cittadini che, come detto precedentemente, sono più alfabetizzati, più consapevoli dei propri diritti e capaci di utilizzare le nuove tecnologie. Un’organizzazione più flessibile può cogliere questi cambiamenti e riuscire a proporsi come principale attore per lo sviluppo del territorio locale.

È necessario, pertanto, un sistema di Pubblica Amministrazione più moderno e meno burocratizzato, più efficiente, più flessibile e meno rigido. Questi requisiti essenziali, secondo l’ex ministro Franco Bassanini, inducono allo svolgimento di diverse e specifiche funzioni:

 

1        “Una Pubblica Amministrazione capace di liberare le energie, l’iniziativa, lo spirito imprenditoriale dei cittadini, delle imprese, del terzo settore, delle stesse amministrazioni pubbliche;

 

2        Una Pubblica Amministrazione rifocalizzata sul suo core business, dunque una Pubblica Amministrazione che fa meno, ma meglio, che gestisce meno, ma regola, controlla, promuove di più. Che non produce direttamente beni e servizi pubblici che altri possono produrre assicurando un miglior mix tra costi e qualità dei servizi, ma garantisce l’universalità dell’accesso ai beni e servizi pubblici prodotti al mercato o dal terzo settore, la loro equa distribuzione, e il rispetto degli standard di qualità previsti dalle normative;

 

3        Una Pubblica Amministrazione che si misura - e accetta di essere misurata- sul terreno della qualità dei servizi e delle prestazioni e della soddisfazione del cittadino-utente-cliente.

 

4        La Pubblica Amministrazione di un sistema multilivello, consapevole dei vincoli e delle opportunità derivanti dalla integrazione nell’Unione Europea, capace di interloquire con le istituzioni europee e le organizzazioni internazionali; consapevole nel contempo, della struttura federale (o quasi federale) che va assumendo il sistema istituzionale italiano, e capace di ridefinire e riconvertire ruoli e strumenti di intervento secondo il principio di sussidiarietà”.

 

Un’altra importante ragione di cambiamento amministrativo sono state le recenti modifiche al Titolo V della Costituzione che hanno decentrato i poteri a livello locale, conferendo più autonomia e forte responsabilità non solo, come in passato, allo Stato centrale, ma anche agli altri enti territoriali, quali Regioni, Province, Comuni e Città Metropolitane.

Da un’attenta analisi della situazione esposta precedentemente, nasce la necessità di un vero e proprio cambiamento di paradigma nella progettazione e nell’analisi della Pubblica Amministrazione.

La riforma delle amministrazioni pubbliche avviata ormai da diversi anni nasce dalla sinergia di diversi percorsi innovativi ed evolutivi che investono non solo l’aspetto amministrativo e sociale, ma anche quello politico.

Nell’attuale società in cui le protagoniste sono la politica, l’economia e le amministrazioni il processo di ammodernamento non può dirsi concluso, ma si trova a vivere il momento più importante della sua evoluzione e stabilisce come fattore di rilevanza la formazione degli impiegati pubblici. Essa, quindi, deve essere vista e vissuta come momento necessario per una Pubblica Amministrazione che voglia stare al passo con i tempi e che voglia essere motore di sviluppo per il sistema paese e non un ostacolo per l’intera società. In questo periodo di significativi cambiamenti la formazione pubblica è considerata come momento occasionale, poco accattivante o addirittura in contraddizione con gli obiettivi del proprio lavoro. Azioni di formazione per gli impiegati pubblici non sono sicuramente una novità nel nostro paese, come in molti paesi europei, ma è necessario pensare a nuove forme di coinvolgimento e di formazione per intere classi dirigenziali. Bisogna soprattutto cominciare a pensare alla formazione non solo come momento di aggiornamento giuridico - amministrativo, ma come azione adatta a diffondere una nuova cultura, orientata al cambiamento e alle innovazioni. É importante che essa non sia occasionale, ma permanente, grazie all’utilizzo delle nuove tecnologie che possono essere lo strumento per dare l’opportunità ai lavoratori dell’amministrazione pubblica di essere costantemente formati. Alcune esperienze in tal senso sono state già compiute, ma si tratta pur sempre di esperienze a macchia di leopardo senza un luogo di orientamento e di riflessione condiviso tra gli attori coinvolti.

La complessità di questo cambiamento risiede nella difficoltà di realizzare azioni mutabili nel processo come la qualità, il controllo di gestione, la trasparenza, ma immutate nella mission generale dell’amministrazione come la qualità, l’universalità, la garanzia dei servizi. La trasformazione è problematica perché investe contemporaneamente sia il piano culturale e legislativo che quello imprenditoriale e tecnologico.

Al centro di tutto questo meccanismo c’è, dunque, colui che lavora nella Pubblica Amministrazione. É necessario partire proprio da lui, non dimenticando che è opportuno avere una visione interdisciplinare dell’ambiente organizzativo pubblico e la disponibilità ad accogliere la sfida del cambiamento promuovendo efficacia ed efficienza nonché garanzia ed equità del servizio.

É, senza dubbio, una sfida difficile, ma necessaria.

Motore del cambiamento, quindi, sono la formazione e la comunicazione come strumenti di condivisione e partecipazione alla nuova mission.

 

 

Capitolo 1

 

1.   Modifiche al titolo V della parte seconda della Costituzione

 

Sotto la spinta di molti fattori, nazionali e sopranazionali, politici, economici e sociali, il 7 ottobre 2001 per la prima volta nella storia della Repubblica, i cittadini italiani sono stati chiamati ad esprimere la loro opinione, nel referendum popolare su una riforma costituzionale riguardante la legge denominata “Modifiche al titolo V della parte seconda della Costituzione”, che risultò essere favorevole, successivamente essa fu approvata dal Parlamento e pubblicata nella Gazzetta Ufficiale n. 248 del 24 ottobre 2001.

La revisione del Titolo V della seconda parte della Costituzione costituisce senza dubbio l’intervento di riforma più importante della storia della Repubblica italiana. Essa, essendo complessa, a volte, appare come il frutto di molti compromessi, ma non per questo la sua validità deve essere trascurata, soprattutto per il nuovo e sperato assetto che darà alla Repubblica.

Molte le novità introdotte dalla novella del 2001, ma la più importante, dalle quali poi scaturiscono tutte le maggiori implicazioni, è:

 

“L’affermazione della pari dignità ed autonomia dei Comuni, delle Province, delle Città metropolitane, delle Regioni e dello Stato quali enti che compongono la Repubblica e che traggono tutti la fonte della loro autonomia dalla Costituzione.”

 

Il nuovo art. 114 al comma 1 recita:

 

“la Repubblica è costituita dai Comuni, dalle Province, dalle Città metropolitane, dalle Regioni e dallo Stato.”

 

Da tale enunciazione emergono subito le differenze non solo con l’articolo precedente alla riforma (“La Repubblica si riparte in Regioni, Province e Comuni”) ma soprattutto con l’assetto complessivo dei rapporti, nell’ambito della Repubblica, tra Stato, Regioni, Province, Comuni e Città Metropolitane.

La nuova formulazione dell’articolo 114 induce una riformulazione di alcuni concetti chiave, in particolare di quello di “Repubblica”. In tale concetto è presente anche lo Stato tra gli altri enti costitutivi escludendo in tal modo la possibilità di identificare lo Stato con la Repubblica. Inoltre, l’art. 114 ridisegna il rapporto che intercorre tra tutti gli enti indicati e la sostanziale equiparazione, non solo tra Stato e Regioni, ma anche tra questi e Province, Comuni e Città metropolitane. Ne scaturisce un nuovo assetto degli enti territoriali rispetto alla Repubblica che, infatti, non si riparte più in Regioni, Province e Comuni, ma risulta essere costituita dagli Enti sopra citati e in più dalle Città Metropolitane e dallo Stato.

Queste innovazioni introdotte dal nuovo articolo 114 vanno, però, inquadrate nell’intero tessuto normativo della Costituzione e, soprattutto, interpretate alla luce dell’articolo 5 della Prima Parte della Costituzione che sancisce:

 

“la Repubblica, una e indivisibile, riconosce e promuove le autonomie locali; attiva nei servizi che dipendono dallo Stato il più ampio decentramento amministrativo; adegua i principi ed i metodi della sua legislazione alle esigenze dell’autonomia e del decentramento.”

 

Come già è stato detto in precedenza, l’art. 114, stabilisce una Repubblica che risulta costituita da una pluralità di enti e non divisa tra enti sottordinati. Dunque tre sono le differenze tra i due testi:

 

1        è ormai impossibile una qualche forma di identificazione tra la Repubblica e lo Stato;

 

2        gli Enti Territoriali che prima trovavano il proprio fondamento nella Repubblica, ora concorrono alla sua composizione;

 

3        l’esistenza degli Enti Locali nella composizione della Repubblica, procede in maniera ascendente, ma senza alcuna relazione di tipo gerarchico.

 

Una visione complessiva del Titolo V della parte seconda della Costituzione delinea una posizione diversa dello Stato, non solo in termini assoluti, ma nei rapporti con le Regioni e con gli altri Enti Territoriali. Lo Stato non viene privato dei suoi originari poteri, ma assume un ruolo centrale sia nel promuovere l’attivazione di quanto previsto dalla Carta Costituzionale, sia nel definire il contenuto unificante dei diritti dei cittadini. In questa prospettiva il riformato articolo 114 definisce diversamente l’autonomia delle Regioni, delle Province, dei Comuni e delle Città Metropolitane: un’autonomia che si fonda ora, per tutti gli Enti, direttamente sulla Costituzione e che non deriva dallo Stato il suo riconoscimento.

L’innovazione più rilevante apportata dall’articolo 114 è l’assunzione della Costituzione come riferimento unico e comune dell’autonomia degli Enti diversi dallo Stato.  Questa scelta indica, più che il superamento della sovranità statale l’eliminazione di ogni possibilità di derivazione dell’autonomia delle Regioni e degli altri Enti dallo Stato- persona. Alla luce del nuovo articolo 114, in definitiva, sono le Regioni, i Comuni, le Province e le Città Metropolitane che traggono, quali Enti costitutivi la Repubblica, direttamente dalla legge fondamentale la conformazione e la consistenza concreta della propria autonomia che non può essere revocata dallo Stato. Con la riforma del Titolo V della seconda parte della Costituzione è, quindi, la relazione dialettica tra gli Enti che muta, non certo la centralità dello Stato. Tale centralità, però, non si fonda più come in passato sulla sua autorefenzialità, ma è connessa al suo ruolo, ai suoi compiti ed alle sue funzioni che sinergicamente confluiscono per tutelare come primo obiettivo l’interesse nazionale.

Fino ad ora si è posta l’attenzione sui problemi di interpretazione che scaturiscono dal primo comma dell’art. 114, ma non vanno trascurate le considerazioni che discendono anche dal comma secondo dello stesso articolo e che stabilisce un rapporto nuovo tra le Regioni e gli altri Enti Territoriali. Secondo tale disposizione:

 

“i Comuni, le Province, le Città Metropolitane e le Regioni sono enti autonomi con propri statuti, poteri e funzioni secondo i principi fissati dalla Costituzione”.

 

L’intenzione del Legislatore fu quella di stabilire un’equa ordinazione tra Regioni ed Enti Locali abolendo gli articoli 115 e 128. É bene riportare gli articoli per meglio cogliere   l’obiettivo che si era prefisso il Legislatore. L’art. 115 sanciva che:

 

“le Regioni sono costituite in enti autonomi con propri poteri e funzioni secondo principi fissati dalla Costituzione”.

 

Mentre l’art. 128 stabiliva che:

 

“le Province e i Comuni sono enti autonomi nell’ambito dei principi fissati da leggi generali della Repubblica, che ne determina le funzioni.”

 

Queste disposizioni presuppongono delle differenziazioni molto evidenti tra Regioni, Comuni e Province. Se, infatti le Regioni trovano il fondamento dei loro poteri e delle loro funzioni direttamente nella Costituzione; le Province ed i Comuni vengono regolamentati dalle leggi ordinarie della Repubblica. Concludendo si può affermare che la Costituzione prevede l’autonomia delle Regioni, delle Province e dei Comuni, e la garantisce loro in due modi diversi:

 

1        preclude al Legislatore ordinario qualsiasi intervento in materia rientrante nell’autonomia delle Regioni non già disciplinato dalla fonte costituzionale;

 

2        contemporaneamente affida al medesimo Legislatore ordinario la disciplina delle funzioni degli Enti Locali.

  

Dunque, il nuovo testo dell’articolo 114, al comma 2 equipara completamente i Comuni e le Province alle Regioni: tutti sono dichiarati “enti autonomi” direttamente dalla Carta Costituzionale, e sono Enti retti da propri Statuti. Questa precisazione mira a sottolineare che la legge n. 3 del 2001 non ha inteso delineare un sistema (la Repubblica) che si identifica in uno solo degli Enti, ma un sistema che, al contrario, si determina come un complesso di Enti autonomi, che fondano il proprio riconoscimento e la propria legittimazione direttamente sulla Carta Costituzionale in condizione di parità.

Un ulteriore elemento di novità introdotto dall’art. 114 è rappresentato dalla previsione della costituzione delle Città metropolitane tra gli Enti che sono riconosciuti come istituzioni che costituiscono la Repubblica con propri statuti, poteri e funzioni. Sebbene però, l’art. 114 sancisca la nascita delle Città metropolitane, va sottolineato comunque, che non esistono esperienze concrete di tale nascente Ente Locale e che le disposizioni non riferiscono elementi significativi per una loro corretta realizzazione.

L’articolo 117 della Costituzione appare profondamente cambiato: il primo comma dispone che

 

“la potestà legislativa è esercitata dallo Stato e dalle Regioni nel rispetto della Costituzione, nonché dei vincoli derivanti dall’ordinamento comunitario e dagli obblighi comunitari.”

 

La più profonda innovazione prevista dalla nuova norma è rappresentata dal capovolgimento del tradizionale criterio adottato per l’attribuzione della potestà legislativa. In virtù delle modifiche apportate, la Regione è l’Ente che ora possiede in via ordinaria la potestà legislativa, ad eccezione delle materie attribuite a quella esclusiva dello Stato e quelle rientranti nella legislazione concorrente. L’articolo 117 prevede:

 

1        al comma 2, una prima elencazione, di materie rientranti nella potestà legislativa dello Stato;

 

2        al comma 3, una elencazione di materie sottoposte a legislazione concorrente;

 

3        al comma 4, l’attribuzione alla potestà legislativa delle Regioni  di “ogni materia non espressamente riservata alla legislazione dello Stato.”

 

Le richiamate modifiche al Titolo V della seconda parte della Costituzione hanno posto le fondamenta per realizzare quella particolare modalità di governo che viene definita federalismo. Il rinnovato modo di intendere la gestione della res pubblica presuppone, per essere realizzata, una corretta implementazione dei principi legislativi enunciati. In altre parole, la nuova modalità di governo implica un cambiamento lungo e complesso che si basa sul decentramento dei poteri e su una riforma complessiva della governance pubblica articolata su più livelli territoriali. Il multi-level governance comprende, come è noto, lo Stato, le Regioni, le Province, le Città Metropolitane e i Comuni.

La legge costituzionale n. 3, del 18 ottobre 2001 ha modificato una parte significativa della Costituzione che riguarda non solo i poteri legislativi, ma anche quelli amministrativi dei diversi livelli di Governo del nostro Paese, nonché le modalità di finanziamento tra Stato, Regioni ed Enti Locali. Infatti, la Legge n. 42 del 2009 che dà attuazione all’articolo 119 della Costituzione conferisce autonomia di entrata e di spesa ai Comuni, alle Province, alle Città metropolitane e alle Regioni e garantisce i principi di solidarietà e di coesione sociale. In tal modo la legge fissa i principi fondamentali del coordinamento della finanza pubblica e del sistema tributario.

Pertanto sembra necessario investire sul change management per far sì che si possano attuare i nuovi dettami legislativi e realizzare un nuovo modo di governare.

“Il change management, gestione del cambiamento, parte infatti dalla necessità da parte delle organizzazioni di accompagnare e strutturare i propri processi di cambiamento, in modo da rispondere efficacemente alle dinamiche con cui le persone promuovono, accolgono e gestiscono le trasformazioni. Al tempo stesso, il change management costituisce l’unica possibilità di rendere concreti tali processi di trasformazione e, specialmente di far procedere le grandi innovazioni giuridico- istituzionali”.

Con ciò si vuole sottolineare che non bastano i dettati legislativi per creare innovazioni, ma va maturata la consapevolezza che gli impegni per compiere il cambiamento siano più onerosi del mantenimento dello status quo:

 

“La legge è una condizione necessaria che però, da sola, non può garantire l’attuazione dei principi in essa stabiliti… Perché le norme possano tradursi in fatti, è indispensabile un’attività di formazione che metta in grado i protagonisti del percorso riformatore di gestire i processi del cambiamento… I dirigenti e il personale che opera nelle amministrazioni sono i copratagonisti necessari dei percorsi di realizzazione degli obiettivi riformatori”.

 

Capitolo 2

 

2.1. Il ruolo della formazione pubblica e delle nuove tecnologie per attuare il cambiamento

 

 

Da un’attenta analisi della situazione esposta precedentemente, nasce la necessità di un vero e proprio cambiamento di paradigma nella progettazione e nell’analisi della Pubblica Amministrazione.

La riforma delle amministrazioni pubbliche avviata ormai da diversi anni nasce dalla sinergia di diversi percorsi innovativi ed evolutivi che investono non solo l’aspetto amministrativo e sociale, ma anche quello politico.

Nell’attuale società in cui le protagoniste sono la politica, l’economia e le amministrazioni il processo di ammodernamento non può dirsi concluso, ma si trova a vivere il momento più importante della sua evoluzione e stabilisce come fattore di rilevanza la formazione degli impiegati pubblici. Essa, quindi, deve essere vista e vissuta come momento necessario per una Pubblica Amministrazione che voglia stare al passo con i tempi e che voglia essere motore di sviluppo per il sistema paese e non un ostacolo per l’intera società. In questo periodo di significativi cambiamenti la formazione pubblica è considerata come momento occasionale, poco accattivante o addirittura in contraddizione con gli obiettivi del proprio lavoro. Azioni di formazione per gli impiegati pubblici non sono sicuramente una novità nel nostro paese, come in molti paesi europei, ma è necessario pensare a nuove forme di coinvolgimento e di formazione per intere classi dirigenziali. Bisogna soprattutto cominciare a pensare alla formazione non solo come momento di aggiornamento giuridico - amministrativo, ma come azione adatta a diffondere una nuova cultura, orientata al cambiamento e alle innovazioni. É importante che essa non sia occasionale, ma permanente, grazie all’utilizzo delle nuove tecnologie che possono essere lo strumento per dare l’opportunità ai lavoratori dell’amministrazione pubblica di essere costantemente formati. Alcune esperienze in tal senso sono state già compiute, ma si tratta pur sempre di esperienze a macchia di leopardo senza un luogo di orientamento e di riflessione condiviso tra gli attori coinvolti.

La formazione pubblica non è sempre stata considerata elemento essenziale, in passato, ha sempre avuto poco spazio nell’agenda programmatica dell’amministrazione. Come sostiene Sabino Cassese:

 

“Per lungo tempo, nelle amministrazioni pubbliche, in particolare in quelle dell’area anglosassone, è prevalso il punto di vista che possiamo definire scettico, secondo il quale non c’è bisogno di insegnare qualcosa che è più facile fare. Si applica, quindi, la regola del - learning by doing -, si impara facendo. Ma questo può avvenire quando le amministrazioni sono sviluppate e vi sono una tradizione e una cultura amministrative.”

 

In letteratura si trovano diverse classificazioni per ordinare le modalità di formazione. Alcuni le distinguono in formazione tradizionale e formazione professionale. Ovviamente, questi due modelli di formazione sono generali e astratti, e quindi le caratteristiche del primo modello o del secondo possono risultare in alcune circostanze compresenti.

Nel primo caso, la formazione è utilizzata per aggiornare il capitale umano al fine di mantenerlo in grado di svolgere le proprie mansioni e sviluppare programmi finalizzati a rispondere a specifiche politiche del personale. La formazione in questo modo è svolta attraverso la semplice somministrazione di nozioni, di tipo soprattutto amministrativo, e lo stesso momento formativo è vissuto come qualsiasi altro compito dell’organizzazione. La cultura organizzativa che risiede nelle amministrazioni che organizzano progetti di formazione in tal modo è caratterizzata da una scarsa propensione ai cambiamenti sia esterni che interni alla struttura. La formazione, in altre parole, è impiegata come strumento di addestramento iniziale e di aggiornamento o rafforzamento delle abilità di base.

Nel secondo caso, i progetti di formazione sono percepiti come esperienza permanente, impiegata sia per consolidare quella capacità di adattamento ad un’organizzazione mutevole del personale, sia per migliorare costantemente la capacità dell’intera amministrazione in modo che essa possa affrontare le sfide poste dal contesto istituzionale, tecnologico e sociale in un processo di continua evoluzione. Insomma, la formazione professionale è un momento di acquisizione mirata, sistematica, valutata nei suoi effetti umani ed organizzativi, di competenze aggiuntive e anche sostitutive.

Al contrario del primo caso, l’amministrazione che sviluppa processi di formazione con questi presupposti non è percepita come ente immutabile, ma come elemento mutabile che costantemente si confronta con il contesto esterno, considerandosi esso stesso parte di un complesso di elementi in evoluzione.

Sabino Cassese invece distingue tre finalità:

 

“Si può dire che esista una versione debole, una versione forte ed una fortissima della formazione. Nella versione debole, formazione vuol dire preparazione allo svolgimento di una professione. Nella versione forte, è il veicolo dell’innovazione amministrativa, come si dice nei paesi di lingua spagnola. Vi è, poi, la versione fortissima che è la formazione per la creazione della classe dirigente di un paese”.

 

 

É soprattutto a partire dalla seconda metà degli anni novanta che è stato riconosciuto il ruolo strategico dell’attività formativa, sia per il legame con l’occupazione, sia per il contributo che essa può dare per rendere competitivo il nostro Paese. É con l’accordo per il lavoro del 24 settembre 1996, sottoscritto dal Governo e dalle parti sociali, che si inaugura un periodo nuovo per la formazione in Italia. Nell’accordo si afferma esplicitamente che

“la qualità del sistema di istruzione e di formazione è la leva fondamentale per la competitività attuale e futura e per costruire un modello sociale equilibrato fondato sull’attuazione del pieno diritto di cittadinanza.”

Nel nostro Paese perdura una radicata arretratezza culturale, metodologica e strumentale, una disattenzione politica a cui si affiancano ripetitività dei programmi, mancanza di innovazione, persistenza di una visione essenzialmente giuridica delle competenze della Pubblica Amministrazione.

Per superare questa situazione è necessario predisporre un programma formativo efficace con un’iniziale fase di individuazione dei fabbisogni dei diversi livelli dell’organizzazione dell’unità amministrativa, la raccolta delle informazioni e l’analisi organizzativa, al fine di raggiungere una maggiore coerenza tra il servizio formativo offerto e le reali esigenze organizzative. In particolare, l’analisi deve essere rivolta a tre livelli:

1        bisogni dei singoli;

2        esigenze del ruolo per interventi di sensibilizzazione e sostegno motivazionale;

3        bisogni dell’organizzazione in generale.

 

Mentre alla fase investigativa iniziale, attraverso la quale vengono individuati i fabbisogni formativi dell’organizzazione, corrispondono diversi strumenti per rispondere alle varie esigenze riscontrate, nella seconda fase si realizza la trasformazione delle esigenze individuate in obiettivi didattici:

1        acquisire conoscenze, come nozioni tecniche,

2        acquisire abilità e competenze per affrontare situazioni lavorative nuove.

 

Nel raggiungere tali obiettivi, è necessario tener conto della sfera emotiva e affettiva del singolo, dei suoi atteggiamenti e delle sue opinioni. Così facendo, il lavoratore viene facilitato nello sviluppare positivi rapporti interpersonali nell’ambito lavorativo, nel controllare comportamenti ansiosi ed a saper sopportare lo stress.

A questo punto dell’analisi è necessario scegliere un’appropriata metodologia didattica per realizzare un adeguato corso di formazione. Come è facile intuire, non può essere adottata un’unica metodologia per ogni esigenza formativa: ogni metodologia da impiegare va scelta tenendo conto dell’obiettivo da raggiungere.

Per realizzare attività formative articolate sono necessari degli investimenti finanziari adeguati di cui le Amministrazioni pubbliche spesso non dispongono. Oltretutto ancora oggi in molte realtà si preferisce accedere al mercato esterno per formare gli addetti ai lavori, trascurando che questa decisione spesso risulta inefficace se non si verifica uno scambio tra coloro che vivono la realtà dell’amministrazione e il formatore esterno. Questo stato di cose, inoltre, aumenta le difese dei discenti verso le varie attività di formazione.

Se è vero, infatti, che un servizio esterno consente spesso di avere sistemi sofisticati resta, però, il fatto che sono comunque attività di formazione standardizzate e difficilmente adattabili alle diversificate realtà delle varie amministrazioni ed alle esigenze di chi vi lavora. Al contrario, i corsi interni possono più facilmente essere orientati al contesto organizzativo e culturale dell’amministrazione e consentire con facilità il mantenimento di quelle conoscenze, di quei comportamenti e di quei valori raggiunti dall’organizzazione nel tempo.

La fase che riveste fondamentale importanza è la valutazione delle attività di formazione. É proprio qui, però, che si riscontra la maggiore trascuratezza in ambito pubblico. É una peculiarità del nostro sistema formativo la mancanza di una valutazione sistematica delle numerose iniziative intraprese. La valutazione costituisce, invece, un momento imprescindibile per acquisire maggiori informazioni sulle conoscenze apprese e per ottenere un feedback per controllare ed adeguare, se è il caso, lo stesso processo formativo.

Non si può prescindere da un sistema di formazione ben articolato e strutturato come quello esposto per far progredire il nostro Paese e per renderlo sempre più competitivo, soprattutto nel periodo storico che stiamo vivendo, sempre più interconnesso a livello nazionale ed, in generale, internazionale. La formazione, poi, deve essere funzionale ad una nuova classe dirigente che sia in grado di traghettare la Pubblica Amministrazione verso il cambiamento da più parti auspicato, soprattutto in un contesto in cui le istituzioni giocano un ruolo centrale nel sostenere la competitività dei territori, nel gestire la crescita e lo sviluppo di sistemi produttivi, in un momento in cui è stato riformato anche il Titolo V della parte seconda della Costituzione italiana che conferisce maggiori poteri agli Enti più decentrati sul territorio. Motivare e responsabilizzare il personale è uno dei cardini della riforma amministrativa e costituisce un elemento imprescindibile di sostegno e di velocizzazione dei processi di decentramento e di allineamento dei nostri standard a quelli europei. Senza dimenticare che una classe dirigente con un ampio patrimonio di conoscenze ha una maggiore capacità di elaborare le informazioni, peculiarità essenziale nella nostra epoca, che è stata definita la società della conoscenza.

Alla forte disattenzione sulla tematica della formazione nel settore pubblico si sta cercando di mettere argine solo recentemente. La prima, e purtroppo anche l’ultima, “Conferenza Nazionale sulla formazione nel settore pubblico” si è svolta nell’ormai lontano 1998. Questa Conferenza è stata un’importante occasione per istituzioni pubbliche, istituzioni private, sindacati e mondo dell’impresa e della cultura per affrontare e per discutere sinergicamente il tema della formazione del personale. Si auspicava che essa potesse divenire un momento importante per

“mettere a fuoco un preciso quadro di riferimento del sistema formativo pubblico e concorrere concretamente alla razionalizzazione ed al miglioramento delle prestazioni rese dalle amministrazioni pubbliche”,

Un’attenta lettura degli atti di quel convegno porta a due considerazioni: la precisione delle analisi sulla tematica, ma anche la mancanza di risposte per le questioni che gli esperti si ponevano. Tante sono le cause di queste mancate risposte: il nostro Paese non ha la cultura della formazione come risorsa sulla quale investire, piuttosto essa viene vissuta come voce di spesa nel bilancio dell’amministrazione pubblica. A ciò si aggiungono, poi, gli scarsi investimenti e la mancanza di strategie formative valide che coinvolgono tutte le Scuole di Alta Formazione. Già in quegli anni si ipotizzava la realizzazione di un organico disegno di riforma della materia sia per quanto riguarda la formazione di ingresso che la formazione continua.

 

2.2. Il sistema italiano di formazione pubblica

Il sistema italiano di formazione pubblica non è affidato ad un solo ente (come avviene per esempio in Francia con l’ENA) ma è articolato in tante Scuole di Alta Formazione, ognuna delle quali è predisposta a occuparsi della formazione, dell’aggiornamento e dell’avanzamento in carriera degli impiegati delle diverse amministrazioni. Tale struttura parcellizzata implica che ogni Scuola segue proprie norme e propri percorsi formativi rendendo disomogeneo il percorso formativo delle diverse figure professionali. Il sistema pubblico italiano è così articolato:

SSPA: la Scuola Superiore della Pubblica Amministrazione è un’istituzione pubblica di Alta cultura e formazione. Essa ha nell’ambito della Presidenza del Consiglio dei Ministri autonomia organizzativa e contabile nei limiti delle proprie risorse economiche e finanziarie. La Scuola è stata istituita nel 1957, ma la sua attività è cominciata effettivamente nel 1962.

Il decreto legislativo 287/1999 ha ridefinito l’organizzazione e i compiti della Scuola definendola istituzione di Alta cultura e formazione; questa norma è stata, poi, integrata con il più recente decreto legislativo 381/2003 che costituisce ancora oggi il suo regolamento.

SSPAL: la Scuola Superiore della Pubblica Amministrazione Locale è la più giovane tra le Scuole di Alta formazione. Essa è stata istituita con la Legge n. 127 del 1997, insieme all’Agenzia Autonoma per la Gestione dell’Albo dei Segretari Comunali e Provinciali. Recentemente è stata riformata dal D.P.R. n. 27 del 28 gennaio 2008 con cui sono stati ampliati i compiti e le responsabilità della Scuola. Il suo principale compito è quello di definire l’accesso e l’avanzamento in carriera dei segretari comunali. Questo avviene mediante la pubblicazione di bandi per concorsi all’accesso, la realizzazione di specifici corsi di formazione: il corso CoA destinato a neo-laureati che consente l’accesso in carriera dei vincitori di concorso; il corso SpeS che concede la specializzazione dei segretari, riguardo la titolarità di comuni con popolazione fino a 65000 abitanti non capoluoghi di provincia e il corso SeFa che riconosce la titolarità in sedi di comuni con più di 65000 abitanti capoluoghi di provincia e province.

La SSPAL, oltre alla formazione iniziale e permanente dei segretari comunali, al loro perfezionamento e aggiornamento professionale, con la recente revisione dei suoi compiti con il DPR 27/08, è ora chiamata anche ad occuparsi della qualifica dirigenziale e dell’aggiornamento del personale degli Enti Locali, in collaborazione con il Ministero dell’Interno; essa definisce ed eroga percorsi formativi per gli amministratori locali ed infine garantisce assistenza tecnica in materia di formazione per il sistema delle autonomie locali, nonché elabora attività di studi e di ricerche. Di grande importanza, poi, è l’attribuzione alla Scuola dell’assistenza tecnica in materia di formazione e la possibilità di effettuare, su richiesta del Ministero degli Affari Regionali, ricerche e studi riguardanti funzioni di governo degli Enti Locali.    

SSAI: la Scuola Superiore dell’Amministrazione dell’Interno che è stata costituita con il Decreto Ministeriale del 10 settembre del 1980 è una Scuola di Alta cultura e formazione e lavora in conformità ai criteri stabiliti dal Ministero dell’Interno. Il suo compito principale è quello di provvedere non solo alla formazione e all’aggiornamento culturale e didattico del personale dello stesso Ministero, ma anche a quello di altre amministrazioni pubbliche nazionali ed estere.

La Scuola svolge anche attività di formazione per i segretari generali delle Comunità montane e per il personale delle Regioni e degli Enti Locali.

SSEF: la Scuola Superiore dell’Economia e delle Finanze è nata nel 1957, si occupa della formazione del personale dell’amministrazione economica e finanziaria del paese e lavora alle dipendenze del Ministero dell’Economia e delle Finanze. La Scuola, alla sua nascita, fu intitolata all’onorevole Ezio Vanoni, economista, studioso, ricercatore che, oltre ad essere il padre della riforma tributaria del 1951, fu anche un fervido sostenitore dell’importanza della formazione in tale ambito. Ancora oggi la Scuola continua a perseguire con il proprio impegno l’idea che ebbe Vanoni, cioè coniugare l’approccio teorico-scientifico alle migliori esperienze pratico-applicative per garantire la crescita e lo sviluppo di una moderna Pubblica Amministrazione.

Ministero degli Affari Esteri - Istituto Diplomatico “Mario Toscano”: l’Istituto Diplomatico “Mario Toscano” è stato riformato dal DPR numero 258 del 19 febbraio 2007. Esso ha trasformato l’Istituto da un autonomo centro di responsabilità del Ministero degli Affari Esteri in un’Unità che opera nell’ambito della Direzione generale per le risorse umane e l’organizzazione.

Il successivo Decreto Ministeriale, il numero 034/0203 del 15 febbraio 2008, invece, ha disciplinato l’organizzazione interna degli uffici di livello dirigenziale generale del Ministero. Esso ha attribuito all’Istituto vari compiti: programmare e gestire i corsi per i dipendenti dei diversi livelli professionali che svolgono servizio presso il Ministero degli Affari Esteri; occuparsi della valutazione, della verifica e della certificazione della formazione; predisporre attività di formazione per quanti vogliano intraprendere la carriera diplomatica o l’impiego presso Organizzazioni internazionali ed, infine, occuparsi della formazione internazionalistica per altre Amministrazioni in vista del lavoro da svolgere all’estero. L’Istituto è tenuto a curare lo svolgimento di tirocini sia presso il Ministero che presso le sedi estere.

Scuola di Formazione e Perfezionamento del Personale Civile della Difesa: la Scuola di Formazione e Perfezionamento del Personale Civile della Difesa (CIVIL-SCUOLADIFE) ha sede a Roma. Essa è stata istituita nel 1969 e regolamentata dapprima dal DM dell’11 agosto 1970 e successivamente con i decreti ministeriali del 1 maggio 1983 e 18 aprile 1985. Inizialmente il suo principale compito era quello di predisporre attività di formazione per il personale civile impiegatizio (oggi detto di seconda e terza fascia); poi, con il riordino delle sue competenze, le ha estese anche al personale operaio della Difesa (prima e seconda fascia), impiegati per lo più presso gli Enti dell’area tecnico-industriale e tecnico operativa del Ministero. In accordo con la Direzione generale del personale civile, nonché con gli Stati Maggiori di Forza Armata, la Scuola provvede anche ad organizzare e svolgere corsi, cicli di conferenze ed altre iniziative di tal genere per il personale civile e militare inserito nell’area tecnico amministrativa dell’Amministrazione della Difesa. Con l’ultimo DM del 6 giugno 2001, l’Istituto, che prima era alle dirette dipendenze del Gabinetto del Ministero, è stato posto sotto la direzione del Segretario generale della Difesa. La Scuola è l’unico centro di formazione per il personale civile e la sua attività viene integrata dalla formazione svolta all’esterno presso Enti pubblici e/o privati. Particolare importanza rivestono le attività di formazione organizzate da tale istituzione, soprattutto in questi ultimi anni che hanno visto un profondo cambiamento di rinnovamento e di riorganizzazione per il passaggio dal servizio militare obbligatorio a quello volontario e per l’apertura della carriera militare alle donne.

Istituto Guglielmo Tagliacarne: l’istituto, nato nel 1986, progetta e organizza percorsi formativi per Camere di Commercio, Pubblica Amministrazione ed Enti Locali, imprenditori, manager e neo-laureati. Esso, grazie alla sua qualificata esperienza, è in grado di offrire supporto a tutti quei soggetti pubblici e privati interessati allo sviluppo economico locale. Inoltre, esso fa parte del Sistema Statistico Nazionale (SISTAN). Il suo maggior impegno è quello di promuovere iniziative a sostegno dello sviluppo economico del territorio e del sistema imprenditoriale locale in tre aree di pertinenza:

1        area formazione camerale e manageriale,

2        area studi e ricerche,

3        area servizi innovativi e politiche per l’innovazione.

 

Formez: nato nel 1965 per iniziativa della Cassa per il Mezzogiorno-IRI-SVIMEZ con l’obiettivo di creare una classe dirigente che, nel clima di sviluppo economico del Paese, fosse in grado di allineare il sud Italia alla modernizzazione in atto. Nel corso della sua storia l’Istituito ha vissuto diverse vicissitudini e la sua stessa mission è stata più volte ridefinita per adempiere di volta in volta a specifiche necessità. Esso opera a livello nazionale e risponde al Dipartimento della Funzione Pubblica della Presidenza del Consiglio; fornisce assistenza tecnica e servizi formativi e informativi soprattutto alle Amministrazioni Locali (ma anche centrali) e inoltre partecipa a iniziative di formazione a carattere nazionale e internazionale in collaborazione con organismi pubblici e privati. Il Formez, come alcune altre Scuole Superiori, sta vivendo un periodo di profondi cambiamenti, ne è un segnale il progetto “Linea Amica” un contact service della Pubblica Amministrazione che dovrebbe, con il tempo, costituire uno strumento di semplificazione e che coinvolge direttamente i segretari comunali. Il Formez è un’associazione con personalità giuridica che opera trasversalmente presso tutti i livelli di governo diventando agente della competitività nella Pubblica Amministrazione attraverso la qualificazione continua del personale. L’Istituto fornisce assistenza tecnico-formativa per la realizzazione di efficaci politiche pubbliche; favorisce il confronto e lo scambio tra le esperienze delle diverse amministrazioni; facilita e supporta processi di cambiamento nello sviluppo di nuovi sistemi di governance anche attraverso l’introduzione di innovazioni organizzative ed amministrative che costituisce la sua mission principale. Esso, infine, opera attraverso la predisposizione di piani strategici triennali ed annuali.

Il Piano strategico del triennio 2006/2008 ha individuato come aree di approfondimento l’innovazione e la semplificazione delle Amministrazioni, la riqualificazione dei sistemi di competenze interne e l’accrescimento delle competitività dei territori.

Per fornire un quadro completo del sistema di alta formazione italiana vanno segnalate, infine, la Scuola Superiore di Specializzazione in Telecomunicazioni e l’Istituto Superiore di Studi Penitenziari.

Scuola Superiore di Specializzazione in telecomunicazioni: la Scuola opera ai sensi del RD 2483 del 18 agosto 1923 modificato poi dalla Legge 317/1954 e dalla Legge 325/1968 nell’ambito dell’Istituto Superiore CTI, organo tecnico scientifico del Ministero dello Sviluppo Economico. Essa organizza, in concerto con la Facoltà di Ingegneria dell’Università La Sapienza, un corso post laurea per la specializzazione tecnica nel settore ICT rivolto a laureati in ingegneria. Il corso, come previsto dalla Legge, è aperto anche a funzionari tecnici dell’Amministrazione civile e militare dello Stato. A tutti coloro che concludono il percorso formativo della durata di un anno accademico, e suddiviso in due fasi, viene rilasciato il diploma di specializzazione in telecomunicazioni, molto appezzato in sede di assunzioni e di carriera.

L’Istituto Superiore di Studi Penitenziari (ISSP) è organizzato secondo il decreto 446/1992, è la prima e l’unica Scuola in Italia dedicata all’Alta Formazione e specializzazione dei dirigenti e dei quadri direttivi dell’Amministrazione penitenziaria ed ha sede a Roma.

Come si può notare, il sistema dell’alta formazione in Italia è fortemente parcellizzato. A questo tipo di organizzazione molti studiosi imputano la debolezza dello “spirito di corpo” del settore pubblico e la nascita di saperi e competenze così settoriali che rendono difficile un’adeguata mobilità della dirigenza pubblica nel suo insieme. Una delle strade intraprese dalle amministrazioni per il reclutamento dei dirigenti è stata quella di prendere direttamente dall’esterno professionalità già formate con contratti a tempo determinato. Una Pubblica Amministrazione sempre più orientata all’esterno, come si va realizzando secondo i dettami delle norme degli ultimi venti anni, non può che avere benefici da questa “contaminazione tra pubblico e privato a patto, però, che si creino comunque parallelamente momenti di crescita per i dirigenti formati all’interno della pubblica amministrazione.” A ciò bisogna aggiungere il fatto che in Italia i sistemi di formazione pubblica non hanno mai avuto il ruolo di passaggio obbligato per le cariche amministrative dello Stato e delle autonomie locali. Essi svolgono, piuttosto, un ruolo di supporto e di perfezionamento a quelle competenze apprese altrove. Inoltre, spesso, queste iniziative non vengono svolte in base alle necessità del momento, ma in relazione alla disponibilità e all’orientamento dei singoli Enti trascurando, quindi, del tutto la possibilità di creare percorsi formativi obbligati e percorsi curriculari omogenei per quanti aspirano a ricoprire determinate cariche.

La riforma delle istituzioni italiane, per rendere competitivo il nostro paese, rende di fondamentale importanza un miglior funzionamento della Pubblica Amministrazione. L’introduzione delle nuove tecnologie, il Federalismo Fiscale e la Carta delle Autonomie Locali sono innovazioni che presuppongono la necessità di una reale trasformazione che non può essere intesa solo come adeguamento dei vecchi processi ai nuovi dettami. L’uso e l’attuazione di tali iniziative presuppongono la creazione di una nuova cultura, che metta in grado i protagonisti del percorso riformatore di gestire il cambiamento. È evidente che, per attuarlo, non si possono sottovalutare una nuova cultura condivisa e una formazione tempestiva e permanente.

Analizzando i Rapporti sulla formazione pubblica, curati con cadenza annuale dalla SSPA, emerge il ritratto di una Pubblica Amministrazione che, nell’ambito della formazione, registra una sostanziale stasi delle attività, priva di significative variazioni nel corso degli anni. Affrontando nello specifico il problema della formazione nel nostro paese, si può dire che sul lato della domanda ormai la formazione è una realtà oggettivamente consolidata, anche se a macchia di leopardo e anche se non sempre sostenuta da una precisa analisi dell’organizzazione dell’Ente e da una approfondita valutazione del personale e dei relativi fabbisogni. Mentre sul versante dell’offerta è carente l’innovazione; inoltre, la difficoltà, soprattutto per gli Enti Locali, è quella di creare e di offrire prodotti formativi su misura per le loro esigenze. Continua ad essere, inoltre, prevalente un approccio tradizionale alla formazione, ossia quella erogata in aula. Infatti, anche su questo aspetto si registra, nonostante alcune positive esperienze, un sostanziale ritardo.

Le nuove tecnologie della comunicazione e dell’ informazione sono diventate negli ultimi anni parte integrante della nostra quotidianità, condizionando la gran parte delle attività umane e, in particolar modo, quelle della produzione dei beni e dei servizi. Però, le nuove tecnologie sono ancora una componente marginale nella Pubblica Amministrazione italiana, anche se da alcuni anni i legislatori e gli operatori pubblici nazionali stanno cercando di incentivare l’utilizzo delle nuove tecnologie in ambito pubblico.

Il primo documento rilevante sull’argomento è “Linee guida del governo per lo sviluppo della Società dell’Informazione”, approvato dal Consiglio dei Ministri nel maggio 2002. In tema di valorizzazione delle risorse umane, esso si pone due finalità: la certificazione dei processi di alfabetizzazione informatica nella Pubblica Amministrazione e l’utilizzazione dell’e-learning come strumento dell’erogazione della formazione. Con la successiva norma del dicembre 2002 “Linee guida in materia di digitalizzazione dell’amministrazione” si chiariva come la formazione dei dipendenti pubblici dovesse essere svolta attraverso attività formative diverse per operatori, dirigenti e funzionari e per amministrazioni locali e centrali.

Il CNIPA, a tal proposito, ha fornito un valido contributo producendo il “Vademecum per la realizzazioni di progetti formativi in modalità e-learning nelle pubbliche amministrazioni.”

Contrariamente a quanto stabilito dalle norme precedentemente richiamate si continua a privilegiare la formazione in aula a dispetto della formazione con il supporto delle nuove tecnologie

“….rimangono irrisolti i problemi organizzativi e permangono significative resistenze culturali da parte dei responsabili della formazione e degli stessi fruitori. In molti casi, le esperienze di e-learning sono state episodiche e non hanno avuto un impatto significativo sulla concreta realtà quotidiana dei partecipanti, specie ove si tratti di operatori delle pubbliche amministrazioni.”

2.3. Le nuove tecnologie e l’E-learning, un'opportunita' da cogliere

La metodologia di insegnamento, che si avvale della possibilità di erogare contenuti formativi attraverso la rete, è chiamata e-learning. Secondo il CNIPA, il Centro Nazionale per l’Informatica nella Pubblica Amministrazione,

“l’e-learning è una metodologia di insegnamento e apprendimento che coinvolge sia il prodotto sia il processo formativo. Per prodotto formativo si intende ogni tipologia di materiale o contenuto messo a disposizione in formato digitale attraverso supporti informatici o di rete. Per processo formativo si intende invece la gestione dell’intero iter didattico che coinvolge gli aspetti di erogazione, fruizione, interazione, valutazione. In questa dimensione il vero valore aggiunto dell’e-learning emerge nei servizi di assistenza e tutorship, nelle modalità di interazione sincronica e asincronica, di condivisione e collaborazione a livello di community.”

L’e-learning, ossia l’apprendimento elettronico, è solo l’ultima versione delle diverse modalità di formazione a distanza che si sono susseguite nel corso degli anni. Il primo esempio di formazione a distanza è l’insegnamento per corrispondenza, che si fa risalire agli anni in cui fu inventata la stampa e contemporaneamente si sviluppò il trasporto ferroviario. Il vantaggio di questa prima generazione di formazione a distanza risiedeva nella possibilità di distribuire elaborati e testi ad un pubblico di studenti residenti in diverse zone, però lo scambio del materiale didattico tra docente e discenti non prevedeva un feedback, né tanto meno, era previsto uno scambio tra gli studenti:

“Si trattava di un sistema scarsamente dinamico, poco interattivo tra studente e istituzione formativa e decisamente poco attento alle esigenze dello studente.”

La formazione a distanza di seconda generazione, invece, si ha a partire dagli anni sessanta e si caratterizza per l’utilizzo integrato di materiale a stampa, di trasmissioni televisive e registrazioni. Questa modalità didattica prevedeva un livello di interazione tra docente e studente leggermente più alto di quello di prima generazione, grazie alla possibilità di instaurare un contatto telefonico o via fax ed, in alcuni casi, via posta elettronica.

La formazione a distanza di terza generazione è tipica degli anni ottanta-novanta. Essa si afferma soprattutto per l’essere un sistema di distribuzione di informazioni, basato su un insieme di materiali e procedure, predisposti secondo obiettivi definiti e applicabili in circostanze di luogo e tempo diversi da quelli in cui il materiale è stato prodotto.

Oggi viviamo gli anni in cui si sta affermando la formazione a distanza di quarta generazione. Essa sta cercando di imporsi a partire dalla fine degli anni novanta e si configura come Open Distance Learning (ODL), cioè come un Apprendimento aperto a distanza. Questa modalità di formazione è

“un tipo di approccio formativo costituito da sistemi misti, che integrano momenti di autoapprendimento, on line e off line (tipici della FAD), con incontri seminariali (tipici della formazione in presenza o formazione faccia a faccia, anche detta F2F, Face to Face).”

Dunque, la formazione a distanza di quarta generazione è il risultato delle precedenti modalità di formazione, scegliendo e privilegiando di volta in volta la metodologia più adeguata alle esigenze formative del contesto organizzativo e si propone come modalità di formazione continua e permanente.

L’e-learning fa uso delle tecnologie di rete per progettare, distribuire, scegliere e gestire il momento dell’apprendimento. L’utilizzo delle tecnologie per organizzare il momento formativo suggerisce quattro osservazioni importanti:

“l’e-learning cambia il modo di pensare e progettare i contenuti formativi; cambia il modo di organizzarli e archiviarli; cambiano le modalità di fruizione e di scelta da parte dell’utente; cambia la modalità di erogazione dei contenuti e di gestione del processo.”

L’e-learning è il risultato della somma di tre diverse modalità formative: il tele-learning, il self-learning e il cooperative learning.

 Il tele-learning indica un insegnamento tipico della teledidattica, in cui la gestione del processo formativo è demandata ad un individuo esterno, il formatore, che è responsabile della trasmissione dei contenuti formativi. Il tele-learning prevede lo scambio testuale di e-mail e chat e lo scambio audio-video con video lezioni.

Il self-learning indica l’autoapprendimento gestito dallo studente, attraverso l’utilizzo di una varietà di tecnologie formative, quali CD-ROM, business simulation e altre che innescano percorsi di learning by doing, l’apprendimento attraverso l’azione.

Il cooperative-learning può essere considerato un processo di apprendimento aperto, in cui vengono impiegate modalità comunicative asincroniche, supportate dall’assistenza dei tutor. In questo caso la responsabilità del processo formativo è sia del singolo che sceglie il materiale che gli interessa, tra quello disponibile in rete, sia del gruppo o della comunità a cui appartiene.

“L’intreccio di queste tre modalità didattiche rende l’e-learning un modello formativo basato su un apprendimento: procedurale (ossia l’individuo impara a fare), problematizzato (con la simulazione), esperienziale e costruttivo (tramite tentativi ed errori e la ricerca di soluzioni), flessibile (l’individuo è libero di scegliere il percorso che meglio si presenta ai suoi interessi), collaborativo.”

Riflettendo su questa succinta ricostruzione della storia della formazione a distanza, si può concordare con lo studioso Keegan, secondo cui è possibile parlare di formazione a distanza solo se si realizzano le seguenti condizioni:

1        la separazione fisica tra insegnante e studente;

2        un’organizzazione didattica strutturata (che la distingue dallo studio individuale);

3        la presenza di una tecnologia per collegare l’insegnante ed il discente;

4        la disponibilità di una comunicazione a due vie;

5        la possibilità di incontri occasionali a fini didattici o sociali;

6        una forma industrializzata di istruzione.

 

L’utilizzo dell’e-learning ha dato

“un impulso determinante alle attività formative a distanza portando a ridefinirle in molti aspetti: la simultaneità nella fruibilità del modulo formativo a distanza, la possibilità di avere sessioni multiutenti con tutor o docenti collegati, la disponibilità di lezioni online (in diretta o in differita)”

che, al contrario, le imprese private e le università stanno adottando sempre più frequentemente con positivi risultati. Le nuove tecnologie impiegate in questo ambito possono essere uno strumento adatto a favorire l’integrazione del tradizionale lavoro d’aula realizzando comunità di pratica, network per lo scambio di esperienze, l’accompagnamento pratico degli utenti rendendo la formazione un momento non occasionale, ma permanente. Attraverso l’e-learning è, inoltre, possibile sgravare le Amministrazioni Pubbliche di alti costi sia finanziari che in termini di assenze dal lavoro causate da lunghi periodi di percorsi formativi in aula.

Per la Pubblica Amministrazione, dunque, sarebbe da privilegiare una formazione con la metodologia blended che integra cioè momenti di formazione in aula con la formazione a distanza attraverso l’uso delle nuove tecnologie. Essa coniuga i vantaggi di entrambe le modalità di formazione. Della formazione in aula sfrutta il rapporto faccia a faccia che si instaura tra docente e discente, mentre dalla metodologia e-learning trae altri benefici, quali la maggiore economicità dei costi di organizzazione, la possibilità di creare comunità virtuali dove confrontarsi e mettere in comune le nozioni acquisite e per tutti l’assiduità di seguire i corsi senza assentarsi dal posto di lavoro.

2.4. E-learning 2.0

Il termine e-learning 2.0 è stato proposto per la prima volta dal ricercatore canadese Stephen Downes nel 2005. Con tale termine si indica una nuova filosofia di utilizzo della tecnologia per realizzare un processo di apprendimento. Questa nuova filosofia si ispira al web 2.0, la cui struttura è composta da blog, podcast, wiki, e altri strumenti che offrono la possibilità agli utenti di una presenza altamente interattiva sulla rete. Secondo Stephen Downes, la formula classica dell’on line education ormai è più attuale. Ciò che è superato è il concetto di Learning Objet, delle classi virtuali composte da docenti, tutor e studenti, ognuno con il proprio ruolo e le sue relative funzioni. Per i promotori dell’e-learning 2.0, invece, questo tipo di formazione a distanza è l’unico modo per mettere al centro del processo formativo il discente, con l’ausilio di strumenti che lo rendono attivo in tale processo.

Il web 2.0 si è dimostrato uno strumento validissimo per la socializzazione e la condivisione del materiale più vario in rete. L’e-learning 2.0 si è ispirato proprio a questi principi: la partecipazione, la condivisione, la comunicazione sono gli strumenti fondamentali per l’apprendimento. Infatti, i nuovi sistemi di e-learning tentano di utilizzare al meglio le nuove tecnologie connesse al web 2.0 come blog, wiki, podcast, instant messanger. In tal modo si cerca di realizzare processi di apprendimento di tipo collaborativo, capaci di porre l’attenzione non tanto sui contenuti preconfezionati, ma sul processo sociale che consente agli utenti di lavorare in collaborazione per elaborare nuove conoscenze.

“I percorsi formativi erogati in modalità e-learning 2.0, stando alla filosofia dell’e-learning 2.0, devono essere “aperti” a ogni forma di contributo e non più chiusi e tendenzialmente unidirezionali. Devono essere in grado di combinare opportunamente apprendimento formale e informale, metodologie di tipo erogativo con quelle di tipo collaborativo, formazione canonica in presenza con quella a distanza. L’e-learning 2.0 libera le comunità virtuali di apprendimento e le pone in comunicazione con il più ampio contesto della Rete. Il nuovo modello di e-learning considera sempre meno importante l’apprendimento formale tipico delle istituzioni scolastiche, mentre assegna una notevole importanza alle forme di apprendimento che consentono alle persone di acquisire conoscenza anche attraverso la scoperta casuale, la pratica, l’intuizione, attraverso l’appartenenza a comunità, sul luogo di lavoro e nella vita quotidiana.”    

Conclusioni

Il ruolo strategico della Formazione per il sistema Paese

Le riforme istituzionali, l’ammodernamento della Pubblica Amministrazione e le Scuole pubbliche di alta formazione sono i concetti chiave su cui è stato articolato questo lavoro. I primi due sono da considerare come elementi di scenario, mentre la formazione è da intendere come lo strumento grazie al quale sarà possibile attuare il cambiamento nell’Amministrazione Pubblica.

Nell’attuale contesto globale in continua evoluzione sociale, politica ed economica la Pubblica Amministrazione italiana si trova a vivere un momento di profonda trasformazione per potersi adattare in modo congeniale a sempre nuove situazioni. A tal fine è necessario rilanciare con forza il ruolo prioritario della formazione che è ormai una delle questioni principali per tutte le istituzioni pubbliche, siano esse centrali che locali. La formazione è una precondizione fondamentale per attuare il processo di cambiamento nella Pubblica Amministrazione e, ancor più, per la sua propensione alla dinamizzazione e al cambiamento che costituiscono condizioni costanti dei nostri tempi.

È dagli anni novanta che la Pubblica Amministrazione italiana sta affrontando, come più volte ricordato,  la difficile sfida del cambiamento. Lo scopo principale del legislatore è stato quello di modernizzare la Pubblica Amministrazione rendendola più efficace nelle strutture e più efficiente nei servizi offerti. A tali dettami, poi, si è aggiunta la riforma costituzionale del Titolo V della Costituzione, che ha conferito maggiori compiti e responsabilità alle Amministrazioni Locali che, oggi, giocano un ruolo fondamentale di sostegno alla competitività dei territori, di sostenibilità alla crescita e di sviluppo dei sistemi produttivi. Per tali ragioni, la Pubblica Amministrazione ha dovuto riorganizzare le proprie strutture secondo le nuove disposizioni legislative. Queste spingono verso l’autonomia, il federalismo e i nuovi sistemi di governance degli Enti Locali e hanno posto nuove e difficili sfide ai Comuni e alle Province che devono prepararsi ad una radicale trasformazione. Va detto, però, che limitarsi alla sola messa in atto delle norme è una condizione necessaria, ma non sufficiente, se non è supportata da un’attività di formazione che metta gli attori di questo scenario in grado di capire e di gestire i processi di cambiamento. Le nuove competenze degli Enti Locali richiedono nuove conoscenze, nuovi saperi, nuove tecnologie, nuove figure professionali e/o la riconversione di quelle già esistenti, specie di quelle direzionali non solo sul piano normativo, ma anche su quello economico e sociale. Per capire la portata del cambiamento in atto, è necessario soffermarsi a considerare il diverso ruolo del governo locale. Se prima gli Enti Locali erano chiamati a fornire servizi al cittadino, oggi essi sono forniti molto spesso da agenzie esterne, dotate di svariate nature giuridiche. Per questo all’interno degli Enti nasce l’esigenza di dotarsi di figure professionali capaci di assicurare funzioni di verifica  e di  controllo dei servizi resi da terzi. Questi diversi compiti affidati agli enti più decentrati sul territorio implicano una nuova organizzazione della macchina amministrativa e l’istituzione di nuove figure professionali.

Per attuare questo cambiamento è necessario, allora, investire su attività di formazione, che hanno lo scopo di sostenere i lavoratori in questo delicato momento di transizione da un tipo di organizzazione all’altra.

L’Ente Locale, oggi, è chiamato a dare risposte sempre più rapide in scenari socio-economici in rapida evoluzione. Esso ha, dunque, bisogno di amministratori con profili professionali dotati di nuove competenze: analizzare e conoscere il territorio, nonché pianificare e progettare soluzioni in tempi rapidi. Le attività di formazione, quindi, non devono limitarsi all’acquisizione di nozioni apprese nel periodo universitario, destinate a rimanere patrimonio professionale del dipendente pubblico per tutta la sua carriera. Al contrario le attività di formazione devono proporre una preparazione dinamica, aperta ad un contesto globale in continua evoluzione e che si adatti facilmente alle nuove situazioni di lavoro. La formazione così strutturata diviene necessariamente una condizione permanente che assicura, oltre all’acquisizione di competenze e di saperi, anche l’assimilazione di un metodo di lavoro, la capacità di osservare e conoscere il territorio e di progettare risposte adeguate.

“Le attività formative e di ricerca – funzionali ad una nuova e moderna visione culturale della dirigenza pubblica – rappresentano il principale strumento a disposizione della Repubblica per dare gambe ed anima al processo riformatore. Si tratta, insomma, non di una qualsiasi funzione ma della principale politica per secondare il processo di cambiamento della Pubblica Amministrazione. È dalle risposte che saremo, dunque, in grado di dare che sul tema della formazione e della riqualificazione della Dirigenza che dipenderà la capacità della nostra Nazione di rispondere ai cambiamenti e di portare la P.A. a superare il differenziale negativo con la burocrazia degli altri Paesi.

Tutta la struttura professionale degli Enti Locali e della Pubblica Amministrazione deve mettersi in gioco ed affrontare il cambiamento attraverso la formazione, l’apprendimento permanente, l’accesso in tempo reale a esperienze operative, nonché attraverso l’acquisizione della capacità di studiare e prevedere scenari di innovazione. 

Se la Pubblica Amministrazione non vuole più essere considerata un costo, ma un investimento, l’attività di formazione, di studio e di ricerca deve fornire un valore aggiunto di analisi oggettiva, di conoscenza imparziale, di ricerca di soluzioni utili. Reiterati documenti dell’Europa, dal “libro bianco” di Delors al recente Consiglio dell’Unione Europea di Lisbona, e numerosi studi nazionali ed internazionali ribadiscono come gli investimenti materiali e immateriali necessari per creare conoscenza e informazione rappresentino un sostegno rilevante per la crescita sociale, economica e occupazionale dei vari Paesi. Lo stesso lavoro intellettuale, nel suo complesso, sia esso applicato alla produzione o, ancora di più, alla direzione e gestione dell’attività pubblica, è diventato essenziale per alimentare cambiamenti e modernizzare le Istituzioni.

La formazione pubblica, allora, non deve essere più considerata un momento sporadico e discontinuo, ma deve essere un momento permanente di supporto alle esigenze di formazione e cambiamento di quanti lavorano all’interno della Pubblica Amministrazione. Una formazione permanente è obbligatoria, in questo periodo storico in cui il cambiamento è permanente.

In un contesto complesso così delineato, è necessario pensare ad una nuova articolazione delle Scuole di Alta formazione per riuscire a rispondere meglio alle esigenze di formazione del settore pubblico in continua trasformazione.

Nel corso del tempo, anche se in Italia la formazione pubblica è stata un settore spesso sacrificato a beneficio di altri,  ci sono stati dei tentativi per una sua coerente sistematizzazione, non ultima l’esperienza dell’Agenzia per la formazione, ideata sul modello della formazione francese, che però in Italia non ha avuto seguito.

L’organizzazione di un valido sistema di formazione che possa rispondere alla necessità di attuare il cambiamento deve essere  costituito da Scuole di Alta formazione, le quali devono caratterizzarsi, soprattutto, per la capacità di fare cultura. Il loro compito, dunque, non deve essere solo limitato all’erogazione di nozioni, piuttosto le Scuole devono perseguire l’obiettivo di preparare una nuova classe dirigente che sappia traghettare l’amministrazione pubblica verso il cambiamento. Oggi più che mai, è necessario un rilancio delle competenze delle Scuole trasformandosi in vere e proprie Istituzioni di alta cultura e formazione.

Ciò che spesso accade nel sistema di formazione pubblico italiano è cadere nell’astrattismo teorico e nell’accademismo. Sarebbe necessario, dunque, pensare alla costruzione di un ambito più operativo e gestionale che possa connettere la cultura di base, l’uso delle tecnologie, le nuove metodologie didattiche e la costruzione di relazioni con le Istituzioni locali. Una condizione auspicabile sarebbe anche quella di creare sinergie tra le Università e le Scuole di Alta Formazione, poiché queste ultime hanno sicuramente maggiore conoscenza dei bisogni formativi della Pubblica Amministrazione, ma molto spesso non hanno i mezzi scientifici e didattici per organizzare un’adeguata offerta formativa.

Il ruolo delle nuove tecnologie nel processo della formazione pubblica

Il settore pubblico, tradizionalmente discontinuo e riluttante alle attività di preparazione, sta scoprendo l’importanza della formazione, come motore del cambiamento che è chiamato a vivere.

La formazione è stata per lungo tempo sottovalutata, o comunque tenuta in scarsa considerazione, nella convinzione che fosse una perdita di tempo. Coloro che venivano chiamati a frequentare corsi di formazione erano quelli che in quel determinato momento non servivano all’amministrazione. Era impensabile che l’amministrazione si privasse del dipendente migliore per mandarlo in formazione.

Oggi, non solo la formazione ha guadagnato dignità e importanza agli occhi di molti, ma si è anche arricchita di tante altre sfaccettature che la rendono adattabile a tante diverse necessità.

Si pensi in primo luogo alle possibilità offerte dalle nuove tecnologie. Grazie al loro supporto è possibile formare un intero reparto senza costringere nessun dipendente a spostarsi dal proprio ufficio. Paolo Zocchi amava parafrasare Negroponte, sostenendo che “la classe dirigente pubblica doveva essere in formazione anytime-anywhere”.

Le istituzioni europee e internazionali, già nel 1970 con il documento Education Permanente del Consiglio d’Europa, hanno sottolineato l’importanza delle nuove tecnologie come supporto per le attività di formazione, ribadita poi in altri documenti, come nel Memorandum di Lisbona del 2000 e nell’Education for all documento redatto nell’ambito della Conferenza del Millennio delle Nazioni Unite. In tali documenti, infatti, viene riconosciuto un ruolo fondamentale alla Rete, come strumento adatto alla realizzazione dell’apprendimento permanente in qualunque luogo e in qualunque spazio; ciò non solo perché essa ha le caratteristiche strumentali per poterlo fare, ma anche perché, per le sue peculiarità, si inserisce positivamente nella nuova modellistica formativa della Società della conoscenza. La Rete si compone di tanti requisiti che permettono una formazione permanente: l’accesso sul piano dell’utilizzo, la multimedialità per quanto riguarda i linguaggi, la personalizzazione e l’interattività per quanto concerne l’apprendimento, nonché il reperimento, l’archiviazione, e l’aggiornamento per quanto attiene ai contenuti. Ovviamente, non va trascurato il fatto che si ipotizza anche l’esistenza di scenari non privi di difficoltà, in particolare nelle aree povere o poco sviluppate, i rischi dell’egemonia linguistica inglese, nonché le resistenze individuali e culturali all’uso delle nuove tecnologie.

La fondamentale caratteristica delle nuove tecnologie è la possibilità di usufruire delle risorse offerte dalla Rete senza vincoli di spazio e di tempo. Essa, infatti, offre il vantaggio di portare la formazione in casa: la formazione si delocalizza. Questa è un’opportunità straordinaria per un settore come quello pubblico italiano che conta centinaia di migliaia di dipendenti. Dare la possibilità ad un dipendente di formarsi, aggiornarsi attraverso il computer connesso alla Rete vuol dire moltiplicare le occasioni di formazione, con un gran risparmio di tempo e di spese.

Sul piano dei linguaggi, invece, la caratteristica fondamentale della Rete è la multimedialità, ossia la capacità di trasformare qualsiasi informazione, sia essa un testo scritto, un’immagine, una canzone, un video in bit. Usufruendo della Rete per fare formazione, è facile intuire che si può offrire ai dipendenti la possibilità di essere formati attraverso una molteplicità di messaggi costruiti con diversi linguaggi e non solo attraverso la parola o lo scritto come avviene nelle lezioni frontali.

Inoltre, la Rete offre l’occasione di personalizzare il processo formativo e l’interazione con il docente. La programmazione modulare dell’attività di formazione ha il grande vantaggio di offrire al fruitore dei contenuti l’articolazione degli stessi secondo strutture concettuali precise ed articolate, che non sempre la lezione in presenza permette. La possibilità di dialogare a distanza con colleghi e docenti, di essere seguiti da un tutor con l’ausilio della Rete crea nel tempo una vera e propria comunità: le learning communities che sfatano il pregiudizio secondo cui in Rete non si comunica come in presenza. Per concludere i contenuti in Rete sono sempre disponibili, si conservano e si recuperano facilmente e possono comunque essere aggiornati e sostituiti con celerità.

Nonostante le varie opportunità offerte dalla Rete, si registra però una elevata diffidenza nell’adottare le nuove tecnologie come strumento di formazione. Nel settore pubblico ci sono stati degli ottimi esempi di formazione con l’ausilio della Rete, ma sono rimasti dei momenti occasionali e sporadici. Ciò che ancora manca per un loro utilizzo costante è l’assimilazione dell’uso delle nuove tecnologie come un momento naturale e non imposto e la fine delle reticenze verso questa metodologia didattica. Questo atteggiamento è frutto della composizione del personale impiegato nella Pubblica Amministrazione.

L’approfondimento delle quattro realtà analizzate è servito a dimostrare l’importanza che riveste la cultura interna dell’amministrazione per aderire ad innovazioni profonde, anche attraverso l’utilizzo delle nuove tecnologie. L’uso di tali strumenti tecnologici per essere proficuo deve considerarsi non un obbligo o un imposizione, ma un momento necessario per apprendere e per lavorare meglio. Come ogni attività, anche la formazione attraverso l’uso delle nuove tecnologie deve essere negoziato da tutti coloro che devono prendere parte a queste innovazioni.

L’Italia è pronta strutturalmente alle nuove tecnologie, poiché  nel paese esse sono disponibili, al contrario ciò che ancora non esiste è la propensione al loro utilizzo. Per questo è inevitabile aspettare che i tempi diventino maturi e nel frattempo affrontare con costanza e continuità l’argomento.

 

Bibliografia

 

Andersen, K. V. (2004), E-government in azione. Tecnologie e cambiamento organizzativo nel settore pubblico,. Milano, Franco Angeli.

Anello, (n.6/2004). La settima conferenza sulla misurazione della P.A. e le scuole, in: Ages news. Roma: Ages, pag. 26-29.

Anello, Walter. “La SSPAL e l’alta formazione pubblica” in: Ages news. Roma: Ages, n.2/2004, pag. 15-17

Anello, Walter. “Le Scuole pubbliche di formazione devono 'fare rete'” in: Ages news. Roma: Ages, n.1/2006, pag. 22-25

 

Arcuri, Felice Paolo e Giorgilli, Fabrizio. “La formazione per la pubblica amministrazione: condizioni di contesto e possibili linee di azione” in Formazione e cambiamento. Webmagazine sulla formazione, del 18/02/2008.

URL: <http://db.formez.it/ArchivioNews.nsf/e2c3c8cd88ff8747c1256e2a002fccb7/1daf309d2ee2dc64c12573f3005bcc35?OpenDocument>

Attali, Jacques. Liberare la crescita: 300 decisioni per cambiare la Francia. Commission pour la croissance francaise presidee par Jacques Attali. Milano: Rizzoli, 2008

Baldassarre, Serena – Bonani, Gian Paolo. Formare la nuova Pubblica Amministrazione. Processi di qualità per progettare le competenze innovative. Roma: Scuola Superiore della Pubblica Amministrazione Locale, 2002

Bassanini, Franco – Castelli, Luca (a cura di). Semplificare l’Italia. Stato, Regioni, Enti Locali. Bagno a Ripoli: Passigli, 2008

Bassanini, Franco. Il reclutamento e la formazione dei dirigenti dello Stato e l’ammodernamentodelle Pubbliche Amministrazioni in Italia.

URL:

<www.astrid-online.it/Riforma-de1/La-riforma/Studiric/Bassanini_AperturaCorsoConcorsoSSPA_9_06_08.pdf>

Berti, Mariangela. “La formazione formatori come strumento di cambiamento nella Pubblica Amministrazione” in Lettera Asfor, n. 1-2/2001, pag. 17-19

Bevilacqua, Nicoletta (a cura di). Lo scenario della formazione nel sistema delle autonomie locali. 10° Rapporto nazionale sulla formazione nella P.A. Roma: Formez, 2007

Bevilacqua, Nicoletta (a cura di). Lo scenario della formazione nel sistema delle autonomie locali. 9° Rapporto nazionale sulla formazione nella P.A. Roma: Formez, 2006

Bevilacqua, Nicoletta (a cura di). Lo scenario della formazione nel sistema delle autonomie locali. 8° Rapporto nazionale sulla formazione nella P.A. Roma: Formez, 2005.

Bevilacqua, Nicoletta (a cura di). Lo scenario della formazione nel sistema delle autonomie locali. 11° Rapporto nazionale sulla formazione nella P.A. Roma: Formez, 2008

Bevilacqua, Nicoletta. “9° Rapporto Nazionale sulla formazione nella PA: l’indagine del Formez su Comuni e Province” in Formazione e cambiamento. Webmagazine sulla formazione del 13/02/2006

URL: <http://db.formez.it/ArchivioNews.nsf/e2c3c8cd88ff8747c1256e2a002fccb7/3836306007eccce9c1257114003e6bea?OpenDocument>

Bianco Arturo. “La proposta di regolamento per la Sspal: compiti ambiziosi e strumenti inadeguati” in Federalismi.it, n. 20/2007

URL:  <http://www.federalismi.it/applMostraDoc.cfm?Artid=8615&content=Una+proposta+di+regolamento+per+la+SSPAL:+compiti+ambiziosi+e+strumenti+inadeguati&content_author=Arturo+Bianco>

Boccia, Francesco (a cura di). Dirigenti di domani. La formazione nella P.A. Roma: Arel, 2003

Bonaretti, Mauro – Testa, Paolo (a cura di). Personale al lavoro. Politiche e pratiche per il benessere organizzativo nelle amministrazioni pubbliche. Catanzaro: Rubbettino, 2003

Capaldo Guido – Scognamiglio Sabrina (a cura di). Manuale della formazione per formatori. Progettazione, gestione e valutazione dei processi formativi nella Pubblica Amministrazione. Roma: Scuola Superiore della Pubblica Amministrazione, 2003

Capano, Giliberto – Gualmini, Elisabetta (a cura di). La pubblica amministrazione in Italia. Bologna: Il Mulino, 2006

Casadei, Claudia. “La formazione nella Pubblica Amministrazione: leva strategica per il cambiamento” in Lettera Asfor, n. 1-2/2001, pag. 36

Cassese, Sabino. “A che cosa serve la formazione dei dipendenti pubblici” in Politica del diritto, n. 3/1989

Celentano, Maria Grazia – Colazzo, Salvatore. L’apprendimento digitale. Roma: Carocci 2008

Clarich, Marcello. “Vent’anni di promesse e delusioni.” Il Sole 24 ore.com, del 24 agosto 2009

URL: <http://www.ilsole24ore.com/art/SoleOnLine4/dossier/Italia/2009/commenti-sole-24-ore/24-agosto-2009/trasparenza-amministrativa-promesse-delusioni.shtml?uuid=7861d1b4-9098-11de-a286-7b3903aa1bcd&DocRulesView=Libero>

Clementi, Fabrizio – Antonelli, Vincenzo (a cura di). Il Governo Locale. Nella Transizione Federale. Gorle: CEL, 2009

Colacicco, Francesco. “Considerazioni in ordine alla proposta di nuovo regolamento della Scuola superiore della Pubblica Amministrazione Locale” in Federalismi.it, n. 20/2007

URL:   <http://www.federalismi.it/applMostraDoc.cfm?Artid=8610&content=Considerazioni+in+ordine+alla+proposta+di+nuovo+regolamento+della+Scuola+Superiore+della+Pubblica+Amministrazione+Locale&content_author=Francesco+Colacicco>

Commissione di studio sulla riforma della formazione pubblica della Presidenza del Consiglio dei Ministri. Rapporto sulla riforma della formazione pubblica e sulla attuazione dell’articolo 1, commi 580-586, della Legge finanziaria per il 2007.

URL:

<www.astrid-online.it/Riforma-de1/La-riforma/Studi--ric/Rapporto-Fin-AgenziaFormaz.pdf>

Consoli, Francesco. “Apprendimento riflessivo per la formazione continua” in Formazione e cambiamento. Webmagazine sulla formazione del 20/05/2008

URL: <http://db.formez.it/ArchivioNews.nsf/e2c3c8cd88ff8747c1256e2a002fccb7/d78e50c581dbe534c125744f0045941d?OpenDocument>

Corazza, Rovena. “E-learning: progettare la formazione a distanza” in: Ages news. Roma: Ages, n. 2/2006, pag. 18-23

Corrias, Alessio. “Formazione per le pubbliche amministrazioni locali in Europa. Esperienze a confronto” in Formazione e cambiamento. Webmagazine sulla formazione del 22/03/2004

URL: <http://db.formez.it/ArchivioNews.nsf/e2c3c8cd88ff8747c1256e2a002fccb7/c92d8ea06c9aa97cc1256e5f00653310?OpenDocument>

Denaro, Daniele - Montedoro, Claudia - Parisi, Domenico - Pepe, Dunia – Schembri, Massimiliano. “La simulazione nella formazione a distanza: modelli di apprendimento nella knowledge society” in Formazione e cambiamento. Webmagazine sulla formazione del 13/10/2005

URL:

<http://db.formez.it/ArchivioNews.nsf/e2c3c8cd88ff8747c1256e2a002fccb7/abd2b6f2bd2b32dcc1257099004ccfca?OpenDocument>

Di Nicola, Paola. La rete: metafora dell’appartenenza. Analisi strutturale e paradigma di rete. Milano: Franco Angeli, 1998

Eletti, Valerio (a cura di). Che cos’è l’e-learning. Roma: Carocci, 2005

Faccioli, Franca. Comunicazione pubblica e cultura del servizio. Roma: Carocci, 2000

Forlenza, Oberdan – Terracciano, Gennaro. Regioni ed enti locali dopo la riforma costituzionale. Milano: Il Sole 24 ore, 2002

 

 

Formez. Dai sistemi di qualità alla qualità di sistema. La domanda-offerta di formazione per la P.A. Roma: Formez, 2006

 

 

Forum per la tecnologia della Informazione. L’ICT trasforma la società. X rapporto sulla Tecnologia dell’Informazione. I Rapporto sulla Società dell’Informazione e della Comunicazione in Italia. Milano: Franco Angeli, 2004

 

 

Frauenfelder, Elisa – Santoianni, Flavia (a cura di). e-learning. Milano: Guerini scientifica, 2006

 

 

Garuti, Maria Giovanna - Volpe, Vito. “La formazione per lo sviluppo della PA: un approccio metodologico” in Lettera Asfor n. 1-2/2001, pag. 30-32

 

 

Grimaldi, Anna - Quaglino, Gian Piero. Tra orientamento e autoorientamento tra formazione e autoformazione. Roma: Isfol, 2004

 

 

Ieva Lorenzo, “Quale profilo professionale per il dirigente della P.A.?” in Rivista della Corte dei Conti, 01/2008

URL: http://www.rivistacorteconti.it/cortec/pdf/dottrina/2008/1/DOT_288.pdf

 

 

Isidori, Maria Vittoria. La Formazione e lo sviluppo della Pubblica Amministrazione. Roma: Anicia, 2003

 

 

Isidori, Maria Vittoria. Apprendimento in rete. Pisa: Edizioni ETS, 2003

 

 

Keegan, Desmond. Principi di istruzione a distanza. Firenze: La Nuova Italia, 1994

 

 

Ladu, Giampaolo (a cura di). Percorsi del federalismo in Italia e non solo. Roma: Sspa, 2005

 

 

 

 

-------------------------------------------------------------------------------------------------------

 

Paolo Russo

La crisi degli assiomi della fisica burocratica classica


          Introduzione

L’articolo che segue, in stile volutamente paradossale e non accademico, si propone di stimolare una riflessione sui limiti intrinseci del corrente modello organizzativo della pubblica amministrazione alla luce delle straordinarie innovazioni portate nel settore della comunicazione dalle tecnologie divenute comuni a partire dalla fine dello scorso millennio.

          3. Futuro remoto. Un aula universitaria.

“Oggi voglio cominciare ad affrontare il tema del Grande Crash del XXI secolo. Tutti voi dovreste sapere esattamente a cosa mi sto riferendo, altrimenti fareste meglio a cambiare corso, probabilmente. Comunque, ricapitolare i passaggi salienti non fa mai male. E poi è una bella storia.

Come molte altre onde che portarono grandi cambiamenti nella storia e nella cultura della Terra anche questa ebbe la sua origine nel paese chiamato Italia. Non a caso fu definito come il posto dove la realtà supera sempre la fantasia, nel bene e nel male. I fatti: allora vigeva la classica organizzazione della burocrazia a reticolo gerarchico territoriale con ciascun nodo dotato di ampia e in teoria ben precisa autonomia decisionale. Ma poco o per nulla coordinato ed omogeneo agli altri. Le sovrapposizioni legislative e di competenze erano all’ordine del giorno. Pensate che, anche se ora sembra inconcepibile, il cittadino italiano doveva fare i conti con un corpus di oltre duecentomila leggi, cui poi si aggiungevano una miriade di regolamenti, delibere, circolari, sentenze e chi più ne ha più ne metta. Come se non bastasse vigevano due principi: non era ammessa l’ignoranza della Legge da parte del cittadino e tutto ciò che non era esplicitamente normato era da considerarsi non consentito. Insomma, un manicomio. Che, tuttavia, si reggeva in piedi grazie ad una sola cosa: l’inefficienza complessiva del sistema. Essa, pur dando spazio ad una lunghissima serie di situazioni arbitrarie e riprovevoli, dava anche l’opportunità alle persone di buon senso di “dimenticarsi” in un cassetto atti palesemente senza senso o di “interpretare” l’applicazione di norme cervellotiche. Insomma, c’era un certo spazio di manovra; deleterio quando sfruttato da persone disoneste e senza scrupoli, l’unica chance di sopravvivenza in quel manicomio quando utilizzato da impiegati onesti e di buon senso.

Purtroppo, alla morte di un anziano e assai controverso premier dell’inizio del XXI secolo, i suoi successori ebbero una idea brillante. Come monumento a imperitura memoria della sua grandezza, ora che era morto, decisero che una piramide bastava e avanzava, gliela costruirono e la inaugurarono versando il giusto di lacrime, rigorosamente in diretta televisiva a reti unificate. Finita la cerimonia, dato che i loro sponsor nel mondo dell’economia e della finanza erano altri, decisero di riallocare in una impresa più urgente e strategica le decine di migliaia di milioni di euro che il vecchio leader aveva deciso di destinare alla faraonica costruzione del ponte più lungo del mondo. Per il bene della nazione, e, casualmente, la felicità di alcune multinazionali dell’industria dell’ICT, decisero di rendere finalmente la pubblica amministrazione efficiente secondo rigorosi criteri aziendali attraverso una sua coordinata e organica informatizzazione. Un progetto titanico e irrealizzabile. E, invece, fu il tipico miracolo italiano che quel popolo estroso e bizzarro sapeva sempre realizzare quasi per magia tutte le poche volte che riusciva a superare il suo viscerale amore per la diatriba e a lavorare insieme con passione intorno ad un obiettivo comune. In soli quattro anni fecero ciò che era ritenuto impossibile: idearono, progettarono e implementarono un nuovo sistema informatico a servizio della loro intera pubblica amministrazione. Un sistema pubblico di connettività che in teoria collegava e coordinava ogni singolo ufficio del più elefantiaco dei Ministeri con la più remota sede del più piccolo Comune. Si ricordarono persino delle Comunità Montane. Tutte le istituzioni sarebbero state perfettamente interconnesse, avrebbero scambiato dati con la massima efficienza e avrebbero comunicato istantaneamente ai cittadini gli esiti della lavorazione delle pratiche. Certo, tutto questo in teoria e secondo le simulazioni locali, perché per la natura stessa del sistema non ci poteva essere una fase pilota su un piccolo sottosistema; tutto doveva essere avviato allo stesso tempo per non creare disallineamenti e afasie. Gli esperti leggevano scettici gli articoli sulle riviste scientifiche. Il mondo osservava attonito le demo in scintillante grafica 3D e, soprattutto, le simpatiche signorine succintamente vestite che le illustravano, ultimo retaggio duro a morire di una vecchia Italia che stava per scomparire per sempre. Nessuno, però, in fondo al suo cuore, pensava che avrebbe mai funzionato veramente. Poi, con grande orgoglio della nazione tutta e dei suoi leader in particolare venne il giorno della effettiva messa in esercizio. Il Presidente del Consiglio in carica, sotto gli occhi del Capo dello Stato e di tutte le più alte cariche, non senza qualche trepidazione premette il pulsante di avvio del sistema in diretta mondovisione. Miracolosamente sin dal primo istante tutto funzionò alla perfezione come previsto, tra gli scroscianti applausi dei presenti.

E fu la fine.

I cittadini furono immediatamente travolti da un mare di informazioni, raramente comprensibili, la cui decifrazione avrebbe richiesto quasi tutto il giorno tutti i giorni. Ovviamente non potevano farlo. Non almeno se volevano continuare a lavorare e a vivere la loro vita. Ma la Legge non ammetteva ignoranza e con il cervellotico e caotico sistema normativo in vigore allora era praticamente impossibile non trasgredirne qualcuna ogni ora. Ma adesso l’implacabile efficienza del sistema faceva rilevare immediatamente ogni violazione, la faceva contestare e giudicare in tempi rapidissimi. Le pene venivano notificate e comminate inesorabilmente con chirurgica precisione. Fu un esempio da manuale del peggior incubo di un project manager: avere il team perfetto che mette in esecuzione una pessima idea. Come avrete letto su un qualsiasi libro di storia terrestre sin dalle scuole primarie, in soli 169 giorni tutta la popolazione italiana era in carcere o sottoposta agli arresti domiciliari. Per la precisione tutta tranne i parlamentari, che si erano generosamente concessi l’immunità totale non molto tempo prima. In qualche modo gli italiani ressero a tutto questo per un po’ con il loro proverbiale fatalismo, ma quando non fu possibile riprendere il campionato di calcio perché tutti i giocatori erano in stato di fermo, allora successe quel che successe.

Come spesso accade, col senno di poi fu facile per tutti prevedere l’inevitabilità di ciò che era avvenuto. Tra le tante descrizioni a me piace particolarmente quella cosiddetta “assiomatica”, che usa il linguaggio della fisica per descrivere i principi di funzionamento dell’apparato burocratico. Il concetto di base è presto espresso: l’organizzazione a reticolo gerarchico territoriale autosimile, sviluppatasi già al tempo degli antichi imperi terrestri e rimasta sostanzialmente inalterata fino al XXI secolo, rappresentava la configurazione ottimale di minima energia di un sistema fisico dove l’energia è descritta dall’equazione

E = k mv2 + U

dove k è una costante, m rappresenta la massa fisica del vettore di informazione, per esempio la carta di una notifica, v la velocità di propagazione dell’informazione lungo la rete di comunicazione, mentre U è un campo di energia potenziale che dipende solo dalla posizione e rende conto delle maggiori difficoltà di trasmettere una notifica in montagna piuttosto che all’interno di un centro urbano, per esempio. Questa teoria concepisce l’apparato burocratico come un sistema fisico che rispetta i seguenti assiomi:

1.    L’Amministrazione propaga nello spazio-tempo l’impulso dell’Autorità del Monocrate;

2.    La velocità di propagazione dell’impulso di autorità è di molto inferiore a quella della luce;

3.    La massa m dell’informazione che può essere trasmessa in un qualunque intervallo finito dello spazio-tempo è finita e tende a zero per dt -> 0;

4.    Lo spazio è anisotropo e orientato nel verso che va dal Monocrate verso i cittadini-sudditi.

E’ intuitivo come il vecchio modello burocratico gerarchico autosimile rappresentasse nettamente il sistema più efficiente per propagare un impulso sottoposto agli assiomi che vi ho appena elencato.

Tuttavia tali assiomi cominciarono a non essere più applicabili alla realtà a partire dalla fine del XX secolo con la diffusione quasi universale di Internet. Il primo assioma a dare segni di cedimento fu il quarto, ma solo nei sistemi democratici dove nacquero concetti come l’e-democracy e l’e-partecipation. Tuttavia, alcuni politici più illuminati intuirono il pericolo per il sistema, seppur inconsciamente, e riuscirono presto a debellarlo con un accorto uso di tecniche di marketing e del sistema televisivo. Ma neanche il marketing e i talk-show più spudorati potevano negare le leggi della fisica, sicché la possibilità di trasmettere informazioni smaterializzate virtualmente alla velocità della luce mandò irrimediabilmente in crisi gli assiomi 2 e 3 e con essi un sistema caotico la cui stabilità si basava sulla mitigazione degli effetti deleteri grazie alla loro localizzazione fisica e lentezza di propagazione.

Ora, come saprete, la correzione in senso relativistico degli assiomi della burocrazia classica che vi ho appena descritto portò poi all’elaborazione del modello della cosiddetta Pubblica Amministrazione Personale. Il vostro compito per la prossima lezione è di scrivere una relazione che mostri la diretta connessione tra i nuovi assiomi e le caratteristiche più salienti del modello. In particolare, voglio che vi concentriate sulla delocalizzazione della funzione autorizzativa e la conseguente separazione dalla funzione di controllo, sul principio di comprensibilità delle norme e, infine, sulla inversione totale della natura del rapporto tra Stato e Cittadino basata sul principio che è l’Amministrazione a non poter non sapere e sull’adozione dell’avatar personale come interfaccia unica.

Per oggi può bastare così. Domande?”

 

------------------------------------------------------------------------------------------

 

3. Performing Media: la via ludica-partecipativa alla cittadinanza digitale  

di Carlo Infante

carlo@performingmedia.org

 

Performing Media: la via ludica-partecipativa alla cittadinanza digitale  

di Carlo Infante

carlo@performingmedia.org

 

Una breve premessa: l'incontro con Paolo Zocchi  nell'ambito della campagna elettorale per il Comune di Roma ha segnato per me un riavvicinamento all'impegno politico, certamente non per un'affinità con Il Partito Democratico ma per l'affinità elettiva con Paolo, per la sua energia vitale coniugata ad  una forte tensione civile nel concepire l'innovazione come un'opportunità per rilanciare le qualità della vita urbana, in una città come Roma, dove ero appena tornato dopo 18 anni di vita a Torino.

In questo contesto fertile, di pensatoio dinamico, sono emerse idee e strategie politiche che  mi hanno permesso di mettere in campo alcune delle pratiche che avevo sperimentato (in particolare con Acmos-Gruppo Abele e Libera Piemonte) e teorizzato in un mio libro sulle politiche e le poetiche della rete. (1)

Quello che segue è una riflessione che è stata alla base di alcune delle idee che furono messe in campo allora, grazie alle sollecitazioni di Paolo.

 

1.                                           

L'evoluzione partecipativa del web

Lo sviluppo della nostra società riguarda l’evoluzione dell’idea di spazio pubblico, dall’invenzione del teatro nella polis greca alle piazze del rinascimento.

E in questo quadro che sinserisce la necessità di progettare ambiti ludico-partecipativi per creare anche nel web le condizioni per attuare dinamiche di cittadinanza attiva.

Questo approccio può diventare un’opportunità per coniugare il principio basilare del sistema educativo, quello di formare cittadini, con la pratica culturale nel nuovo spazio pubblico che sta emergendo, quello di Internet.

In questo senso è importante la realizzazione di nuovi format culturali, sociali ed educativi di comunicazione interattiva per interpretare le potenzialità di ciò che viene definito il web 2.0, ovvero l’evoluzione della rete nel senso partecipativo, come il fenomeno dei blog e dei social networking ha reso evidente.

 

2.

La rete come spazio pubblico                                                                                  

La scommessa principale in atto per quanto riguarda l’Innovazione è direttamente proporzionale alla capacità d’interpretare la Società dell’Informazione per ciò che può diventare: il nuovo spazio pubblico, quello di una polis fatta da informazioni prodotte dall’azione degli uomini che vivono e usano la rete come nuova opportunità di relazione sociale.

L’evoluzione del social networking ( e ancor prima dei blog) rifonda il concetto d’informazione: non più solo prodotta dagli specialisti (giornalisti e autori) bensì dagli utenti dei sistemi informativi che, attraverso l’approccio interattivo, esprimono il loro diritto-dovere di cittadinanza nella società dell’informazione.

Si tratta di condivisione dello spazio pubblico rappresentato dalle reti: l'infrastruttura della società in divenire.

Lutente delle reti può trovare il modo per portare con sé, dentro la rete globale, la dimensione locale della propria soggettività e della propria comunità, per dare forma alla coscienza dinamica della propria partecipazione attiva.

Educare dopotutto significa tirar fuori (dal latino educere). Tirar fuori energia sociale.

E' qualcosa che è già nellaria da tempo nella cultura digitale ma che deve ancora compiersi nellassetto generale della res pubblica ed è per questo che è decisivo saper guardare alle nuove generazioni. Sono loro i futuri soggetti attivi di una socialità nuova che darà forma e sostanza alla figura che è ben definita da uno dei soliti neologismi: prosumer, il produttore-consumatore dinformazione.

 

3.

Verso una società dei saperi e dei pareri

Senza questa attenzione qualsiasi portale web apparirà come uno di quei gran portali di ranch visti nei film western degli anni Sessanta: una grande impalcatura con il deserto dietro. La fortuna delle piattaforme di social networking dimostra quanto sia possibile rilanciare una strategia di comunicazione pubblica che sia in grado di tradurre linterattività in nuova forma dinterazione sociale e anche, diciamolo, emozionale.

Per accostare allauspicata società dei saperi anche una società dei pareri.

Le strutture relazionali della società di massa (amplificata dai mass-media) sono logore e necessitano un radicale ripensamento a partire da un più preciso orientamento della comunicazione verso target particolari, dai gruppi d’interesse alle diverse comunità della società multiculturale, fino alle diverse fasce generazionali, pensionati o adolescenti che siano.

È da considerare però che non è solo una questione di nuove funzionalità. Non è infatti solo un fatto di servizi più evoluti, di soddisfazione dei bisogni, bensì di strategia di comunicazione pubblica che solleciti il desiderio di mettersi in gioco: di partecipare a piattaforme web che sappiano fidelizzare e valorizzare il feedback dei cittadini on line. Perché si renda esplicito quanto la rete possa essere spazio pubblico, ossia qualcosa che rappresenti l'estensione di un'operatività umana che sta imparando a fare dello scambio d'informazioni un valore d'uso e non solo un consumo. E' nel valore d'uso della comunicazione che si annida l'elemento germinale delle risposte a tante di quelle domande che ci stiamo ponendo in questa cruciale fase di transizione culturale.

 

4.

Gli scenari del web 2.0. La mutazione di paradigma.

Siamo nell’arco di un passaggio radicale, una netta mutazione di paradigma: cambia la chiave di violino davanti al pentagramma evolutivo. E ciò riguarda non solo la crisi strutturale degli assetti produttivi ma quelli sociali. Sta cambiando qualcosa di fondante: il nostro modo di percepire il mondo, l’idea di spazio e di tempo, ad esempio.

La domanda inevitabile da porci di conseguenza deve essere: in che termini stabilire la relazione tra queste reti immateriali e il territorio?

Un sistema-paese come l’Italia che soffre ancora di un ritardo grave rispetto ad altri paesi molto più connessi ad internet può e deve rilanciare questa relazione, a partire dalla sua prerogativa: il fatto d’essere uno dei territori più desiderabili, per via dell’integrazione tra paesaggio, biodiversità, culture materiali e beni culturali. Eppure è una potenzialità non espressa fino in fondo per via di un approccio inefficace con i sistemi organizzativi e quelli della comunicazione, fin troppo adagiati sul modello televisivo incapace di cogliere le sfumature della complessità di un utenza che pone nuove domande.

La nuova complessità di cui stiamo trattando riguarda la simultaneità delle informazioni, le loro connessioni combinatorie, le dinamiche della rete e per essere più precisi le dinamiche partecipative del web 2.0 e del social networking (compreso il fenomeno tracimante di facebook), ambiti dove le informazioni sono sempre più innervate alle relazioni.

C’è ancora qualcuno che snobba la tecnologia come se fosse qualcosa per addetti ai lavori informatici? 

Ciò sottovaluta il fatto che  i nuovi linguaggi digitali scandiscono  sempre più le dinamiche sociali e, ciò che è più urgente, condizionano limmaginario di nuove generazioni. Queste stanno crescendo da sole, centrifugate da automatismi, perse nelle reti che rispecchiano in modo distorto la vita sociale.

Le istituzioni, a partire da quelle educative, stanno perdendo tempo, senza porre l’opportuna attenzione culturale che coniughi i saperi sedimentati con le nuove attitudini ipertestuali dei nativi digitali. 

Il futuro di un Paese si misura sulla capacità del sistema di stimolare il potenziale creativo delle nuove generazioni. E quella creatività riguarda soprattutto l'ambientamento nei nuovi assetti psicologici e comunicativi creati dallevoluzione tecnologica in atto che investe sempre più le modificazioni antropologiche. Le generazioni-ponte devono creare le condizioni adeguate perché questo accada in un processo evolutivo della coscienza culturale, interpretando le accelerazioni tecnologiche in relazione alle mutazioni culturali.

E’ questo uno dei punti cardine della grave crisi di passaggio che stiamo vivendo, in cui la recessione economica rischia di annichilire le attenzioni per la ricerca. Eppure la proiezione nel futuro  deve rivelarsi come una risorsa da ridistribuire.

Avete presente quella frase di William Gibson?  Il futuro è già qui. E solo mal distribuito.

 

5.

La scommessa antropologica dell'homo ludens

Un Paese che non scommette sul proprio futuro è un Paese che non ha prospettive ed è destinato ad invecchiare e ad esaurire la forza motrice del proprio sistema, vanificando quella creatività originaria che riguarda la capacità d’inventare soluzioni efficaci nelle condizioni impreviste.

Sembra proprio sia il caso del sistema Paese Italia dove molti pensano che la creatività sia solo una questione di belle arti o di bei film.

Eppure tutti dovremmo preoccuparci del futuro, perché là dobbiamo passare il resto della nostra vita.

Ma quanti si sono fermati, magari arroccati nellautocompiacimento di ciò che già sanno e già fanno? 

Quanti non sopportano di trovarsi a disagio con un mouse? O temono la dispersione delle capacità di attenzione, parametrata sullo sviluppo lineare di un testo, di fronte alla dinamica non-lineare di un ipertesto? Di quell’ipertesto d’ipertesti che è Internet?

Ambientarsi nella società delle reti significa, prima di tutto, porsi con umiltà ed impegno nel cercare di comprendere la modificazione di quegli assetti psicologici e cognitivi che, per quanto si siano fondati sulla struttura alfabetica, oggi sono sempre più proiettati nell’infosfera audiovisiva e nell’interattività.

In questo senso sarà importante occuparsi di armonizzare il thesaurus delle nostre conoscenze con i sistemi della comunicazione multimediale, senza spaventarsi per ciò che c’è da perdere nel passaggio da un paradigma cognitivo a un altro.

Sì, qualcosa da perdere c’è. Rassegniamoci. Ma molto altro c’è da acquisire.

C’è, ad esempio, da operare perché le forme della comunicazione interattiva possano rivelarsi come opportunità di partecipazione alla nuova res pubblica espressa dalle reti, giocando la scommessa antropologica che sta alla base dello sviluppo della Società dellInformazione.

Già Jeremy Rifkin (2) ha affermato che si sta passando dall’homo faber della società industriale all’ homo ludens, agile nel selezionare le informazioni per tradurle in valore.

Il gioco, in quanto motore della creatività, è il concetto che possiamo quindi permetterci di porre in stretta relazione con la comunicazione, nuova materia prima della società delle reti. Il gioco è il principio attivo di quella complessità interpersonale che conduce verso il superamento dei ruoli prestabiliti e delle competenze stabilizzate, in un mondo che sta mutando attraverso le promesse dei nuovi media.

L’interattività si può tradurre in nuova interazione sociale, dando forma e dinamica relazionale a contenuti che trattano della vita culturale nei territori del nostro Paese. Affinando format che ridefiniscono il rapporto tra politica e poetica, come quelli che definisco di performing media, nell’interazione tra reti e territorio (geoblog, mobtagging, interaction design urbano, urban experience). 

Pratiche che fanno parte di una sensibilità diffusa nelle nuove generazioni che operano nel web, rilanciando un concetto di creatività che tendo ad accostare a quello suggerito dal matematico francese Jules-Henri Poincaré: "Creatività è unire elementi esistenti con connessioni nuove, che siano utili".

E penso a quanto questo suggerimento sia decisivo per capire il fenomeno del mash up in Internet, implementando diverse applicazioni, plugin, su operatività che rilanciano il principio open source nel senso lato del termine.  Come pratiche aperte dimplementazione secondo i principi della creatività connettiva. 

La questione della creatività, come ho già detto, non riguarda, infatti, solo lespressione artistica dei linguaggi ma la capacità di ambientarsi in nuovi contesti, come oggi è quello del web, il nuovo spazio pubblico. 

Il nuovo luogo dello scontro con i poteri cristallizzati ma anche dellincontro con le nuove generazioni.

Un ambiente da antropizzare in via direttamente proporzionale al nostro desiderio di mondo possibile, inventando nuovi modi di comunicare con (a differenza del comunicare a), re-imparando a condividere la conoscenza e a renderla funzionale alla progettazione di futuro. A partire dalla riqualificazione del nostro territorio, per instradare i nostri migliori processi produttivi (dal manifatturiero a quelli del trasferimento tecnologico) verso una nuova cultura dimpresa ed uninnovazione territoriale che riattivi non solo il PIL ma anche il FIL (Felicità Interna Lorda).

E' in questo quadro che è possibile comprendere la valenza della scommessa antropologica da giocare.

Nel momento in cui accettiamo che l'assetto lineare della produzione industriale s'è infranto contro gli scogli della globalizzazione non resta che rilanciare il gioco nella ricerca di nuovi modelli di sviluppo e per questo non basta la tanto idealizzata green economy, incardinata su fonti d'energia rinnovabile ed eco-sostenibilità dell'ambiente. C'è da inventare altro, letteralmente: scoprire cercando. Sovviene la dinamicità di ricerca propria dell'homo ludens, teso a cercare, a ricombinare le opportunità del serendipity, rilanciando le intuizioni di Levi Strauss per cui il bricolage antropologico è determinante per l'evoluzione umana.

L'approccio ludico è ad esempio in quel diventare “autore di sé stessi”, come afferma Sherry Turkle (3), condizione tipica della scrittura connettiva ( e intimamente relazionale) che si svolge nei blog e nei social network.

 

6.

Dal mass-media al my-media                                                                                                                   I mass-media, quelli televisivi in particolare, hanno viziato il concetto stesso di comunicazione, inibendo il valore originario della comunicazione intesa come un “comunicare con” per imporre il “comunicare a” : un comunicare da uno a molti, verticale e pervasivo.

La potenzialità interattiva di Internet mette in campo una potenzialità orizzontale e partecipativa che ora sta delineando un ulteriore salto di qualità, grazie a ciò che può essere definito social networking.

Uno dei modi migliori per  misurarci con questa problematicità è  quello di  raccogliere e interpretare gli impulsi e le competenze della società civile, per sviluppare piattaforme collaborative che mettano in rete le potenzialità partecipative dei cittadini.

In questo quadro è pienamente inscritta tutta la necessità d’inventare  nuovi ambiti per la produzione di socialità, attivando opportunità in cui, accanto ai servizi ad alto valore aggiunto tecnologico, servirà una creatività capace di interpretarli, nel creare nuovi modi, nuovi linguaggi, nuovi format come quelli che definisco Performing Media. (4)

Per creare questi nuovi modi, e nuovi mondi, occorrono anche parole nuove su cui è opportuno riflettere, per capire ciò che ancora non ha evidenza.

Una di queste è social tagging: uno dei concetti-chiave per comprendere la nuova fase della rete.

Vi si sottende una nuova pratica connettiva già delineata con il fenomeno diffuso dei blog e che di fatto rilancia  qualcosa che si fa da sempre nel web: l’ipertesto. E’ quindi una pratica di link: la connessione continua di frammenti di testo. Il dato cardine da rilevare è nel fatto che emergono dal testo, come la panna dal latte, le parole chiave, i concetti affioranti. E qui inizia il gioco delle libere associazioni che danno senso ad un concetto come quello di i-pertinenza, coniato da Derrick De Kerchkove per intendere la capacità d’espandere le pertinenze interpretando le possibilità ipertestuali della rete.

Le parole chiave vengono associate tra loro dall’azione connettiva degli utenti che ne condividono la pertinenza in un ambiente ipertestuale come la rete in cui è integrata anche la loro esperienza cognitiva diretta. L’informazione si fa sempre più glocal, globale come la rete e locale come la soggettività degli utenti che vi trasferiscono la loro interpretazione, e fondamentalmente con azioni nel territorio che rilanciano l’idea stessa di happening, come si sta sviluppando ora con l'idea del cantiere di urban experience a Roma. (5)

 

7.

Format di performing media

 

E’ in questo senso che emerge la necessità di declinare l’evoluzione tecnologica già in campo con l’invenzione di format che esplicitino i valori d’uso sociali dei nuovi media interattivi, sperimentando soluzioni diverse, come quelle azioni che utilizzarono (per la prima volta in Italia, nel gennaio 2007) i link attivi dei mobtag (o matrix code: una sorta di codici a barre che trasmettono automaticamente ad uno smart-phone grazie al software pre-installato) disseminati nella città di Torino, per utilizzare una “mappa emozionale dei luoghi della memoria antifascista”( 6) funzionale ad un’attività di animazione per la Giornata della Memoria. Quella fu una delle prime sperimentazioni di performing media promossa dal laboratorio sui nuovi modi di cittadinanza digitale, nato dall’incontro di Acmos, Libera e teatron.org, che con  la definizione di Performing MediaLab (7) ha istituito a Torino (in un bene confiscato alle mafie) un centro di ricerca sull’uso sociale e culturale dei nuovi media. Va a questo punto detto che proprio a Torino, già nel 1997, fu realizzato il progetto “ipercantiere”, inteso come palestra di creatività connettiva, dove fu realizzato da una decina di ragazzi (la multi task-force) un diario on line per la Biennale dei Giovani Artisti del Mediterraneo che anticipò il fenomeno dei blog. Dal 2005, nel Salento, per via della cattedra di performing media istituita ( per circa quattro anni) presso la Facoltà di Beni Culturali nasce il TarantaVlog (8) per uno degli eventi più famosi dell’estate mediterranea, “la Notte della Taranta”, uno dei primi (in assoluto) videoblog realizzati (si pensi che la stessa YouTube nasceva nella primavera 2005).

Importante da rilevare in questo quadro è l’invenzione della piattaforma geoblog per le Olimpiadi invernali di Torino 2006, presentata prima dell’avvento di Googlemaps, visto che utilizzava le fotografie aeree della città (9). Questo format, teso a “scrivere storie nelle geografie” è stato utilizzato in molteplici ambiti tematici, da quello per la Via Francigena (10) a quello sul Futurismo a Roma (11), fino allo sviluppo più articolato nell'ambito dell'azione di urban experience “Performing Roma” (12). Per quanto riguarda gli aspetti più inerenti la cittadinanza attiva si segnalano quelli sull’aggregazione giovanile a Macerata  (13) e il progetto per l’inaugurazione del castello di Casale Monferrato che lo ha visto integrato ad un piano articolato definito Palestra di Cittadinanza che ha visto uno sviluppo scatenante nell’uso del social network facebook, usato da più di 300 studenti casalesi come un ambiente di auto-organizzazione e di senso condiviso. (14).

Una pagina dell'Unità (15) titolò quell'azione in modo emblematico: il castello espugnato dai guerrieri del web.

A Paolo sarebbe piaciuto quell'assedio del Castello di Casale, espugnato da giovani cittadini che avevano trovato il modo per tradurre la loro energia ludica in partecipazione attiva.

 

 

1.Performing Media 1.1 Politica e poetica delle reti ,  Memori, 2006

2.L’era dell’accesso, Mondadori, 2000

3. La vita sullo schermo , Apogeo, 1997

4.www.performingmedia.org

5.www.urbanexperience.it

6.http://acmos.net/memoria

7.www.performingmedia.org/lab/pie

8.http://www.performingmedia.org/vlog/

9. http://www.glocalmap.org/img_press/img_big/img_big17.jpg

10.http://geoblog.it/francigena

11. http://geoblog.it/futur

12. http://www.geoblog.it/performingroma/

13. http://geoblog.it/macerata

14 http://www.geoblog.it/castell

15http://www.performingmedia.org/su-lunita-a-proposito-dei-civici-assedi-a-casale

 

 Quale Usabilità per i nuovi Social Media

A. Giannetti[1]

I feel an ardent desire to see knowledge so disseminated through the mass of mankind that it may reach even the extremes of society: BEGGARS AND KINGS

Thomas Jefferson, Reply to American Philosophical Society, 1808

 

 

1.    Introduzione

In questo articolo si affronterà il tema della progettazione dell’usabilità e dei principi di ergonomia e psicologia cognitiva nel nuovo mondo digitale con particolare riferimento alle applicazioni di blog, forum e social networking. Di fatto l’utente sta diventando velocemente un co-creatore delle proprie applicazioni sia nel mondo consumer che nel mondo industriale e sempre più utilizza i propri dati, la propria vita interiore (conscia ed inconscia), emozionale e di relazione per sviluppare applicazioni di front-end di supporto alla vita sociale e aziendale. La nuova intelligenza cognitiva appare essere sempre più distribuita nella rete e gli stessi modelli di interazione stanno profondamente cambiando. Allo stesso modo il paradigma del mash-up sta profondamente rivoluzionando lo sviluppo del web verso il web 2.0 ,permettendo agli utenti di combinare dati da fonti e applicazioni diverse, scomponendo i processi e le logiche applicative e di interazione in componenti riorganizzabili dinamicamente a seconda del profilo utente.

2.    Il contesto di interazione dei Social Media

 

 

I social networks rappresentano uno degli elementi più importanti del web odierno. Il fattore sociale con la sua capacità di incrementare la cooperazione e la collaborazione online sta divenendo l’elemento distintivo delle aziende di successo che riescono, grazie ad appassionati gruppi di lavoro, a coordinare progetti in maniera efficace. Sin dalla sua diffusione internazionale, Internet è stato considerato come un modo per superare le barriere geografiche e permettere lo sviluppo di vere e proprie reti sociali.

Da qui la nascita dei social network.

Prima della nascita di Internet, la rete sociale era considerata come un qualsiasi gruppo di persone connesse tra loro da diversi legami sociali, che vanno dalla conoscenza casuale, ai rapporti di lavoro, ai vincoli familiari. Le reti sociali sono state spesso il punto di partenza per gli studi interculturali in sociologia e in antropologia. Da questi studi è nata l’analisi delle reti sociali, intesa come morfologia e misurazione delle reti sociali.

Nella teoria delle reti sociali la società viene vista e studiata come rete di relazioni, più o meno estese e strutturate. Il presupposto fondante è che ogni individuo si relaziona con gli altri e questa sua interazione plasma e modifica il comportamento di entrambi. La rete delle relazioni sociali che ognuno tesse ogni giorno, in maniera più o meno casuale, nei vari ambiti della propria vita, si può così "materializzare", organizzare in una "mappa" consultabile, e arricchire di nuovi contatti.

Con l’avvento di Internet, però, il villaggio è diventato globale e le reti sociali hanno cominciato a svilupparsi anche sul web.

Il fenomeno dei social network è nato negli Stati Uniti e si è sviluppato attorno a tre grandi filoni tematici:

  • Professione
  • Amicizia
  • Amore

Le social network on-line hanno avuto un'esplosione nel 2003, grazie alla popolarità di siti web come Friendster, Tribe.net e LinkedIn.  Attualmente, i due social network di maggior successo sono Myspace e Facebook.

Il medium è il messaggio" scriveva Marshall McLuhan nel suo libro "Understanding media" ("Capire i media" – "Gli strumenti del comunicare" nella traduzione italiana) pubblicato nel 1964, un libro nel quale i media, molto prima dell’avvento di internet, esercitando su di noi una profonda influenza relativamente ai modi in cui pensiamo ed agiamo diventavano delle "estensioni artificiali" dei nostri corpi, rimodellando noi stessi come individui, nonché la nostra società.

I media possono diventare un mezzo per far emergere la nostra coscienza tribale, e , per effetto di Internet e del Web (un media planetario), il nostro appartenere ad una "tribù" non è più un fatto localistico che coinvolge piccoli gruppi isolati di individui, ma tutti noi siamo membri di un villaggio globale (proprio come sostenuto da McLuhan). 

Quest’ultimo concetto viene evidenziato da Tim Berners Lee nel suo recente articolo Giant Global Graph, nel quale Berners Lee sostiene che questo Grafo è un Web Semantico i cui metadati sono in grado di descrivere le persone, le loro attività, nonché le loro interrelazioni, ed il quale può essere utilizzato per trasferire informazioni tra siti web- E sono proprio i metadati generati dalle persone/utenti/navigatori/prosumers-bloggers uno dei più grandi valori del Web, e citando Derrick De Kerckhove, Direttore del Programma McLuhan in Cultura e Tecnologia, autore di "La pelle della cultura e dell'intelligenza connessa" e attualmente è docente presso la Facoltà di Sociologia dell'Università degli studi di Napoli Federico II dove è titolare degli insegnamenti di "Metodi e analisi delle fonti in rete", "Sociologia della cultura digitale" e di "Sociologia dell'arte digitale"."se il medium è il messaggio, allora l’utente è il contenuto".

Proprio a causa del continuo coinvolgimento dell’utente nel web sociale è stato proposto un nuovo Bill of Rights che qui riporto integralmente:

A Bill of Rights for Users of the Social Web

Authored by Joseph Smarr, Marc Canter, Robert Scoble, and Michael Arrington

September 4, 2007

We publicly assert that all users of the social web are entitled to certain fundamental rights, specifically:

  • Ownership of their own personal information, including:
    • their own profile data
    • the list of people they are connected to
    • the activity stream of content they create;
  • Control of whether and how such personal information is shared with others; and
  • Freedom to grant persistent access to their personal information to trusted external sites.

Sites supporting these rights shall:

  • Allow their users to syndicate their own profile data, their friends list, and the data that’s shared with them via the service, using a persistent URL or API token and open data formats;
  • Allow their users to syndicate their own stream of activity outside the site;
  • Allow their users to link from their profile pages to external identifiers in a public way; and
  • Allow their users to discover who else they know is also on their site, using the same external identifiers made available for lookup within the service.

2.1 I Social Networks

I servizi di social networking come ad esempio Facebook, Friendster, MySpace, Orkut offrono uno spazio dove possono mantenere le loro relazioni, costruire nuove relazioni attraverso gli amici esistenti, chattare gli uni con gli altri e condividere informazioni.

Gli utenti hanno bisogno di costruire un profilo contenente informazioni personali come nome, data di nascita e foto. L’informazione personale è resa disponibile ad altri utenti del sistema ed è utilizzata per identificare amici all’interno di un network ed aggiungerli ad una lista di contatti. Nella maggior parte dei sistemi, gli utenti non solo possono vedere i loro amici, ma anche gli amici di secondo grado, (gli amici degli amici).

 

 

A questi network si aggiungono servizi specializzati che stabiliscono delle community sulla base di interessi comuni. OpenBC, per esempio è un servizio di professional networking che ha come obiettivo quello di creare una rete di esperti e di partner per il business. permette la nascita di sub-community che coprono argomenti specifici. Servizi come OpenBC permettono agli utenti di ricercare attraverso i contatti ed i contatti di secondo grado (contatti di contatti). In aggiunta, gli utenti in OpenBC possono cercare persone con determinate competenze ed altri attributi. Quando viene trovata una persona appropriata, viene visualizzata la catena di contatti di questa persona. Gli utenti possono, per esempio, chiedere agli amici e agli amici degli amici le qualifiche di una persona. Alcuni servizi incluso Orkut facilitano la creazione di sotto-gruppi come funzionalità chiave per l’intero sistema. In queste piccole community gli utenti possono chattare, avere discussioni live in forum dedicati e scambiarsi immagini ed altri documenti.

 

 

Un sistema invece che crea social network senza la conoscenza esplicita dell’utente è Skype. Skype è un fornitore di telefonia via internet gratuita. Ogni utente all’interno del sistema ha un profilo che contiene nome, indirizzo, numero di telefono, indirizzo email, foto etc. Quando una persona A desidera chiamare una persona B, il profilo della persona B viene aggiunto ai contatti. In questo modo le informazioni immagazzinate in Skype rappresentano un social network generato in maniera manuale.

 

 

Un approccio alternativo alla generazione manuale si basa sulla creazione automatica di network tramite newsgroup, link alle homepage e molte altre connessioni. Tutte le connessioni individuate dall’algoritmo vengono generate ed utilizzate per formare ponti tra "nodi di utenti". Il vantaggio di questo metodo è che non necessita l’interazione dell’utente. Le connessioni create possono anche rimanere nascoste. Naturalmente la generazione automatica di network non può essere così precisa come quella manuale.

La generazione automatica di "social networks" è possibile anche grazie a servizi come eBay o Amazon. In eBay, per esempio, viene mantenuta l’informazione su “chi ha comprato da chi”, quale compratore ha valutato quale venditore, etc. Questa informazione può essere utilizzata per generare un network di connessioni. In Amazon, l’utente che compra un libro, lo recensisce e lo valuta creando una struttura sociale. In questo modo vengono formati cluster di singoli utenti connessi uno con l’altro. L’obiettivo principale dei social networks è dare agli utenti un modo di stare in contatto con amici, colleghi e contatti. Potenzialmente, una delle più grandi applicazioni dei social networks potrebbero essere le ricerche personalizzate sul World Wide Web. Dove ora i motori di ricerca forniscono informazioni anonime, in seguito potranno raccomandare pagine web create da persone familiari.

I Mash-up (letteralmente: "poltiglia”) indicano invece un'applicazione che usa contenuto da più sorgenti per creare un servizio completamente nuovo. Il contenuto dei mash-up è normalmente preso da terzi via API, tramite feed (es. RSS e Atom) o Javascript. I mash-up stanno rivoluzionando lo sviluppo del web permettendo a chiunque di combinare dati da siti come Amazon.com, eBay, Google, Windows Live e Yahoo! in modi innovativi. I mashup sono semplici da progettare: richiedono minime conoscenze tecniche e quindi sono solitamente creati da contributori inusuali. I mashup stanno rivoluzionando lo sviluppo del web verso il web 2.0 ,permettendo agli utenti di combinare dati da fonti e applicazioni diverse.

 

 

2.2 I Servizi di Social Networking

Oltre i social networks, esistono veri e propri servizi di networking basati sulle community come del.icio.us, Furl, d Eurekster. del.icio.us è un servizio di social bookmarking che permette di collezionare e condividere pagine web favorite. Gli utenti possono aggiungere bookmarks di pagine web su del.icio.us, inserire tag e keyword e scegliere se renderli pubblici o mantenerli private. Le keyword assegnate dall’utente sono utilizzate per una categorizzazione non gerarchica dei bookmark. Inoltre il sistema crea dei gruppi di bookmark per vari argomenti. Quando gli utenti accedono ad un bookmark, possono anche guardare i bookmark pubblici di utenti che hanno le stesse pagine web nel loro portfolio. Gli utenti poi possono cercare pagine web "similari"— bookmarks che condividono certe keyword o gli stessi gruppi di bookmark. Furl è un servizio simile, che inoltre immagazzina gli articoli segnalati all’interno di un database. Gli utenti possono creare il loro "web personale" che contiene solo le pagine immagazzinate. In aggiunta alle keyword gli utenti possono assegnare argomenti, votare ed aggiungere commenti alle pagine. Furl inoltre crea un indice di tutti gli argomenti immagazzinati nel proprio database ed offre una funzionalità di ricerca testuale. Wikipedia e servizi come del.icio.us sono impiegati da molti utenti come alternative a motori di ricerca come Google. Wikipedia è un buon punto di partenza per molti argomenti, dal momento che offre una descrizione di un argomento e dei link selezionati a risorse addizionali. Nello stesso modo, una query su Delicious contiene una serie di pagine web che gli utenti hanno selezionato come pagine preferite. Eurekster è un motore di ricerca collaborativo che permette il social networking ed il social bookmarking. Le persone si iscrivono al sistema e creano delle community di utenti con interessi simili. Quando un utente fa una ricerca sul web, l’informazione sulla query ed i documenti vengono inseriti tra i risultati immagazzinati dal sistema.

 

3 I principi di progettazione di un social media

 

 

Al fine di inquadrare al meglio le principali tematiche di progettazione di un social media possiamo utilizzare la completa elencazione fatta da (Giacoma e Casali 2007) a cui peraltro questo articolo vuole contribuire sotto la licenza Creative Commons attraverso un editing collaborativo sul wiki di Bzaar.net (http://wiki.bzaar.net).

Infatti, nonostante l’usabilità classica possa offrire un forte contributo anche nell’ambito dei Social Media e Network è opportuno valutare il cambiamento che stiamo vivendo nella progettazione di applicazioni informatiche, orientate ad una maggiore socialità ed obliquità.(Social Usability).

Il modello di usabilità sociale sviluppato da Giacoma e Casali.

Il modello di usabilità sociale sviluppato da Giacoma e Casali.

Il modello di “usabilità sociale” non è in pieno contrasto con il modello UCD classico. In pratica introduce quattro elementi nell’analisi e nella valutazione che riportano ad una progettazione centrata sull’utente come “Individuo Sociale“.

Rispetto ai criteri accreditati di progettazione usabile riportati in (Bevan 98, Norman 2000, Nielsen 2001) ci sono diversi aspetti innovativi che vanno considerati

 

 

1.      Identificare i Bisogni Funzionali autonomi e socialmente potenziati. Questo punto è il più semplice perché dovrebbe essere in linea con gli scopi già esistenti del prodotto. La distinzione necessaria è quella fra bisogni funzionali autonomi e socialmente potenziati. Significa quindi definire quali funzionalità siano strettamente legate ad una dimensione sociale, in modo da esplicitarle con chiarezza. Rispetto alla fase di Analisi del Contesto tipica della progettazione user-centered, introduciamo qui una scala di scopi e di bisogni di interazione che vengono poi ulteriormente classificati in bisogni personali (autonomi) e bisogni sociali.

 

 

2.      Identificare come il social media o il servizio di social networking  si inserisce nel Flusso di Attività Giornaliero delle persone. Per fare questo è molto utile procedere tramite use case, secondo la metodologia dell'user centered design. Così si esplicita quale sia il modo migliore per inserirsi nel flusso e come rendere questo processo operativamente semplice.  La Rispetto alla fase di Analisi del contesto, si introduce una particolare modalità di progettazione del task, attraverso la tipica task analysis (Bevan XXXX) che prevede però il flusso quotidiano di informazioni e comunicazioni e che tiene conto della centralità dei bisogni dell’utente.

 

 

3.      Identificare le Pulsioni Aggreganti. Seppure possa non essere semplice capire quali siano le motivazioni profonde che spingono le persone ad usare un determinato servizio, spesso è comunque possibile formulare delle ipotesi, a maggior ragione se si fa basandosi su osservazioni di utenti alle prese con lo strumento. Seppure quindi è molto probabile sbagliarsi quando si tenta di identificare tali pulsioni, si procede per prova ed errore in modo d'avere comunque un percorso indicativo. Riportando l'esempio delle pulsioni prima specificate: competizione, curiosità, appartenenza, narcisismo, evitamento della frustrazione, sublimazione. Si può partire da questi. Questa dimensione rappresenta la principale differenziazione con i metodi di user e task analysis conosciuti e applicati e introduce un elemento inconscio e pulsionale che ci riporta alle idee di Norma di emotional design (Norman 2004).

 

 

4.      Identificare i Gruppi Sociali. Potremmo definire questo punto come 'group centered design': si tratta infatti di identificare quali siano le tipologie di gruppi esistenti all'interno del social network e progettare in base alle necessità di ciascuno di questi. Questo può essere fatto sia in fase di progettazione (con 'group cases', in modo analogo agli 'user cases'), sia analizzando gruppi realmente esistenti all'interno della rete sociale. In questo caso la dimensione sociale diventa centrale e i metodi di raggruppamento degli utenti in classi e tipologie ben organizzate diventa essenziale.

 

 

L'osservazione diretta va comunque fatta nel tempo in modo che si possa adattare il servizio al mutare delle relazioni. Questo passo è importante perché i gruppi sociali sono relativamente semplici da identificarsi ed è possibile anche tradurli in elementi progettuali concreti, al contrario di elementi come le Pulsioni Aggreganti, che sono più astratti. Questi quattro punti sono imprescindibili e definiscono un processo base per una corretta osservazione di un social network. Uno degli aspetti da considerare è rappresentato da tutti i fattori legati alla comprensione della sfera emozionale che va ben oltre la sfera cognitiva.

Con i social media infatti usciamo definitivamente dalla visione tayloristica in cui lo strumento informatico è visto come un ausilio alla produzione, ed entriamo nella sfera socio-produttiva e dei servizi in cui ogni interazione è vista come rappresentativa di se’ e della propria biografia. L’importanza dell’aspetto emozionale viene considerata più avanti.

 

 

Altri principi da considerare:

 

 

  • Motivazione: seppure parta da un interesse della persona, si può comunque cercare di motivare la persona che non utilizza ancora il servizio in vari modi. In particolare, in un social network fanno parte della motivazione tutte le dinamiche che stiamo andando a considerare all'interno di questo documento.

 

 

  • Leggerezza: questo indice si traduce quasi direttamente in indicazioni progettuali: il servizio dovrà rispondere prima di tutto a principi di user centered design e usabilità, ma soprattutto si dovrà tentare di avvicinarsi il più possibile alle attività che l'utente compie normalmente durante la giornata.

 

 

  • Località: è difficile lavorare sulla località perché di fatto o la persona sta utilizzando il programma, o non lo sta utilizzando. E' sfruttabile internamente al servizio, ma difficilmente esternamente.

 

 

  • Efficacia: è conseguenza diretta dei bisogni funzionali ed è quindi uno degli scopi tradizionali: un software che svolge bene il proprio lavoro sarà evidentemente utilizzato più spesso di uno che lo fa meno bene.

 

 

4 Dalla Usability alla Sociability

 

 

L'usabilità di un prodotto, e più specificamente di un prodotto software, misura la distanza cognitiva fra il modello del progettista (modello del prodotto e delle sue modalità d'uso, possedute dal progettista ed incorporate nel prodotto) e il modello dell'utente (modello di funzionamento del prodotto che l'utente si costruisce e che regola l'interazione col prodotto): quanto più i due modelli sono vicini, tanto meno l'usabilità costituirà un problema (Norman 1997).

La definizione di usabilità dell'International Standard Organization (ISO) recita:

"efficacia, efficienza e soddisfazione con i quali gli utenti raggiungono determinati obiettivi in determinati ambienti."

(ISO 9241, Ergonomic requirements for office work with visual display, Part 11)

(ISO 9126 Software Quality)

(IS0 12307 Human Centered Design Process)

 

 

Schema della usabilità utilizzato nelle norme ISO

L’efficacia e’ il grado di raggiungimento di un obiettivo. La misura dell'efficacia pone in relazione gli obiettivi prefissati con l'accuratezza e completezza dei risultati raggiunti. Il primo e più semplice indice di efficacia riguarda il raggiungimento dell'obiettivo:

        Un prodotto è efficace se permette di portare a termine il compito stabilito.

        Se l'obiettivo non viene raggiunto, l'efficacia può essere misurata in termini di numero di operazioni svolte in direzione del completamento del compito.

         Un secondo misuratore dell'efficacia riguarda la qualità del risultato raggiunto:

        una macchina utensile può produrre oggetti che si avvicinano in misura variabile alle tolleranze previste, e su questa base può essere condotta una misura dell'efficacia della macchina stessa.

   L’efficienza invece si basa sul rapporto tra il livello di efficacia e l'utilizzo di risorse

        Può essere misurato ad es. in termini di numero di errori che l'utente compie prima di completare un compito, o in termini di tempo impiegato per raggiungere il proprio scopo.

        Può essere definita anche come l'ammontare dello sforzo da impiegare per portare a termine un compito.

Per la maggior parte dei compiti esiste una traccia, un percorso ottimale, una deviazione dal quale è sintomo di mancanza di efficienza. Ci sono diversi metodi di misurazione dell’efficienza:

        Conteggio del numero di errori. Se l'utente riesce a completare un compito senza errori, il sistema è più efficiente di un altro che invece costringa l'utente all'errore.

        Conteggio del tempo impiegato per svolgere un compito. Maggiore la velocità, maggiore l'efficienza.

        Parametro del carico mentale.

         Nei casi in cui l'utente è chiamato a svolgere contemporaneamente due o più compiti, maggiore è il carico mentale di cui è gravato il soggetto per un utilizzo efficace del mezzo, maggiore è la probabilità che si verifichi un errore. In questi contesti, la misura del carico di lavoro mentale è un indicatore molto utile di efficienza.

         Per effettuare questa misura, esistono diversi metodi.

o       Task Load Index, un questionario sviluppato dalla NASA che prevede una breve intervista nella quale vengono richieste ai soggetti informazioni sullo sforzo percepito durante la prestazione, fisico e mentale;

o       Tecniche di misura che si riferiscono a parametri fisiologici: ritmo cardiaco, elettroencefalografia, dilatazione pupillare e analisi dei fluidi corporei.

La soddisfazione descrive l'utilità percepita dell'intero sistema da parte dei propri utenti, e il livello di comfort avvertito dall'utente nell'utilizzare un determinato prodotto. E’ più soggettivo e difficile da misurare, rispetto ai parametri di efficienza ed efficacia. In molti casi, può essere considerato il parametro più importante.  Si può affermare che la misura della soddisfazione diventa un fattore decisivo per quei prodotti il cui uso è volontario (e. televisori, videoregistratori etc.). Al contrario,  nel caso in cui si è costretti le persone ad utilizzare determinati prodotti, (es. le macchine utensili di una azienda), si possono considerare come fondamentali i parametri dell'efficacia e dell'efficienza, senza dimenticare, comunque, che la soddisfazione ricavata dall'uso può influenzare significativamente i risultati di una prestazione.

Possiamo introdurre però altre caratteristiche importanti e rilevanti che stanno diventando sempre più importanti per lo schema d’uso dei social media ma che sono meno considerati dalla norma ISO.

         Intuitività

        E’ la misura dello sforzo richiesto ad un utente nell'utilizzo di un prodotto con il quale interagisce per la prima volta per il raggiungimento di un determinato scopo.

        Minore è il costo in termini di tempo, fatica ed errori compiuti, maggiore sarà l'intuitività.

         Facilità di apprendimento

        E’ la misura dello sforzo necessario per raggiungere un determinato livello di competenza nell'esecuzione di un compito.

        Si considera facile da apprendere un sistema che richieda un numero minimo di ripetizioni del compito per l'acquisizione permanente delle competenze necessarie.

         Performance dell’utente esperto

        Si riferisce alla prestazione stabile dell'utente che abbia utilizzato più volte un prodotto per eseguire un determinato compito;

        per ogni prodotto, si può individuare un livello di competenza per superare il quale occorrerebbe uno sforzo comparativamente maggiore; questo in contrasto con la prima fase dell'apprendimento, nella quale i progressi avvengono molto rapidamente.

         Potenziale del sistema

        Il massimo livello di performance teoricamente raggiungibile per mezzo di un prodotto.

        In campo informatico viene definito in termini di potenza dell'applicazione, intesa come numero di strumenti e possibilità offerte all'utente.

         Riusabilità

        Si riferisce al grado di peggioramento della prestazione di un utente alle prese con un prodotto dopo un lungo periodo di inutilizzo.

        I parametri dell'intuitività e della performance dell'utente esperto presuppongono che l'utente utilizzi il prodotto in questione con regolarità.

I Metodi di Misurazione della Usabilità sono di diverse tipologie:

        Analisi Qualitativa

         Questionario

         Intervista

        Analisi Quantitativa

         Questionari standard e strumenti basati sull'intervista per misurare la componente di soddisfazione dell'usabilità

Il notevole sviluppo di Internet ha portato a considerare le specificità del Web per quanto riguarda l’usabilità. Infatti un errore di progettazione del sito web può rendere difficile agli utenti di raggiungere il proprio obiettivo e può spingerli  ad abbandonare il sito. Episodi del genere sono molto frequenti nel Web. Ad un'analisi superficiale, una pagina Internet potrebbe essere definita come un testo arricchito da grafiche ed immagini ma se così fosse, dovremmo avere con il Web la medesima dimestichezza che dimostriamo nell'uso di libri, giornali, riviste, ecc. Internet, invece, può presentare delle difficoltà di utilizzo, come ad esempio Il Web non si presenta sotto forma di testo di ipertesto. Il che  crea delle difficoltà nel progettare un sito perfettamente intuitivo L'enorme quantità di pagine contenute nel Web rende ogni operazione più difficile. La maggior parte dei siti Internet sono progettati senza tenere conto delle esigenze degli utenti. Il linguaggio di programmazione (HTML) sulla base del quale Internet è nata e si è sviluppata è stato concepito dal suo creatore per un utilizzo della Rete molto diverso da quello che si è successivamente imposto. La pratica quotidiana di coloro che si confrontano spesso con la valutazione dell'usabilità ha generato una serie di critiche e di dubbi sui metodi tradizionali di valutazione e li ha portati a proporre dei metodi alternativi, capaci di tenere conto delle esigenze dei progettisti che non dispongono di notevoli quantità di tempo e/o di denaro. Si ritiene che le normali tecniche per la valutazione dell'usabilità  sono spesso troppo dispendiose di tempo e di denaro, e che perciò sono impossibili da utilizzare I test di usabilità informali (quick and dirty) nascono con l'intento di raggiungere un compromesso valido tra l'economicità del consulto di esperti e la dispendiosità degli esperimenti formali.

 

 

Modello ispirato alla norma ISO 13407 Human Centered Design Process

4.1  Le dieci regole di Nielsen

Partendo dall'analisi di più di duecento difetti di usabilità incontrati durante la pratica di valutazione, Nielsen (Nielsen 2000) che aveva introdotto la seguente definizione della usabilità

è la misura della qualità dell'esperienza dell'utente in interazione con qualcosa, sia esso un sito web o un applicazione software tradizionale o qualsiasi altro strumento con il quale l'utente può operare. Un prodotto è usabile quando è facile da apprendere, consente una efficienza di utilizzo, è facile da ricordare, permette pochi errori di interazione e di bassa gravità, è piacevole da usare.”

Il metodo più indicato per la valutazione di un sito tiene conto delle diverse variabili in gioco.

  1. Quali sono gli obiettivi che si vogliono raggiungere con Internet?
  2. Qual è il profilo socio-professionale del pubblico?
  3. Quali tipi di contenuti e servizi potrebbero interessare il target e fare parte o meno del sito?
  4. Di quali tecnologie, finanziamenti, competenze c'è bisogno per fornire questi servizi?
  5. Chi sono i concorrenti, come sono organizzati i loro siti, di quali strategie si avvalgono?
  6. Che tipo di interazioni ci sono e ci potrebbero essere con i il target del sito, quali bisogni potrebbero insorgere?
  7. Quali sono gli obiettivi a breve, medio e lungo termine del sito che si va a progettare?
  8. Quale potrebbe essere l'andamento del sito tra un anno?
  9. Con quali criteri misurare il successo e il gradimento?

Le  dieci principali regole di progettazione sono state poi ricavate statisticamente:

  1.  visibilità dello stato attuale del sistema: il sistema deve essere concepito in maniera tale da comunicare in ogni momento all'utente il proprio stato.
  2. Corrispondenza tra il sistema e il mondo reale: le pagine contenute nel sito devono essere compilate tenendo a mente le caratteristiche dell'utente cui esse sono destinate.
  3. Libertà e possibilità di controllo del sistema da parte dell'utente: il sito deve permettere all'utente una navigazione libera all'interno delle varie pagine e deve evitare di costringerlo a visitare pagine che non lo interessano.
  4. Coerenza interna ed esterna e conformità agli standard comunemente accettati dagli sviluppatori di siti Web: secondo il principio della coerenza interna, le pagine di un sito dovrebbero presentare un impianto di base simile per quanto riguarda l'impostazione grafica e gli strumenti di navigazione.
  5. Cura nella prevenzione degli errori: la prevenzione dell'errore si ottiene mediante l'utilizzo di vincoli d'uso, che impediscano al sistema di compiere azioni potenzialmente pericolose senza prima ricevere una conferma dall'utente, mediante la visibilità dello stato del sistema e delle possibilità operative, e mediante la coerenza, che permette all'utente di ricavare un modello concettuale efficace.
  6. Riconoscere piuttosto che ricordare: l'interfaccia deve mettere a disposizione dell'utente gli strumenti e le opzioni disponibili, evitando di costringerlo a memorizzare o recuperare altrove le informazioni necessarie per l'utilizzo del mezzo. In altre parole, la pagina deve contenere anche le istruzioni per un suo corretto utilizzo.
  7. Promuovere la flessibilità e l'efficienza: l'interfaccia deve rispettare anche le esigenze dell'utente esperto, mettendo a sua disposizione gli strumenti per un utilizzo in rapida sequenza degli strumenti e delle informazioni in essa contenuti.
  8. Grafica e design minimalisti: l'impostazione grafica deve essere improntata all'essenzialità.
  9. Fornire all'utente i mezzi per riconoscere e riparare gli errori: qualora l'utente non sia in grado di evitare errori, il sistema deve provvedere ad informarlo in maniera chiara e completa, indicando il tipo di problema verificatosi, la sua natura, e suggerendo una strategia di recupero dell'errore efficace.
  10. Inserire strumenti di aiuto e istruzioni di utilizzo: posto che un sistema progettato in vista dell'usabilità deve essere, per quanto possibile, utilizzabile senza far ricorso alle istruzioni d'uso, è preferibile che l'interfaccia preveda degli strumenti di aiuto che possano soccorrere l'utente in difficoltà.

L’Usabilità dei Social Network rappresenta allora una sfida perché considera alcune dimensioni in modo preponderante.

In primis la dimensione inconscia e pulsionale, diremmo emozionale, dell’utente e poi la disseminazione della Rete nella vita di tutti i giorni. L’utente dei social media infatti non ha una interazione solo sporadica e finalizzata con lo strumento informatico, o una interazione solo orientata allo scopo da raggiungere, ma sviluppa un nuovo modello sociale di interazione dove gli obiettivi, le motivazioni, le pulsioni, diventano veri e propri aggregatori di informazioni e di contenuto. La dimensione emozionale diventa essenziale e nello stesso tempo la grande dinamicità di aggregazione riporta sul Web i modelli del mondo reale, costruendo un continuum tra Internet e il mondo reale. Il Web collaborativo necessita di esaminare il fenomeno in modo trasversale Obliquo, considerando un “Design emotivo” (Emotional Design).

In tal caso alcuni degli strumenti “tradizionali” per disegnare l’usabilità di un prodotto, potrebbero allora perdere la loro piena efficacia.

Donald Norman (Norman 2000) uno degli studiosi più influenti del settore, riconosce che le sue concezioni precedenti, tutte impostate sulla funzionalità e sull'usabilità, erano limitate e limitative: non si può non tenere conto del piacere che ci procurano o meno gli oggetti che usiamo quotidianamente. Quello che ciascuno di noi è, è determinato anche dagli oggetti che usiamo: li scegliamo, li apprezziamo non solo per la funzione che svolgono per noi, ma anche per le sensazioni che ci danno e individua, da ricerche empiriche, tre livelli di elaborazione: uno viscerale, uno comportamentale, ed uno emozionale. Ogni artefatto potrebbe attivarne uno o più, e a seconda di quale livello viene attivato, e il design svolge una componente importantissima. "Emozione" è oggi una delle parole chiave per il mondo del design (e parliamo di design in generale, non dei siti web), “emozione” è una parte essenziale della vita che impatta su come sentiamo, come ci comportiamo, come pensiamo. La gioia, il piacere, l’eccitazione ma anche l’ansia, la paura e la rabbia rendono la nostra vita ricca e determinano la nostra intelligenza e la capacità di adattamento al mondo. La nostra sfera emozionale, unita alla nostra sfera cognitiva, ci permette di comprendere, giudicare e valutare e non possono essere disgiunte. Poiché l’emozione è importante per la nostra sopravvivenza nel mondo, è equamente importante per interagire con gli strumenti informatici e deve essere integrata nei metodi di progettazione. Introdurre gli aspetti emozionali nella progettazione e nella valutazione di social media non vuole dire necessariamente solo introdurre estetica, attrazione, bellezza, ma vuole dire considerare tutti i fattori pulsionali, i bisogni emotivi, le aspettative conscie ed inconscie nella modellazione anche se questo può avere un impatto, diretto o indiretto, sull’efficienza o l’efficacia o la soddisfazione dell’uso.

Jacok Nielsen, un’ altra autorità nel campo dell’usabilità, dal suo sito www.use.it “ I Social Network, Web 2.0 Can Be Dangerous...” critica i social network, affermando che le applicazioni Rich Internet, Mash-ups come piattaforme di sviluppo, social communities o tutti gli user generated content aggiungono complessità alla interazione che non serve e che può addirittura a lungo andare convincere gli utenti ad abbandonare siti e spazi sulla rete.

Ma cosa rende un social media così diverso?

-         i social media sono una piazza telematica e le attività e i contenuti sono guidati quasi totalmente dagli utenti;

-         gli utenti sono attivi anche nel senso che compiono azioni di tipo comunicativo (si definiscono, interagiscono, sottoscrivono petizioni, introducono post, inseriscono commenti, votano, litigano, etc..)

-         gli utenti frequentano la piazza assiduamente (o comunque con periodicità) e spesso mantengono i propri contenuti.

Uno dei principi di design che diventa essenziale nel caso dei social media è proprio quello della messa in evidenza delle informazioni più rilevanti. Infatti uno dei maggiori rischi sperimentati su queste piazze telematiche è proprio l’eccesso informativo, la necessità di aggiornare e mantenere troppi contenuti che spesso funzionano da deterrente per gli utenti, che dopo un po’ di tempo si trovano oberati dalle loro stesse informazioni e necessitano poi di troppo tempo per aggiornarli.

Allora uno dei principi maggiormente applicabile è quello di nascondere l’informazione se essa non è rilevante al contesto, ma questo principio di nuovo implica il comprendere il modello di interazione dell’utente e cosa l’utente vuole fare nel preciso momento. Ad esempio alcuni links possono essere mostrati o nascosti (show-or-bury) secondo il particolare uso dell’informazione e secondo l’esistenza o meno di elenchi lunghi di informazione che aumentano il disordine (clutter) dell’informazione. Un aspetto però negativo dell’applicazione di questo principio è però quello di nascondere informazioni di dettaglio che possono invece risultare utili per altri contesti di interazione.

Un rischio associato alle reti sociali è anche quello di avere a disposizione talmente tante azioni da compiere e su oggetti virtuali numerosi, da dover necessariamente procedere ad una selezione delle azioni più rilevanti.

Un secondo principio da introdurre è quindi quello di enfatizzare le azioni più importanti in modo che l’utente possa procedere in modo diretto alla principale azione senza essere distratto da azioni minori o meno frequenti (es. down-played the Cancel Button and emphasised the Save Button). 

Anche questo principio comporta un rischio, in quanto potrebbe favorire un comportamento uniforme e poco individualizzato, e il rischio della conformità è presente nello spazio sociale.

Anche la visualizzazione del feedback dell’azione rappresenta un principio fondamentale per il design usabile.

Inoltre tutto quello che favorisce la manutenzione degli spazi, e che funziona come supporto alla memoria cognitiva ed emozionale, così come pure il supporto alla definizione del cosidetto focus informativo, tralasciando le nozioni che non rientrano nella sfera dei propri interessi, rappresenta un elemento di design molto importante.

5 Dalla Usability alla Culturability

Nell’ambito della progettazione sociale dei media è poi necessario considerare una dimensione di aggregazione fondamentale dal punto di vista antropologico che è rappresentata dall’appartenenza culturale e/o generazionale del singolo soggetto.

Questa dimensione, normalmente tralasciata nei modelli di User Centered Design classici, rappresenta invece la consapevolezza che ogni utente ha interessi, motivazioni, spinte emotive che non possono essere mai completamente rappresentate e che infatti per molti restano sepolte nell’inconscio. Proprio questo elemento inconscio rende difficile l’applicazione di un metodo, come quello dell’analisi del contesto, che prevede una esplicitazione molto dettagliata degli scopi, degli obiettivi.

Comprendere quindi queste motivazioni rappresenta la vera sfida per il design dei social media che hanno al loro centro di attenzione proprio il catturare l’attenzione degli utenti per impegnarli in esperienze sociali.

Una assoluta novità è rappresentata dal fatto che gli elementi antropologici e per così dire archetipici di ogni gruppo sociale incluso il gruppo di provenienza del progettista dello spazio sociale.

Lo spazio sociale si modifica con la presenza di ragionamenti, motivazioni, incentivi, interessi e scopi che si relazionano. L’utente singolo rappresenta sempre il cuore dell’attività di progettazione, con i suoi flussi di interazione e le sue necessità di funzionalità ma lo spazio sociale rappresenta una entità a se stante che pertanto ha una sua oggettività e rappresentatività. L’equilibrio da raggiungere diventa quello tra la soggettività e l’oggettività dello spazio sociale.

Nell’era pre-social media ogni utente veniva analizzato in classi e venivano definiti degli use-case relativi alle motivazioni e agli scopi che erano spesso prevedibili e comprensibili, ora tutto questo è diventato diverso, in quanto l’utente può cambiare la propria prospettiva di uso anche durante l’uso stesso dello spazio o del media. Le caratteristiche culturali di una popolazione, di una nazione, di una tribù incidono profondamente su questi modelli così come gli aspetti temporali, di successione degli eventi possono sottoporre queste modalità di uso a cambiamenti anche drastici.

Non è più semplice riuscire a modellare il flusso della interazione e a supportare gli utenti con tutti gli elementi (layout, bottoni, struttura di navigazione) ora tutto diventa più complicato. Si va oltre la coppia “user experience” e “system design” e si deve tenere in considerazione dall’inizio le prospettive di uso e i modelli sociali e antropologici dell’uso. L’utente non è più solo vincolato allo strumento informatico, ma è vincolato anche alle norme, ai valori, alle aspettative della comunità degli utenti.

La formazione di piccoli gruppi all’interno di comunità più grandi può essere descritta secondo la regola dei 150. Questo assioma si riferisce alla capacità di creare un canale sociale-emozionale tra più individui. Una serie di studi sociali hanno mostrato che in media una persona può creare un canale sociale-emozionale di circa 150 persone. Gli psicologi spiegano questa caratteristica sulla base dell’evoluzione della società umana: I primi insediamenti contavano tra 100-150 persone, e perciò il cervello si è evoluto sviluppando la capacità di condividere le informazioni in un network sociale limitato a circa 150 persone. Come menzionato sopra, gli utenti aggiungono manualmente i loro amici alla lista di contatti.

La prospettiva diventa sia funzionale (raggiungimento di obiettivi con soddisfazione) che psicologica (proiettare le proprie aspettative e attribuire significato ai risultati dell’interazione) che comunicativa (mantenimento delle relazioni e creazione di uno spazio innovativo in cui sperimentare diverse modalità relazionali).

Possiamo pertanto arrivare a classificare gli utenti (XXXX)  in personas, secondo la prevalenza dei comportamenti sociali e/o individuali:

-         utenti autocentrati: utenti che costruiscono contenuti, audiences per questi contenuti e si pongono sempre nella sfera dei Creatori dei contenuti

-         utenti centrati sugli altri: che interagiscono su contributi degli altri e che costruiscono conversazioni focalizzate sul contributo degli altri

-         utenti centrati sulla relazione: che si ingaggiano in attività sociali per il puro scopo relazionale e si interessano anche di cosa fanno gli altri in relazione.

I social media sono nati per sostenere pratiche sociali e fondare nuovi modi di relazionarsi tra esseri coscienti. Ogni utente differisce e combinandosi con gli altri rendono lo schema di interazione multiplo e complesso.

6 Conclusione

Questo contributo ha cercato di mettere in evidenza come l’approccio standard all’usabilità deve essere rivisto ed integrato e come la complessità sociale entra prepotentemente nello spazio dell’interazione.

In ogni caso poiché i social media, come appena detto, sono nati per sostenere pratiche sociali e fondare nuovi modi di relazionarsi tra esseri coscienti, questo rappresenta un passo avanti nella costruzione di quella Intelligenza Collettiva dove anche i criteri di progettazione e di valutazione dell’usabilità dovranno sempre più misurarsi con la varietà interculturale e il dinamismo sociale e antropologico.

Ringraziamenti

Il mio profondo ringraziamento va a Paolo Zocchi, grande mente e energia potente dell’innovazione italiana e dei modelli di cultura tecnologica, sociale, di vita e governo, per la sua intelligenza sociale e per la sua capacità di integrare e motivare per un fine politico e sociale  persone di culture e provenienze così diverse.

Questo mio  con-tributo è in realtà un TRIBUTO a Paolo e vive dei suoi continui stimoli, lui che ora vede tutto più chiaro dall’alto delle sue amate montagne più alte e mi può davvero guidare nella nuova dimensione. Buona continuazione Paolo nelle esplorazioni del Cosmo Intelligente, mi piace adesso pensarti lì come un acceleratore della nostra evoluzione!!

Ringrazio poi Flavia Marzano perché senza di lei non sarei mai stata in grado di cimentarmi in questo contributo e un grazie a tutti i suoi stretti collaboratori che hanno reso questo libro possibile. Un GRAZIE di cuore!

7 Bibliografia principale (da rivedere)

McLuhan, M. (2001) Understanding Media. The extension of Man, London: Routledge, 2001,

Tim Berners Lee (2007) Giant Global Graph, Technical Report, CSAIL-DIG, MIT, Cambridge Mass., 2007

Joseph Smarr, Marc Canter, Robert Scoble, and Michael Arrington (2007) , A Bill of Rights for Users of the Social Web, 2007

Norman, D. A. (2007). The Design of Future Things. New York: Basic Books. (November, 2007.)

Norman D. A. (2004) Emotional design, Apogeo 2004, Milano

Verne Ho (2009) Application of Usability Principles on a Social Network, Creative Briefing Blog, 2009

Giacoma G. e Casali D.(2007) Elementi Teorici per la progettazione dei Social Networks,  Licenza Creative Commons, Attribution-Share Alike 3.0, 2007

Nielsen J. (2000) Web Usability, Apogeo 2000, Milano

Mathes, A. (2004) : “Folksonomies – Cooperative Classification and Communication

Through Shared Metadata” (2004)

http://www.adammathes.com/academic/computermediated-

communication/folksonomies.pdf, Accessed January 25th, 2006.

Weiss, A.: “The Power of Collective Intelligence”, netWorker, 9, 3 (2005), 17-

Bevan N (1998) Usability Issues in Web Site Design. In: Proceedings of UPA’98, Washington DC, 23-26 June, 1998.

Kolbitsch J. e Maurer H. „The Transformation of the Web: How emerging Communities shape the Information we consume, August 2006 in Journal of Universal Computer Science

Derrick De Kerchove (2001) The Architecture of Intelligence, McLuhan Project, 2001

8 Sitografia principale

 

 

[Eurekster 2009] Eurekster, http://www.eurekster.com/.

[Flickr 2009] Flickr, http://www.flickr.com/.

[Friendster 2009] Friendster, http://www.friendster.com/.

[MySpace 2009] MySpace, http://www.myspace.com/.

[OpenBC 2009] Open Business Club, http://www.openbc.com/.

[Orkut 2009] Orkut, http://www.orkut.com/.

[Skype 2009] Skype, http://www.skype.com/.

[Ebay 2009] Ebay, http://www.ebay.com/.

[Amazon 2009] Amazon, http://www.amazon.com/.

[Wikinews 2009] Wikinews, http://www.wikinews.org/.

[Wikipedia 2009] Wikipedia, http://www.wikipedia.org/.

www.useit.com

www. usabile.it

 

 

Questo lavoro è scritto sotto la licenza Creative Commons License.



[1] Anna Giannetti è uno senior usability consultant, co-autore della norma ISO 9126 e della norma ISO 13407 sulla qualità del prodotto e processo software, e autore di diverse pubblicazioni nazionali e internazionali sulla usabilità e qualità del software. E’ stata responsabile di un Laboratorio avanzato di usabilità presso SOGEI SpA, membro di Gruppi di Lavoro istituzionali sull’usabilità e qualità del software (AIPA, CNIPA, Confindustria), membro di UsabilityNET, la rete europea degli specialisti di usabilità ed è attualmente Professore a contratto di Qualità del Software presso il Dipartimento di Ingegneria Elettronica e Informatica dell’Università di Perugia. Ad oggi è Direttore Marketing e Innovazione del Gruppo Nous Informatica SpA. Un giorno fortunato di qualche anno fa ha incontrato Paolo Zocchi sulla sua strada ed è ora, in suo nome, ancora più fortemente motivata a continuare a costruire per lui nuovi approcci innovativi per una nuova socialità sul web.