ESB Forum ESB Forum
ISSN: 2283-303X

Macchine Celibi? Accumulo o distribuzione dell'informazione fra tecnologie e professionalità

Seminario "Il Presente Rinnovato". Bologna, Dipartimento di Scienze Economiche dell'Università degli Studi di Bologna, 20 febbraio 1997


pubblicato anche a stampa, in "Biblioteche oggi", XV, n. 6 (luglio/agosto 1997), p. 6-21.
di Gabriele Gatti (in linea da maggio 1997)

Macchina celibe è la definizione che Marcel Duchamp ha dato ad un particolare di una delle più enigmatiche fra le sue opere, il celebre Grande vetro intitolato La sposa denudata dai suoi celibi, anche. Si tratta di un curioso complesso di meccanismi di cui non riusciamo chiaramente a vedere il funzionamento e l'utilità, salvo il fatto che esso sembra far transitare una iscrizione dalla parte superiore a quella inferiore dell'opera.

A partire da questa idea sono state rintracciate nella storia della cultura precedente e successiva altre apparizioni di macchine celibi, come la macchina della Colonia penale di Kafka, che funziona anch'essa come "pantografo", incidendo sulla carne del condannato la sua sentenza, oppure il Pozzo e il pendolo di Poe, o lo stesso Frankenstein di Mary Shelley [1]. Sembra che si possa individuare tutto un filone mitologico moderno legato a questo genere di meccanismi bizzarri, a volte lugubri, spesso divertenti, che consumano più di quanto rendano e che adottano figure meccaniche per simulare effetti meccanici: macchine inutili e infeconde.

Il nesso fra le macchine celibi e gli argomenti di cui qui ci occupiamo non è dato tanto dal fatto che Duchamp sia stato bibliotecario, quanto dal nostro ricorrente interesse per le macchine, di cui continuiamo a misurare l'influenza sul nostro lavoro di professionisti dell'informazione. Già da tempo ci interroghiamo sui mutamenti introdotti dalle nuove tecnologie, a partire dall'automazione dei cataloghi bibliotecari, per poi passare all'introduzione dei collegamenti online nei nostri servizi di consulenza bibliografica, all'esplosione dei CD-ROM e alla bufera di Internet. Quello che abbiamo visto crescere insieme alle nuove tecnologie sono stati soprattutto gli strumenti di riferimento per la ricerca: i repertori bibliografici e biografici, i cataloghi, le enciclopedie, insomma le banche dati come espansione delle nostre sale di consultazione. Così, siamo stati indotti a vedere nella reference il paradigma della nostra professionalità. Abbiamo imparato a sottolineare la crucialità dell'accesso alle informazioni rispetto al possesso dei documenti, abbiamo ampliato il campo un tempo trascurato dell'educazione all'utenza e ci siamo abituati al nuovo mestiere della intermediazione. In definitiva, tutto è diventato reference, e la consulenza, e in particolare l'intermediazione hanno assunto il ruolo di nocciolo duro e insieme di modello di riferimento per tutti i servizi, coinvolgendo e sconvolgendo anche le altre attività delle biblioteche, dall'acquisizione alla catalogazione.

L'attuale stato dell'arte, pur denso di interessanti stimoli provenienti dalle nuove tecnologie (descritti poco fa da Michele Santoro), non sembra far prevedere novità rivoluzionarie come quelle che si sono consumate negli ultimi anni, in cui i cambiamenti che abbiamo vissuto giorno per giorno avevano il sapore di un vero e proprio passaggio d'epoca. Piuttosto, mi sembra che sia nella combinazione fra tecnologie e mercato dell'informazione elettronica che va individuato un mutamento forte, di carattere culturale e gestionale, destinato ad influire sui nostri servizi.
Una fonte assai autorevole per chi voglia avere un quadro dell'attuale stato dell'arte è certamente l'annuale International Online Meeting di Londra, che fin dai primi vagiti delle nuove tecnologie dell'informazione è uno degli appuntamenti più prestigiosi a livello internazionale. Ebbene, scorrendo gli atti dell'ultima edizione di questo convegno, mi è effettivamente sembrato che le questioni "calde" oggi all'attenzione degli specialisti dell'informazione fossero di carattere culturale, più che prettamente tecnologico. L'argomento del giorno sembra essere la disintermediazione, che la francese Helis Miido definisce come «the process whereby information providers bypass traditional librarians and offer their services directly to the end-user» [2].

Si tratta ovviamente di un fenomeno che ha già una sua storia, che può essere fatta risalire ai primi servizi online orientati all'utente finale come Textline o Nexis, che con le loro interfacce di ricerca semplificate tentarono, senza grosso successo, di scavalcare l'intermediario. La seconda ondata fu quella delle banche dati su CD-ROM, che ebbero il curioso effetto di creare in rapporto ai servizi online una gerarchia di fonti elettroniche: le prime, semplici, meno aggiornate e a costo prevedibile, da lasciare (a volte con troppa leggerezza) all'utente finale; le seconde, complesse, più aggiornate e con costi imprevedibili, ancora regno incontrastato del bibliotecario/intermediario. Infine, le decine di migliaia di utenti finali che entrarono direttamente in contatto con l'informazione elettronica grazie ai CD-ROM, sono diventati milioni grazie a Internet [3].
La progressiva trasformazione di Internet in un unico ipertesto percorribile con browsers sempre più amichevoli accentua la sensazione di un accesso sempre più disintermediato all'informazione elettronica, ma il fenomeno è più generalizzato e non riguarda solo il campo delle risorse liberamente disponibili in rete. Anche nell'ambito dell'informazione elettronica commerciale le più nuove fra le nuove tecnologie sembrano aver portato ad una situazione in cui un utente finale può acquisire le conoscenze di base necessarie per il recupero dell'informazione. È una situazione che sembra far apparire antichi anche quei campi di intervento che ci eravamo abituati a considerare come i più avanzati nella nostra professionalità, come l'intermediazione e la user education.
Esaminando le cause del fenomeno della disintermediazione, è difficile districare il nesso fra gli aspetti dipendenti dall'avanzamento delle tecnologie e quelli legati al nuovo atteggiamento dei produttori e distributori di informazione.
Probabilmente l'elemento più vistoso è stato lo sviluppo di WWW e conseguentemente dei browsers, ma nella stessa direzione si muovono anche i produttori di banche dati su CD-ROM, nel progressivo miglioramento delle interfacce e nella tendenza ad allargare sempre di più le possibilità di networking dei CD, fino a farli interagire con Internet stessa [4]. Il successo di WWW spinge sempre di più i distributori commerciali di informazioni ad immettere i propri servizi nella rete e comunque a praticare strategie di mercato sempre più capillari, nella consapevolezza che la maggiore popolarità dell'informazione elettronica estende il campo dei possibili clienti.
Questo orientamento del mercato verso gli utenti finali trova un riscontro particolare in alcuni sviluppi tecnologici: Java sembra contribuire alla possibilità di una presentazione sempre più agile e amichevole delle informazioni, e inoltre, rendendo più agevole la realizzazione di programmi eseguibili da un computer remoto, fa intravedere l'epoca del NetPC, una sorta di terminale poco più che stupido che, a basso costo, permetterebbe di usufruire di tutti i vari servizi di rete. Questa tendenza della informazione elettronica ad entrare decisamente in casa dell'utente si esprime poi nello sviluppo della WebTV, che dovrebbe garantire un accesso rapido e tecnologicamente semplice al WWW dal televisore. Anche la tecnologia dei modem superveloci, sebbene con qualche incertezza [5], si muove in questa direzione. In direzione dell'utente finale si muovono anche i motori di ricerca e i vari agenti software per il recupero delle informazioni in rete, che tendono ad essere sempre più "intelligenti" e ad avvicinarsi all'uso del linguaggio naturale.
Quanto alle Intranets, reti locali basate sui protocolli di Internet, il loro aspetto innovativo mi sembra che risieda, più che nella tecnologia, nel fatto che questo tipo di soluzione venga ora proposta alle aziende, segnando così la definitiva affermazione del modello di Internet e insieme inaugurando un nuovo importante percorso di disintermediazione [6].

Forse c'è anche dell'altro che bolle nella pentola delle nuove tecnologie e del mercato dell'informazione elettronica, ma - a parte la WebTV di cui non si sa ancora moltissimo - mi sembra appunto che le grandi novità siano soprattutto nel fattore umano, in questa irruzione dell'utente finale che ormai sembra in grado di rapportarsi direttamente con i sistemi informativi. Non va poi trascurato il parallelo fenomeno di disintermediazione nella produzione di informazione, cioè la maggiore facilità nel pubblicare elettronicamente, scavalcando i limiti tecnici, ma anche i filtri istituzionali e intellettuali che sono propri della produzione documentaria in particolare a livello scientifico-accademico: una riproposizione, in proporzioni infinitamente più massicce, della rivoluzione gutenberghiana analizzata da McLuhan.

In questo contesto, sembra che non sia più adeguata la domanda che periodicamente ci siamo riproposti in questi ultimi anni, su come cambiare la nostra professione, ma che piuttosto ci si debba chiedere se ce n'è ancora bisogno. A cosa serve la biblioteca? Che senso ha che gli utenti convergano in un luogo fisico definito per accedere alla dimensione a-topica della informazione elettronica distribuita? E a cosa serve l'intermediario se gli agenti di rete sono sempre più intelligenti e le interfacce dei CD sempre più vicine al linguaggio naturale dell'utente? Viene il dubbio che biblioteche e bibliotecari siano utili quanto una macchina per affilare il burro, o magari paragonabili alla Ruota di bicicletta di Duchamp [7]. Insomma: macchine celibi.
Un interrogativo così radicale rientra chiaramente nel campo della futurologia. Intanto, non ce ne stiamo certo con le mani in mano; ma quanto sono residuali le attività che ancora svolgiamo?
Il libro a stampa sembra essere tuttora un supporto tecnologico insuperato per certi usi. La tecnologia non ci ha ancora fornito un altro strumento che permette di leggere in piedi, sdraiati, in autobus, in bagno, quando manca l'elettricità; che permette di leggere a chi sa solo leggere, senza necessità di imparare nessun altra tecnica, nemmeno la più semplice; che permette di leggere senza rovinarsi troppo gli occhi... E forse non è scontato che questo apice della tecnologia che è il libro a stampa venga superato. Esistono esempi in altri campi, come la musica rock, per la quale, per quanto sembri strano, vengono ancora prodotti e largamente usati amplificatori a valvole, visto che non si è inventato ancora nulla che sia in grado di fornire la stessa qualità di suono; e anche nel campo del trasporto su strada, sembra che non ci sia discostati ancora dal concetto della camera d'aria, evidentemente la soluzione migliore rispetto alle gomme piene, ai cuscinetti d'aria compressa o a qualsiasi altra idea.
Sembra dunque che la stampa su carta sia destinata a rimanere a lungo il mezzo prevalente di comunicazione scritta per quegli usi che presuppongono la lettura prolungata come modalità di fruizione principale [8]. E non mi riferisco solo alla fruizione estetica, la lettura in quanto tale, per la quale saremmo indotti a scaricare ogni responsabilità sui colleghi delle biblioteche pubbliche: nell'ambito stesso delle scienze sociali, di cui qui ci occupiamo, la lettura prolungata è ancora la modalità prevalente anche a livello scientifico-accademico.
Quindi, resta fondamentale fra i nostri compiti la gestione della documentazione a stampa, e sempre di più si accentuano le problematiche relative alla sua circolazione in termini cooperativi, visto che la telematica rende sempre più conoscibili i nostri patrimoni cartacei. Inoltre, la disponibilità di informazioni retrospettive resterà ancora per un po' di tempo legata alle biblioteche.
C'è poi da garantire il delicatissimo diritto alla connettività come nuovo diritto di cittadinanza; uno sviluppo di quella funzione sociale che è da sempre nella ragion d'essere delle biblioteche. E anche in questo caso non mi riferisco solo a quelle di pubblica lettura, giacché fino a prova contraria (e si spera che non ve ne siano), anche l'istruzione superiore e l'opportunità della ricerca scientifica fanno parte, nel nostro paese, dei diritti civili [9].
Di assistenza e intermediazione ci sarà ancora bisogno, almeno in Italia, dove siamo ancora lontani dal modello altrove già attuale in cui tutti i ricercatori hanno un PC in rete nel loro studio o addirittura a casa. Inoltre, come è stato già notato da chi mi ha preceduto, fintanto che software e interfacce di ricerca resteranno così eterogenee, per quanto amichevoli, vi sarà necessità di un'opera di assistenza e di educazione all'utenza.
Se poi ci domandiamo quanto futuro abbia la user education, soprattutto nei confronti dei neofiti dell'informazione elettronica, basta considerare che presumibilmente il 90% di coloro che useranno Internet nel 2000, oggi è ancora offline [10]. In Italia poi, la distanza da una consapevolezza anche solo elementare sul funzionamento delle reti è testimoniata anche ad alti livelli, come ad esempio si è visto di recente in occasione dei servizi di un telegiornale di stato sul caso delle ragazze senesi fuggite da casa. Il caso mi è sembrato interessante perché non solo mostrava quali pazzeschi e oscurantisti miti possano essere attribuiti a Internet, ma anche perché gli strafalcioni dei servizi mostravano chiaramente la totale assenza di esperienze dirette da parte dei giornalisti, e ci si domanda come si possa oggigiorno svolgere quel mestiere senza avere nemmeno una casella di posta elettronica.
Mi sembra però che la questione dell'educazione all'utenza assuma sempre più chiaramente un carattere culturale, piuttosto che tecnico. Del resto, quando l'educazione all'utenza era svolta in sala di consultazione, in era pre-elettronica, la questione non era di carattere tecnico (gli utenti sanno leggere e sfogliare pagine), ma concettuale: si trattava di rendere comprensibile e fruibile una certa organizzazione delle informazioni. Sotto questo profilo, non mi sembra oggi molto meno importante ad esempio abituare gli utenti a leggere ipertestualmente invece che linearmente, il che è tutt'altro che naturale (Forse sarebbe stato più facile per un dotto medievale, abituato a grandi pagine di testo contornate da glosse e commentari).
Non si tratta dunque tanto di interfacciare le interfacce, che ne hanno sempre meno bisogno, ma piuttosto di interfacciare i contenuti, assumendo la user education in un senso didattico più complessivo, capace di far fronte alla sesquipedale ignoranza bibliografica dei nostri utenti. A sostegno di un'affermazione che può sembrare esagerata, ecco un illustre testimone della durata secolare della nostra carenza di cultura bibliografica:

    Vi e' una specie di opere voluminose, usualmente chiamate libri da indice, non lette neppure da chi le possiede, e non esaminate se non da que' pochissimi a beneficio dei quali sono state composte, e i quali soli ne fanno buon capitale per la loro propria gloria e per la pubblica utilità. [...] Noiosi come pur sono creduti, la loro riconosciuta utilità basta a giustificare chiunque se ne occupa a farli meglio conoscere...
    [...] Finalmente ciascheduna delle loro opere è sempre in parecchi volumi; ed ogni volume di un migliaio di pagine in foglio, o in quarto, a dir poco. Or chi può leggerli? E chi mai, potendo, vorrebbe, se non fosse necessario a ricorrere alla loro assistenza?
    [FOSCOLO, Antiquari e critici, «Retrospective Review», luglio 1826.]

Foscolo scrive in Inghilterra, dove i reference books godono da sempre di ottima fama, ma si riferisce alla cultura italiana, che invece già allora manifestava una refrattarietà incrollabile nei confronti dei "libri da indice", quelli che noi chiameremmo opere di consultazione: repertori, enciclopedie, cataloghi... e banche dati!
Non vi capita mai che l'utente giudichi irrilevante un record bibliografico perché ci trova scritto Dewey e crede che si tratti di John Dewey? Dunque, come osserva Riccardo Ridi, «è inutile fingere di credere che il problema sia solo lo specifico tecnologico, quando in Italia la maggioranza degli utenti (e una percentuale non trascurabile di bibliotecari) ha poca dimestichezza anche con cataloghi a schede e opere di consultazione a stampa» [11]. Da questo punto di vista, trovo decisamente centrata la definizione dei compiti dei bibliotecari che scaturiva anni fa da un convegno statunitense: "Garantire l'eguaglianza di accesso all'informazione", ma anche "educare al pensiero critico" e "progettare un sistema educativo bibliografico dalla scuola materna all'università" [12].

In attesa di sapere se queste attività residue delle biblioteche dureranno ancora qualche anno [13]. o qualche decennio [14], vale la pena di considerare un altro fenomeno su cui molti si sono soffermati all'Online meeting: il cosiddetto sovraccarico informativo, che viene considerato come uno dei problemi principali di Internet, insieme alla censura e alla commercializzazione [15], tanto da suggerire all'amministrazione Clinton il progetto di una Internet II esclusivamente dedicata alla ricerca scientifica e all'educazione [16].
Quello della information overload è un problema quantitativo con un immediato riscontro qualitativo. T. Matthew Ciolek si è domandato quale sia il rapporto tra il volume totale dell'informazione in rete, misurata in megabytes, e l'informazione utile agli studiosi: 1/1? 100/1? 1000/1? Forse anche di più, commenta Ciolek, domandandosi se il futuro in definitiva ci riservi una crescita dell'informazione o solo della mediocrità [17].
L'autonomia del ricercatore nel rapporto con le fonti, la sospirata disintermediazione, sembra porsi quanto meno in rapporto dialettico con la qualità e la quantità delle fonti stesse. Qualcuno ha osservato che la battaglia con Internet si vince solo perdendo quella che era la tradizionale battaglia dell'information retrieval: cioè accettando di farsi sommergere dai troppi risultati di una enorme base dati [18].
È l'esperienza che facciamo quotidianamente con i motori di ricerca.
Di information overload si discute a proposito di Internet, ma mi sembra che gli stessi interrogativi dovrebbero essere posti più in generale a proposito di tutto il crescente complesso della informazione elettronica disponibile, gratis e a pagamento, online e offline, in rete locale o geografica. La battaglia non è solo con Internet, ma anche con l'eterogeneità, le sovrapposizioni e il dinamismo crescente delle offerte dell'editoria elettronica; e le osservazioni sulla qualità della informazione andrebbero ormai poste in una considerazione globale del campo delle disponibilità, superando in parte la differenziazione "per supporti" che la stessa tecnologia rende sempre più obsolescente. Già alla precedente edizione di questo seminario Elisabetta Di Benedetto concentrava la sua attenzione sul problema della qualità osservando che non c'è tutto gratis su Internet perché non tutta l'informazione di qualità è su Internet [19], ma anche l'informazione che si paga non è sempre a livelli soddisfacenti e l'utente disintermediato attraversa un labirinto disorientante fatto non solo di pletorici risultati di motori di ricerca, ma anche di proposte e lusinghe di un mercato sempre più aggressivo. La stessa editoria elettronica appare sempre più disintermediata: lo sviluppo delle tecnologie favorisce e semplifica le iniziative in questo campo, e il risultato sembra essere un rilevante ampliamento di tutto il campo della information industry.
Così considerato, il sovraccarico informativo comprende quindi a mio avviso non solo il sovraccarico della informazione in quanto tale, dei contenuti informativi disponibili, ma anche delle sue eterogenee, a volte neobarocche, seppur sempre più amichevoli, forme stilistico-tecnologiche. L'information overload appare anche come una interface overload.
Il fenomeno sembra insomma suggerire uno scenario possibile in cui il complesso informativo elettronico può configurarsi come una gigantesca macchina celibe, infeconda perché sempre più autoreferenziale e inutilizzabile; divertente magari, come una seicentesca "macchina per far cinguettare gli uccelli" [20] ma anche un po' minacciosa, come la macchina-moloch di Metropolis di Fritz Lang.
Ci chiediamo dunque se le tecnologie che ci consentono una enorme possibilità di accumulo di informazioni nelle macchine, siano anche in grado di garantire una loro distribuzione dalle macchine alle intelligenze, o se invece non si richiedano per questo scopo professionalità (o - perché no? - artigianalità) tipicamente umane, competenze connesse non solo con l'informatica ma con il trattamento delle informazioni.
La risposta non è scontata, e non dovrebbe essere consolatoria: i tentativi di attribuire a nuovi automatismi il compito di imporre un qualche principio di organizzazione al caos informativo non sono necessariamente destinati all'insuccesso, e si può anche ipotizzare uno scenario come quello descritto da Arthur Winzenried: «4 years from now: Early forms of so-called 'intelligent agents' are already in use and it is possible to imagine an 'intelligent agents kit' assembled to order by the librarian in order to create a body of knowledge for a specific purpose, and keep it updated. This would involve sampling online-resources at intervals but would need supervision by an information expert. Such software might not quite be new technology but would support the work of information experts» [21. Fra otto anni, poi, forse anche quegli accenni al ruolo del bibliotecario potrebbero risultare superati.
Per ora, le più tipiche fra le soluzioni tecnologiche al sovraccarico e alla volatilità dell'informazione elettronica, i motori di ricerca [22], mostrano tutti i loro limiti e anzi la frustrazione che quotidianamente proviamo usando questi strumenti ci appare proprio come la manifestazione più caratteristica della information overload. I meccanismi di ranking dei motori appaiono come scarsi palliativi rispetto alla necessità di districarsi in una quantità di informazioni non referenziate, o addirittura a vanificare gli effetti delle pratiche di "word spamming" che moltiplicano esponenzialmente il tasso di assurdità dei risultati delle ricerche.
D'altra parte, non si può negare che lo sviluppo dei sistemi di NDIR (Network Information Discovery and Retrieval) [23] mette in crisi alcuni concetti radicati nel lavoro dello specialista dell'informazione: ad esempio dovremmo forse tornare a interrogarci sul concetto di successo di una ricerca, ora che gli utenti sembrano essere in grado di svolgere per proprio conto ricerche che, pur nella loro aleatorietà, conducono a risultati dal loro punto di vista soddisfacenti. Nel nostro periodo di entusiasmo booleano avevamo forse sottovalutato la serendipità, la capacità di ricavare dati scientificamente validi da osservazioni casuali o rivolte ad uno scopo diverso. Qualcuno osservava che le banche dati non consentivano quello "sfogliare" casuale che spesso portava a scoperte fondamentali fra le pagine dei repertori cartacei. Ora, la serendipità sembra rientrare prepotentemente in gioco, come una condanna, o come una nuova opportunità, o forse addirittura come un nuovo paradigma nel recupero dell'informazione.

Al di là delle soluzioni tecnologiche al sovraccarico informativo, si discute delle soluzioni umane: in sostanza, dei compiti degli specialisti dell'informazione come organizzatori e validatori dei documenti e delle informazioni in un universo destrutturato come Internet. Ma anche in questo caso bisognerebbe saper inquadrare la questione in modo complessivo, ponendo in questione la necessità del coinvolgimento attivo di un umano nel trattamento dell'insieme del docuverso, che non è solo su WWW e neanche solo in rete.
Sempre a proposito dell'attualità o meno di una attività di assistenza all'utente nell'uso delle fonti elettroniche di informazione, capita curiosamente di notare come, in contesti già massicciamente disintermediati, si assista ad un certo ritorno della intermediazione come esigenza degli utenti, come nel caso della Biblioteca del Foreign and Commonwealth Office, di cui ha riferito Gillian Allen all'Online meeting [24]. La persistenza di alcuni fondamentali problemi concettuali, relativi ad esempio all'impostazione delle strategie di ricerca, appare da una ricerca come quella condotta da N. G. Tomaiuolo e J. G. Packer sull'uso dei motori di ricerca da parte di utenti non particolarmente addestrati [25]. Le ambiguità semantiche sembrano essere non già semplificate, ma moltiplicate dall'uso di sistemi di ricerca "a linguaggio naturale", e il collaterale effetto di false confidence syndrome contribuisce a complicare i concetti in maniera direttamente proporzionale alla facilitazione delle tecniche e delle interfacce.
Ma torna anche all'ordine del giorno un problema che sembrava essere stato dissolto dalle tecnologie dell'informazione: quello del tempo. Quella che sembrava la conquista principale consentita dalle banche dati e dalla telematica, il risparmio di tempo nella ricerca documentaria, è oggi pesantemente rimesso in discussione dallo stato del traffico e delle infrastrutture di rete, che sembrano essere diventate il regno della lentezza e della dilazione, in stridente contrasto con la contemporaneità frenetica di cui Internet dovrebbe essere il simbolo.
Il problema è meno contingente di quanto possa sembrare, e anzi c'è pure chi sostiene che la situazione non migliorerà ma piuttosto tenderà a peggiorare nei prossimi anni, visto che l'aumento degli utenti, gli elementi di maggiore complessità dei browsers e le complicazioni tecniche introdotte da Java, saranno comunque più veloci rispetto al ritmo di incremento delle capacità della rete, e a poco serviranno i nuovi servizi di cache [26].
Di qui, anche, questo curioso ritorno all'intermediazione: ad un certo livello l'utente finale non solo non ha gli strumenti concettuali, ma più banalmente non ha il tempo di affrontare personalmente le risorse informative di rete. Quanti utenti, si chiede Gillian Allen, possono permettersi di aspettare cinque o dieci minuti per scaricare un file o ottenere i risultati di un motore di ricerca, e poi impiegarne anche di più per valutarli? [27]. E quanti, aggiungo io, possono permettersi di dedicare tempo alla valutazione di decine di offerte apparentemente identiche del mercato dell'informazione nel proprio settore di ricerca?
Quanto alla valutazione [28] delle risorse informative: l'importanza di una mediazione umana nel controllo della qualità delle informazioni in rete è fra l'altro testimoniata dalla grande quantità di siti che forniscono accesso a risorse selezionate e valutate. Ne esistono di molti tipi: disciplinari e multidisciplinari, "popolari" e accademici. Alcuni di questi servizi si caratterizzano come motori di ricerca, in cui la sezione delle recensioni ha il significato di compensare con un intervento "intelligente" la nuda serie di risultati non referenziati che il motore può fornire. In altri casi la valutazione dei siti rappresenta un tentativo di indicizzazione spinta da affiancare ad una classificazione di tipo bibliografico. È interessante poi notare quali tipi di professionalità vengano coinvolte nella realizzazione di questo genere di servizi: specialisti delle varie discipline, bibliotecari, informatici, web-fanatics e cyberwriters, ma anche gli utenti stessi, invitati a segnalare e recensire le "perle" in cui si imbattono. Le segnalazioni degli utenti poi, a seconda del sito, vengono senz'altro aggiunte all'elenco oppure vengono filtrate dai redattori [29].
I vari criteri di valutazione impiegati in questi servizi intendono comunque rispondere all'esigenza di corredare di metainformazioni le informazioni circolanti, in modo da renderle recuperabili e utilizzabili. E chiaramente rientra in questo discorso la questione molto dibattuta della indicizzazione e classificazione dei documenti elettronici, rispetto alla quale dovremmo poter recuperare le competenze di tanti nostri colleghi che, occupandosi di catalogazione, hanno fin qui ritenuto di doversi tenere alla larga dai documenti elettronici. A questo proposito, oltre che sui diversi modelli di indicizzazione (Dewey, LC, CDU, ecc.) [30] si discute su come individuare gli oggetti da indicizzare: l'unità documentaria in rete è di difficile determinazione e quindi ci si divide sull'opportunità di considerare ad esempio solo la radice oppure ogni singola ramificazione di un ipertesto.
Ma, a monte di queste questioni, trovo particolarmente interessante il problema dell'ampiezza del possibile campo di intervento del bibliotecario come valutatore o indicizzatore dell'informazione elettronica: è più utile indicizzare in maniera quanto più estesa possibile le risorse di rete oppure risulterà più proficuo alla lunga concentrarsi sulla selezione delle risorse necessarie ad una certa utenza in un certo contesto? [31]. E quale può essere il rapporto fra l'indicizzazione del Web e di tutte le altre risorse elettroniche che mettiamo a disposizione dell'utenza, magari unificate da una medesima interfaccia?
Probabilmente, l'obiettivo di un servizio orientato all'utenza anziché alla tecnologia, richiede l'espansione di una attività di validazione/indicizzazione al di fuori dell'esclusivo ambito WWW, in cui oggi soprattutto si esercita, per rivolgersi all'intero campo delle disponibilità di informazione elettronica. Ma contemporaneamente sembra anche opportuno assumere un atteggiamento selettivo, rinunciando ad inseguire ideali gesneriani in ogni singola raccolta di bookmarks o a stilare puntigliosi cataloghi dei CD-ROM posseduti, e piuttosto cercando di individuare priorità e urgenze in modo quanto più possibile personalizzato.
O magari tornando ad insistere sul nostro specifico "foscoliano", concentrando l'attenzione, fra le tante tipologie documentarie veicolate dai supporti elettronici, sui "libri da indice": è significativo l'esempio del servizio di reviewing di CyberStacks [32], che adotta, per la valutazione delle risorse Internet, i criteri dell'American Library Association manual for Reference Collection Development; dunque non solo alla indicizzazione e valutazione delle risorse elettroniche vengono applicati criteri bibliografici, ma specificamente i criteri della "sala di consultazione". Insomma, se i fondi documentari che dobbiamo reimparare a catalogare (e recensire) sono elettronici, mi sembra importante sottolineare che sono fondi fatti non tanto di monografie e periodici, ma anche e soprattutto di reference books.
Da questo punto di vista il fatto che una risorsa di questo tipo sia consultabile su CD-ROM o in Internet può risultare a volte rilevante quanto una rilegatura in finta pelle. Piuttosto, l'efficacia della valutazione o della classificazione delle risorse potrebbe risultare maggiormente dipendente dal loro carattere locale, da una deliberata parzialità di approccio che metta al centro le esigenze specifiche, o anche le idiosincrasie, di una determinata utenza, se non addirittura di determinati singoli utenti. Si ripropone in sostanza la vecchia dialettica tra la quantità e la precisione delle risorse individuate, e a questo proposito basta confrontare l'efficacia dei servizi di reviewing dedicati a singole discipline con quella dei siti a carattere multidisciplinare [33].
Sembra in definitiva che nel contesto del gigantismo che caratterizza l'informazione elettronica in questa fase, la medicina contro l'information overload possa essere proprio un passaggio dal grande al piccolo, la presa di coscienza che il catalogo dei cataloghi non esisterà mai, che gli standard di valutazione delle risorse, per quanto rigorosi, possono risultare privi di significato per un certo utente e che quindi sembra quasi auspicabile poter compensare la metafora della biblioteca come "ipertesto che cresce" [34] con la metafora del gopher: cioè con un paradigma che, al di la' della (spesso illusoria), sensazione di onnicomprensività e libertà di navigazione propria dell'ipertesto, affermi invece dichiaratamente una gerarchia strutturata, consapevole della sua parzialità, sensibile al mutamento, ma anche capace di fornire un prerequisito di selezione e validazione di cui l'utente disintermediato sembra manifestare sempre di più l'esigenza.
In effetti, è stato osservato che il problema del futuro sarà non semplicemente quello di controllare, e se possibile migliorare la qualità delle informazioni portate all'attenzione dell'utente, ma anche, brutalmente, di ridurne la quantità [35]. Al grande tema dell'integrazione, su cui ci siamo soffermati in questi anni, si affianca quindi il tema della selezione.

Ci siamo abituati, nella discussione sui compiti delle biblioteche nell'era telematica, alla metafora del just in time. Nell'ambito delle strategie industriali l'espressione indica una ristrutturazione basata sull'eliminazione della gestione delle scorte (just in case) in favore di una flessibilità produttiva che consenta una risposta immediata alle richieste del mercato. Nelle biblioteche, la stessa espressione è stata usata metaforicamente per indicare il mutamento introdotto dalla più vasta accessibilità delle informazioni in forma elettronica: si passa dall'idea fondamentale dell'acquisizione e stoccaggio di documenti in previsione delle eventuali esigenze dell'utenza (just in case) all'idea dell'accesso just in time all'informazione richiesta.
La metafora era corretta, sebbene la considerazione dei disastri sociali provocati dalle strategie industriali just in time la rendesse poco simpatica (basti pensare ai recenti avvenimenti di una delle culle di questo tipo di ristrutturazione: la Corea). Ma ora, esaminando i problemi dell'information overload, sembra di dover in qualche modo rimettere in discussione quell'idea.
Sono stato colpito dalla curiosa ricorrenza del termine proactive in varie relazioni dell'Online meeting dedicate ai nuovi compiti degli specialisti dell'informazione. Potremmo intenderlo nel senso di una attività che si svolge al posto dell'utente, e questo ci riporterebbe all'intermediazione, ma anche nel senso di una azione che previene le esigenze dell'utente, come ci conferma Arthur Winzenried:

    «One of the more important issues facing information personnel today is their ability to predict what is likely to be needed in the future by their clients, and how such information is to be first acquired and later distributed. In this regard the information manager of the future will have to be something of a prophet.» [36]

L'affermazione ha un sapore antico: sembra infatti riportare in auge il modello just in case! Ne risulta un quadro in cui i professionisti dell'informazione sono chiamati a predisporre a monte, potendo contare su una superiore disponibilità di competenze e di tempo, una selezione non già di documenti, ma di percorsi informativi che potrebbero risultare utili per certe aspettative previste.
È appena il caso di ribadire che tali percorsi dovrebbero attraversare in maniera quanto più possibile trasparente i diversi supporti elettronici e le varie modalità di accesso.
Potremmo quasi dire che le biblioteche diventano il contrario di quello che erano: prima erano tendenzialmente i luoghi dell'onnicomprensivo, dove è possibile conservare grandi masse di documenti rispetto alla inevitabile selettività di ogni singola raccolta documentaria realizzabile dall'utente. Oggi invece dovrebbero essere proprio i servizi che possono garantire, rispetto al sovraccarico informativo, la delimitazione di un campo ristretto di informazioni. Se si andava in biblioteca per essere sicuri di trovarci tutto, per compensare la limitatezza della libreria di casa, forse in futuro ci si andrà proprio perché si sa di non trovarci proprio tutto, per compensare quell'ingestibile tutto cui si accede dal computer di casa e avere a disposizione solo quello che veramente serve, ora.
Certo, dovrà pur esserci qualcuno che si occupi di conservare proprio tutto, di assumere nel contesto elettronico quella che era la missione delle biblioteche nazionali e salvare dall'oblio anche il materiale che oggi a noi appare minore, ma che potrebbe non esserlo per i posteri; anzi, sotto questo profilo i documenti elettronici, nella loro volatilità, sono naturalmente molto più caduchi di tanti libri di cui oggi lamentiamo la perdita perché non hanno retto alle ingiurie del tempo o perché le culture passate li considerarono indegni delle biblioteche. La conservazione, un'altro dei nostri antichi mestieri, troverà forse nel supporto elettronico non solo un ausilio ma anche un nuovo oggetto da salvaguardare [37].
Non è però affatto scontato che tutta la serie di compiti legati al trattamento delle informazioni nell'era dell'information overload siano naturalmente assegnate ai bibliotecari e ai documentalisti: già ora vediamo quanto scarso sia l'apporto delle nostre competenze specifiche nel fiorire di servizi di selezione, valutazione, indicizzazione delle risorse Internet, e sarà interessante vedere quali professionalità saranno coinvolte nei futuri sviluppi dei sistemi informativi. Basti pensare alla WebTV, che già si configura proprio come un servizio push, che spinge verso l'utente dei documenti preselezionati, piuttosto che seguire il criterio opposto (pull) finora caratteristico della rete [38]. Ebbene, chi predisporrà i "palinsesti" della WebTV?

Fin qui, ho proposto alcuni spunti relativi a quello che potrà essere il nostro ruolo nella fruizione dell'informazione elettronica, ma credo che non si debba trascurare il versante della produzione dei informazione elettronica.
Terry Webb ritiene che «The most important advances in library science in the next decade and well beyond will involve the development of local online resources, which will soon become as distinguishing a feature of fine libraries as their print collections are now» [39]. Risorse che possono essere di vario tipo (l'OPAC è l'esempio più banale), ma certamente comprendono anche forme di attività editoriale delle biblioteche, e non necessariamente limitate ad una più efficace pubblicizzazione e promozione dei servizi: l'abbattimento degli ostacoli tecnici alla produzione di informazione dall'interno all'esterno della biblioteca dovrebbe permettere iniziative editoriali più approfondite, come la produzione di bibliografie, studi specifici, manuali, e tutte quelle pubblicazioni che fino ad oggi potevano uscire solo dalle grandi e ricche biblioteche anglosassoni.
Nell'Università, in particolare, sarebbe interessante individuare i modi in cui i professionisti dell'informazione possano ritagliarsi un utile ruolo nella produzione documentaria della comunità accademica vera e propria.
Già nel 1993 John Browning affermava che la logica delle nuove tecnologie (la "pubblicazione" intesa come prelievo di un documento dal computer interconnesso dell'autore) rende i bibliotecari e gli editori sempre più intercambiabili e che «il giudizio editoriale del bibliotecario riceve valore e importanza pari a quello dell'editore» [40]. Browning proseguiva osservando che ciò creerà il paradosso per cui se le biblioteche facessero pagare questi libri elettronici verrebbero meno alla loro vocazione, e non ci sarebbe nessun altro a svolgere questo loro ruolo di garanti del diritto all'accesso all'informazione, mentre se li fornissero gratuitamente potrebbero mettere in crisi l'editoria (e fra l'altro non avrebbero modo di riscuotere il guadagno di questa loro accresciuta importanza). Un paradosso insolubile, almeno finché dura il capitalismo.
Ma piuttosto, vi sembra che queste profezie si stiano avverando? Vi è un riconoscimento del giudizio editoriale del bibliotecario? Quanto margine di intervento è concesso a questa figura professionale nella produzione di documentazione elettronica? Credo che la rilevanza di questo tema sia particolarmente evidente nel contesto accademico e varrebbe la pena di chiedersi se la sperimentazione sul nuovo ordinamento professionale attualmente in atto nelle università lasci spazi in questo senso, e se qualcuno li stia sfruttando [41].
I bibliotecari hanno gestito la penuria informativa, anche se il riconoscimento sociale di questo ruolo è stato scarso, specialmente nel nostro paese. Ora, è facile prevedere che non saranno i bibliotecari a gestire il sovraccarico informativo, ma resta da vedere se la cultura bibliografica potrà almeno avere una qualche influenza nei confronti dei produttori di informazione elettronica, dagli editori agli studiosi. Un'influenza stilistica, ad esempio, che possa promuovere una produzione documentaria elettronica dotata già in origine di un antidoto all'information overload: cioè di un corredo minimo di metainformazioni.
Ciò avrà a che fare con i futuri sviluppi di SGML, che fanno intravedere un futuro di documenti "autocatalogati", o di URN (Uniform Resource Name) e URC (Uniform Resource Caracteristics), che dovrebbero presentarsi come schema descrittivo dei documenti elettronici, lasciando a URL (Uniform Resource Locator) il ruolo di "collocazione" dei documenti stessi. Ma intanto, mentre l'uso di HTML diventa sempre più popolare, è interessante esaminare ciò che questo linguaggio offre già a questo scopo: i meta tags.
I meta tags servono ad indicare, alcune caratteristiche fondamentali del documento a cui si riferiscono. Ad esempio la serie di tags:

    <META http-equiv="Publication_Date" CONTENT="March 1994">
    <META http-equiv="Expires" CONTENT="Tue, 31 March 1996 21:29:02 GMT">
    <META http-equiv="Keywords" CONTENT="biodiversity, ecosystems, flora">
    <META http-equiv="Custodian" CONTENT="International Unit, DEST">
    <META http-equiv="Custodian Contact" CONTENT="Fred Jones, phone no., email address">
    <META http-equiv="Custodian Contact Position" CONTENT="Director, Intergovernment Unit">
    <META http-equiv="Owner" CONTENT="Scientific Coordinator, Biogeographic Information">
    <META http-equiv="Reply to" CONTENT="arthur@erin.gov.au">

Permette ad un robot che esplora le rete di assumere alcune informazioni fondamentali sul documento, anche nell'ipotesi che quest'ultimo sia composto di sole immagini e non contenga termini indicizzabili da parte del robot:

Publication_Date: March 1994
Expires: Tue, 31 March 1995 21:29:02 GMT
Keywords: biodiversity, ecosystems, flora
Custodian: International Unit, DEST
Custodian Contact: Paul Garrett
Custodian Contact Position: Director, Intergovernment Unit, phone no, email address
Owner: Scientific Coordinator, Biogeographic Information
Reply to: arthur@erin.gov.au [42].

In effetti, prevalentemente i meta tags vengono usati nei documenti contenenti immagini, e sono rivolti agli agenti software che indicizzano la rete per incrementare le banche dati dei maggiori motori di ricerca (Alta Vista, HotBot, Infoseek, WebCrawler, ecc.).
Fra i vari elementi negativi dei motori di ricerca, non molto noto è il fatto che abbiano una notevole responsabilità nella congestione di Internet (e nelle conseguenti noiose attese): infatti gran parte del traffico si deve proprio agli agenti software che percorrono la rete indicizzando i testi dei documenti. Per questo motivo, gli informatici vedono nei meta tags una possibile soluzione: un'adozione generalizzata di questo accorgimento consentirebbe di limitare l'azione dei robot all'indicizzazione dei soli tags metainformativi, anziché dell'intero testo dei documenti, riducendo così il traffico. Dal punto di vista dei tecnici, questa sarebbe principalmente l'utilità di una lighter indexation, la cui responsabilità si presume dovrebbe cadere sugli autori stessi dei documenti o sui gestori dei siti [43].
Dal nostro punto di vista, ovviamente, l'indicizzazione ha ben altre implicazioni e significati e a questo proposito è interessante vedere per quale motivo Excite, un importante motore di ricerca, non indicizza i meta tags:

    Our spider doesn't honor meta tags. We believe our decision protects our users from unreliable information. A couple of examples:
    A site included this in meta tags:

    <META HTTP-EQUIV="keywords" CONTENT="This site offers high quality information about how to buy residential real estate. Our experts can help beginner home buyers save money." >

    But it wasn't aimed at educating home buyers at all. It was instead an advertisement for a large real estate firm that simply wanted to lure potential home buyers to its site.

    Another site sold children's clothing. Yet one of the first sentences in the meta tags declared

    <META HTTP-EQUIV="keywords" CONTENT="This site can help parents concerned about child care.">

    The author figured that queries about child care were more frequent than queries about children's clothing. By dishonestly using meta tags, the author hoped to increase the number of potential customers visiting the site. [44].

Al di là della malafede, trovo che l'esempio sia significativo delle dinamiche del sovraccarico informativo, rispetto al quale non credo sia utile invocare un qualche supercensore o supereditore o supercatalogatore dell'informazione elettronica distribuita, ma semmai un maggiore ruolo di stimolo da parte dei professionisti dell'informazione.
Un intervento professionale specifico nel controllo di qualità, preventivo o a posteriori, dell'informazione distribuita sui vari supporti avrebbe anche una certa importanza nei confronti degli editori e distributori di informazione elettronica, che si trovano a dover fronteggiare la concorrenza virtuale costituita dal mito che su Internet si trovi "tutto gratis". Se la cultura dell'informazione riuscisse ad avere solo la metà dell'aggressività manifestata dalla cultura informatica, potrebbero ipotizzarsi interessanti sviluppi professionali: così come oggi i dipartimenti universitari di area scientifica e biomedica "testano" i prodotti farmaceutici e cosmetici, attribuendo loro una sorta di marchio di qualità, le biblioteche e i centri di documentazione, o più in generale le stesse facoltà umanistiche potrebbero certificare la qualità (bibliografica, intellettuale, non ideologica) delle informazioni vendute o cedute su supporto elettronico dalla information industry o dal più vasto ambito dei gestori di siti Internet.
Ma questo ruolo di certificazione non sarà attribuito automaticamente ai bibliotecari, se essi non sapranno ritagliarselo: si è già accennato alla varietà di figure professionali impegnate nella realizzazione di servizi di reviewing, e anche l'idea del marchio di qualità comincia ad essere sperimentata.
Un interessante esempio è il servizio QTS (Quality Test Site) della InfoNet service, un sito italiano che si propone di fornire un supporto tecnico ai gestori di siti Internet, fornendo consulenza e, in particolare, effettuando dei test finalizzati a valutare la qualità dei siti dei clienti. In caso di esito positivo dei test, QTS fornisce ai clienti un logo da inserire nelle proprie pagine a garanzia della loro qualità. I criteri di valutazione riguardano la compatibilità con i vari browsers, la velocità di caricamento, la gradevolezza grafica, il multilinguismo, la periodicità di aggiornamento e anche la quantità di informazioni offerte. Ma QTS si premura di assicurare i clienti che «verranno effettuati dei test esclusivamente tecnologici e quindi il contenuto del sito non influenzerà il giudizio» [45]. È evidente di quali professionalità QTS avrebbe bisogno per potersi permettere il lusso di lasciarsi influenzare dal contenuto informativo, e fornire così quel genere di certificazione di cui più sembrano bisognosi gli utenti Internet.
Rispetto ai produttori e distributori di informazione elettronica, i bibliotecari e i documentalisti potrebbero avere un utile ruolo di stimolo nei confronti dei settori più arretrati, specialmente in Italia, dove a volte ci troviamo a dover operare con prodotti di qualità discutibile. Basti pensare, nel campo delle scienze sociali che più ci interessano in questa sede, alla grande macchina celibe del CED della Corte di Cassazione [46], al discutibile livello tecnologico e informativo dei nostri CD-ROM giuridici o, nel campo dell'economia, alle frustrazioni derivanti dall'uso dell'unica banca dati che spogli periodici italiani in questo settore [47]. Quanto a quest'ultima, è interessante notare che la ditta che la produce si presenta, nelle sue pagine WWW come «industria di produzione di software, attiva nel campo dell' informatica avanzata e della telematica» [48]. Ed effettivamente si tratta di un'industria di altissimo livello sotto il profilo tecnologico, ma ecco come viene presentato, in una pagina un po' nascosta, il prodotto che qui ci interessa:

    Bibliografia delle Riviste Economiche Italiane su Cd-Rom
    The archive registers all the main Italian economic reviews from 1960 to the present day, with a powerful engine that allows searches using many fields, like author, review, year, titol, etc. You can search using any combination of fields with boolean options. It is updated every year. [49]

Oltre all'uso approssimativo dell'inglese, va notato che la banca dati manca di una adeguata indicizzazione semantica e non risulta essere stata più aggiornata dal 1993. Ne risulta l'immagine di un'azienda notevolmente avanzata sul piano informatico, ma che manifesta un'evidente carenza di un altro genere di professionalità.
Bisognerebbe chiedersi, osserva Gillian Allen, quanti di coloro che attualmente fanno uso delle nuove tecnologie dell'informazione hanno in bilancio una unità di personale appartenente alle professioni bibliotecarie [50].
Va infine notato che le più nuove fra le nuove tecnologie consentono di mascherare oggetti di dubbia qualità informativa con seducenti soluzioni grafiche e ammiccanti interfacce, contribuendo a quel processo che T. Matthew Ciolek, ironizzando sull'euforia per il WWW, chiama "MMM": MultiMedia Mediocrity [51]. Ciolek osserva che solo una minoranza di coloro che si presentano alla ribalta di Internet sono effettivamente in condizioni di offrire informazioni di un certo livello qualitativo e, infastidito dai troppi orpelli del Web, auspica l'adozione di "misure energiche" da parte dei siti e delle organizzazioni più prestigiose presenti sulla rete.
Ciolek è il curatore dei Coombspapers, una delle più prestigiose risorse Internet per le scienze sociali [52], e dunque la sua critica non dovrebbe essere considerata ingenua, ma semmai estesa oltre il Web, al più vasto campo dell'informazione elettronica oggi disponibile sui diversi supporti. Si potrà così osservare che anche l'informazione elettronica che acquistiamo soffre spesso degli stessi vizi di quella che ci viene regalata nella rete, e potrà essere istruttivo ad esempio applicare anche a certi CD-ROM la graduatoria stilata da Jacob Nielsen dei Top ten mistakes in web design: presenza di informazioni non aggiornate, uso fuorviante di colori e soluzioni grafiche, URLs, sigle e acronimi complessi e illeggibili, ma anche la frenesia di fare comunque uso dell'ultima novità tecnologica, di effetti speciali, animazioni e frivolezze varie [53].
Le articolazioni di questa rutilante e autoreferenziale macchina celibe sono più vaste di quanto a volte ci appaia, ma non si può pensare ad istituire una polizia dello stile, come sembra pensare Ciolek, e forse anche la turris eburnea della costituenda Internet II è una falsa soluzione. Piuttosto, è dall'interno stesso della information overload, non astraendosi dal continuum della comunicazione, che i professionisti dell'informazione possono individuare le punte d'eccellenza, ritagliare i segmenti che di volta in volta si presentano come cruciali in quel continuum.
Si tratta di un'esigenza avvertita vivamente ma confusamente dagli utenti, e sta quindi a noi il compito di mostrarne l'importanza, il valore aggiunto, anche imparando a lavorare a più stretto contatto con gli informatici e con gli stessi studiosi e quindi riconoscendo che il trattamento delle informazioni richiede ormai una professionalità d'equipe [54]. Resta da chiedersi, ancora una volta, se questa esigenza potrà essere rispecchiata nel nuovo ordinamento professionale delle Università.


NOTE

[1] Le macchine celibi. A cura di Harald Szeeman. Milano, Electa, 1989.

[2] Helis Miido, Library users: how they adapt to changing roles. In: 20th International Online Information Meeting. Proceedings. (London, 3­5 December 1996 ). Edited by David I. Raitt and Ben Jeapes. Oxford, Learned Information Europe Ltd, 1996. (edizione su CD-ROM).

[3] David Nicholas - Ingrid Frossling, The end-user cometh and cometh again and again. In: 20th International Online Information Meeting. Cit.

[4] Michele Santoro, I CD-ROM nell'era di Internet: un'analisi dei CD-ROM di area economica.
www.burioni.it/forum/santoro-econ.htm (pubblicato in «Informatica e Documentazione», luglio-agosto 1996)

[5] (The) Route (to) 56 (kbps). «By The Wire» 4(1997), n. 35 (20 Gennaio).
http://www.inet.it:80/btw/current.html#LIVING

[6] José Barberá, The intranet: a new concept for corporate information handling. In: 20th International Online Information Meeting. Cit.

[7] La celebre opera di Duchamp consiste in una ruota di bicicletta infissa su uno sgabello.

[8] Cfr. le affermazioni di M. Gorman riportate da Carlo Revelli, Ranganathan riverniciato a nuovo. «Biblioteche oggi», 14(1996), n. 9 (novembre), pag. 11.

[9] «Le biblioteche sono depositi e canali delle informazioni passate e presenti»; «Le biblioteche devono rendere le informazioni, dovunque siano create e archiviate, accessibili ad ogni persona, indipendentemente da dove essa si trovi e se sia in grado di pagare». Sono due delle nuove leggi della biblioteconomia elaborate da M. Line, riportate da C. Revelli, Ranganathan riverniciato a nuovo. Cit., pag. 12.

[10] Jakob Nielsen, The Web Backlash of 1996. «The Alertbox: Current Issues in Web Usability », April 1996
http://www.useit.com/alertbox/9604.html

[11] Riccardo Ridi, Istruzione all'uso dei cd-rom: alfabetizzazione informatica e bibliografica.
http://www.burioni.it/cat/cd-rom/rec/recens/ridi-ist1.htm Poi in: «Biblioteche oggi», 14(1996), n. 9 (novembre), pp. 26-34.

[12] Lucia Maffei, Recensione a: "LOEX" of the West: Teaching and Learning in a Climate of Constant Change.ed. by Thomas W. Leonhardt. London, 1996. In corso di pubblicazione sul «Bollettino AIB»

[13] D. Nicholas - I. Frossling, The end-user cometh and cometh again and again. Cit.

[14] Terry Webb, The Internet and local online databases: a novum organum for twenty-first-century library science. In: 20th International Online Information Meeting. Cit.

[15] Richard Hopkins, Countering information overload: the role of the librarian, «The Reference Librarian», 1995, n. 49/50, pp. 305­332.

[16] Marcia Stepanek, Clinton's 'Next Generation' Push for a Better Net. «Wired Magazine», 16 Jan. 1997.
http://www.wired.com/news/politics/story/1511.html
William H. Graves, Why We Need Internet II. «Educom Review», 31(1996), n. 5 (Sept./Oct.)
http://www.educom.edu/web/pubs/review/reviewArticles/31528.html

[17] T. Matthew Ciolek, Today's WWW -- tomorrow's MMM? -- The specter of multi-media mediocrity? «Computer», 29(1996), n. 1, January 1996.
http://www.computer.org/pubs/computer/kiosk/01/kiosk.htm

[18] Alison Cooke - Alison McNab - Betsy Anagnostelis, The good, the bad and the ugly: Internet review sites. In: 20th International Online Information Meeting. Cit.

[19] Elisabetta Di Benedetto, Ma non c'è già tutto gratis su Internet? In: CD-ROM e basi dati. Catalogo '96. Genova, E.S. Burioni ricerche bibliografiche, 1995 pp. 352-361.

[20] Le macchine celibi, cit. Illustrazione n. 41

[21] Arthur Winzenried, Information managers/librarians in the year 2006: prophets, princes or Poohbahs. In: 20th International Online Information Meeting. Cit.

[22] A Webmaster's Guide to Search Engines
http://calafia.com/webmasters/

[23] Anna Maria Tammaro, La ricerca ed il recupero dell'informazione «Biblioteche oggi», 14(1996), n. 9 (novembre), pp. 84-87.

[24] Gillian Allen, Disintermediation: a disaster or a discipline? In: 20th International Online Information Meeting. Cit.

[25] Nicholas G. Tomaiuolo - Joan G. Packer, Web search engines: key to locating information for all users or only the cognoscenti? In: 20th International Online Information Meeting. Cit.

[26] J. Nielsen, The Web Backlash of 1996. Cit.

[27] G. Allen, Disintermediation: a disaster or a discipline? Cit.

[28] WWW Virtual Library, Evaluation of information sources
http://www.vuw.ac.nz/~agsmith/evaln/evaln.htm
Francesco Giacanelli, Valutare Internet per migliorare la ricerca. Una rassegna di criteri direttivi per l'analisi delle risorse di rete. «Biblioteche oggi», 14(1996), n. 9 (novembre), pp. 35-39.
Hope N. Tillman, Evaluating Quality on the Net.
http://www.tiac.net/users/hope/findqual.html

[29] A. Cooke - A. McNab - B. Anagnostelis, The good, the bad and the ugly: Internet review sites. Cit.

[30] G. McKiernan, Beyond Bookmarks: Schemes for Organizing the Web.
http://www.public.iastate.edu/~CYBERSTACKS/CTW.htm
Gabriele Lunati Strumenti per la ricerca ed il recupero dell'informazione su Internet.
motori/motori.htm.

[31] Riccardo Ridi, Internet in biblioteca.Milano, Editrice bibliografica, 1996 pp. 183-184.

[32] CyberStacks(sm)
http://www.public.iastate.edu/~CYBERSTACKS/homepage.html

[33] A. Cooke - A. McNab - B. Anagnostelis, The good, the bad and the ugly: Internet review sites. Cit.

[34] Riccardo Ridi, Una biblioteca è un ipertesto che cresce. In: CD-ROM e basi dati. Catalogo '96. Genova, E.S. Burioni ricerche bibliografiche, 1995. pp. 308-317.

[35] Richard Hopkins, Countering information overload: the role of the librarian. Cit.

[36] A. Winzenried, Information managers/librarians in the year 2006: prophets, princes or Poohbahs. Cit. (corsivi miei)

[37] Brewster Kahle, Preserving the Internet. «Scientific American», 1997, n. 3
http://www.sciam.com/0397issue/0397kahle.html

[38] Giuseppe Salza, L'invasione dei surfisti. Dentro la tv. «il manifesto», 9 gennaio 1997.
Jakob Nielsen, WebTV Usability Review. «The Alertbox», February 1997.
http://www.useit.com/alertbox/9702a.html

[39] T. Webb, The Internet and local online databases: a novum organum for twenty-first-century library science. Cit.

[40] John Browning, Biblioteche senza pareti per libri senza pagine.In: No copyright. Nuovi diritti nel 2000 a cura di Raf Valvola Scelsi. Milano, Shake edizioni underground, 1994 pp.198-206.

[41] Lucia Maffei, Alcuni nodi della questione "informazione" nell'Università italiana di oggi. In corso di pubblicazione sul «Bollettino AIB»

[42] HTML Metadata
http://www.erin.gov.au/technical/management/metadata/metadata.html

[43] Davide Musella - Marco Padula, The authors catalogue their documents for a light Web indexing
http://jargo.itim.mi.cnr.it/documentazione/articol_INET96.html

[44] Getting Listed on Excite
http://www.excite.com/Info/listing.html#anchor4877066 (corsivi miei)

[45] About QTS
http://194.185.50.5/ins/qts/QTSAbout.html

[46] Gabriele Gatti, Banche dati giuridiche. In: Fonti elettroniche di informazione in economia e diritto a cura di Lucia Maffei. Roma, Associazione italiana biblioteche, 1995 (Rapporti AIB; 6) pp. 12-37.

[47] Elisabetta Di Benedetto, Banche dati per le discipline economiche. In: Fonti elettroniche di informazione in economia e diritto. Cit.

[48] Omega generation
http://www.omega.it/omegen/omegagen.htm (corsivo mio)

[49] Omega generation
http://www.omega.it/omega/mario/omegaeng.htm (corsivi miei)

[50] G. Allen, Disintermediation: a disaster or a discipline? Cit.

[51] T. M. Ciolek, Today's WWW -- tomorrow's MMM? -- The specter of multi-media mediocrity? Cit.

[52] ANU - Coombsweb Social Sciences Server
http://coombs.anu.edu.au/CoombsHome.html

[53] Jakob Nielsen, Top Ten Mistakes in Web Design. «The Alertbox», May 1996.
http://www.useit.com/alertbox/9605.html

[54] L. Maffei, Alcuni nodi della questione "informazione" nell'Università italiana di oggi. Cit.

| © ESB Forum | a cura di Riccardo Ridi |