Riferimenti bibliografici
Lo scorso 13 e 14 marzo a Copenhagen si è svolto il convegno Digitising journals: conference on future strategies for European Libraries. Il congresso, organizzato da LIBER, dal Denmark's research library programme
in collaborazione col progetto europeo DIEPER (DIgitising European PERiodicals), l'americano JSTOR ed il progetto
NORDINFO (Nordic Council for Scientific Information), ha analizzato la
digitalizzazione di periodici, cioè la retroconversione in formato
digitale, dell'edizione a stampa e le problematiche connesse. Erano presenti
95 partecipanti da 22 paesi europei e quattro dagli Stati Uniti, come
rappresentanti del progetto JSTOR.
L'apertura del congresso è stata fatta dal presidente della Denmark
Electronic Research Library (DEF), che ha introdotto il concetto della
digitalizzazione parlando del progetto danese DEF al quale partecipano 56
biblioteche danesi di ricerca e le 16 biblioteche della Danish National Library
Authority. Il progetto, finanziato dal Ministero della cultura, della ricerca
e istruzione si prefigge la creazione della "società dell'informazione
per tutti".
Il fatto che DEF sia un progetto su scala nazionale è stato evidenziato
come particolarmente positivo. Ciò è stato reso possibile anche
dal fatto che la Danimarca sia una nazione relativamente piccola e questo
ha permesso al ministero della cultura di finanziare il progetto con una
quantità di fondi elevata in proporzione alla quantità di materiale
da recuperare.
User Landscape: needs and visions of users / Jeanne Pierre Bourguignon
Il primo intervento è stato di Jeanne Pierre Bourguignon, docente
di matematica all'Institut des Hautes Etudes Scientifiques.
Bourguignonn si è presentato come insegnante, ricercatore ma soprattutto
come utente e tecnico esperto di digitalizzazione. Egli ha infatti partecipato
attivamente alla scansione di documenti usando software OCR (Optical Character
Recognition) nell'ambito del European Mathematical Information Service.
Uno dei primi aspetti da analizzare quando ci si avvicina alla digitalizzazione
di documenti è sicuramente la selezione del materiale. Bourguignon
da esperto matematico, ha affrontato l'argomento dal punto di vista dell'utente
specializzato.
Quali documenti digitalizzare? Di quale utilità saranno all'utente
che cerca di reperire informazioni in questo settore? Ed inoltre, come reperire
un punto preciso del documento nel quale si trova la definizione o il teorema
che interessa l'utente in questione?
Le pagine di un periodico, benché contengano testo, divengono immagini
se il testo non è strutturato in modo tale da poter permettere la
ricerca all'interno di questo. Quale utilità si può avere quindi
dalla sola scansione di documenti?
La sola scansione può essere utile nel caso di materiale la cui
disponibilità di consultazione è pressoché inesistente,
basti pensare ai volumi antichi, ai manoscritti. Quando però, si tratta
di periodici, per i quali il reperimento dell'informazione contenuta, è
legato alla ricerca ipertestuale, l'immagine da sola non basta.
Gli altri aspetti sottolineati da Bourgiugnon sono stati:
E' molto sentita la necessità di standard comuni da seguire, a livello
europeo ed anche più ampio. Gli standard devono essere aperti
all'evoluzione tecnologica perché se la digitalizzazione è
interpretata anche come metodo di conservazione del patrimonio culturale
dell'umanità, questa non può andare perduta o rischiare di
non poter essere utilizzata dalle future generazioni per incompatibilità
tra i software.
Attenzione deve essere posta anche alla competitività degli standard,
che devono anche prendere in considerazione i bisogni degli utenti e quindi
devono essere impostati soprattutto su di loro.
Bourguignon ha affrontato questo seconda parte da un punto di vista etico.
L'accesso alle risorse digitali non potrà essere universale. I paesi
poveri, con scarsa capacità di acquisto, rimarranno tagliati fuori
dall'informazione globale. Quindi per non creare un 'terzo mondo'
dell'informazione, Bourguignon auspica l'accesso libero a qualunque tipo
di TOC o di reference bibliografico che possa essere creato nell'ambito dei
progetti di digitalizzazione di periodici.Tale accesso, col passare del tempo,
potrebbe anche essere esteso al full-text del materiale pregresso. "In the
long term one should introduce a principle of free access to sufficiently
old data as part of the human legacy" (Bourguignon, 2000)
La selezione del materiale da digitalizzare non è compito facile,
poiché gli studiosi, in questo caso i matematici, sono tentati dal
retroconvertire tutto. La difficoltà sta nel far capire loro che non
bisogna decidere tra cosa gettare e cosa conservare; la scelta riguarda la
selezione di quella parte di materiale da fare 'emergere', rendendolo più
accessibile all'utente. B. ribadisce inoltre che l'interesse per i periodici
digitali, relativi ad annate pregresse, non è solo appannaggio delle
discipline umanistiche, ma coinvolge anche discipline scientifiche come la
matematica.
La seconda parte della mattinata ha riguardato la presentazione di alcuni
progetti europei nell'ambito dei quali è stata, ed è tuttora,
sperimentata la digitalizzazione dei periodici.
Digitising journals and the eLib programme / Astrid Wissemburg
Estremamente più pragmatico e meno idealistico del precedente, possiamo
definire l'intervento di Astrid Wissemburg, coordinatrice del Information
Services and Systems, del King's College di Londra.
Nella sua presentazione Wissemburg ha illustrato gli sviluppi avuti nel Regno
Unito, durante gli ultimi 4/5 anni, dai vari progetti di digitalizzazione
sostenuti dal Joint Information System Committee (JISC) facendo particolare
riferimento al programma Elib (Electronic Library Programme)
(http://www.ukoln.ac.uk/elib/)
Elib inizia nel 1995 con un finanziamento di circa 15.000.000 di sterline
per le fasi I e II, distribuite su un arco di tempo di tre anni (1995-1999).
La terza fase (1998-2001) è finanziata con circa 5.000.000 di sterline.
Le fasi I e II hanno incluso circa 60 progetti, relativi a vari aspetti della
biblioteca elettronica, tra i quali: promozione e sviluppo dell'accesso alle
risorse elettroniche, la digitalizzazione, il document delivery elettronico,
i periodici elettronici, pre-prints, 'on demand publishing', la ricerca della
qualità nella fornitura del servizio, il training per l'utente e lo
staff.
La terza fase, attualmente in corso, include vari progetti relativi alla
biblioteca ibrida (hybrid library) e la stessa Wissemburg si chiede se questa
sia una fase transitoria oppure no.
Legandosi alla transitorietà o meno, della coesistenza del formato
elettronico e cartaceo, AW ha stupito un po' tutti, affermando che una buona
parte della documentazione riguardante la storia dei progetti da lei illustrati,
è ormai perduta, perché non è stata convertita su carta
né archiviata in formato elettronico.
Questo aspetto della sua esposizione, la possibile transitorietà del
digitale, sarà ripreso nella discussione finale del convegno, durante
la quale sarà posta l'attenzione sulla validità di questo formato
come mezzo di archiviazione/conservazione. Questo possibile uso del formato
digitale sarà indicato da alcuni, proprio per la conservazione del
patrimonio culturale di ogni paese.
Illustrando la fase III di Elib, la Wissemburg fa riferimento ad alcuni progetti
inerenti la digitalizzazione di periodici e di materiale affine, quali:
Ma perché mai digitalizzare? In alcuni casi per archiviare e conservare
il materiale, però il formato digitale presenta ancora delle notevoli
incertezze in fatto di conservazione nel tempo, secondo Wissemburg. Forse
per creare semplicemente un archivio locale, privato del singolo editore.
Una problematica molto sentita rimane quella del copyright.
Come gestire la digitalizzazione di documenti recenti verso i quali cresce
un sempre maggiore interesse ?
In tutto questo viene auspicata la collaborazione con gli editori e/o con
associazioni professionali, anche di ricerca, che coproducano e magari finanzino
i piccoli progetti che possono nascere a livello locale. Il proliferare di
molti progetti locali, senza un coordinamento centrale, anche a livello europeo,
può creare dissonanza tra i vari metodi di scansione, risoluzione
e indicizzazione utilizzati.
Gli standard suggeriti da AW sono:
Scansione del documento:
-
a 600 dpi (minimo 300 dpi). Anche nel successivo intervento di Kevin Gutrie
di JSTOR, lo standard minimo suggerito sarà 600 dpi.
-
300 dpi per un buon 'image delivery'
Il formato dei file:
-
archiviazione in formato TIFF o PDF
-
fornito all'utente in formato PDF con testo nascosto
Una dettagliata analisi dei costi è stata inoltre fornita, partendo
dal presupposto che la scansione è relativamente economica e che i
costi lievitano grazie alle correzioni che devono essere apportate. Inoltre
una variabile di costo estremamente incerta, non definita ancora, è
la fornitura di accesso permanente alle risorse.
Wissemburg ha riportato esempi di costi per pagina digitale:
-
scansione: sterling 0.20
-
scansione più catalogazione: sterling 0.75
-
scansione più proof reading: sterling 3.00
-
tutto il processo inclusi i costi di gestione: sterling 4.20
-
accesso permanente (annuale): sterling 0.03
-
archiviazione (annuale): sterling 0.02
Molte iniziative sono state promosse per rendere i periodici più
accessibili a livello di costo e di servizio, agli studenti ed ai docenti
delle università inglesi. Una di queste è NESLI (National
Electronic Site Licence Initiative) (1998-20002)
http://www.nesli.ac.uk che nasce
dal Pilot Site Licence Initiative conclusosi nel 1999 e sviluppato grazie
al supporto finanziario del governo britannico.
NESLI è un servizio sorto per promuovere l'uso dei periodici elettronici
nelle università inglesi, ed è previsto che sia autofinanziato.
Infine, citiamo il Distributed National Electronic Resource,
http://www.jisc.ac.uk/pub99/dner_vision.html
Concludendo, Wissemburg definisce le biblioteche universitarie inglesi come
biblioteche ibride dove stanno nascendo nuovi servizi, anche grazie alla
fantasia dei bibliotecari, che hanno saputo sfruttare le potenzialità
delle nuove tecnologie per creare servizi alternativi e più efficienti.
Nonostante questo continuo sviluppo, sono ancora tanti i quesiti cui rispondere.
La spirale dei costi continua a crescere per poter istituire e mantenere
accesso permanente alle risorse elettroniche, la proliferazione di interfacce
diverse ripropone il problema degli standard comuni da seguire, l'archiviazione
su formato elettronico presenta ancora incertezze sulla conservazione a lungo
termine.
DELTA (Retrospective digitisation of journals) / Patricia
Alkhoven
Per il progetto DELTA, la cui presentazione è saltata per improvvisa
indisposizione della relatrice, viene riportata traduzione dell' abstract
fornito durante il congresso.
Il progetto DELTA (Dutch Electronic Library Technology Association) è
partito il 1 settembre 1998 su iniziativa di PICA. Il suo obbiettivo è
quello di istituire una Biblioteca virtuale di ricerca elettronica in
cooperazione con le biblioteche universitarie danesi e al Koninklijke Bibliotheek
(KB). Il progetto mira a costruire servizi integrati per l'utente finale,
che rendano possibile collegare record bibliografici a documenti full-text.
Il contenuto sarà costituito sia da documenti 'nati' digitali e acquistati
presso gli editori, sia da materiale digitalizzato retrospettivamente.
La KB è stata strettamente coinvolta nel lavoro di definizione e selezione
delle collezioni , e nella definizione di linee guida e raccomandazioni tecniche
per la digitalizzazione. In collaborazione con le altre biblioteche partecipanti,
sono stati scelti cinque periodici da digitalizzare.
Questa presentazione è incentrata sul background del progetto Delta,
la definizione delle collezioni e la selezione per la digitalizzazione, ed
il processo stesso di digitalizzazione.
Basandosi sulla vasta esperienza della KB, è stato scelto un approccio
ibrido per le questioni tecniche ed i costi della digitalizzazione. Prima
si è microfilmato il materiale per la conservazione e poi si sono
digitalizzati i microfilm.
Un modello organizzativo è stato creato per un approccio comune, ma
distributivo, per costruire una biblioteca virtuale dei periodici universitari
olandesi.
Gli altri aspetti che saranno trattati sono gli accordi di licenza con gli
editori ed il modo in cui i documenti full-text saranno 'linkati'. Sarà
inoltre affrontato il problema dell'archiviazione a lungo termine e della
conservazione del formato digitale.
Digizeit / Norbert Lossau and Stefan Cramme
Norbert Lossau, con il suo intervento relativo a Digizeit (Digitalizzazione
di periodici), ha illustrato questo nuovo progetto tedesco finanziato dalla
Deutsche Forschungsgemeinschaft (DFG) (German research foundation) che dal
1997 ha dato inizio ad un programma di finanziamento per la digitalizzazione
retrospettiva di materiale librario. Attualmente 35 progetti tedeschi ricevono
fondi da questa istituzione, che eroga dai tre ai quattro milioni di marchi
all'anno, per tutti i progetti in corso in Germania. Gli obiettivi di questo
programma nazionale sono stati così identificati:
-
fornire accesso a collezioni ritenute rilevanti per la ricerca e conservate
nelle biblioteche;
-
fornire accesso parallelo a fonti informative frequentemente usate, ma ancora
in formato cartaceo;
-
rendere accessibili collezioni la cui consultazione è solitamente
sottoposta a regole restrittive, dovute alla particolare deteriorabilità
del materiale;
-
promuovere l'uso di collezioni poco conosciute ma importanti per la ricerca.
Gli obiettivi di Digizeit si inseriscono perfettamente in questo contesto,
infatti il progetto si propone di:
-
fornire e facilitare l'accesso ai periodici più utilizzati degli editori
tedeschi;
-
migliorare l'infrastruttura del ciclo informativo;
-
migliorare la 'visibilità' dei periodici scientifici tedeschi fornendo
un accesso in linea.
La biblioteca dell'Università statale di Goettingen ha iniziato uno
studio di fattibilità di Digizieit, nel febbraio 1999, che terminerà
nell'autunno 2000. Infine, a dicembre 2000, sarà presentata la richiesta
di finanziamento alla DFG. I partner di questo progetto sono al momento attuale,
9 biblioteche universitarie tedesche:
-
Staatsbibliothek zu Berlin
-
Universitats-und Landesbibliothek Bonn
-
Sachsische Landesbibliothek -Staats- und Universitatsbibliothek Dresden
-
Stadt-und Universitatsbibliothek Frankfurt am Main
-
Universitatsbibliothek der TU Bergakademie Freiberg
-
Niedersachsische Staats und Universitatsbibliothek Goettingen
-
Bibliothek des Instituts fur Weltwirtschaft - Deutsche Zentralbibliothek
fur Wirtschaftswissenchaften Kiel
-
Universitats und Stadtbibliothek Koln
-
Bayerische Staatsbibliohek Munchen
In una seconda fase, saranno accettate altre biblioteche tedesche che volessero
partecipare. I periodici scelti per essere digitalizzati sono 57 suddivisi
in 14 aree tematiche: Studi anglo americani, economia, demografia,
biblioteconomia, geologia, storia, arte (dopo il 1945), filologia moderna,
giurisprudenza, sociologia, economia, ecc. E' stato valutato che questo
porterà alla scansione di circa 3.000.000 di pagine.
Il progetto prenderà come modello il JSTOR americano, scandendo la
collezione completa dei periodici scelti, terminando 3 anni prima del corrente.
L'idea del modello JSTOR sembra incontrare anche il favore degli editori,
implicati direttamente nel progetto. Poiché questo può fornire
gli editori stessi con la versione elettronica delle loro pubblicazioni
arretrate, senza grossi costi aggiuntivi. Il primo incontro con gli editori
è stato il 2 marzo a Goettingen, e la maggior parte di essi ha dato
risposte affermative. E' stata infatti concordata la creazione di un primo
server prototipo per l'autunno del 2000.
Uno degli obiettivi del progetto è quello del coinvolgimento di tutti
gli attori del processo di creazione e diffusione dell'informazione scientifica:
autori, editori, biblioteche ed utenti. Uno dei vantaggi più grandi
per gli utenti sarà dato dal fatto di poter avere a disposizione in
linea, periodici che al momento sono reperibili solo su formato cartaceo.
Essendo Digizeit nella fase iniziale, molti sono ancora i nodi da sciogliere.
Devono essere stabiliti accordi sulle licenze d'uso, la legislazione tedesca
sul copyright riconosce il diritto all'uso delle risorse digitali sul sito
dell'editore, solo per le annate recenti, per l'uso del pregresso devono
essere presi accordi direttamente con gli autori. Un possibile partner per
le negoziazioni è stato individuato nel Verwertungsgesellchaft Wort.
Lossau ha infine analizzato il modello organizzativo del progetto, che presenta
ancora vari quesiti aperti come, la possibilità di costruire una
organizzazione non profit e il problema dell'accesso, fornito tramite il
server di un provider esterno, oppure utilizzando le potenzialità
esistenti all'interno della biblioteca?
Devono ancora essere stabilite, anche le condizioni di fruibilità
del materiale. Sono state valutate varie possibilità, tra le quali,
richiedere un abbonamento alle varie università e biblioteche interessate,
probabilmente su base annuale per far fronte alle spese di gestione e permettere
l'ampliamento del progetto. Ancora una volta è stato preso come probabile
modello di attuazione, l'americano JSTOR.
Per ciò che concerne l'accesso, è prevista la creazione di
una unica interfaccia che permetta la ricerca sia nel retrospettivo che
all'interno delle altre risorse elettroniche disponibili, sarà fornita
la possibilità di ricerca all'interno del full text (probabilmente
usando un software OCR).
Alcuni aspetti tecnici devono essere ancora definiti, tuttavia AGORA è
tenuto come punto di riferimento. Un demo server sarà implementato
con volumi scelti a campione. Lossau ha terminato il suo primo intervento,
augurandosi cooperazione e suggerimenti da altre istituzioni europee che
volessero partecipare al progetto, che sta già cooperando con JSTOR,
DELTA e DIEPER
DIEPER / Werner Schwartz
L'intervento di Werner Schwartz (Goettingen State and University Library),
è arrivato al cuore del tema del congresso illustrando il progetto
DIEPER (Digitised European Periodicals). A questo progetto, supportato dalla
Comunità Europea, partecipano 11 paesi europei, tra i quali l'Italia,
con l'Università di Siena.
DIEPER si prefigge di creare un unico accesso per i periodici digitalizzati
in tutta Europa, in modo da permettere la ricerca su siti multipli. Sarà
creato un database contenente informazioni relative a tutti i periodici che
sono stati già retroconvertiti in formato digitale, in Europa ed altrove,
ed a quelli che sono in procinto di esserlo. Questo database potrà
essere utilizzato per evitare la duplicazione dei titoli e per connettersi
all'archivio digitale contenente il periodico già retroconvertito.
Sarà inoltre possibile consultare direttamente il full-text (in relazione
alla politica di accesso adottata dai vari archivi correlati).
Un motore di ricerca permetterà la ricerca in full-text attraverso
archivi multipli. La ricerca potrà essere attuata tramite Tocs,
autore/titolo, parola chiave all'interno dell'articolo. Lo stesso motore
di ricerca permetterà di fare ricerche in modo esaustivo sia a livello
'articolo', sia restringendo il campo ad una certa disciplina.
Questo database (definito anche Registro dei periodici) sarà uno degli
strumenti che permetterà di poter implementare progetti per la
digitalizzazione in linea con le altre iniziative già in corso in
ambito internazionale. Tutto questo sarà reso possibile solo dall'uso
di standard comuni per i formati elettronici usati.
DIEPER auspica l'uso di standard già esistenti ed usati in precedenza,
quali:
-
Scansione immagine (minimo 600 dpi di risoluzione, salvata in TIFF; conversione
in GIF, PNG o JPEG per la visualizzazione sul Web)
-
Utilizzo di matadata creati in XML/RDF
-
Archiviazione del file di testo creato con OCR in XML, 'marcato' secondo
TEI
-
Ogni documento elettronico avrà un unico identificatore (DOI o URN)
che permetterà il reperimento del documento all'interno del Web senza
URL fisse.
Nonostante il progetto sia alla fase iniziale, sono già stati scelti
sei periodici campione, relativi all'ambito della matematica su un arco di
tempo che va dal diciottesimo secolo ad oggi. Gli standard scelti , nonostante
fossero già stati utilizzati in altri progetti, sono stati tutti testati
in relazione ai seguenti parametri:
-
Cattura dell'immagine,
-
Indicizzazione,
-
Struttura e gestione del documento.
Il Database di DIEPER sarà uno strumento di ricerca per l'utente finale
ma anche uno strumento di lavoro per i bibliotecari, poiché conterrà
schede bibliografiche compatibili con i formati USMARC e UNIMARC, dove saranno
riportate, oltre alle informazioni bibliografiche del formato cartaceo, le
informazioni relative al formato elettronico ed alla sua produzione. Il prototipo
sarà pronto per metà 2000.
I prossimi sviluppi di DIEPER prevedono quindi l'installazione del motore
di ricerca che permetterà il reperimento dell'informazione negli archivi
dei partecipanti al progetto, l'implementazione del prototipo, un'analisi
del problema copyright, in modo da assicurare un uso fluido del materiale
digitale da parte degli utenti. Dovrà infine essere esaminato lo sviluppo
di un modello economico da poter utilizzare in futuro, dato che si prevede
che l'interesse per la retroconversione digitale continui per almeno altri
10 anni.
Schwartz termina il suo intervento dicendo che dobbiamo ricordare di essere
"retrospective but prospective" quando parliamo di standard per il retrospettivo.
I formati usati dovranno essere compatibili con gli siluppi della tecnologia
poiché DIEPER mira ad un migliore accesso ai documenti ma anche alla
loro conservazione.
Digitising journals: Highlights from the JSTOR's experience / Kevin
Guthrie
Il presidente del progetto JSTOR, Kevin Guthrie, propone una panoramica su
questo progetto americano che ha fatto storia nel campo della retroconversione
in digitale.
JSTOR (http://www.jstor.org/)
nasce per iniziativa della Mellon Foundation sperimentando la conversione
in formato digitale delle annate pregresse di periodici molto consultati.
Gli obiettivi di JSTOR sono di, aiutare la comunità accademica a trarre
vantaggio dalla tecnologia, sviluppare un archivio di pubblicazioni periodiche
di ambito accademico, implementare un sistema di cooperazione tra biblioteche,
editori ed autori.
Nel 1995 JSTOR diviene una organizzazione no profit, indipendente. JSTOR
si avvale della collaborazione di 670 biblioteche di cui 543 statunitensi.
La disponibilità del materiale in linea è pari a 117 titoli
per un totale di 4.647.682 pagine. Queste cifre sono effettivamente
impressionanti se pensiamo che all'interno dell'intero processo le pagine
vengono controllate, una per una. (Guthrie, 2000:33)
La struttura organizzativa di JSTOR è capillare ed efficiente. Le
biblioteche e gli editori che partecipano fornendo materiale hanno uso gratuito.
Guthrie ribadisce più volte che la collezione è completamente
usata e che aumentano gli utenti interessati a più di una disciplina.
La fase produttiva prende vita con la selezione del materiale, che deve
riscontrare l'interesse dei futuri potenziali utenti/clienti. Cosa si intende
per periodico importante? Secondo Guthrie, il criterio seguito da JSTOR è
assimilabile a quello della selezione degli acquisti all'interno di una
biblioteca universitaria.
Una volta acquisito il materiale, generalmente dagli editori, perché
le biblioteche non sono così entusiaste di prestare intere collezioni
per un anno intero, si passa all'utilizzo dei tools. JTRACK che contiene
le informazioni iniziali come l'ISSN, si passa poi a JSOURCE tramite il quale
si riesce a delineare la storia del 'titolo'.
Guthrie sottolinea che le esperienze in-house possono essere percorribili
ma bisogna dotarsi di una buona attrezzatura tecnica per evitare di scandire
le pagine da fotocopie che danno risultati veramente mediocri. I tecnici
di JSTOR controllano la risoluzione di ogni pagina, quelle danneggiate vengono
sostituite o corrette. Il file immagine ed il file OCR vengono visualizzati
uno accanto all'altro in modo da poter correggere le imprecisioni nate da
OCR. I principi di produzione sono così elencati da Guthrie:
-
La forma è in conseguenza della funzione;
-
La scala è estremamente importante;
-
I tools sono importanti: sono alla base di un lavoro fatto bene;
-
Se vuoi presentare bene il contenuto, devi anche conoscerlo.
All'interno dell'organizzazione ci sono dei bibliotecari che lavorano alla
ricostruzione della storia del periodico. La trasposizione in formato digitale
è fedele all'originale anche nell'immagine.Viene ribadita tra le
finalità di JSTOR anche quella di archivio in formato digitale.
L'autenticazione dell'utente viene generalmente attuata tramite indirizzo
IP, oppure username/password. E' stato inoltre elaborato un tool che permette
alle biblioteche di creare le proprie statistiche.
JSTOR è riuscito a sviluppare un modello economico che lo ha reso
indipendente. Attualmente le persone che vi lavorano sono 40, di cui 15/20
lavorano alla scansione. La produzione di ogni pagina costa circa 3USD di
media.
Standards for images and full text / Hamid Mehrabi and Henrik Laursen
Henrik Laursen della Royal Library di Copenhagen ha aperto la seconda parte
della prima giornata, iniziando la sessione sugli aspetti tecnici della
digitalizzazione.
Il suo breve intervento ha trattato l'importanza della qualità iniziale
del lavoro di scansione dell'immagine. Se un'immagine scandita a bassa
risoluzione può sembrare qualitativamente buona, una volta che su
questa è stato usato OCR, le differenze tra immagine di bassa e alta
qualità sono molto evidenti.
Sull'immagine scandita a bassa risoluzione OCR non da i risultati migliori,
ed è quindi necessario intervenire manualmente per apportare le dovute
correzioni. L'incidenza sul costo finale, di questo lavoro aggiuntivo può
essere molto alta. Questo per stabilire che lo standard di scansione consigliato
è 600 dpi (usato anche in JSTOR) quando si voglia poter applicare
un software di information retrieval sul full-text.
Quando invece trattiamo volumi, che non necessitino di ricerca ipertestuale,
ma per i quali sia sufficiente fornire all'utente finale, la loro immagine
digitale (manoscritti, libri rari), uno standard di 300/400 dpi è
considerato sufficiente. "For your own good take some good pictures. For
the user's good use standard markup language" (Laursen and Mehrabi, 2000:
46)
Metadata and identifiers for e-journals / Juha Hakala
Juha Hakala della Biblioteca Universitaria di Helsinki, inizia il suo intervento
dando una definizione del termine 'metadata' come, "descrizione strutturata
di una risorsa". Con questa definizione anche gli OPAC delle biblioteche
divengono metadata alla stregua dei metadata basati su Dublin Core, forniti
dagli autori o editori stessi.
Nell'ambito dell'accesso ai periodici elettronici sono evidenziati dal relatore,
tre metodi di creazione dell'accesso al documento: la catalogazione tradizionale
in formato MARC, l'indicizzazione del full-text , oppure l'uso di embedded
metadata, che è anche la scelta fatta dal progetto DIEPER
Nel processo catalografico tradizionale i periodici ricevono un ISSN che
ha ormai regole di attribuzione chiare e sperimentate. Ogni periodico cartaceo
ha quindi il suo identificatore univoco nel numero ISSN attribuitogli. Secondo
il Centro Internazionale del ISSN, anche i periodici digitali dovrebbero
ricevere un proprio ISSN. Questo coincide anche con le scelte fatte da DIEPER.
Tuttavia, la catalogazione dei periodici elettronici presenta delle sfide
non indifferenti da affrontare. I periodici sul Web tendono ad essere molto
meno stabili di quanto non lo siano su carta. Non solo possono cambiare titolo
ma addirittura sparire, se non sono stati precedentemente archiviati dalla
biblioteca nazionale in un proprio archivio digitale.
Dal punto di vista del reperimento dell'informazione però, non ci
possiamo limitare al livello titolo, su quale si basa l'ISSN, ma dobbiamo
scendere a livello dell'articolo se vogliamo che la ricerca degli utenti
sia agile e dia i risultati sperati.
Sempre in relazione alla catalogazione, DIEPER ha deciso di utilizzare il
formato MARC per ogni articolo digitalizzato. Tuttavia questo tipo di approccio
richiede un impiego di risorse umane notevole, e le singole biblioteche aderenti
al progetto non possono prescindere da una catalogazione cooperativa e più
avanzata. Al momento attuale i periodici di DIEPER sono 6 ma gli articoli
da catalogare potranno diventare decine di migliaia in futuro.
Quindi non si può prevedere di fare affidamento solo su catalogazione
manuale. Una volta trasformato il testo in immagine scandita, si procederà
all'indicizzazione del full-text. A questo punto Hakala fornisce una panoramica
su quelli che sono i trend di mercato.
-
Oracle
(http://www.oracle.com/intermedia/)
che è stato arricchito con un modulo chiamato Intermedia. Questo
permetterà di poter archiviare e rendere disponibili ogni tipo di
documento incluso quello multimediale.
-
Voyager
(http://www.endiinfosys.com/new/emcompass.htm)
che può fornire accesso alle collezioni digitali ed allo stesso tempo
al catalogo tradizionale già presente in biblioteca.
Questo permette di affermare che l'accesso all'informazione tramite un'unica
interfaccia per l'utente finale sarà possibile utilizzando relational
database e sistemi bibliotecari costruiti su di loro.
L'attenzione viene portata sulla qualità del prodotto fornito all'utente.
Che tipo di qualità offre la ricerca fatta su materiale convertito
tramite OCR? La presenza di errori di conversione è estremamente
frequente. Tuttavia grazie a strumenti di ricerca molto avanzati come, Excalibur
Retrieval Ware
(http://www.excalib.com/products/rw
/index.shtml) che offre la possibilità di attuare 'fuzzy searching',
il problema viene largamente arginato. Questa affermazione è basata
però sugli esperimenti fatti usando la lingua finlandese, che consta
di molte parole lunghe.
L'applicabilità alla lingua inglese è sicuramente più
difficile. I programmi di indicizzazione dovrebbero archiviare sia la parola
stessa sia tutte le sue possibili forme varianti. Quindi sono necessari tools
linguistici. In Finlandia sono già stati usati i prodotti di Lingsoft
(http://www.lingsoft.fi/) nella
versione sperimentale del Nordic Web Index, sembra con buoni risultati.
La tecnologia non si limita però alla linguistica, va ben oltre, fino
a portarci a tools per la gestione della conoscenza (Knowledge management
tools). Quindi non ci si ferma alla forma ma si entra nella ricerca del
contenuto. (rif. Bourguignon)
Autonomy
(http://www.autonomy.com/)
è presentato come un tool capace di estrarre il significato dalla
massa di dati archiviati al suo interno. E' comunque impossibile secondo
Hakala stabilire adesso se Autonomy diverrà "the Oracle of unstructured
data".
Il futuro dei "linguistic and Knowledge management tools" si presenta denso
di interessanti sviluppi. D'altra parte anche le collezioni che devono essere
gestite con questi strumenti stanno crescendo in modo esponenziale.
A questo punto Hakala conclude che l'uso del formato MARC per la catalogazione
richiede un sforzo di risorse troppo alto per essere usato al livello dell'
articolo. Nonostante ciò, ancora non ci possiamo basare solo sul full-text
indexing automatico.
Il relatore passa quindi a trattare gli 'embedded metadata' come alternativa
fondamentale per le nuove esigenze di reperimento dell'informazione. L'uso
di embedded metadata è efficace se la risorsa è strutturata
e quindi è possibile inserire (to embed) i metadata.
Nel progetto DIEPER è stato deciso di utilizzare linguaggio XML/RDF
poiché i documenti così strutturati sono ritenuti estremamente
elastici nell'uso di applicativi di ricerca. Secondo Hakala un documento
in linguaggio XML ed in formato RDF è leggibile e comprensibile dagli
automatismi per la ricerca, senza nessun intervento aggiuntivo.
Avendo premesso questo, DIEPER utilizzerà il Dublin Core Metadata
Element Set
(http://purl.org/dc/) per inserire
i metadata negli articoli dei periodici digitali. Hakala ha inoltre, brevemente
illustrato lo sviluppo del Dublin Core Metadata Element Set, nato dall'iniziativa
di un gruppo di bibliotecari, informatici e specialisti del settore che hanno
partecipato nel 1995 a quella che è oggi chiamato il primo Dublin
Core Metadata Workshop
(http://purl.org/dc/about/workshop.html).
Dublin Core con i suoi 15 elementi è un formato molto semplice, ma
anche ricco allo stesso tempo, poiché con l'uso di qualificatori può
essere reso tanto complesso quanto necessario per ogni uso locale.
E' stato proposto all'interno del progetto DIEPER di aggiungere agli elementi
che saranno usati di Dublin Core, un Itemnumber, ItemNumberSorting,
SerialsNumbering, PlaceOfPublication, FormatSourcePrint e SizeSourcePrint.
Non è detto che gli altri progetti di digitalizzazione si adeguino
a ciò che è stato deciso per DIEPER, tuttavia è auspicato
e suggerito l'uso di Dublin Core come minimo comun denominatore.
In ogni progetto che tratta di risorse elettroniche c'è la necessità
di produrre identificatori per ogni risorsa che possa essere reperita. Quindi
gli identificatori sono i legami tra i metadata esterni e la risorsa stessa.
Un record metadata può quindi contenere legami (pointers) con varie
risorse.
Hakala ricorda che esistono almeno tre, identificatori tradizionali, quali
ISSN, SICI (Serial Item and Contribution Identifier) e National Bibliography
Numbers. DIEPER prevede di usare sia ISSN che SICI. Il numero ISSN può
e dovrebbe essere attribuito anche alle annate pregresse di periodici
digitalizzati. Secondo il centro ISSN, la versione digitale deve prendere
il numero standard della versione a stampa.
Tuttavia questo è un identificativo valido solo a livello 'titolo'
poiché il suo eventuale uso a livello più basso, può
indubbiamente causare un eccessivo rumore nel reperimento dell'informazione
e quindi essere controproducente.
La soluzione di questo si ha con lo standard
SICI (Serial Item and
Contribution Identifier Standard, ANSI/NISO Z39.56-1996 Version 2) che fornisce
la possibilità di avere un unico identificatore a livello 'titolo'
e 'fascicolo' o 'articolo', senza essere legato al formato di distribuzione,
carta, microfilm, elettronico... L' identificativo SICI offre anche il vantaggio
di poter essere creato automaticamente da un testo strutturato.
L'ultima parte della presentazione di Hakala ha affrontato il problema della
stabilità del legame alla risorsa digitale che può essere
probabilmente risolto usando i "sistemi ad ombrello" URN e DOI.
DOI (Digital Object Identifier) deriva
dall'iniziativa di alcuni editori ed è stato sviluppato dalla
International DOI Foundation. Il suo obiettivo è quello di creare
una struttura per gestire il contenuto intellettuale del materiale pubblicato
in rete. Ogni DOI è composto da: prefisso/suffisso (separati da uno
slash). Il suffisso può essere qualunque cosa, non ci sono indicazioni
precise in merito, mentre il prefisso indica: l'editore + dove trovare un
resolution service. Per ogni DOI assegnato è previsto il pagamento
di una quota annuale, il cui ammontare deve ancora essere stabilito.
Al contrario di DOI, URN (Uniform Resource Name) non comporta nessun costo,
e nasce direttamente da Internet. URN è composto da: string urn, Namespace
identifier (NID) e Namespace specific string (NSS).
Nell'ambito di DIEPER saranno usati identificativi URN, ISSN/SICI.
Digitisation - technical issue: production at the GDZ / Norbert Lossau
Lossau con il suo secondo intervento ha illustrato il processo di produzione
dei periodici digitali all'interno del progetto DigiZeit portato avanti al
Goettingen Digitisation Centre (GDZ).
Il GDZ, fondato dalla Deutsche Forschungsgemeinschaft è un centro
nazionale del quale si avvalgono biblioteche ed istituzioni accademiche.
Negli obiettivi del GDZ c'è il coordinamento a livello nazionale dei
tentativi di standardizzazione per la digitalizzazione, dalla cattura
dell'immagine al controllo di qualità. E' inoltre impegnato nello
sviluppo di tools e tecniche per la conversione del testo (OCR), descrizione
bibliografica, descrizione della fonte, gestione del documento, e fornitura
di accesso via Web. GDZ ha cooperato allo sviluppo di un software per la
scansione SRZ Proscan Book, allo sviluppo di AGORA, un sistema di gestione
del documento, sviluppo di interfacce (JAVA) tra AGORA ed i cataloghi in
linea già esistenti di varie biblioteche, sta inoltre collaborando
alla sperimentazione per applicare il software OCR al testo con caratteri
gotici. Attualmente il centro è impegnato in vari progetti di
digitalizzazione, tra i quali DIEPER.
Al GDZ è stato curato lo sviluppo di SRZ Porscan Book, software per
la scansione di volumi, si è partecipato alla progettazione di AGORA,
un document management system che lo stesso centro usa all'interno del processo
di digitalizzazione, sono state sviluppate intefacce JAVA tra i cataloghi
già esistenti ed AGORA in modo da permettere il reperimento dei peridici
digitali e la ricerca nel full-text. Uno dei problemi che è in corso
di studio è l'uso di software come OCR su volumi con caratteri gotici,
poiché OCR non riconosce i caratteri gotici.
I documenti cartacei vengono scanditi con risoluzione a 600 dpi, 1 bit b/w
per il testo. La scansione viene fatta da microfilm (tramite fornitore esterno)
mentre quella attuata dall'originale viene fatta in-house con scanners Minolta
PS 7000, Zeutschel OS 7000. Il software di scansione usato è SRZ Proscan
Book ed il lavoro viene affidato a personale pagato per quantità di
pagine scandite.
Il controllo della qualità dell'immagine viene effettuato dallo staff
interno al centro o da studenti collaboratori, usando processore Pentium
su Windows NT, schermo a 21" e software ACDSee. La ricerca all'interno del
full-text viene resa possibile tramite metadata in XML/RDF.
Niel Beagrie direttore del Arts and Humanities Data Service del King's Collegge
di Londra, ha chiuso la prima giornata di lavori, con un intervento dal
titolo:
Permanent access: Preserving electronic journals / Niel Beagrie
Secondo Beagrie le biblioteche vivranno una realtà 'ibrida' per moltissimo
tempo, forse per sempre poiché la quantità di letteratura su
carta non accenna a diminuire (+6% negli ultimi annni), nonostante il grande
sviluppo che le pubblicazioni elettroniche hanno subito negli ultimi anni.
La grande sfida dei prossimi anni non sarà quindi sostituire la carta
con il digitale, ma mantenere le pubblicazioni elettroniche e permettere
un continuo accesso a queste.
Il mantenimento dell'accesso comporta costi ingenti, anche in relazione alla
veloce obsolescenza delle attrezzature e dei software usati. In questo contesto
viene ribadita nuovamente la fondamentale importanza dell'uso di standard
condivisi, dell'uso di metadata per garantire un accesso a lungo termine.
Come esempi vengono citati i progetti NLA, CEDARS
(http://www.leeds.ac.uk/cedars/)
e NEDLIB
(http://www.kb.nl/coop/nedlib/).
Quanto esposto non è solo preoccupazione del fornitore di prodotti
informativi, ma anche dell'utente finale che può veder minato il proprio
diritto ad una informazione permanente.
Beagrie è l'unico che affronta, anche se velocemente, il problema
del copyright, illustrando la pericolosità del formato elettronico
che si presta a facili manipolazioni. Gli editori stessi secondo B. sono
interessati a sottoscrivere accordi con chi vuole convertire in formato
elettronico le risorse cartacee . Quale modello di licenza per l'accesso
al formato digitale viene ancora una volta citato NESLI.
Il processo di creazione e diffusione delle risorse digitali viene visto
da B. come un ciclo continuo, le cui fasi sono evidenziate nella creazione,
gestione e conservazione, uso, aspetti legali e commerciali. Come modello
strategico di gestione viene citato
http://ahds.ac.uk/manage/framework.htm
Beagrie sposta l'attenzione dal contesto della biblioteca universitaria e
di ricerca, a quello delle biblioteche nazionali, che sono viste dal relatore
come conservatrici della nostra memoria collettiva.
Questo tema sarà ripreso ed ampliato nella seconda giornata del congresso.
Durante la seconda giornata del congresso vengono illustrati e discussi alcuni
modelli economici ed organizzativi, guardando al futuro della digitalizzazione
dei periodici su scala europea.
Three stories from the future / Jens Thorhauge
Il primo intervento è di Jens Thorhauge, che delinea tre scenari possibili
per il futuro, come conseguenza delle decisioni che i vari paesi europei
intraprenderanno in relazione ai periodici digitali, nell'immediato futuro.
Il primo scenario promuove l'uso della carta per i periodici meno diffusi,
perché il costo elevato della digitalizzazione farà sì
che sia sostenuto solo per materiale raro e con funzioni di conservazione.
L'uso del materiale cartaceo nelle biblioteche resterà stabile
specialmente per quanto riguarda i libri. Sarà sempre più diffuso
il prestito interbibliotecario ed il document delivery anche grazie all'aumentare
dei cataloghi in linea che renderanno trasparenti le informazioni. Ogni paese
europeo lo attuerà all'interno di una cooperazione di print-on-demand.
Il secondo scenario prevede che l'uso dell'informazione professionale sia
quasi interamente su formato elettronico. Quindi per promuovere l'uso
dell'informazione scientifica e di ricerca saranno istituiti progetti di
digitalizzazione in tutti i paesi europei, secondo le possibilità
di ognuno.
Sarà istituito il Centro di Digitalizzazione Europeo con funzione
di coordinamento e di selezione dei documenti da digitalizzare secondo standard
comuni.
La terza ipotesi prevede la digitalizzazione dei TOCs fatta dai paesi europei
più poveri ed il full-text dai ricchi. I periodici in lingua inglese
saranno comunque digitalizzati. Varie politiche nazionali saranno stabilite
al fine di selezionare i più importanti e più usati periodici
su carta per essere scanditi.
Nessuna delle tre ipotesi è, ovviamente, auspicata dal relatore ma
ognuna presenta degli aspetti che, se uniti, potrebbero portare grandi vantaggi
alla comunità dell'informazione.
Selecting journals for digitisation: Piecing together the puzzle to create
a European model / Hazel Woodward
Woodward con il suo intervento affronterà l'aspetto della selezione
dei periodici da digitalizzare su scala europea. La selezione dei periodici
secondo la Woodward, viene al momento attuale intrapresa da singole istituzioni,
consorzi regionali o tematici, organizzazioni ed istituti su scala nazionale
e da progetti internazionali. Come far convergere tutte queste iniziative
in un unico modello europeo?
La selezione del materiale è raramente influenzata da una strategia
nazionale e questo aumenta la difficoltà di una gestione europea.
Quale principio basilare per guidare i criteri di selezione del materiale
la Woodward si ispira ai principi portati avanti dal Arts and Humanities
Data Service , secondo i quali ogni istituzione che svilupperà collezioni
digitali dovrà avere una precisa missione e contesto organizzativi,
entro i quali definirà le proprie attività, i criteri e le
strategie di selezione, acquisto, e sviluppo delle collezioni.
Lo scenario attuale è molto variegato, si va da una situazione locale,
dove i periodici vengono scelti e digitalizzati con procedure 'in-house',
scegliendo magari importanti riviste pubblicate anche all'interno della stessa
struttura universitaria, ad uno scenario a larga scala come può essere
quello del progetto BUILDER o del Glasgow digital library project .
La selezione dei periodici digitali all'interno di progetti ad ampio respiro,
quali quelli appena citati, è influenzata dalla necessità di
spendere bene i soldi dei finanziatori, che spesso derivano da sponsor esterni.
Le proposte di selezione sono spesso sottoposte a 'peer review' che sottintende
anche un monitoraggio del materiale già pubblicato a livello
internazionale, quindi è più facile prevenire inutili duplicazioni.
Sono state portate come esempio le linee guida scelte dallo
SCOAP (Selection Committe on Online
Australian Publications) per la selezione delle pubblicazioni australiane
da mettere in linea. Queste devono:
-
trattare temi relativi all'Australia;
-
essere scritte da un australiano di riconosciuta fama;
-
trattare un argomento di rilevanza sociale, politica, culturale, religiosa,
scientifica o economica;
-
avere una valenza scientifica che si reputa durare nel tempo.
All'interno di questa panoramica internazionale AW ha fatto riferimento anche
al progetto di digitalizzazione della National Library of Canada
http://www.nlc-bnc.ca/pubs/irm/eneppg.htm
ed all'importanza che riveste in Inghilterra i JISC (Joint Information
System Committee) che coordina la maggior parte dei progetti di digitalizzazione
attualmente in corso.
I progetti principali a livello europeo ricorda HW che sono, DELTA, DIEPER
e DigiZeit. L'americano JSTOR è considerato sempre un punto di riferimento
per tutti. Alla base della creazione di un modello europeo di cooperazione
per la digitalizzazione dei periodici, è affermata di nuovo da AW
la necessità di una struttura di coordinamento strategico e progettuale
su scala europea. C'è la necessità di coinvolgere sia le
biblioteche nazionali che gli altri enti implicati nella fornitura di risorse
elettroniche.
La Woodward infine auspica la creazione di una organizzazione a livello europeo
che raccolga informazioni sul materiale disponibile in formato digitale,
e ove possibile fornisca anche l'accesso a questo, che guidi nella stipula
di accordi per la retroconversione con gli editori, che riunisca esperti
di digitalizzazione, che crei prototipi di interfaccia per l'accesso unico
e che gestisca le licenze d'uso. In fondo questi sono gli intenti di DIEPER.
Niel Beagrie nel suo secondo intervento illustra alcuni modelli economici
ritenuti applicabili a questo nuovo contesto :
Economy - Some models for sustaining innovative content-based services
/ Niel Beagrie
L'analisi di Beagrie si basa sulla realtà inglese e americana, tuttavia
egli stesso sostiene che certi aspetti sono ormai comuni a tutta l'Europa.
Gli interventi di digitalizzazione nel panorama europeo sono in larga scala
finanziati da fondi pubblici, almeno nella fase iniziale. D'ora in poi si
farà sempre più pressante l'esigenza delle istituzioni che
portano avanti tali progetti, di poter ottenere un riscontro economico dai
loro prodotti, in modo da poter mantenere e sviluppare ulteriormente l'offerta
di informazione digitale.
Allo stesso tempo anche le organizzazioni commerciali stanno investendo
abbondantemente in questo settore. Quindi si delineano sostanzialmente due
modelli, uno pubblico e l'altro privato.
I modelli commerciali e pubblici, sono così suddivisi da Beagrie:
commerciali:
-
Aggregatori e servizi di e-publishing, che investono sulla quantità
dell'informazione e si basano sulla vendita degli abbonamenti per contenuti
di proprietà o su licenza, offrono grandi quantità di contenuti
su specifiche aree tematiche ed offrono servizi di valore aggiuntivo dove
possibile
-
Portal services, che investono sull'uso dell'informazione ed offrono servizi
di valore aggiuntivo fornendo un accesso efficiente ad una vasta quantità
di risorse Internet. Generano un vasto uso promuovendo e fornendo servizi
di 'advertising' e 'email alerting services'.
Entrambi ottengono entrate grazie alla vendita dei servizi offerti.
pubblici :
-
BIDS sostenuto inizialmente da fondi pubblici, si sviluppa in ambito disciplinare
ristretto, riguarda di solito l'ambito accademico, quella letteratura detta
di 'nicchia', è assimilabile in un certo senso a JSTOR, che è
stato inizialmente finanziato dalla Mellon Foundation e solo in seguito si
è sviluppato attraverso un servizio a pagamento
-
AHDS investimenti pubblici condivisi per i servizi più richiesti.
Il Arts and Humanities Data Service è composto da collezioni di alto
valore qualitativo per la ricerca, assemblate per soggetto. Può fornire
servizi a gruppi di utenti selezionati chiedendo il solo rimborso delle spese
sostenute.
-
RDN economia mista. Sono definiti da Beagrie, portali verso risorse di alta
qualità strutturate a soggetto basati su investimenti pubblici. Sono
generalmente organizzazioni not-for-profit, possono stipulare accordi con
servizi commerciali che necessitano della descrizione di risorse Internet
come servizio di valore aggiunto, sviluppano il proprio contenuto ed i propri
servizi in collaborazione con organizzazioni commerciali e non.
-
RLG, DLF, OCLC, ad economia mista o 'membership model'. Prodotti e servizi
strettamente di 'nicchia', si basano sulle quote sociali dei membri, sulle
quote di abbonamento e di altri servizi offerti a pagamento.
-
Collezione culturale significativa. Questo modello sfrutta le collezioni
e le esperienze a livello locale, per digitalizzare le collezioni e fornirle
come prodotto. Questa fornitura può essere gratuita se esegue un preciso
mandato nazionale, regionale o anche solo culturale, a pagamento se il prodotto
è diffuso come pubblicazione elettronica.
Questo modello si basa su:
-
investimenti iniziali condivisi da tutte le istituzioni partecipanti,
-
investimenti iniziali di capitale da rifondere tramite la vendita di
'valore-aggiunto' e pubblicazioni,
-
partecipazione strategica con servizi portale e/o editori elettronici ed
aggregatori.
Beagrie conclude dicendo che la digitalizzazione dell'informazione culturale,
benché di valore, non è in sé stessa una via commerciale
percorribile. Gli investimenti sullo sviluppo, mantenimento e fornitura di
questo prodotto non potranno essere sostenuti solo dalla vendita di servizi
di valore aggiuntivo e da iniziali finanziamenti pubblici. Lo sviluppo ed
il mantenimento dei servizi di informazione culturale e di istruzione è
molto probabilmente al di sopra delle possibilità e dell'interesse
del solo settore pubblico.
L'ultimo intervento, prima del dibattito conclusivo, è di Esko Hakli,
ex presidente di Liber e direttore della Helsinki University Library.
A European model: Organisation /Esko Hakli
L'Europa è un'entità multilingue e multiculturale. Le
attività illustrate finora devono essere basate sul contributo di
ogni paese europeo, poiché il mondo della ricerca in un contesto culturale
europeo, ha bisogno di avere accesso alla eredità culturale di tutti
i paesi membri. Grazie alla tecnologia le frontiere possono essere superate
all'interno di uno spazio culturale europeo comune. Questo crea interdipendenza
tra i soggetti che agiscono in questo contesto. Uno degli obiettivi da
raggiungere insieme deve essere quello dell'accesso unico alle risorse
informative europee, dovunque queste siano conservate o pubblicate. La biblioteca
virtuale europea potrà diventare una realtà solo grazie all'uso
di standard comuni, ed a politiche di finanziamento a livello nazionale.
La digitalizzazione deve essere attuata a livello nazionale e diffusa tramite
un accesso comune a risorse distribuite entro lo spazio digitale europeo.
Come tutto questo può essere organizzato?
Attraverso: un catalogo unico delle risorse digitali europee, coordinati
schemi di produzione, un comune accesso alle risorse, un database europeo
per le risorse digitali in full-text.
L'accesso permanente a queste risorse è visto da Hakli come materia
ben più complessa. Non è chiaro se le pubblicazioni digitali
siano soggette al deposito legale. Solo la Danimarca sembra avere già
una legge nazionale che sottopone a deposito legale tutte le pubblicazioni
edite in formato digitale.
La chiave di volta, secondo EH, sta nel coordinamento a livello europeo delle
soluzioni legislative intraprese a livello locale. A livello europeo dovrà
essere organizzato lo sviluppo di una politica comune per la standardizzazione,
la selezione, l'accesso e l'archiviazione, nonché la tutela del copyright.
Vengono proposti tre modelli di accesso:
-
gratuito come GALLICA in Francia, finanziato
dallo stato,
-
a pagamento, sviluppato da editori privati,
-
il modello di JSTOR.
Anche se l'attenzione è sempre focalizzata sull'accesso, non dobbiamo
dimenticare che il formato digitale è visto anche come metodo di
archiviazione. Di nuovo EH ribadisce l'importanza di standard comuni se vogliamo
garantire una fruibilità del materiale ai posteri.
Come gestire, infine, le licenze d'uso su scala europea? EH ricorda che la
licenza è riservata ad un gruppo, solitamente omogeneo, di utenti
e che l'applicazione di questo concetto a livello internazionale genera molti
interrogativi. Si dovrà tenere conto in un prossimo futuro di questa
necessità e stabilire degli standard internazionali da seguire, anche
per le licenze.
L'intervento di Hakli sfocia in un dibattito, che porta alla conclusione
del congresso.
Conclusions and recommendations / Ann Matheson
Le conclusioni sono esposte da Ann Matheson della National Library of Scotland,
la quale sottolinea l'importanza dello scambio di esperienze che si augura
porti ad una cooperazione a livello europeo. Le fondamenta sono già
gettate dai progetti in corso, e la `mission' delle biblioteche europee in
questo settore sarà a lungo termine.
Innanzi tutto perché cooperare?
Per gli utenti che hanno grandi aspettative verso l'uso che i gestori
dell'informazione, e quindi anche le biblioteche, faranno delle nuove tecnologie.
Per la missione delle biblioteche che viene così delineata
da AM:
-
migliorare l'accesso alle collezioni;
-
fornire accesso parallelo al materiale molto usato;
-
promuovere l'uso del materiale meno conosciuto;
-
aumentare la `visibilità' del materiale che sottolinea l'eredità
culturale di ogni paese europeo.
Per il materiale stesso per la sua conservazione nonostante l'accesso
sia comunque di primaria importanza
In risposta a fattori esterni, quindi per rispondere ad una esigenza
di mercato in seguito a richieste da parte di fondazioni ed istituti interessati
L'attenzione da parte di coloro che hanno interesse a digitalizzare il materiale,
secondo Matheson deve partire da una accurata selezione del materiale da
parte delle biblioteche universitarie, ma anche dalle biblioteche nazionali.
Al fine di soddisfare i bisogni degli utenti deve essere posta particolare
attenzione alle politiche di accesso ai documenti che devono essere aperte
e compatibili agli sviluppi che la tecnologia avrà nei prossimi anni,
per questo gli standard comuni da adottare devono almeno essere:
-
scansione immagine a 600 dpi;
-
metadata creati in XML/RDF;
-
full text creato usando OCR in XML/TEI;
-
unico identificatore per localizzare il full text (URN o DOI).
I fattori economici sono purtroppo fondamentali. E' importante bilanciare
le valutazioni di spesa con il valore di ciò che si crea. Gli aspetti
legali andranno considerati attentamente, anche basandosi sulle esperienze
fatte da JSTOR e DIEPER nei rapporti con gli editori.
L'uso di un comune database, che sarà sviluppato da DIEPER
permetterà una oculata gestione delle scelte di selezione ed eviterà
duplicazioni a livello globale. Inoltre la possibilità di vedere inserite
in questo database dei periodici digitali europei, anche le iniziative che
stanno per essere intraprese in tale settore, permetterà una comunicazione
più trasparente.
L'accesso permanente dovrà infine essere pianificato e gestito, e
non sarà compito facile anche perché i fattori economici
incideranno molto. Tutto questo per concludere che l'archiviazione dei dati
digitali richiede standard comuni legati alla cooperazione tra le parti.
Le biblioteche sono chiamate a cooperare e ad essere indipendenti ed
interdipendenti, dovranno condividere:
-
le decisioni relative alla selezione;
-
alcune scelte con gli utenti;
-
le informazioni;
-
le esperienze;
-
i tools senza doverne reinventare di nuovi in Europa;
-
gli obiettivi con gli editori;
-
la responsabilità di mantenimento per l'accesso e l'archiviazione
a lungo termine.
Ann Matheson infine conclude con il seguente motto: "Think it through! ...
Be prepared - the unexpected always happens!" (Matheson, 2000:93)
Riferimenti bibliografici
Alkhoven, Patricia, "DELTA: Retrospective digitisation of journals": [Abstract],
Digitising journals: conference on future strategies
for European Libraries, Copenhagen, 13-14 march 2000, [non pubblicato]
Beagrie, Niel (2000),"Permanent access: preserving elecgtronic journals",
Digitising journals: conference on future strategies
for European Libraries, Copenhagen, 13-14 march 2000,[presentazione
disponibile in
rete],http://www.sub.uni-goettingen.de/gdz/dieper/slides.html#papers
Beagrie, Niel (2000a),"Economy some models for sustaining innovative
content-based services", Digitising journals: conference
on future strategies for European Libraries, Copenhagen, 13-14
march 2000, [presentazione disponibile in rete],
http://www.sub.uni-goettingen.de/gdz/dieper/slides.html#papers
Bourguignon, Jeanne-Pierre, (2000), "User-landscape: needs and visions of
users", Digitising journals: conference on future
strategies for European Libraries, Copenhagen, 13-14 march 2000, [disponibile
in rete], http://www.deflink.dk
CEDARS, http://www.leeds.ac.uk/cedars/
CLIC, www.ch.ic.ac.uk/clic/
DEF, http://www.deflink.dk
DIEPER http://www.sub.uni-goettingen.de/gdz/dieper/princip.htm
Digitising journals: conference on future strategies
for European Libraries, Copenhagen, 13-14 march 2000, [disponibile in
rete], http:// www.deflink.dk
DigiZeit,http://www.sub.uni-goettingen.de/ebene_1/1_projek-e.htm
Distributed National Electronic Resource
http://www.jisc.ac.uk/pub99/dner_vision.html
DOI, http://www.doi.org/
Dublin Core Metadata Element Set, http://purl.org/dc/
Elib, http://www.ukoln.ac.uk/elib/
Excalibur Retrieval Ware,
http://www.excalib.com/oriducts/rw/index.html
Gallica, http://gallica.bnf.fr
Guthrie, Kevin, (2000), "Digitising journals: Highlights from the JSTOR's
experience", Digitising journals: conference on future
strategies for European Libraries, Copenhagen, 13-14 march 2000, [disponibile
in rete], http:// www.deflink.dk
Hakala, Juha, (2000), "Metadata and identifiers for e-journals",
Digitising journals: conference on future strategies
for European Libraries, Copenhagen, 13-14 march 2000, [disponibile in
rete], http:// www.deflink.dk
Hakli, Esko, (2000), "A European model: organisation", Digitising
journals: conference on future strategies for European
Libraries, Copenhagen, 13-14 march 2000, [disponibile in rete], http://
www.deflink.dk
HERON, http://www.stir.ac.uk/infoserv/heron/
Internet Library of Early Journals, www.bodley.ox.ac.uk/ilej/
Journals and transactions of the Institute of British Geographers
(The) www.ingentajournals.bids.ac.uk/Pub-info/rgs.html
JSTOR, http://www.jstor.org/about/board.html
LAMDA, http://lamdaweb.mcc.ac.uk
Laursen, Henrik and Mehrabi, Hamid (2000), "Standards for images and full
text", Digitising journals: conference on future
strategies for European Libraries: Proceedings, Copenhagen, 13-14 march
2000, [disponibile in rete], http://www.deflink.dk
Lingsoft, http://www.lingsoft.fi/
Lossau, Norbert, (2000), "Digitisation - technical issues: production at
the Goettingen Digitisation Center (GDZ)", Digitising journals:
conference on future strategies for European Libraries,
Copenhagen, 13-14 march 2000, [disponibile in rete],
http://www.deflink.dk
Lossau, Norbert - Cramme, Stefan (2000), "DigiZeit: Digitisation of journals",
Digitising journals: conference on future strategies
for European Libraries, Copenhagen, 13-14 march 2000, [disponibile in
rete], http://www.deflink.dk
Matheson, Anne (2000), "Conclusions and recommendations", Digitising
journals: conference on future strategies for European
Libraries, Copenhagen, 13-14 march 2000, [disponibile in rete],
http://www.deflink.dk
Midland History, www.builder.bham.ac.uk/midlandhistory/
National Library of Canada Networked electronic publications policy and
guidelines, http://www.nlc-bnc.ca/pubs/irm/eneppg.htm
NEDLIB, http://www.kb.nl/coop/nedlib/
NESLI, www.nesli.ac.uk
Oracle, http://www.oracel.com/intermedia/
Schwartz, Werner, (2000), "DIEPER: providing web access to retro-digitised
periodicals at multiple sites", Digitising journals: conference
on future strategies for European Libraries, Copenhagen, 13-14
march 2000, [disponibile in rete], http://www.deflink.dk
SCOAP, http://www.nla.gov.au/scoap
SICI, http://sunsite.berkeley.edu/SICI/
Superjournal project, http://www.superjournal.ac.uk/sj/
Thorhauge, Jens, (2000), [Introduzione al congresso], Digitising
journals: conference on future strategies for European
Libraries, Copenhagen, 13-14 march 2000, [non pubblicata]
Thorhauge, Jens, (2000a), "Three stories from the future", Digitising
journals: conference on future strategies for European
Libraries, Copenhagen, 13-14 march 2000, [disponibile in rete],
http://www.deflink.dk
Voyager, http://endinfosys.com/new/encompass.htm
Wissemburg, Astrid (2000), "Digitising journals and the eLib programme",
Digitising journals: conference on future strategies
for European Libraries, Copenhagen, 13-14 march 2000, [disponibile in
rete], http://www.deflink.dk
Woodward, Hazel, (2000), "Selecting journals: piecing together the puzzle
to create a European model", Digitising journals: conference
on future strategies for European Libraries, Copenhagen, 13-14
march 2000, [disponibile in rete], http://www.deflink.dk