søndag den 10. april 2005

Tanker om det virtuelle bibliotek

Google's digitaliseringsprojekt har skabt debat, især i USA. Altså projektet at digitalisere meget store biblioteker. Dønninger har også truffet Danmark. Hvad Google gør, er der andre som har gjort i årevis med langt mindre opmærksomhed. Kig på ebogscentrets (ebogscenter.dk) udvalg. Kik på omfattende digitaliseringsprojekter som fx The Million Books Project og Project Gutenberg . Altsammen bringer det virtuelle bibliotek ganske tæt på.

Spørgsmålet om hvad der vil ske når alle bøger er tilgængelige på internettet, besvares først når det er sket. Foreløbig kan vi kun lege med ideen.

Lad os forestille os at de praktiske problemer er blevet løst: Vi har et hurtigt og effektivt indskanningssystem. Ophavsretsproblemet er blevet løst. Google har måske ikke fået tilladelse til fuld adgang til bøger pga. ophavsret, men har fået lov til indskanne hele værket for at kunne søge i det. Google Print, Googles tilbud til forlag om at gøre indholdet af deres nye bøger synlige, har indgået en aftale med Amazon. Forlagene støtter et samarbejde mellem den kommercielle boghandel Amazon og websøgemaskinen Google.

Lad os forestille os at Google har fundet ud af at efterspore forfatterne til bøger, som ikke længere findes i handelen. Har fået lov til at kopiere. Ikke kun på universitetsforlag i USA, som pt ser mest velvilligt på Googles initiativ, men alle forlag.

Lad os så forestille os at det sker inden for det næste årti. Hvilken situation ville det være?

Er bøger som medie egnet til at blive læst hakket i stykker på en computerskærm eller printet ud i løsbladesystem? Noget tyder i hvert fald på et tilpasningsproblem. Jeg oplever på Hovedbiblioteket i København at mange brugere ikke vil læse onlineudgaver. Selv om bibliotekets kataloger i dag direkte linker til dem. De venter hellere til bogudgaven kommer hjem. Men måske er det blot et spørgsmål om tilpasning?

En sådan tilpasning kunne fremmes af at brugerne med det virtuelle bibliotek ikke behøver at bevæge sig hen på det lokale bibliotek og gennemrode hundredvis af uoverskuelige reoler. Set på globalt plan at de fattige ulandes studerende bliver ligestillet med deres medstuderende i de velhavende lande.

Imod en sådan tilpasning taler at brugerne vil drukne i et kæmpeocean af information. Studerende vil i første omgang lade sig narre til at opfatte webben og information herfra som viden. De lader sig spise af med de første de bedste (eller værste) fund. Sådanne forestillinger har i øvrigt ledsaget mennesket siden skriftkulturens opståen for mange tusind år siden: Vi har flere tusind år gamle vidnesbyrd om forestillinger om at menneskeheden vil drukne i information.

Begge disse forestillinger tager imidlertid ikke højde for at bibliotekerne ikke bare er mekanisk langen materialer over disken. Det er også bibliotekekspersonalets speciale: fremfindingsteknikken. Biblioteksbrugerne vil muligvis kunne svinge sig op til at meste Google og andre søgemaskiners elementære søgemåder, fx søgeoperatorerne (+/-/OR og ""). Og når det går højt også feltsøgekoder. Men ikke et rutineskabt, professionelt kendskab til anvendelsen af dem og til internettets egenart.

Google er god til at søge på sætninger osv. Men det kræver en særdeles veltrænet internetsøger til at finde kernematerialet om et bestemt emne. Det rammer især de studerende. Det erhverves ikke bare ved at søge på Google et par gange om dagen, men ved en livslang erfaring med fremfinding. Den erfaring som kun bibliotekspersonalet får gennem praksis. Hvis bibliotekarerne vel at mærke kender deres besøgelsestid.

Bibliotekarer er vant til at arbejde med emneord. Altså dette at tildele bøger nogle rammende ord. Også klassifikationssystemet DK5. Og vi kigger også tit i litteraturlisterne bag i centrale bøger for at finde tilsvarende materialer. De bibliografiske biblioteksbaser har deres klare begrænsninger, og biblioteksbrugerne har altid haft problemer med at håndtere emneord. (Bibliotekarer i øvrigt også). Disse problemer har Google også. Tilmed er det menneskeligt umuligt at tildele samtlige dokumenter på internettet emneord. Eneste løsning er at overlade det til webmasterne selv. Med deraf affødte problemer: de skal huske at gøre det, de skal være ærlige og det skal være relevante emneord.

Indtil videre har vi kun set det sidste praktiseret på fx Froogle. Her kan webmasterne lave tags til priser, firmanavn og udbyder. Froogle er til handel, og dette er måske symbolsk for hvordan søgemaskiner mere og mere bliver afhængig af markedsmekanismer. Ikke mere neutrale og demokratiske institutioner som fx bibliotekerne.

Selv hvis emneordsproblematikken skulle blive løst, har hverken biblioteksdatabaser eller søgemaskiner kunnet løse den gordiske knude: det semantiske web. Altså ideen om at søgemaskiner forstår meningen med et spørgsmål. Sådan lidt hen ad det meget primitive spørgsmål-svar-koncept som har været omtalt her på Internetsøgning adskillige gange.

Troværdighed er også et element: Google indsamler oplysninger om de, som søger (via cookies). Kan vi for tid og evighed stole på at Google ikke vil udnytte oplysninger om brugerne kommercielt? Den er en kommerciel virksomhed. Modsat bibliotekerne. De er underlagt registerlove og demokratisk kontrol. Biblioteksbrugere kan forholdsvist trygt udlevere personlige oplysninger til bibliotekerne.

Til slut det sociale: Kan Google hamle op med atmosfæren på bibliotekerne? Selv Googles grundlæggere, Larry Page og Sergey Brin, afviser det. De opfatter Google som blot endnu et af bibliotekarernes instrumenter. Google vil aldrig erstatte bibliotekerne. De har ret: Internettet har eksisteret i over ti år uden at besøgstallene på bibliotekerne er faldet nævneværdigt af den grund.

Internettet altså umådelige udfordringer og spørgsmål som skal løses. Mange problemer har for altid eksisteret, også i de bibliografiske databasers storhedstid. Kan vi håbe på, at hvis/når de bliver løst for internettet, vil de også blive løst for de bibliografiske baser?

Ingen kommentarer: