A WEB 2.0 JÖVŐJE ÉS A SZEMANTIKUS WEB
A 2007. április 27-i in4-konferencia tanulmányai
Szerkesztette Tóth Tünde és Vaskó Péter
Budapest, Bibliopolisz, 2007

Tóth Tünde & Vaskó Péter TÓTH Tünde & VASKÓ Péter
a kötet szerkesztői

 Ki szabadítja fel a fájlokat?
VASKÓ Péter VASKÓ Péter, M.A.
főszerkesztő
EMIR

SZAKADÁT István, C. Sc. SZAKADÁT István, C. Sc.
egyetemi docens

BME GTK
Szociológia és Kommunikációs Tanszék – MOKK

DUDÁS Anikó, Ph.D. DUDÁS Anikó, Ph.D.
egyetemi adjunktus

PPKE BTK
Nyelvészeti Intézet

GUSZLEV Antal GUSZLEV Antal, M. S.
főiskolai adjunktus

Nyugat-Magyarországi Egyetem Geoinformatikai Kar
Térinformatikai Tanszék
LUKÁCS Lilla LUKÁCS Lilla, M. S.
tudományos segédmunkatárs

MTA Történettudományi Intézet
Történeti Atlasz

SALGÁNÉ MEDVECZKI Marianna, Ph.D. SALGÁNÉ MEDVECZKI Marianna, Ph.D.
egyetemi tanársegéd

DE IK
Komputergrafika és Könyvtárinformatikai Tanszék

FODOR János, Ph.D. FODOR János, Ph.D.
egyetemi tanársegéd

ELTE BTK
Könyvtártudományi Tanszék

Tóth Tünde, Ph.D. TÓTH Tünde, Ph.D.
egyetemi adjunktus

Pannon Egyetem BTK
Magyar Irodalomtudományi Tanszék

 Vaskó Péter: Ki szabadítja fel a fájlokat?

 A nagy ábránd

Ahogy állítólag hat kézfogásnyira van egymástól minden ember, úgy az Internet szuperszövegében néhány kattintásnyira van egymástól minden megtalálható adat és szöveg. Vagy legalábbis ezt sejtetik az internetet leíró zsurnál-metaforák.

Valójában az interneten megjelenő információ- és tudástartalom szervezettségi foka még csak a hálózati lehetőségek kiaknázásának igen kezdeti fokát valósítja meg, és sok megoldásában inkább a manufaktúrák szellemét idézi, mint a high-tech hangulatot.

A tudásszervezés jelenlegi helyzetét egyszerre jellemzi a lassú szemléleti és a radikálisan gyors technológiai váltás feszültsége.

A régi metódus új környezetbe való ültetetésének ellentmondásai jól megfigyelhetőek az online tartalmak szervezésének gyakorlatában, amely reflexszerűen átvett egy sor a megelőző, alapvetően könyves kultúrára jellemző megoldást, mint például az elválasztott, különálló, önmagukban zárt dokumentumokra épülő elvet és gyakorlatot. Ennek megfelelően az internetes site-okra a legtöbb fenntartó és felhasználó úgy tekint, mint önálló, utalásokkal egymásra hivatkozó könyvekre a hálózat könyvespolcán.

Az információszervezés első forradalmát az jelentette, hogy a hozzáférhetőség fokát nem a fizikai hordozók sokszorozásával növelte meg (mint a nyomtatás vagy akár az információk CD-n való terjesztése), hanem egyetlen (a szerveren elhelyezett) példány virtuálissá tételével, és bármilyen azt megjeleníteni képes eszközön való távoli elérhetőség lehetőségével (természetesen ennek előnyeivel és veszélyeivel együtt – mint pl. a megsemmisülés nagyobb kockázata).

A másik kulcsfontosságú változás a hozzáférhetőség mellett a bárki számára elérhető tartalom-előállítási és terjesztési lehetőség, valamint az adatkapcsolatok terén következett be. A tartalmak virtuális természete lehetővé tette az azonnali és közvetlen kapcsolatot (linkelés), valamint elvi szinten a tartalmak egymásba ágyazását (transclusion).

Érdekes módon az általános gyakorlatban a linkelés technikája legtöbbször nem lép túl a könyvek esetében megszokott utalás és idézés technikájánál, ahol az egyes különálló dokumentumok hivatkoznak egymásra, illetve részleteket közölnek egymásból. A különböző forrásból származó adatok újramixelhető szolgáltatásként való felhasználása, alkalmazások dinamikus egymásra hatása, egymásba épülése (mashup) csak a legutóbbi időben kezdett teret hódítani.

Az általánosan elterjedt gyakorlat, a könyvek anyagának digitális formában való lelkes rögzítése mellett még csak tapogatózó kísérletek vannak arra, hogy ne csupán tükrözzük a nyomtatás korának lineáris természetű műveit, hanem kidolgozzuk annak a tudásrögzítésnek, -terjesztésnek és -újraszervezésnek az eszközeit, amelyek az új médium lehetőségeihez illeszkedve hozzák létre az új „könyvet”.[ 1] Hiszen a világháló úttörőinek, Vannevar Bushnak vagy Ted Nelsonnak elképzelései még csak töredékesen valósultak meg, és a gyakorlatban nagyrészt valójában még a Gutenberg-galaxis digitális adaptálása folyik.

Ahhoz, hogy az információ- és tudásszervezés az új technikai-szellemi környezetben megtalálja optimális lehetőségeit, azonosítanunk kell mindazon tényezőket, amelyek segíthetik vagy épp gátolhatják ezt a folyamatot.

Ezek közül talán a legfontosabbak a filozófiai, szemléleti váltással kapcsolatos, az információk kapcsolatának és feldolgozásának technikai jellegű, valamint az információhoz való hozzáférés társadalmi és gazdasági vonatkozású kérdései.


 Adatkapcsolatok és keresés

Már a világháló és a hypertext legelső elméleti megfogalmazása során központi helyet foglalt el az adatkapcsolatok kérdése, amikor Vannevar Bush 1945-ben papírra vetette elképzelt adatszervező gépe, a Memex csomópontokra és linkekre épülő működési elvét,[2] majd az ő inspirációjára Ted Nelson megírta Literary Machine című könyvét,[3] valamint kidolgozta és elindította a docuverse és transclusion fogalmak köré szervezett soha be nem fejeződő Xanadu projektjét. Mindkettejüket az az elképzelés foglalkoztatta elsősorban, hogy miként lehetne kiemelni meglévő kontextusukból és egyfajta metaszinten újrarendezni a lineáris struktúrákba rögzített információt. Az egyes elemek ezen a módon már nem önmagukban és eredeti helyükön, hanem ezen hálózat részeként nyernék el értelmüket. Az egyes elemekből ad hoc hálózatokat létrehozó személy éppúgy szerzői státuszba emelkedik, ahogy az általa létrehozott kapcsolati szövet is önálló műként jelenhet meg.

Nagyon leegyszerűsítve azt is mondhatnánk, hogy a világháló leírható úgy is, mint a legtágabban értelmezett „szövegek” (legyenek azok alfanumerikus, képi vagy hanginformációk) belső és külső hivatkozásokkal összekapcsolt hálózata, mely hálózat – elemei végtelen permutálhatóságával – potenciálisan új művek millióinak lehetőségét hordja magában.

Az ily módon is bővülő információtömeg és az információk kapcsolati rendszerének kezelése kezdettől fogva a legfontosabb alapkérdések közé tartozott. Hiszen a rendszerben meglévő, de nem fellelhető információ egyenértékű a nem létező információval.

Az egyik elsődleges cél ennek megfelelően mindenkor az adatok, szövegek, információk exponenciálisan bővülő tárházából való visszakereshetőség megteremtése, valamint ezek újraszervezésének lehetővé tétele volt.

Ahogy Bush írja 1945-ös cikkében:[4]

„A probléma, úgy tűnik, még csak nem is az, hogy rosszul publikálunk, terjedelemben és témában a mindennapi érdekeket szem előtt tartva, hanem az, hogy a publikálás messze meghaladja azt a mértéket, amit képesek lennénk feldolgozni. Hihetetlen sebességgel gyarapodnak az ismereteink, de a fonál, mellyel a minket érdeklő információt keressük az így keletkezett labirintusban, a keresztvitorlázatú hajók óta nem változott.”

Az eleve digitálisan keletkező dokumentumok és az informatikai korszakra való áttéréssel kibontakozó „archiválási düh” újabb hatványra emelte ezt a problémát. A rögzítés és feldolgozás mellett egyre égetőbb szükséggé vált a rendszerezésnek, visszakereshetőségnek és csoportképezésnek a virtuális közegre szabott hatékony megoldása. Mindez az egyes rendszereken belül is nagy kihívással járt, az egymással kommunikálni képes számítógépek világméretű hálózatba kötése pedig újabb megoldandó problémákat hozott magával.

Nem véletlen, hogy az egyik legdinamikusabban fejlődő IT-vállalat éppen egy internetes kereséssel foglalkozó, a lassanként a web szinonimájaként megjelenő cég, a Google lett, amely elsőként volt képes a nagy tömegű adathalmazhoz relevancia-szempontú értékelést rendelni, és ezáltal érezhetően növelni az általános célú keresés hatékonyságát (az alkalmazott logika szerint minél többen hivatkoznak egy adott oldalra, az ott található adatok feltehetően annál nagyobb relevanciaértékkel fognak rendelkezni).

Mindez azonban részmegoldást jelent, lévén ez a típusú keresési metódus jelenleg nem lép túl a karakteregyezés módszerén (figyelmen kívül hagyva a szemantikai értéket), ráadásul a Google-hoz hasonló keresőrobotok csupán a web 15–20%-át képesek bejárni és indexelni (az úgynevezett surface webet), és éppen a világhálón található adatok rendszerezett, jó minőségű adatbázisba szervezett halmaza marad ilyen-olyan, technikai, illetve üzleti okból elzárva előlük. Mindemellett a feltárt tartalmak egymással nem összeköttetésben lévő, csupán parciális részinformációkat tartalmazó vegyes összetételű site-ok, melyek tudása, információtartalma nem adódik össze, nem hat egymásra, csupán egymás mellé rendelődnek egy találati listában.

A felszíni weben való keresés így sokkal inkább hasonlít a zavarosban halászáshoz, mint a rendszerezett tudásfeltáráshoz.

Ennek megfelelően az optimista, messianisztikus vagy zsurnaliszta megfogalmazások, melyek a webet összekapcsolt, együttműködő részek hatalmas tudástárához, afféle világagyhoz hasonlítják, egyelőre sokkal inkább egy vágyképet írnak le, mintsem egy működő gyakorlatot. A valóságban a world wide web jelenleg sokkal inkább hasonlít egy összegubancolt spárgagombócra, mint egy intelligens, tanulni, fejlődni képes neuronhálózatra.

Ahhoz, hogy tovább lehessen lépni az együttműködő, hatékonyabb hálózati felépítés irányába, azonosítani kell az ennek útjában álló akadályokat és megkeresni a lehetséges megoldásokat.


 Oldás és kötés – technikai problémák

Mint fentebb szó volt róla, a kapcsolatok megteremtésének gyakorlata döntően ma is a Vannevar Bush, Ted Nelson és Jakob Nielsen által leírt és vizsgált linkelés technikáján, az egyes hálózati csomópontok összekötésén alapul. Azonban már ennél az alapszintű kapcsolatnál is számos problémát találunk.

Az elsődleges problémát az okozza, hogy a jelenlegi gyakorlat valójában nem konkrét tartalmak, hanem URL-címek, hálózati hivatkozási helyek kapcsolatát valósítja meg, azaz nem közvetlenül a tartalmakra, hanem azok „tárolódobozaira” hivatkozik. Mindez számos problémát vet fel:

  • 1.) tartalomváltozás: megváltozhat az adott cím alatt található oldal tartalma, így módosulhat maga a kapcsolat értéke, jelentése is

  • 2.) törött link: megszűnhet vagy megváltozhat a hivatkozott cím, így törött link jön létre

  • 3.) hivatkozási pontosság: a hivatkozás technikája nem elég pontos, illetve egyértelmű, mivel hiányzik a hivatkozott címen belüli rámutatás, kijelölés, lévén általában hiányos, ill. nem megoldott egy weboldalakon belüli hivatkozási metódus

  • 4.) egyirányú kapcsolat: a link egyirányú kapcsolatot hoz létre, azaz csak A-ból B-be mutat, visszafelé általában nem követhető, azaz a legtöbb esetben B cím nem tudja, hogy A cím hivatkozik rá

  • 5.) 1:1 kapcsolat: alacsony a hozzárendelhető kapcsolatok száma, azaz egy link legtöbbször csak egyetlen kapcsolatot hoz létre (a csupán b-re képes mutatni, c-re és d-re már nem)

  • 6.) aszinkron metódusok terjedése: a teljes oldalletöltés logikájával szemben egyre növekszik az aszinkron lekérdezési metódusokon (pl. AJAX) alapuló site-ok száma, melyek adott esetben nem a teljes oldalt, hanem csak annak egy részét frissítik, ami nehézséget okoz a hivatkozásban, mert az így létrejövő állapotok nem kapnak külön URL-címet, így a hivatkozás is nehézkesebb rájuk
  • Ezenkívül előállhat a fenti esetek valamilyen kombinációja is (pl. megváltozik a hivatkozás címe és módosul a tartalom is). Hasonló problémák áttekintését nyújtja Andrew Pam cikke.[5]

    Ted Nelson a hálózaton található „szövegek” összességét docuverse-nek nevezi, a köztük, illetve részeik között lévő kapcsolatot pedig a transclusion fogalmával írja le. Az eredetileg kitűzött cél az volt, hogy bármely szöveg és annak bármely részlete közvetlenül kapcsolatba hozható legyen egymással. A világhálón alkalmazott jelenlegi technikák a fenti problémák miatt ezt csak korlátozottan teljesítik.

    Ezen problémák megoldására különféle kezdeményezéseket dolgoztak ki, ezek általános használata azonban még nem jellemző.

    A tartalomváltozás és törött linkek problémájára az olyan regisztrációs és hálózati archiváló rendszerek próbálnak választ adni, mint pl. az Internet Archive, Wayback Machine, Pandora Archive, Webcite, Archive-It. Szintén a tartalomváltozás követésének problémáját állítják középpontba az olyan verziókövető megoldások is, mint amilyet pl. a Wikipédia használ a változások követésére. Ezek voltaképpen az egyes önálló dokumentumok különféle állapotának mentéseit archiválják, és egyesek egymással összevethetővé teszik az egyes változatokat is.

    Hasonló jelentőségű és természetű probléma az adatbázis-szintű archiválás, amelynek céljára olyan eszközök állnak rendelkezésre, mint a DeeArc vagy a Xinq, melyek képesek az adatbázis tartalmat és struktúrát egyaránt archiválni.

    Mindezen megoldásokat jelenleg igen kevés helyen alkalmazzák, Ugyanakkor jól jelzik azt a törekvést és igényt, hogy mielőbb megoldást kell találni a rendszer gyenge pontjaira.


     Szemi-szemantikus web

    Mivel a hivatkozott hálózati címek önmagukban jellemzően nem rendelkeznek tartalommal és jelentéssel, ezért a magasabb szintű adatintegrációhoz olyan irányba kell továbblépni, mely nem csupán címek, hanem konkrét adatok között képes kapcsolat létrehozására, és magukat az adatokat teszi képessé arra, hogy reagáljanak a környezetükben található más, szintén interakcióra képes adatokkal.

    Ezt leginkább úgy érhetjük el, ha az egyes adatokat a tulajdonságaikat leíró metaadatokkal és esetlegesen a kapcsolódásukat elősegítő programlogikával látjuk el. Ennek segítségével olyan „okos” adatot hozhatunk létre, amely immár nem csupán egy karaktersorozatot képvisel, hanem a hozzákapcsolt értékeknek és képességeknek köszönhetően szemantikai jelentést is hordoz, valamint a megfelelő feltételek megléte esetén kapcsolatba tud lépni környezete hasonlóan felkészített adataival és alkalmazásaival. Ilyen adatcsomagok létrehozását tűzte ki például célnak a microformats kezdeményezés.

    Ahhoz, hogy az ilyen adatszintű kapcsolat létrejöhessen, az összetevőknek azonos nyelvet kell beszélniük úgy a program, mint a fogalmi reprezentáció szintjén. A szemantikus, azaz jelentés alapú web kezdeményezése mögött az ilyen általános és a résztvevők által közösen használt logikai szerkezet és azt kezelni képes programkörnyezet kifejlesztésének szándéka áll (lásd a W3C által kidolgozott szabványt).

    Bár az általános szakértői vélekedések szerint a szemantikus web jelenti a világháló jövőjét, a struktúra és alkalmazásának bonyolultsága jelenleg még ellentétben áll a tömeges használat által sikeressé vált világháló egyszerű és könnyen implementálható megoldásokat preferáló működésmódjával. Valójában persze egy magas szinten megvalósított szemantikus alkalmazás egyszerűbben lenne kezelhető, hiszen könnyebb feltenni egy élőnyelven megfogalmazott kérdést és arra elolvasni vagy meghallgatni az élőnyelven érkező választ, mint kulcsszavakkal, relációkkal és válaszként érkező csalamádészerű linktömeggel bíbelődni. A természetes nyelv és a kognitív sémák komplexitása miatt azonban mindez egyelőre csak alacsony hatásfokú kísérleti fázisban található meg egyes kísérleti alkalmazásokban.

    A kérdés jelenleg az, hogy a rendelkezésre álló eszközök segítségével mi az, amit mégis el lehet érni, ami által eredményesebb és hatékonyabb rendszereket tudunk létrehozni, mint az egyszerű karakteregyezésen alapuló keresés.

    Az egyik lehetséges irány és egyben alapvető megoldandó probléma az egyes entitások meghatározása és azonosítása. A humán tudományokban alkalmazott tulajdonnevek és köznevek ilyen gyűjteményei például az authority file-okba és tezauruszokba rendezett adatok. Ezek segítségével elvileg egyértelműen azonosíthatóak az olyan különböző entitások, mint pl. a személyek, intézmények, földrajzi helyek, fogalmak stb. A különböző helyeken alkalmazott, de azonos entitásra hivatkozó elemek (pl. ugyanahhoz a személyhez tartozó különböző névváltozatok) megteremtik annak lehetőségét, hogy a felhasználó akkor is megtalálhassa a keresett entitásokat és feltárhassa kapcsolatukat, ha nem áll fenn a karakteregyezés feltétele, illetve elkülönítse azokat a megegyező alakú találatokat (homonimák), amelyek nem az adott entitáshoz kapcsolódnak (pl. az ugyanazon a néven működő, de különböző személyeket takaró Kovács Istvánok esete).

    Az azonosítás, keresés és csoportképzés szűkebb vagy tágabb lehetőségeit az entitásokhoz rendezetten kapcsolt attribútumoknak (pl. hogy Kovács János 1969-ben született, foglalkozása író stb.) és az entitások egymás közötti kapcsolatrendszerének (pl. Budapest település Magyarország államhoz tartozik) rögzítése, leírása teremti meg. Ezek segítségével létrehozható pl. az írók csoportja, vagy leválogathatóak Magyarország települései.

    Természetesen ez a rendszer akkor használható széleskörűen, ha ugyanazokat az egyértelműen azonosított entitásokat minél több hálózati hely használja és képes értelmezni, így site-okon átívelő kapcsolatok hozhatók létre, és pontosabb kereséseket lehet végrehajtani. Bár több kísérlet is célul tűzte ennek megvalósítását, inkább lokális eredményekről beszélhetünk, mintsem általánosan elterjedt és közösen használt gyakorlatról.


     Infobörtönök és adatszigetek

    Az utóbbi egy-két évtized egyik legmarkánsabb változása a tudásmonopóliumok demokratizálódása, az információhoz való hozzáférés rendszerének gyökeres átalakulása volt. Mindez, hasonlóan a reformáció közvetlen információközvetítésre alapozó programjához, a hierarchikus, intézményi modell helyébe a nyílt, együttműködő közösségi struktúrák megerősödését hozta magával.

    Az analitikus szemléletű, objektív tudásra törekedő modernitás egyik legkifejezőbb eszköze a számítógép, de az azok összekapcsolásával kialakított világméretű hálózat társadalmi szinten ironikus módon éppen a bizonytalanság és szubjektivitás tartományait tárta fel és sokszorozta meg. Mindez azonban nem gátolta, éppen ellenkezőleg: serkentette fejlődését és növekedését. Az intézmények a tudás birtokosai, kinyilatkoztatói, előíró és korlátozó felügyelői helyett az egyéni megközelítésekhez eszközöket és szempontokat szolgáltató közvetítői lettek (vagy azzá kellett volna lenniük).

    Ahhoz, hogy ezen nyitott, sokszínű, mellérendelések hálózatára építő, új következtetések levonására alkalmas megközelítésmód megjelenhessen a hálózatot használók számára, olyan eszközkészletre van szükség, amely

  • azonosíthatóvá, szabadon elérhetővé és újraszervezhetővé teszi az egyes webhelyeken található információkat

  • lehetővé teszi az adatimportot és -exportot, képes a formátumok közti konverzióra

  • hordozható és platformfüggetlen

  • lehetővé teszi az ugyanarra témára, tárgyra vonatkozó állítások összevetését

  • hivatkozhatóvá teszi az újonnan létrehozott adatkapcsolatok eredményét, származtatott értékét
  • Magyarországon jelenleg több intézmény is készít gyűjteményének rendszerezéséhez authority fájlokat a személyekről, földrajzi helyekről stb., ezek azonban általában nem elérhetőek egymás és a széles közönség számára, és így természetesen integráló funkciót sem töltenek be. Közösen használt infotéglák és általánosan elfogadott rendezőelvek nélkül nem építhető fel bonyolultabb struktúra. Az adatokat saját alkalmazásuk kereteibe záró kezdeményezések éppen azon hálózati hatás pozitív lehetőségeiből zárják ki felhasználóikat és saját rendszerüket, amely az internet lényegét, az egyes összetevők között létrehozható kapcsolatok többletét adja.

    Nyilvánvalóan adódik a következtetés: amennyiben a frázisokon túl is szeretnénk tenni az együttműködésért, úgy meg kell kezdeni a névterek kölcsönös haszonnal járó megnyitását, nyilvánossá tételét, egyesítését, összefésülését.

    Az adatvisszatartás és elszigetelés gyakorlata több tényezőre vezethető vissza, ezek közül a legfontosabbak a technikai korlátok, az üzleti érdekek, valamint az intézményi szempontok.


     Technikai korlátok

    A legfontosabb technikai korlátok közé az inkompatibilitási problémák tartoznak. Ezek fakadhatnak az eltérő programnyelvek, leírási, rögzítési, szabványosítási metódusok alkalmazásából. Magyarországon is több könyvtári rendszer működik (Szikla, Huntéka, Tinlib stb.), amelyek saját felhasználóikat közös rendszerbe szervezik ugyan, de más rendszerek felé már nem feltétlenül teremtenek kapcsolatot. Így természetesen ugyanazokat az adatokat az egyes rendszerekben párhuzamosan, többszörös redundanciával rögzítik, ami közösen használható rendszerek esetében megspórolható lenne.

    Ez a gyakorlat természetesen már átlóg az üzleti megfontolások területére is, hiszen konverziós modulok és kölcsönös adatcsere megállapodások keretében e problémák jó része áthidalható lenne, kérdés azonban, hogy mindez nem ütközik-e a fejlesztő cégek üzleti érdekeivel. Azt sem szabad figyelmen kívül hagyni, hogy a sokféleség elősegíti a versenyt és a fejlődést, azonban egy közös csereformátum (pl. HUNMARC) és így az átjárhatóság biztosítása elvárható lenne az egyes rendszerek üzemeltetőitől.

    A különböző szoftveres platformok, adatbázis-kezelői rendszerek eltéréséből adódó inkompatibilitások áthidalására valószínűleg szintén átfogó programot lenne érdemes indítani, amely megteremthetné a kölcsönös átjárhatóságot lehetővé tevő eszközkészletet, ami így csökkenthetné a hazai gyakorlat fragmentáltságát és heterogenitását.

    Mint fentebb szó volt róla, az adatbázisok keresőrobotok által nem feltérképezhető adatai szintén olyan adatszigeteket hoznak létre, amelyek nem megközelíthetőek az általános keresők felől. Webservice vagy egyéb kifelé mutató lekérdezési metódusok híján így sok esetben csupán közvetlenül az alkalmazásnak otthont adó hálózati helyről kiindulva lekérhetőek az ily módon adatbázisban tárolt információk.


     Üzleti érdekek

    Gyakran nem a technikai nehézségek, hanem az üzleti megfontolások állnak az integráció útjába. Sokszor éppen a legjobban rendezett és karbantartott adatbázisok és archívumok azok, amelyek nem vesznek részt a szabadon elérhető (és így szabadon kereshető, indexelhető, hivatkozható) hálózati tartalomban. Az előfizetés fejében megtekinthető tartalmak így afféle dollárszűrő mögött helyezkednek el, kizárva az itt található információkat a szabad információs kapcsolati hálóból, és ezáltal természetesen ezen adatok újrafelhasználhatósága is erősen korlátozott jellegű lesz. Egyes site-ok üzleti modellje éppen az adatok beépíthetőségének fizetős gyakorlatára épül, a felhasználás azonban természetesen ekkor is gyakran megakad az első lépcsőnél, hiszen a fizetett adatelérést alkalmazó site-ról nem feltétlenül vihetőek tovább szabadon az adatok.

    Az információ természetesen érték, és az üzleti élet természetes következménye, hogy számos vállalkozás az online elérhető és felhasználható digitális adatok kereskedelmével tesz szert jövedelemre. Figyelembe kell venni azonban azt is, hogy az ilyen módon korlátozott adatok éppen ezen restrikciók miatt sokkal kisebb túlélési eséllyel vesznek részt a hálózati kommunikációban. Mondhatjuk úgy is: az így terjedő informatikai mémek túlélési esélyei alacsonyabbak az ingyenes csatornákon terjedő riválisaiknál: tanulságos például a fizetős hír- és portál-szolgáltatások csődje, vagy a fizetős modellekkel szemben az ingyenes földrajzi alkalmazással megjelenő Google Maps sikere.

    Mindenestre fontos tapasztalat, hogy a hálózaton nem feltétlen az adat a fő bevételi forrás, hanem a hozzákapcsolt funkciók, pl. a Google-t naggyá tevő kontextusfüggő és célzott reklám. Kérdés, hogy a felhasználók dollárszűrővel való kizárása nem csökkenti-e inkább a siker lehetőségét; igaz, van számos olyan modell is, amely éppen a reklámmentes megjelenésért cserébe szed pénzt a felhasználóktól, akik így választhatnak a kétféle megközelítésmód közül.


     Intézményi, kultúrpolitikai szempontok

    Magyarországon gyakori (bár a régióban nem egyedi) jelenség, hogy noha elvileg nem lenne technikai akadálya (ráadásul az üzleti szempont is legtöbbször inkább ürügy, mint valóságos hivatkozási alap), a közpénzből fenntartott, közérdeklődésre számot tartó adatokat gyűjtő állami intézmények nem teszik nyilvánosan elérhetővé az általuk felhalmozott adatkincset. Így az a különös helyzet áll elő, hogy bár az állampolgárok adójukkal kifizetik ezen adatok előállítását, a munka gyümölcséhez mégsem juthatnak hozzá, azokat az egyes intézmények mintegy „családi ezüstként” őrzik.

    Mindennek természetesen rendkívül szerteágazó társadalmi, szociológiai, adminisztrációs, jogi, kultúrpolitikai okai vannak. Kétségtelen azonban, hogy az intézmények által gyűjtött és összeállított adatbázisok és archívumok gyakorta lobbyharcok tétjei, tárgyai és eszközei. Mindehhez egyik oldalról épp úgy hozzátartozik, hogy az egyes intézmények gyakran saját legitimációjuk biztosítására, mintegy túszként őrzik az adatokat, mint az, amikor az állam a saját bevételszerzés előírásával áttételesen mintegy preszszionálja őket a közpénzből gyűjtött információk ilyen jellegű hasznosítására.

    A cél mindenképpen egy alapelveket, célokat és eszközöket tisztázó szakmai, kultúrpolitikai vita és egyeztetés lefolytatása lenne, amely megszüntetné a közérdekű adatfelhasználás körüli anomáliákat és egyértelmű, tiszta helyzetet teremtene minden résztvevő számára.


     Hova? Tovább! Hyperdata

    A fentiek alapján a legfontosabb és legizgalmasabb előrelépés az információk olyan kapcsolati hálójának és szabad elérhetőségének megteremtése, amely kiaknázza az internet adta lehetőségeket és lehetőség szerint kiküszöböli a veszélyeket.

    Ehhez minimálisan az alábbiakra van szükség:

  • a bizonytalan URL-alapú hivatkozás helyett közvetlen adatszintű azonosítás és hivatkozhatóság

  • a különböző forrásból származó adatok remixelhetősége, új struktúrába való újraszervezhetősége

  • az akadálytalan adatcsere és -konverzió, valamint a jövőbeni felhasználás és konvertálhatóság érdekében zárt helyett (pl. netre feltöltött Word dokumentumok) nyílt szabványok (pl. xml) alkalmazása

  • az időtállóság érdekében a fontos adatok hosszú távú megőrzésének biztosítása, melyhez hozzátartozik az adatokat kezelni és megjeleníteni képes futtatókörnyezet is

  • különösen a közérdekű és közintézmények által előállított adatok esetében nagy hangsúlyt kell fektetni a hozzáférhetőségre, és lehetőség szerint az adatok minél nagyobb arányát kell bevonni a szabad információcserébe (pl. a Creative Commons vagy hasonló licencelési lehetőségek felhasználásával).
  • Az információ és tudásszervezés új struktúrái most formálódnak a virtuális terekben, és jelenleg nehéz megmondani, mely megoldások jelentik majd az „új könyv”, az új információgalaxis alapjait. Ami egyértelműen megfigyelhető, hogy termékeny kapcsolat látszik kialakulni az individuális részvétel lehetősége és a közösségi kezdeményezések között, és egyre inkább körvonalazódik az igény a linkelés technikáján túlmutató integrációra. A különálló tudásbázisok összekapcsolásának technikái fokról-fokra finomodnak, legyen szó közösségi, kollaboratív munkára alapozó site-okról (pl. a különböző nyilvánosan szerkeszthető wikik) vagy az egyes alkalmazások adatait egymásra vetítő és összekapcsoló mashupokról.

    Bár jelenleg a hálózaton fellelhető különböző technikai megvalósítással, eltérő színvonallal bíró oldalak sokkal inkább emlékeztetnek egy kusza információs adatkazalra, mint egy organikusan fejlődő világagyra, a hálózati információ és tudásszervezés evolúciója még csak most kezdődött el, kimenete jelenleg megjósolhatatlan. A jövő éppúgy elhozhatja a kizárólag üzleti szempontoknak alárendelt, kisajátított korporatív tudásmonopóliumok világát, mint egy eleven és kreatív, szabad kapcsolatokra épülő infoverzumot, a szellem új otthonát.[6]



       JEGYZETEK

    [1] Horváth Iván használja a kifejezést a hálózati dokumentumra: Horváth Iván, Magyarok Bábelben, JATEPress, Szeged, 2000 = Ua., Gépeskönyv, Bp., 2000 (http://magyar-irodalom.elte.hu/babel/2520.htm).

    [2] Vannevar Bush, As We May Think, The Atlantic Monthly, 1945/7.

    [3] Ted Nelson, Literary Machine, Swarthmore, 1981.

    [4] Az idézet forrása: Vannevar Bush, Út az új gondolkodás felé (Ahogy gondolkodhatnánk) = Hyper text + multi média, a szövegeket válogatta, az előszót és az utószót írta, valamint a kronológiát és a jegyzeteket összeállította Sugár János, a szövegeket fordította: Ivacs Ágnes és Bartha Gabriella, oktatási segédanyag, megjelent az Artpool Füzetek sorozatban (Artpool, Budapest, 1996, második javított kiadás: 1998), felelős szerkesztő Klaniczay Júlia (http://www.artpool.hu/hypermedia/bush.html).

    [5] Adrew Pam, Where World Wide Web Went Wrong (http://xanadu.com.au/xanadu/6w-paper.html).

    [6] Köszönöm Horváth Viktornak a jegyzetek összeállításához nyújtott segítségét.


       HIVATKOZÁSOK

    1. Vannevar BUSH, As We May Think, The Atlantic Monthly, 1945/7.

    2. Vannevar BUSH, Út az új gondolkodás felé (Ahogy gondolkodhatnánk) = Hyper text + multi média, a szövegeket válogatta, az előszót és az utószót írta, valamint a kronológiát és a jegyzeteket összeállította SUGáR János, a szövegeket fordította: IVACS Ágnes és BARTHA Gabriella, oktatási segédanyag, megjelent az Artpool Füzetek sorozatban (Artpool, Budapest, 1996, második javított kiadás: 1998), felelős szerkesztő KLANICZAY Júlia (http://www.artpool.hu/hypermedia/bush.html).

    3. Ted NELSON, Literary Machine, Swarthmore, 1981.

    4. HORVÁTH Iván, Magyarok Bábelben, JATEPress, Szeged, 2000 = Ua., Gépeskönyv, Bp., 2000 (http://magyar-irodalom.elte.hu/babel/2520.htm).

    5. Adrew PAM, Where World Wide Web Went Wrong (http://xanadu.com.au/xanadu/6w-paper.html)

    6. http://www.archive-it.org/

    7. http://www.archive.org/index.php

    8. http://www.archive.org/web/web.php

    9. http://www.hunteka.hu/

    10. http://maps.google.com/

    11. http://microformats.org/

    12. http://pandora.nla.gov.au/

    13. http://www.szikla.net/hun/index.php

    14. http://www.tinlib.hu/

    15. http://www.webcitation.org/



    Utolsó frissítés: 2008. 06. 03.

    © A Szerzők, 2007–2008
    © Bibliopolisz, 2007–2008
    Minden jog fenntartva!
    All rights reserved!
    ISBN 978-963-87640-1-0 (online verzió)