The Past and Futures of Scholarly Internet

Dr T. Matthew Ciolek,
Research School of Pacific and Asian Studies,
Australian National University, Canberra ACT 0200, Australia


Dr Susan Whitfield,
International Dunhuang Project (IDP),
British Library, London, UK

Document created: 19 Sep 2000. Last revised: 23 Oct 2000

[NOTE: The following two articles, totalling approx. 21,000 characters, were commissioned by the Science & Technology section of a daily "Rzeczpospolita" ("The Republic") (, Warsaw, Poland. Both articles, appeared in print, in Polish, on page 4 of the newspaper on 19 Oct 2000.]


"Futures and Non-futures for Scholarly Internet" by
T.Matthew Ciolek

Dr T.Matthew Ciolek, social scientist and knowledge architect, is the editor of the Asian Studies WWW Monitor (, Research School of Pacific and Asian Studies, The Australian National University, Canberra, Australia.

"Futures and Non-futures for Scholarly Internet"

Since its beginnings in 1969, the Internet's history has shown that it is a continuously evolving system of three layers. Firstly, there is digital information itself in the shape of data, theoretical models and interpretations. Secondly, there are protocols for storage, finding, acquisition, transmission, processing, and display of such digital information. Thirdly, there is a densely knitted infrastructure (communications, hardware, software) for such protocols. The Internet's ongoing change is a structural feature. The endless evolution of the system is fuelled by ever new opportunities and ever new technological and commercial vistas. These prospects are created by millions of piecemeal improvements made to the Net every day by its navigators and designers. The process of ceaseless transformation of the Net is both 'substantive' and 'procedural' in its character. It means that the process of incremental evolution operates both at the level of the already mentioned layers of the Net, and the level of rules controlling the deployment and interaction of the information, protocols and infrastructure. In short, the Internet is a complex and restless system. As such it continuously revises, mimics, cannibalises and metamorphoses not only its digital 'vocabulary' and 'expressions', but its 'grammar' as well.

The Internet is a contemporary of the Jumbo-jet (Boeing 747) and of the first landing on the Moon (Apollo 11). The 31 years of its existence have been marked by a long series of brilliant software and methodological innovations that have defined, each time afresh, the scope and content of online socialising, entertainment, electronic commerce, business-to-business transactions, directory services, as well as electronic publications and scholarly interaction.

Together these programming developments form six major thematic clusters, each representing a distinct stage in the Internet's evolution:

Taken together, these six stages in the Internet's history can be seen to form a matrix of basic issues and of particular manners of addressing them:
Table 1 
Aspects of main past and future phases of the Internet
Functionality/Tools	     TEL  FTP  WAIS GOPH WWW1  WWW2  WWW3
Richness of functions        no   no   no   no   yes   yes   yes 
Add-on local processing      no   no   no   no   no    yes   yes
Access to the source code    no   no   no   yes  yes   yes   ?
Hypertext (external) 	     no   no   yes  yes  yes   yes   yes
Hypertext (embedded)	     no   no   no   no   yes   yes   yes
Bi-directional hypertext     no   no   no   no   no    no    yes
Dynamic (on-the-fly) pages   yes  no   yes  no   no    yes   yes
Interactivity		     yes  no   yes  no   no    yes   yes
Backward compatability       -    no   no   yes  yes   yes   no
User controlled display      no   no   no    no   yes   yes  yes 
Integration of many inputs   no   no   yes   no   no    ?    yes
Metaphor for the interface*  QB   LI   QB    LI   SW    SW   MA
Ease of e-publication        no   no   no   no   yes   no    no 
Use of multimedia 	     no   no   no   no   yes   yes   yes
Content inputed by readers   no   no   no   no   yes   yes   yes
Structured content	     yes  no   no   no   no    no    yes 
Main usage**	     	     Dat  Int  Dat  Int  Int   Int  Dat/Mod/Int
Directory services***        CL   CL   CL    SE  CL/SE SE    SE 
Meta-data support            yes  no   yes   no  no    yes   yes

*   Main Metaphors:   	      Query Box, List of Options, Switchboard, Map 
**  Main uses:                Data, Models,Interpretations, 
*** Main directory services:  Clearinghouse, Search Engine

Clearly, the changes in the Internet are not a matter of a simple progress. For instance, online databases accessible in the early 1990s were findable chiefly via slow to produce, manually compiled catalogues and registers (i.e. clearinghouses) of resources. However, they made good use of metadata descriptors and served information in the shape of well organised data. The Gopher-era information was findable via automatically compiled search engines. Yet, it was placed online without any thought for metadata annotations. Also, it consisted chiefly of documents concerned with extensive, if not garrulous, interpretations and discussions.

Table 1 also shows that whereas a query-box approach was employed in the context of Telnet-based databases and the WAIS archipelago; information retrieval during the FTP and Gopher stages of the Internet relied on lists enumerating the range of possible choices. By contrast, the browser software available during the stages WWW1 and WWW2 tended to mimic a switchboard, that is a space filled with series of hypertext links in various parts of an online document. These links were augmented by clickable buttons, each in turn leading to another place on the Web. Finally, Table 1 points out that while the hypertext linkages was already known to the Internauts of the WAIS period, such links were external to the documents they led to. The WWW resources, on the other hand, were able to establish both external and internal links. This means that in the two WWW eras, the hypertext links could not only point to a body of networked information but also point out of it and take the reader to tens and hundreds of other online locations.

The matrix offered by Table 1 is also interesting because it contains hints and intimations with regard to the nature of software and methods of use which we might find on the Internet in the near future.

It is already more than nine years since the incipient WWW technology was launched. That technology, announced in May 1991, combined a generalised data access protocol (thus bringing under a single WWW umbrella all earlier Telnet, FTP and Gopher technologies). It married that protocol with a simple HTML language for document formatting and for creation of mono-directional hypertext connections to the planetary archipelago of resources. Also, it is already seven years since the release of Mosaic, the first browser which provided ready access not only to text- and image-based information, but also, very importantly, to the HTML source-code for all retrieved documents. Due to that feature, all worthwhile (and not so worthwhile) WWW solutions could easily be studied, copied, and creatively modified. From now on information could be placed online by people with no programming skills. However, nine, or even seven years on the Net is a very long time indeed. A new generation of networked technology for the publishing of digital information and for its retrieval and manipulation is bound to be announced any moment now.

So, what would be the most likely features of such brand-new technology? Of course, we are assuming the continuing global spread of inexpensive and reliable infrastructure, as well as the continuing availability of high transmission speeds. Table 1 suggests some of the answers. The new technology is certain to re-use many of the solutions already provided by the WWW1 and WWW2 eras of the Net. Hence, it can be dubbed 'WWW3.'

For instance, the WWW3 will continue to rely on the client-server principle of the division of labour. There will be, however, some major differences too. Firstly, all information served by the WWW3 technology will be most likely precisely controlled, organised and annotated. It will use specialised and carefully crafted XML-conformant tagging schemes in terms of the documents' detailed and intricate semantic content; relationships to multiple geographical, chronological and conceptual contexts; overall logical architecture; and formatting. The latter will be both intelligent and flexible, and will allow an easy use of a variety of printers and display systems. Secondly, the WWW3 will be likely to involve an interface reminiscent of a colourful map or three-dimensional data-space. Such futuristic interfaces will identify, interrelate, annotate and, finally, display large volumes of heterogeneous and often multimedia materials. These will be represented either as existing real-world simulations (e.g. maps of countries and cities, geological strata, structures of organisms and so forth) or a purely conceptual constructs (e.g. history timelines, genealogical trees of ideas, or imaginary landscapes with mountains and valleys fashioned from information assembled in response to a particular query). Finally, the WWW3 technology will be able to access, but not process, the content of earlier online documents. In other words, the new technology will be, essentially, incompatible with the products of previous technologies.

This will be an ominous development. It would suggest that the original division between highly trained publishers and cataloguers of scholarly information and the untrained masses of information consumers, a division made in the worlds of Telnet, FTP, WAIS and Gopher, and one which temporarily disappeared with the advent of simple but ultimately messy WWW1, will be re-established. This also means an advent of the newest digital divide, as far as the networked world goes. The emergent archipelago of reliable and immensely useful networked edifices of clarity, logic, thought and ingenuity, will operate side-by-side with an ever-expanding network of digital slums, that is, systems which will continue to observe the WWW1 tradition of inexpensive, easy to construct but dumb, chaotic and 'anything-goes' technology.

This scenario harbours strife. For the last 3000 years researchers have not had to worry whether their writings have been essentially compatible with the format and logic of other scholarly materials. They all shared the same assumption that the real information processing would occur in the mind of a reader. Thus, during the last few years, the scholarly world has embraced the Internet as a simple extension of that easy going, reassuring philosophy. Many thousands of FTP, Gopher, WAIS, WWW1 and WWW2 information repositories and servers have been constructed in the wholehearted belief that researchers and teachers will be able to continue their activities as before, only this time more easily, more quickly and less expensively.

Now, the impending advent of WWW3 technologies is about to explode this cosy assumption. The Internet, driven by the needs of e-commerce and business, is about to create the means for automatic recognition and analyses of vast arrays of nuggets of individually addressable, networked data and commentaries. Researcher's well trained and disciplined mind is no longer the sole tool for processing of factual and contextual information. It is no longer indispensable for discovery of formally correct relationships and inferences between chunks of online data. The uses of such mind will be now increasingly often replaced by tireless and speedy operations of devilishly clever, and WWW3-centered automatons.

Can the scholarly world, hitherto a temple of reason and an inimitable font of expertise in processing complex sets of information, afford to be overtaken by the world of mere business? Will science agree to such demotion? Will the scholarly world manage to raise the money to undertake yet another costly, lengthy and painstaking re-organisation of its electronic resources so that they can too join the brave new world of the WWW3 populated by online banks, insurance companies, and airlines? Or will they resign themselves to operate as a part of an aging info-slum?

The prognosis is, at the moment, not clear.
"Enjoy It While it Lasts: A Brief Golden Age of Freedom of Scholarly Information?"
by Susan Whitfield

Dr Susan Whitfield, sinologist and historian, is the head of the International Dunhuang Project (, British Library, London, UK.

"Enjoy It While it Lasts: A Brief Golden Age of Freedom of Scholarly Information?"

New technologies have always divided communities: the Internet is no exception. In the mid-1990s as it finally entered most scholarly institutions and became genuinely accessible to all, some scholars immediately mounted home pages, published electronic articles and sought funds for online projects. Others, in contrast, refused to have anything to do with it, speaking in tones of doom and gloom of the instability of digital data and other unsurmountable problems. This was always capped with a heart-rending story of some poor researcher who had attempted - unsuccessfully - to access the fruits of his youthful research.

Is this a simple parallel with the contrasting reactions to early industrial-revolution technology - the power loom - of capitalist manufacturers and working-class Luddities? Of course, it is not a straightforward economic matter, but scholars today are speaking in terms of the opportunities or threats that the Internet poses to their work in language reminiscent of our early 19th century forbears.

The Internet Luddites' primary argument is the instability of digital data. Yet no-one in the field claims that digitisation is a archival process and, dependent on rapidly changing technologies, it certainly requires intensive management. But Luddities who cite this as a fundamental flaw fail to understand that, first, it is not intrinsic to the technology and, secondly a solution will no doubt be found, driven, as Ciolek points out, by the needs of e-commerce and big business. In fact, it seems increasingly likely that institutions will take on the responsibility for managing and preserving digital data banks, just as copyright libraries currently manage and preserve printed material.

Whether the solution will be found in time or be inclusive enough for the vast banks of scholarly data already created is a matter of concern, but new technology inevitably results in some casualities. The Luddites were not mistaken in believing that the invention of mechanised looms would marginalise their own skills. Similarly, those scholars who have memorised classical canons - millions of words - now find their once unique and hard-acquired skills - for example, to identify the source from a few words of fragmentary manuscript text - more or less redundant as the source texts are digitised. Anyone, using freely available and powerful search engines, can type in a few words and obtain a list of possible solutions. This is unfortunate for scholars who have spent years in the memorisation, but liberating for other scholars and scholarship in general.

Nor need it be the concern of individual scholars to address other, vital issues relating to digital research - such as how to evaluate digital research; how to adapt to the new working practices that digitisation projects entail; and how to cite digital data - these must be addressed by the scholarly community.

Solutions will be found because of demand for them. Technicians can provide tools, but they cannot, for example, to design a useful relational database for presenting scholarly information on ancient manuscripts. The design has to be a collaborative venture between those with technical expertise and those with expert knowledge of the material. At present, those in a university environment receive no credit for digital research, in contrast to dictionary, concordance or encyclopedia editing. Pascal's recognition of the nature of such work - 'Let no-one say that I have said nothing new; the arrangement of the subject is new' - also holds true for database design. As demand for such tools intensifies and occupies a greater number of scholars, an evaluation system will inevitably be constructed. The first signs of a dialogue are already appearing, in a number of disciplines, and especially in Buddhist Studies.

The collaborative nature of the work is less problematic: it is a model already commonplace in science. Database designers, programmers and inputters will receive joint credit just as do senior scientists - who conceive an experiment - and the post-docs and laboratory assistants who implement it.

Citing digital texts, open to constant revision or disappearance, will become routine as researchers compile metadata - hidden headers which provide information on the date of creation, date of each revision and authors - and as libraries and other bodies recognize their role as preservers of digital data as well as print and paper media.

The Internet has provided a genuine revolutionary leap in terms of access to information. It has confounded the censor and has enabled lone, unfashionable and eccentric voices to be heard. These are qualities which should be welcomed by the scholarly community. Yet this community is no different from others in tending towards a comfortable and exclusive conservativism, concerned, above all, to protect its members rights and to exclude those who threaten the community, either from within or without.

The history of academic censorship has not only seen restrictions imposed from outside. The community is, dismayingly, all too often complicit, with self-censorship not uncommon. Members who threaten the status quo are maginalised: there have been several high-profile cases in science in recents years, such as the controversy over the source of AIDS and the efficacy of homeopathy. It may be that the scientists involved are mistaken in their beliefs and that their methodology is indeed seriously flawed. But all too often the attack on them seems to be motivated by more than the search for scientific truth and has the feel of a mediaeval witch-hunt rather than rational criticism.

It is probably not conincidental that just as the Internet was offering scholars a revolution in the free expression and dissemination of ideas a new mood of scholarly possessiveness, and creeping commercialization - expressed through the concept of 'intellectual property rights'- also started to gain momentum. And this way danger lies. The past few years have already seen an increase in litigation by those claiming that others have stolen their ideas - whether these be songs, scientific theories or film treatments. This has been accompanied by an increasing drive to register exclusive ownership. And it is not only the ownership of ideas which has come under increasingly legal scrutiny in the last decade. Human genes, images of ordinary building and of major collections of artworks are all becoming subject to property laws. These developments are direct threats to the new scholarly freedoms offered by the Internet.

The jury is still out about which side will prevail. Will the Internet revolution continue to threaten those who wish, for whatever purpose, to control information? The scholarly community - for its own well-being if nothing else - ought to side with the revolutionaries, but its past history and inherent conservativism suggests that it may end up in a devil's alliance with business to ensure that ownership is restricted. If this alliance wins then the WWW1 and WWW2's aging info-slum may be the only remnant of a brief age of genuine freedom of information.

We should therefore enjoy it while it lasts.


(Translation by T.M. Ciolek)

Dr T. Maciej Ciolek, antropolog i informatyk, redaktor Asian Studies WWW Monitor (, Research School of Pacific and Asian Studies, The Australian National University, Canberra, Australia.

[A drastically abridged version of the text below was printed on 19 Oct 2000, p. 4, "Rzeczpospolita", Warsaw, Poland.]

"W obliczu info-ruder i balaganu"

Od samego poczatku w 1969 roku, historia Internetu wskazuje ze jest on trzywarstwowym, nieustannie ewoluujacym systemem. Pierwsza warstwe tworzy numeryczna informacja w postaci danych, teoretycznych modeli i interpretacji. Dalej ida protokoly dla magazynowania, znajdywania, pozyskania, transmisji, i wreszcie przetwarzania i prezentacji takowej informacji. Warstwa trzecia to gesto tkana infrastruktura (tj. telekomunikacja, sprzet i oprogramowanie) wprowadzajaca w zycie powyzsze protokoly. Strukturalna cecha Internetu jest jego ciagla przemiana . Nieustajaca ewolucja systemu jest napedzana coraz to wiekszymi jego mozliwosciami i coraz to nowszymi technicznymi i komercjalnymi perspektywami. Tworza sie one dzieki milionom fragmentarycznych poprawek ktore to nawigatorzy jak i budowniczy Internetu codziennie nanosza na Siec. Proces niekonczacych sie transformacji jest, w swej istocie zarowno merytorycznym, jak tez i proceduralnym. Oznacza to ze dotyczy on wszystkich trzech wymienionych warstw Internetu. Dziala on na poziomie regul co do sposobow ich uzywania, a takze co do form ich wzajemnego wspoldzialania. Innymi slowy, Internet jest zlozonym i niespokojnym systemem: Siec nieustannie rewiduje, nasladuje, kanibalizuje i przemienia nie tylko swoje numeryczne 'slownictwo' i 'sposoby wyrazen', ale takze i swoja 'gramatyke.'

Internet jest rowiesnikiem odrzutowca Boeing 747 (Jumbo-jet) i pierwszego ladowania na ksiezycu (Apollo 11). 31 lat jego zycia charakteryzuje sie dluga seria blyskotliwych innowacji w zakresie oprogramowania i metodologii. Kazdy z tych wynalazkow przedefiniowal - za kazdym razem na nowo - zasieg i tresc kontaktow miedzy jego uzytkownikami, formy internetowych rozrywek, e-handlu, tranzakcji z cyklu 'business-to-business', dostepu do elektronicznych adresow, jak rowniez e-publikacje i naukowe zastosowania Sieci.

Wszystkie te osiagniecia lacza sie w szesc grup tematycznych, kazda reprezentujaca odrebna faze w historii rozwoju Internetu.

Powyzsze szesc etapow historii Internetu stanowi razem matryce podstawowych problemow i konkretnych rozwiazan.
Tabela 1 
Aspekty glownych etapow Internetu
Uzytkowosc/Etap	     	    	TEL  FTP  WAIS GOPH WWW1  WWW2  WWW3
Bogactwo funkcji       	     	nie  nie  nie  nie  tak   tak   tak 
Dodatk.lokalne przetw. danych 	nie  nie  nie  nie  nie   tak   tak
Dostep do surowego kodu    	nie  nie  nie  tak  tak   tak   ?
Hipertekst (zewnetrzny)      	nie  nie  tak  tak  tak   tak   tak
Hipertekst (wbudowany)	     	nie  nie  nie  nie  tak   tak   tak
Dwukierunkowy hipertekst    	nie  nie  nie  nie  nie   nie   tak
Dynamicznie tworzone stronice  	tak  nie  tak  nie  nie   tak   tak
Interakcja z informacja	     	tak  nie  tak  nie  nie   tak   tak
Zgranie z dawna technologia      -   nie  nie  tak  tak   tak   nie
Zmienialny ksztalt informacji   nie  nie  nie  nie  tak   tak   tak 
Integracja wielu zrodel inf. 	nie  nie  tak  nie  nie   ?     tak
Metafora dla dostepu do inf.*   P-O  MEN  P-O  MEN  PRZ   PRZ   MAP
Latwosc e-publikowania       	nie  nie  nie  nie  tak   nie   nie
Uzycie multimediow 	     	nie  nie  nie  nie  tak   tak   tak
Czytelnik moze dodac tresc   	nie  nie  nie  nie  tak   tak   tak
Ustrukturyzowana tresc	     	tak  nie  nie  nie  nie   nie   tak 
Glowne zastosowania**	     	DAN  INT  DAN  INT  INT   INT   DAN/M/INT
Sposoby znajdywania***        	KA   KA   KA    WY  KA/WY WY    WY 
Wykorzystanie meta-danych       tak  nie  tak   nie  nie  tak   tak

*   Glowne metafory:   	        Pytanie-Odpowiedz, MENu, PRZelacznik, MAPa 
**  Glowne zastosowania:        DANe, Modele, INTerpretacje
*** Glowne metody:  		KAtalogi, WYszukiwarki

Nie ulega wiec watpliwosci, ze ewolucja Internetu nie jest sprawa prostego postepu. Na przyklad, bazy danych dostepne na sieci we wczesnych latach 1990-tych znajdywane byly przez czytelnikow za pomoca mozolnie bo recznie prowadzonych katalogow. Jednoczesnie, zasoby te zgrabnie stosowaly meta-dane, a takze dostarczaly czytelnikom logicznie zorganizowane zestawy faktow. Z drugiej strony, informacja z epoki Gopher byla lokalizowana za pomoca automatycznie dzialajacych wyszukiwarek. A jednak, takowe informacje magazynowano na Sieci bez uwzglednienia odpowiednich meta-danych. Co wiecej, taka informacja skladala sie glownie z dokumentow pelnych obszernych, a nawet rozgadanych interpretacji i komentarzy.

Tabela 1 ukazuje rowniez, ze technika typu Pytanie/Odpowiedz byla uzywana glownie w kontekscie baz danych typu Telnet i WAIS. Pokazuje ona takze ze zdobywanie informacji w Internetowych epokach FTP i Gopher polegalo na uzyciu roznego rodzaju menu z zakresami mozliwych selekcji. Droga kontrastu, przegladarki budowane w fazach WWW1 i WWW2, bazowaly na analogii do centrali telefonicznej, do przelacznika, to jest ekranu wypelnionego seria hipertekstowych linkow. Polaczenia te, wiodace do roznych obszarow Internetu, mogly lezec niemalze we wszystkich mozliwych czesciach ogladanego elektronicznego dokumentu. Tabela 1 wskazuje wreszcie ze aczkolwiek hipertekstowe linki znane juz byly Internautom z epoki WAIS, to podlaczenia te odbywaly sie zawsze na zewnatrz danego dokumentu. Takie rozwiazanie kontrastuje z technologia WWW1 i WWW2, gdzie linki moga byc tworzone zarowno wewnatrz jak i na zewnatrz elektronicznej stronicy. Tym sposobem w obydwu epokach WWW, hipertekstowe podlaczenia nie tylko zmierzaly do danego zasobu informacyjnego, ale rowniez wiodly z jego srodka do innych jego czesci, jak rowniez do dziesiatkow i setek zupelnie odrebnych miejsc na Internecie.

Matryca zebrana w postaci Tabeli 1 jest interesujaca rowniez i dlatego ze zawiera w sobie sugestie na temat oprogramowania i Internetowych rozwiazan z ktorymi mozemy sie spotkac juz w calkiem niedalekiej przyszlosci.

Od czasu wprowadzenie w zycie technologii WWW minelo wiecej nizli 9 lat. Technologia ta, opublikowana w maju 1991, reprezentowala uogolniony protokol dostepu do sieciowych materialow. Tym samym wlaczala pod wspolna egide WWW inne, wczesniejsze technologie takie jak Telnet, FTP i Gopher, aczkolwiek nie WAIS. Co wiecej, WWW wiazal ten protokol z prostym jezykiem HTML. Za jego pomoca mozna wiec bylo konstruowac elektroniczne dokumenty i tworzyc jednokierunkowe hipertekstowe polaczenia z wiekszoscia istniejacego globalnego archipelagu e-informacji. Takze, od czasu stworzenia Mozaiki minelo nie mniej niz 7 lat. Byla to pierwsza przegladarka czytajaca nie tylko materialy w postaci tekstu, i grafiki, ale rowniez - co jest niewzwykle istotne - dajaca dostep do samych bebechow jezyka HTML definiujacego kazda ze stron WWW. Dzieki temu niezwykle pozytecznemu pomyslowi mozna bylo do woli studiowac, kopiowc i tworczo modyfikowc wszystkie wartosciowe (a takze i niewartosciowe) hipertekstowe rozwiazania. Dlatego tez od tamtej pory informacja mogla byc publikowana na sieci nawet przez osoby, ktore nie mialy zadnego poprzedniego doswiadczenia w zakresie informatyki. Nie ulega jednak watpliwosci, ze na Internecie 9, a nawet 7 lat jest dlugim, ogromnie dlugim okresem czasu. Jest absolutnie oczywistym, ze nowa generacja Internetowej technologii moze byc ogloszona 'orbi et urbi' praktycznie kazdego teraz dnia.

Tak wiec, jakie sa prawdopodobne rysy takiej nieodwolalnie nadchodzacej technologii? Oczywiscie, zakladam tutaj ze niekosztowna i rzetelna infastruktura bedzie sie dalej rozpowszechniac na calym swiecie i ze blyskawicznie szybka komunikacja w dalszym ciagu bedzie osiagalna. Tabela 1 sugeruje niektore z mozliwych odpowiedzi. Zblizajaca sie technologia z pewnoscia wykorzysta szereg z rozwiazan znanych juz Internetowi z epoki WWW1 i WWW2, dlatego tez nazwiemy ja 'WWW3'. Na przyklad, WWW3 bedzie kontynuowac podzial pracy oparty na wykorzystaniu programow typu 'klient-serwer.' Bedzie zawierala w sobie, jednakze, podstawowe roznice. Po pierwsze, jest pewnym, ze informacja tworzona za pomoca technologii WWW3 bedzie precyzyjnie zorganizowana, oznakowana i kontrolowana. Wykorzysta ona specjalistyczne i starannie zaprojektowane systemy anotacji oparte na metodologii XML. Anotacje te wezma pod uwage szczegoly i semantyczne niuanse tresci danego dokumentu, jak takze jego zwiazki wzgledem mnogich geograficznych, czasowych i intelektualnych kontekstow. Wreszcie anotacje te zdefiniuja ogolna logiczna architekture dokumentu i jego konkretny fizyczny ksztalt. Ksztalt ten bedzie zarowno inteligentny jak tez i poddatny narozniejszym zmianom, umozliwiajac tym samym latwe uzycie takiego dokumentu w kontekscie najrozmaitych drukarek i przegladarek. Po drugie, WWW3 najprawdobniej uzyje przegladarki o ekranach przypominajacych kolorowa mape badz tez trojwymiarowa info-przestrzen. Takie futurologiczne ekrany beda mogly zidentyfikowac, skorelowac, opisac i wreszcie przeanalizowac i uksztaltowac wielkie ilosci wielorakich i czestokroc multimedialnych dokumentow. Takowe materialy beda pokazane albo jako reprezentacje i symulacje istniejacego swiata (n.p. mapy krajow i miast, warstwy geologiczne, anatomie organizmow, itd.), albo tez jako logiczne konstrukcje (n.p. diagramy wydarzen historycznych, drzewa genealogiczne pojec, czy tez fantastyczne krajobrazy wypelnione gorami i dolinami zbudowanymi z odpowiedzi pasujacych do danego zbioru pytan). Wreszcie technologia WWW3 bedzie w stanie przeczytac i wyswietlic na ekranie, aczkolwiek nie zanalizowac, zawartosc wczesniejszych internetowych publikacji. Innymi slowy, nowa technologia bedzie fundamentalnie niespojna i niekompatybilna z materialami stworzonymi w ramach poprzednich faz Internetu.

Jest to sytuacja niepokojaca. Sugeruje ona ze podstawowe rozroznienie miedzy solidnie wyszkolonymi redaktorami i wydawcami elektronicznej naukowej informacji a nieszkolonymi masami jej uzytkownikow - rozroznienie uksztaltowane w czasach Telnetu, FTP, WAIS i Gophera, i rozroznienie ktore chwilowo zaniklo w momencie nadejscia prostej lecz w istocie rzeczy balaganiarskiej technologii WWW1 - pojawi sie na nowo. Oznacza ono wprowadzenie do Internetu jeszcze jednej 'zelaznej kurtyny' czy tez 'digital divide.' Nadchodzacy archipelag rzetelnych i uzytecznych informatycznych konstrukcji bedzie bazowac na klarownosci, logice, i oryginalnej mysli. Jednakze bedzie on operowac obok wciaz rosnacego swiata numerycznych ruder, to jest systemow kontynuujacych tradycje WWW1 i WWW2, a wiec tradycje technologii taniej i latwej do zbudowania lecz jednoczesnie bucowatej i rozmamlanej.

Taki scenariusz wrozy naukowemu swiatu klopoty. Przez ostatnie 3000 lat naukowcy nie musieli sie martwic czy ich pisma sa podstawowo spojne z formatem i logika innych naukowych materialow. Zywili oni te same glebokie przeswiadczenie ze prawdziwe przetwarzanie informacji odbywa sie nie gdzie indziej jak w swiadomosci czytelnika. Dlatego tez w ciagu ostatnich kilku lat spolecznosc naukowa potraktowala Internet po prostu jako zbior narzedzi i zasobow bedacych w pelnej zgodzie z taka prosta i uspokajajaca wizja swiata. I z tego tez powodu wiele tysiecy elektronicznych zasobow zostalo energicznie skonstruowanych w oparciu o rozwiazania typu FTP, Gopher, WAIS, WWW1 oraz WWW2. Zbudowano je w szczerym przeswiadczeniu ze badacze i wykladowcy beda mogli kontynuowac swoja oboawiazki tak jak do tej pory, z ta jedynie roznica, ze beda mogli to czynic latwiej, szybciej i mniej kosztownie.

Niestety, przybycie technologii typu WWW3 nieublagalnie zniweczy taki sielski swiat. Internet napedzany wymogami e-handlu i biznesu, szykuje sie do stworzenia techniki i metodologii dla automatycznego rozpoznawania i analizy ogromnych ilosci informacji w ksztalcie individualnie adresowanych fragmentow surowych danych i zwiazanych z nimi notatek i komentarzy. Tym samym precyzyjnie ksztalcony i zdyscyplinowany umysl badacza przestaje byc jedynym mozliwym narzedziem do przetwarzania i interpretacji faktow. Nie bedzie on juz wiecej nieodzownym skladnikiem odkryc formalnie poprawnych zwiazkow (i implikacji) miedzy roznymi fragmentami elektronicznej informacji. Intelektualna expertyza coraz powszechniej bedzie zastepowana niezmordowanymi, szybkimi i diablo zdolnymi machinami nadchodzacego swiata WWW3.

Czy swiat nauki, odwieczna swiatynia mysli i niepowtarzalne zrodlo sposobow operowania skomplikowanymi zbiorami danych, pozwoli sobie na bycie przescignietym przez swiat zwyklego biznesu? Czy naukowcy zgodza sie na taka degradacje? Czy swiat nauki potrafi zdobyc sobie niezbedne fundusze na jeszcze jedna kosztowna, dlugotrwala i drobiazgowa regorganizacje wlasnych internetowych materialow po to by dolaczyc do nowego wspanialego swiata WWW3 pelnego bankow, firm ubezpieczeniowych i linii lotniczych? Czy tez naukowcy podadza sie tym razem i zgodza na internetowa dzialalnosc obejmujaca jedynie siec starzejacych sie info-ruder?

Prognoza, w chwili obecnej, nie jest jasna.

Dr Susan Whitfield, sinolog i historyk, dyrektor International Dunhuang Project (, British Library, London, UK.

[An abridged version of the text below was printed on 19 Oct 2000, p. 4, "Rzeczpospolita", Warsaw, Poland.]

"Informacja prawdziwie wolna"

Nowe technologie zawsze dzielily spolecznosci: Internet nie jest tu wyjatkiem. Poczawszy od polowy lat 1990-tych, kiedy to Internet wkroczyl w wiekszosc naukowych instytucji i stal sie naprawde powszechnie dostepnym, wielu z naukowcow natychmiast poczelo budowac wlasne stronice WWW, publikowac elektroniczne materialy i poszukiwac fundusze na elektroniczne projekty badawcze. Inni, dla odmiany, odmowili jakichkolwiek kontaktow z elektronicznym swiatem, utyskujac glosem pelnym grozy i zaloby na temat niestabilnosci numerycznych danych i wielu innych niepokonywalnych problemow. Narzekania te zawsze konczyly sie cisnaca lze z oka historia naukowca-nieboraka ktory probowal - na prozno, rzecz jasna - odnalezc na Sieci owoce swych mlodzienczych badan.

Czy sa tu paralele z kontrastujacymi reakcjami kapitalistow wlascicieli fabryk i robotnikow-Luddystow wobec wynalazku automatycznego krosna w latach wczesno-przemyslowej rewolucji technicznej? Oczywiscie nie jest to kwestia zwyczajnej ekonomii, aczkolwiek dzisiaj naukowcy czesto wypowiadaja sie na temat szans i zagrozen jakie Internet niesie ich pracy, i uzywaja przy tym jezyka calkiem podobnego do tego ktory byl uzywany przez naszych antenatow z poczatku XIX wieku.

Podstawowym argumentem internetowych Luddystow jest niestabilnosc elektronicznej informacji. Jest tak, mimo ze nie twierdzi ze elektronizacja danych jest procesem archiwalnym, zwlaszcza ze jest uzalezniona od szybko zmieniajacej sie technologii, i ze zdecydowanie wymaga intensywnego nadzoru i kierowania. Ale Luddysci ktorzy traktuja niestabilnosc jako podstawe niedomaganie Internetu nie potrafia dostrzec, ze blad ten nie jest nieodzownym rysem nowej technologii, ani tez ze - jak to Ciolek zauwazyl - z pewnoscia problem ten zostanie rozwiazany ze wzgledu chocby na zywotne potrzeby e-handlu i wielkiego biznesu. Szczerze mowiac, wydaje sie coraz bardziej prawdopodobnym ze w pewnym momencie rozmaite instytucje przejma na siebie odpowiedzialnosc za zabezpieczenie i zarzadzania numerycznymi bankami danych, w podobny sposob jak biblioteki czynia to wspolczesnie z materialami drukowanymi.

Czy wlasciwe rozwiazania znajda sie na czas i czy obejma calosc istniejacych i ogromnych juz elektronicznych materialow naukowych jest kwestia wazka. Jednakowoz, nowa technologia niewatpliwie przyniesie ze soba straty. Luddysci nie mylili sie wierzac ze wynalazek mechanicznych warsztatow tkackich zniweczy ich specjalistyczne umiejetnosci. Podobnie, ci z naukowcow ktorzy nauczyli sie na pamiec calych kanonow klasyki - miliony slow - widza teraz ze unikalne i ciezko zdobyte umiejetnosci takie jak, na przyklad, zdolnosc do identyfikacji zrodla na podstawie kilku slow zawartych w strzepie znalezionego rekopisu, staja sie mniej lub bardziej nieistotne w miare jak zrodlowe materialy sa poddawane komputeryzacji. Kazdy - uzywajac powszechnie dostepne i mocarne wyszukiwarki - moze teraz wpisac kilka slow i otrzymac liste mozliwych rozwiazan. Jest to niefortunne dla naukowcow ktorzy strawili cale lata wkuwajac teksty na pamiec, ale jest to wyzwalajace dla innych badczy i dla badan naukowych jako takich.

Rowniez nie jest obowiazkiem indywidualnych naukowcow by znalezc odpowiedzi dla innych kluczowych aspektow internetowych badan, na przyklad - jak oceniac elektroniczne prace, jak adoptowac sie do nowych metodologii narzucanych przez elektroniczne projekty badawcze, i jak cytowac sieciowa informacje. Problemy te musza byc podjete i rozpatrzone przez naukowa spolecznosc jako calosc.

Wlasciwe rozwiazania zostana z pewnoscia znalezione poniewaz jest na to zapotrzebowanie. Technicy moga dostarczyc narzedzi, ale nie moga, na przyklad zaprojektowac uzytecznych baz danych dla prezentacji wiedzy dotyczacej starozytnych rekopisow. Projekt taki jest zawsze przedsiewzieciem w ktorym ludzie z techniczna ekspertyza scisle wspolpracuja z tymi co posiadaja specjalistyczna znajomosc materialu. W chwili obecnej, pracownicy uniwersytetcy nie sa cenieni za badania elektroniczne, w przeciwienstwie do pracy nad drukowanymi slownikami, skorowidzami, czy tez redakcja encyklopedii. Obserwacja Pascala rozpoznajacego prawdziwa istote takiej pracy - 'Niechaj nikt nie twierdzi zem niczego nowego nie powiedzial - jako ze nowa jest aranzacja tematu' - odnosi sie takze do architektury baz danych. W miare jak zapotrzebowanie na elektroniczne narzedzia badawcze rosnie, i zajmuje uwage coraz to wiekszej liczby naukowcow, systemy gwoli oceny takich narzedzi niewatpliwie zostana stworzone. Pierwsze dyskusje na ten temat juz sie pojawily, w wielu dziedzinach wiedzy, a w szczegolnosci w studiach nad Buddyzmem.

Wspolpraca jako charakterystyczny rys internetowej dzialalnosci jest mniej klopotliwa: w naukach scislych jest to model juz od dawna obowiazujacy. Projektanci baz danych, programisci i ci ktorzy wpisuja dane w pamiec maszyny otrzymaja uznanie ich wspolnego przyczynku, w podobny sposob jak dzieje sie to ze doswiadczonymi naukowcami, co wymyslaja eksperyment, i mlodszymi pracownikami i technikami laboratoryjnymi ktorzy taki eksperyment wprowadzaja w zycie.

Sposob cytowania elektronicznych dokumentow poddatnych nieustannym zmianom lub tez skasowaniu, stanie sie sprawa rutynowa z chwila gdy badacze zaczna uzywac metadane, tj. ukryte naglowki z informacja na tremat autorow, daty powstania i kolejnych modyfikacji danego dokumentu; i gdy biblioteki i inne instytucje rozpoznaja swoja prawdziwe role jako piastunow materialow tak elektronicznych jak i drukowanych.

Internet dal nam szanse na prawdziwie rewolucyjny postep w zakresie powszechnego dostepu do informacji. Pomieszal on szyki cenzorowi i sprawil ze samotne, niemodne i ekcentryczne glosy moga byc uslyszane. Jest to unikalna szansa ktore winna byc witana przez naukowa spolecznosc. A mimo to spolecznosc ta nie rozni sie wcale od innych w swej tendencji ku wygodnemu i elitarnemu konserwatyzmowi. Naukowa spolecznosc jest zainteresowana przede wszystkim ochrona swych praw i wykluczeniem tych ktorzy tej spolecznosci zagrazaja, od srodka lub z zewnatrz.

Historia cenzury naukowego swiata zna restrykcje przeciez nie tylko zewnetrzne. Sama akademicka spolecznosc jest tu - niestety - jakzesz czesto winna, a auto-cenzura nie jest rzecza bynajmniej nieznana. Ci z naukowcow ktorzy podwazaja status quo spychani sa na margines. W naukach scislych, w ostatnich latach, wiele bylo glosnych przypadkow tego typu, takich jak, na przyklad, kontrowersje na temat pochodzenia virusa AIDS czy tez skutecznosci homeopatii. Calkiem mozliwe, ze niektorzy z badaczy mylii sie w swych pogladach, rowniez byc moze, ze ich metodologie zawieraly istotne bledy. Wszysko to mozliwe, aczkolwiek nader czesto atak na tych ludzi zdawal sie byc motywowany czyms wiecej nizli tylko poszukiwaniem naukowej prawdy. Mial on bardziej posmak sredniowiecznego polowania na czrownice, nizli racjonalnej krytyki.

Prawdopodobnie nie przypadkowo nowa atmosfera pazernosci i postepujacej komercjalizacji - zwiazana z pojeciem 'intellectual property rights', tj. prawa wlasnosci intelektualnej, pojawila sie wlasnie w momencie gdy Internet zaofiarowal naukowcom rewolucje w swobodnej ekspresje mysli i cyrkulacje idei. I tu mieszka niebezpieczenstwo. Wystarczy ze ostatnie kilka lat bylo swiadkiem wzrostu liczby spraw sadowych inicjowanych przez tych ktorzy twierdzili ze inni skradli ich pomysly - czy to piosenki, lub naukowych teorii czy tez sposobu ujecia danej tematyki w filmie fabularnym. Trendowi temu towarzyszy jeszcze jeden, ten co polega na coraz to czestszym rejestrowaniu wylacznych praw do wlasnosci. I nie jest to bynajmniej tylko wlasnosc idei ktora w ostatnich 10 latach stala sie obiektem zainteresowan prawnikow. Ludzkie geny, prawo do fotografowania najzwyczajnych budynkow jak tez czolowych zbiorow dziel sztuki - wszystko to stopniowo zostaje objete prawami wlasnosci intelektualnej. Wszystkie te przemiany w sposob bezposredni zagrazaja nowym swobodom akademickim niesionym przez Internet.

I nie jest wcale pewnym, ktora strona w koncu zwyciezy. Czy Internet nadal bedzie zagrozeniem dla tych co pragna, z jakiegokolwiek powodu, kontrolowac przeplyw informacji? Spolecznosc naukowa winna stanac po stronie 'rewolucjonistow', jest to w jej zywotnym interesie, nawet jesli inne sprawy nie wchodza w rachube. Jednakowoz sama jej przeszlosc i wbudowany konserwatyzm sugeruja ze naukowcy moga niestety wejsc w pakt iscie diablski z biznesem, po to tylko by sobie tez zarezerwowac prawa do wlasnosci. Jesli takowy alians wygra to wowczas rozsypujace sie info-rudery zbudowane w czasach WWW1 i WWW2 beda jedynym sladem po krotkiej epoce informacji prawdziwie wolnej.

Cieszmy sie Nia zatem, poki jeszcze nie zginela.

Site Meter
visitors to since 08 May 1997.

Maintainer: Dr T.Matthew Ciolek (

Copyright (c) 2000 by T.Matthew Ciolek and Susan Whitfield. All rights reserved. This Web page may be freely linked to other Web pages. Contents may not be republished, altered or plagiarized.


[ Asian Studies WWW VL ] [ ] [ Buddhist Studies WWW VL ]