"Chronicles of Internet Factology" nr 3/2001
"Chronicles of Internet Factology" nr 4/2002
1975_Kurzawa z serii " Źródła faktologii polskiej- roczniki" Autor kontynuuje przegląd źródeł faktologii polskiej. Polskie roczniki powstały z tablic paschalnych. Na takiej tablicy z biskupstwa poznańskiego zaczęto w końcu X wieku notować ważniejsze wypadki. Najstarszą datą, z którą połączono fakt historyczny jest rok 965. Wszystkie znane roczniki polskie miały za podstawę zapiski tablicy paschalnej używanej od r. 1000 w Gnieźnie. Dokładniej da się stwierdzić powstanie rocznika świętokrzyskiego dawnego, który założono zaraz po r. 1122.Do najstarszych roczników należą: kapitulny krakowski, poznański, kamieniecki, lubiński i inne. Na początku jednak naszych najstarszych roczników znajdują się starsze annalistyczne zapiski sięgające r. 730 wzięte z roczników niemieckich tj. augijskiego i hersfeldzkiego.
Recenzje
J.Broda de Casas " The Mexican calendar as compared to other Mezoamerican systems"- Acta Ethnologica et Linguistica, Nr.15, Series Americana 4, 1999.
Autor przedstawia różne systemy kalendarzy stosowanych przez kultury Azteków, Inków i Olmeków. Były one istotne z uwagi na ich znaczenie do celów kultowych, ale także do terminów zbiorów. Na marginesach niektórych kalendarzy notowano fakty istotne dla dynastii panującej. Niestety większość tych kalendarzy zniszczyli Hiszpanie, nie wszystkie z ocalałych udało się odczytać. W kalendarzu Inków z ok. r. 590 n.e. odkryto zapis w języku kipu o treści:" nie zawsze to co zapisane waży więcej aniżeli powiedziane". Biorąc pod uwagę, że węzełkowe pismo kipu rzeczywiście było materialne i musiało ważyć uwaga ta ma głęboki sens filozoficzny oraz istotne znaczenie dla teorii informacji. Pismo kipu było nośnikiem informacji tak, jak dzisiaj dyskietka czy dysk CD lub DVD. Dalsze wnioski nasuwają się same, mówiąc krótko: nośnik niczym, informacja na nim zapisana-wszystkim.Ciekawym jest to, że Inkowie dokonali tego odkrycia już w VI wieku n.e. Do tej pory w kipu zapisywano tylko ilość sztuk bydła, wielkość danin, a więc generalnie dane ilościowe. Skąd zatem pojęcia abstrakcyjne? Kto dokonał tego tłumaczenia? Tego Juan Broda de Casas niestety nie wyjaśnia.
Uwaga ważne odkrycie:
Za magazynem Chip, podajemy informację z serwisu internetowyego Independent, dotyczącą cywilizacji Inków, która mogła być pierwszą, stosującą zarówno kod binarny, jak i trójwymiarowy system zapisu informacji. Tak przynajmniej twierdzi Gary Urton, profesor Uniwersytetu Harvarda. Według niego imperium zniszczone przez konkwistadorów stosowało w "ozdobnym" piśmie węzełkowym kipu 7-bitowy kod dwójkowy, umożliwiający zakodowanie (dzięki stosowaniu różnych kolorów) 1536 jednostek informacji. Wartość ta przekracza liczbę znaków stosowanych przez Egipcjan, Sumerów czy Majów.
Urton wyciąga swe wnioski na podstawie historii zapisanej za pomocą kipu, którą przetłumaczono na hiszpański przed 400 laty. Profesor twierdzi, że jest bliski znalezienia węzełkowego oryginału, mającego umożliwić pełne rozszyfrowanie tajemniczego systemu zapisu, w którym często spotyka się liczne odgałęzienia "kodu", przypominające nieco struktury programów komputerowych. Do tej pory uważano, że kipu było stosowane co najwyżej do prowadzenia obliczeń, a cywilizacja Inków była "niepiśmienna".
"Chronicles of Internet Factology" nr 5/2002
Autor omawia najstarsze kroniki poczynając od kroniki Widukinda, mnicha z Korbei,który w połowie X wieku podał wiadomości o Mieszku I. Kronika Thietmara, biskupa merserburkiego zawiera wiele danych o Bolesławie Chrobrym. Trochę znaczenia dla Polski ma kronika klasztouru w Zwiefalten z połowy XII w. Bogatym źródłem jest ruska kronika Nestora tzw. latopis. Z kronik krzyżackich trzeba uwzględnić "Cronica terrae Prussiae" Piotra z Duiburga, pisaną przed rokiem 1326. Ważne są kroniki Jerochina i Wiganda z Marburga.
Z kronik czeskich istotna jest kronika Komasa, pochodząca z początku XII w. Nie bez znaczenia jest także "Cronica Pribiconis de Tradenina" pisana przez Pulkawę w r. 1374.
Recenzje
W czasopiśmie "The Global Network" /Nr 6(89)/2002, New York-Los Angeles/ ukazał się artykuł prof. Johna D. Wilkinsa z University of West Virginia pt. "Entropy of the Internet". Autor przedstawia tzw. "dark holes of the net" /DHN/, czyli informacje całkowicie nieosiągalne i niedostępne dla użytkowników mimo zamieszczenia ich na serwerach w sieci globalnej. Wiąże się to z wieloma czynnikami z których najistotniejszą jest zdaniem autora wzrastająca entropia w sieci. W chwili obecnej ocenia się, że ok. 20-23% zasobów sieci jest niedostępne dla użytkownika z tego tylko powodu. Blisko 7,5 TB informacji znika z sieci bezpowrotnie każdego miesiąca z czego jedynie 10-12% jest rejestrowane przez Archiwum Internetowe w Presidio, a ok. 1% przez inne organizacje zajmujące się badaniem zasobów Internetu /w tym także nasz Zakład Faktologii Internetowej/.
Prof. Wilkins słusznie zauważa, że entropia w internecie będzie rosła, a jej skutki mogą być destrukcyjne. Jak zatem przeciwdziałać wzrostowi entropii? Przede wszystkim istotna jest konfiguracja sieci globalnej i organizacja przepływu danych. To cała gałęź nauki, która jednak cierpi na brak wybitnych prac teoretycznych.Do niedawna uważano, że Sieć można przedstawić przy pomocy grafu spójnego w którym każde dwa wierzchołki są połączone drogą-kilka dni temu teoria ta upadła. Drugim elementem powodującym wzrost entropii ujemnej jest objęcie archiwizacją nie mniej, aniżeli 90-95% zasobów sieci. Potrzebny jest w tym celu projekt, który wciągnie do tych prac rzeszę użytkowników sieci, jak też odpowiedni program, który wykluczy możliwość wielokrotnego archiwizowania tych samych danych. Pracując w tle miliony komputerów zarchiwizują dane internetowe z efektywnością stale rosnącą, aż do teoretycznie zakładanych 95%.
Jeżeli nie podejmiemy tych działań obecnie to wzrost entropii w internecie osiągnie za 15-20 lat poziom krytyczny, co doprowadzi do całkowitego paraliżu sieci globalnej. Co to będzie oznaczać dla wysoce zinformatyzowanego społeczeństwa niedalekiej przyszłości nie trzeba chyba nikogo przekonywać -kończy swe wywody autor.
1975_Kurzawa "Black holes on the Internet"
W bieżącym numerze "Chronicles..."redaktor naczelny kontynuuje tematykę zamkniętych przestrzeni sieci globalnej. Wg danych Arbor Networks ponad 5% zasobów sieciowych jest całkowicie niedostępne z zupełnie innych powodów aniżeli wzrastająca entropia czy ulokowanie witryny w tzw. głębokiej czy też niewidocznej Sieci. Badania topologii sieci, łączliwości serwerów oraz routingu wykazały, że blisko 45 milionów serwerów jest odseparowanych od Sieci. Określa się to mianem "Dark Adress Space" czyli DAS.
Odsyłając czytelników do szczegółów tego zjawiska do Arbor Networks autor snuje rozważania nad topologią sieci wskazując na entropię, jako główną przyczynę rosnących "czarnych dziur" w Sieci. W niedalekiej przyszłośći owe DHN czy też DAS staną się zalążkami nowych sieci, podczas, gdy Sieć globalna pogrąży się w chaosie entropijnym i przestanie spełniać swoją rolę. Czy powstanie kilku sieci quasi-globalnych będzie zjawiskiem przejściowym, a po ich połączeniu powstanie nowa Sieć, czy też da się jeszcze uratować "starą" Sieć to temat i zadanie dla faktologi internetowej, która już teraz nawołuje do ratowania Internetu i wskazuje na metody jakimi należy to czynić.
Recenzje
W kwartalniku "New Philosophy Review" Nr 6(487)/2001 ukazał się artykuł prof.Williama P. Tierneya pt."Philosophy of Chaos".
Czym jest chaos?-pyta autor. Jakie może być zastosowanie teorii chaosu w filozofii i czy można w ogóle mówić o teorii chaosu? Otóż chaos pojawia się wówczas, gdy nielosowy /deterministyczny/ układ zachowuje się w pozornie losowy sposób. Teorii chaosu w sensie naukowym nie sposób jednak sprecyzować. Chaos nie jest teorią. Jest to idea przecinająca różne dziedziny wiedzy, idea będąca będąca dalekosiężną unifikacją porządku i nieuporządkowania.
"Na początku był chaos"-jakkolwiek byśmy rozumieli te słowa pewnym jest jedno- z pozornego stanu nieuporządkowania wyłoniła się nowa jakość -świat rządzący się swoimi prawami.Czy zatem chaos jako pojęcie matematyczne modeluje rzeczywisty świat i pomaga nam zrozumieć otaczającą rzeczywistość? Nie ulega wątpliwości, że tak właśnie jest. Chaos wkracza więc do filozofii wraz ze swoim "bratem"- teorią złożoności.
Teoria ta zajmuje się skłonnością skomplikowanych systemów do zachowywania się w prosty sposób. Filozoficzny rdzeń teorii złożoności stanowi pojęcie emergencji, jest to własność, dzięki której układ może górować nad swoimi częściami składowymi. Chaos i złożoność tworzą razem potężne, nowe narzędzie dla nauki i filozofii. System filozoficzny Wittgensteina powstał na zasadzie emergencji- z wielu złożonych struktur myślowych powstał system wielkoskalowy, ale prosty, składający się z 7 genialnie pomyślanych tez. Rozum, świadomość, formy biologiczne, struktura społeczna- wszystko to powstało z emergencji. Chaos i złożoność dadzą nam kiedyś odpowiedź na wszystkie pytania, jeśli tylko potrafimy wyekstrahować chaos z masy informacji i stworzyć strukturę na tyle złożoną, aby odsłoniła ona swoje ukryte, ale w gruncie rzeczy proste reguły, kończy autor.
Drukujemy streszczenie tych rozważań, gdyż dla faktologii internetowej mają one fundamentalne znaczenie. Właściwie nie trzeba nic tu komentować. Prof. Tierney nie jest faktologiem /chociaż jest wielkim sympatykiem faktologii i naszym korespondentem z Rockford/, ale jego uwagi na temat chaosu i złożoności objaśniają nam, w jaki sposób faktologia da w niedalekiej przyszłości odpowiedź na wszystkie pytania, gdyż jest to metoda uniwersalna potrafiąca czerpać z dorobku różnych dziedzin wiedzy.
"Chronicles of Internet Factology" nr 6/2002
Autor udawadnia, że 99,8% zasobów sieci jest niedostępne dla przeciętnego użytkownika. Zindeksowanych w wyszukiwarkach jest bowiem tylko 0,2% z 2 miliardów odnośników. Dlaczego tak się dzieje? Otóż większość wyszukiwarek indeksuje tylko strony w HTML, nie rozpoznaje formatów pdf, baz danych, informacji przekazywanych w czasie rzeczywistym, plików multimedialnych itp. Deep Web rozwija się szybciej aniżeli tradycyjny Internet, a zatem rośnie ilość informacji ukrytych przed przeciętnym użytkownikiem. Można stwierdzić, że powstała nowa, alternatywna sieć, a stara pogrąża się w chaosie entropijnym wcześniej niż przewidywaliśmy na tych łamach. Przed faktologią staje też poważne zadanie archiwizacji zasobów ukrytej sieci -jak to robić przy tak utrudnionym dostępie? Nasi programiści już pracują nad specjalnym programem, który pozwoli na penetrację ukrytych zasobów Sieci. Korzystamy także z gotowych programów, takich jak np. LexiBot, który sporo kosztuje i nie jest wolny od wad. Znane są nam dobre wyszukiwarki jak np. Invisible America czy Internet Invisible. Warto szukać także w The Invisible Web oraz w The Invisible Web Search Engine.
Zawartość tematyczną Deep Internet odsłania firma BrightPlanet.
Autor artykułu kończy stwierdzeniem, że powstały już zalążki zupełnie nowej sieci, zwanej przez niego "Blue Hole"- używa się tam stworzonego od podstaw języka HtmLXJ 0.75b. Do tej sieci dostęp mają tylko wtajemniczeni /czytaj: bogaci/, a oferuje ona swoim odbiorcom nowy, wspaniały świat. Obecny Internet to zwykły śmietnik w porównaniu z Błękitną Dziurą. Zostanie on dla nieświadomych mas jak kość rzucona psu. Prawdziwa Sieć nie będzie dla nas nigdy dostępna. Chyba, że będzie nas stać na stałe łącze internetowe o przepustowości conajmniej 10MB/sek, opłacenie abonamentu rocznego w wysokości 45 tys. $ /oprócz opłat za ilość odebranych GB/ i poznanie 2 osób, które zarekomendują chętnego do tej ekskluzywnej organizacji. W Polsce dostęp do tej sieci ma wg naszych danych mniej niż 10 osób. Wśród nich jest znany producent filmowy o imieniu Lew /jednym z rekomendujących był Steven Spielberg/ oraz gigant w branży informatycznej sponsorujący najważniejszy turniej tenisowy w Sopocie.
Streszczenia artykułów w następnych numerach "Chronicles..." z r. 2003 znajdziesz tutaj.