Na osnovu Tim Berners Lee-ova (CERN) prijedloga koji bi putem WWW-a omogućavao prijenos ideja i rezultata istraživanja, javila se i potreba razvoja programa - sučelja (interfacea) između korisnika i mreže. Nedugo potom, NCSA (National Center for Supercomputing Applications - University of Illinois je započeo razvoj grafičkog sučelja prema World Wide Webu nazvan Mosaic. Program je prilagođavao web materijal u čovjeku prigodan oblik. HTML sadržaj je pretvarao u obični, tekstualni oblik s dodatnim multimedijskim sadržajima, naravno ako ih je bilo. U timu je bio i Marc Andreessen koji je kasnije osnovao Netscape Communications Corporation i još više popularizirao korištenje mreže.
Browseri su služili za pregled web sadržaja, ali se javila i potreba za snimanjem tih sadržaja na vlastiti disk u svrhu štampanja, editiranja i sl. U početku su omogućavali snimanje samo tekstualnog sadržaja u .txt obliku ili onako kako ga razumije browser odnosno u .html obliku. Ako se željelo snimiti i multimedijski sadržaj (slike, zvukovi...) moralo ih se je snimati jednog po jednog. Postupak je bio dug i dosadan. Zato se došlo do ideje da bi bilo korisno automatski snimiti cijelu HTML stranicu sa svim njenim sadržajima i pohraniti u privremenoj memoriji na korisnikovom disku. Time bi se postigla i veća efikasnost za pribavljanjem novih web stranica jer se korisnik ne bi trebao usredotočiti da li stranica ima više ili manje njemu važnih sadržaja. Osim toga, takvim postupkom je omogućen i detaljniji pregled prikupljenih sadržaja bez da je korisnik priključen na mrežu - da je online - odnosno omogućen je offline pristup HTML stranicama. Naravno, offline pristup podacima imamo samo nad prikupljenim stranicama.
Daljni korak nadogradnje offline browsanja je bilo iskorištavanje funkcija robota (Web Wanderer, Web Crawler, Spider - posjećuje Web stranice, "čita" ih i traži sve njezine dokumente) i agenata (više pojmova pod jednim sa zajedničkim karakteristikom obavljanja mrežnog zadatka za korisnika, npr: slanje zahtjeva za pretraživanje prema više search engine-a) pa su nastali tzv. browser searchbots (pr. Copernic 2000). Oni pregledavaju (čitaju) strukturu weba u potrazi za dokumentima koji nas zanimaju stvarajući baze podataka. Takvi programi imaju dodatak koji omogućava prikupljanje (download) podataka s odabranih stranica i to samo djelomično (samo tekst, samo slike, ili samo odabrani podaci) ili u potpunosti stvarajući jednaku strukturu stranice, zajedno s poddirektorijima, kakva je i na serveru (tzv. mirror). Na taj način je omogućeno offline pregledavanje željene stranice. Sinonimi koji se koriste za takve programe su: webspider, site scanner, site mapping tool, site ripper, site mirroring tool itd.
Razni su algoritmi odnosno načini na koje offline browseri, u širem smislu riječi (vidi predhodno poglavlje), pribavljaju i skidaju dokumente na disk. Ne postoji točna podijela po algoritmima rada, ali se mogu navesti kao zanimljivost:
- browseri koji pakiraju HTML stranice, slike i multimedijske podatake u jedan komprimirani file:
Hyper Maker
WebZIP
- browseri koji automatski spremaju sve sadržaje online posjećenih web stranica na korisnikov disk u privremene direktorije (cash). Za kasniji offline pregled stranica browser poziva podatke iz cash prostora na disku (cash explorer). Takvi offline browseri se nazivaju cash-vieweri i snimljenim sadržajima se pristupa preko opcije 'History' (primjer Netscape Navigator i Microsoft Internet Explorer). Ograničenje takvih browsera je u raspoloživoj slobodnoj memoriji na disku koja se dodijeljuje za cash (današnjim stanjem tehnologije niti to više nije problem jer je omogućena nabavka velikih hard-diskova uz, za pojedinca, pristupačnu cijenu):
CacheX for Internet Explorer
Internet Explorer 5
WebCache (za Netscape Communicator)
Netscape Navigator
- browseri koji rade kopiju (mirror) stranice i njezinih sadržaja na lokalni disk:
HTTrack
TeleportPro
- browseri koji koriste search engine, a kao dodatak imaju mogućnost skidanja sadržaja stranica:
Copernic 2000
Mata Hari
Pozitivna strana offline browsera je što se može detaljan pregled sadržaja web stranica jeftinije pregledavati, a i učitavanje je brže jer jednom već prikupljeni sadržaji ne ovise o zakrčenosti mreže (Ahilova peta našeg mrežnog prostora). Moguće je definirati prikupljanje podataka u pozadini (scheduler) u vrijeme kada se želi, kada su resursi manje korišteni.
Negativnosti se mogu pojaviti zbog loše napisanih algoritama za skidanje sadržaja. Problem se može pojaviti i s browserima koji rade poput robota ili agenta - jer ako nisu dobro napisani mogu opterećivati mrežu. Riješenje je u promjeni korištenog programa jer su mnogi tipa freeware (npr IE5, WebStripper) ili shareware. Naravno takvo riješenje ne zadovoljava ako sami razvijate jedan takav offline browser.
Za isprobavanje raznoraznih offline browsera preporučam posjetiti Tucows web stranice koje sadrže ogroman broj freeware i shareware programa koji se mogu prikupiti (download) i isprobavati. Na tim je stranicama dan i kratki opis glavnih značajki pojedinih programa, a za prikaz raspoloživih offline browsera dovoljno je u rubriku SEARCH upisati: "offline browser" (bez navodnika i s razmakom).