Letovanje u Pargi u Grčkoj – iskustva

Lepo mesto, lep odmor.

Lepe svari :
Lepa glavna ulica za šetnju, prepuna restorana
Lepe dve sporedne ulice sa gomilama radnjica
Lepe plaže (prilično čiste)
Fenomenalna voda
Vrlo ljubazni prodavci po radnicama
Fin giros i ukusna morska hrana koji nisu preskupi (dvoje da ručaju za cenu suncobrana i ležaljki)
Lepi izleti vozićem po Pargi i do Ali Pašine tvrđave. Apsolutno vredi otići, naročito uveče da se uhvati zalazak Sunca.

Ružne stvari
PRESKUPI suncobrani i ležaljke (oko 20EUR)
Sem par glavnih ulica to je “asvaltirano” pljuni pa zalepi, betonom ne asvaltom
GOMILA lokalaca koji voze male motore kao sumanuti, i koji su JAKO bučni i STRAŠNO smrde (izduvni gasovi)
Zapuštena imanja puna đubreta
Do veoma lepog ostrvceta koje je na 20m od luke ne može da se dođe ako ne plivate do njega (ili unajmite brodić pa da vas čeka da obiđete ostrvce)
Mačke. Ja OBOŽAVAM mačke, ali ne kada me tuča mačora budi nekoliko puta noću. Kastracija poboljšava zdravlje mačaka i produžava im život!
WiFi. U našem apartmanu ga nije bilo, iako piše da ga ima, i ne vredi se svađati sa gazdama ili agencijom preko koje smo došli.
Gazde koje drže vilu u kojoj je gomila apartmana i ne govore NI REČ bilo kog stranog jezika!!!!!
Gradska plaža koja je toliko puna ležaljki i suncobrana da nema gde da se stavi peškir. A suncobran sa ležaljkama 20EUR.

VEOMA ružne stvari
Žardinjere u centru koje su pune pikavaca od cigareta. Potrebno je sat posla, malo zemlje za cveće i par sadnica da se to sredi. Ali ni slučajno! Ljudi iz restorana koji je na 3m od žardinjera smatraju da to treba da uradi država!
Citadela iznad grada na kojoj ništa nije rađeno valjda od kad su Mleci otišli. Jedino što su tu Grci uradili je da stave znak “Ulazite na sopstvenu odgovornost”
Tvrđava Ali Paše. Ista stvar. Od kad su Turci otišli ništa nije urađeno.

WIN 10 i rešavanje problema sa rezolucijom adresa i sporim Intra/Internetom

Sve ide kroz komandnu liniju!

1. Flush DNS :
C:\Users\velda>ipconfig /flushdns
Windows IP Configuration
Successfully flushed the DNS Resolver Cache.

2. Provera koji je Domain Controller za lokalnu mašinu :
C:\Users\veldae>echo %logonserver%
\\DC001

3. Provera veze ka DC-u :
C:\Users\velda>nltest /sc_query:lokalni.domen
Flags: 30 HAS_IP HAS_TIMESERV
Trusted DC Name \\DC001.lokalni.domen
Trusted DC Connection Status Status = 0 0x0 NERR_Success
The command completed successfully

This output shows the status of your secure channel, and the name of the domain controller you are querying. You will need to provide the name of the domain you are connected to.

4. Izlistati trenutnu DNS postavku
C:\Users\velda>ipconfig /displaydns
Windows IP Configuration
DC001.lokalni.domen
—————————————-
Record Name . . . . . : DC001.lokalni.domen
Record Type . . . . . : 1
Time To Live . . . . : 618
Data Length . . . . . : 4
Section . . . . . . . : Answer
A (Host) Record . . . : 10.10.10.001

DC002.lokalni.domen
—————————————-
Record Name . . . . . : DC002.lokalni.domen
Record Type . . . . . : 1
Time To Live . . . . : 1377
Data Length . . . . . : 4
Section . . . . . . . : Answer
A (Host) Record . . . : 10.10.10.002

TTL (time to live) vrednost je u sekundama.

5. Proveriti hosts fajl
Lokacija : C:\Windows\System32\drivers\etc
Ime fajla : hosts
Način otvaranja : OBAVEZNO kao Administrator, ili izmene fajla neće biti moguće

Ovaj fajl bi trebalo da sadrži bar dva zapisa za Intranet DNS servere, npr :
DC001.lokalni.domen 10.10.10.001
DC002.lokalni.domen 10.10.10.002

6.Alat nslookup
Ovaj alat koriti DNS server iz hosts fajla, tako da ako su u njemu samo Intranet DNS-ovi, samo intranet upiti će raditi.
Alat omogućava i direktne i reverzne upite.

C:\Users\velda>nslookup
Default Server: DC001.lokalni.domen
Address: 10.10.10.001
> blabla
Server: DC001.lokalni.domen
Address: 10.10.10.001

Name: bla1.lokalni.domen
Address: 10.10.10.100
Aliases: blabla.lokalni.domen

7. Videti Name Server za određeni (ovde interni) domen
C:\Users\velda>nslookup
Default Server: DC001.lokalni.domen
Address: 10.10.10.001

> set q=ns
> lokalni.domen
Server: DC001.lokalni.domen
Address: 10.10.10.001

lokalni.domen nameserver = DC001.lokalni.domen
lokalni.domen nameserver = DC002.lokalni.domen
DC001.lokalni.domen internet address = 10.10.10.001
DC002.lokalni.domen internet address = 10.10.10.002

Ako se stavi “set q=mx” dobiće se podaci za mail server za dati domen.

8. Kako dobiti dodatne informacije o DNS zahtevu
C:\Users\velda>nslookup
Default Server: DC001.lokalni.domen
Address: 10.10.10.001

> set debug
> lokalni.domen
Server: DC001.lokalni.domen
Address: 10.10.10.001
————
Got answer:
HEADER:
opcode = QUERY, id = 2, rcode = NXDOMAIN
header flags: response, auth. answer, want recursion, recursion avail.
questions = 1, answers = 0, authority records = 1, additional = 0

QUESTIONS:
lokalni.domen, type = A, class = IN
AUTHORITY RECORDS:
-> lokalni.domen
ttl = 3600 (1 hour)
primary name server = DC001.lokalni.domen
responsible mail addr = hostmaster.lokalni.domen
serial = 373745
refresh = 900 (15 mins)
retry = 600 (10 mins)
expire = 86400 (1 day)
default TTL = 900 (15 mins)

9. Ruta do DNS servera
C:\Users\velda>tracert lokalni.domen

Tracing route to lokalni.domen [10.10.10.002]
over a maximum of 30 hops:
1 <1 ms <1 ms <1 ms 10.10.10.10 2 <1 ms <1 ms <1 ms DC002.lokalni.domen [10.10.10.002] Trace complete. Dobri linkovi : link1
link2

SW alat za skidanje Wiki sa RedMine-a

Problem je u tome što i wget i HTTRack prave džumbus na RedMine-u kada se koriste.
Ostavljaju repove i JAKO ga usporavaju.
Dakle tražim nešto treće.

Deo free alata sam već testirala u ovom postu, dakle bez tih.

UnMHT
Ovo je FireFox add-on, ne odvojeni program.
Paziti da se slaže sa lokalnom verzijom FireFox-a. Kod mene se ni verzije iz 2014 ne slažu, tako da ništa od toga.

Websitedownloader
Ovo je online site downloader.
Pošto je moj sajt u unutrašnjoj mreži, ovo nije za mene.

Sitesucker
Ovo je samo za MAC, tako da ništa od toga.

Grabzit
Online alatka, dakle ništa.

Webscrapbook
Još jedan FireFox i Chrome add-on.
Zahteva backend server, tako da nije upotrebljiv.

Telport Pro
Nije free, plaća se

Offline downloader

Free je samo trial verzija koja daje do 5000 fajlova, što nije dovoljno.

WinWSD
Prilično je mator, iz 2013, i zahteva WIN 7, tako da nije za mene.

Free Download Manager
Vrlo je aktuelan, poslenji put je ažuriran 19.02.2022.

Wget.exe za WIN 10

Postoji i wget.exe za WIN 10 i može se naći ovde.
Meni treba za backup internog sajta.

Komanda se pokreće iz direktorijuma u koji je EXE fajl spušten.

Ovo radi odlično za HTML strane (u mom slučaju RedMine issue). Povlači i povezana dokumenta i linkovane ostale probleme.
wwget.exe -d -m –save-cookies=”D:\Moja Dokumenta\kolacici.txt” –keep-session-cookies –recursive –level=0 -e robots=off –page-requisites –adjust-extension –convert-links –output-file=”D:\Moja Dokumenta\wget.txt” –show-progress -U firefox -e http_proxy=http://10.10.10.10:80 –no-parent –auth-no-challenge –trust-server-names –user=velda –ask-password –no-check-certificate –directory-prefix=”D:\Moja Dokumenta\30000″ https://moj sajt/issues/30000

Setting –mirror (mirror) to 1
Setting –save-cookies (savecookies) to D:\Moja Dokumenta\kolacici.txt
Setting –keep-session-cookies (keepsessioncookies) to 1
Setting –recursive (recursive) to 1
Setting –level (reclevel) to 2
Setting robots (robots) to off
Setting –page-requisites (pagerequisites) to 1
Setting –adjust-extension (adjustextension) to 1
Setting –convert-links (convertlinks) to 1
Setting –output-file (logfile) to D:\Moja Dokumenta\wget.txt
Setting –show-progress (showprogress) to 1
Setting –user-agent (useragent) to firefox
Setting http_proxy (httpproxy) to http://10.10.10.10:80
Setting –no-parent (noparent) to 1
Setting –auth-no-challenge (authnochallenge) to 1
Setting –trust-server-names (trustservernames) to 1
Setting –user (user) to velda
Setting –ask-password (askpassword) to 1
Setting –check-certificate (checkcertificate) to 0
Setting –html-extension (adjustextension) to 1
Setting –span-hosts (spanhosts) to 1
Setting –directory-prefix (dirprefix) to D:\Moja Dokumenta\30000
Password for user ‘velda’:
moj sajt/bla bla [ <=> ] 177.46K –.-KB/s in 0.001s
moj sajt/favico 100%[=================================================>] 7.70K –.-KB/s in 0s
moj sajt/styles 100%[=================================================>] 26.89K –.-KB/s in 0s
moj sajt/themes 100%[=================================================>] 11.47K –.-KB/s in 0s
moj sajt/javasc 100%[=================================================>] 329.88K –.-KB/s in 0.005s
moj sajt/javasc 100%[=================================================>] 16.24K –.-KB/s in 0s
…..

Svičevi :
-P – definiše gde se spušta fajl/backup
-d – debug mode
-m – mirror
–recursive – za skidanje celog sajta (l=2 do II nivoa)
–page-requisites – Get all assets (CSS/JS/images)
–adjust-extension – Save files with .html at the end
–convert-links – Convert the links in the HTML so they still work in your local version
–no-parent – Do not ever ascend to the parent directory when retrieving recursively
–output-file – gde da se stavi log fajl
–show-progress – prikazuje progres
–user – definisanje naloga za rad i za HTTP i za FTP
–ask-password – da lozinka nije u komandnoj liniji
-no-check-certificate – pošto je sertifikat lokalan i pored ostalog i istekao…..
–save-cookies cookies.txt –keep-session-cookies / ove dve komande su zato da ne bi dobili samo login stranu!

Ali je problem ako treba spustiti DMSF fajlove.

Dobar link1

Excel i nalaženje linkova ka drugim (Excel) dokumentima

Kada se u nekom Excel dokumentu nađu linkovi ka drugim lokalnim dokumentima, to može da bude problem, jer kada se takav dokument pošalje sa matične radne stanice, rezultati u ćelijama će se promeniti, zato što linkovani dokument više nije raspoloživ.

*Načini nalaženja linkova (PAZITI, iskoristiti SVE načine, jer ni jedan ne nalazi sve linkove!!!!!)*

1)
Press Ctrl+F to launch the Find and Replace dialog.
Click Options.
In the Find what box, enter .xl.
In the Within box, click Workbook.
In the Look in box, click Formulas.
Click Find All.

2)
On the Data tab, in the Connections group, click Edit Links.

In the Source list, click the link that you want to break.
Click Break Link.

Dobri linkovi : link1, link2

Pandan tail -f komande za WIN10

Ima mali pogramčić koj to radi : “Snake tail“, ali može i drugačije :

PowerShell
Otići na lokaciju gde je logfajl.log i dati komandu :
Get-Content logfajl.log –Wait
Ovo će izlistati ceo log odjednom, i onda izbacivati liniju po liniju kako se upisuju.
Dobar link.

Kako videti SAMO poslednje 3 linije upisane u log fajl :
Get-Content D:\log.txt -Tail 3

Kako sačuvati off-line ceo sajt

Moj kompjuter na koji hoću da sačuvam sajt : WIN10/64
Sajt je interni u unutrašnjoj mreži, ali sa njim ima dva problema :
1. Redirektuje, jer traži user+pass za logovanje
2. Ima sertifikat koji nije root

Evo koje sam free alate probala :

1) Cyotek Web Copy
Na prvi pogled deluje super, ali javlja silne greške, i ne uspevam da mu “poturim” user i pass za sajt.
Postavila sam pitanje na njihovo forumu, pa ćemo videti.

Kako se isključuje provera sertifikata :
If the SSL certificate associated with a website is invalid or untrusted, WebCopy will refuse to copy the site. You can force such sites to be copied by ignoring certificate errors.
From the Project Properties dialogue, expand the Advanced category and select Security
Check the “Ignore certificate errors” option
Napomena : zbunjuje me pošto i dalje javlja da je nesiguran sertifikat kada probam da uradim “Capture form”?

Using a web browser to log in
Select Forms and Passwords from the Project menu and select the Passwords category
Check the Log in using a web browser option

Napomena : radi kada sajt nije zaštićen sa user+pass kombinacijom. Uzdah.

2) HTTrack
Malo mator (iz 2017)
Pamti projekat kao *.whtt
Koristi to da sebe treba privremeno staviti kao proxy u IE, ali kao svoju IP adresu daje SAMO IPv6!!!!!
Pošto je u pitanju interna mreža IPv6 nije uopšte omogućen. Jedino rešenje koje sam našla je da se uradi ovo : [IPv6]
, tj da se IPv6 adresa stavi u uglaste zagrade.
Ovde je dobro objašnjenje kako bi to trebalo da radi (ali ne radi).

Napomena : WinHttrack does not have a stop and resume. It only has a Pause/resume and a Cancel/continue. If you Pause you then Resume right where it left off. You can not close httrack.

Dobar link sa nekim osnovnim uputstvom za rad.

Don’t shutdown. Pause httrack and hibernate.

Rešenje :
a) Koristiti Google Chrome
b) Ići na More tools/Developer Tools

c) U Chrome-u otvoriti željeni sajt i ulogovati se
d) U Developer Tools delu Chrome prozora, ići na stavku “Cookies”, “Ime vašeg sajta”

e) Kopirati vrednost pod stavkom “_vaš sajt_session_” (to je jedna OGROMNA kobasica alfanumerika)

f) U HTTRack, kada se dodaje URL, prvo dodati URL sajta koji želite da sačuvate, onda URL za login stranu i onda na kraju dodati “kobasicu” iz predhodne tačke
Dobar link
OBAVEZNO uz URL sajta i login strane dodati i user i pass, u obliku : http://user:pass@www.someweb.com/private/mybox.html
Ovo uraditi za sve delove sajta koje HTTRack inače neće da skine!!!!!
Nema veze što su u pitanju delovi ISTOG sajta, imaju različite kolačiće!
g) Na kraju treba da se dobije :

Kako je gore opisano, HTTRack spušta sajt, i spusti oko 70%, i ne spusti sve. Pošto se sajt MNOGO grana, pokušala sam da stavim neka ograničenja :


Ako se ova podešavanja koriste količina podataka je MNOGO manja (bez je 8,45G sa je 333MB), ali se čini da su isti fajlovi pokupljeni.

Greške koje se mogu javiti u logu HTTrack-a :
a) Warning: File seems complete (same size), but there was a cache read error
b) Error: “Not Found” (404) at link https://…..
Pokušaj rešenja sa (tj slika dole) :
options -> Links -> Attempt to detect all links
options -> Links -> Get non-HTML

Na žalost ovo ne uklanja sve ovakve greške…..
Ali pošto je uzrok : Not found = bad links on the site i ne može 🙂
c) Warning: HTML file (9876 bytes) retransferred due to lack of cache
Ovo se izgubi ako se “otčekuje” opcija “Get HTML files first”
d) Error: Unexpected robots.txt error – ovo se izbegne tako što se isključi poštovanje robot.txt fajla (taj fajl se nalazi na sajtu i služi za određivanje načina pretrage sajta, i HTTrack ga po default-u poštuje) :

e) Error : “Error when decompressing”
f) Error : Unable to get server’s address
Ubaciti podatke o proxy serveru i njegovom portu, iako je (bar u mom slučaju) sajt potpuno lokalan (u unutrašnjoj mreži), čime se broj ovih grešaka dosta smanjuje.
g) Error “Forbidden” (403)
Ovo se može ukloniti ako se izmeni browser u “Set options”/Browser ID” (link) :

Ako se browser stavi na “None” “403” grešaka maltene više nema!!!!!
Druga mogućnost : changing “Browser ‘Identity'” from the default of “Mozilla/4.5 (compatible: HTTrack 3.0x; Windows 98)” to “Java1.1.4”. I chose the Java identity because it didn’t contain the substring “HTTrack”, which may have been the reason I was being blocked.
h) Error “Service unavailable (503)”
You are probably crashing the site.
Set it to one connection, one connections/sec, 5kb/s (smanjuje zagušenje pri download-u)
i) Warning: Unexpected 412/416 error (Requested Range Not Satisfiable)
Ovo je prouzrokovano izmenom/pomeranjem sajta.

Problem
Problem je to da i pored raznih podešavanja ostaje isti : HTTrack NE skida ceo sajt (proveravala sam i bez obzira na postavku isti delovi sajta su spušteni odnosno nisu spušteni).

3) Getleft
Vrlo malo opcija, javlja grešku “Unsupported protocol”
Odustajem od njega.

4) BimeSoft Surf Offline
Trebalo bi da radi sa sajtovima koji imaju user+pass.
Plaća se, pa sam odustala.

5) wget
Download wget for WIN10/64
Koristi se iz komandne linije (otvoriti cmd “As Administrator”).
Spušta se fajl sa imenom wgetforwin10.exe, i pod tim imenom se i poziva (bez ekstenzije, naravno).
Dobijanje help-a : wgetforwin10 -h
Ovo će izlistati sve opcije.
Ako se spušta spoljašnji sajt, prosleđuju se i podaci o proxy serveru (ako on postoji) :
wget -e http_proxy=http://proxy:port –recursive ime.sajta

Ovo je odlično skinulo sajt van lokalne mreže :
wgetforwin10.exe –recursive –mirror -e http_proxy=http://10.10.10.10:80 linuxkitchen.com

Za sajt u unutrašnjoj mreži, koji ima ne-root sertifikat i traži username+pass :
wgetforwin10.exe –no-parent –save-cookies=”folder.za.download/kolacici.txt” –keep-session-cookies –auth-no-challenge –user=velda –ask-password –convert-links -e robots=off –level=2 –output-file=”folder.za.download/wget.txt” -e http_proxy=http://10.10.10.10:80 –trust-server-names -p -U mozilla –no-check-certificate –recursive –mirror https://sajt.koji.skidam/projects/blabla/wiki
Ne prosleđujem direktno lozinku zbog bezbednosti, a i zato što je komanda ne prihvata zbog verzije HTTP-a.
Kolačići : zato što mi inače ne pravi index.html stranu nego login stranu, iako sam dala user+pass
Namerno sam usmerila stdout na log fajl, da mogu posle sve na miru da pogledam, a log fajl pratim iz PowerShell-a sa komadom :
Get-Content logfajl.log –Wait

Recursive Download – This means that Wget first downloads the requested document, then the documents linked from that document, then the documents linked by them, and so on. In other words, Wget first downloads the documents at depth 1, then those at depth 2, and so on until the specified maximum depth.

Šta znače svičevi :
–no-parent means don’t search parent directories
–random-wait to make sure you don’t get blacklisted from a site
-r recursively downloads
-e robots=off ignores robot.txt files
-U Mozilla makes the user look like its Mozilla I think
-E ili –adjust-extension
If a file of type application/xhtml+xml or text/html is downloaded
and the URL does not end with the regexp \.[Hh][Tt][Mm][Ll]?, this option
will cause the suffix .html to be appended to the local filename.
-k ili –convert-links
After the download is complete, convert the links in the document to
make them suitable for local viewing. This affects not only the visible
hyperlinks, but any part of the document that links to external content,
such as embedded images, links to style sheets, hyperlinks to non-
HTML content, etc.

*****

Dve zanimljive definicije :
Mirroring refers to downloading the entire contents of a website, or some prominent section(s) of it (including HTML, images, scripts, CSS stylesheets, etc). This is often done to preserve and expand access to a valuable (and often limited) internet resource, or to add additional fail-over redundancy.
Scraping refers to copying and extracting some interesting data from a website. Unlike mirroring, scraping targets a particular dataset rather than the entire contents of the site.