Archiwizacja (poufnych 😉) stron internetowych

Jak zarchiwizować pojedynczą stronę (url), którą podejrzewamy, że może szybko zniknąć ? Najlatwiej przez internowe archiwum web.archive.org .
A jak zrobić to samo ale z całym serwisem (czyli treść, media, skrypty) ?
Np narzędziem wget - dostępnym standardowo w (prawie) każdej dystrybucji linuxa:
$ wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains poufnarozmowa.com \
--no-parent \
poufnarozmowa.com
#poufnarozmowa #mafiapis

*Poufna Rozmowa*
poufnarozmowa.com soc.citizen4.eu/display/94d439

Follow

@miklo Osobiście polecam `httrack` - potrafi śledzić kilka adresów, aktualizować w miarę potrzeby i mam wrażenie, że jest łatwiejszy w obsłudze ;)

· · Web · 1 · 0 · 1

@sp6mr
też właśnie chciałem sugerować, robi robotę
@miklo

Sign in to participate in the conversation
Mastodon.Radio

Mastodon.Radio is a community space for the Amateur (Ham) Radio community. Come join us and talk radio, technology, and more!