4

Как сделать оффлайн-зеркало сайта?

Есть некий вики-подобный сайт. Для примера пусть будет этот, ибо другие сайты в домене fandom.com вряд ли от него чем-то отличны.

Нужно его скачать для просмотра в оффлайне.

Разумеется, скачать нужно все файлы, необходимые для корректного отображения страниц (html, css, js и другие, какие нужны). Плюс преобразовать все ссылки в относительные локальные, чтоб можно было переходить по ним без подключения к интернетам.

Сколько не пытался экспериментировать с настройками wget'а - получается хрень. По какой-то причине большинство ссылок в локальные не преобразуются, и даже на скачанных страницах начинаются на "https://", то есть без интернета работать, очевидно, не будут.

Проблема особо остро стоит именно с *fandom.com, другие сайты качались без особых проблем.

Команда для загрузки, после многочисленных консультаций с нейросетями, приобрела следующий вид:

wget \

--recursive \

--level=1 \

--page-requisites \

--html-extension \

--convert-links \

--span-hosts \

--domains=halflife.fandom.com,static.wikia.nocookie.net \

--no-parent \

--no-clobber \

--adjust-extension \

--content-disposition \

--wait=0 \

--random-wait \

--execute robots=off \

--no-check-certificate \

--user-agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36" \

--directory-prefix=halflife_mirror \

--output-file=wget.log \

https://halflife.fandom.com/ru/wiki/Заглавная_страница

Но проблема так и не решилась.

Есть у кого-то идеи?

P.S. Про httrack знаю, но он показал результаты ещё хуже. Однако если кто-то может поделиться готовой командой, со всеми параметрами, необходимыми именно для зеркалирования такого типа сайтов - буду рад.