Как сделать оффлайн-зеркало сайта?
Есть некий вики-подобный сайт. Для примера пусть будет этот, ибо другие сайты в домене fandom.com вряд ли от него чем-то отличны.
Нужно его скачать для просмотра в оффлайне.
Разумеется, скачать нужно все файлы, необходимые для корректного отображения страниц (html, css, js и другие, какие нужны). Плюс преобразовать все ссылки в относительные локальные, чтоб можно было переходить по ним без подключения к интернетам.
Сколько не пытался экспериментировать с настройками wget'а - получается хрень. По какой-то причине большинство ссылок в локальные не преобразуются, и даже на скачанных страницах начинаются на "https://", то есть без интернета работать, очевидно, не будут.
Проблема особо остро стоит именно с *fandom.com, другие сайты качались без особых проблем.
Команда для загрузки, после многочисленных консультаций с нейросетями, приобрела следующий вид:
wget \
--recursive \
--level=1 \
--page-requisites \
--html-extension \
--convert-links \
--span-hosts \
--domains=halflife.fandom.com,static.wikia.nocookie.net \
--no-parent \
--no-clobber \
--adjust-extension \
--content-disposition \
--wait=0 \
--random-wait \
--execute robots=off \
--no-check-certificate \
--user-agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36" \
--directory-prefix=halflife_mirror \
--output-file=wget.log \
Но проблема так и не решилась.
Есть у кого-то идеи?
P.S. Про httrack знаю, но он показал результаты ещё хуже. Однако если кто-то может поделиться готовой командой, со всеми параметрами, необходимыми именно для зеркалирования такого типа сайтов - буду рад.