Wget — это не волшебная палочка, а тупой инструмент, который делает одну вещь: скачивает файлы из Интернета через HTTP, HTTPS и FTP. Ты дал ему URL — он скачал. Всё просто, как твоя жизнь после третьей смены.

Проверка и установка — не издеваемся

Проверить, установлен ли wget — просто вбей в терминал:

wget

Если система выдала wget: missing URL, поздравляю — wget у тебя есть. Если command not found — пора ставить:

sudo apt install wget

Если ты на другой системе — иди учи свой пакетный менеджер, тут мы не разжёвываем.

Синтаксис — всего две вещи: опции и URL

wget [опции] [url]

Ты указываешь, что хочешь скачать, и при необходимости — как хочешь.

Просто скачать файл — без мудрёных заморочек

wget https://example.com/file.zip

Загрузится в текущий каталог. Если файл уже есть — wget добавит к имени (число), чтобы не затереть твой шедевр.

Сохраняем под другим именем

wget -O новое_имя.zip https://example.com/file.zip

Зачем? Чтобы не мучиться потом с переименованием, особенно когда скачиваешь дерьмо с непонятными именами.

Куда сохранить файл

По умолчанию скачивается в текущую папку. Хочешь в другую?

wget -P /путь/к/папке https://example.com/file.iso

Если не хочешь потом лазить по всей системе — сразу задавай путь.

Ограничиваем скорость, когда инет — как медведь на льду

wget --limit-rate=1m https://example.com/bigfile.tar.gz

Полезно, если не хочешь, чтобы твой wget съел весь канал и оставил тебя без интернета.

Возобновляем загрузку — потому что интернет иногда сдох

wget -c https://example.com/bigfile.iso

Если у тебя упал интернет или ты случайно убил процесс — не начинай всё сначала, используй -c. Но учти: сервер должен поддерживать эту функцию, иначе будешь качать с начала.

Фоновая загрузка — качаем и не мешаем работать

wget -b https://example.com/hugefile.iso

Команда уйдет в фон, а лог загрузки будет в wget-log. Чтобы проверить, как там процесс, используй:

tail -f wget-log

Просто, удобно, не надо открывать новую консоль.

Притворяемся браузером — когда сервера блокируют wget

Иногда сервера тупят и блокируют wget по user-agent. Чтобы обмануть их:

wget --user-agent="Mozilla/5.0 (X11; Linux x86_64; rv:60.0) Gecko/20100101 Firefox/60.0" http://example.com/

Так тебя примут за Firefox, а не за робота из 90-х.

Мультизагрузка из списка — когда у тебя много файлов и нет времени

Создаёшь файл со ссылками (каждая с новой строки), например files.txt:

http://example.com/file1.iso
https://example.org/file2.zip 

И даёшь команду:

wget -i files.txt

Все по очереди скачаются, тебе только попить кофе.

Загрузка с FTP — когда ftp всё ещё жив и жжёт

Если нужен логин:

wget --ftp-user=логин --ftp-password=пароль ftp://example.com/file.tar.gz

Просто, но осторожно — пароль в команде отображается, не для продакшена.

Создаём зеркало сайта — чтобы смотреть, когда интернета нет

wget -m -k -p https://example.com
  • -m — режим зеркалирования
  • -k — конвертация ссылок для локального просмотра
  • -p — скачиваем всё, чтобы страница выглядела как живая

Если хочешь, чтобы сайт был у тебя на жёстком диске — это твой выбор.

Если сертификат по HTTPS — говно, и ты не хочешь морочиться

wget --no-check-certificate https://bad-ssl.example.com

Да, это опасно. Но иногда нужно.

Полезный хак: качаем и сразу распаковываем

wget -q -O - "http://wordpress.org/latest.tar.gz" | tar -xzf - -C /var/www

Качаем WordPress, не создаём файл на диске — сразу отправляем в распаковку. Удобно, если мало места и хочется быть быстрее.

Итог

Wget — простой, надёжный и чертовски полезный инструмент. Нет ничего сложного в том, чтобы качать с ним. Если ты до сих пор открываешь браузер и жмёшь «Скачать» — пора перестать сливать время и научиться минимуму из этого гида.