750

Изучаем GNU/Linux часть 21. Ядро Linux

Продолжаем изучать GNU/Linux и готовиться к сертификации от Red Hat (RHCSA).


Для тех, кто видит мои посты впервые - я стараюсь очень лёгким языком с нуля научить вас работать с операционной системой GNU/Linux. Зачем? Потому что - Стоит ли делать курс по RHCSA?


Предыдущие темы:

Изучаем GNU/Linux часть 20. Права на файлы (RHCSA)

Изучаем GNU/Linux часть 19. Пользователи и группы (RHCSA)

Изучаем GNU/Linux часть 18. Sudo

Изучаем GNU/Linux часть 17. Su и visudo (RHCSA)

Изучаем GNU/Linux часть 16. Процессы #3: Работа с процессами (RHCSA)

Изучаем GNU/Linux часть 15. Процессы #2: Информация о процессах #2 (RHCSA)

Изучаем GNU/Linux часть 14. Процессы #1: Информация о процессах

Изучаем GNU/Linux часть 13. Bash #2: переменные (RHCSA)

Изучаем GNU/Linux часть 12. Bash #1: bash-completion, alias, type

Изучаем GNU/Linux часть 11. Стандартные потоки (RHCSA)


Ссылки на темы 1 лвла - Изучаем GNU/Linux часть 10. Текстовые редакторы nano и vi (RHCSA)


Немного поговорим про ядро и его модули, затронем тему драйверов, информации об устройствах, udev, sysfs и прочее.

P.S. Текст из видео в комментариях.


P.P.S. Мне бы пригодилась помощь в создании большого количества заданий и вопросов для обучающихся -> Задания, вопросы и ответы

GNU/Linux

1.2K пост15.6K подписчика

Правила сообщества

Все дистрибутивы хороши.

Будьте людьми.

Вы смотрите срез комментариев. Показать все
Автор поста оценил этот комментарий

Когда начнёшь заварачивать трафик с openvpn в obfs4proxy и направлять ноду в Тор, тогда плюсанут, но для этого ещё еьизусен стек TCP/ip

раскрыть ветку (29)
3
Автор поста оценил этот комментарий
После азов я скорее всего продолжу делать курс, уже про нормальное администрирование, включая всякие сервисы типа веб серверов, днс и прочее. И как бы с одной стороны если я начну объяснять TCP/IP , то я даже без понятия, сколько это займет. Если же я не буду объяснять, а предложу посмотреть другие курсы, то, предполагаю, что будут пробелы. Даже у опытных админов я часто вижу большие пробелы в сетях, многие даже понятие гейтвей понимают не до конца. Так что про сети вообще хз, делать ли небольшой курс по сетям для админов, для перехода от азов до нормального администрирования? Хотя с небольшим курсом у людей потом будут пробелы, которые сильно сказываются на понимании принципов работы. Не знаю как быть, крч.
раскрыть ветку (28)
0
Автор поста оценил этот комментарий

Доброго дня. Извиняюсь за офтоп. Помогите, пожалуйста, разобраться с загрузчиком LILO.
Вкратце: есть образ системы альт-линукс. Система стояла на флеш-накопителе CF (PATA), теперь нужно перенести на интерфейс Sata. Все делаю по мануалу LILO и форумам, но на выходе у меня получается:
VFS: Cannot open root device "301" or unknown-block(3,1)

Please append a correct "root"=boot option

Kernel panic - not syncing: VFS: Unable to mount root fs on unknown-block(3,1)


раскрыть ветку (17)
0
Автор поста оценил этот комментарий

Добрый день,

Можете показать lilo.conf ? Выполнили команду lilo после редактирования файла?

раскрыть ветку (16)
0
Автор поста оценил этот комментарий

disk=/dev/hda (меняю на sda)

bios=0x80

compact # faster, but won't work on all systems.

boot=/dev/hda (тут тоже меняю на sda)

#install=/boot/boot.b

#install=/boot/boot-bmp.b

#message=/boot/splash/message

prompt

delay=10

timeout=10

#default=HDD

default=Flash

vga=normal

# 640x480 (64k)

#vga=0x0311

image=/boot/vmlinuz-2.6.12-std26-up-alt10

initrd=/boot/initrd-2.6.12-std26-up-alt10.img

label=l-start

root=/dev/hda1 (меняю на sda1)

read-only

optional

append="panic=5 splash=silent rootflags=data=journal"

#image=/boot/vmlinuz-2.6.12-std26-up-alt10

# initrd=/boot/initrd-2.6.12-std26-up-alt10.img

# label=Flash

# root=/dev/hdc1

# read-only

# optional

# append="panic=5 splash=silent rootflags=data=journal"


Пробовал указывать диск sdb, но все то же самое(


После изменений обязательно lilo.


Делал еще через chroot с liveCD

mount /dev/sda1 /mnt

mount -t proc proc /mnt/proc

mount -t sysfs sys /mnt/sys

mount -o bind /dev /mnt/dev

чрутимся в примонтированный раздел

chroot /mnt /bin/bash

инсталим lilo

/sbin/lilo

размонтируемся

umount /mnt/proc

umount /mnt/sys

umount /mnt/dev

umount /mnt/

reboot

Но, снова при загрузке пишет VFS: Cannot open root device «801» (раньше было 301)
раскрыть ветку (15)
1
Автор поста оценил этот комментарий

а покажите ls /boot

раскрыть ветку (13)
0
Автор поста оценил этот комментарий
Добрый день
Иллюстрация к комментарию
Иллюстрация к комментарию
раскрыть ветку (12)
0
Автор поста оценил этот комментарий
Это экран, на котором все валится.
Иллюстрация к комментарию
раскрыть ветку (11)
1
Автор поста оценил этот комментарий

Странно, судя по модулям, которые он загружает, там есть ide, и я не вижу загрузки модуля scsi. Возможно в initrd нет этого модуля, из-за чего не получается использовать устройство.

Вы пробовали оставить параметр root как hda1 ? Возможно диск опознаётся ядром как hda (хотя не факт).

Еще вариант добавить модуль scsi_mod и пересгенерировать initrd. Вот гайд как это сделать https://nixtux.ru/208 , только он добавляет MODULES_PRELOAD+=crc32c, а вам нужно MODULES_PRELOAD+=scsi_mod
ядро старое, модуль вроде должен быть, но на всякий случай проверьте, чтобы при генерации не было ошибок на модуль

раскрыть ветку (10)
0
Автор поста оценил этот комментарий
Благодарю, попробую покопаться.
0
Автор поста оценил этот комментарий

В общем, /etc/initrd.mk у меня нет...

Нашел статью по добавлению сата в старый инитрд: https://www.opennet.ru/base/sys/sata_install.txt.html

Но у меня проблема, не могу изменить в файлах смонтированного в папку initrd. Пишет read-only

монтируем рамдиск в каталог 1

# mount -o loop initrd-2.4.22-1.2154.nptl.asp.img 1


как дать права на редактирование смонтированного образа? все делаю через рут, все равно не дает(

раскрыть ветку (8)
1
Автор поста оценил этот комментарий

а какие права на сам файл? mount -o loop,rw initrd-2.4.22-1.2154.nptl.asp.img 1 что говорит?

раскрыть ветку (7)
1
Автор поста оценил этот комментарий

и sda1 точно корень?

mount /dev/sda1 /mnt

ls /mnt

Автор поста оценил этот комментарий

Как хочешь, тред твой) я щас занимаюсь другим мне щас ceph storage интересен

раскрыть ветку (9)
0
Автор поста оценил этот комментарий
интересная тема, хотелось бы пощупать на реальном проде, но тут пока это не популярно
раскрыть ветку (8)
0
Автор поста оценил этот комментарий
Держу цеф и проксмокс на 3 серверах + 2 аппликейшен ноды отлично верятся уже года 3. Огромный плюс это живая миграция вм. А насчет основ оси и тспайпи есть книжка циско icnd1-2 и клевый курс сети для самых маленьких
раскрыть ветку (6)
1
Автор поста оценил этот комментарий

Ну не в обиду, под реальным продом я подразумевал хотя бы серваков 20-30, какую-нибудь высоконагруженную среду. Уверен на ~10 серверах всё это будет хорошо, а вот  как себя ведут кластерные фс при больших объёмах данных и больших нагрузках? вот прям  повыдёргивать  диски, сервера и увидеть, что всё в порядке, посмотреть перестройку нагрузок и т.п.

Да, знаю, про сети вообще теории, возможно, больше, чем про ОС, но типа сказать "идите читайте такие то книжки, потом сможете понять".. ну не знаю. Возможно и сам какие-то основы для админов покажу, а для подробностей предложу почитать какие-нибудь курсы.

раскрыть ветку (5)
0
Автор поста оценил этот комментарий
Про книжки это я к тому, что если вы хотите создать свой курс, то в рунете уже есть похожий
0
Автор поста оценил этот комментарий
Ох, дружище, прости конечно, но выкинь ты из головы эту мантру про «высоконагруженную среду».
Посмотреть как оно себя ведёт в случае «повыдергивать диски» можно за пару тысяч рублей, раскатив в облаке пяток виртуалок, но правда в том, что скорее всего реально хайлоада в твоей работе не будет примерно никогда и дожидаться этого смысла большого нет. Хочется - разверни да потыкай.
А вообще - начинай с малого.
P.S. У меня есть кластер ceph на 10 машин. Нормально он переживает, никакой магии особой там нет. Но стоит помнить, что на доскональное изучение ceph нужно положить или жизнь, или хуй.
P.P.S. На практике работал с системами хранения на сотни машин, реальным хайлоадом, облаками, кубиком и хрен его знает ещё с чем, а начинал когда то вообще bsd админом.
Так вот, в подавляющем большинстве случаев реального хайлоада нет нигде. Есть вопросы оптимизации и умеренно-нагружённые системы. И практическая польза от работы с реальным хайлоадом будет только в другом хайлоаде. И то, если со стеком повезёт и он будет хотя бы схож.
раскрыть ветку (3)
1
Автор поста оценил этот комментарий

Ну, обычно всё умеренно нагруженно, да. Но скажем в городе с датацентром блэкаут, трафик прыгает на ДР, пик трафика и, допустим, ложаться  какие-то диски. То есть стрессовая ситуация. Просто любопытно.


Ну, у нас да, но хотелось  бы посмотреть на инфраструктуру компании уровня хотя бы яндекса, а то и гугла. Хотя, наверняка в инете можно  найти  информацию.

раскрыть ветку (2)
0
Автор поста оценил этот комментарий
Найти можно. Пишут ребята. Я видел изнутри.
Основана идея хайлоада в том, чтобы на конечном оборудовании его небыло. Это вопрос масштабирования, а не превозмогания.
А так ничего особенного, просто если неправильно рассчитано и есть пиковая нагрузка на каком то компоненте системы, то это просто закономерно приведёт к пиздецу, а дальше уже вопрос что именно этот пиздец зацепит. Сложные системы и разваливаются сложно и разнообразно, просто посмотреть туда ничего не даст, надо именно полноценно эксплуатацией заниматься. Но, знания все равно будут специфичны системе, кроме самых общих, которые наберутся по ходу изучения различных компонентов вроде особенностей сетевого стека, поведения при oom и т.д. Если интересно - читай разборы про факапы больших систем, оттуда можно подчеркнуть полезное.
раскрыть ветку (1)
0
Автор поста оценил этот комментарий
Факапы - самый сок, люблю эту тему
Автор поста оценил этот комментарий

У меня есть идеи и как пощупать , но хочется перед щупаньем разобрать его на демонов и понять как оно живёт там

Вы смотрите срез комментариев. Чтобы написать комментарий, перейдите к общему списку