Умножение на ноль
По мотивам постов Влиятельный человек и И снова о яблоках
Часто наблюдаю непонимание, почему же при умножении числа на ноль получается ноль? И действительно, это не очень логично, мы же умножаем, значит число должно увеличиться, так почему же получается ноль?
Проблема лежит в том, что большинство принимает это за аксиому. Умножение на ноль следует из аксиом, но само по себе аксиомой не является.
Для доказательства нам понадобится две аксиомы (я опущу принадлежность к множествам для простоты):
1. Одна из аксиом сложения:
a + (-a) = 0
в этой аксиоме определяется ноль. Таким образом ноль это сумма числа и числа обратного ему (т.е. со знаком минус)
2. Одна из аксиом умножения:
(a + b)c = ac +bc
в этой аксиоме задается дистрибутивность умножения. Думаю многие уже поняли к чему все тут ведется.
И так, давай те же умножим любое число на ноль, и посмотрим как же это умножение будет выглядеть опираясь на аксиомы описанные выше.
Получаем следующее:
(a + (-a))c
Раскрываем скобки:
ac + (-ac)
Если после раскрытия скобок заменить число "ac" на "b", то мы получим выражение из первой аксиомы, а оно равно нулю.
Для простоты рассмотрим пример, с определенными числами и попытаемся умножить 100 на ноль.
100*0
Представляем ноль как сумму 1 и -1
100(1 + (-1))
Раскрываем скобки внутри скобок
100(1 - 1)
Раскрываем оставшиеся скобки:
100*1 - 100*1 = 0
Надеюсь после этого вы перестанете пытаться умножить 100 яблок на ноль, и вместо этого будете вычитать 100 яблок из 100 яблок :)