Умножение на ноль

По мотивам постов Влиятельный человек и И снова о яблоках

Часто наблюдаю непонимание, почему же при умножении числа на ноль получается ноль? И действительно, это не очень логично, мы же умножаем, значит число должно увеличиться, так почему же получается ноль?

Проблема лежит в том, что большинство принимает это за аксиому. Умножение на ноль следует из аксиом, но само по себе аксиомой не является.

Для доказательства нам понадобится две аксиомы (я опущу принадлежность к множествам для простоты):

1. Одна из аксиом сложения:

a + (-a) = 0

в этой аксиоме определяется ноль. Таким образом ноль это сумма числа и числа обратного ему (т.е. со знаком минус)

2. Одна из аксиом умножения:

(a + b)c = ac +bc

в этой аксиоме задается дистрибутивность умножения. Думаю многие уже поняли к чему все тут ведется.


И так, давай те же умножим любое число на ноль, и посмотрим как же это умножение будет выглядеть опираясь на аксиомы описанные выше.

Получаем следующее:

(a + (-a))c

Раскрываем  скобки:

ac + (-ac)

Если после раскрытия скобок заменить число "ac" на "b", то мы получим выражение из первой аксиомы, а оно равно нулю.

Для простоты рассмотрим пример, с определенными числами и попытаемся умножить 100 на ноль.

100*0

Представляем ноль как сумму 1 и -1

100(1 + (-1))

Раскрываем скобки внутри скобок

100(1 - 1)

Раскрываем оставшиеся скобки:

100*1 - 100*1 = 0


Надеюсь после этого вы перестанете пытаться умножить 100 яблок на ноль, и вместо этого будете вычитать 100 яблок из 100 яблок :)