ИМХО, ноль -- цифра, нуль -- число. Так же как и единица -- цифра, один -- число, двойка, два...
Вот я это давно когда-то тоже выучил и применял сей факт не задумываясь о его содержании. А недавно задумался: что такое цифры? Цифры - это конечное множество
первых натуральных чисел и нуля (или ноля - пока не обращаем внимание - неважно). Т.е. цифры - это элементы множества
, в них записываются натуральные числа:
. По идее, в обоих частях формулы
- одни и те же, но в правой части
- это натуральные числа или нуль. В итоге получается, что цифра ноль - это нуль
(и тогда слово "ноль" не нужно, проще всегда и везде говорить "нуль").
Либо так: ноль - это буква языка с параметром
(можно выписать язык явно), в котором записываются натуральные числа. Язык просто кодирует натуральные числа, мы пишем код чисел, а под ними понимает сами натуральные числа и все. Тогда ноль и нуль - разные вещи. (и тогда первые
цифр и чисел - разные вещи, просто совпадающие графически).
Так что я не понимаю все-таки