Вечер добрый,
Подскажите пожалуйста ответ на тривиальный вопрос, мне явно не хватает здесь знаний алгебры
При выводе в теории множеств часто используется индикаторная фунция, которая определяется как отображение на
![$[0,1]$ $[0,1]$](https://dxdy-03.korotkov.co.uk/f/a/c/f/acf5ce819219b95070be2dbeb8a671e982.png)
При этом для вывода используеться алгебра в

(а не в

), - например, формула индикатора симметричной разности

Смущает то, что в примере выше используется число 2, которое не имеет прообраза в отображении I.
Для понимания не хватает формального объяснения, почему мы можем использовать операции в N, cохраняя корректность вывода.
Например, может быть подразумевается, что результат вывода всегда остается в
![$[0,1]$ $[0,1]$](https://dxdy-03.korotkov.co.uk/f/a/c/f/acf5ce819219b95070be2dbeb8a671e982.png)
, но доказательство опускается из-за тривиальности?
Возможно в алгебре существует какая-то классификация таких преобразований и их свойства, из которых формально бы корректность вытекала?