Нет никаких проблем и с потраекторным пониманием. Но тут возникает некоторый нетривиальный прикол.
Допустим сначала, что мы хотим проинтегрировать некую достаточно гладкую функцию

по чему-то тоже достаточно гладкому

, то есть определить

. Если есть чуть больше гладкости, чем у винеровского процесса (строго: если есть гельдеровость с суммой показателей больше единицы), мы можем взять гладкие

и определить

. Такое определение будет корректно, если не только

, но и если коэффициент гельдеровости для разницы сходится к нулю. Так получается интеграл Юнга.
Теперь обещанный нетривиальный прикол. Вот мы хотим, например, определить

, где

- винеровский процесс. Хотя мы и не в ситуации предыдущего абзаца (винеровский процесс - гельдеровский с показателем вплоть до 1/2, так что сумма показателей гельдеровости меньше 1), но мы можем попробовать действовать точно так же. К сожалению, у нас ничего не получится, а если и получится, то ответ будет существенно зависеть от приближающей последовательности

.
Есть несколько путей, как эту проблему преодолеть, один из них описан у Фелльмера: H. Follmer "Ito integration without probability". Я не буду его тут переписывать, поля слишком узки.
Второй, более естественный, но более сложный для понимания, путь состоит в следующем. Раз мы не можем корректно посчитать

, то скажем
по определению, что

, где функция

(так называемая "площадь Леви") удовлетворяет некоторым логичным условиям. Оказывается, что этого достаточно, чтобы интегрировать уже почти любые функционалы от винеровского процесса по нему же и решать стохастические дифференциальные уравнения. Например, если

, то получаем интеграл Стратоновича, а если

-- интеграл Ито.
Выворачивая эту идею наизнанку, можно сказать так. Если траектория процесса достаточно гладкая (показатель гельдеровости больше 1/2), то мы можем интегрировать по ней без значительных проблем. Если же она уже не такая гладкая, более шершавая, то
для интегрирования недостаточно информации, содержащейся исключительно в траектории, и нам нужна дополнительная информация -- для винеровского процесса это площадь Леви

. И чем шершавее траектория, тем больше информации о ней нужно знать. Шершавость выражается в показателе Гельдера

, а потребность в новой дополнительной информации возникает, когда

,

-- натуральное.
На этом подходе основывается теория "шершавых траекторий" (rough path theory), придуманная замечательным во всех отношениях оксфордским математиком Терри Лайонсом. В русской литературе, к сожалению, не описана. В англоязычной см. книгу Fritz, Victoir "Multidimensional Stochastic Processes as Rough Paths: Theory and Applications".