Показательное, конечно. Проблема в том, что не очень понятно, куда послать: процесс Пуассона можно ввести несколькими эквивалентными способами, и на какой из них Вам следует опираться, я не знаю. А про то, что интервалы между событиями пуассоновского потока показательные и независимые, даже и в википедии написано.
(Оффтоп)
Если, скажем, мыслить себе процесс Пуассона как вот в этой лекции (В.И.Афанасьев)
http://www.math.msu.su/department/matst ... opic10.pdf , то он сразу даётся как процесс восстановления, построенный по показательным слагаемым: берём независимые и одинаково показательно распределённые слагаемые

с распределением

, строим суммы

,

, и процесс Пуассона есть

,

- сколько раз успели суммы отметиться на отрезке
![$(0,t]$ $(0,t]$](https://dxdy-02.korotkov.co.uk/f/d/0/8/d083e256e1d691136c9935e4c7fccdf782.png)
.
Но при таком определении следует доказывать остальные свойства процесса Пуассона, что и делается в теореме 2 (см. также аксиомы 1-3 на стр.4). А именно, следует доказывать, что количество событий процесса на любом интервале времени имеет распределение Пуассона с параметром, зависящим только от длины этого интервала, и что случайные величины, равные количествам событий на непересекающихся интервалах времени, независимы в совокупности.
Можно, наоборот, исходить из аксиом 1-3 (стр.4) как из определения процесса Пуассона. Тогда, например, просто получается, что время до первого события имеет показательное распределение: это время больше

, когда за интервал
![$(0, t]$ $(0, t]$](https://dxdy-01.korotkov.co.uk/f/0/d/f/0df4a4b580e73c2cc6b0d97b8b05423182.png)
не случилось ни одного события потока. Эта вероятность в распределении Пуассона есть

. Вот и показательное распределение. Но независимость интервалов между событиями уже надо получать отдельно (см. там же задачу 2 на стр.5).
Мне больше нравится третье определение процесса Пуассона, из которого нужно долго и трудно получать искомые свойства, зато эффект красивый. Пусть в некоторые положительные случайные моменты времени наступают какие-то события, и наш процесс

считает число событий за время
![$(0, t]$ $(0, t]$](https://dxdy-01.korotkov.co.uk/f/0/d/f/0df4a4b580e73c2cc6b0d97b8b05423182.png)
. Предположим, что

обладает свойствами:
1) стационарность: распределение числа событий на интервале
![$(a+t, b+t]$ $(a+t, b+t]$](https://dxdy-02.korotkov.co.uk/f/1/5/e/15e691fbd1df90af3faaead614dd40e182.png)
такое же, как на
![$(a,b]$ $(a,b]$](https://dxdy-01.korotkov.co.uk/f/c/6/f/c6f523011785edb445cc341039ecd26e82.png)
для любых

,

;
2) отсутствие последействия: для любых попарно непересекающихся интервалов количества случившихся в них событий суть взаимно независимые случайные величины;
3) ординарность: вероятность появиться двум или более событиям потока в любом интервале длиной

есть

при

.
Тогда

является однородным процессом Пуассона со всеми вытекающими последствиями.
Получение остальных свойств процесса из этих мало к чему обязывающих качеств можно найти много где, обычно в лекциях любят такие вещи. Навскидку приходит в голову вот такой очень подробный источник: Б.В.Гнеденко, И.Н.Коваленко "Введение в теорию массового обслуживания", параграф 1.1. (см. libgen.org).