Рад, что не поленился, это реально круто.
Я тоже очень рад. Хотя с другой стороны, грустно: оказывается, много из того, что вам говорят, вы "откладываете в долгий ящик".
Всякие там "разложить в ряд Тейлора" просто выключают меня.
Это штука как раз очень простая, намного более простая, чем обсуждаемые вещи. Это из матанализа за первый курс.
Нарисуйте на бумаге карандашом какой-нибудь произвольный график функции. Возникает вопрос, есть ли у него формула. Ткнём в произвольную точку на графике. Для этой точки формула, конечно, есть:

Теперь приложим линейку по касательной в этой точке. Для получившейся прямой линии тоже есть формула:

Эта формула, конечно, не годится для графика целиком, но позволяет немножко отступить от начальной точки вправо-влево, и получить не слишком сильную ошибку. Если мы отступим слишком сильно, то график "уедет в сторону" от приложенной касательной линии. Но вот что интересно: он "уедет" в какую-то сторону (скажем, вниз) и справа, и слева! И получается, что он похож на параболу. Поэтому, мы можем "приложить параболическую линейку" (мысленную), в этой точке, и получить следующее приближение, лучше прежнего. Если от прямой линии график отходил достаточно быстро, то от параболы он будет не отходить подольше. Формула станет

Можно заметить тенденцию, и продолжить прикладывать "линейки графиков степенных функций", добавляя в формулу слагаемые

всё возрастающих и возрастающих степеней. При этом, описание графика функции будет получено уже достаточно точное на достаточно большом промежутке. Посмотрите, например, ссылку
http://www.wolframalpha.com/input/?i=sin+x+series и понажимайте несколько раз "More terms" на графике. Вот такая приближённая формула, но "бесконечная", записанная с произвольным числом степенных членов, и называется
степенным рядом =
рядом Тейлора (разложением в ряд Тейлора) для заданной функции в заданной точке (в окрестности заданной точки).
Эта штука - очень полезна и теоретически (в каком-то смысле "все функции одинаковые"), и для вычислений. Например, ещё Ньютон пользовался тем, что для такого представления функции очень просто посчитать производную и интеграл: мы просто берём каждое слагаемое вида

и при дифференцировании оно становится

а при интегрировании, наоборот,

Разумеется, это не позволит нам вычислить что-то для всей функции в целом (в конце концов, наше "степенное лекало" где-то отходит от самой по себе точной фунции), но это позволит нам сделать некоторые важные выводы вокруг интересующей нас точки. Или, можно двигаться к следующей точке, и в ней тоже вычислять производную - и так идти "большими шагами".
Теперь ещё один момент, о котором я не сказал, но заглянув в Фейнмана, понял, что должен сказать. Раз мы, взяв производную, получаем из

-ного слагаемого

то
взяв производную
раз (взяв

-ную производную), мы получаем из этого слагаемого

А это вы можете понять: это будет

потому что в нулевой степени всё равно единице. То есть, наше

-ное слагаемое переехало на первое место (а все, которые были перед ним, вообще по очереди обнулились, и не вошли в

-ную производную). А узнать, какое слагаемое стоит на первом месте, очень просто: нам нужно вообще никуда не отступать от исходной точки (вы помните, что всё это мы проделываем вокруг некоторой заданной исходной точки

?), а взять значение прямо в этой точке. Итак, обозначая

-ную производную

мы получаем важное соотношение (которое важно и в ту, и в другую сторону):

То есть, если мы знаем (
откуда-то) все-все-все производные нашей функции в нашей точке, то мы можем написать ряд Тейлора, посчитав его коэффициенты. И наоборот, зная коэффициенты ряда Тейлора, мы можем узнать производные любого порядка. По сути, это одно и то же, незачем про них думать как про разные сущности. И отсюда ещё один забавный факт: вся информация о функции на всём протяжении графика содержится только в одной точке этой функции, если только уметь вычислять производные в этой точке до произвольного порядка! И наоборот. Но осторожно: на самом деле, это не совсем верно, а есть ограничения (кусок графика только конечной длины) и исключения - "нехорошие случаи" - "всюду неприятные функции". Но хотя математики и обязаны об этом помнить, в физике на самом деле важен сам факт такой удивительной связи, и физические функции никогда не бывают такими "нехорошими" (а вот ограничение конечной длины для них действует).
Итак, после этого дополнения, если вы его поняли, я
настаиваю, чтобы вы вернулись к тексту 19 главы, и перечитали неясное место, прямо сразу, не откладывая в долгий ящик, а лучше и всю главу заново с разбегу. Иначе забудется! Разбираться надо, пока всё свежо в голове! И можете рассказать о следующем неясном месте. А если вы не поняли этого моего объяснения, то давайте быстро разберёмся с ним, и всё-таки доделаем ваше чтение главы 19 - по крайней мере, начальной существенной части.
И ещё. В главе 19 Фейнман ссылается на предыдущий рассказ о
принципе наименьшего времени в оптике. Если заинтересуетесь, то это том 3, глава 26. (Странная нумерация глав связана с тем, что три тома американского издания были разбиты на 9 томов в русском переводе. Поэтому номера глав идут по возрастанию сплошняком через тома 1-2-3-4, потом снова с первой - через тома 5-6-7, и потом 8-9.)