tanton писал(а):
Таким образом возникают несколько вопросов - до какого члена и какую функцию нужно раскладывать? И всегда ли мы можем воспользоваться разложением в ряд при определение сходимости несоб. интегралов?
Начнём с того, что речь не о ряде, а о
формуле Тейлора. В чём разница (формально они выглядят одинаково)? Ряд -- это сумма бесконечного количества слагаемых, которая в точности равна раскладываемой функции. В случае же формулы акцент ставится на другом: берётся несколько первых слагаемых и утверждается, что поправка (т.е. разность между ними и исходной функцией) много меньше каждого из слагаемых при стремлении к нулю сдвига относительно стартовой точки.
И вот тут как раз и принципиально -- аккуратно отследить влияние поправочного члена. Т.е. надо выписывать не только начальные члены формулы Тейлора, но и поправку. Если после всех упрощений главным членом окажется поправочный, то это будет означать, что глубина разложения была недостаточной и к-во слагаемых следует увеличить.
Пример: почему при оценке
![$x-\sin x$ $x-\sin x$](https://dxdy-03.korotkov.co.uk/f/e/b/2/eb281804e310410784dcf0574d4d281c82.png)
следует брать именно два члена разложения синуса? Очень просто:
![$x-\sin x = x-\left(x-{x^3\over6}+O(x^5)\right) = {x^3\over6}+O(x^5).$ $x-\sin x = x-\left(x-{x^3\over6}+O(x^5)\right) = {x^3\over6}+O(x^5).$](https://dxdy-02.korotkov.co.uk/f/5/1/0/5103843ed04f640a5eed06ab99e21d8382.png)
Главным является явное (первое) слагаемое, и все счастливы. А вот если бы мы ограничились лишь одним членом разложения, то после сокращения осталось бы только
![$O(x^3)$ $O(x^3)$](https://dxdy-03.korotkov.co.uk/f/2/2/3/223a375787ef0a8a54a7011bb4f8e64b82.png)
, которое содержит недостаточно информации для получения определённого результата.
И ещё чисто техническое замечание. Если особая точка
![$x_0$ $x_0$](https://dxdy-03.korotkov.co.uk/f/e/7/1/e714a3139958da04b41e3e607a54445582.png)
-- не ноль, то следует делать замену
![$t\equiv x-x_0$ $t\equiv x-x_0$](https://dxdy-02.korotkov.co.uk/f/9/b/d/9bd7288b1167cdcb032bbdefb67ed9bb82.png)
и раскладывать уже по степеням
![$t$ $t$](https://dxdy-01.korotkov.co.uk/f/4/f/4/4f4f4e395762a3af4575de74c019ebb582.png)
. Просто потому, что раскладывать в окрестности нуля удобнее.
tanton писал(а):
![d^2F = 2\lamda(dx^2 + dy^2) + 4dxdy d^2F = 2\lamda(dx^2 + dy^2) + 4dxdy](https://dxdy-04.korotkov.co.uk/f/3/2/0/3202d44e43312a8e8333e57a841c4be882.png)
и здесь я немогу понять, как мы можем складывать и умножать дифференциалы?
как можно определить знак в этом выражение?
Это не сложение и умножение первых дифференциалов, а формальная запись
второго дифференциала. Которая определяется матрицей, составленной из всех возможных вторых производных. Если матрица строго положительна (в точке, подозрительной на экстремум), то мы имеем дело с минимумом, если строго отрицательна -- то с максимумом. В свою очередь, положительность матрицы равносильна положительности всех её собственных чисел.
Критерий Сильвестра -- штука да, весьма полезная, но в случае двух переменных выглядит издевательством. Поскольку для матрицы два на два собственные числа определяются простеньким квадратным уравнением. И попросту по теореме Виета матрица будет знакоопределённой, если её определитель строго положителен. А тип экстремума определяется знаком суммы диагональных элементов (т.е. чистых вторых производных): если это "плюс", то точка является минимумом. (Фактически достаточно проверить знак только одной из этих производных -- другой будет таким же.)