А вот по поводу методики поговорить можно, это -- момент, в известной мере не зависящий от финансирования и вообще от состояния экономики. Вы говорите вроде и правильные вещи -- если по отдельности, но в совокупности -- с чудовищным смещением акцентов. Безусловно, примеры приложений давать нужно, и даже чистым математикам, не говоря уж о прикладниках. Но вот говорить о том, что "учить в первую очередь надо приложениям" -- это экстремизм чистейшей воды. Это -- вовсе не предмет математики.
Как Вы думаете, почему численные методы выделяют в отдельный курс, и притом старший (как правило -- примерно третий)? Ведь казалось бы, чего проще: сперва зубрим там формулу Симпсона (и её погрешность), интерполирование (и его погрешность), QR-алгоритм (и скорость его сходимости)... А потом потихонечку, не торопясь, даём наконец определения: что такое интеграл, что такое производная, что такое матрицы и их собственные числа, наконец, что такое вообще оценка и что под этим понимается...
Я категорически против "зубрежки формул". Но проблема в том, что преподавание математики прикладникам зачастую превращается для них как раз в зубрежку совершенно непонятных им и не имеющих приложений определений и доказательств, что наносит непоправимый ущерб.
Моя позиция основана на двух базовых тезисах.
Первое: нельзя забывать, что работа математика и работа прикладника - это две совершенно разные вещи. Работа математика заключается в том, чтобы доказывать теоремы. Как вариант - разрабатывать математические методы, пригодные для прикладных вещей, и исследовать эти методы теоретически. Прикладник же не должен доказывать теоремы и разрабатывать математические методы. Его взаимодействие с математикой заключается в правильном применении существующих математических методов и грамотной интерпретации получаемых результатов. Как вариант - формулировка своей прикладной задачи в виде, в котором к ней могли бы подступиться математики-теоретики.
Математиков учат в соответствии с их целями. Для этого им необходимо строго определять все базовые понятия, изучать доказательства теорем, чтобы на этом примере учиться делать это самому, детально разбираться в теоретических тонкостях. Проблема в том, что затем эти математики приходят преподавать предмет прикладникам и механически переносят на них тот же самый метод обучения, не осознавая, что перед этими людьми стоят совершенно другие задачи.
Совершенно не обязательно до деталей знать устройство мотора автомобиля, чтобы быть хорошим водителем. Совершенно не нужно знать технические детали устройства процессора и других частей компьютера, чтобы успешно на нем работать. Полезно представлять себе в общих чертах анатомию и физиологию человека, но совершенно не нужно препарировать трупы в морге, что входит в обязательный курс обучения профессионального врача. Почему же математики убеждены, что их подопечные не смогут осознать понятие производной и пользоваться ею на практике, если не изучат сначала понятие предела, не сформулируют определения производной через предел и не докажут самостоятельно все свойства производной?
Я знал случай, когда семинарист по теории вероятностей (для нематематиков) по своей инициативе ввел в своих группах характеристические функции (хотя в основной программе их не было). Это даже было чем-то вроде необходимого условия для досрочного экзамена. При этом он был совершенно убежден, что это исключительно важное и полезное понятие для теории вероятностей, поэтому разумеется его нужно включать в программу. Никто не спорит, что это важное средство, но это теоретический инструмент, нужный для доказательства различных, скажем, предельных теорем. Никто из прикладников не будет доказывать всякие экзотические предельные теоремы (да и собственно пользоваться ими он тоже не будет), поэтому зачем им это надо? Зачем требовать знания формулы плотности нормального распределения? Зачем требовать точной формулировки даже достаточных условий центральной предельной теоремы? Они никогда не применяются на практике. Общее представление о ЦПТ иметь нужно, но оно должно быть совсем не таким, как для математика-теоретика.
Собственно,
второй мой тезис заключается в том, что при работе с различными абстрактными понятиями мы опираемся на некоторое
пространство образов, которое формируется у нас в процессе обучения и применения полученных знаний. Когда математик видит фразу "рассмотрим произвольное
...", то у него сразу возникает некий образ, помогающий ему в дальнейшем эту посылку использовать. Этот образ сформирован многократной тренировкой применения подобных вещей в процессе обучения. Или, скажем, тот же предел: у математиков есть соответствующий образ, обобщающий самые разные понятия пределов: и предел последовательности, и предел функции в точке, и предел функции на бесконечности, и предел интегральных сумм при измельчении разбиения. Практика и общий образ помогают выделить ту общую суть, которая есть со всех этих понятиях, и абстрагироваться от несущественных технических деталей.
Однако у студентов-нематематиков таких образов нет. Преподаватели часто этого не осознают, и не стремятся эти образы сформировать, хотя это должна быть первоочередная задача, если мы хотим, чтобы математические курсы имели хоть какой-то смысл. Для студентов все эти определения пределов - это абстрактные наборы символов, причем разные, они не понимают, почему предел последовательности должен определяться именно так, а предел функции - иначе. Они этого не чувствуют.
Математики чувствуют себя неуверенно, пока все базовые понятия не определены. Поэтому они идут привычным для себя путем: дают формальное определение, а затем применяют его в доказательствах теоретических теорем, исходя из того, что таким путем придет понимание данной математической сущности и умение с ней работать. Поэтому и на экзаменах они исходят из того, что если студент сумел сформулировать определение предела на языке эпсилон-дельта - то значит он предмет знает и сумеет при необходимости с пределом правильно работать. А если не сумел - приходи на пересдачу. Такое представление - грубая ошибка.
Студентов слишком перегружают ненужными техническими деталями. Ну зачем им, к примеру, теорема Вейерштрасса? Даже формулировка, не говоря уже о доказательстве. В итоге студенты за деревьями не видят леса. Абсолютно характерная для всех модель поведения: дойдя до конца какого-нибудь теоретического доказательства, студент вздыхает с облегчением и считает, что задачу свою выполнил; почти никто сходу не сможет ответить на вопрос, что именно он только что доказал, зачем он это делал, какое место занимает доказанное техническое утверждение в той основной задаче, которую он решал, и что нужно делать дальше. А когда он вернется и после долгих мучений снова это вспомнит - у него уже выпало из головы то доказательство, которое он проводил. Спрашивается, зачем оно было нужно, нельзя ли было без него обойтись? Разумеется, можно, но преподаватель-математик не выносит пробелов в рассуждениях и не любит утверждений, принимаемых "на веру".
Закономерным конечным итогом такого обучения является то, что студент сразу после сдачи экзаменов выбрасывает из головы всю эту чушь и остается со стойким убеждением, что "вышка" - это полная фигня, которая никому не нужна и не приносит никакой пользы. Если когда-нибудь у него возникнет необходимость применить какой-нибудь математический метод, и он даже найдет книгу или статью, где этот метод изложен, то при взгляде на сложные формулы у него возникнет рвотный рефлекс; он решит, что сейчас ему придется опять разбираться в каком-то непонятном доказательстве (хотя это на самом деле совершенно не требуется), поэтому он бросит эту затею и применит что-нибудь простейшее, пусть не подходящее под данную задачу или совсем не оптимальное, зато простое, что применяют все.
Я убежден, что учить нужно прежде всего пониманию сути математических объектов; нужно явно формировать понятное пространство образов, чтобы при слове "интеграл" или при взгляде на интеграл студент представлял себе не абстрактный "предел интегральных сумм", а площадь; чтобы понимал, откуда этот интеграл мог в практической задаче возникнуть, как с ним можно обращаться и т.д. Большинство понятий математического анализа нужно вводить и изучать сначала геометрически, так как это самое наглядное и вполне правильное понимание. Только уже в самом конце можно сказать, как звучит математическое определение, и почему оно выражает именно эту же геометрическую идею.
Понятие предела, с которого началось обсуждение, находится на грани тех сугубо теоретических инструментов, без которых замечательно можно обойтись. Ну для чего прикладнику может реально понадобиться брать самому какой-то сложный предел или вообще иметь с ним дело?
Честное поведение математика-преподавателя заключалось бы в том, чтобы взять книги или статьи по практической тематике, где бы использовались какие-то математические методы, и объяснение студентам в первую очередь тех математических понятий, которые нужны, чтобы суметь понимать формулировки этих методов и область их применения. Чтобы будущий специалист смог бы взять эту или подобную работу и самостоятельно понять, подходит ли метод под его прикладную задачу, как его применить, что нужно проверить и как понять результаты. А углубления в доказательства - это не для общего курса, а только для тех, кто интересуется и имеет соответствующие склонности.
Вот так как-то.