Есть параметры надежности системы.
Они оцениваются и сравниваются с заданными.
К примеру первые ЭВМ имели показатели надежности порядка
, а в современных от
до
В современных системах распознавания от
до
Есть методики ведения проектов. В которых на разных этапах разработки параметры надежности должны оцениваться. И соответствующие службы - отдел качества должен принимать меры.
Цитата:
А если задача "опасная"?
Что касается ответственных задач, то там принимают соответствующие меры разработки. Если эти системы отвечают за жизни людей, то там применяют отдельные команды для разработки и для тестирования. Причем первых изолируют от других.
А также дублируют отдельные механизмы и алгоритмы. Что повышает надёжность систем.
Цитата:
Например, когда мы говорим "контраст маленький - до свидания" - самое адское зло. А если корреляция с шаблоном ниже порога - это тоже зло, но более доброе зло. Потому что в корреляции участвует много данных.
Есть ошибки I-рода, а есть ошибки II -рода. Так вот при слабо сигнале у вас может превысить ошибка II рода. Тогда всё будет ещё хуже. Так что лучше выкидывать.
Это как с белым шумам. Используя фильтры из белого шума можно получить любой сигнал. Вот только к полезной информации он не будет иметь ни какого отношения.
Цитата:
Тогда я говорю: "давайте сделаем замешанный вариант: М = a*контраст + б*цвет и это будем сравнивать с каким-то порогом". Тогда мне говорят: "Делай проще, глупец, и ведь параметры "а" и "б" по сути тоже назначаемые параметры.". Но, как мне кажется, во втором случае параметры как бы более адаптивные, более устойчивые к шуму что ли. Где правда?
Давно известна теорема Баейса, но не все умеют ей пользоваться. А вот более устойчива формула к шуму или нет надо проверять. А это двойная работа.
Совет делать проще правильный. Вначале надо сделать хоть как-то, а потом можно будет дорабатывать систему. Смотреть где ошибок больше что влияет больше. И выбирать те места которые оптимизировать. А то иначе закопаетесь на одном месте. Учитесь планировать своё время.
Ведь по мима увеличения параметров есть и другие методы, которые более лучше работают.
Цитата:
Как я могу выбросить из рассмотрения кучу пикселов только потому, что у них контраст на несколько единиц меньше порога? или цвет не совсем такой? (ведь могут быть искажения на исходных данных)
Могут быть, а могут и не быть. Это же вероятность. Во-вторых информация дублируется. У вас я так понял спутниковые снимки. Ежедневно в космосе летает больше 100 спутников ДЗЗ и если прикинуть, то одновременно одну точку снимает от 4 до 20 спутников. Да и каждый час или сутки информация повторяется. Основная проблема как раз объемы информации - они очень большые. Да ещё растут с ускорением.
С искажениями к примеру можно бороться двойным порогом.
Цитата:
Тогда я говорю: "давайте сделаем замешанный вариант: М = a*контраст + б*цвет и это будем сравнивать с каким-то порогом".
Можно ещё и методы усиления(Ada busting) использовать. Я же говорю закопаетесь.
А ещё алгоритмы надо проектировать устойчивыми, а устойчивость бывает 3-х видов.
А вот когда диплом писать будете. То и надёжность вам считать надо будет, и устойчивость и методикой тестирования овладеть и научиться планировать: эксперимент, тестирование и разработку.
Книги, эм даже и не знаю. Просто как-то не видел маломальские книги где-бы всё это было в одном месте.