Hypothesis space определяется на 14 странице
Там нет никакого определения, там есть некоторое размышление
Цитата:
One useful perspective on machine learning is that it involves searching a very large space of possible hypotheses to determine one that best fits the observed data and any prior knowledge held by the learner. For example, consider the space of hypotheses that could in principle be output by the above checkers learner. This hypothesis space consists of all evaluation functions that can be represented by
some choice of values for the weights wo through w6. The learner's task is thus to search through this vast space to locate the hypothesis that is most consistent with the available training examples. The LMS algorithm for fitting weights achieves this goal by iteratively tuning the weights, adding a correction to each weight each time the hypothesized evaluation function predicts a value that differs from
the training value. This algorithm works well when the hypothesis representation considered by the learner defines a continuously parameterized space of potential hypotheses.
Один из полезных подходов к машинному обучению заключается в том, что оно включает в себя поиск в очень большом пространстве возможных гипотез для определения той, которая наилучшим образом соответствует наблюдаемым данным и любым априорным знаниям обучающегося. Например, рассмотрим пространство гипотез, которые в принципе могут быть выведены вышеупомянутым обучающимся. Это пространство гипотез состоит из всех функций оценки, которые могут быть представлены некоторым выбором значений весов от wo до w6. Таким образом, задача обучающегося состоит в поиске в этом обширном пространстве гипотезы, которая наиболее согласуется с доступными обучающими примерами. Алгоритм LMS для подбора весов достигает этой цели путем итеративной настройки весов, добавляя поправку к каждому весу каждый раз, когда предполагаемая оценочная функция предсказывает значение, отличающееся от обучающего значения. Этот алгоритм хорошо работает, когда представление гипотезы, рассматриваемое обучающимся, определяет непрерывно параметризованное пространство потенциальных
гипотез.
Ранее, он описывает систему обобщения (или в моих терминах модель прогнозирования),
Цитата:
The Generalizer takes as input the training examples and produces an output hypothesis that is its estimate of the target function. It generalizes from the specific training examples, hypothesizing a general function that covers these examples and other cases beyond the training examples. In our example, the Generalizer corresponds to the LMS algorithm, and the output hypothesis is the function f described by the learned weights wo, . . . , W6.
Обобщающий алгоритм принимает в качестве входных данных обучающие примеры и выдаёт выходную гипотезу, которая является его оценкой целевой функции. Он обобщает конкретные обучающие примеры, выдвигая гипотезу об общей функции, которая охватывает эти примеры и другие случаи, выходящие за рамки обучающих примеров. В нашем примере обобщающий алгоритм соответствует алгоритму LMS, а выходная гипотеза — это функция f, описываемая усвоенными весами wo,...,W6.
Так мы понимаем о каких весах собственно идет речь и к какому методу это применимо - к методу наименьших квадратов, который корректирует веса
Цитата:
For each observed training example it adjusts the weights a small amount in the direction that reduces the error on this training example. As discussed in Chapter 4, this algorithm can be
viewed as performing a stochastic gradient-descent search through the space of possible hypotheses (weight values) to minimize the squared enor E.
Известно несколько алгоритмов для нахождения весов линейной функции, минимизирующих E, заданную таким образом. В нашем случае нам нужен алгоритм, который будет постепенно уточнять веса по мере появления новых обучающих примеров и который будет устойчив к ошибкам в этих оценочных обучающих значениях. Один из таких алгоритмов называется алгоритмом наименьших средних квадратов, или правилом обучения LMS. Для каждого наблюдаемого обучающего примера он корректирует веса на небольшую величину в направлении, уменьшающем ошибку на этом обучающем примере. Как обсуждалось в Главе 4, этот алгоритм можно рассматривать как стохастический поиск методом градиентного спуска в пространстве возможных гипотез (значений веса) для минимизации квадрата ошибки E.
Таким образом, мы переходим от фикций о которых вы говорите, к тому, что
пространство гипотез - это матрицы весов и ничего более, причем не произвольные, а соответствующие обученному на каждом шаге алгоритму.
Что является основой функционирования "модели прогнозирования". ч.т.д.
-- Пн ноя 10, 2025 19:45:32 --задать пространство гипотез - означает сказать, что у меня float веса, размерностью 784х10000х10, полученные после каждого показа примера
-- Пн ноя 10, 2025 19:47:57 --Таким образом, это сугубо относится к итеративному алгоритму обучения.