Или это потому, что метод подразумевает необходимость по сто раз по кругу предьявлять одни и те же примеры? Хотя для оптимального алгоритма должно хватить одного раза. Скажем, чтобы провести прямую методом МНК через десять точек, достаточно использовать их (эти точки) в расчетах только один раз.
Во-первых, примеры, которые предъявляются - на 5-10-20% противоречивы, неинформативны, поэтому точность обучения не может подняться выше какого-то эмпирического предела 60-90-99%...
Во-вторых, полный перебор слишком затратен, а методы, которые реальны, часто прозябают в локальных минимумах.
Ой, если вспомню какой-нибудь третий аргумент... Но я думаю достаточно.
Практика показывает, что при наличии адекватного объёма данных для обучения, нейросеть превосходит человека
в конкретной задаче как минимум на 1-2%, но только благодаря точной и большой памяти, неустанности. То есть обучение нейросети очень эффективно.
-- 17.03.2025, 19:59 --Самое интересное, что примерно до 2012 года была зима (или осень?) искусственного интеллекта, но именно с того момента количество данных выросло до критического значения и наконец-то начался прорыв. То есть алгоритмы были, в принципе, хорошие, не хватало данных. Нужно было пережить десятилетие, с того момента, как появился Гугл, широко распространённый интернет, серверы...
-- 17.03.2025, 20:06 --Хотя для оптимального алгоритма должно хватить одного раза.
Не для оптимального алгоритма, а для оптимальных условий, когда алгоритм достаточно обучен. Если алгоритм не обучен, то ему надо сто раз повторить. Если алгоритм обучен, то только один раз намекнуть.
Здесь стереотипия у людей, некоторые считают, что они часто с первого раза понимают. Ага, идите научитесь забивать мяч по воротам с одного раза или забивать мяч в баскетбольную корзину... Гигантская ошибка - многие считают, что
обучение не нужно. А оно нужно и его требуется годы.