2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




 
 Машина Гаусса
Сообщение12.06.2025, 10:24 
Здравствуйте.

https://drive.google.com/file/d/18uLN4V ... p=drivesdk

Мне нужно, чтобы машина правильно понимала этот график, пытаюсь с ней обсудить его. MAPLE строит, но AI не понимает, как быть?

Продолжаю оценивать возможности нейронок.
Perplexity видит все переданные графики из меньшей размерности и про это пишет. Гауссова машина смотрит на них из больших размерностей, применяет проекционные методы, поворачивает, расслаивает.

Буду пытаться дообучить Perplexity, пока не знаю на каком материале ее дообучить.

Если, есть ссылки пришлите.
Спасибо.

-- 12.06.2025, 10:39 --

https://znanium.ru/catalog/document?id=38625 - попробую это залить в Perplexity

Ответы нейронки, выложу позднее.

-- 12.06.2025, 10:40 --

Если, кому удалось настороить, поделитесь обучающей выборкой.

 
 
 
 Posted automatically
Сообщение12.06.2025, 18:06 
 i  Тема перемещена из форума «Математика (общие вопросы)» в форум «Искусственный интеллект и Машинное обучение»
Причина переноса: пока сюда.

 
 
 
 Re: Машина Гаусса
Сообщение12.06.2025, 18:40 
Аватара пользователя
High-trade в сообщении #1690049 писал(а):
Буду пытаться дообучить Perplexity, пока не знаю на каком материале ее дообучить.
Что значит "дообучить Perplexity"? Perplexity - это сервис на основе нескольких больших языковых моделей (LLM). Дообучить LLM может только разрабочик, они не дообучаются на запросах пользователя.

 
 
 
 Re: Машина Гаусса
Сообщение12.06.2025, 20:24 
RAG - сейчас реализовали во всех движках

https://yandex.cloud/ru/blog/posts/2025 ... gle.com%2F - описание RAG

Можно дообучать на своих данных, сохраняя их в спейсе.

Но, требуется хорошая выборка, тогда ответы точнее становятся.

-- 12.06.2025, 20:24 --

-- 12.06.2025, 20:34 --

https://www.perplexity.ai/help-center/e ... are-spaces - про спейсы документация

 
 
 
 Re: Машина Гаусса
Сообщение12.06.2025, 20:43 
Аватара пользователя
Retrieval Augmented Generation - это не дообучение. Она не меняет синаптических весов модели.

Если Вы будете использовать стандартные термины в нестандартном смысле, Вас никто не сможет понять.

 
 
 
 Re: Машина Гаусса
Сообщение12.06.2025, 21:15 
RAG (Retrieval Augmented Generation — генерация с дополненной выборкой) соединяет языковую модель с внешней базой знаний. AI‑помощник на базе RAG сначала находит релевантные документы во внешних источниках с помощью, например, векторного поиска, ранжирует найденную информацию, а затем генерирует ответ на запрос пользователя на основе этих данных.

Хорошо, назовем расширением модели по внешней базе, но проще сказать дообучить на внешних данных, так часто говорят.

 
 
 
 Re: Машина Гаусса
Сообщение12.06.2025, 21:26 
Anton_Peplov прав. Дообучение (не знаю как по-английски) - это исторически дообучение нейросетей на низком уровне. RAG - это уже другое.

Но да, по смыслу тоже подходит. Видимо придётся привыкать.

 
 
 
 Re: Машина Гаусса
Сообщение13.06.2025, 08:45 
https://arxiv.org/abs/1708.00630?utm_source=perplexity

ProjectionNet — это архитектура для обучения компактных нейронных сетей, оптимизированных для выполнения на устройствах с ограниченными вычислительными ресурсами (например, мобильные телефоны, умные часы, IoT), при этом обеспечивается высокая точность и минимальный объем памяти

Проекционные сети

-- 13.06.2025, 08:57 --

Можно ли промптами заставить проецировать? Связи Perplexity между статьями ищет, но вычисляет поверхнлсть без проецирования.

 
 
 
 Re: Машина Гаусса
Сообщение13.06.2025, 09:52 
https://arxiv.org/abs/2304.10552?utm_source=perplexity - интерполяцию, тоже применяют, это дает шанс на результат )

Интерполяция в нейронных сетях — это способность модели предсказывать значения целевой функции в точках, лежащих между обучающими примерами, то есть внутри области, охваченной обучающими данными.

Определение:
Интерполяция нейронной сети происходит, когда тестовые данные лежат во выпуклой оболочке обучающего множества. Экстраполяция — если точка вне этой оболочки.

Линейная и нелинейная интерполяция:
Линейная интерполяция — построение промежуточных значений по прямой между двумя точками. В глубоких нейросетях часто используется интерполяция на многообразии, где промежуточные объекты лежат на кривой во вложенном пространстве признаков, что позволяет моделировать сложные нелинейные зависимости

-- 13.06.2025, 10:35 --

https://arxiv.org/abs/2310.09806?utm_source=perplexity - LSH улучшают, тоже хорошо

Locality-sensitive hashing (LSH) отличается от других методов случайных проекций при обучении легких нейросетей рядом ключевых особенностей:

Принцип чувствительности к локальности:
LSH специально сконструирован так, чтобы вероятность попадания похожих объектов в одну и ту же "корзину" (bucket) была высокой, а для непохожих — низкой. Это достигается за счет выбора семейства хеш-функций, где схожие объекты имеют большую вероятность коллизии, чем далекие.

Бинаризация и компактность:
В нейросетях с LSH (например, ProjectionNet) проекции реализуются как набор случайных гиперплоскостей: каждый бит проекционного вектора определяется знаком скалярного произведения между входным вектором и случайным вектором. Итоговое представление — битовый вектор, что позволяет хранить и вычислять признаки крайне компактно и эффективно.

Сохранение метрики схожести:
В отличие от обычных случайных проекций (например, Джонсона-Линденштраус), которые стремятся сохранять евклидовы расстояния между всеми парами точек, LSH гарантирует, что именно схожие объекты (по выбранной метрике — косинус, Жаккара и др.) будут иметь схожие хеши, что важно для задач поиска ближайших соседей и кластеризации.

Фиксация проекций:
В ProjectionNet и аналогичных подходах матрица LSH-проекций фиксируется до обучения и не оптимизируется градиентно. Это резко отличает LSH от обучаемых случайных проекций или trainable embeddings, где параметры могут подстраиваться под задачу.

Масштабируемость и независимость от размерности:
LSH-проекции не требуют хранения или вычисления больших матриц весов, и их вычисление не зависит от общего числа признаков или размерности исходного пространства. Это критично для on-device моделей и задач с очень высокой размерностью.

 
 
 
 Re: Машина Гаусса
Сообщение13.06.2025, 11:44 
https://chat.deepseek.com/a/chat/s/afdf ... 3c23cbe33d - про частотные смешения, логично пишет

 
 
 
 Re: Машина Гаусса
Сообщение13.06.2025, 11:47 
Аватара пользователя
Простите, а в чем вопрос?

-- 13.06.2025, 10:48 --

High-trade в сообщении #1690111 писал(а):
но проще сказать дообучить на внешних данных, так часто говорят.
Так говорят неграмотные журналисты. Дообучение - это именно изменение параметров. Zero-shot, few-shot, другие варианты изменения промпта - это не дообучение.

 
 
 
 Re: Машина Гаусса
Сообщение13.06.2025, 11:52 
Размерность нового пространства определяется числом необходимых базисных функций $H_p(x)$

Если исходные сигналы лежали в подпространствах размерностей n и m, то их произведение требует n+m базисных функций.

Мне важно, что машина правильно ответила, про размерность нового пространства.

-- 13.06.2025, 11:56 --

Пожалуй, удалось настроить. Но, нужно постоянно контролировать ответы.

- Вот, такие запросы понимает, через анализ графиков не может.

Что происходит с размерностью при смешении частот?
В линейных пространствах:
Если два сигнала принадлежат подпространствам различной размерности, их произведение (или смешение) может быть представлено в пространстве более высокой размерности, поскольку появляются новые базисные функции (например, произведения эрмитовых многочленов дают многочлены более высокого порядка).
В контексте вейвлетов или ортогональных базисов:
Смешение сигналов расширяет спектр, и для полного описания результата требуется больше базисных функций - размерность пространства увеличивается. - проанализируй эту информацию и распиши на формулах

-Все нужно писать текстом, тогда машина понимает, через анализ картинок работает неточно.

https://drive.google.com/file/d/18uLN4V ... p=drivesdk

 
 
 
 Posted automatically
Сообщение13.06.2025, 11:58 
 i  Тема перемещена из форума «Искусственный интеллект и Машинное обучение» в форум «Карантин»
по следующим причинам:

- неправильно набраны формулы (краткие инструкции: «Краткий FAQ по тегу [math]» и видеоролик Как записывать формулы);
- сформулируйте вопрос, который предлагается обсудить.

Исправьте все Ваши ошибки и сообщите об этом в теме Сообщение в карантине исправлено.
Настоятельно рекомендуется ознакомиться с темами Что такое карантин и что нужно делать, чтобы там оказаться и Правила научного форума.

 
 
 
 Posted automatically
Сообщение13.06.2025, 15:43 
 i  Тема перемещена из форума «Карантин» в форум «Искусственный интеллект и Машинное обучение»
Причина переноса: не указана.

 
 
 
 Re: Машина Гаусса
Сообщение13.06.2025, 22:53 
https://www.perplexity.ai/search/triang ... nJ_1rRYe0Q - методы везде одинаковы, что в нейронках, что в мат. Физике), сначала стороят поверхности из точек(обучают), а затем проецируют, получают новую. Единственное, почему, так много ошибок у нейронок. Постоянно, приходится уточнять ей данные. В Maple, если посчитал, то доказал.

-- 13.06.2025, 23:38 --

Но, можно и перемножать поверхности, получать новые более высокоразмерные. Это чарез подсказки срабатывает.

 
 
 [ Сообщений: 15 ] 


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group