2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




На страницу Пред.  1, 2
 
 Re: Книги по искусственному интеллекту
Сообщение17.11.2025, 03:44 
Rasool в сообщении #1708142 писал(а):
Интересно было бы почитать про принцип работы современных нейросетей типа ChatGPT, особенно с reasoning.


Attention Is All You Need - эта статья основа трансформеров, что вам и нужно.

 
 
 
 Re: Книги по искусственному интеллекту
Сообщение21.11.2025, 22:38 
ChatGPT - это интерфейс фирмы OpenAI семейства LLM, которые сменяют друг друга как перчатки, а не трансформеры, которые тоже не LLM. Но короче мы поняли, вам интересно про всё сразу, просто не разобрались.

 
 
 
 Re: Книги по искусственному интеллекту
Сообщение21.11.2025, 22:41 
Аватара пользователя
Mihaylo в сообщении #1710174 писал(а):
ChatGPT - это интерфейс фирмы OpenAI семейства LLM, которые сменяют друг друга как перчатки, а не трансформеры, которые тоже не LLM
ЯННП. У всех современных LLM архитектура - тот или иной вариант трансформеров.

 
 
 
 Re: Книги по искусственному интеллекту
Сообщение21.11.2025, 22:55 
Но это же не одно и тоже, трансформеры - это база, а там сверху наворачиваются MoE и всякая подобная фигня. Я не знаю зачем вы так их объединили, рано ещё, это не варианты трансформеров, а надсистемы, основанные на них.

 
 
 
 Re: Книги по искусственному интеллекту
Сообщение21.11.2025, 23:06 
Аватара пользователя
Mihaylo в сообщении #1710178 писал(а):
Я не знаю зачем вы так их объединили, рано ещё, это не варианты трансформеров, а надсистемы, основанные на них.
В любом случае, для изучения, как работают LLM, нужно разобраться с трансформерами.

 
 
 
 Re: Книги по искусственному интеллекту
Сообщение22.11.2025, 00:17 
Я думаю, что в коммерческих LLM и GPT уже никому не дано разобраться, а в трансформерах ещё есть шанс.

 
 
 
 Re: Книги по искусственному интеллекту
Сообщение11.01.2026, 19:15 
Есть такая книга: Sebastian Raschka, "Machine Learning Q & AI: 30 Essential Questions and Answers" (2024).
Что внутри:
— чем машинное обучение реально отличается от «просто AI»;
— где проходит граница между статистикой и интеллектом;
— почему модели обобщают… и почему иногда предают;
— что на самом деле означает переобучение и откуда берутся «галлюцинации»;
— почему данные важнее архитектуры;
— какие ограничения у нейросетей фундаментальные, а какие — инженерные.

 
 
 
 Re: Книги по искусственному интеллекту
Сообщение16.03.2026, 19:37 
Mihaylo в сообщении #1710186 писал(а):
Я думаю, что в коммерческих LLM и GPT уже никому не дано разобраться, а в трансформерах ещё есть шанс.
Утрируете многоуважаемый. Нет там ничего такого, чего бы не осилил пытливый ум, знакомый с основами, например который MLP сам может написать, без LLM. Трансформер в виде механизма внимания сам по себе — это довольно компактная и элегантная функция, в коммерческих системах положенная в много слоёв. Сложность возникает из количества повторений и масштаба данных, а не из концептуальной глубины.

$\text{Attention}(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V$

В айтиинженерии полно алгоритмов на порядок запутаннее. Современные кодеки для видео или спектральные методы в обработке сигналов — там такая математическая вакханалия с эмпирическими коэффициентами, что трансформер покажется детским лепетом. Да полно есть штук принципиально сложнее. В трансформере же всё прозрачно: есть вход, эмбединги, есть механизм внимания, есть простая полносвязная сеть и нехитрая нормализация. Всё остальное — это просто повторение этого блока и разного рода произвольные композиции, этакая алхимия.

И если это вскормить терабайтом текста - то оно заговорит! Сама архитектура не содержит в себе "разума". Она просто создаёт условия, при которых из статистических закономерностей, размазанных по гигантскому объему текста, начинают прорастать структуры, похожие на знание. Ну то есть знание как бы и есть в системе, нам просто немыслимо как алгоритм смог, простите, ВЫСОСАТЬ, его из такого количества данных. Это как если бы вы дали человеку, не знающему нот, все партитуры мира и он бы заиграл на рояле как Моцарт. Так как мы это не можем в принципе(мозгом), то имеем когнитивный диссонанс. Это было сюрпризом и для тех кто в начале пичкал нейросетки всё большим объемом текста, когда рнн начали переводить лучше любых хардкодных систем и тд.

Да, код обучения модуля внимания с обратным распространением может выглядеть путанно. Но это проблема записи алгоритма на ЯП, а не сложности идеи. Производную от матричного умножения взять не сложнее, чем от обычного, просто она превращается в целое семейство произведений, и в коде это начинает напоминать магию с транспонированиями. Но это всё детали реализации, а не божественное откровение.

Код:
# вперёд
S = (Q @ K.T) / sqrt(d_k)
P = softmax(S, axis=1)
O = P @ V

# назад
dV = P.T @ dO
dP = dO @ V.T
dS = P * (dP - (P * dP).sum(axis=1, keepdims=True))
dQ = dS @ K / sqrt(d_k)
dK = dS.T @ Q / sqrt(d_k)


Всё, что сейчас навешивают сверху — рассуждения по шагам, вызов функций и прочие агентные художества — это уже чистое инженерное творчество, это даже и понимать не нужно, не принципиально, можно сделать бесконечностью способов. Сложность здесь агрегатная: она побеждается количеством инженерных рук или, что забавно, теперь с помощью самих же LLM для написания кода.

Так что узнать, как устроен трансформер, действительно не сложно. Достаточно сесть и прочитать оригинальную статью, как предлагалось, "Attention Is All You Need", на хабре полно уже статей есть. Ну или, как же без этого, спросить саму LLM )))

Но настоящее приключение — это попытаться проследить ход мысли авторов. Как они от рекуррентных сетей, которые жуют последовательности по порядку, пришли к идее "выкинуть всё к чертям, пусть слова общаются напрямую"? Почему они решили, что позицию слова можно просто закодировать синусом и косинусом и добавить к смыслу? А самое главное что можно каждое слово ОТДЕЛЬНО прогнать с позиционным смещением, а потом реультаты смиксовать… Вот где настоящий детектив, достойный исследования и что может подтолкнуть к принципиально новым открытиям.

PS Научпоп читать про это не очень будет полезн имхо, разве что если нравится...

 
 
 [ Сообщений: 23 ]  На страницу Пред.  1, 2


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group