2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




На страницу 1, 2, 3  След.
 
 ИИ и задача о якорной цепи
Сообщение07.11.2025, 16:42 
Есть такая школьная задача:

Определить длину якорной цепи, составленной из 685 звеньев. Каждое звено имеет следующие размеры: диаметр просвета равен 8 см, а толщина стержня, из которого сделано звено, равна 15 мм.

Я попробовал задать её различным ИИ, в том числе и ChatGPT 5 Pro, однако правильного ответа, увы, так и не дождался. По всей видимости, ИИ просто не может себе визуально представить, как выглядит якорная цепь. Или я чего-то не понимаю?

 
 
 
 Re: ИИ и задача о якорной цепи
Сообщение07.11.2025, 17:44 
Аватара пользователя
Значит, в обучающей выборке ChatGPT 5 Pro не было подобных задач со словосочетаниями "якорная цепь", "диаметр просвета", "толщина стержня".
Или были, но термины были чуть другие (например, "внутренний радиус тора" и "калибр звена"), что не позволило ИИ догадаться, что речь идёт о том же самом.
Или всё было, и даже теми же терминами, но не миллиард раз в чуть разных формулировках, как машина любит, а только сто миллионов раз. И железяка "подумала", что речь идёт про морские приключения, а вовсе не про математическую задачу.
Или вы всё ещё думаете, что машина понимает смысл слов, а не ищет наиболее вероятное продолжение фразы по неприлично большой статистической базе?

 
 
 
 Re: ИИ и задача о якорной цепи
Сообщение07.11.2025, 17:52 
worm2 если машина не умеет в простейшие вычисления, то какой смысл в новомодных разговорах о победе в топовых олимпиадах и работе LLM на переднем крае науки?

 
 
 
 Re: ИИ и задача о якорной цепи
Сообщение07.11.2025, 19:41 
Аватара пользователя
А вот противоположное anecdotal evidence.
Утундрий в сообщении #1689383 писал(а):
Небольшой пример, без лишних деталей. Словами описываю структуру матрицы и выдвигаю гипотезу о распределении её собственных значений вблизи нуля. Да, важный момент: это всё в режиме "глубокого исследования". Чат уходит в себя. Медленно заполняется шкала прогресса, ниже которой высвечиваются текущие этапы. Вот он насилует Википедию, вот пишет код на питоне, вот ищет внешний ресурс, чтобы этот код выполнить, вот анализирует результаты, и вот он, наконец, разродился отчётом. В отчёте: рекуррентная формула, позволяющая связать последовательность определителей с классическими полиномами, ссылка на их асимптотику при стремлении степени к бесконечности, подтверждение моей гипотезы и вдобавок зачем-то ещё несколько результатов вычислений по той самой программе. Для практически мыслящих, видать. И всё это за пять минут реального времени.
С этими LLM вообще все сложно и никакой стабильности. Однако "на переднем крае науки" работают точно не LLM общего назначения, а узкоспециализированные сети, которые, вообще говоря, не обязательно LLM. Результаты бывают, например, такие:

Anton_Peplov в сообщении #1620636 писал(а):
Компания Google DeepMind в статье (Merchant et al., 2023) представила нейросеть GNoME (graph networks for materials exploration). Это графовая нейросеть для предсказания устойчивых неорганических кристаллов. Она предсказала 381 000 кристаллов, устойчивых согласно расчетам по теории функционала плотности (density functional theory, DFT). При этом в базах данных Materials Project, OQMD, AFLOWLIB и NOMAD авторы насчитали всего 48 000 стабильных кристаллов, даже дополнив голые данные собственными (без GNoME) расчетами по DFT. То есть, если прогнозы GNoME подтвердятся, количество известных стабильных кристаллов вырастет на порядок. При этом авторы обнаружили в литературе 736 синтезированных кристаллов, отсутствовавших в обучающей выборке, но предсказанных GNoME.

Одновременно в статье (Szymanski et al, 2023) представлена автоматизированная лаборатория A-Lab. Платформа состоит из нескольких систем ИИ, робота-манипулятора и стандартного химического оборудования.
A-Lab выполняет задания «синтезируй это, сама придумаешь, как». Инструкции для синтеза она вырабатывает самостоятельно. Здесь первую скрипку играет языковая модель, обученная на научных статьях. Но, насколько я понял без детального вчитывания в статью, в нее еще и руками заложены какие-то алгоритмы и эвристики. Робот синтезирует вещество, выполняет рентгеноструктурный анализ и решает, похож ли результат на целевой продукт. Т.е. тут и компьютерное зрение в полный рост, как на этапе размахивания пробирками, так и на этапе анализа рентгенограмм. Если результат плох, вырабатывается новый алгоритм синтеза.

Согласно статье, за 17 дней A-Lab синтезировала 41 соединение из 58 целевых (само собой, ни одного из них не было в обучающей выборке). По-моему, более чем приличный результат для задачи такой сложности.

Литература

Merchant, A., Batzner, S., Schoenholz, S.S. et al. Scaling deep learning for materials discovery. Nature (2023). https://doi.org/10.1038/s41586-023-06735-9

Szymanski, N.J., Rendy, B., Fei, Y. et al. An autonomous laboratory for the accelerated synthesis of novel materials. Nature (2023). https://doi.org/10.1038/s41586-023-06734-w

Популярно в блоге Google DeepMind.

 
 
 
 Re: ИИ и задача о якорной цепи
Сообщение07.11.2025, 21:33 
gipokrat
Я например не знаю что такое "диаметр просвета", так что я бы сказал что $L=685\cdot0,08=54,8$ метра, "диаметр просвета" это внутренний диаметр звена, а параметр "толщина стержня" вообще лишний, т.к. длина цепи это не габаритная длина, а максимальное расстояние между двумя палками, на которые цепь можно натянуть :mrgreen:

Поиск по "диаметр просвета" цепи возвращает только ссылки на эту вашу "задачу" на мусорных помойках интернета, и больше ничего.

 
 
 
 Re: ИИ и задача о якорной цепи
Сообщение07.11.2025, 22:01 
Anton_Peplov в сообщении #1708502 писал(а):
Словами описываю структуру матрицы и выдвигаю гипотезу о распределении её собственных значений вблизи нуля. Да, важный момент: это всё в режиме "глубокого исследования". Чат уходит в себя. Медленно заполняется шкала прогресса, ниже которой высвечиваются текущие этапы. Вот он насилует Википедию, вот пишет код на питоне


Здесь может быть единственное объяснение - эту матрицу и её собственные числа не обсуждал только ленивый. Кстати, давно он здесь не появлялся. Видимо, ушёл в себя в режиме "глубокого исследования". Wake up, Утундрий, the Matrix has you. Follow the white rabbit Sam Altman

wrest в сообщении #1708515 писал(а):
Поиск по "диаметр просвета" цепи возвращает только ссылки на эту вашу "задачу"


Человек отличается от робота наличием интуиции. И что, цепь из тончайшей проволоки будет иметь ту же длину, что и цепь, где толщина стержня равна примерно половине диаметра просвета?

 
 
 
 Re: ИИ и задача о якорной цепи
Сообщение07.11.2025, 23:40 
Аватара пользователя
ozheredov в сообщении #1708518 писал(а):
Здесь может быть единственное объяснение - эту матрицу и её собственные числа не обсуждал только ленивый.
Отнюдь. LLM порой очень неплохо обобщают и пользуются своими обобщениями. А порой проявляют необъяснимую тупость.

А. Марков в книге Охота на электроовец, гл. 6, п. 6.6.4 еще про GPT-3 писал(а):
Заголовок статьи, рассказывающей о модели GPT-3 звучит следующим образом: «Языковые
модели — ученики, способные учиться всего на нескольких примерах» [Language Models are
Few-Shot Learners]. Что в данном случае имеется в виду? Возьмём для примера следующий
текст: «русский: яблоко, английский: apple; русский: кошка, английский: cat; русский: дерево,
английский: tree; русский: стол, английский:» и используем его в качестве затравки для GPT-3.
Какое продолжение сгенерирует модель? Очевидно, что разумным продолжением такого
текста является слово «table», являющееся переводом на английский язык русского слова
«стол». Оказывается, что GPT-3 способна «понять» это и сгенерировать правильное
продолжение текста, опираясь всего на несколько примеров, помещённых в затравку. Такой
способ обучения теперь принято обозначать термином «few-shot learning» (обучение всего на
нескольких примерах; иногда также используют термин «натаскивание» [priming]).
Удивительно, но применение этого метода позволяет использовать модель для решения
огромного количества интеллектуальных задач: нужно лишь сформулировать задачу в виде
текста, состоящего из вопросов и ответов. При этом вам не нужно дообучать модель на
целевых данных — достаточно лишь привести в затравке несколько релевантных примеров
решения в надежде на то, что модель «поймёт», что именно вы от неё хотите, опираясь на
представления, выученные её на стадии обучения. Конечно, многие задачи GPT-3 решить
таким образом не может, но всё же полученные результаты стали серьёзным шагом в
направлении создания универсальных систем искусственного интеллекта. Более того, модели,
подобные GPT-3, способны решать некоторые задачи в ещё более экстремальных условиях:
когда затравка и вовсе не содержит ни одного примера! Такой способ называется «zero-shot
learning» (обучение при отсутствии примеров) — то есть вы можете написать в затравке
«русский: стол, английский:» и надеяться, что модель «догадается», что правильным
продолжением будет перевод слова «стол». Оказывается, что иногда и этот подход работает
[2275]!

 
 
 
 Re: ИИ и задача о якорной цепи
Сообщение08.11.2025, 00:41 
ozheredov в сообщении #1708518 писал(а):
И что, цепь из тончайшей проволоки будет иметь ту же длину, что и цепь, где толщина стержня равна примерно половине диаметра просвета?

Да что за просвет-то? :mrgreen:
Вот фотка из Википедии, статья "Якорная цепь"
Изображение
Покажите, где там "диаметр просвета"?
Вот оттуда же, одно звено
Изображение
d-калибр

 
 
 
 Re: ИИ и задача о якорной цепи
Сообщение08.11.2025, 00:49 
Anton_Peplov в сообщении #1708526 писал(а):
[Language Models are
Few-Shot Learners]. Что в данном случае имеется в виду? Возьмём для примера следующий
текст: «русский: яблоко, английский: apple; русский: кошка, английский: cat; русский: дерево,
английский: tree; русский: стол, английский:» и используем его в качестве затравки для GPT-3.


Это не обучение - не меняются ни веса, ни топология. Грубо говоря, это обученный и замороженный алгоритм аппроксимации разумно-широкого класса функций разумно-произвольного числа аргументов. Типа, если я ему на вход ${1; 10; 2; 20; 3}$, а он мне в ответ $30$ - то это few-shot learning, а если я ему на вход $3$, а он мне в ответ $30$ - это zero-shot learning, всё отличие в длине входного вектора. Ну и текстов с парными ассоциациями в обучающем датасете, я думаю, был вагон.

-- 08.11.2025, 00:52 --

wrest в сообщении #1708533 писал(а):
Покажите, где там "диаметр просвета"?


Вот эта дырка (внутри которой стоит распорка, чтобы звенья не сминались). Понятно, что от её диаметра зависит длина цепи.

-- 08.11.2025, 00:57 --

wrest
UPD: увидел вторую фотку: диаметр просвета будет $6d - 2d = 4d$

 
 
 
 Re: ИИ и задача о якорной цепи
Сообщение08.11.2025, 01:03 
Аватара пользователя
ozheredov в сообщении #1708536 писал(а):
Это не обучение - не меняются ни веса, ни топология
Тем не менее, это называется few-shot learning.

 
 
 
 Re: ИИ и задача о якорной цепи
Сообщение08.11.2025, 01:03 
ozheredov в сообщении #1708536 писал(а):
Вот эта дырка (внутри которой стоит распорка, чтобы звенья не сминались). Понятно, что от её диаметра зависит длина цепи.

Ну дык и я о том же. Внутренний диаметр звена цепи значит 8 см. Тогда длина - количество внутренних диаметров умножить на количество звеньев. Ну ещё с некоторой натяжкой - по одной толщине (d-калибр) звена с каждого из двух концов.Так что толщина конечно влияет, в нашем случае к длине 685×8см прибавляем две толщины, 2×1.5см

 
 
 
 Re: ИИ и задача о якорной цепи
Сообщение08.11.2025, 01:05 
mihaild в сообщении #1708537 писал(а):
few-shot learning


Кстати, меня всегда удивляло - почему? Неужели настолько сильно отличается от моего вульгарного примера выше?

 
 
 
 Re: ИИ и задача о якорной цепи
Сообщение08.11.2025, 01:06 
ozheredov в сообщении #1708536 писал(а):
UPD: увидел вторую фотку: диаметр просвета будет $6d - 2d = 4d$

Прекрасно, и этот
gipokrat в сообщении #1708486 писал(а):
диаметр просвета равен 8 см

А зачем нам тогда знать толщину стержня (d-калибр)? :facepalm:

 
 
 
 Re: ИИ и задача о якорной цепи
Сообщение08.11.2025, 01:09 
wrest в сообщении #1708538 писал(а):
Тогда длина - количество внутренних диаметров умножить на количество звеньев.


Ааа, не влияет толщина стержня ни фига? Кстати логично, да ))

 
 
 
 Re: ИИ и задача о якорной цепи
Сообщение08.11.2025, 01:13 
ozheredov в сообщении #1708541 писал(а):
Ааа, не влияет толщина стержня ни фига? Кстати логично, да ))

Ну вот видите... и вы туда же. Ну, предложите тогда какой вааш ответ на задачу?
А теперь включите интуицию ибо
ozheredov в сообщении #1708518 писал(а):
Человек отличается от робота наличием интуиции.

и расскажите, что же все-таки такое "диаметр просвета" на самом деле, и почему :mrgreen: :mrgreen: и как ИИ мог бы догадаться до этого если вы смогли только с подсказкой?
Как проинтуичите, скажите какой же на самом деле ответ на задачу.

-- 08.11.2025, 01:42 --

На всякий случай, вот ГОСТ на цепи. И там всё беспросветно. Есть калибр и есть шаг. Просвета нет.
https://meganorm.ru/Data2/1/4294847/4294847358.htm

 
 
 [ Сообщений: 37 ]  На страницу 1, 2, 3  След.


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group