2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1 ... 12, 13, 14, 15, 16, 17  След.
 
 Re: Так Game Over или нет?
Сообщение30.08.2023, 15:16 
Аватара пользователя


17/10/22
366
Dicson в сообщении #1607216 писал(а):
Объяснил. Потому что слова сами по себе не имеют смысла. Их смысл вы понимаете только в контексте всего остального опыта. Связь слов со всем остальным опытом настолько глубокая и всеобъемлющая, что вы её просто не замечаете.

Бездоказательное утверждение, опровергнутое нынешним достижениями больших языковых моделей - в них смысл слов вполне успешно определяется соотношением с остальными словами в тексте (эмбеддинг). С точки зрения вашей позиции чат-боты должны непрерывно врать и бредить, неся какую-нибудь ахинею. Да, такое случается - но скорее как исключением, чем правило. Причем я читал мнение уже двух специалистов мирового уровня, согласно которому проблема с галлюцинациями скорее всего будет решена в ближайшие годы. Понятия не имею как, но их оптимизм говорит за себя.

Dicson в сообщении #1607216 писал(а):
Как раз "современные чат-боты" и подтверждают то, что я пишу.

Нет, они вас опровергают - об этом говорит мой личный опыт общения с ними и фурор, который они произвели. Конечно не все специалисты считают, что дорога к AGI лежит через LLM, но даже скептики не могут отрицать прорыв, который произошел в этой области. Уже здесь и сейчас все, что вы говорите про обязательную связь слов с опытом, опровергается успешным решением чат-ботами множества задач, сформулированных на ЕЯ. Как вы это объясняете?

Dicson в сообщении #1607216 писал(а):
Откуда у вас "интуитивный" опыт? Всё-таки из наблюдений, получается? И то, что привычным наблюдениям не соответствует, то и кажется вам необычным, верно? Но ТО и КМ тоже следуют из наблюдений - только на других масштабах. На привычных масштабах мир один, на других масштабах становится заметно то, что незаметно на привычных. В итоге, я и говорю, ваш пример не подходит, так как он прямо связан как раз с наблюдениями реального мира. То же самое с математикой, разве что математика - это очень глубоко абстрактная область знания. Тем не менее утрата связи с более наглядным и низкоуровневым опытом приводит к зубрёжке. Вот чат-боты такие идеальные зубрилы. Как следствие, вторичные суждения и спокойный уход в бредогенерацию.

Не путайте повседневный опыт обывателей с научными экспериментами. Все знания на свете связаны с наблюдениями из реального мира, но это никак не опровергает того факта, что часть этих знаний противоречит индивидуальному опыту миллиардов людей. Им их повседневный опыт только мешает усваивать книжные знания, которые в области физики уже давно ушли в область абстрактных формул, уравнений, тензорных преобразований и т.д. - всего того, чего нет и не может быть в нашем реальном опыте. К зубрежке приводит не утрата связи с более наглядным и низкоуровневым опытом, а наоборот - его наличие, т.к. высшая математика или квантовая физика в этот опыт совершенно не вписывается. Поэтому машины, обученные не на опыте, а на абстрактных знаниях, имеют больше шансов на постижение научных знаний. Здесь и сейчас в области точных наук чат-боты действительно часто тупят и врут - с моей точки зрения причиной тому нехватка обучающих текстов, которые больше содержат формул и уравнений, чем ЕЯ.

Dicson в сообщении #1607216 писал(а):
Такой критерий приведёт к тому, что ИИ не выйдет за рамки опыта человека. А чтобы ИИ был не связан человеком, ему нужен критерий, который позволит ему развиваться самому, то есть так же как человек и вообще биологические системы. Суть этого критерия в том, что неадекватное среде поведение приводит к снижению энергоэффективности обмена со средой, и это поведение само собой нивелируется, а то, которое адекватно среде, наоборот, само собой развивается, так как энергоэффективность улучшает.

Это гомеостаз, см. выше, в чём он заключается. Вся внутренняя, структурная и функциональная организация гомеостатической системы способствует сохранению баланса. Но у ИИ гомеостаз невозможен, так как ИИ не открытая система. Для более точного понимания, в чём суть гомеостаза и почему он не для ИИ, см. пост цитаты ниже - там, где написано по ячейки Бенара. На самом общем масштабе, то есть на том, где наиболее хорошо заметны наши основные особенности как физической системы, мы и вообще любая жизнь - это ячейки Бенара.

Может большие языковые модели и не выйдут за рамки опыта человека - я выше как раз и говорил, что это главная интрига: можно ли извлекать из текстов новые научные знания. Теоретически такое возможно: Эйнштейн много читал и думал, а не ставил реальные эксперименты - они подтвердили его догадки уже потом. Но даже если большие языковые модели и не выйдут за рамки опыта человека - проблема решается подключением к ИИ приемников невербальной информации. Получая и обрабатывая весь этот невообразимо огромный объем данных, извлекая из него закономерности и накладывая эту информацию на свои книжные знания, ИИ теоретически будет способен создавать новые научные знания.

 Профиль  
                  
 
 Re: Так Game Over или нет?
Сообщение01.09.2023, 08:48 


05/12/14
268
Dedekind в сообщении #1607224 писал(а):
Тогда непонятно, в чем заключается эта "сложность", которой ИИ, якобы, не способен достичь. Если это не способность/неспособность решать конкретные задачи, то что тогда?

Сложность мозга равна сложности всех задач, которые мы только можем решить. Естественно, что "количественно" оценить эту сложность невозможно. Иначе говоря, неизвестно, какие мы в перспективе сможем решить задачи, какой сложности. Но это значит, что и для сложности создаваемых нами систем никаких явных ограничений тоже нет, ведь создание всё более сложных систем - это, по сути, и есть решение всё более сложных задач. Тем не менее можно обосновать, что сложность создаваемых нами систем всегда будет ниже нашей собственной сложности. Точнее говоря, доказываемый тезис состоит в том, что чем полнее работу системы определяет написанный нами алгоритм, тем проще будет система, относительно нашего интеллекта.

Причём, как можно видеть, этот тезис ничего не говорит о типе систем. Просто вычислительные системы сами по себе алгоритм - тот или иной, поэтому их сложность будет наиболее низкой, независимо от организации вычислений. Но есть ещё генная инженерия например, там уже изначально работают с биологическими системами. Тем не менее там тоже есть алгоритмы (участие нашего интеллекта в смысле), а значит, и те же ограничения.
***

Но в принципе можно кое-что больше конкретизировать. Задача мозга - управление мышцами, то есть двигательная активность. На входе нейронной сети мозга рецепторы внутренней и внешней среды, на выходе - мышцы и железы. Нервная система организует работу мышц и посредством желёз координирует с работой мышц работу остального организма.

Например, у медуз, нервная система которых является одной из самых древних и простых, нервные клетки распределены в тканях в более или менее равномерную сеть, а раздражение любого рецептора приводит к неизбирательному сокращению сразу всего тела. Интеллектом и не пахнет. Но чем сложнее становится нервная система, тем сложнее и целенаправленней становится поведение. Поэтому на уровне высших животных и особенно человека можно говорить о появлении интеллекта и выделении его "природной" функции - ставить задачи и решать их. Все задачи ставятся и решаются в общем контексте стремления всего живого к самосохранению и размножению, а чем сложнее мозг/мышление/опыт, тем сложнее могут быть задачи и решения.

Вот в сложности этой функции - ставить задачи и решать их - ИИ человека не превзойдёт. Но в более частных (частных - потому что все функции ИИ берутся из нашего опыта) - сколько угодно. В го может лучше играть или тексты на заданную тему быстрее наговаривать. Тем не менее сложность этих систем/функций сложнее нашего интеллекта не станет.

Dedekind в сообщении #1607224 писал(а):
Вот именно:) Вы не знаете даже малой доли фундаментальных процессов, происходящих во Вселенной (и никто не знает, это не упрек), а уже делаете заявления космического масштаба о невозможности сильного ИИ.

Поэтому я и не оцениваю максимальную сложность ИИ, а лишь обосновываю зависимость между его сложностью, как создаваемой нами системы, и нашей сложностью. Плюс обоснование принципиальной физической разницы между биологическими системами и вычислительными, которая говорит о том, что ИИ не сможет развиваться самостоятельно. Иначе мы могли бы, к примеру, создать основу, которая бы сама быстро добрала нужный уровень сложности в некой ускоренной "вычислительной" эволюции. Не получится. А эволюции биологических систем, которые мы могли бы создать как такую же основу для дальнейшего самостоятельного развития, ждать долго, её не ускоришь.

MoonWatcher в сообщении #1607272 писал(а):
Бездоказательное утверждение, опровергнутое нынешним достижениями больших языковых моделей - в них смысл слов вполне успешно определяется соотношением с остальными словами в тексте (эмбеддинг). С точки зрения вашей позиции чат-боты должны непрерывно врать и бредить, неся какую-нибудь ахинею.

Я уже вам писал об этом: "Поэтому когда мы вытаскиваем слова из нашего опыта и, минуя весь остальной опыт, соединяем их между собой только на основании вероятности их появления в наших текстах, то, получается, что мы весь остальной огромный массив нашего опыта, связывающего слова как с реальностью, так и между собой, упрощаем до этой вероятности." Модель мира чат-бота - упрощение от нашей, как следствие, такая же простота и вторичность в суждениях, уходящая к неадекватности, но всё-таки не сплошное враньё и ахинея.

MoonWatcher в сообщении #1607272 писал(а):
Да, такое случается - но скорее как исключением, чем правило. Причем я читал мнение уже двух специалистов мирового уровня, согласно которому проблема с галлюцинациями скорее всего будет решена в ближайшие годы. Понятия не имею как, но их оптимизм говорит за себя.

"Скорее исключение, чем правило" не подходит. Нужно, чтобы система демонстрировала здравый смысл, возрастающий пропорционально знаниям. В ином случае - это максимум забава с чрезвычайно узкими границами практической применимости, как нынешние чат-боты. Ни в какие "ближайшие годы" изменить этот тренд кардинально не выйдет, если только он, наоборот, будет расти вместе со сложностью. В случае вычислительных систем или ограниченность знаний и точность, или кругозор и неадекватность, что-то одно.

MoonWatcher в сообщении #1607272 писал(а):
Нет, они вас опровергают - об этом говорит мой личный опыт общения с ними и фурор, который они произвели. Конечно не все специалисты считают, что дорога к AGI лежит через LLM, но даже скептики не могут отрицать прорыв, который произошел в этой области. Уже здесь и сейчас все, что вы говорите про обязательную связь слов с опытом, опровергается успешным решением чат-ботами множества задач, сформулированных на ЕЯ. Как вы это объясняете?

Выше я уже ответил. Не нужна система, которая неизвестно, когда ошибётся, ей нельзя доверять. Поэтому лучше пусть у меня будет управление голосом и множество специализированных систем, к которым я смогу обращаться, чем одна вечно кривая. Пусть и она будет, конечно, но так, для души. )

MoonWatcher в сообщении #1607272 писал(а):
Не путайте повседневный опыт обывателей с научными экспериментами.

Рецепторы реагируют на внутреннюю и внешнюю среду, в которой иногда появляются тексты и речь. Все эти сигналы идут через нижние отделы мозга к верхним. В этом процессе происходит их распознавание, то есть что-то нивелируется, что-то выделяется. Поэтому чем больше у вас низкоуровневого опыта, связанного с теми или иными высокоуровневыми элементами, тем быстрее и точнее вы будет распознавать всё связанное с этими элементами. У вас будет больше ассоциаций, вам будут точнее понятны границы, где эти элементы применимы, то есть, другими словами, вам будет точнее понятен смысл этих высокоуровневых абстракций. В чат-ботах весь этот громадный контекст упрощается до вероятности сочетания слов в текстах.

MoonWatcher в сообщении #1607272 писал(а):
Может большие языковые модели и не выйдут за рамки опыта человека - я выше как раз и говорил, что это главная интрига: можно ли извлекать из текстов новые научные знания.

Нет никакой интриги. Что-то безусловно можно извлечь, но это всё вторичное и малозначимое, так как мы понимаем тексты лучше плюс наблюдаем мир непосредственно, то есть получаем информацию "из первых рук". А вообще без наблюдений обойтись нельзя, это равносильно построению теории всего, которая не имеет смысла, об этом уже тоже говорилось.

MoonWatcher в сообщении #1607272 писал(а):
Теоретически такое возможно: Эйнштейн много читал и думал, а не ставил реальные эксперименты - они подтвердили его догадки уже потом.

Вот именно, что читал и думал. А не по вероятности слова расставлял.

 Профиль  
                  
 
 Re: Так Game Over или нет?
Сообщение01.09.2023, 12:23 


10/03/16
4444
Aeroport
Dicson в сообщении #1607552 писал(а):
Сложность мозга равна сложности всех задач, которые мы только можем решить. Естественно, что "количественно" оценить эту сложность невозможно.


Dicson в сообщении #1607552 писал(а):
Тем не менее можно обосновать, что сложность создаваемых нами систем всегда будет ниже нашей собственной сложности.


Есть числа $a$ и $b$, число $a$ оценить невозможно. Тем не менее можно обосновать, что
$$a > b$$

Вам не кажется, что тут закралось противоречие?

 Профиль  
                  
 
 Re: Так Game Over или нет?
Сообщение01.09.2023, 14:10 
Аватара пользователя


17/10/22
366
Dicson в сообщении #1607552 писал(а):
Я уже вам писал об этом: "Поэтому когда мы вытаскиваем слова из нашего опыта и, минуя весь остальной опыт, соединяем их между собой только на основании вероятности их появления в наших текстах, то, получается, что мы весь остальной огромный массив нашего опыта, связывающего слова как с реальностью, так и между собой, упрощаем до этой вероятности." Модель мира чат-бота - упрощение от нашей, как следствие, такая же простота и вторичность в суждениях, уходящая к неадекватности, но всё-таки не сплошное враньё и ахинея.

Писали, и не один раз - но не объясняете что делает необходимым "этот огромный массив нашего опыта, связывающего слова как с реальностью, так и между собой". Вынужден повторить: ваше вполне убедительное, но голословное, заявление имело смысл хотя бы год назад - опыт общения с чат-ботами показывает, что можно иметь (или имитировать - никакой разницы между этими понятиями нет, Тьюринг был тысячу раз прав) интеллект и без этой взаимосвязи. Опять же в очередной раз вынужден повторить, что люди с богатым жизненным опытом, но плохим [само]образованием говорят намного больше глупостей, чем люди с небольшим опытом, но хорошим [само]образованием. Как так получается, по-вашему?

Dicson в сообщении #1607552 писал(а):
"Скорее исключение, чем правило" не подходит. Нужно, чтобы система демонстрировала здравый смысл, возрастающий пропорционально знаниям. В ином случае - это максимум забава с чрезвычайно узкими границами практической применимости, как нынешние чат-боты. Ни в какие "ближайшие годы" изменить этот тренд кардинально не выйдет, если только он, наоборот, будет расти вместе со сложностью. В случае вычислительных систем или ограниченность знаний и точность, или кругозор и неадекватность, что-то одно.

Довольно смелое заявление на фоне упомянутого мною оптимизма специалистов. И вообще с тем же успехом вы можете опровергать автопилот - его нынешней надежности недостаточно. Давайте отменим все без исключения технологии - на заре своего появления они имели кучу недостатков, делавших эти технологии бесполезными. Мы оцениваем перспективу - и вы не приводите аргументов в пользу невозможности развития больших языковых моделей до уровня человека за счет дальнейшего повышения количества и качества обучающих дата-сетов, подкрепления, новых алгоритмов и т.д. Я, кстати, вполне допускаю потолок - GPT-5/6/7... могут иметь вполне косметические улучшения в когнитивном плане. Но и никаких аргументов в пользу невозможности очередного "фазового перехода" у будущих LLM я тоже не вижу.

ozheredov в сообщении #1607589 писал(а):
Выше я уже ответил. Не нужна система, которая неизвестно, когда ошибётся, ей нельзя доверять. Поэтому лучше пусть у меня будет управление голосом и множество специализированных систем, к которым я смогу обращаться, чем одна вечно кривая. Пусть и она будет, конечно, но так, для души. )

См. выше. Я буквально позавчера обсуждал с не самым лучшим чат-ботом один рассказ. Чат-бот превосходно пересказал его и ответил на все мои вопросы, а также придумал собственные для обсуждения. Вы хотите заменить его человеком? Но 90% людей Земли справится с этой задачей хуже. Хуже перескажет рассказ, хуже ответит на вопросы. Но почему-то большим языковым моделям в первый год их публичного тестирования вы ошибок не прощаете, а людям, спустя десять тысяч лет существования их цивилизации, можно тупить сколько угодно.

Dicson в сообщении #1607552 писал(а):
Рецепторы реагируют на внутреннюю и внешнюю среду, в которой иногда появляются тексты и речь. Все эти сигналы идут через нижние отделы мозга к верхним. В этом процессе происходит их распознавание, то есть что-то нивелируется, что-то выделяется. Поэтому чем больше у вас низкоуровневого опыта, связанного с теми или иными высокоуровневыми элементами, тем быстрее и точнее вы будет распознавать всё связанное с этими элементами. У вас будет больше ассоциаций, вам будут точнее понятны границы, где эти элементы применимы, то есть, другими словами, вам будет точнее понятен смысл этих высокоуровневых абстракций. В чат-ботах весь этот громадный контекст упрощается до вероятности сочетания слов в текстах.

Звучит не очень, согласен - но работает. И, уж извините за занудное повторение, год назад я бы с вами скорее всего согласился - а сегодняшняя практика показывает, что "стохастические попугаи" часто демонстрируют интеллект вполне человеческого уровня. Точнее уровень умного и образованного человека, каковым можно назвать далеко не каждого представителя нашего вида. Поэтому я склонен верить (особенно с учетом множества глупых высказывания многоопытных, но мало начитанных людей), что постижение знаний человечества исключительно через тексты в принципе возможно. Я бы сказал шансы 50/50. Если прикрутить сюда видео - 90/10. А если и все прочие сенсоры, то шансы почти стопроцентные - пусть даже спустя десятки или сотни лет. Что конечно не делает неизбежным способность такого ИИ создавать НОВЫЕ научные знания.

Dicson в сообщении #1607552 писал(а):
Нет никакой интриги. Что-то безусловно можно извлечь, но это всё вторичное и малозначимое, так как мы понимаем тексты лучше плюс наблюдаем мир непосредственно, то есть получаем информацию "из первых рук". А вообще без наблюдений обойтись нельзя, это равносильно построению теории всего, которая не имеет смысла, об этом уже тоже говорилось.

Когда вы говорите слова раскрываются через опыт, это касается человека. Причем тоже не факт - человек оказывается тоже предсказывает следующее слово (читая книгу или слушая собеседника), как это делают большие языковые модели. И очевидно человек делает это на базе своих собственных статистических текстовых закономерностей, а не непосредственного наблюдения мира.

Dicson в сообщении #1607552 писал(а):
Вот именно, что читал и думал. А не по вероятности слова расставлял.

Что есть думать? Можете не отвечать - сразу подавайте заявку на Нобелевскую премию... Кстати, Эйнштейн с ТО пример скорее в вашу пользу - он приписывал свои открытия мысленным экспериментам. Но эти мысленные эксперименты сослужили Эйнштейну плохую службу в случае квантовой физики (основы которой он сам же и заложил) - ей интуитивный опыт человека категорически противоречит. Как он вообще говоря противоречит и ТО - просто мозги гениального Эйнштейна имели свою гениальную особенность. Но даже если сделать допущение о том, что наше мышление основано на личном опыте, это вовсе не опровергает возможность мышления, основанного на извлеченных из опыта (причем не отдельного человека, а всего человечества!) знаниях, описанных на ЕЯ. Как способность птиц летать взмахами крыльев не опровергает полеты самолетов на искусственных двигателях.

 Профиль  
                  
 
 Re: Так Game Over или нет?
Сообщение02.09.2023, 00:32 


10/03/16
4444
Aeroport
Dicson
Существует некий грибок, который паразитирует на муравьях следующим образом: заражённый муравей отбивается от стада и начинает искать дерево. Затем впивается в кору дерева зубами, и в таком виде умирает. Гриб нижней частью прорастает сквозь зубной канал муравья в субстрат, а верхней - вырастает из его головы. Теперь если можно вопросы:

1. Можно ли назвать модификацию программы поведения муравья а-ля "зомбирование" задачей?
2. Является ли эта задача сложной, учитывая, что с ней едва ли справятся передовые био-лаборатории?
3. Можно ли сказать, что описанный гриб устроен сложнее, чем коллективный разум биологов?

 Профиль  
                  
 
 Re: Так Game Over или нет?
Сообщение02.09.2023, 03:17 


12/07/15
01/12/24
3317
г. Чехов
Да надоело уже.

Товарищ Dicson провозглашает беспрецедентную сложность мозга, которую "сложно оценить". И при этом продолжает толкать ложные утверждения в отношении ИИ и ЕИ. Да, деятельность Dicson сложная, запутанная, но она ошибочная.

Не понимаю, зачем оценивать "беспрецедентную" сложность ошибочного мозга. Ошибочный мозг никогда сам не дойдет до истины, пока ему не проведут лекцию о нейронных сетях и обо всем, что нужно знать в этой сфере.

Когда вы думаете, что мозг может познать любую истину, вспомните, что это происходит только после определенной процедуры обучения (детский сад, школа, универ, работа), а самостоятельное освоение - это фигня полная, не работает.

 Профиль  
                  
 
 Re: Так Game Over или нет?
Сообщение02.09.2023, 05:23 


10/03/16
4444
Aeroport
Mihaylo в сообщении #1607683 писал(а):
самостоятельное освоение - это фигня полная, не работает


Когда ребенку показывают погремушки, он следит за ними глазами. Хотя ему никто не говорил, что такое замкнутый контур объекта и что такое сегментация изображений. До него как-то доходят всякие манипулятивные инсайты, типа как разжалобить жёсткого родителя и как надавить на мягкого, ну и т.д. - про некое "априорное знание", без которого не получится вдуплить даже детский сад, можно говорить долго. Базовые вещи - смотри, тут три яблока. Где тут? Почему яблоки с одной стороны различимы, чтобы можно было сказать: вот одно, вот уже второе, т.е. не то, что было в начале, а с другой стороны обобщаемы, т.е. вот это круглое, и это вытянутое, и это кривое - все они яблоки. Этого априорного, глубинного и скорее всего невыразимого текстом опыта, на фундаменте которого стоят абстракции, о которых можно думать, писать и т.д. - этого опыта скорее всего действительно много.

 Профиль  
                  
 
 Re: Так Game Over или нет?
Сообщение02.09.2023, 09:31 
Заслуженный участник
Аватара пользователя


16/07/14
9151
Цюрих
Dicson в сообщении #1607552 писал(а):
Вот в сложности этой функции - ставить задачи и решать их - ИИ человека не превзойдёт.
И в чем это выражается на практике?

 Профиль  
                  
 
 Re: Так Game Over или нет?
Сообщение02.09.2023, 09:50 


05/12/14
268
ozheredov в сообщении #1607589 писал(а):
Вам не кажется, что тут закралось противоречие?

Нет. Не нужно знать конкретную сложность ЕИ или ИИ. Достаточно показать зависимость одного от другого, и она такая, что ИИ сложнее ЕИ быть не может.

MoonWatcher в сообщении #1607603 писал(а):
Писали, и не один раз - но не объясняете что делает необходимым "этот огромный массив нашего опыта, связывающего слова как с реальностью, так и между собой". Вынужден повторить: ваше вполне убедительное, но голословное,

Я объяснил, откуда проблемы у современных чат-ботов. Слова - это высокоуровневые абстракции, они не равны всему опыту, поэтому только из текстов, сколько бы их ни было, все наши знания взять нельзя. В результате текстовая модель нашего опыта нашему опыту неадекватна. Эту особенность LLM кардинально не изменить, поэтому выход может быть только в том, чтобы приближать модели к сложности интеллекта человека.

Однако создание СИИ равносильно лучшему решению сразу всех задач человека, включая самые сложные, время решения которых стремится к бесконечности. Поэтому и приближение к СИИ должно тоже идти всё сложнее и дольше, то есть сопровождаться стремительным ростом проблем, когда всё чаще оказывается, что исправить ситуацию могут только радикальные улучшения модели, а какие они конкретно должны быть, или вообще неизвестно, или вариантов слишком много.

На всё это у вас аргумент один - что чат-боты сейчас что-то могут, а значит, смогут и ещё лучше. Но надежда на лучшее не аргумент, учитывая, что есть аргументы за противоположную точку зрения. А того, что чат-боты могут сейчас, мало. Ни один человек не обладает кругозором чат-бота. Но зато у нас для каждой задачи есть свои специалисты, которые в своей области на голову лучше чат-бота, хотя, может быть, и работают медленнее. Конечно, хорошо бы иметь одного специалиста на все случаи жизни, но чат-бот таким быть не может, ввиду того, что ему нельзя доверять.

В итоге, получается, что максимум практического применения - это наговаривать по какой-нибудь теме что-то такое, что или не очень важно, или можно проверить. Этого мало. Поэтому если кардинального улучшения не будет, а его не будет, то инвестиции иссякнут, а разработки переключатся на что-то более специализированное. Идея некого идущего сейчас продвижения от ИИ к СИИ заглохнет сама собой.

ozheredov в сообщении #1607669 писал(а):
1. Можно ли назвать модификацию программы поведения муравья а-ля "зомбирование" задачей?
2. Является ли эта задача сложной, учитывая, что с ней едва ли справятся передовые био-лаборатории?
3. Можно ли сказать, что описанный гриб устроен сложнее, чем коллективный разум биологов?

1 - можно, 2 - да, 3 - нет. Интересно, куда вы собираетесь вырулить.

mihaild в сообщении #1607693 писал(а):
И в чем это выражается на практике?

Уточнять более, чем уже сказано, нецелесообразно, так как - см. выше - никто не обещал, что это в принципе возможно.

 Профиль  
                  
 
 Re: Так Game Over или нет?
Сообщение02.09.2023, 12:02 
Заслуженный участник
Аватара пользователя


26/01/14
4845
ozheredov в сообщении #1607684 писал(а):
Когда ребенку показывают погремушки, он следит за ними глазами. Хотя ему никто не говорил, что такое замкнутый контур объекта и что такое сегментация изображений.
Среди современных нейронных сетей есть такие - автокодировщики. Грубо говоря, им никто не говорит, чему именно они должны учиться, а просто дают много данных и они должны сами научиться хоть чему-нибудь. И, например, если давать такому автокодировщику цифры в самом разном написании, он в конце концов научится эти цифры отличать друг от друга, хотя такой задачи перед ним не ставилось и успешность её выполнения не контролировалась.

Так же и ребёнок - в начале жизни он толком ничего не видит, а что видит - не понимает. Но рано или поздно "автокодировщик" в его голове усваивает, что мир состоит из объектов с замкнутыми контурами, за которыми можно следить глазами.

 Профиль  
                  
 
 Re: Так Game Over или нет?
Сообщение02.09.2023, 12:32 


10/03/16
4444
Aeroport
Dicson в сообщении #1607698 писал(а):
1 - можно, 2 - да, 3 - нет. Интересно, куда вы собираетесь вырулить.


Я уже вырулил. Ваши утверждения о том, что

сложность системы определяется верхней планкой сложности задач, которые она способна решать + corollary: менее сложно устроенная система гарантированно не сможет решить самую сложную задачу из тех, которые сможет решить более сложно устроенная система

предъявлением данного примера опровергнуто.

Mikhail_K в сообщении #1607709 писал(а):
автокодировщики. Грубо говоря, им никто не говорит, чему именно они должны учиться, а просто дают много данных и они должны сами научиться хоть чему-нибудь. И, например, если давать такому автокодировщику цифры в самом разном написании, он в конце концов научится эти цифры отличать друг от друга, хотя такой задачи перед ним не ставилось и успешность её выполнения не контролировалась.


Я тоже так думал ))) Типа сведЕние облака данных к негиперплоскому множеству сильно меньшей размерности открывает неохватные горизонты обучения без учителя. Нифига... ээ, в смысле лично у меня нифига не вышло: проблема в том, что автоэнкодер любит считать одинаковые объекты разными. То есть немного по-разному записанные цифры 8, слегка под другим наклоном и т.д. автоэнкодер запишет в разные классы. Может быть у Вас были изображения цифр с меньшим числом пикселей, чем в MNIST?
P.S. Под проблему автоэнкодера своих кривых рук, трогающих автоэнкодер, я создавал тему topic149224.html

 Профиль  
                  
 
 Re: Так Game Over или нет?
Сообщение02.09.2023, 14:25 
Аватара пользователя


17/10/22
366
Dicson в сообщении #1607698 писал(а):
Я объяснил, откуда проблемы у современных чат-ботов. Слова - это высокоуровневые абстракции, они не равны всему опыту, поэтому только из текстов, сколько бы их ни было, все наши знания взять нельзя. В результате текстовая модель нашего опыта нашему опыту неадекватна. Эту особенность LLM кардинально не изменить, поэтому выход может быть только в том, чтобы приближать модели к сложности интеллекта человека.

Вы по-прежнему делаете голословное, недоказуемое заявление - на которое я возразил тем, что:
1) Начитанные люди намного умнее опытных (в области прочитанного) - значит тексты дают больше знаний, чем личный опыт. Собственно было бы странно, если наоборот - тексты вбирают в себя опыт всего человечества. И при этом нельзя утверждать, что без личного опыта невозможно понимание текста - в принципе возможно, судя по чат-ботам. Вы скажете это не понимание, а статистические закономерности - но что такое "правильное" понимание никто не знает.
2) Читая текст и слушая речь, люди тоже предсказывают следующее слово - и значит задействуют не свой опыт, а те же статистические закономерности, что и языковые модели.
3) Чат-боты демонстрируют довольно высокий уровень когнитивности уже на первом году своего публичного тестирования - и при этом постоянно совершенствуются в части архитектуры, обучающих дата-сетов и производительности. А специалисты мирового уровня оптимистично настроены в отношении решения главной проблемы чат-ботов, т.н. галлюцинаций.
4) То, что у людей есть опыт (который скорее всего выражается в наборе зрительных, обонятельных, тактильных и прочих воспоминаний и ассоциаций ), и они в той или иной степени задействуют его в мышлении, не опровергает возможность создания ИИ, который в этом не нуждается (см. известное сравнение самолетов с птицами).

К последнему пункту можно добавить такой аргумент: тот факт, что человечество в целом проделало путь от каменных орудий до квантовых компьютеров, не означает необходимости проделать такой путь человеку, которые эти квантовые компьютеры изучает. И насколько для изучения квантовых компьютеров востребован его личный опыт - большой вопрос. Как известно, многие крупные ученые отличались рассеянностью и даже беспомощностью в повседневных делах. Какой именно опыт нужен и зачем? Зрительный? Слуховой? Но есть разумные люди, одновременно слепые и глухо-немые с рождения. Так какая же часть опыта необходима и достаточна для интеллекта человеческого уровня? Подозреваю, что прежде всего это язык (не важно какой, пусть протактиль). И вот как раз на язык большие языковые модели и заточены.

Dicson в сообщении #1607698 писал(а):
На всё это у вас аргумент один - что чат-боты сейчас что-то могут, а значит, смогут и ещё лучше. Но надежда на лучшее не аргумент, учитывая, что есть аргументы за противоположную точку зрения. А того, что чат-боты могут сейчас, мало. Ни один человек не обладает кругозором чат-бота. Но зато у нас для каждой задачи есть свои специалисты, которые в своей области на голову лучше чат-бота, хотя, может быть, и работают медленнее. Конечно, хорошо бы иметь одного специалиста на все случаи жизни, но чат-бот таким быть не может, ввиду того, что ему нельзя доверять.

В итоге, получается, что максимум практического применения - это наговаривать по какой-нибудь теме что-то такое, что или не очень важно, или можно проверить. Этого мало. Поэтому если кардинального улучшения не будет, а его не будет, то инвестиции иссякнут, а разработки переключатся на что-то более специализированное. Идея некого идущего сейчас продвижения от ИИ к СИИ заглохнет сама собой.

Я не утверждаю, что чат-боты смогут лучше - я допускаю это, в отличие от вас. Я искренне хочу понять возможные ограничения больших языковых моделей, даже завел для этого отдельную тему (Ограничения формальных систем, описывающих внешний мир).

Вообще надо определиться - о каком интеллекте мы говорим. Вы явно подразумеваете интеллект высокого уровня, носителями которого являются специалисты. Но возьмем программирование, например - разве все люди способны писать оригинальные, нетипичные алгоритмы? Увы, но нет - большинство программирует по шаблону, как и чат-боты НА ПЕРВОМ ГОДУ ПУБЛИЧНОГО ТЕСТИРОВАНИЯ. Аналогично научные открытия, изобретения - способных на это людей очень немного. Конечно надо стремиться именно к такому интеллекту (и я склоняюсь к тому, что он таки будет создан - если не через годы, то через десятилетия). Но ошибочно опровергать возможность будущего достижения чат-ботами интеллекта человеческого уровня только потому, что сейчас они уступают специалистам. Интеллект, действующий по шаблону - это тоже интеллект. Причем в будущем эти шаблоны будут становиться все менее шаблонными - большие языковые модели со временем научатся извлекать все более сложные закономерности, и тогда будут признаны носителями оригинального мышления.

 Профиль  
                  
 
 Re: Так Game Over или нет?
Сообщение02.09.2023, 15:29 


10/03/16
4444
Aeroport
MoonWatcher в сообщении #1607723 писал(а):
1) Начитанные люди намного умнее опытных (в области прочитанного) - значит тексты дают больше знаний, чем личный опыт.


Всего один вопрос: зачем нужна практика? Зачем в дополнение к лекциям устраивают семинары, хотя казалось бы уж в такой высокоабстрактной области, как матан, достаточно прочитать книжку/послушать лектора и все?

MoonWatcher в сообщении #1607723 писал(а):
тексты вбирают в себя опыт всего человечества


Тексты - это просто тексты. Которые писались ради славы, ради графоманского самоудовлетворения, ради манипуляции сознанием масс, ради бабла и на худой конец просто из под палки. Никто никакой опыт передавать не собирался и не собирается. Я раньше думал на этот счет так же как Вы, и потом сильно разочаровывался, почему какие-нибудь Гихман и Скороход просто выпендриваются знаниями на страницах книги, а не пытаются научить меня любимого теории случайных процессов, передав сокровенный опыт всего человечества.

То, что LLM научились извлекать из текстов нечто, позволяющее им генерировать новые тексты "в попад" - я безусловно восхищен и раздавлен, без иронии. И в этом деле, я даже уверен на 200%: в этом им нет равных так же, как нет равных движкам в игре в шахматы: складно рассуждать про всяких Андреев Болконских, просто прочитав книгу и ни разу в жизни не испытав любофф, моркофф и прочие чуйства, не способен ни один кожаный мешок.

MoonWatcher в сообщении #1607723 писал(а):
2) Читая текст и слушая речь, люди тоже предсказывают следующее слово - и значит задействуют не свой опыт, а те же статистические закономерности, что и языковые модели.


Как бы да, но как бы нет. Безусловно, статистические паттерны помогают человеку понимать речь, особенно быструю, и формулировать собственные мысли в виде текста. Чем разветвленнее такая система сэмплов у тебя в голове - тем красивее у тебя речь и письмо. Далее, заметим, к примеру, что ученые-исследователи и ученые-лекторы это суть разные, слабо пересекающиеся множества. Ученый лектор сможет лучше рассказать о предмете, даже зная его гораздо хуже, чем исследователь, но вот продвинуть его вперед он скорее всего не сможет.

MoonWatcher в сообщении #1607723 писал(а):
4) То, что у людей есть опыт (который скорее всего выражается в наборе зрительных, обонятельных, тактильных и прочих воспоминаний и ассоциаций ), и они в той или иной степени задействуют его в мышлении, не опровергает возможность создания ИИ, который в этом не нуждается (см. известное сравнение самолетов с птицами).


Да, но только вот у себя дома люди держат попугаев, а не самолеты. Самолет не повернет в ужасе назад, увидев впереди установку ПBO, и не будет радостно махать крыльями, заметив знакомую стюардессу (я сейчас про наш обычный самолет, а не про самолет+ИИ).

MoonWatcher в сообщении #1607723 писал(а):
Вообще надо определиться в определениях - о каком интеллекте мы говорим. Вы явно подразумеваете интеллект высокого уровня, носителями которого являются специалисты.


По-моему, Вы заменяете задачу... не то чтобы более простой, а просто другой. Например, гроссмейстеры - это явно большие специалисты, чем няньки - первым больше платят, их интеллектом многие восхищаются, в отличие от вторых. Однако Вы можете поставить на свой комп/телефон/калькулятор движЁкъ, который гарантированно обыграет чемпиона мира Карлсена в одни ворота хоть 100, хоть миллион раз. То, что джипитю можно заставить писать говонокод лучше человека, я вообще ни пол-раза не сомневаюсь - знакомый открывал стартап и нанял погромизда, который наваял ему сайт зерокодинг-методом, используя GPT. Теперь рассмотрим другую задачу - вырастить ребенка. Предположим, джипитос начитался книг, среди которых есть книги, как воспитывать детей и как варить обед. Джипитос понимает, что ребенок это по крайней мере 10 килиграмм отборного фарша, и принимает решение запечь его в духовке, с учетом того, что (предположим) личинка общества начнет приносить пользу только через -дцать лет, а вкусный и питательный обед из него можно приготовить just now. А кожаная нянька такого решения никогда не примет, потому что она а) любит детей и б) боится последствий возмездия для своей тушки.

 Профиль  
                  
 
 Re: Так Game Over или нет?
Сообщение02.09.2023, 16:09 
Аватара пользователя


17/10/22
366
ozheredov в сообщении #1607736 писал(а):
Всего один вопрос: зачем нужна практика? Зачем в дополнение к лекциям устраивают семинары, хотя казалось бы уж в такой высокоабстрактной области, как матан, достаточно прочитать книжку/послушать лектора и все?

Решение задач - это тоже тексты. На решении задач преимущественно и обучаются математике чат-боты, насколько я знаю.

ozheredov в сообщении #1607736 писал(а):
Тексты - это просто тексты. Которые писались ради славы, ради графоманского самоудовлетворения, ради манипуляции сознанием масс, ради бабла и на худой конец просто из под палки. Никто никакой опыт передавать не собирался и не собирается. Я раньше думал на этот счет так же как Вы, и потом сильно разочаровывался, почему какие-нибудь Гихман и Скороход просто выпендриваются знаниями на страницах книги, а не пытаются научить меня любимого теории случайных процессов, передав сокровенный опыт всего человечества.

Я же про тексты вообще говорю - включая полезные, очевидно. Кстати у меня наоборот - в детстве и молодости думал, что жизненный опыт дает больше знаний о жизни. Пока критическая масса идиотов с богатым жизненным опытом не убедила меня в обратном. Причем это касается любых аспектов. Помнится ветеран афганской войны авторитетно заявлял мне, что советская армия во время ВОВ не могла совершать преступлений против гражданского населения Германии - потому что этого не было в Афганистане. Получается я по текстам знал больше него не только про ВОВ, но и афганскую войну, о которой читал десятки живых свидетельств. Есть такое понятие - врет как очевидец. Это как раз про людей с богатым жизненным опытом - они воображают, что видели всё. Нет - всё видели МИЛЛИОНЫ людей с богатым жизненным опытом, чей коллективный опыт описан в текстах. Конечно речь идет исключительно о знаниях - практическими навыками никакие тексты овладеть не позволят.

ozheredov в сообщении #1607736 писал(а):
То, что LLM научились извлекать из текстов нечто, позволяющее им генерировать новые тексты "в попад" - я безусловно восхищен и раздавлен, без иронии. И в этом деле, я даже уверен на 200%: в этом им нет равных так же, как нет равных движкам в игре в шахматы: складно рассуждать про всяких Андреев Болконских, просто прочитав книгу и ни разу в жизни не испытав любофф, моркофф и прочие чуйства, не способен ни один кожаный мешок.

Аналогично - никакие личные переживания рядом не стоят с коллективным опытом миллионов влюбленных, описанном в текстах. Информация о том, что вы там про себя чувствуете и какие бабочки порхают у вас в животе, особой практической пользы не несет - в отличие от ваших конкретных поступков. А в этой области закономерности можно выявить только через текстовое описание поступков миллионов влюбленных людей, со всеми их сложными индивидуальностями.

ozheredov в сообщении #1607736 писал(а):
Как бы да, но как бы нет. Безусловно, статистические паттерны помогают человеку понимать речь, особенно быструю, и формулировать собственные мысли в виде текста. Чем разветвленнее такая система сэмплов у тебя в голове - тем красивее у тебя речь и письмо. Далее, заметим, к примеру, что ученые-исследователи и ученые-лекторы это суть разные, слабо пересекающиеся множества. Ученый лектор сможет лучше рассказать о предмете, даже зная его гораздо хуже, чем исследователь, но вот продвинуть его вперед он скорее всего не сможет.

Но хорошему лектору в интеллекте ведь тоже не откажешь, верно? Я уже не раз говорил, что не уверен в способности чат-ботов "мыслить" оригинально (не в искусстве, где глаза и уши всё стерпят, а в науках, прежде всего точных и естественных). Но даже без всего этого интеллект остается интеллектом - судя по массе шаблонно мыслящих людей (включая меня).

ozheredov в сообщении #1607736 писал(а):
Да, но только вот у себя дома люди держат попугаев, а не самолеты. Самолет не повернет в ужасе назад, увидев впереди установку ПBO, и не будет радостно махать крыльями, заметив знакомую стюардессу (я сейчас про наш обычный самолет, а не про самолет+ИИ).

Не совсем понял, что вы хотите этим сказать. Что попугай лучше самолета? Речь о том, что природный механизм необязательно совершеннее искусственного. Даже наш мозг очень и очень несовершенен - в силу избыточной эмоциональности, например. У нас нет механизма, который включает эмоции когда надо (чтобы творить искусство), и выключает их когда не надо (тебя оскорбило быдло в очереди). Наш интеллект вырос, условно, из интеллекта рыбы, крокодила, крысы, обезьяны - со всеми присущими им недостатками. Издержки эволюции - это метод проб и ошибок, который передает потомкам качества, востребованные только здесь и сейчас.

ozheredov в сообщении #1607736 писал(а):
По-моему, Вы заменяете задачу... не то чтобы более простой, а просто другой. Например, гроссмейстеры - это явно большие специалисты, чем няньки - первым больше платят, их интеллектом многие восхищаются, в отличие от вторых. Однако Вы можете поставить на свой комп/телефон/калькулятор движЁкъ, который гарантированно обыграет чемпиона мира Карлсена в одни ворота хоть 100, хоть миллион раз. То, что джипитю можно заставить писать говонокод лучше человека, я вообще ни пол-раза не сомневаюсь - знакомый открывал стартап и нанял погромизда, который наваял ему сайт зерокодинг-методом, используя GPT. Теперь рассмотрим другую задачу - вырастить ребенка. Предположим, джипитос начитался книг, среди которых есть книги, как воспитывать детей и как варить обед. Джипитос понимает, что ребенок это по крайней мере 10 килиграмм отборного фарша, и принимает решение запечь его в духовке, с учетом того, что (предположим) личинка общества начнет приносить пользу только через -дцать лет, а вкусный и питательный обед из него можно приготовить just now. А кожаная нянька такого решения никогда не примет, потому что она а) любит детей и б) боится последствий возмездия для своей тушки.

Поговорите об этом с чат-ботом - ваша идея запечь бесполезного ребенка ему точно не понравится. Именно в силу его обучения на текстах - неэтичность каннибализма и детоубийства из них следует вполне определенно.

 Профиль  
                  
 
 Re: Так Game Over или нет?
Сообщение02.09.2023, 17:38 


10/03/16
4444
Aeroport
MoonWatcher в сообщении #1607745 писал(а):
Получается я по текстам знал больше него не только про ВОВ, но и афганскую войну


Это пример несколько не из той области, в которую я пытаюсь Вас затащить ) Впрочем, винить можно только меня - мои формулировки слишком расплывчаты. Всякая фактология, типа расстояния от Земли до Солнца или количество изнасилованных немок (осуждаю-неодобряю, несмотря на не к месту ироничный стиль повествования) это безусловно не епархия жизненного опыта. А теперь представьте, что Вы первый раз на охоте, и на вас несется кабан. Книжки помогут понять, что: а) кабана требуется завалить, пока он не завалил Вас; б) для этого надо вскинуть ружжо и шандарахнуть по нему из двух стволов; в) поскольку это первый раз, Вы растерялись и поэтому попасть по кабану не сможете. Книжки не помогут зо 0.001 сек намотать сопли на кулак, прочувствовать траекторию кабана и сразить его метким попаданием. Только практика.

MoonWatcher в сообщении #1607745 писал(а):
Решение задач - это тоже тексты. На решении задач преимущественно и обучаются математике чат-боты, насколько я знаю.


Если Вы прочитаете не толко учебник, но и решебник, и даже внимательно отсмотрите семинары, где умный дядя решает задачи на доске с подробным объяснением хода решения - Вы все равно не научитесь решать задачи.

(На это есть возражение: то же самое можно сказать про шахматы - практика, практика, практика, однако же движёкъ играет лучше человека. Скажу честно - парировать данный аргумент у меня не хватает эрудиции.)

MoonWatcher в сообщении #1607745 писал(а):
Но хорошему лектору в интеллекте ведь тоже не откажешь, верно?


Верно. Я о том, что складно рассказывать о чем-то и эффективно это что-то делать - разные навыки.

MoonWatcher в сообщении #1607745 писал(а):
Не совсем понял, что вы хотите этим сказать. Что попугай лучше самолета?


Что попугай плохо решает задачу полета и плохо решает задачу ублажения хозяина. Но он решает две задачи, а самолет только одну, хотя решает он ее хорошо. У самолета узкая специализация, вот.

MoonWatcher в сообщении #1607745 писал(а):
У нас нет механизма, который включает эмоции когда надо (чтобы творить искусство), и выключает их когда не надо (тебя оскорбило быдло в очереди).


+++. Это да. Не тонуть в глупых эмоциях очень важная и очень сложная задача. И задача еще важнее - уметь включать положительные эмоции по щелчку пальцев, чтобы зараядить ими свой ресурсный аккумулятор. Ты снял проститутку на одну ночь - включи воображение, нафантазируй себе самое приятное, на что ты только способен, выверни ручку кайфо-поглотителя на максимум. У тебя 8 часов.

MoonWatcher в сообщении #1607745 писал(а):
Издержки эволюции - это метод проб и ошибок, который передает потомкам качества, востребованные только здесь и сейчас.


Вера в то, что, отправляя нас на битву с давлением отбора, эволюция дала нам приличный ствол и хотя бы одну пригоршню патронов на один день боя - отдельный разговор. Эта информация почерпнута Вами из текстов. А состоись этот разговор на 30-40 лет раньше, Вы бы утверждали, что эволюция дала нам ВСЁ, да еще и с запасом. И это тоже было бы почерпнуто из текстов (того времени). Я думаю, что эволюция нас обманула, дав ржавый доисторический автомат и пару отсыревших патронов. Мы - дно, которому в лучшем случае уготовано быть промежуточной ступенью к Разуму, который уже не будет живым.

(У Вас может сложиться впечатление, что я пренебрежительно отношусь к текстам. Это не так - трудно найти человека, так же влюбленного в тексты, как я. Особенно интересна эволюция текстов, в частности, страшно занимательна эволюция стилистики, тем и ключевых слов в сообщениях dxdy за 18 лет.)

MoonWatcher в сообщении #1607745 писал(а):
Поговорите об этом с чат-ботом - ваша идея запечь бесполезного ребенка ему точно не понравится. Именно в силу его обучения на текстах - неэтичность каннибализма и детоубийства из них следует вполне определенно.


Нормальная LLM-модель найдет в этих текстах кучу противоречий. Будь она человеком - она бы пришла к выводу, что вся этика - история лживых изворачиваний шкодливого пацана, который хочет слопать все конфеты, но чтоб родители об этом не узнали. Этика меняется в зависимости от географической координаты, времени, желания левой ноги и еще сотни факторов. Например, ребенок это вклад в перенаселение, а перенаселение это плохо. Взрослый это тоже вклад в перенаселение, но он например приносит пользу в виде ____ (нужное вписать). Я конечно утрирую и конкретно мой пример не прокатит, но что-то более тонкое из этой области наверняка да.

MoonWatcher в сообщении #1607745 писал(а):
закономерности можно выявить только через текстовое описание поступков миллионов влюбленных людей


Это интересная мысль, да. Заложено ли вообще вся инфа о любви в текстах? Можно ли научить бота любить через чистый анализ текстов, как в свое время научили сток-рыбу (про AlphaZero и Lila я сейчас не говорю) играть в шахматы через чистый анализ записей партий? Тут основной вопрос, что такое "любить". Что такое играть в шахматы, ясно - получать результат в виде матильды сильному сопернику. А любить? Эксперимент: вступить в переписку на тиндере с особой, у которой не менее 100 подписчиков. Бот выиграл, если диалог перешел в интимное русло. А?

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 249 ]  На страницу Пред.  1 ... 12, 13, 14, 15, 16, 17  След.

Модератор: Модераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group