2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




На страницу Пред.  1 ... 26, 27, 28, 29, 30, 31, 32 ... 34  След.
 
 Re: Обладают ли LLM самоосознанием?
Сообщение16.07.2025, 14:27 
Аватара пользователя
realeugene в сообщении #1694449 писал(а):
Понятия коннектома включает веса, или это только граф соединений нейронов?
Граф соединений и типы соединений. Понятие "веса соединения" - слишком неточная абстракция при такой работе.
Оригинальная статья https://wormatlas.org/MoW_built0.92/198 ... ocB_mh.pdf
И собственно проблема с моделированием - именно в том, что соединения не описываются просто, их параметры со временем меняются, и точного описания, как именно они меняются, и как, в зависимости от параметров соединений работают нейроны - нет.
Ghost_of_past в сообщении #1694446 писал(а):
И на сколько мне известно, считается что эти эффекты в любом случае не влекут сами по себе нетривиального влияния за пределами квантовой биохимии и нормальной физиологии на психику
Вроде бы только в смысле "запутанность нейронов значимого значения не имеет". Но вроде бы "есть несколько макросценариев с большой вероятностью, выбор между которыми зависит от одного квантового измерения" - бывает (оно очевидно возможно при использовании счетчика Гейгера, но, вроде бы, вполне может оказаться, что такое регулярно встречается и само по себе). Т.е. нейроны нельзя считать детерменированными.

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение16.07.2025, 14:28 
realeugene в сообщении #1694449 писал(а):
С долей Джоуля на токен LLM


С крохами на работу одного нейрона, насколько мне известно, это не сравнится. Если это не так, то будет интересно увидеть другую информацию.

realeugene в сообщении #1694449 писал(а):
Чтобы можно было сравнивать с человеческим эталоном.


Если сравниваем с человеком, то значит искусственное самосознание тоже должно быть частным случаем искусственного сознания. Иначе не совсем сравнимые вещи получаются.

realeugene в сообщении #1694449 писал(а):
но уже сейчас LLM вполне человекоподобные собеседники


Так с этим вроде никто и не спорит. Только почему для этого вдруг надо обладать искусственным самосознанием?

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение16.07.2025, 14:32 
Ghost_of_past в сообщении #1694454 писал(а):
С крохами на работу одного нейрона, насколько мне известно, это не сравнится.
Токен - это часть генерируемого слова, несколько букв. Там под триллион цифровых нейронов участвуют.

-- 16.07.2025, 14:33 --

Ghost_of_past в сообщении #1694454 писал(а):
Только почему для этого вдруг надо обладать искусственным самосознанием?
Потому что тесты на самосознание очевидно такой собеседник уже проходит.

-- 16.07.2025, 14:35 --

mihaild в сообщении #1694453 писал(а):
И собственно проблема с моделированием - именно в том, что соединения не описываются просто, их параметры со временем меняются
Нечто похожее я когда-то слышал про моделирование естественного языка. Почему не получалось построить достаточно хорошо работающую модель.

-- 16.07.2025, 14:37 --

mihaild в сообщении #1694453 писал(а):
выбор между которыми зависит от одного квантового измерения
Это так обзывают бифуркацию из-за теплового шума, или что-то за этим лежит более глубокое?

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение16.07.2025, 14:38 
mihaild в сообщении #1694453 писал(а):
Т.е. нейроны нельзя считать детерменированными.


Все так, нейрон не является полностью детерминированной системой.

realeugene в сообщении #1694456 писал(а):
Токен - это часть генерируемого слова, несколько букв.


Это я понимаю. Но сколько энергии потребляет всё оборудование, необходимое для функционирования LLM, и сколько человеческий мозг?

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение16.07.2025, 14:46 
Ghost_of_past в сообщении #1694459 писал(а):
Но сколько энергии потребляет всё оборудование, необходимое для функционирования LLM, и сколько человеческий мозг?
Всё оборудование датацентра генерирует миллиарды токенов в секунду, так как обрабатывает сразу параллельно множество сессий. GPT-4 по словам ChatGPT генерирует поток до 500 токенов на одного пользователя в секунду. Поэтому важна только энергия на слово в потоке текста. Один токен - 0.75 среднего английского слова или 0.6 русского.

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение16.07.2025, 14:49 
Аватара пользователя
Ghost_of_past в сообщении #1694441 писал(а):
Вот только единственное доказательство - это применение изменения терминологии в нетривиальном расширительном направлении.

Это не "применение изменения терминологии в нетривиальном расширительном направлении", а буквальное следование той же схеме, которая применялась в зеркальных тестах, в частности, в отношении муравьёв.

Все упоминаемые Вами "методологические трудности" организации таких тестов сводились на самом деле к проблеме того, что узнавание себя не всякому организму требуется в его жизни. Например, муравей может просто проигнорировать метку у себя на голове, даже если видит её в зеркале. Но нет, экспериментаторы нашли вид муравьёв, у которых существенная часть распознавания свои-чужие основана на внешнем виде, поэтому муравей, обнаруживший метку, старается её стереть, чтобы не нарушить распознавание себя коллегами как "своего".

Это всё не имеет никакого отношения к степени развитости нервной системы или к глубине "осмысления" субъектом своих действий.

Ghost_of_past в сообщении #1694441 писал(а):
Можно пойти по пути и панпсихизма в таком случае и обозначить наличие сознания и самосознания через субъективный опыт у элементарных частиц и струн, чего уж мелочиться.

Давайте не будем развивать демагогию в этом направлении. Я не знаю, как определить узнавание себя у элементарной частицы, но мне представляется совершенно очевидным, как оно определяется у чат-бота. И это никакой не "панпсихизм", ибо ни о каком "психизме" бота никто не говорит.

Ghost_of_past в сообщении #1694441 писал(а):
Других же доказательств нет, что и объясняет, почему в научном сообществе как-то не распространена тока зрения на наличие самосознания у чат-ботов.

Если Вы называете "научным сообществом" тех людей, которые много философствуют о сложности понятия "самосознание", то я совершенно не удивляюсь тому, что среди них эта точка зрения не распространяется. Если же Вы имеете в виду тех людей, которые для определения наличия самосознания придумывают зеркальный тест, то для них обнаружение у бота способности узнавать себя скорее всего является банальностью, не заслуживающей особого упоминания.

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение16.07.2025, 15:20 
epros в сообщении #1694463 писал(а):
а буквальное следование той же схеме, которая применялась в зеркальных тестах, в частности, в отношении муравьёв


Тогда Вам не составит труда привести пример, где чат-бот узнал бы свое "тело" в зеркале. Нет, не говорил бы какой-то набор слов, который Вы решили интерпретировать как самосознание, а именно буквально узнало бы, что было бы очевидно из эксперимента. Сюрприз, это и будет доказательной базой.

epros в сообщении #1694463 писал(а):
Давайте не будем развивать демагогию в этом направлении


Давайте. А также давайте Вы свои рассуждения про самосознание у чат-ботов докажете, опубликуете их в рецензируемых научных журналов и совершите тем самым научную революцию, показав аргументированно научному сообществу, что у чат-ботов в каком-то конкретном понимании существует искусственное самосознание.

А пока, извините, но у Вас только незнание терминологии, да отсутствие доказательной базы.

epros в сообщении #1694463 писал(а):
которые много философствуют о сложности понятия "самосознание"


:facepalm:

Я привел критерии самосознания из монографии по психологии сознания. По психологии, а не философии. Если Вы не способны психологию от философии отличить, то непонятно, о чем вообще можно вести этот странный разговор.

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение16.07.2025, 15:25 
Аватара пользователя
mihaild в сообщении #1694429 писал(а):
в 2012 году один товарищ говорил, что вот уже почти смоделировали нематоду (302 нейрона), и скоро смоделируют крысу, и я поспорил с ним, что крысу через 10 лет не смоделируют. Как выяснилось, я был недостаточно уверен - к 2022 году не смоделировали не только крысу, но и нематоду.

Мне вот что стало интересно: А удалось ли уже вырастить нематоду, моделирующую поведение другой нематоды?

-- Ср июл 16, 2025 16:32:32 --

Ghost_of_past в сообщении #1694482 писал(а):
Тогда Вам не составит труда привести пример, где чат-бот узнал бы свое "тело" в зеркале. Нет, не говорил бы какой-то набор слов, который Вы решили интерпретировать как самосознание, а именно буквально узнало бы, что было бы очевидно из эксперимента. Сюрприз, это и будет доказательной базой.

Гениальный ход - отправить меня предъявлять зеркало для обнаружения своего тела тому, у кого нет ни глаз, ни тела. Что Вам ещё может быть не очевидно в этом диалоге? Как ещё Вы можете интерпретировать использование ботом личного местоимения первого лица в ответ на моё косвенное упоминание "тупого бота"?

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение16.07.2025, 15:39 
epros в сообщении #1694486 писал(а):
Гениальный ход - отправить меня предъявлять зеркало для обнаружения своего тела тому, у кого нет ни глаз, ни тела


Абсолютно прозаично, а не гениально тогда понять, что логику подхода зеркального теста нельзя применить к техническим системам, у которых нет ни тела, ни глаз. Делаем круг и опять возвращаемся к тому, что сперва надо адаптировать понятия "сознание" и "самосознание" к искусственным системам, созданным нами, а потом уже искать и тестировать по критериям искусственные системы на наличие искусственного сознания и самосознания. И заметьте, что это не имеет никакого отношения к какому-то якобы религиозному пониманию сознания и самосознания - искусственным системам конкретного уровня сложности с той или иной функциональной архитектурой и организацией никто не мешает принципиально иметь искусственое сознание и самосознание.

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение16.07.2025, 15:48 
Аватара пользователя
realeugene в сообщении #1694456 писал(а):
Нечто похожее я когда-то слышал про моделирование естественного языка. Почему не получалось построить достаточно хорошо работающую модель.
Так rule-based хороших языковых моделей у нас до сих пор нет. И хороших моделей нервной системы даже нематоды, а не то что муравья - тоже (ни rule-based, ни статистических).
realeugene в сообщении #1694456 писал(а):
Это так обзывают бифуркацию из-за теплового шума, или что-то за этим лежит более глубокое?
Вроде бы тепловой шум всё же отличается от квантового. Про то, что тепловой шум важен, есть конкретные результаты.
However, statements as even heard from neuroscientist saying “there are no indications of indeterminacy in the brain” would immediately be objected to by all experimental neurophysiologists. It is their everyday experience to deal with an enormous diversity of neuronal activity in the brain. Experimentalists always have to struggle with the fact that no neuron reacts in the same way as any other one and that even the same neuron always reacts differently on repeated application of identical stimuli under identical experimental conditions.

The main question is whether this variety is simply due to the lack of our knowledge in view of the complexity of multiple meshed brain functions or whether it eventually reflects a principle uncertainty, which becomes specifically pronounced in biological systems. This study proposes that biology, indeed, has found a way to escape from full determinacy due to the organizational principles on which biological systems are based. Even more, it can be shown that these systems apparently have learned harnessing stochasticity, taking advantage of the molecular randomness in thermodynamics. It will be demonstrated by experimental recordings, supplemented by computer simulations, that biological systems, specifically brain functions, are built up on principle randomness, far above eventual quantum uncertainty but already manifested at the lowest level of neuronal information processing: the opening and closing of ion channels.

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение16.07.2025, 16:15 
Аватара пользователя
Ghost_of_past в сообщении #1694487 писал(а):
логику подхода зеркального теста нельзя применить к техническим системам, у которых нет ни тела, ни глаз.

Да неужели? И в чём же проблема? В техничности системы или в отсутствии глаз?

Если последнее, то значит ли это, что я не могу убедиться в наличии самосознания у слепого человека, задав ему вопрос: "Кого я сейчас взял за руку?" - и получив ответ: "Меня"?

А если первое, то значит ли это, что поместив бота в тело, имеющее камеру, я не могу убедиться в наличии у него самосознания, задав ему вопрос, кого он видит в зеркале, и получив ответ, что он видит себя?

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение16.07.2025, 16:22 
epros в сообщении #1694493 писал(а):
И в чём же проблема?


Проблема в отсутствии тела. Буквально. Самосознание - это не только про модель собственной психики в феноменальную Я-модель, но и про модель телесности.

epros в сообщении #1694493 писал(а):
то значит ли это, что я не могу убедиться в наличии самосознания у слепого человека


Это значит, что на слепом человеке явно не стоит проводить зеркальный тест, но зеркальный тест - не единственный метод обнаружения и исследования самосознания. Но что-то я не заметил, чтобы Вы хоть один этот метод/способ пытались применить. Вы, правда, не замечаете, что я от Вас какую страницу пытаюсь получить содержательную доказательную базу?

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение16.07.2025, 18:03 
Ghost_of_past в сообщении #1694494 писал(а):
Проблема в отсутствии тела. Буквально. Самосознание - это не только про модель собственной психики в феноменальную Я-модель, но и про модель телесности.
Телесность это просто частный случай отличить своё от чужого. Люди владеют физическим телом. LLM - ресурсами в датацентре. Сопротивление моделей своему отключению в известных контролируемых экспериментах как раз 100% свидетельствует о наличии у них самосознания.

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение16.07.2025, 18:10 
Аватара пользователя
realeugene в сообщении #1694502 писал(а):
Сопротивление моделей своему отключению в известных контролируемых экспериментах как раз 100% свидетельствует о наличии у них самосознания.
Любая ли система с отрицательной обратной связью обладает самосознанием?

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение16.07.2025, 18:32 
Аватара пользователя
Ghost_of_past в сообщении #1694494 писал(а):
Проблема в отсутствии тела. Буквально. Самосознание - это не только про модель собственной психики в феноменальную Я-модель, но и про модель телесности.

Ха, т.е. робота с телом и камерой как предмет исследования отвергать не будем? Всего лишь и нужно научить его узнавать своё тело в зеркале?

Ghost_of_past в сообщении #1694494 писал(а):
Это значит, что на слепом человеке явно не стоит проводить зеркальный тест, но зеркальный тест - не единственный метод обнаружения и исследования самосознания.

Вот я уже давно замечаю, что Вы реагируете на знакомые слова, но не улавливаете смысл. Вы сами-то не LLM? :wink: Это я к тому, что Вы зеркальный тест воспринимаете буквально - как применение оптического прибора, именуемого зеркалом, и упускаете, что смысл не в используемых приборах, а в том, чтобы испытуемый узнал себя. Если он узнает себя не в зеркале, а на фотографии, это будет ничуть не хуже.

Ghost_of_past в сообщении #1694494 писал(а):
Но что-то я не заметил, чтобы Вы хоть один этот метод/способ пытались применить. Вы, правда, не замечаете, что я от Вас какую страницу пытаюсь получить содержательную доказательную базу?

Это Вы невнимательны. Я, конечно, не имел намерений протестировать МТС-бота на самосознание, это само по себе получилось. Но факт узнавания себя налицо. А то, что это было не зеркало и узнано было не тело, а предмет разговора, так это - несущественные детали.

 
 
 [ Сообщений: 504 ]  На страницу Пред.  1 ... 26, 27, 28, 29, 30, 31, 32 ... 34  След.


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group