2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




На страницу Пред.  1 ... 31, 32, 33, 34, 35, 36  След.
 
 Re: Обладают ли LLM самоосознанием?
Сообщение22.07.2025, 18:31 
epros в сообщении #1695032 писал(а):
Гениально! Только что-то мне кажется, что я вряд ли бы угадал правильный вопрос, который нужно задать Вашей программе.

Допустим я усложню алгоритм и программа будет отвечать на по разному сформулированные вопросы, вставляя в каждый ответ местоимение "Я". Каждую версию буду делать его все сложнее и сложнее, так что она отвечает на все большее разнообразие вопросов.
На каком уровне сложности алгоритма зарождается самосознание?

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение22.07.2025, 23:35 
alesha_popovich Ситуация аналогичная - парадокс кучи.
https://ru.wikipedia.org/wiki/Парадокс_кучи

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение23.07.2025, 07:59 
alesha_popovich в сообщении #1695110 писал(а):
Допустим я усложню алгоритм и программа будет отвечать на по разному сформулированные вопросы, вставляя в каждый ответ местоимение "Я". Каждую версию буду делать его все сложнее и сложнее, так что она отвечает на все большее разнообразие вопросов.
На каком уровне сложности алгоритма зарождается самосознание?

Думаю, да, это будет именно искусственное [само]сознание. Тогда как у LLM оно не искусственное.

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение24.07.2025, 03:11 
Mihaylo в сообщении #1694940 писал(а):
Ничего страшного. Ответы и проверка ответов не обязаны быть идеальными. Не возводите всё это в ранг святых, не думайте, что вы (мы) должны открыть нечто с чем-то.

Это частности... А неопределённость "себя" - концептуальная трудность. Акцент был именно на ней, а не на казуистической критике зеркального теста.

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение27.07.2025, 11:48 
Аватара пользователя
mihaild в сообщении #1694444 писал(а):
Модель, которой даем на вход те же сигналы, что получают нейроны реального червя, и на выход получаем те же сигналы, что были в реальном черве. Подробнее см. openworm.org.
У проекта на редкость бестолковый сайт. Однако, судя по этому разделу, они пытаются смоделировать всего червя, а не только его нервную систему. Это на порядки более сложная задача, чем моделирование собственно нервной системы. Правда, начинают они все-таки с задачи "нервная система + мышечная система". Но все равно тут добавляется вся биомеханика.

К тому же все волонтерские проекты страдают от того, что люди занимаются ими в свободное время. Возможно, если бы целью смоделировать нервную систему C. elegans задались так же серьезно, как целью создать GPT (большая команда, которая занимается только этим, получает за это зарплату и имеет дедлайны по подзадачам), она уже была бы смоделирована.

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение27.07.2025, 19:37 
b4b5 в сообщении #1695122 писал(а):
alesha_popovich Ситуация аналогичная - парадокс кучи. https://ru.wikipedia.org/wiki/ Парадокс_кучи

Ну вот, поэтому хорошо бы сначала сформулировать исчерпывающие критерии наличия самосознания у модели. А не "я у нее спросил, она использовала местоимение Я в ответе, значит осознает себя".

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение28.07.2025, 01:01 
alesha_popovich
Сознание = (Восприятие → Обработка → Реакция).
Конечный автомат = (Вход → Обработка → Выход).
Устраивает?

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение28.07.2025, 05:03 
alesha_popovich в сообщении #1695574 писал(а):
А не "я у нее спросил, она использовала местоимение Я в ответе, значит осознает себя".

Ржака. Я же сказал, что тест должен быть по смыслу, а не по синтаксису.

Не понимаете вы. :D :D :D

Кто-то ещё говорит, что мозгопоклонничество - это грубость. Это не грубость, это факт.

-- 28.07.2025, 05:37 --

Есть такой тест Тьюринга... Так вот, ещё есть тест Михайло - просто опрашиваете интеллект и по смыслу оцениваете адекватность ответа. Всё, больше ничего не надо.

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение28.07.2025, 06:03 
Тест по смыслу - это не просто "ах-ох", это очень трудный тест. Вопрос может звучать так: "Почему фанера над Парижем упала и чуть не убила тебя?". Искусственный интеллект должен понять, а при чем тут фанера, Париж и он сам. Если честно, я сам не знаю, как бы ответил, потому что фанера не падала рядом.

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение28.07.2025, 16:42 
Mihaylo в сообщении #1695601 писал(а):
Ржака. Я же сказал, что тест должен быть по смыслу, а не по синтаксису.

Действительно, ржака. А судьи кто? Получается, результат зависит от субъективного ощущения тестирующего, а не от неких объективных критериев. Наукой тут как то не пахнет.
b4b5 в сообщении #1695594 писал(а):
alesha_popovich
Сознание = (Восприятие → Обработка → Реакция).
Конечный автомат = (Вход → Обработка → Выход).
Устраивает?

Не знаю, может быть и устроило бы, если бы я понял, к чему вы клоните. Но я не понял.

-- 28.07.2025, 17:43 --

Mihaylo в сообщении #1695606 писал(а):
Если честно, я сам не знаю, как бы ответил, потому что фанера не падала рядом.

Т.е. вы сами не факт что прошли бы тест на наличие самосознания? :mrgreen:

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение28.07.2025, 22:37 
alesha_popovich в сообщении #1695644 писал(а):
Не знаю, может быть и устроило бы, если бы я понял, к чему вы клоните. Но я не понял.

Вы просили определить сознание поточнее, я вам дал определение. Можно с помощью данного определения ответить на многие вопросы.

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение29.07.2025, 13:27 
Аватара пользователя
alesha_popovich в сообщении #1695644 писал(а):
А судьи кто? Получается, результат зависит от субъективного ощущения тестирующего, а не от неких объективных критериев.

Ну так он и зависит от субъективных ощущений тестирующего. Когда тестирующий видит, что муравей, заметивший в зеркале метку на своей голове, начинает её счищать, то он говорит: "Обнаружено самосознание!" А когда тестирующий видит, что бот в ответ на косвенное упоминание "тупого бота" выдаёт оправдания, начинающиеся с местоимения "я", то он говорит: "Какое тут может быть самосознание, это же просто железяка".

Так что субъективные ощущения тестирующего, касающиеся того, что самосознанием могут обладать только "живые существа", на деле определяют всё.

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение29.07.2025, 13:40 
Аватара пользователя
Наверное, этот вопрос тут уже задавался (читать такие темы насквозь выше моих сил). Но.

Допустим, я напишу программу $A$, которая будет искать во введенном тексте слова "бот" и "тупой" во всех возможных словоформах. При обнаружении этих слов она будет выдавать строку: "Я бот, но я не тупой". Больше ничего программа делать не будет.
Будет ли программа $A$ обладать самосознанием?

Напишем чуть более сложную программу $B$. Она будет искать не только слово "бот", но и все слова из списка $X$ синонимов к слову "бот", и не только "тупой", но и все слова из списка $Y$ оскорблений. При обнаружении $x\in X$ совместно с $y \in Y$ она будет выдавать строку: "Я $x$, но я не $y$". Больше ничего программа делать не будет.
Будет ли программа $B$ обладать самосознанием?

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение29.07.2025, 14:14 
Аватара пользователя
Anton_Peplov в сообщении #1695750 писал(а):
Будет ли программа $A$ обладать самосознанием?
Anton_Peplov в сообщении #1695750 писал(а):
Будет ли программа $B$ обладать самосознанием?

Давайте я лучше задам встречный каверзный вопрос. Допустим, я создам механического псевдомуравья (а что, говорят мух - дронов уже пытаются делать) с целью обмануть не слишком внимательных исследователей, которые, наблюдая в муравейнике нечто бегающее и похожее на муравья, даже не заподозрят, что это не настоящий муравей. И далее я запрограммирую этого псевдомуравья на то, чтобы заметив себя в зеркале, он начал счищать со своей головы метку.

Если исследователи самосознания у муравьёв случайно натолкнутся на этого псевдомуравья и, не распознав в нём подделку, на основании его реакции на зеркало придут к мысли о наличии самосознания у муравьёв, то будет ли это означать наличие самосознания у данного псевдомуравья или это просто будет означать ошибку исследователей?

 
 
 
 Re: Обладают ли LLM самоосознанием?
Сообщение29.07.2025, 14:36 
epros в сообщении #1695754 писал(а):
я создам механического псевдомуравья


Можете начать с моделирования нервной системы муравья.

epros в сообщении #1695754 писал(а):
а что, говорят мух - дронов уже пытаются делать


Говорят, что кур доят. Дрон-муха просто издалека похож на муху, а не является полноценным аналогом реальной мухи с воспроизведением ее нервной системы.

epros в сообщении #1695754 писал(а):
Если исследователи самосознания у муравьёв случайно натолкнутся на этого псевдомуравья и, не распознав в нём подделку


Ну то есть профессиональные мирмекологи не смогут отличить реального живого муравья от роботизированной версии. Тут вообще что-то комментировать надо?

epros в сообщении #1695754 писал(а):
или это просто будет означать ошибку исследователей?


Это не ошибка, а профессиональное невежество, если специалист не может отличить муравья от робота-муравья.

 
 
 [ Сообщений: 533 ]  На страницу Пред.  1 ... 31, 32, 33, 34, 35, 36  След.


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group