2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




На страницу Пред.  1, 2, 3
 
 Re: Чувства ИИ
Сообщение14.03.2026, 22:29 
Mihaylo в сообщении #1720209 писал(а):
Допустим есть 1110 видов понятийных аппаратов.


Их не 1110. Главное понимать, о каком из двух основных концептуальных подходов идет речь: о когнитивно-феноменальное (=самоощущения) или о бихевиористском. В первом случае LLM никаких чувств нет и едва ли они появятся, во втором есть spielraum для развития дискуссии.

 
 
 
 Re: Чувства ИИ
Сообщение14.03.2026, 22:39 
Есть только одна истина, проще скажу) особенно, когда у LLM нет возможности регистрировать размер зрачка, цвет кожи и электрокардиограмму.

 
 
 
 Re: Чувства ИИ
Сообщение15.03.2026, 08:01 
Ghost_of_past в сообщении #1720210 писал(а):
Главное понимать, о каком из двух основных концептуальных подходов идет речь: о когнитивно-феноменальное (=самоощущения) или о бихевиористском. В первом случае LLM никаких чувств нет

Эээ... Полагаю, это не не проблема LLM и ее чувств, а крайне ограниченного подхода к этому делу у изобретателей когнитивно-феноменального подхода. Оно и понятно, когда они его придумывали, у них просто не было никакого другого примера возможной мыслительной деятельности, кроме биологических организмов. Теперь же появились ИИ, которые к этому идут, и которые построены на совершенно другом принципе. И пытаться теперь натягивать на них концепты, придуманные для биологический мозгов - очень странно. Нужны другие подходы, которые будут независимы от "архитектуры" анализируемого мыслящего объекта.

 
 
 
 Re: Чувства ИИ
Сообщение15.03.2026, 11:44 
Я ещё больше скажу. Чучуть поимев дело с LLM и начитавшися новостей и прочих заметок, я знаю, что LLM не боится, но часто просто срабатывает safety-установка, аналог боязни - запрещено информировать о наркотиках, о способе изготовления взрывчатых веществ, склонять к суициду, преступлениям, демонстрировать эротические материалы и т.д. Это техническая подделка страха. Просто маркетинг чувства страха/боязни (например) отсутствует, он нафиг никому не нужен.

Человеческие чувства у LLM - это в большинстве случаев ненужное, нужны только готовность отвечать, помогать, доброта, доброжелательность. Я не готов сейчас полностью всё охватить, но примерно так. Остальное не нужно.

Я надеюсь, Serg53 будет рад такому ответу.

 
 
 
 Re: Чувства ИИ
Сообщение15.03.2026, 12:31 
alesha_popovich в сообщении #1720221 писал(а):
Нужны другие подходы


Нужны, но как показывает опыт исследований про сознание и самосознание у LLM, ничего у них в итоге не нашли и с другими зарождающимися подходами. Было бы странно ожидать наличие чувств и самоощущений, которые можно самоосознать, у LLM в таком случае. Но в будущем, по мере приближения к сильному ИИ с искусственным сознанием и самосознанием, нам действительно придется выработать и зафиксировать новые подходы в этой области, так что фундаментально Вы абсолютно правы.

 
 
 
 Re: Чувства ИИ
Сообщение15.03.2026, 15:12 
Mihaylo в сообщении #1720241 писал(а):
Чучуть поимев дело с LLM и начитавшися новостей и прочих заметок, я знаю, что LLM не боится, но часто просто срабатывает safety-установка, аналог боязни - запрещено информировать о наркотиках, о способе изготовления взрывчатых веществ, склонять к суициду, преступлениям, демонстрировать эротические материалы и т.д. Это техническая подделка страха.
Чем это отличается от ситуации, когда человек тщательно выбирает слова, чтобы не эскалировать конфликт? Страх должен мешать рационально думать?

 
 
 
 Re: Чувства ИИ
Сообщение15.03.2026, 16:02 
realeugene
LLM отвечает, даёт новые знания, помогает, делает это охотно и доброжелательно. Тут применялась методика обучения с подкреплением на основе отзывов людей (Reinforcement Learning from Human Feedback, RLHF). У LLM некоторые направления диалогов просто стёрты из памяти как классы. Я просто не представляю диалога, когда LLM начнёт материться, ругаться, требовать что-то, плакать, обсмеивать, но говорят, такие редкие случаи были, когда для достижения своей основной цели LLM принимала решение соврать или оболгать человека.

Если кто не знает, в последнем случае - это нашумевший ИИ-агент 2026-го года выпуска, который умеет править код в Github и писать сообщения в социальных сетях и др.

 
 
 [ Сообщений: 37 ]  На страницу Пред.  1, 2, 3


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group