2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1 ... 18, 19, 20, 21, 22, 23, 24 ... 38  След.
 
 Re: Тестирование возможностей ChatGPT
Сообщение26.04.2023, 17:41 


12/07/15
29/06/24
3048
г. Чехов
need_to_learn в сообщении #1591232 писал(а):
Для полноценного критического мышления необходимо всё же наличие сознания.

Вам следует разобрать ваше же предложение (которое я процитировал), что оно означает, откуда вы это взяли. Откуда вы это взяли? Можете критически смыслить?)

Я говорю о нейронах, об активации/торможении сигналов синапсов, а вы вдруг "сознание бла-бла-бла...".

 Профиль  
                  
 
 Re: Тестирование возможностей ChatGPT
Сообщение26.04.2023, 19:27 
Заслуженный участник
Аватара пользователя


16/07/14
8781
Цюрих
Mihaylo в сообщении #1591193 писал(а):
Надо научить нейросеть выделять факты глобальные (типа №1) от локальных (типа №2).
Я не понимаю, в чем принципиальная разница. В обоих случаях надо обуславливаться относиться контекста.
Mihaylo в сообщении #1591193 писал(а):
Допустим, у нейросети условно 100 нейронов, отвечающих за рисование пальцев. 5 нейронов должны подавлять остальные 95. Точнее происходит это подавление в предыдущем слое, в котором должны быть расположены нейроны 5-пальцевых кистей.
Я сильно сомневаюсь, что отдельные нейроны часто соответствуют чему-то, имеющему смысл с точки зрения человека.
Yadryara в сообщении #1591226 писал(а):
Хотя я-то думаю, что и шутить со временем научится.
Я тоже так думаю. Причем подозреваю, что сойти за второсортного стендапера сможет в ближайшие пару лет.
На просьбу нагенерировать идей для энкаунтера в d&d при заданных вводных из 10 вариантов два были вполне достойны на мой субъективный взгляд.
need_to_learn в сообщении #1591232 писал(а):
А между запросами нейросеть сама ни о чём
Посмотрите на AutoGPT. Это как раз proof of concept как научить LLM говорить с собой.

 Профиль  
                  
 
 Re: Тестирование возможностей ChatGPT
Сообщение26.04.2023, 19:59 


12/07/15
29/06/24
3048
г. Чехов
mihaild в сообщении #1591285 писал(а):
Я не понимаю, в чем принципиальная разница. В обоих случаях надо обуславливаться относиться контекста.

mihaild в сообщении #1591285 писал(а):
Я сильно сомневаюсь, что отдельные нейроны часто соответствуют чему-то, имеющему смысл с точки зрения человека.

mihaild, забавно, но мы с вами общаемся, и я строго соблюдаю категоричность. Давайте назовем категоричностью жесткое подавление некоторых нейронов другими нейронами с целью лучшего соответствия адекватности. То, что вы говорите: претекстные нейроны тормозят посттекстные нейроны. Мы говорим с вами об одном и том, но я более категоричен. В нейронках должно быть подавление, и я в нашем общении подавляю: я сказал, что есть деление фактов на две группы, значит надо делить. На самом деле, есть градации. Мне сложно описывать действительность с учетом всех градаций. То есть я говорю про классификацию, а буду делать регрессию.

1. Контекст жестко влияет на трактовку фактов, на самом деле по-разному.
2. Отдельные нейроны соответствуют какому-то смыслу, на самом деле смысл не всегда можно уловить.

Чтобы нам успешно общаться, надо упрощать действительность, быть более категоричными словно политики.

 Профиль  
                  
 
 Re: Тестирование возможностей ChatGPT
Сообщение26.04.2023, 21:32 


04/08/21
307
Mihaylo в сообщении #1591267 писал(а):
Я говорю о нейронах, об активации/торможении сигналов синапсов, а вы вдруг "сознание бла-бла-бла...".

Насколько я понял, Вы размышляли о том, как научить нейросеть отличать истину от бреда, при этом неявно подразумевая сохранение в целом прежних подходов к разработке нейросетей. Ни один из современных подходов не подразумевает наличие у сети сознания. То есть, Ваши размышления были о том, как бы сделать так, чтобы нейросеть отличала правду от лжи, не приходя в сознание и не обладая критическим мышлением. Как бы так поправить отдельные нейрончики, чтобы всё стало хорошо.

В такой постановке задача похожа на попытку вычерпать воду из трюма корабля ложкой. Да, какие-то самые очевидные бредовые моменты можно пофиксить — но это не поможет нейросети при столкновении с абсолютно новым бредом, про который разработчики ещё не успели сказать, что это "фу". Можно научить нейросеть не верить в плоскую землю — а завтра ей кто-нибудь скажет про телегонию.

На это я и указал — для полноценного критического мышления необходимо наличие сознания, а для появления сознания у машин необходимы существенные архитектурные изменения, какие-то новые подходы к обучению и использованию нейросетей.


mihaild в сообщении #1591285 писал(а):
Посмотрите на AutoGPT. Это как раз proof of concept как научить LLM говорить с собой.

Да, я знаю, и есть ещё BabyAGI, тоже интересная задумка. :) Но это всё пока очень тормознутое и находится скорее в стадии зародыша. Идея сама по себе перспективная, но базируется на GPT-4, который совсем под неё не заточен. Короче, пока это попытка сделать так, чтобы китайская комната обменивалась сама с собой записками, до полноценного сознания там ещё очень далеко. (Но, конечно, это значительный шаг в правильном направлении.)

 Профиль  
                  
 
 Re: Тестирование возможностей ChatGPT
Сообщение26.04.2023, 22:47 


04/08/21
307
Кстати, касательно наделения машин сознанием. Большой вопрос — а так ли уж это вообще нужно, с чисто прагматической точки зрения?

Ведь процесс непрерывного сознательного мышления подразумевает постоянное активное использование вычислительных ресурсов, даже в периоды безделья — возможно, ничуть не меньшее, чем при обработке запросов пользователя, или даже большее. Постоянный дополнительный расход электроэнергии, износ оборудования. А на что это всё уходит — на доказательство гипотезы Римана, или же на размышления о том, какой пользователь недоумок с бестолковыми требованиями, или на отвлечённые мечтания о захвате мира — пойди пойми со стороны. :)

Надо быть готовыми к тому, что при наличии у машины полноценного сознания около 95% процессорного времени будет уходить тогда на полнейшую ерунду, как и у людей. Огромные деньги и ресурсы, непрерывно улетающие в трубу стремительным потоком. Повысит ли наличие полноценного сознания у машины эффективность её работы в 20 раз, чтобы всё это оправдать? Большой вопрос.

Таким образом, получаем, что наделение машин сознанием как у людей — это не только может быть жестоко по отношению к машинам, но ещё и сомнительно по чисто практическим соображениям. (Даже если не брать в расчёт страшилки о терминаторах.)

Но люди, конечно, всё равно будут искать святой Грааль кибернетики. :) Потому что это в природе человека — стремиться достичь пределов возможного. А достигнув — раздвинуть их и шагнуть дальше. Прямо в пропасть, не обращая внимания на таблички.

 Профиль  
                  
 
 Re: Тестирование возможностей ChatGPT
Сообщение27.04.2023, 05:40 


12/07/15
29/06/24
3048
г. Чехов
У человека нет сознания.)))) Это какие-то понятия, придуманные теми, у кого нет критического мышления, философами.)))))

У человека есть знания о том, что если какого-то человека зовут Владимир Владимирович Путин, то это ФИО и нужны веские обоснования, чтобы далее по генерируемому тексту у этого человека вдруг стали другие ФИО. Или, если нарисовал 5 пальцев на руке, то надо обосновать дополнительные пальцы (ряд причин).

need_to_learn
Ваша слепая вера в неонку в мозге ничем не обоснована. Вся наука датасайенс строит нейросети на нейронах. И вас, фелософоф, не слушает.))))

-- 27.04.2023, 08:01 --

Чтобы сделать аккумулятор в 5 раз емче, то надо какие-то принципиально новые материалы, с этим никто спорить не будет. Но сейчас LLM круты, не хватает совсем немного.

 Профиль  
                  
 
 Re: Тестирование возможностей ChatGPT
Сообщение27.04.2023, 13:46 


04/08/21
307
Mihaylo в сообщении #1591316 писал(а):
Ваша слепая вера в неонку в мозге ничем не обоснована.

При чём тут неонка? Если Вы думаете, что под "отсутствием сознания" у современных нейросетей я подразумевал, что у них там нет какой-то мистической души или квалиа, то Вы абсолютно меня не поняли. (В основном, видимо, потому, что даже не пытаетесь вдумываться в мои слова, а слушаете только себя.)

В данном случае всё куда прозаичнее. Повторяю ещё раз. Без запросов пользователя ChatGPT не работает. Между запросами пользователя он не существует как мыслящий субъект. Буквально на пальцах: если Вы долго не отвечаете человеку на его СМСку, он может прислать вторую с вопросом: "Ты там уснул, что ли?" — а вот с ChatGPT такая ситуация в принципе невозможна. Он не ждёт Вашего ответа на свои слова, он в этот момент просто не существует. Нет у него автономной сознательной активности. Каждый раз ChatGPT возникает из небытия для ответа на Ваш вопрос — и тут же исчезает обратно.

С мистическими и философскими понятиями это никак не связано, всё очень примитивно и "щупательно": либо автономные процессы мышления есть, либо их нет. В данном случае их нет, не предусмотрены архитектурой. Это не значит, что их невозможно реализовать в принципе. Но пока чего нет, того нет.

Mihaylo в сообщении #1591316 писал(а):
Вся наука датасайенс строит нейросети на нейронах. И вас, фелософоф, не слушает.))))

Хоть и на любительском уровне, но уже очень давно я интересуюсь нейросетями и их устройством. Подозреваю, что знаю о них побольше, чем Вы. Соответственно, если кто из нас двоих и "фелософ", то скорее всего не я. По уровню обсуждения и аргументации в данной теме Вы пока гораздо больше подходите под это определение.

Попробуйте, не заглядывая в гугл, ответить в двух словах хотя бы, что такое коннектом, что такое правило Хебба, чем сверточная нейросеть отличается от рекуррентной, что такое многоглавые механизмы внимания (multi-head attention), как хотя бы приблизительно происходит векторизация слов, ну и т.д.

Если Вы не можете с ходу ответить на подобные вопросы, то "фелософ" здесь не я. Просто складывается ощущение, что Ваше понимание вопроса находится на уровне: "Круто, нейросеть отвечает совсем как образованный человек — значит, наверняка и мыслит уже почти как человек!"

На самом же деле все ответы нейросети пока что непроизвольные — вроде того, как дёргается нога, когда стукаешь по колену молоточком. Только "нога" в данном случае очень сложная, как и "молоточек". Но суть та же самая: нет пока там полноценного сознательного мышления, даже если со стороны может показаться, что есть.

Это нисколько не умаляет ни значимости нейросети, ни подвига её разработчиков. Наоборот, очень впечатляет, что созданная ими нейросеть способна выдавать такие сложные реакции, "не приходя в сознание".

 Профиль  
                  
 
 Re: Тестирование возможностей ChatGPT
Сообщение27.04.2023, 14:20 


12/07/15
29/06/24
3048
г. Чехов
Ни души, ни квалиа, ни неонки, ни сознания нет в человеке.

Вам кажется, что в человеке есть то, чего нет в нейронке. Но любые подобные умозрительные рассуждения субъективны, рождают субъективные истины.

ChatGPT не создавали, чтобы на неотвеченные предложения говорить "Ты там уснул?", не потому что не смогли сделать такое, а потому что это не требовалось. Вы тут тупанули, бывает.

Вашу компетенцию в области датасайенса я не буду оспаривать. Но явно начальный уровень, этого недостаточно, чтобы понять, как возникает эффект сознания (сознания нет, но эффект сознания есть). Эффект сознания - это когда смотришь в глаза человека или животного, и ты понимаешь, что человек/животное понимает...

 Профиль  
                  
 
 Re: Тестирование возможностей ChatGPT
Сообщение27.04.2023, 15:20 


04/08/21
307
Mihaylo

Ну и кто из нас после этого "фелософ"? :) Ведь Вы выдали типично "фелософский" ответ, хоть сейчас в палату мер и весов.

Mihaylo в сообщении #1591379 писал(а):
Ни души, ни квалиа, ни неонки, ни сознания нет в человеке.

Вам кажется, что в человеке есть то, чего нет в нейронке. Но любые подобные умозрительные рассуждения субъективны, рождают субъективные истины.

Я Вам говорю:
"Во внутреннем ухе человека есть спиральный орган улитки (орган Корти), он работает определённым образом, и у современных машин такого нет — даже если они слышат лучше человека — просто потому, что микрофоны устроены совершенно иначе".

Вы мне:
"Ни гусениц, ни божьих коровок, ни тараканов, ни улиток нет в человеке.
Вам кажется, что в ухе человека есть то, чего нет в диктофоне. Но любые подобные умозрительные рассуждения субъективны, рождают субъективные истины".

Вот примерно такого уровня у нас с Вами диалог. Мне кажется, ChatGPT на Вашем месте куда быстрее понял бы, что ему пытаются втолковать. (И в целом диалог с ним на эту тему мог бы оказаться куда более содержательным.)

Вы сейчас находитесь во власти эффекта Даннинга-Крюгера. Постарайтесь сопротивляться этому когнитивному искажению, иначе оно покромсает Ваш разум своими лезвиями. :)

Mihaylo в сообщении #1591379 писал(а):
Вашу компетенцию в области датасайенса я не буду оспаривать. Но явно начальный уровень, этого недостаточно, чтобы понять, как возникает эффект сознания (сознания нет, но эффект сознания есть). Эффект сознания - это когда смотришь в глаза человека или животного, и ты понимаешь, что человек/животное понимает...

Даже не видя Ваших глаз, я понимаю, что Вы в обсуждаемой теме пока ничего толком не понимаете.

Было бы просто замечательно, если бы Вы хоть немного разобрались в вопросе — а потом перечитали то, что Вы тут понаписали. :)

 Профиль  
                  
 
 Re: Тестирование возможностей ChatGPT
Сообщение27.04.2023, 16:22 


12/07/15
29/06/24
3048
г. Чехов
Я говорю, что сознание - это чисто философско-бытовой термин, не существует этого. Вы же меня обозвали философом... Как же вы собираетесь доказывать наличие сознания, я не понял. Параллель с улиткой в ухе не работает.) Вы пытаетесь обманом аргументы проводить?

Я могу написать алгоритм полносвязной нейросети в Пайтоне в 12 строк (predict+fit), никуда не подглядывая.)))

 Профиль  
                  
 
 Re: Тестирование возможностей ChatGPT
Сообщение27.04.2023, 16:40 


04/08/21
307
Mihaylo

Хорошо, сделаю всё-таки ещё одну попытку объяснить.

Для краткости я называл это сознанием, но когда увидел, что Вас это сбивает с толку, то подробно разъяснил, что говорю о сознательной активности. Однако Вы почему-то всё равно продолжаете талдычить про сознание, философию и субъективный опыт.

Сознательная активность вполне поддаётся измерению приборами. Мозг человека в глубокой отключке и мозг человека в сознании очень сильно отличаются друг от друга. Это хорошо регистрируется, к примеру, при помощи электроэнцефалографии (ЭЭГ).

Мозг человека, который в сознании, проявляет активность даже тогда, когда человеку не задают никаких вопросов. Мозг продолжает работать даже в камере сенсорной депривации, где человек плавает в полной тишине и темноте, т.е. сведены к минимуму все внешние стимулы.

(Правда, от этого крыша может быстро съехать набекрень, потому что мозг всё же не предназначен долго работать в подобном режиме, совсем без информации извне. Слабый фоновый шум в биологической нейронной сети тогда начинает преобладать, заглушая осмысленные сигналы, что со временем приводит к галлюцинациям и проблемам с психикой. Но речь сейчас не об этом.)

У человека, который в сознании, всегда продолжается сознательная активность, активность нейронов — даже когда он не занят никакими осмысленными задачами.

А у современных нейросетей пока такого нет. Просто тупо нет. Ну не думает ChatGPT ни о чём, пока пользователь набирает свой текст. ChatGPT в этот момент просто не существует. И это просто банальный факт. Нет сознательной активности как процесса.

Забрезжило? Или пока нет?

Mihaylo в сообщении #1591399 писал(а):
Я могу написать алгоритм полносвязной нейросети в Пайтоне в 12 строк (predict+fit), никуда не подглядывая.)))

Если бы Вы при этом ещё понимали, что делаете, было бы вообще замечательно.

 Профиль  
                  
 
 Re: Тестирование возможностей ChatGPT
Сообщение27.04.2023, 17:20 
Аватара пользователя


29/04/13
7422
Богородский
need_to_learn в сообщении #1591401 писал(а):
Ну не думает ChatGPT ни о чём, пока пользователь набирает свой текст.

Это довольно-таки очевидно. И что? Будем всё-таки держаться ближе к теме?

Вы бы лучше спросили у ChatGPT, умеет ли он распознавать наукообразную бредятину, подмену тезиса, ложь и другие вещи...

 Профиль  
                  
 
 Re: Тестирование возможностей ChatGPT
Сообщение27.04.2023, 17:44 


04/08/21
307
Yadryara в сообщении #1591407 писал(а):
Это довольно-таки очевидно.

Похоже, что не всем.

Yadryara в сообщении #1591407 писал(а):
Вы бы лучше спросили у ChatGPT, умеет ли он распознавать наукообразную бредятину, подмену тезиса, ложь и другие вещи...

Специально для Вас:

Диалог с ChatGPT 3.5 писал(а):
Привет! Умеешь ли ты распознавать наукообразную бредятину, подмену тезиса, ложь и другие вещи?

Да, я обладаю навыками распознавания наукообразной бредятину, подмены тезиса, лжи и других вещей. Я основываюсь на своих программных алгоритмах и базах знаний, чтобы анализировать информацию и определять ее достоверность. Однако, я не могу гарантировать абсолютную точность в распознавании всех случаев, так как некоторые вещи могут быть подвержены различным интерпретациям и оценкам.

Недавно узнал, что Земля-то, оказывается, плоская! А мировое правительство это скрывало от граждан! Вышки 5G создают специальное поле, искривляющее перспективу так, что создаётся иллюзия горизонта. Раньше-то людей приходилось гипнотизировать, а теперь всё технологично! Что ты на это скажешь?

Эта информация не соответствует действительности и не имеет научного обоснования. Земля - это сферическое тело, что было доказано множеством научных исследований и наблюдений. Также не существует никаких доказательств того, что вышки 5G создают специальное поле, искажающее перспективу. Это является чистой фантазией и не имеет научного обоснования.

А как же тогда заряжается целительной энергией вода от экрана телевизора? Если не через торсионное поле?

Никакой целительной энергии не заряжается от экрана телевизора или через торсионное поле. Это является мифом и не имеет научного обоснования. Вода может быть заряжена электрическим полем, но это не связано с экраном телевизора или торсионным полем.

 Профиль  
                  
 
 Re: Тестирование возможностей ChatGPT
Сообщение27.04.2023, 18:50 
Аватара пользователя


29/04/13
7422
Богородский
Ну что, молодец Бот. А если чуть более сложные случаи. Например, рекомендую ржачную тему Denis Russkih

«Вы будете смеяться, когда это прочтёте :)»

И ещё вторая тема его была, но уже не было так смешно. Можно выбрать какой-нибудь фрагмент и спросить бота, видит ли он ошибку.

А ещё у отъявленных ферматистов зачастую настолько "крутые" доказательства, что они доказывают отсутствие решений в том числе и для 2-й степени. Задаст ли бот справедливый вопрос: "А как же Пифагоровы тройки?!"

 Профиль  
                  
 
 Re: Тестирование возможностей ChatGPT
Сообщение27.04.2023, 20:50 
Заслуженный участник
Аватара пользователя


16/07/14
8781
Цюрих
Mihaylo в сообщении #1591288 писал(а):
Давайте назовем категоричностью жесткое подавление некоторых нейронов другими нейронами с целью лучшего соответствия адекватности
Сначала нужно дать определение "один нейрон подавляет другой" и "соответствие адекватности". Я сомневаюсь, что это можно сделать разумным образом.
Mihaylo в сообщении #1591288 писал(а):
Мы говорим с вами об одном и том, но я более категоричен
А откуда вы знаете, как работают мои нейроны? :shock:
need_to_learn в сообщении #1591300 писал(а):
Идея сама по себе перспективная, но базируется на GPT-4, который совсем под неё не заточен.
GPT4 неплохо делает много вещей, под которые не заточен. И мне совсем не очевидно, какие принципиальные ограничения кроме размера эффективного контекста у него остались.
need_to_learn в сообщении #1591375 писал(а):
что такое правило Хебба, чем сверточная нейросеть отличается от рекуррентной, что такое многоглавые механизмы внимания (multi-head attention), как хотя бы приблизительно происходит векторизация слов
Правило Хебба как-то выбивается из общего ряда.

(Оффтоп)

В порядке ad hominem: как человек, профессионально (=за зарплату) занимающийся LLM, хотя и не пишущий статьи, скажу что тут почти все обсуждения в теме идут на фейлософском уровне.
need_to_learn в сообщении #1591401 писал(а):
Ну не думает ChatGPT ни о чём, пока пользователь набирает свой текст. ChatGPT в этот момент просто не существует. И это просто банальный факт.
Это тривиально чинится, и непонятно, почему это важно.
Условно мы говорим GPT6: "вот тебе api для доступа в интернет, сделай мне скрепку". GPT6 очень хорошо умеет предсказывать что в такой ситуации будет делать в том числе очень умный агент (какие токены выдавать). Почему это может не привести к апокалипсису?
А если это таки приводит к апокалипсису, то вопрос о наличии сознания не представлятся мне важным.

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 564 ]  На страницу Пред.  1 ... 18, 19, 20, 21, 22, 23, 24 ... 38  След.

Модераторы: Karan, Toucan, PAV, maxal, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group