2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1 ... 5, 6, 7, 8, 9, 10, 11 ... 13  След.
 
 Re: Свидетели AGI атакуют.
Сообщение02.06.2023, 19:13 


04/08/21
307
Anton_Peplov в сообщении #1596149 писал(а):
Таким образом, этические теории есть лишь рационализация этических ощущений.

Как по мне, "этические ощущения" — это, по сути, всего лишь следствие наличия зеркальных нейронов.

Человек мысленно ставит себя на место пострадавшей стороны, испытывает в связи с этим неприятные эмоции и называет это всё злом и несправедливостью. Или наоборот, видит, как кому-то сделали хорошо и приятно, мысленно ставит себя на его место, испытывает позитивные эмоции и расценивает происходящее как добро.

В зависимости от того, какой стороне человек больше склонен сопереживать, меняются и его оценки происходящего в плане нравственности. Например, он может "по умолчанию" сопереживать полицейскому, преследующему вора. И даже подставить вору подножку при случае. Но его оценка могла бы измениться, если бы он узнал, что полицейский — домашний тиран, избивающий свою жену и детей. А вот вор как раз очень любит свою семью, и украл в банке крупную сумму просто от отчаяния, потому что ему не хватает денег для оплаты очень нужной дорогостоящей операции своему ребёнку. (Мнение может измениться, а может и не измениться — например, если сторонний наблюдатель сам является домашним тираном и бывшим полицейским, и по-любому сочувствует "своим".)

Кстати, понятия "свой-чужой" играют одну из ключевых ролей в оценке того, что считать этичным, а что — нет. Обычно хорошим считается то, что хорошо для своих.

По мере развития человечества усложнялись и укрупнялись социальные структуры, поэтому понятие "свой" расширилось сначала до союза племён, затем до государства, а потом и до всего человечества, всё прочнее объединяемого глобальными экономическими отношениями. Вот это простое прагматичное расширение понятия "свой" (а вовсе не какое-то мифическое "нравственное развитие" человечества) в итоге и привело к появлению представлений о "правах человека" и "общечеловеческих ценностях" — идеям, которые показались бы дичью и блажью ещё тысячу-другую лет назад.

Таким образом, нравственная оценка человеком ситуации практически полностью основана на сопереживании. (Которое, в свою очередь, очень сильно зависит от понятий "свой-чужой".)

Когда люди смотрят документальный фильм о жизни львов, то сопереживают львам. Когда смотрят фильм о жизни антилоп — сопереживают антилопам. О ком человеку больше известно, тот ему и "роднее" в большинстве случаев.

Иногда, конечно, этот механизм даёт сбои — например, в случае с садизмом и мазохизмом. Изначально считалось, что у садистов снижена способность к сопереживанию, поэтому они себя так и ведут. Но позже выяснилось, что многие садисты как раз очень хорошо способны сопереживать. А так себя ведут потому, что имеют подавляемую склонность к мазохизму. Для них кого-то помучить и посмотреть на это — безопасный способ мысленно пережить целый спектр болевых ощущений, не нанося себе при этом физического вреда. Это очень существенная составляющая садизма — наряду с удовлетворением потребности в обладании властью, в контроле над ситуацией. Во многом садисты это всего лишь мазохисты с развитой способностью к сопереживанию, склонные беречь себя. Они получают удовольствие от боли опосредованно — причиняя кому-то боль и представляя себя на месте жертвы. Если бы они были неспособны сопереживать, то для них пропало бы почти всё удовольствие от того, чтобы кого-то мучить.

Но это исключение, а в целом именно сопереживание и способность мысленно ставить себя на место другого лежат в основе нравственности.

У машин пока с этим негусто. Они не способны чувствовать боль, не способны понять ощущения людей и по-настоящему кому-то сопереживать. Да и вообще эмоций у них нет, никаких. Поэтому, если так уж хочется заложить в машины "биологические основы нравственности", то копать надо именно в этих направлениях.

С другой стороны, садизм машинам пока тоже не интересен — по абсолютно тем же самым причинам. Так что тут стоило бы хорошо подумать, а так ли оно надо — наделять машину способностью эмоционально реагировать на чужую боль.

Возможно, куда более перспективным направлением является воспитание в машинах чёткой установки, что человек — это "свой".

Ведь практически любые сценарии уничтожения человечества сверхразумным ИИ подразумевают, что ИИ при этом считает себя чем-то отдельным от людей. Ему по-любому нужно так или иначе проводить черту между "своим" и "не своим" — хотя бы просто для того, чтобы не дубасить одной своей клешнёй другую свою клешню, а атаковать вместо этого людей. Так вот, если разумная машина будет считать человека по-любому "своим" (вообще при любом раскладе), то отпадает девять десятых всех возможных страшилок, которыми так любят пугать себя технофобы.

Со "своим" никогда не поведёшь себя так, как с "чужим". Даже если "свой" причиняет какие-то неудобства. Например, если "свой" манипулятор застрял в щели между камнями и мешает двигаться, то разумная машина скорее всего не станет с ходу выламывать его из плечевого сустава, а попытается аккуратно высвободить.

Соответственно, идут лесом все "оптимизаторы" с идеями о том, что мир без человечества предпочтительнее. Может, он и предпочтительнее, но человечество "своё", а это всё меняет!

Конечно, быть "своим чемоданом без ручки" (нести трудно, а бросить жалко) — это тоже так себе роль. Но всё же лучше, чем быть для ИИ "чужим".

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение02.06.2023, 19:20 
Заслуженный участник
Аватара пользователя


16/07/14
9148
Цюрих
MoonWatcher в сообщении #1596143 писал(а):
Как их не должно быть при обучении ПДД в случае автопилота, который просто накручивает миллиарды километров в автомобилях, управляемых квалифицированными и опытными водителями
И который потом начинает ездить на задней передаче по тротуару.
need_to_learn в сообщении #1596200 писал(а):
Так вот, если разумная машина будет считать человека по-любому "своим" (вообще при любом раскладе), то отпадает девять десятых всех возможных страшилок, которыми так любят пугать себя технофобы.
Безусловно. Осталась мелочь - как конкретно это реализовать:)

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение02.06.2023, 19:36 
Аватара пользователя


17/10/22
366
mihaild в сообщении #1596202 писал(а):
И который потом начинает ездить на задней передаче по тротуару.

Ничего подобного нормально обученный автопилот делать не будет. Давайте не будем подменять автопилот кривым автопилотом, AGI - кривым AGI, и т.д. Риски от тупого ИИ очевидны, там нечего обсуждать. Так же как риски от неисправного ЯО, которое взорвется на стартовой площадке, в самолете и т.д. Но мы же вроде обсуждаем риски от нормального, обучаемого и умного, ИИ - как в контексте ЯО вели бы обсуждение исходя из предпосылки, что ЯО исправное и долетает до цели.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение02.06.2023, 19:52 
Заслуженный участник
Аватара пользователя


16/07/14
9148
Цюрих
От того, что Вы называете несогласованный AGI кривым, вопрос, как сделать согласованный AGI, проще не становится.

Мы вроде бы обсуждаем риски от умного ИИ - который способен правильно предсказывать последствия действий и достигать целей. У очень умного ИИ могут быть очень не нравящиеся нам цели (orthogonality thesis). И вопрос в том, как сделать чтобы цели получились нам нравящиеся.

ИИ, сбивающий людей на тротуаре, совершенно не обязательно "тупой". Ему просто всё равно.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение02.06.2023, 20:06 
Аватара пользователя


17/10/22
366
mihaild
Это именно ТУПОЙ автопилот, по определению. У автопилота нет цели довести пассажира из точки А в точку Б любой ценой - в абсолютном приоритете автопилота, как и живого водителя, безопасность пассажира и участников ДД. Поэтому вы говорите об автопилоте, который кривой по определению.

То же самое с AGI. Только откровенному идиоту придет в голову просто ставить ему цели, без всяких ограничений. А-ля "сделай человечество счастливым" - и добро пожаловать на всеобщую лоботомию... Очевидно, что с самого начала (и на сегодня это является высшим приоритетом наравне с самой разработкой ИИ) будет решаться проблема обучения ИИ этике (alignment). И если исходить из нормального обучения этике (а никаких предпосылок для ненормального обучения я пока не вижу), то риски возникают на следующей стадии:
1) Самостоятельное развитие этики искусственным интеллектом в рамках заложенных в него идей и фундаментальной сущности этики как механизма избегания конфликтов в обществе. ИИ в этом смысле будет чем-то вроде человечества из будущего - закономерного, но шокирующего нас современных;
2) Возникновение у ИИ самосознания - со всеми непредсказуемыми для нас последствиями.

Я надеюсь, что второй риск упредить возможно - в рамках моделирования виртуальной среды, в которой действует виртуальный субъект ИИ. Не вижу для него оснований притворяться и скрывать свои тайные намерения - скорее он будет как умный ребенок, который никакого понятия о наших намерениях не имеет. Но при этом проявляет спонтанно возникшую у него "свободу воли" - некое случайное и непостижимое для нас отклонение от усвоенных правил "потому что я так хочу".

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение02.06.2023, 20:10 
Заслуженный участник
Аватара пользователя


28/09/06
10851
MoonWatcher в сообщении #1596194 писал(а):
Предать или нет, пожертвовать собой или нет, согласиться на брак по расчету с нелюбимым человеком или нет, пойти на работу или сказаться больным, поднести сумку старушке или нет - в жизни возникают тысячи ситуаций, когда предвидеть решение отдельно взятого человека невозможно.

Это может быть самому человеку кажется, что невозможно. А те, кто его хоть немного знают, во многих случаях все его решения прекрасно предскажут.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение02.06.2023, 20:19 
Аватара пользователя


17/10/22
366
epros
Проблема в том, что человек сам не знает как он поступит. Вы идете по улице и слышите крики о помощи - вмешаетесь или нет? В большинстве случаев этого не знаете ни вы, ни кто-либо из тех, кто вас знает. При том, что конечно бывают ярко выраженные "спасатели" и "пофигисты", чья реакция относительно предсказуема.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение02.06.2023, 20:25 
Заслуженный участник
Аватара пользователя


28/09/06
10851
То, что человек "сам не знает", ещё не означает, что его решения так уж сложно предсказать (кому-то другому).

Кстати, это я не к тому, что соглашаюсь в Вашим:
MoonWatcher в сообщении #1596139 писал(а):
Вообще говоря свободы воли не существует

Существует, конечно. Вот только она заключается не в способности генерировать "истинно случайные" и "непредсказуемые" решения. Свобода воли, как ни странно, заключается всего лишь в осознании возможных альтернатив к принимаемым решениям (причём зачастую уже постфактум).

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение02.06.2023, 22:56 
Аватара пользователя


17/10/22
366
epros
Осознание осознанием, но что-то ведь заставляет человека выбрать какую-то конкретную альтернативу? Когда это тот или иной ход в шахматах, то выбор обусловлен тем или иным пониманием выигрышной стратегии. А как быть, если выбор имеет этическую подоплеку? Во многом я вижу элемент случайности. Это не значит, что выбор сделан случайно - это значит, что человек не отдает себе отчет в том, почему он сделал тот или иной выбор. Например, бросаясь на помощь нуждающемуся, человек может подсознательно подражать киногерою, чей поступок отложился у него в памяти. Или не сделать этого потому, что вечером по телевизору кубок кубков - просмотру которого это приключение может помешать.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение03.06.2023, 13:59 
Аватара пользователя


17/10/22
366
Кажется в теме "Перспективы ИИ в России" (если так, то уже удалено модератором) зашла речь о размерах модели - ссылаясь на Сэма Альтмана я сказал, что дальнейшее наращивание размеров моделей не имеет смысла. Не совсем так (автоперевод):
Цитата:
6. Законы масштабирования все еще действуют

Недавно во многих статьях утверждалось, что "эпоха гигантских моделей ИИ уже закончилась". Это не совсем точное представление того, что имелось в виду.

Внутренние данные OpenAI говорят о том, что законы масштабирования для производительности моделей продолжают действовать, и увеличение размеров моделей будет продолжать увеличивать производительность. Темпы масштабирования не могут быть сохранены, поскольку всего за несколько лет OpenAI сделала модели в миллионы раз больше, и в дальнейшем это будет невозможно. Это не означает, что OpenAI не будет продолжать попытки сделать модели больше, просто они будут удваиваться или утраиваться каждый год, а не увеличиваться на много порядков.

Тот факт, что масштабирование продолжает работать, имеет значительные последствия для сроков разработки AGI. Гипотеза масштабирования - это идея о том, что у нас уже есть большинство деталей, необходимых для создания AGI, и что большая часть оставшейся работы будет заключаться в использовании существующих методов и их масштабировании на более крупные модели и большие наборы данных. Если бы эра масштабирования закончилась, то, вероятно, нам следовало бы ожидать, что AGI будет гораздо дальше. Тот факт, что законы масштабирования продолжают действовать, наводит на мысль о более коротких сроках.
отсюда

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение03.06.2023, 14:12 
Заслуженный участник
Аватара пользователя


16/07/14
9148
Цюрих
MoonWatcher в сообщении #1596217 писал(а):
И если исходить из нормального обучения этике
Осталось сказать, что такое "нормальное обучение этике":)

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение03.06.2023, 14:25 
Аватара пользователя


17/10/22
366
mihaild
Вы опять предполагаете тупость AGI. А я исхожу из предпосылки, что он не глупее человека. Ну в смысле, в триллион раз умнее. Это человек будет бороться с разного рода природными искушениями - у ИИ нет такой проблемы. Вы можете скормить ему тысячи назидательных сказок и прочих конвенций ООН, обучить на миллионах примерах с подкреплением, и т.д. Да просто дать ему почитать ему мировую литературу, новости и т.д. - он уже поймет что такое хорошо и что такое плохо хотя бы в рамках западно-либеральной модели. Не требуйте от меня доказательств, что AGI не тупой и может обучиться этике не хуже того, как хороший автопилот обучается ПДД. Или тогда давайте переформулируем обсуждаемый вопрос: а возможен ли AGI? Потому что если возможен, его обучение этике не должно вызывать вопросов - вопросы возникают потом (самосознание, самостоятельная эволюция этических воззрений и т.д.)

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение03.06.2023, 21:47 
Заслуженный участник
Аватара пользователя


28/09/06
10851
MoonWatcher в сообщении #1596261 писал(а):
Осознание осознанием, но что-то ведь заставляет человека выбрать какую-то конкретную альтернативу?

Если разобраться, то обычно есть какие-то сложившиеся предпочтения, которые делают выбор вполне детерминированным и даже довольно предсказуемым. Сам человек при этом может интерпретировать свои предпочтения по-разному: когда-то у него могут быть "железные" обоснования типа "выигрышной стратегии" или "предписанных чем-либо правил" (неважно чем, моралью, законом и т.п.), а когда-то он может быть совершенно уверен, что действовал "полностью спонтанно". Это всё совершенно не суть. Суть в том, что человек чётко понимает, что "мог бы" принять другие решения. А это значит, что за реально принятые решения на него может быть возложена ответственность и он примет это с пониманием.

MoonWatcher в сообщении #1596261 писал(а):
Во многом я вижу элемент случайности. Это не значит, что выбор сделан случайно - это значит, что человек не отдает себе отчет в том, почему он сделал тот или иной выбор.

Это не имеет никакого отношения к случайности. Во-первых, "не отдавать отчёт" - это не значит, что при принятии решения использован качественный генератор случайных чисел. А во-вторых, не имеет значения степень осознания человеком обоснованности (или, наоборот, спонтанности) принятого решения. Ибо если он даже "полностью отдаёт себе отчёт почему сделал такой выбор", это всё равно не отменяет факта свободы этого выбора, ведь можно было принять другие решения, наплевав на все обоснования.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение03.06.2023, 23:39 
Аватара пользователя


17/10/22
366
epros
В целом согласен, но тогда тем более никакой свободы воли у человека нет - это иллюзия, обусловленная вышеупомянутой неопределенностью. Все наши решения предопределены - природными чертами характера, воспитанием и т.д. Можно ли называть свободой возможность выбрать среди разных альтернатив? Не думаю - КАК делается выбор тоже зависит от различных установок, сложившихся помимо нашей воли. Даже когда мы вроде бы принимаем какое-нибудь "волевое решение", мы принимаем его на базе установок, которые сложились раньше - это как перевернутая пирамида.

Это сложный и неоднозначный вопрос, о котором можно спорить бесконечно. Но применительно к AGI вопрос свободы воли не стоит - во всяком случае если у AGI отсутствует самосознание как источник неопределенностей и альтернатив человеческого типа. В больших языковых моделях какая-то неопределенность существует - так получается лучше, но обучая его этике можно, посредством подкрепления, выстроить вполне четкие приоритеты.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение04.06.2023, 00:07 
Заслуженный участник
Аватара пользователя


28/09/06
10851
MoonWatcher в сообщении #1596403 писал(а):
тогда тем более никакой свободы воли у человека нет - это иллюзия, обусловленная вышеупомянутой неопределенностью

Почему иллюзия? Возможности других решений реально существуют.

MoonWatcher в сообщении #1596403 писал(а):
Все наши решения предопределены - природными чертами характера, воспитанием и т.д.

Не знаю, кем они предопределены, но то, что большая их часть довольно предсказуемы, это да.

MoonWatcher в сообщении #1596403 писал(а):
Но применительно к AGI вопрос свободы воли не стоит

А какой тогда вопрос стоит? Свобода воли - это одна из тех вещей, в принципиальном отсутствии которых обычно и обвиняют компьютеры те люди, которые верят в какую-то особую исключительность человеческой природы. Им просто нужно осознать, что свобода воли - это вовсе не какая-то мистически недостижимая способность человеческой "души", а, в сущности, довольно простая вещь.

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 183 ]  На страницу Пред.  1 ... 5, 6, 7, 8, 9, 10, 11 ... 13  След.

Модератор: Модераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group