2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1, 2, 3, 4, 5, 6 ... 13  След.
 
 Re: Свидетели AGI атакуют.
Сообщение26.05.2023, 15:44 
Аватара пользователя


17/10/22
326
talash в сообщении #1595414 писал(а):
Это тут я снова вижу попытку доказательства от противного, что AI это AGI, а людишки вот просто такие нехорошие и не хотят признать, что AI думает как они, но только лучше? Может логичнее заняться поиском научных доказательств, что современный AI это AGI, если вам так не нравится, что много несогласных с этим мнением?

Я как раз не считаю современный AI тождественным AGI, но, повторюсь, не вижу смысла в противопоставлении их друг другу, если AI уже решает множество задач уровня человеческого интеллекта (который, по идее, и должен воспроизводить AGI). Какие здесь могут быть научные доказательства вообще непонятно. Как я уже говорил, это вопрос статистики - то есть договоренности. Достаточно договориться какой процент опытных тестеров обманется и примет AGI за относительно УМНОГО и ОБРАЗОВАННОГО человека. Это вопрос методологии:
1) По специальной методике отбираем группу людей на предмет их соответствия тому, что они относительно умные и образованные (тест Тьюринга)
2) По специальной методике или каким-то критериям отбираем или обучаем группу тестеров, которые хорошо знают все возможные аспекты человеческого интеллекта и способны оценить их уровень
3) Даем второй группе потестировать первую по методике из п.1
4) Получаем процент погрешности (например, 2% тестеров приняли относительно умных и образованных людей за ИИ)
5) Принимаем 98% за порог вхождения ИИ в категорию AGI и поручаем тестерам тестировать уже непосредственно ИИ
6) Если порог пройдем - это AGI.

Научно или не очень?

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение26.05.2023, 15:49 


12/07/15
29/06/24
3048
г. Чехов
Вся суть идеологии AGI: "Нам надо самолёт как птица". Все AGI-строители увлечены махолётами, хотя это не уходит далее диванной философии и шарлатанства.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение26.05.2023, 22:43 
Заслуженный участник
Аватара пользователя


16/07/14
8782
Цюрих
Mihaylo в сообщении #1595428 писал(а):
У исследователей уже нет сомнения, что нейросетка может все, что угодно, ты лишь обучающие данные подавай.
Можете уточнить, у каких именно исследователей, и что в точности они под этим понимают? (Вы же не о чем-то тривиально бесполезном, вроде теоремы Цыбенко?)

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение26.05.2023, 23:24 


01/09/14
432
MoonWatcher в сообщении #1595427 писал(а):
Ну например:

https://i.ibb.co/2v0xt4n/GPT-4-exam-results.jpg

По горизонтали - искомые тесты. Они для людей - настолько продвинулся ИИ в своем развитии. До этого были специальные бенчмарки для ИИ. Да и сейчас продолжают их разработку.

Это тесты насколько ИИ продвинулся в решении экзаменов в различные учебные заведения. Они не доказывают, что AI это теперь AGI. И в принципе, объективных доказательств быть не может без уточнения термина AGI. Сейчас AGI это художественный образ, а не научный термин. А тесты доказывают очевидное, то что AI может решать всё больше различных задач. Но что это, количественное развитие narrow AI или качественный скачок в сторону человекоподобного мышления? Это неизвестно.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение26.05.2023, 23:46 
Аватара пользователя


17/10/22
326
talash
Конечно не доказывают - они всего лишь оценивают уровень интеллекта AI, его близость к человеческому. При этом, насколько я знаю, никто ничего в этих тестах доказать не пытается. Что доказывает экзамен для человека? Да тоже ничего - он только оценивает его знания и способности. И вовсе не гарантирует, что успешно сдавший профессиональный экзамен действительно станет хорошим специалистом в своем деле.

Так и здесь. В термине AGI нет ничего ни научного, ни художественного - это условное понятие для ИИ, который в принципе сравнялся с человеком. Когда это произойдет, никто скорее всего и не поймет - это констатируют задним числом, когда граница между ИИ и человеком будет размыта. Ну и как я говорил, в констатации появления AGI нет практического смысла - главное, чтобы он решал отдельные "человеческие" задачи. Сначала какие-то лучше, какие-то хуже - а в какой-то момент все задачи будут решаться AGI лучше, чем человеком. Я уже приводил сравнение с автопилотом - он есть или нет? Формально нет - но в отдельных поездках можно проехать на автопилоте без вмешательства человека. Нечто похоже будет с AGI.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение27.05.2023, 03:38 


12/07/15
29/06/24
3048
г. Чехов
https://www.securitylab.ru/news/538418.php
Цитата:
В Microsoft провели исследование, в котором рассказали о том, как GPT-4 учится мыслить, как человек. Отчёт на 155 страницах содержит анализ того, как языковая модель справляется с различными задачами на уровне человека. Исследователи также проверили, насколько хорошо GPT-4 разбирается в человеческой психологии и логике, и провели ряд экспериментов с интересными запросами.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение27.05.2023, 06:40 


12/07/15
29/06/24
3048
г. Чехов
Оглавление того документа:
Цитата:
Contents
1 Introduction
1.1 Our approach to studying GPT-4’s intelligence
1.2 Organization of our demonstration
2 Multimodal and interdisciplinary composition
2.1 Integrative ability
2.2 Vision
2.2.1 Image generation beyond memorization
2.2.2 Image generation following detailed instructions (`a la Dall-E)
2.2.3 Possible application in sketch generation
2.3 Music
3 Coding
3.1 From instructions to code
3.1.1 Coding challenges
3.1.2 Real world scenarios
3.2 Understanding existing code
4 Mathematical abilities
4.1 A mathematical conversation with GPT-4
4.1.1 A first generalization of the original question
4.1.2 A second variant of the original question
4.1.3 Analysis of the limitations highlighted by conversation
4.2 Performance on mathematical problem datasets
4.3 Mathematical modeling in various domains
4.4 Higher-level mathematics
5 Interaction with the world
5.1 Tool use
5.1.1 Using multiple tools to solve more complex tasks
5.1.2 Discussion
5.2 Embodied Interaction
5.2.1 Warmup: navigating a map
5.2.2 Text-based games
5.2.3 Real world problems
5.2.4 Discussion
6 Interaction with humans
6.1 Understanding Humans: Theory of Mind
6.1.1 Testing specific aspects of theory of mind
6.1.2 Testing theory of mind in realistic scenarios
6.1.3 Discussion
6.2 Talking to Humans: Explainability
7 Discriminative capabilities
7.1 PII Detection
7.2 Misconceptions and Fact-Checking
7.2.1 Why Are Current Metrics Insufficient?
7.2.2 GPT-4 as a Judge
8 Limitations of autoregressive architecture highlighted by GPT-4
8.1 Warm-up with two basic examples
8.2 Lack of planning in arithmetic/reasoning problems
8.3 Lack of planning in text generation
9 Societal influences
9.1 Challenges of erroneous generations
9.2 Misinformation and manipulation
9.3 Bias
9.4 Human expertise, jobs, and economics
9.5 Constellation of influences and considerations
10 Directions and Conclusions
10.1 Definitions of intelligence, AI, and AGI
10.2 On the path to more general artificial intelligence
10.3 What is actually happening?
A GPT-4 has common sense grounding
B Appendix for multimodal and interdisciplinary composition
B.1 Further details on integrative ability results
B.2 Further details on vision results
B.3 Graphic novel design example
C Appendix for the Coding section
C.1 Measuring human performance on LeetCode
C.2 Example of GPT-4 visualizing IMDb data
C.3 More examples on visualization
C.4 Example for 2D HTML game development
C.5 Example for graphical user interface programming
C.6 Example for reverse engineering
C.7 Testing GPT-4’s ability to execute (pseudo) code
D Additional examples for mathematical reasoning
D.1 Limitations
D.2 Further examples
D.3 Generating math problems with GPT-4
D.4 Mitigating calculation errors via external code execution
E Additional Interpretability Examples
E.1 Explanation Agent Mismatches
F Additional examples for interaction with the world
F.1 Interact with tools
F.2 Examples for interaction with environments
G Supplementary Materials: Discriminative Capabilities
G.1 Misconceptions: Detailed Results

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение28.05.2023, 00:26 


12/07/15
29/06/24
3048
г. Чехов
Пункт 10 почитайте.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение28.05.2023, 00:45 
Аватара пользователя


17/10/22
326
Довольно старая новость, на телеграм-каналах её уже обсуждали. Там речь о т.н. "проблесках разума" - без малейшей претензии на то, что это AGI.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение28.05.2023, 03:13 


12/07/15
29/06/24
3048
г. Чехов
MoonWatcher в сообщении #1595600 писал(а):
без малейшей претензии на то, что это AGI

Без какой такой претензии?)))
Цитата:
10.2 On the path to more general artificial intelligence

"Больше общего интеллекта" - это признание, что он есть.
Отмечают отсутствие agency and intrinsic motivation. Но надо понимать, что это фича этой модели, когда инициатива дана в руки промпт-пользователя.
Ну и дальше пошли выводы: надо больше памяти, больше факт-чекинга и т.д.

-- 28.05.2023, 05:17 --

MoonWatcher в сообщении #1595600 писал(а):
на телеграм-каналах её уже обсуждали

:facepalm: если эти обсуждения на уровне "у GPT нет чувств", то я бы предпочел, чтобы вы лично перечитали документ.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение28.05.2023, 13:27 


12/07/15
29/06/24
3048
г. Чехов
Гугл-перевод, постарался я:

(Оффтоп)

10 Указания и выводы
Мы представили наше первоначальное исследование GPT-4 в широком диапазоне задач и областей, предоставив подтверждающие доказательства утверждения о том, что способности GPT-4 сопоставимы с человеческим уровнем для многих из них.
Этот вывод согласуется с выводами OpenAI, представленными в [Ope23]. Основная цель наших экспериментов — дать предварительную оценку интеллекта GPT-4, что является сложной задачей, учитывая отсутствие формального определения этого понятия, особенно для искусственных систем. Мы надеемся, что наше исследование станет полезным и необходимым первым шагом для оценки замечательных возможностей и проблем GPT-4, а также откроет новые возможности для разработки более формальных и всеобъемлющих методов тестирования и анализа будущих систем ИИ с таким широким интеллектом. Возможности модели, которые были продемонстрированы выше, как с точки зрения глубины, так и общности, предполагают, что сообществу машинного обучения необходимо выйти за рамки классического бенчмаркинга с помощью структурированных наборов данных и задач, и что оценка возможностей и когнитивных способностей этих новые модели стали гораздо ближе по сути к задаче оценки человека, а не узкой модели ИИ. Мы надеемся, что наше исследование стимулирует дальнейшие исследования GPT-4 и подобных систем как с точки зрения изучения новых приложений и областей, так и с точки зрения понимания механизмов и принципов, лежащих в основе их интеллекта.
Центральное утверждение нашей работы состоит в том, что GPT-4 достигает формы общего интеллекта, действительно демонстрируя искры искусственного общего интеллекта. Об этом свидетельствуют его основные умственные способности (такие как рассуждение, творчество и дедукция), диапазон тем, по которым он приобрел опыт (например, литература, медицина и программирование), и разнообразие задач, которые он может выполнять. (например, играя в игры, используя инструменты, объясняя себя, ...). Многое еще предстоит сделать для создания системы, которая могла бы квалифицироваться как полноценный ОИИ. Мы завершаем эту статью обсуждением нескольких ближайших следующих шагов, касающихся определения самого ОИИ, создания некоторых недостающих компонентов в LLM для ОИИ, а также лучшего понимания происхождения интеллекта, продемонстрированного последними LLM.

10.1 Определения интеллекта, ИИ и ОИИ
В этой статье мы использовали неформальное определение интеллекта, сосредоточившись на рассуждениях, планировании и обучении на собственном опыте. Это определение не указывает, как измерять или сравнивать эти способности. Более того, он может не отражать специфические проблемы и возможности искусственных систем, которые могут иметь иные цели и ограничения, чем естественные. Поэтому мы признаем, что это определение является просто отправной точкой для исследования интеллекта в искусственных системах. Существует богатая и постоянная литература, в которой предпринимаются попытки предложить более формальные и всеобъемлющие определения интеллекта, искусственного интеллекта и искусственного интеллекта в целом [Goe14, Cho19], но ни одно из них не лишено проблем или противоречий. Например, Легг и Хаттер [Leg08] предлагают целенаправленное определение общего искусственного интеллекта: интеллект измеряет способность агента достигать целей в самых разных условиях. Однако это определение не обязательно охватывает весь спектр интеллекта, поскольку оно исключает пассивные или реактивные системы, которые могут выполнять сложные задачи или отвечать на вопросы без какой-либо внутренней мотивации или цели. В качестве общего искусственного интеллекта можно представить, например, блестящего оракула, который не имеет полномочий или предпочтений, но может предоставить точную и полезную информацию по любой теме или области. Более того, определение достижения целей в широком диапазоне сред также подразумевает определенную степень универсальности или оптимальности, которая может быть нереалистичной (конечно, человеческий интеллект никоим образом не является универсальным или оптимальным). Необходимость признания важности априорных данных (в отличие от универсальности) была подчеркнута в определении, предложенном Шолле в [Cho19], которое сосредотачивает интеллект вокруг эффективности приобретения навыков или, другими словами, делает акцент на обучении на основе опыта (что также случается, что это одна из ключевых слабых сторон LLM). Еще одно возможное определение общего искусственного интеллекта от Легга и Хаттера [LH07] звучит так: система, которая может делать все то же, что и человек. Однако это определение также проблематично, поскольку предполагает существование единого стандарта или меры человеческого интеллекта или способностей, что явно не соответствует действительности. У людей разные навыки, таланты, предпочтения и ограничения, и нет человека, который может делать все, что может любой другой человек. Кроме того, это определение также подразумевает определенную антропоцентрическую предвзятость, которая может не подходить или не относиться к искусственным системам. Хотя мы не принимаем ни одно из этих определений в статье, мы признаем, что они дают важные точки зрения на интеллект. Например, можно ли достичь интеллекта без каких-либо действий или внутренней мотивации, является важным философским вопросом. Предоставление LLM агентности и внутренней мотивации — увлекательное и важное направление для будущей работы. При таком направлении работы необходимо уделять большое внимание выравниванию и безопасности в зависимости от способности системы предпринимать автономные действия в мире и выполнять автономное самосовершенствование посредством циклов обучения. Далее мы обсудим несколько других важных недостающих компонентов LLM.

10.2 На пути к более общему искусственному интеллекту
Некоторые из областей, в которых GPT-4 (и LLM в целом) следует улучшить для достижения более общего интеллекта, включают (обратите внимание, что многие из них взаимосвязаны):
• Калибровка достоверности: Модель не может понять, когда она должна быть уверена, а когда просто предполагает. Он выдумывает факты, которых не было в его обучающих данных, а также демонстрирует несоответствия между сгенерированным контентом и подсказкой, которые мы назвали галлюцинациями открытого и закрытого домена на рис. 1.8. Эти галлюцинации могут быть изложены в уверенной и убедительной манере, которую бывает трудно обнаружить. Таким образом, такие поколения могут привести к ошибкам, а также к путанице и недоверию. Хотя галлюцинации — это хорошо при создании творческого контента, опора на фактические заявления, сделанные моделью с галлюцинациями, может быть дорогостоящей, особенно для использования в областях с высокими ставками, таких как здравоохранение. Есть несколько дополнительных способов борьбы с галлюцинациями. Один из способов — улучшить калибровку модели (путем подсказок или точной настройки), чтобы она либо воздерживалась от ответа, когда маловероятно, что она верна, либо предоставляла какой-то другой индикатор достоверности, который можно было бы использовать в дальнейшем. Другой подход, который подходит для смягчения галлюцинации открытого домена, состоит в том, чтобы вставить в подсказку информацию, которой не хватает модели, например, позволив модели совершать вызовы к внешним источникам информации, таким как поисковая система, как в разделе 5.1. Для галлюцинаций с закрытым доменом также многообещающим является использование дополнительных расчетов модели с помощью апостериорных проверок, см. пример на рис. 1.8. Наконец, создание пользовательского опыта приложения с учетом возможности галлюцинаций также может быть частью эффективной стратегии смягчения последствий.
• Долгосрочная память: контекст модели очень ограничен, она работает «без сохранения состояния», и нет очевидного способа научить модель новым фактам. На самом деле даже неясно, способна ли модель выполнять задачи, требующие развития памяти и контекста, например, чтение книги с задачей следить за сюжетом и понимать отсылки к предыдущим главам в процессе чтения.
• Непрерывное обучение: модели не хватает возможности обновляться или адаптироваться к меняющейся среде. Модель фиксируется после обучения, и нет механизма для включения новой информации или обратной связи от пользователя или мира. Можно точно настроить модель на новых данных, но это может привести к ухудшению производительности или переоснащению. Учитывая потенциальное отставание между циклами обучения, система часто будет устаревшей, когда речь идет о событиях, информации и знаниях, появившихся после последнего цикла обучения.
• Персонализация. Для некоторых приложений требуется, чтобы модель была адаптирована к конкретной организации или конечному пользователю. Системе может потребоваться получить знания о работе организации или предпочтениях отдельных лиц. И во многих случаях система должна будет адаптироваться персонализированным образом в течение определенного периода времени с конкретными изменениями, связанными с динамикой людей и организаций.
Например, в образовательной среде ожидается, что система должна понимать определенные стили обучения, а также со временем адаптироваться к прогрессу учащегося с пониманием и мастерством. У модели нет никакого способа включить такую ​​персонализированную информацию в свои ответы, кроме как с помощью мета-подсказок, которые ограничены и неэффективны.
• Планирование и концептуальные скачки. Как видно из примеров в разделе 8, модель демонстрирует трудности при выполнении задач, которые требуют предварительного планирования или требуют «идеи-эврики», представляющей собой прерывистый концептуальный скачок в процессе выполнения задачи. Другими словами, модель плохо справляется с задачами, требующими концептуальных скачков формы, которые часто типичны для человеческого гения.
• Прозрачность, интерпретируемость и непротиворечивость: модель не только галлюцинирует, выдумывает факты и создает противоречивый контент, но и кажется, что модель не имеет возможности проверить, соответствует ли создаваемый ею контент обучающим данным или нет. это непротиворечиво. Хотя модель часто способна предоставить высококачественные апостериорные объяснения своих решений (как показано в разделе 6.2), использование объяснений для проверки процесса, который привел к определенному решению или заключению, работает только тогда, когда этот процесс точно смоделирован и Точно моделируется и достаточно мощный процесс объяснения (раздел 6.2). Оба эти условия трудно проверить, и когда они не выполняются, возникают несоответствия между решениями модели и ее объяснениями. Поскольку модель не имеет четкого представления о собственных ограничениях, трудно установить доверие или сотрудничество с пользователем без обширных экспериментов в узкой области.
• Когнитивные заблуждения и иррациональность. Модель демонстрирует некоторые ограничения человеческого знания и рассуждений, такие как когнитивные предубеждения и иррациональность (например, предубеждения подтверждения, привязки и игнорирования базовой скорости) и статистические ошибочности. Модель может унаследовать некоторые предубеждения, предубеждения или ошибки, присутствующие в ее обучающих данных, которые могут отражать распределение мнений или точек зрения, связанных с подмножествами населения или более широкими общими взглядами и оценками.
• Проблемы с чувствительностью к входным данным: ответы модели могут быть очень чувствительными к деталям оформления или формулировок подсказок и их последовательности в сеансе. Такая ненадежность предполагает, что часто требуются значительные усилия и эксперименты с инженерными подсказками и их последовательностью, и что использование без таких затрат времени и усилий людей может привести к субоптимальным и несогласованным выводам и результатам.
Ограничением нашего исследования является отсутствие четкого различия между недостатками, связанными с тем, как выполнялся этап обучения с подкреплением (RLHF), и недостатками, которые принципиально присущи более крупной архитектуре и методологии. Например, неясно, в какой степени проблема галлюцинаций может быть решена с помощью усовершенствованного шага обучения с подкреплением или с помощью целенаправленных усилий по введению новых форм калибровки вероятностей правдивости альтернативных выводов, которые система может вычислить и учесть в ходе анализа. его поколения (см. также [Ope23] для более подробного обсуждения этого). Если провести аналогию с людьми, то когнитивные искажения и иррациональное мышление могут быть основаны на артефактах нашей культуры, а также на ограничениях наших когнитивных способностей. Для лучшего понимания источников и потенциальных решений проблем, связанных с галлюцинациями в GPT-4, будут полезны исследования, в которых сравниваются несколько версий стадии RL с одной и той же архитектурой.
Более широкий вопрос о выявленных ограничениях: какие из вышеупомянутых недостатков можно смягчить в рамках предсказания следующего слова? Просто ли большая модель и больше данных решат эти проблемы, или архитектуру нужно изменить, расширить или переформулировать? Потенциальные расширения предсказания следующего слова включают следующее:
• Внешние вызовы модели к компонентам и инструментам, таким как калькулятор, поиск в базе данных или выполнение кода, как предложено в Разделе 5.1.
• Более богатый и сложный «медленный» более глубокий механизм, который наблюдает за «быстрым» механизмом предсказания следующего слова. Такой подход может позволить модели выполнять долгосрочное планирование, исследование или проверку, а также поддерживать рабочую память или план действий. Механизм медленного мышления будет использовать модель предсказания следующего слова в качестве подпрограммы, но он также будет иметь доступ к внешним источникам информации или обратной связи и сможет пересматривать или исправлять выходные данные механизма быстрого мышления.
• Интеграция долговременной памяти как неотъемлемой части архитектуры, возможно, в том смысле, что как входные, так и выходные данные модели будут включать в себя, помимо токенов, представляющих текст, вектор, представляющий контекст.
• Выход за рамки прогнозирования по одному слову: замена последовательности токенов иерархической структурой, в которой части текста более высокого уровня, такие как предложения, абзацы или идеи, представлены во встраивании, а содержимое генерируется нисходящим образом. . Неясно, могут ли более точные предсказания о последовательности и взаимозависимости таких концепций более высокого уровня появиться из крупномасштабных вычислений и данных, сосредоточенных на парадигме предсказания следующего слова.

10.3 Что происходит на самом деле?
Наше исследование GPT-4 носит исключительно феноменологический характер: мы сосредоточились на удивительных вещах, которые может делать GPT-4, но мы не затрагиваем фундаментальные вопросы, почему и как он достигает такого замечательного интеллекта.
Как он рассуждает, планирует и создает? Почему он обладает таким общим и гибким интеллектом, если по своей сути представляет собой просто комбинацию простых алгоритмических компонентов — градиентный спуск и крупномасштабные преобразователи с чрезвычайно большими объемами данных? Эти вопросы являются частью тайны и очарования LLM, которые бросают вызов нашему пониманию обучения и познания, питают наше любопытство и мотивируют более глубокие исследования. Ключевые направления включают в себя продолжающиеся исследования феномена эмерджентности LLM (см. недавний обзор [WTB+22]). Тем не менее, несмотря на интенсивный интерес к вопросам о возможностях LLM, прогресс на сегодняшний день был довольно ограниченным только с игрушечными моделями, в которых доказан некоторый феномен эмерджентности [BEG+22, ABC+22, JSL22]. Одна общая гипотеза [OCS+20] заключается в том, что большое количество данных (особенно разнообразие контента) заставляет нейронные сети изучать общие и полезные «нейронные схемы», такие как обнаруженные в [OEN+22, ZBB +22, LAG+22], в то время как большой размер моделей обеспечивает достаточную избыточность и разнообразие нейронных цепей для специализации и точной настройки для конкретных задач. Доказательство этих гипотез для крупномасштабных моделей остается сложной задачей, и, более того, можно с уверенностью сказать, что гипотеза является лишь частью ответа. С другой стороны, огромный размер модели может иметь несколько других преимуществ, таких как повышение эффективности градиентного спуска за счет соединения различных минимумов [VBB19] или просто обеспечение плавной подгонки многомерных данных [ES16, BS21]. В целом, выяснение природы и механизмов систем искусственного интеллекта, таких как GPT-4, является огромной задачей, которая внезапно стала важной и срочной.
Благодарности. Мы благодарим OpenAI за создание такого замечательного инструмента и предоставление нам раннего доступа к его использованию. Мы также благодарим многочисленных коллег из Microsoft и Майлза Брандейджа из Open AI, которые предоставили вдумчивые отзывы об этой работе.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение29.05.2023, 12:55 


01/09/14
432
MoonWatcher в сообщении #1595475 писал(а):
Конечно не доказывают - они всего лишь оценивают уровень интеллекта AI, его близость к человеческому. При этом, насколько я знаю, никто ничего в этих тестах доказать не пытается. Что доказывает экзамен для человека? Да тоже ничего - он только оценивает его знания и способности. И вовсе не гарантирует, что успешно сдавший профессиональный экзамен действительно станет хорошим специалистом в своем деле.

Просто надо помнить, что оценки эти недостоверные. Это всего лишь мнения, малодостоверные гипотезы.

-- 29.05.2023, 11:57 --

Mihaylo в сообщении #1595599 писал(а):
Пункт 10 почитайте.

Об чём и речь. Определения разные, очень примерные и уточнять их не собираются.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение29.05.2023, 13:11 
Аватара пользователя


29/04/13
7426
Богородский
talash в сообщении #1595738 писал(а):
Определения разные, очень примерные и уточнять их не собираются.

А так ли это надо. Вот у любого из людей в шахматную классику рейтинг по-прежнему ниже 2900.

Вам интересно, сколько у компа 3300 или 3500? Мне почти всё равно. Кстати, может уже есть выше 4000.

Интересно практическое применение ИИ в тех областях, где он опережает людей и поиск путей обгона там, где он отстаёт.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение29.05.2023, 23:54 


01/09/14
432
Yadryara в сообщении #1595739 писал(а):
А так ли это надо. Вот у любого из людей в шахматную классику рейтинг по-прежнему ниже 2900.

Вам интересно, сколько у компа 3300 или 3500? Мне почти всё равно. Кстати, может уже есть выше 4000.

Интересно практическое применение ИИ в тех областях, где он опережает людей и поиск путей обгона там, где он отстаёт.

Да, мне интересно то же, что и Вам. ИИ обгоняет людей во всё большем количестве относительно простых интеллектуальных задач, но определённый тип задач я думаю ему неподвластен. Чат GPT похож на отличника-зубрилу. Знает очень много и может делать простые рассуждения на основе запомненного. А не может он решать задачи на понимание. Человек, если не знает ответа на задачу, но хорошо понимает предмет, то он может логически вывести ответ. ИИ так не может и я думаю это принципиальная проблема для существующих технологий.

 Профиль  
                  
 
 Re: Свидетели AGI атакуют.
Сообщение30.05.2023, 02:15 


12/07/15
29/06/24
3048
г. Чехов
talash в сообщении #1595801 писал(а):
А не может он решать задачи на понимание.

Как это не может? Вам же кучу примеров привели, может!

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 183 ]  На страницу Пред.  1, 2, 3, 4, 5, 6 ... 13  След.

Модератор: Модераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group