2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу 1, 2, 3  След.
 
 Глубинное обучение: критическая оценка
Сообщение20.01.2018, 14:26 


20/09/09
1902
Уфа
В этой теме я предлагаю обсудить возможности и будущее глубинного обучения. Есть статья "Глубинное обучение: критическая оценка", где как раз критически обсуждается хайп вокруг ИИ и рассматриваются реальные возможности в глубинном обсуждении. Так что: стоит ли овчинка (Deep Learning) выделки или нет? В статье, в частности, говорится о неудачах в области понимания естественного языка (Natural Language Understanding). Я завел тему в LinkedIn с целью обсудить возможности нейронных сетей в NLU. Вот эта дискуссия:
Цитата:
Problems that need to be solved to solve the problem of understanding the natural language
As you know, GNMT translates the text in a natural language into its internal language. As far as I know, the problem of translating a natural language into a language of knowledge bases (for example, ontologies) has already been solved (or not yet?). There remains the problem of implementing ontology processing operations, for example, matching the resulting ontology to a global knowledge base to determine its truth / falsity, its information value and relevance, etc.
If I'm not mistaken, Dr. Sowa in one of the discussions on LinkedIn recommended that students of artificial intelligence turn to logic. Do I understand correctly that the question arises: how to use the logic to implement the task of processing and mapping ontologies?

Beth Carey
Beth Carey Hi Rasool Barlybayev - I think Koos Vanderwilt could make some good comments on your questions with the current methodologies, including GNMT, which I believe is Google's neural net methodology for machine translation. I would say GNMT and Deep Learning bypass meaning because of their inherent approach ie. looking for statistical co-location of word patterns, and I'm not sure meaning is retrievable. Open scientific problems of NLU are not solved by this approach and may never be. GNMT made good progress with some machine translation pairs, and will probably continue to, but is it asymptotic as a scientific model for machine translation and NLU? What is the goal, human-like accuracy? or incremental % points better than before, potentially plateauing.

Koos Vanderwilt
Koos Vanderwilt Quite an honor for you to say this, Beth. I am not sure if I can, but I will try and produce some generalities. I am hampered by not knowing what GNMT stands for. I am not sure Semantic Web technology can be considered to have solved various questions, including the translation of text to knowledge bases. There are two issues here: the knowledge basis or ontologies and the ways to reason over them. Ontologies consist of classes/concepts and properties, VERY roughly SUBJCT, PREDICATE and OBJECT. You can get these out of a text with a parser. Googling "triplet table(s)"and "ontologie(s)"will bring up sites that tell you more. Ontologies are simple, but the details are NOT. "Implementing ontology processing operations" could be "editing the ontology"or"creating an ontology" or performing consistency checking. Logics are used for reasoning over the ontologies. This is just like in real life: you have knowledge, and taking it as a point of departure, you reason with it.

Koos Vanderwilt
Koos Vanderwilt For instance, Moscow is the capital of Russia, I am sure every Russian knows. Every Russian will therefore be able to conclude Leningrad is not the capital of Russia. Two cities, a predicate "is capital of" and a reasoning leading to a negative statement about Leningrad. You could imagine how nice it'd be if the computer could reason about facts in genomics, medicine, and so on. Thereare quite a few logics, mostly called Description Logics. These are subsets of First Order Predicate Logic, which has a large time complexity- meaning using it takes forever to run. Many Description Logics are constructed to be more tractable, but you can do less with them. The SW is a huge, world-wide project that, if it delivers what is being promised, will improve medicine, the practice of law, biology research, and other fields that involve text and therefore Text Analytics. I hope this is somewhat informative.

Menno Mafait
Menno Mafait Rasool, this field has a fundamental flaw:

It is well known that grammar provides structure to sentences. However, scientists have not discovered yet the laws of intelligence, which are embedded in grammar. This Universal Logic embedded in Grammar provides a logical structure (=meaning) in natural language, by which sentences make sense.

As a consequence of being ignorant of this natural structure of sentence, in NLP, rich and meaningful sentences are degraded to "bags of keywords", by which the natural structure of sentences are discarded beyond repair. This loss of information is like a two-dimensional movie that as lost its three-dimensional spatial information. Hence the deep problems in this field to grasp the deeper meaning expressed by humans.

I have a solution for the long term:

I have knowledge, experience, technologies and results that no one else has. I am probably the only one in the world who has defined intelligence as a set of natural laws.

Menno Mafait
Menno Mafait I am using fundamental science (logic and laws of nature) instead of cognitive science (simulation of behavior), because:

• Autonomous reasoning requires both intelligence and language;
• Intelligence and language are natural phenomena;
• Natural phenomena obey laws of nature;
• Laws of nature (and logic) are investigated using fundamental science.

Using fundamental science, I gained knowledge and experience that no one else has:

• I have defined intelligence in a natural way, as a set of natural laws;
• I have discovered a logical relationship between natural intelligence and natural language, which I am implementing in software;
• And I defy anyone to beat the simplest results of my Controlled Natural Language (CNL) reasoner in a generic way: from natural language, through algorithms, back to natural language. See: http://mafait.org/challenge/

It is open source software. Feel free to join.

 Профиль  
                  
 
 Re: Глубинное обучение: критическая оценка
Сообщение20.01.2018, 16:53 


12/07/15
2942
г. Чехов
Все эти "критические оценки" не стоят выеденного яйца. Искусственно вводимые термины типа ИИОН (искусственный интеллект общего назначения) с целью противопоставления нынешним нейронным сетям - это тоже какая-то фантазия. На мой взгляд, это результат импульсивного мышления, а именно: делается гипотеза, что нынешние нейронные сети достигли потолка, и что выше этого потолка будут когда-то обнаружены совершенно новые более эффективные структуры. Повторюсь, это всего лишь ничем необоснованная ГИПОТЕЗА. Подобные предположения положительно встречаются как обывателями, так и многими исследователями и специалистами в области ИИ. Но: как можно гипотезу называть критической оценкой?

Почему нынешние нейронные сети упираются в потолок? Мой ответ: нынешние нейронные сети не обучаются такими же качественными подборками обучающихся примеров, какими располагает средний человек в своей жизни. Как можно научить нейронную сеть навыку natural language understanding (NLU), если для этого нужно повторить сенсомоторный опыт человека длительностью десятки лет? Почему все представляют себе создание ИИОН примитивно: обучение на объемных коллекциях текстовых документов в течение трёх часов? Это бред!

 Профиль  
                  
 
 Re: Глубинное обучение: критическая оценка
Сообщение20.01.2018, 16:59 


20/09/09
1902
Уфа
Думаю, очередной затык в области нейронных сетей, теперь уже в Deep Learning, можно будет преодолеть очередным прорывом в биологическом изучении человеческого мозга.

 Профиль  
                  
 
 Re: Глубинное обучение: критическая оценка
Сообщение20.01.2018, 17:18 
Заслуженный участник


27/04/09
28128
Ну, если тут высказываются необоснованные мнения, то я добавлю, что вряд ли.

 Профиль  
                  
 
 Re: Глубинное обучение: критическая оценка
Сообщение20.01.2018, 17:34 


12/07/15
2942
г. Чехов
Rasool в сообщении #1285935 писал(а):
Думаю, очередной затык в области нейронных сетей, теперь уже в Deep Learning, можно будет преодолеть очередным прорывом в биологическом изучении человеческого мозга.

У меня другое мнение на этот счёт и абсолютно противоположное.

Вы концентрируетесь на структурах ИИ. Вы можете изобрести сколь угодно эффективную структуру, любым методом, если хотите пусть это будет результатом биологических исследований. Но структура опять покажет отрицательный результат! Почему? А потому что вы её не обучаете. Вы забыли о качестве обучающей выборки. Вы думаете, что если через структуру прогнать коллекцию текстов, то она начнёт "понимать" сходство между прыжками на батуте и стрельбой из лука. Извините, никогда и никакая структура по текстам не освоит явление, описанное Гуком, в той мере, как это понимает человек.

 Профиль  
                  
 
 Re: Глубинное обучение: критическая оценка
Сообщение20.01.2018, 17:53 
Аватара пользователя


21/09/12

1871
Mihaylo
Вчера был пост про аналитическую философию. Её цель - формализовать естественный язык, свести его к математическим конструкциям. Тексты надо не "прогонять", а переводить на этот язык. Процесс перевода, видимо, тоже будет машинным. А вот "грамматику" языка и основной "словарь" лучше составят люди.

 Профиль  
                  
 
 Re: Глубинное обучение: критическая оценка
Сообщение20.01.2018, 17:55 


20/09/09
1902
Уфа
Чтобы "понимать" сходство между прыжками на батуте и стрельбой из лука, нужно владеть умением мыслить аналогиями. А вот тут уже встает вопрос: должно ли умение мыслить аналогиями и ассоциациями быть врожденным, иными словами, зависеть от структуры "железа" ИИ или же оно может быть приобретенным путем обучения, например, можно ли научить системы "мыслить" аналогиями путем демонстрации ей обучающих выборок и опять же, какую изначально структуру "железа" такая система должна иметь? Справятся ли с этим системы на базе Deep Learning или на базе гибридных систем типа GNMT или же рано еще думать об этом, нужно ждать очередного прорыва в нейронных сетях, а пока завернуться потеплее в период очередной "зимы ИИ"?

 Профиль  
                  
 
 Re: Глубинное обучение: критическая оценка
Сообщение20.01.2018, 18:25 
Аватара пользователя


21/09/12

1871
Rasool в сообщении #1285949 писал(а):
должно ли умение мыслить аналогиями и ассоциациями быть врожденным, иными словами, зависеть от структуры "железа" ИИ или же оно может быть приобретенным путем обучения
Ваш вопрос запоздал лет на 70. - Когда спорили сторонники аналоговых машин и монстров типа "ЭНИАКа". Победил процессор. Сейчас он вне конкуренции. В биологии всё по-другому. Но смысла повторять её в железе пока не видно.

 Профиль  
                  
 
 Re: Глубинное обучение: критическая оценка
Сообщение20.01.2018, 18:31 


12/07/15
2942
г. Чехов
Я тут немного порадовался новому видео, делюсь со всеми. Здесь скрыт секрет Natural Language Understanding:
https://www.youtube.com/watch?v=iWCoCcOTF5w

Вопрос: сможет ли когда-нибудь робот, снимающий подобное видео, смеяться? Почему?

-- 20.01.2018, 20:33 --

Rasool в сообщении #1285949 писал(а):
должно ли умение мыслить аналогиями и ассоциациями быть врожденным

У Вас это умение было врождённым? Обоснуйте тот или иной ответ.

 Профиль  
                  
 
 Re: Глубинное обучение: критическая оценка
Сообщение20.01.2018, 18:33 


20/09/09
1902
Уфа
atlakatl в сообщении #1285958 писал(а):
Rasool в сообщении #1285949 писал(а):
должно ли умение мыслить аналогиями и ассоциациями быть врожденным, иными словами, зависеть от структуры "железа" ИИ или же оно может быть приобретенным путем обучения
Ваш вопрос запоздал лет на 70. - Когда спорили сторонники аналоговых машин и монстров типа "ЭНИАКа". Победил процессор. Сейчас он вне конкуренции. В биологии всё по-другому. Но смысла повторять её в железе пока не видно.

Противопоставление между аналоговыми ЭВМ и цифровыми тоже устарело на 70 лет. Сейчас рулят гибридные системы - нейронные сети на искусственных или на приближенных к естественным нейронах. Теорема о самоприменимости Геделя (ну, или какая-то подобная этой теорема) говорит об ограниченности чисто цифровых ЭВМ.

-- Сб янв 20, 2018 21:38:00 --

Rasool в сообщении #1285915 писал(а):
В этой теме я предлагаю обсудить возможности и будущее глубинного обучения. Есть статья "Глубинное обучение: критическая оценка", где как раз критически обсуждается хайп вокруг ИИ и рассматриваются реальные возможности в глубинном обсуждении. Так что: стоит ли овчинка (Deep Learning) выделки или нет? В статье, в частности, говорится о неудачах в области понимания естественного языка (Natural Language Understanding).

Вот что касается проблем ГО в NLP и вообще иерархических структурах - из приведенной мной выше статьи:
Цитата:
3.3 У ГО пока нет естественного способа работы с иерархической структурой

Лингвист Ноам Хомский не удивился бы проблемам, описанным Джиа и Лияном. По сути большинство текущих языковых моделей на базе ГО представляют себе предложения в виде последовательностей слов, при том, что Хомский давно говорит, что язык имеет иерархическую структуру, в которой более крупные построения рекурсивно составляются из более мелких. К примеру, в предложении «подросток, ранее пересекший Атлантику, установил рекорд кругосветных полётов» основным простым предложением в составе сложного будет «подросток, установивший рекорд кругосветных полётов», а в него будет встроено дополнительное предложение «ранее пересекший Атлантику», уточняющее, какой именно подросток.

В 80-х годах в одной работе (Fodor and Pylyshyn, 1988) были описаны сходные проблемы, связанные с более ранними версиями нейросетей. В своей работе (Marcus, 2001) я предположил, что простые рекуррентные сети (SRN — предшественник современных более сложных ГО-сетей, известных, как RNN) с трудом смогут систематически представлять и расширять рекурсивную структуру различных видов незнакомых им предложений.

А в 2017-м году учёные (Brenden Lake and Marco Baroni, 2017) проверили, соответствуют ли до сих пор эти пессимистические предположения действительности. Как они написали в заголовке работы, современные нейросети «после всех этих лет всё ещё не систематичные». RNN могут «неплохо обобщать данные при небольших различиях в тренировочных и проверочных данных, но когда обобщение требует систематических композиционных навыков, RNN с треском проваливаются».

Те же самые проблемы могут появляться и в других областях, например, при планировании или при управлении моторикой, в которых необходима работа со сложной иерархической структурой, в особенности, если система обречена сталкиваться с новыми ситуациями. Непрямые свидетельства таких ситуаций можно увидеть в проблемах с переносом игр Atari, упомянутых выше, а в более общем случае — в области робототехники, в которой системы обычно не справляются с обобщением абстрактных планов в необычных ситуациях.

Основной проблемой на сегодня остаётся то, что ГО выучивает корреляции между набором особенностей, которые сами по себе «плоские», неиерархичные — что-то вроде простого, неструктурированного однорангового списка. Иерархическая структура (к примеру, синтаксические деревья, отделяющие основные и подчинённые предложения) в таких системах не представляются ни напрямую, ни внутренне. В результате ГО-системы вынуждены использовать наборы различных посредников, оказывающихся в итоге неадекватными — к примеру, позиция слова в предложении по порядку от начала.

Такие системы, как Word2Vec (Mikolov, Chen, Corrado, & Dean, 2013), представляющие отдельные слова в виде векторов, достигают скромных успехов. Некоторые системы, использующие хитроумные трюки, пытаются представлять полные предложения в векторных пространствах, пригодных для ГО (Socher, Huval, Manning, & Ng, 2012). Но, как чётко продемонстрировали эксперименты Лэйка и Барони, рекуррентные сети так и остаются ограниченными в своих возможностях достоверно представлять и обобщать богатые структуры.

 Профиль  
                  
 
 Re: Глубинное обучение: критическая оценка
Сообщение20.01.2018, 21:09 
Аватара пользователя


31/10/08
1244
Rasool
Не удержался и решил написать.
Чего вы привязались к глубинному обучению? Это же грубо говоря маркетинговый термин не означающий ничего существенного.
Мы же не говорим в повседневной жизни, что встретили волосатого чёрного кота - мы говорим что встретили кота.
Так и тут стоит просто писать о обучении, а не о глубинном обучении.

Rasool в сообщении #1285960 писал(а):
Основной проблемой на сегодня остаётся то, что ГО выучивает корреляции между набором особенностей, которые сами по себе «плоские», неиерархичные — что-то вроде

ГО не может выучивать. Так как ГО это не структура, а алгоритм т.е. действие. А что за структура? Это многослойная нейронная сеть.
Что касается второй части фразы автор не прав. Дерево это планарный граф. Оно ложиться на плоскость даже без пересечений.
Отсюда вывод что это всего лишь проблема в обучении, а вернее в алгоритмах которые работают с этой структурой.

Существует две-три парадигмы. Это структурное описание к примеру UML и машина состояний, алгоритмическое к примеру функциональное программирование. И объектно-ориентированное. Одну и туже задачу мы можем описать при помощи любой из этих парадигм и это считается доказанным.

Так вот к чему я клоню. Если мы говорим про ГО, то мы должны говорить сравнивать в парадигме алгоритмов, а не структур как некоторые пробуют это делать.

Тогда встаёт вопрос в чём проблема ГО в области работу с натуральным языком если не в структурах? В свойствах алгоритмов. Обратное распространение ошибки всего лишь разбивает входные данные на статические классы. Но но оно не обладает динамикой не может переразбить классы не может перестроить дерево. Это значит что помимо "обучения" ещё должна быть система "переобучения".
А идя дальше видно, что термины "обучения" и "переобучение" не очень хороши. Нужны другие термины что-то связанное с наладкой и переналадкой.

Если проводить аналогии со структурой, то можно выделить слабость терминологии ГО. Не проработаны вопроса различных обходов дерева, не проработан вопрос перестроения дерева. Не проработаны вопрос вычислительной сложности вставки удаления поиска. Но их можно уместить в рамки термина ГО. Вот только нужно ли? С точки зрения гуманитария сиё не есть хорошо, так как это будет плохая метафора(аналогия). А над хорошей ещё надо думать и думать. Но судя по всему большая часть систем ИИ строится в ГО, а над ГО.

Хороший вопрос задал Mihaylo
Rasool в сообщении #1285949 писал(а):
Чтобы "понимать" сходство между прыжками на батуте и стрельбой из лука, нужно владеть умением мыслить аналогиями.

Вы на батуте прыгали из лука стреляли? Тут же опыт! Основанный на эмоциях. Аналогии у этих фраз нет ни какой, тут чисто воспоминания.

Mihaylo в сообщении #1285959 писал(а):
Вопрос: сможет ли когда-нибудь робот, снимающий подобное видео, смеяться? Почему?

Сможет. Смех эта сложная вещь. Мои домыслы:
1) смех коллективная эмоция для усиления положительного отклика. Как и плачь для отрицательного. Эти эмоции приумножают значение ошибки при обучении. Смех подхватывается если в коллективе кто-то смеётся.
2) Так же смех может возникать как ассоциативная реакция. Робот воспоминает свой опыт(а также генетическая память) и если он находит аналогичную ситуацию в которой он смеялся он так же смеётся.
3) Ещё смех эта реакция на скуку. Когда процессы в организм перешёл в спокойное состояние, то включается защитный механизм который пробует раскачать систему. Человек начинает шутить над окружающими.
4) Щекотка. Смех от щекотки является генетической памятью. А родители щекочат детей когда видят у них скучную реакцию на шутку.

1) Элементарно реализуется путем распознаванием речи и автомата для выхода из этого состояния.
2) Ассоциативная память как раз можно сделать на ГО.
3) Отдалённо в НС это уже сделано и называется встряска. Но моё виденье несколько шире так как само понятие скука происходит от взаимодействия разных участков мозга. Так у ИИ должны быть разные участки и по интенсивности взаимодействия между ними вычисляется понятие скуки.
4) Ручное обучение никто не отменял. :D

 Профиль  
                  
 
 Re: Глубинное обучение: критическая оценка
Сообщение20.01.2018, 21:28 


20/09/09
1902
Уфа
Вот классный результат, которого добились Microsoft и Алибаба: Нейросети Alibaba и Microsoft стали читать лучше людей.
Цитата:
На днях со Стэнфордским тестом на чтение и понимание текста успешно справился ИИ-алгоритм китайской компании Alibaba, а днём позже его успехи превзошла американская нейросеть от Microsoft, поставив новый рекорд в чтении среди ИИ.

Опросник, предоставленный двум программам, состоит из более чем ста тысяч вопросов, составленных на основе сотен различных отрывков из статей в Wikipeda — некоторые из них напечатаны, часть записана в аудиоформате. Испытуемый должен внимательно прочесть их или прослушать, а затем дать ответы на вопросы, составленные по представленным материалам.

Самый лучший показатель, которого удалось достичь человеку, составляет 82,3 процента, но китайская нейросеть смогла побить рекорд с результатом в 82,4 процента. На следующий день ИИ из Редмонда смог превзойти и эти два рекорда, показав 82,6 процента.

Пока мы тут спорим о возможности применения ГО в NLU, прогресс идет своим ходом. Интересно, как они этого добились?

 Профиль  
                  
 
 Re: Глубинное обучение: критическая оценка
Сообщение20.01.2018, 21:40 
Аватара пользователя


31/10/08
1244
Rasool
Это недостоверный источник.

 Профиль  
                  
 
 Re: Глубинное обучение: критическая оценка
Сообщение20.01.2018, 21:48 


20/09/09
1902
Уфа
"Файненшиал таймс" - недостоверный источник? Вот Вам другой источник.

 Профиль  
                  
 
 Re: Глубинное обучение: критическая оценка
Сообщение21.01.2018, 00:21 
Аватара пользователя


31/10/08
1244
Rasool
Вот - это другое дело. Пониманием текста тут и не пахнет. Если упростить то: этот тест направлен на классификацию вопроса и нечёткий поиск "ключевой фразы" в тексте. Плюс дополнительные сложности.
Проценты и в правду высокие!

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 35 ]  На страницу 1, 2, 3  След.

Модераторы: Karan, Toucan, PAV, maxal, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group