Это выглядит нестандартным определением "правильного решения". И мне ваше определение кажется не очень полезным, потому что оно дублирует понятие "принятое решение", а нам теперь нужен новый термин, чтобы отличать решения, предсказуемо приведшие к нежелательным последствиям.
Это ответ на пост
ozheredov, а не определение чего-либо. Просто пришлось заглянуть в суть сутей. На этом уровне ещё нет смысла.
Я пока не спрашиваю о причинах, я утверждение понять не могу.
Я там не очень хорошо сформулировал выше. Я не говорю, что мнение условных Дина или Ына неверно сейчас. Я ожидаю, что окно между "Джефф Дин признает, что создан сильный ИИ" и "всех разобрали на скрепки" будет очень маленьким.
Утверждение "Джефф Дин никогда не скажет, что создан сильный ИИ" вполне понятно. Но оно ИМХО гораздо больше про Джеффа Дина чем про ИИ:)
Я вас именно так и понял. Вы считаете, что у нас всё есть (или будет в будущем) для того, чтобы появился сильный ИИ. Поэтому то, что он появится, - дело времени. Кто-то его сделает или он сам как-то сделается без нашей целенаправленной помощи, вопрос только в том, узнаем мы его или нет. Я же аргументирую точку зрения, что он вообще не появится, потому что это невозможно в принципе.
Есть определённая зависимость между приближением к сложности интеллекта человека и ростом трудностей в создании ИИ. Поэтому и невозможно. А что он не сделается сам, есть отдельные аргументы, но они нам сейчас не потребуются (начнём с малого). На практике рост сложности приведёт к тому, что усложнение ИИ будет всё больше терять смысл и остановится задолго до сколько-нибудь близко приближения к сложности интеллекта человека. Поэтому дело совсем не просто в "мнении Джефа Дина". То есть дело не в узнавании, а в констатации факта, который очевиден по множеству параметров. Включая представление об устройстве системы - может система с таким устройством быть сложнее интеллекта человека или нет. То есть очевидность того, что интеллект ещё не сильный, будет практически такая же, как сейчас, в отношении нынешних ИИ.
Текущие текстовые модели страдают кучей проблем, которые формализовать очень легко. Кстати, вот с задачей им. Legioner93 (написать сочинение по книге, которой не было в обучающем корпусе) - как вы думаете, ML когда-нибудь справится?
Не знаю, по-моему, это нетривиальная задача. ИИ не читают книги. ИИ может перевести книгу, последовательно, предложение за предложением. Но здесь "перевести" надо
сразу всю книгу, ведь последовательно "читая" книгу и тут же полностью забывая прочитанное, сочинение не написать. Поэтому ИИ должен запомнить всю книгу и обобщить её в практически полностью новый и осмысленный текст. А так как я утверждаю, что ИИ значительно не усложнится, то нынешние проблемы, которые сейчас видятся только количественными (а эта задача пока выглядит именно так), вполне возможно, на самом деле окажутся качественными.
Примерно как заговор людей против волков.
Не верите вы в венец природы.
А где были аргументы? А то я только голословные заявления видел.
До аргументов дело пока не дошло. Вы, видимо, тему невнимательно читали. Мы пока решаем, нужны ли они вообще. Есть разные мнения.
Я этот тест не пройду... отпишите меня от темы, пожалуйста
Пройдёте. А вот ИИ не факт.
Давайте я Вам скину подборку с ютьюба разных ДТП, а Вы потом на этих конкретных примерах объясните про "умение тонко учитывать нюансы".
Нюансы в контексте опыта учитываются. Там в посте написано.
А длину забора мы можем померить точно и однозначно? Вам знакомы понятия погрешность, разброс измерений и т.д.?
Тоже невнимательно читали. Там в скобках написано, почему мозг сложнее оценить, по сравнению с другими явлениями.
Во-во-во, совершенно точно, АБСОЛЮТНО ВСЕ в мире так и измеряется(оценивается). С какой радости нельзя сделать то же самое в отношении алгоритмов ИИ?
Задумайтесь, почему нейронные сети не создаются точно под задачу, а обучаются? Чего бы проще, есть задача, взяли подумали и написали нейронную сеть, как обычный детерминированный алгоритм.
И этот подход, конечно же, ну никак не может быть реализован в hardware/software. А по какой причине, можно узнать?
Почему же, может. Вопрос лишь в уровне сложности этой реализации. Я уже вам отвечал на подобный вопрос. Роботы умеют всё и т. д..
Это заведомо не так. Он не может учитывать все, потому что к моменту принятия решений на его рецепторы интегрально попало ограниченное количество информации, часть из которой была заранее искажена. Например, чел получает сигналы локально, из одной точки пространства, тогда как выбор стратегии поведения может потребовать знания того, что сейчас делает его жена на острове под названием Сказочное Бали.
Весь опыт учитывается, речь об опыте.
А вот это уже манипуляция. Так можно сказать про любое решение: на охоте зашевелились кусты, я подумал -- там кабан, и случайно убил Васю. Но на момент выстрела я ЗНАЛ, что там не Вася, а кабан -- поэтому поступил правильно.
Это не манипуляция, а ответ на ваш пост. И ответ правильный. Каков вопрос, таков ответ.
Если Вы считаете, что вышенаписанное является ограничением для создания ИИ, вынужден Вас разочаровать -- все эти принципы давным-давно реализованы в самых примитивных искусственных нейросетях.
Нет, я так не считаю. И не понимаю, почему вы так подумали.
Да-да-да-да-да-да-да, это все банальное 2х2=4, которое известно любому современному дошкольнику и которое абсолютно не препятствует созданию ИИ, поскольку с учетом этих принципов работают рекомендательные, прогностические, скоринговые и т.д. системы. Загуглите число весов современных нейросетей для распознавания автомобильных номеров, например.
Да, всё верно. Я уже выше ответил.
Нет, там имеется в виду другое. Ничего плохого я о Вас не думаю, расслабьтесь.
Я, пожалуй, подожду расслабляться. "Да-да-да-да-да-да-да" покою не способствует.
Если вменяемая Алиса будет уверена, что в любви ей признается высокоранговый мужик -- она сама себе все нарисует, в своем воображении (см. Ваши собственные абсолютно правильные рассуждения выше). Даже если он вместо любовных реплик даст Алисе под дых, она истолкует это как признание в любви. Обратное утверждение так же являестя верным. UPD: я про живую Алису, не заметил, что Вы про Яндекс-бота.
Абсолютное большинство "высокоранговых мужиков" умны, энергичны и хорошие стратеги, а лучшая стратегия - это уважение к людям. Другие долго в высоком ранге не задерживаются. И встречаются они обычно с тоже высокоранговыми подругами. С другими скучно, с их мелкими заботами. А высокоранговые подруги не привыкли и не потерпят. Поэтому "под дых" - это относительно больше в среде людей попроще бытует.
Имея за плечами практически безграничную мощность, алгоритмы уже не так важны. Любая задача может быть решена, если на нее выделен бесконечный промежуток времени.
Дело как раз в мощности, поскольку даже самый хороший алгоритм способен увеличить вычисления, ну, возможно, в 100 раз - что для квантовых систем не играет никакой роли.
Нет алгоритма, нет и задачи. Чего считать будете? А насчёт того, что вечность всегда поможет, то за такое время много чего измениться может. Надоест, например, ИИ ваять.
Как раз-таки и нет. Большинство людей решают вполне повседневные задачи. "Встать", "Умыться", "Включить телевизор", "Открыть холодильник, достать пиво", "Приехать на работу", "Уехать с работы".
Да, верно. Но задачи, которые не привлекают внимания, всё-таки в большей степени уже решённые, вы только исполняете ранее принятое решение. Я же имел в виду те случаи, когда возникает что-то неизвестное, новые обстоятельства.
Абстрактными размышлениями занимаются в основном ученые и философы, где не всегда возможно точно обозначить проблему. Но ведь из ИИ сейчас строить "эйнштейнов" все равно никто не собирается.
А мы здесь не про "сейчас" говорим, а про "вообще".
Технически, точная копия не так важна, поскольку на конечную работу это не повлияет. Мозг, даже с повреждениями, вполне себе неплохо функционирует. Поэтому ошибки при копировании имеют не такое большое значение на самом деле.
Вам стоит внимательнее прочитать мой ответ о возможности копирования. Дело в том, что необходимая
глубина копирования недостижима.