2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




На страницу Пред.  1, 2, 3, 4, 5, 6, 7  След.
 
 Re: Опасность ИИ
Сообщение08.07.2010, 17:38 
gris в сообщении #338001 писал(а):
Мои поздравления!
Играйте в Ваши игры, наслаждайтесь жизнью, несите знание в мир, стройте дом, выращивайте урожай, воспитывайте очередную прелестную внучку и всё многочисленное потомство, удваивайте кубы, утраивайте круги, делите углы.
У Вас столько дел!

ewert, если не ссаца, то неопасно

gris. Большое спасибо. Внучка родилась беспокойная, уж не знаю как с делами.

 
 
 
 Re: Опасность ИИ
Сообщение08.07.2010, 18:11 
да, кстати, а ВШ -- искренне поздравляю (ну или искренне сочувствую). Мне это лишь предстоит, на днях.

 
 
 
 Re: Опасность ИИ
Сообщение08.07.2010, 18:41 
gris в сообщении #338001 писал(а):
Мои поздравления!
Играйте в Ваши игры, наслаждайтесь жизнью, несите знание в мир, стройте дом, выращивайте урожай, воспитывайте очередную прелестную внучку и всё многочисленное потомство, удваивайте кубы, утраивайте круги, делите углы.
У Вас столько дел!

gris, забыли про удвоение круга. ewert. Спасибо за поздравления. Вам, того же пожелаю.

 
 
 
 Re: Опасность ИИ
Сообщение08.07.2010, 21:03 
Аватара пользователя
PAV в сообщении #337944 писал(а):
Шимпанзе в сообщении #337931 писал(а):
Она сделает все , чтобы отнять у человека возможность ее выключить.


Или постарается сделать так, чтобы человеку было явно невыгодно ее выключать. Существуют же не только кнуты, но и пряники.


При таких возможностях ИИ ( даже страшно подумать) мы для него станем ИИ. Поменяемся ролями.

 
 
 
 Re: Опасность ИИ
Сообщение09.07.2010, 10:11 
Посмотрел я програмку Журавлева - она меня не впечатлила, и моих знакомых тоже. Хотя я с ней еще неделю помучаюсь.
И эта прога и другие подобные как-то постоянно "забывают" о чем шла речь в предыдущих предложениях.
Какой-то другой принцип работы должен быть у ИИ.

 
 
 
 Re: Опасность ИИ
Сообщение09.07.2010, 14:54 
Sonic86 писал(а):
Посмотрел я програмку Журавлева - она меня не впечатлила, и моих знакомых тоже. Хотя я с ней еще неделю помучаюсь.
И эта прога и другие подобные как-то постоянно "забывают" о чем шла речь в предыдущих предложениях.
Какой-то другой принцип работы должен быть у ИИ.

Вы не забывайте, что начал писать эту программу школьник, а закончил первокурсник. Для его уровня очень неплохо. Сейчас он забился на свою «детскую» программу, хорошо если ради серьезных проектов.

Ну, а если у Вас есть здоровый азарт и пионерский задор (типа я могу наваять подобную программу лучше :roll: ), то попробуйте написать свою и опубликовать ее на codeproject. Оформлять работу полезно логическими частями. Кстати, вчера я опубликовал там свою статью по сортировке. За сутки более 600 просмотров, текущий рейтинг 5 (из 5), проголосовало двое, закладки на статью (Bookmarked) тоже сделало двое. Для начала очень неплохо :roll: . Так что, дерзайте!

 
 
 
 Re: Опасность ИИ
Сообщение12.07.2010, 06:53 
У меня таланту мало ИИ заниматься.
И вообще я не программист.
Если какие мысли будут - опубликую, были бы мысли.

 
 
 
 Re: Опасность ИИ
Сообщение05.08.2010, 19:42 
Про программу чата:
Говорю вам как программист, я интересовался как сделаны такие программы "Чат боты".
Это не более чем база данных фраз и ответов на них, и поиск контрольных слов в фразе!
Поэтому она не только не может удержать мысль диалога, но и как таковых у нее нет вообще!

 
 
 
 Re: Опасность ИИ
Сообщение06.08.2010, 08:54 
Аватара пользователя
Ещё можно использовать универсальные фразы, как фильме "Хоттабыч":
"С тобой так интересно" можно воткнуть почти куда угодно.

 
 
 
 Re: Опасность ИИ
Сообщение06.08.2010, 11:25 
Как-то прозевал эту тему. А сейчас почитал и ... ужаснулся. Ну и наколбасили, уважаемые Господа. А ведь уже была тема, и даже опрос, Может ли машина мыслить, см. topic17800.html

Эта тема началась в 2008 г. и умерла. Я возродил ее в конце 2009 г. - тусовался с 5-й по 12-ю страницу - хотел навести порядок. Но потом плюнул. А тему в апреле сего года на 14-странице закрыли.

Тем не менее, обратите внимание на результаты опроса. Хоть в теме участвовали дилетанты, результаты опроса таковы, что говорить об ИИ, подобном человеческому И в целом, в ближайшие лет 20 или 50 ИМХО вряд ли возможно. Или вообще невозможно. Это я как профессионал в ИИ говорю.

Во всяком случае, риск появления опасного ИИ на порядки меньше других рисков человечества: естественные катаклизмы, войны, глобальные кризисы, ... Это я как профессионал в управлении рисками говорю.

Наиболее убедительный пример в плане отличия человека и машины ИМХО - обучение человека естественному языку. Посмотрите на малыша 3-х или 5-и лет. Ведь он, как правило, бойко и достаточно осмысленно говорит. А с ним, практически, даже никто специально не занимался. И уж во всяком случае его не "программировали" и "базу данных" никто в него не закачивал. Если ему и уделяли внимание "программисты", пардон, родители и/или воспитатели, то это всего-то порядка долей человекогода.

А сколько человеколет программистского труда надо потратить, чтобы создать что-то близкое на компьютере?!

И еще. Если исповедовать теорию заговора, то тогда в закрытых лабораториях усиленно строят супер-бупер ИИ. Но как правильно кто-то здесь сказал, закрыть можно технологии, но не теорию.

А теории человеческого интеллекта не было и нет.

Дык о чем же можно говорить в плане построения ИИ, если мы даже не знаем, что такое интеллект.

 
 
 
 Re: Опасность ИИ
Сообщение05.03.2011, 23:07 
Аватара пользователя
Ключевым вопросом в создании настоящего ИИ является разработка алгоритма, который бы сам мог создавать алгоритмы. Такую проблему рассматривает Р.Пенроуз в книге "Новый ум короля" и пишет, что строго доказано, что нельзя создать алгоритм, который сам будет создавать алгоритмы (не существует машины Тьюринга, которая могла бы создать машину Тьюринга).
То есть то, что способно синтезировать алгоритмы является не алгоритмичным. Как оно действует? - Перебором? Эвристиками?..

 
 
 
 Re: Опасность ИИ
Сообщение06.03.2011, 01:08 
profrotter, я не серьезный посетитель форума, но вопрос есть. Если почти каждый человек(и этот форум блистательный тому пример), стремится встать на готовые алгоритмы(энциклопедии и п. п.), если вся система обучения, готовые алгоритмы, если вся наука(и паравозом потребление) сосредоточина на решении функциональных а не мативационных задач, если практически все стало маркетингом(алгоритмом), может ИИ как раз и нужен чтобы добить не алгоритмичность, а не создавать новые алгоритмы, кольцо замкнется и вот она бесконечность.

 
 
 
 Re: Опасность ИИ
Сообщение06.03.2011, 14:59 
Аватара пользователя
profrotter в сообщении #419702 писал(а):
строго доказано, что нельзя создать алгоритм, который сам будет создавать алгоритмы (не существует машины Тьюринга, которая могла бы создать машину Тьюринга).
В том виде, как Вы это здесь написали, это неверное утверждение.

 
 
 
 Re: Опасность ИИ
Сообщение06.03.2011, 16:26 
Аватара пользователя
докер в сообщении #419742 писал(а):
profrotter, я не серьезный посетитель форума, но вопрос есть. Если почти каждый человек(и этот форум блистательный тому пример), стремится встать на готовые алгоритмы(энциклопедии и п. п.), если вся система обучения, готовые алгоритмы, если вся наука(и паравозом потребление) сосредоточина на решении функциональных а не мативационных задач, если практически все стало маркетингом(алгоритмом), может ИИ как раз и нужен чтобы добить не алгоритмичность, а не создавать новые алгоритмы, кольцо замкнется и вот она бесконечность.

Я не так давно на этом форуме и не обнаружил тут ни одного серьёзного пльзователя, да и себя не отношу к серьёзным пользователем. Нельзя человечеству, как мне думается, вставать на готовые алгоритмы, ибо истинное созидание предполагает всегда что-то новое, то, что не было сделано до сих пор, то есть не могло содержаться в какой-либо известной последовательности действий. Всякий настоящий интеллект предполгает, по крайней мере, способность системы к самостоятельной постановке целей и поиску путей их достижения.
Xaositect в сообщении #419902 писал(а):
profrotter в сообщении #419702 писал(а):
строго доказано, что нельзя создать алгоритм, который сам будет создавать алгоритмы (не существует машины Тьюринга, которая могла бы создать машину Тьюринга).
В том виде, как Вы это здесь написали, это неверное утверждение.


Написать "утверждение неверно" - означает не написать ничего, простите.

 
 
 
 Re: Опасность ИИ
Сообщение06.03.2011, 16:30 
Цитата:
Написать "утверждение неверно" - означает не написать ничего, простите.
иногда это единственно разумное, что можно сказать :mrgreen:

 
 
 [ Сообщений: 98 ]  На страницу Пред.  1, 2, 3, 4, 5, 6, 7  След.


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group