2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1, 2, 3, 4, 5, 6, 7  След.
 
 Re: Опасность ИИ
Сообщение08.07.2010, 17:38 
Заблокирован


14/02/09

1545
город Курганинск
gris в сообщении #338001 писал(а):
Мои поздравления!
Играйте в Ваши игры, наслаждайтесь жизнью, несите знание в мир, стройте дом, выращивайте урожай, воспитывайте очередную прелестную внучку и всё многочисленное потомство, удваивайте кубы, утраивайте круги, делите углы.
У Вас столько дел!

ewert, если не ссаца, то неопасно

gris. Большое спасибо. Внучка родилась беспокойная, уж не знаю как с делами.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение08.07.2010, 18:11 
Заслуженный участник


11/05/08
32166
да, кстати, а ВШ -- искренне поздравляю (ну или искренне сочувствую). Мне это лишь предстоит, на днях.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение08.07.2010, 18:41 
Заблокирован


14/02/09

1545
город Курганинск
gris в сообщении #338001 писал(а):
Мои поздравления!
Играйте в Ваши игры, наслаждайтесь жизнью, несите знание в мир, стройте дом, выращивайте урожай, воспитывайте очередную прелестную внучку и всё многочисленное потомство, удваивайте кубы, утраивайте круги, делите углы.
У Вас столько дел!

gris, забыли про удвоение круга. ewert. Спасибо за поздравления. Вам, того же пожелаю.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение08.07.2010, 21:03 
Заблокирован
Аватара пользователя


21/04/06

4930
PAV в сообщении #337944 писал(а):
Шимпанзе в сообщении #337931 писал(а):
Она сделает все , чтобы отнять у человека возможность ее выключить.


Или постарается сделать так, чтобы человеку было явно невыгодно ее выключать. Существуют же не только кнуты, но и пряники.


При таких возможностях ИИ ( даже страшно подумать) мы для него станем ИИ. Поменяемся ролями.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение09.07.2010, 10:11 
Заслуженный участник


08/04/08
8556
Посмотрел я програмку Журавлева - она меня не впечатлила, и моих знакомых тоже. Хотя я с ней еще неделю помучаюсь.
И эта прога и другие подобные как-то постоянно "забывают" о чем шла речь в предыдущих предложениях.
Какой-то другой принцип работы должен быть у ИИ.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение09.07.2010, 14:54 


13/10/09
283
Ukraine
Sonic86 писал(а):
Посмотрел я програмку Журавлева - она меня не впечатлила, и моих знакомых тоже. Хотя я с ней еще неделю помучаюсь.
И эта прога и другие подобные как-то постоянно "забывают" о чем шла речь в предыдущих предложениях.
Какой-то другой принцип работы должен быть у ИИ.

Вы не забывайте, что начал писать эту программу школьник, а закончил первокурсник. Для его уровня очень неплохо. Сейчас он забился на свою «детскую» программу, хорошо если ради серьезных проектов.

Ну, а если у Вас есть здоровый азарт и пионерский задор (типа я могу наваять подобную программу лучше :roll: ), то попробуйте написать свою и опубликовать ее на codeproject. Оформлять работу полезно логическими частями. Кстати, вчера я опубликовал там свою статью по сортировке. За сутки более 600 просмотров, текущий рейтинг 5 (из 5), проголосовало двое, закладки на статью (Bookmarked) тоже сделало двое. Для начала очень неплохо :roll: . Так что, дерзайте!

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение12.07.2010, 06:53 
Заслуженный участник


08/04/08
8556
У меня таланту мало ИИ заниматься.
И вообще я не программист.
Если какие мысли будут - опубликую, были бы мысли.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение05.08.2010, 19:42 


23/11/09
130
Про программу чата:
Говорю вам как программист, я интересовался как сделаны такие программы "Чат боты".
Это не более чем база данных фраз и ответов на них, и поиск контрольных слов в фразе!
Поэтому она не только не может удержать мысль диалога, но и как таковых у нее нет вообще!

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение06.08.2010, 08:54 
Аватара пользователя


03/03/10
1341
Ещё можно использовать универсальные фразы, как фильме "Хоттабыч":
"С тобой так интересно" можно воткнуть почти куда угодно.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение06.08.2010, 11:25 


15/10/09
1344
Как-то прозевал эту тему. А сейчас почитал и ... ужаснулся. Ну и наколбасили, уважаемые Господа. А ведь уже была тема, и даже опрос, Может ли машина мыслить, см. topic17800.html

Эта тема началась в 2008 г. и умерла. Я возродил ее в конце 2009 г. - тусовался с 5-й по 12-ю страницу - хотел навести порядок. Но потом плюнул. А тему в апреле сего года на 14-странице закрыли.

Тем не менее, обратите внимание на результаты опроса. Хоть в теме участвовали дилетанты, результаты опроса таковы, что говорить об ИИ, подобном человеческому И в целом, в ближайшие лет 20 или 50 ИМХО вряд ли возможно. Или вообще невозможно. Это я как профессионал в ИИ говорю.

Во всяком случае, риск появления опасного ИИ на порядки меньше других рисков человечества: естественные катаклизмы, войны, глобальные кризисы, ... Это я как профессионал в управлении рисками говорю.

Наиболее убедительный пример в плане отличия человека и машины ИМХО - обучение человека естественному языку. Посмотрите на малыша 3-х или 5-и лет. Ведь он, как правило, бойко и достаточно осмысленно говорит. А с ним, практически, даже никто специально не занимался. И уж во всяком случае его не "программировали" и "базу данных" никто в него не закачивал. Если ему и уделяли внимание "программисты", пардон, родители и/или воспитатели, то это всего-то порядка долей человекогода.

А сколько человеколет программистского труда надо потратить, чтобы создать что-то близкое на компьютере?!

И еще. Если исповедовать теорию заговора, то тогда в закрытых лабораториях усиленно строят супер-бупер ИИ. Но как правильно кто-то здесь сказал, закрыть можно технологии, но не теорию.

А теории человеческого интеллекта не было и нет.

Дык о чем же можно говорить в плане построения ИИ, если мы даже не знаем, что такое интеллект.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение05.03.2011, 23:07 
Модератор
Аватара пользователя


16/02/11
3788
Бурашево
Ключевым вопросом в создании настоящего ИИ является разработка алгоритма, который бы сам мог создавать алгоритмы. Такую проблему рассматривает Р.Пенроуз в книге "Новый ум короля" и пишет, что строго доказано, что нельзя создать алгоритм, который сам будет создавать алгоритмы (не существует машины Тьюринга, которая могла бы создать машину Тьюринга).
То есть то, что способно синтезировать алгоритмы является не алгоритмичным. Как оно действует? - Перебором? Эвристиками?..

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение06.03.2011, 01:08 


02/05/09
580
profrotter, я не серьезный посетитель форума, но вопрос есть. Если почти каждый человек(и этот форум блистательный тому пример), стремится встать на готовые алгоритмы(энциклопедии и п. п.), если вся система обучения, готовые алгоритмы, если вся наука(и паравозом потребление) сосредоточина на решении функциональных а не мативационных задач, если практически все стало маркетингом(алгоритмом), может ИИ как раз и нужен чтобы добить не алгоритмичность, а не создавать новые алгоритмы, кольцо замкнется и вот она бесконечность.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение06.03.2011, 14:59 
Заслуженный участник
Аватара пользователя


06/10/08
6422
profrotter в сообщении #419702 писал(а):
строго доказано, что нельзя создать алгоритм, который сам будет создавать алгоритмы (не существует машины Тьюринга, которая могла бы создать машину Тьюринга).
В том виде, как Вы это здесь написали, это неверное утверждение.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение06.03.2011, 16:26 
Модератор
Аватара пользователя


16/02/11
3788
Бурашево
докер в сообщении #419742 писал(а):
profrotter, я не серьезный посетитель форума, но вопрос есть. Если почти каждый человек(и этот форум блистательный тому пример), стремится встать на готовые алгоритмы(энциклопедии и п. п.), если вся система обучения, готовые алгоритмы, если вся наука(и паравозом потребление) сосредоточина на решении функциональных а не мативационных задач, если практически все стало маркетингом(алгоритмом), может ИИ как раз и нужен чтобы добить не алгоритмичность, а не создавать новые алгоритмы, кольцо замкнется и вот она бесконечность.

Я не так давно на этом форуме и не обнаружил тут ни одного серьёзного пльзователя, да и себя не отношу к серьёзным пользователем. Нельзя человечеству, как мне думается, вставать на готовые алгоритмы, ибо истинное созидание предполагает всегда что-то новое, то, что не было сделано до сих пор, то есть не могло содержаться в какой-либо известной последовательности действий. Всякий настоящий интеллект предполгает, по крайней мере, способность системы к самостоятельной постановке целей и поиску путей их достижения.
Xaositect в сообщении #419902 писал(а):
profrotter в сообщении #419702 писал(а):
строго доказано, что нельзя создать алгоритм, который сам будет создавать алгоритмы (не существует машины Тьюринга, которая могла бы создать машину Тьюринга).
В том виде, как Вы это здесь написали, это неверное утверждение.


Написать "утверждение неверно" - означает не написать ничего, простите.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение06.03.2011, 16:30 
Злостный тролль-клон Дмитрий Муродьянц. Студент 1 курса МГТУ им. Баумана. Кафедра физики


23/02/11

175
Цитата:
Написать "утверждение неверно" - означает не написать ничего, простите.
иногда это единственно разумное, что можно сказать :mrgreen:

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 98 ]  На страницу Пред.  1, 2, 3, 4, 5, 6, 7  След.

Модератор: Модераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group