2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу 1, 2, 3, 4, 5 ... 7  След.
 
 Опасность ИИ
Сообщение23.06.2010, 18:44 
Заслуженный участник


13/12/05
4604
http://proza.ru/2007/08/10-217
Глава 6. Искусственный интеллект
6.1. Общее описание проблемы
Проект Blue Brain по моделированию мозга млекопитающих объявил осенью 2007 года об успешной имитации кортиковой колонки мозга мыши и запланировал создание полной модели мозга человека до 2020 года . Хотя прямое моделирование мозга не является наилучшим путём к универсальному искусственному интеллекту, прогноз успехов в этой области приближенно соответствует ожидаемым темпам разработки ИИ. Ник Бостром в своей статье «Сколько осталось до суперинтеллекта?» [Bostrom 1998] показывает, что современное развитие технологий ведёт к созданию искусственного интеллекта, превосходящего человеческий, в первой трети XXI века.
Компьютерная компания Google несколько раз упоминала о планах создания искусственного интеллекта, и, безусловно, она обладает необходимыми техническими, информационными и денежными ресурсами, чтобы это сделать, если это вообще возможно на нынешнем техническом уровне . Однако, поскольку опыт предыдущих несекретных попыток создания ИИ (например, компьютеров 5-ого поколения в Японии в 80-е годы) прочно ассоциируется с провалом, и может вызвать интерес спецслужб, вряд ли большие компании заинтересованы широко афишировать свою работу в этой области до того, как у них появятся конкретные результаты. Компания Novamente заявляет, что 50% кода универсального ИИ уже написано (70 000 строк кода на С++), и, хотя потребуется длительное обучение, общий дизайн проекта понятен . SIAI (Singularity Institute for Artificial Intelligence) обозначил планы по созданию программы, способной переписывать свой исходный код . Компания Numenta продвигает собственную модель ИИ, основанную на идее «иерархической временной памяти», и уже вышла на уровень демонстрационных продуктов . Компания Cycorp, Inc в проекте CYC собрала огромную базу данных о знаниях человека об обычном мире, иначе говоря, о здравом смысле (1 000 000 высказываний) и уже распространяет демонстрационные продукты . Предполагается, что объединение этой базы с эвристическим анализатором (то есть программой, способной совершать логические операции по неким правилам и создавать новые правила, в том числе правила изменения правил) – может привести к созданию ИИ человеческого уровня. (Автор проекта Д. Ленат разработал ранее эвристический анализатор «Эвриско» , который в 1981 и 1982 году выиграл соревнования Traveller TCS по управлению виртуальными сражениями флотов, в результате чего этой программе было запрещено участвовать в дальнейших соревнованиях, но зато она получила интенсивное финансирование DARPA.) Компания a2i2 обещает универсальный ИИ человеческого уровня к 2008 году и утверждает, что проект развивается в соответствии с графиком. Также за созданием робота Asimo в Японии стоит программа по разработке ИИ путём функционального моделирования человека.
Мощные результаты даёт направление исследований ИИ, называемое генетическое программирование. К настоящему моменту список изобретений «человеческого уровня», сделанных компьютерами в исследовательской компании Genetic Programming Inc, использующими эту технологию, включает 36 наименований [Коза 2003], из которых 2 сделаны машинами впервые (включает в себя квантовые протоколы передачи информации и схемы различных радиоэлектронных устройств), а остальные повторяют уже запатентованные проекты. Помимо названных, существует множество университетских проектов по созданию ИИ. Ведутся разработки ИИ и в РФ. Например, в компании ABBYY (http://www.abbyy.ru/) разрабатывается нечто вроде интерпретатора естественного языка, что может быть важным шагом на пути к ИИ человеческого уровня. И суть дела даже не в том, что раз есть так много проектов, то хоть один из них добьётся успеха первым, а в том, что объём открытий с разных сторон в какой-то момент превысит критическую массу, и внутри отрасли произойдёт мощный скачок.

-- Ср июн 23, 2010 18:44:45 --

Существуют разные мнения относительно возможности реализации искусственного интеллекта. Я считаю, что сильный универсальный ИИ возможен. Такого же мнения придерживаются многие ведущие специалисты в этой области: Е. Юдковски, Б. Гёрцель, Р. Курцвел и российский исследователь А. Л. Шамис [Шамис 2006]. Поскольку человек обладает естественным интеллектом, то нет оснований записывать ИИ в невероятные открытия. Принцип предосторожности также заставляет нас предполагать, что ИИ возможен.
Надо сказать, что работ, рассматривающих сильный ИИ в качестве возможного глобального риска, гораздо меньше, чем работ о рисках вымирания, связанных с ядерным оружием. В основном, это работы Е. Юдковски. Похожие идеи развивает М. Омохундро в статье «Базовые инстинкты ИИ» [Omohundro 2008], где он показывает, что любой ИИ с фиксированной системой целей с высокой вероятностью эволюционирует в сторону опасного состояния, в котором он будет склонен защищать себя, распространяться, совершенствовать свой собственный код, стремиться к признакам цели (как, например, удовольствие у человека) вместо самой цели и защищать свою систему целей от изменений. Я рекомендую всем, перед тем как составить своё окончательное и непоколебимое мнение о том, может ли ИИ быть угрозой человечеству, прочитать статью Е. Юдковски «Искусственный интеллект как позитивный и негативный фактор глобального риска».
Юдковски показывает, что возможен саморазвивающийся универсальный ИИ, и что он очень опасен. Если будет много ИИ-проектов (то есть, групп учёных создающих универсальный ИИ разными способами и с разными целями), то, по крайней мере один из них может быть использован для попытки захватить власть на Земле. И основная цель такого захвата будет предотвратить создание и распространение ИИ с враждебными целями, созданными другими проектами. При этом, хотя эволюция ИИ является крайне медленной, после преодоления некой «критической массы» она может пойти очень быстро, – а именно, когда ИИ достигнет уровня возможности самоулучшения. В настоящий момент мы не можем сказать, с какой скоростью пойдёт такой процесс.
Для создания ИИ необходимо, как минимум, наличие достаточно мощного компьютера. Сейчас самые мощные компьютеры имеют мощность порядка 1 петафлопа (10 операций с плавающей запятой в секунду). По некоторым оценкам, этого достаточно для эмуляции человеческого мозга, а значит, ИИ тоже мог бы работать на такой платформе. Сейчас такие компьютеры доступны только очень крупным организациям на ограниченное время. Однако закон Мура предполагает, что мощность компьютеров возрастёт за 10 лет примерно в 100 раз, т. е., мощность настольного компьютера возрастёт до уровня терафлопа, и понадобится только 1000 настольных компьютеров, объединённых в кластер, чтобы набрать нужный 1 петафлоп. Цена такого агрегата составит около миллиона долларов в нынешних ценах – сумма, доступная даже небольшой организации. Для этого достаточно реализовать уже почти готовые наработки в области многоядерности (некоторые фирмы уже сейчас предлагают чипы с 1024 процессорами ) и уменьшения размеров кремниевых элементов.
Далее, когда ИИ запустится, он сможет оптимизировать свой собственный код, и за счёт этого работать на всё более слабых машинах – или становиться всё более сильным на одной и той же машине. Как только он научится зарабатывать деньги в Интернете, он может докупать или просто арендовать дополнительные мощности, даже физически удалённые от него. Итак, хотя достаточные аппаратные средства для ИИ существуют уже сейчас, через 10 лет они станут легкодоступными, если не случится какой-нибудь катастрофы, тормозящей развитие.
Наиболее сложным моментом в вопросе об ИИ является вопрос об алгоритмах его работы. С одной стороны, никакого интеллекта в компьютерах мы пока не видим – или не хотим видеть, так как критерии меняются. С другой, прогресс в алгоритмах есть, и он велик. Например, алгоритм разложения чисел на множители совершенствовался быстрее, чем компьютеры , то есть, даже на очень старых компьютерах он дает на порядки лучшие результаты, чем старые алгоритмы на новых компьютерах. Возможно, что некие принципиально новые идеи могут решительно упростить конструкцию ИИ.
Если ИИ обретёт способность к самосовершенствованию, он не задержится на человеческом уровне, а обгонит его в тысячи и миллионы раз. Это мы уже видим на примере вычислений, где компьютеры очень быстро обогнали человека, и сейчас даже домашний компьютер вычисляет в триллионы раз быстрее, чем обычный человек. Под «сильным ИИ» мы имеем в виду ИИ, способный на много порядков обогнать человека в скорости и эффективности мышления.
Момент создания ИИ неудержимо приближается. Снижение стоимости компьютеров позволяет всё новым небольшим группам разработчиков тестировать самые невероятные идеи, а рост знаний и связи, позволяет всё быстрее осуществлять разработки. Кроме того, идея о ИИ, подобно идеи о неисчерпаемом источнике энергии, является сильным мотиватором для людей, лишённых прочих благ и готовых сыграть в игру всё или ничего.

-- Ср июн 23, 2010 18:49:01 --

Далее идет интересное и разнообразное описание возможных сценариев выхода ИИ из-под контроля человека и уничтожения им нашей цивилизации.

Какова по Вашему мнению вероятность таких событий?

-- Ср июн 23, 2010 18:51:43 --

Моя оценка -- 75 % к 2020 году, 100 % к 2030 сверхчеловеческий ИИ будет создан.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 19:21 
Аватара пользователя


03/03/10
1341
ИМХО не напишут этот ИИ. Кроме того, что это очень сложно, так никому и не нужно, хорошо отражает суть моей мысли фраза из фильма "Я робот": "Зачем мне думающий тостер?"

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 19:37 
Заслуженный участник


13/12/05
4604
Kitozavr в сообщении #334256 писал(а):
ИМХО не напишут этот ИИ.

Далеко за примерами ходить не надо, посмотрите как хорошо переводит, например, он-лайн переводчик ПРОМТ. Уже почти как человек.
Kitozavr в сообщении #334256 писал(а):
Кроме того, что это очень сложно, так никому и не нужно

По-моему так ИИ будет очень полезен во всех областях человеческой деятельности. Другое дело, что в силу специфики его создания вряд ли удастся удержать его под контролем.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 19:45 
Заслуженный участник


04/05/09
4587
Padawan в сообщении #334262 писал(а):
Далеко за примерами ходить не надо, посмотрите как хорошо переводит, например, он-лайн переводчик ПРОМТ. Уже почти как человек.

Цитата:
Далеко за примерами ходить не надо, посмотрите, как хорошо переводит, например, онлайн переводчик ПРОМТ.
Цитата:
Far behind examples it is not necessary to go, look, as well translates, for example, online the translator of PROMT.
:wink:

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 19:46 
Заслуженный участник


13/12/05
4604
venco
С английского на русский попробуйте. Те переводчики, которые я видел лет 5 назад ни в какое сравнение не идут.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 19:47 
Аватара пользователя


03/03/10
1341
Padawan в сообщении #334262 писал(а):
Далеко за примерами ходить не надо, посмотрите как хорошо переводит, например, он-лайн переводчик ПРОМТ. Уже почти как человек.

Но это всего лишь переводчик, он может только переводить и ничего более.
Программа, мыслящая как человек в ближайшем будущем создана не будет. Можно создать шахматного робота, переводчика, бойца в компьютерных играх, но невозможно (пока) написать программу, способную мыслить как человек.
Если поместить человека в незнакомую ему обстановку рано или поздно он к ней привыкнет, с программой такого не произойдёт - она может только то, чему её научили.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 19:49 
Заслуженный участник


13/12/05
4604
Kitozavr в сообщении #334268 писал(а):
Padawan в сообщении #334262 писал(а):
Далеко за примерами ходить не надо, посмотрите как хорошо переводит, например, он-лайн переводчик ПРОМТ. Уже почти как человек.

Но это всего лишь переводчик, он может только переводить и ничего более.

Думаете это так просто? Попробуйте написать что-нибудь подобное.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 19:56 
Аватара пользователя


03/03/10
1341
Раз написано - значит возможно. Могу описать алгоритм работы, но воплотить в жизнь в программе - нет.
А вот что на самом деле сложно, это описать алгоритм работы человеческого мозга. Вот как человек думает?

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 19:58 
Заслуженный участник


13/12/05
4604

(Оффтоп)

Kitozavr
Ну-ка опишите?

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 20:14 
Заслуженный участник
Аватара пользователя


03/06/09
1497
Мы тоже в какой-то степени компьютеры, поэтому не вижу ничего принципиально невозможного в том, чтобы создать "кремниевый" аналог мозга. Но не думаю, что это произойдёт в обозримом будущем.

Кстати, буквально несколько дней назад по Дискавери смотрел передачу, там рассказывали о компьютере, который может реально общаться как человек. Ему голосом задают вопросы типа "какая сейчас погода", "как тебы зовут", а он отвечает. Ему сказали "расскажи анекдот" и он рассказал анекдот. Меня удивило.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 20:14 
Аватара пользователя


03/03/10
1341

(Оффтоп)

1)Смотрим различные варианты перевода из словаря
2)Подбираем нужный вариант, для этого
а)определяем что это за член предложения (по окончанию, падежу, артиклю и т.д)
б)смотрим переводы других слов в предложении
в)подбираем наиболее верное сочетание, основываясь на статистике, самообучении программы; или выдаём все варианты, пусть юзер сам решает.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 20:17 
Заслуженный участник


13/12/05
4604

(Оффтоп)

Kitozavr
Хороший алгоритм :-)

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 20:18 
Аватара пользователя


03/03/10
1341

(Оффтоп)

Спасибо

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 20:24 
Заслуженный участник


13/12/05
4604
Вот хороший переводчик, с призношением текста http://webtranslation.paralink.com/

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 20:47 


24/05/09

2054
ИИ конечно же найдет применение, но вряд-ли это будет легкой задачей. Человеческий мозг сложен - простые решения (придумать правило придумывания правил) приведут к неутешительным результатам: уже были попытки создать роботов, которые двигаются и "чувствуют голод" - они самостоятельно подзаряжаются - и затем беспорядочно крутятся вокруг своей оси, пока не уменьшится заряд и снова голод. Нет основного двигателя жизни - инстинктов.

То же и с ИИ - программа может решать сложные задачи (на которые её запрограммировали) - однако захочет ли она думать самостоятельно? Или будет постоянно скатываться к каким-либо промежуточным устойчивым состояниям - и там зависать до появления внешних сигналов?

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 98 ]  На страницу 1, 2, 3, 4, 5 ... 7  След.

Модератор: Модераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: Dicson


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group