2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1 ... 3, 4, 5, 6, 7  След.
 
 Re: Опасность ИИ
Сообщение06.03.2011, 18:06 


02/05/09
580
profrotter, вы не понели о чем я. Я как раз за созидание, но почти все против. Только две позиции доступны человеку, творить и повторять(созидать и повторять). Повторы как раз готовые алгоритмы, и почти все повторяют, и не имеют желания двигаться куда либо еще. Я оставляю свой первый вопрос.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение09.03.2011, 16:01 


12/09/06
617
Черноморск
Kitozavr в сообщении #334697 писал(а):
Скажите мне что эта бактерия должна делать и я сам попробую

0. Бактерию нужно поместить в некую среду. В простейшем случае среда состоит из
а) пустого пространства, по которому можно перемещаться.
б) скал, т.е. непроницаемого пространства, по которому нельзя перемещаться,
в) пищи, спрятанной между скал.
1. Бактерия должна иногда кушать и у нее должно быть чувство голода. Обозначим G - интенсивность голода.
G возрастает со временем с постоянной скоростью если бактерия не поела и если она неподвижна. Если поела, то G скачком уменьшается на величину съеденного. Если G > 0, то бактерия хочет есть, и если она натыкается на пищу, то начинает есть (если ничего не мешает). Если G< 0, то бактерия сыта и не ест даже если натыкается на пищу.
2. У нее должен быть поисковый рефлекс. Т.е. если бактерия ничем не занята (едой, например), то она начинает хаотически блуждать по пространству, что есть простейший вариант поисковой активности. Чем более она голодна, тем быстрее начинает блуждать и чаще менять направления движения. Чем быстрее она движется, тем быстрее растет G (движение требует энергии). Если G превышает некий критический уровень S, то бактерия умирает.
Даже такая простейшая психика даст содержательный пример поведения. Образ жизни бактерии это череда поедания пищи, все ускоряющегося случайного поиска, остановки возле вновь найденной пищи и т.д.
Жизнеспособность

-- Ср мар 09, 2011 17:14:05 --

и успешность бактерии определяются соотношением сложности среды (запутанностью лабиринтов между скал) и параметрами поискового блуждания. Можно выпускать несколько бактерий с разными параметрами психики в одну среду и смотреть какая из них долше выживет.
3. Можно сделать девочек и мальчиков. Они должны встретиться, чтобы дать потомство. Желание любви пусть описывается внутренним параметром L, который непрерывно возрастает во времени. После акта любви L скачком уменьшается.
Если G > L, то бактерия ищет пищу, если G < L то ищет любви. Если G выше некоего критического значения, то уже не до размножения. Кушать надо. А для кого-то, может наоборот.
Теперь успешность определяется не только временем жизни, но и количеством потомства.

-- Ср мар 09, 2011 17:17:00 --

Все это будет выглядеть как некий лабиринт, по которому снуют разноцветные шарики (разные виды с разными параметрами психики). Кого больше, тот и победил в эволюционной гонке.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение09.03.2011, 18:28 
Заблокирован
Аватара пользователя


17/06/09

2213
Почитал ветку и испугался. Понял, действительно многое то, о чём прежде всего пишет автор - возможно.
я занимался ИИ на примере шахмат, моя собственная программа в бета-стадии делала ходы и принимала решения гораздо красивее, чем я. Когда видишь это - поражаешься. Но есть система процедур и способов, с помощью которой можно смоделировать практически любую ситуацию. Т.е. на самом деле изначально программа как бы понятия не имеет о ситуации (на шахматной доске, к примеру). Потом начинает её изучать... Уже видит логику. Ситуация становится уже ей понятной на каком-то примитивном уровне. При этом у неё есть лишь определённый набор приёмов и процедур - и в какую её поставили ситуацию абсолютно не важно.
По мере "осмысления" ситуации она начинает понимать её уже лучше чем я и соответственно действует в соответствии с тем чему я её научил - генерирует исходя из своего уровня понимания решение.
Хочу обратить внимание на два аспекта: на качество принятия решения влияет только быстродействие компьютера. И второе - запуск производился на ещё несоптимизированном коде. Т.е. каждый следующий "уровень познания" ей доставался по экспоненте, т.к. количество анализируемых факторов для принятия нужного решения увеличивалось в разы. А программа не умела сокращать перебор.
Тем не менее её сила была где-то по 1 разряду (хотя и при гораздо больших временных затратах). Т.е. она могла меня обыграть, просто тестировалась в паре с другой шахматной программой.

Как видно, особого отличия от поведения живого существа нет: то же попадание в неизведанную ситуацию. Её анализ с помощью имеющихся принципов, способов, целей и задач. И принятие оптимального решения.

-- Ср мар 09, 2011 19:35:41 --

Справочно: в основу положено именно "осмысление" ситуации, а не перебор ходов. Так что "просчитывать" её и искать слабые места бесполезно.

Пример того, как программа "видит" позицию после двух разных ходов белых:
Изображение
Красным показаны наиболее сильные участки чёрных, зелёным - белых.

В данном случае ход слева более агрессивен, т.к. подавляет в большей степени позиции противника, но при этом и ослабляет собственные позиции в защите (концентрация зелёных зон снижается).

Т.е. в прямом смысле речь идёт об "мысленных образах в голове программы", в точности как у человека, за тем исключением, что всё разложено математически и всякие неточности и промашки исключены.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение10.03.2011, 12:24 
Аватара пользователя


21/02/10
1594
Екатеринбург
1) Современный компьютер по объему ОЗУ и по тактовой частоте превосходит человеческий мозг. И чё? Компьютер как был железякой для забивания гвоздей так и остался.
2) Средства ввода информации для компьютера просто отстой. В тысячи раз хуже человеческого зрения, слуха и прочих органов чувств.
3) Не могу найти ссылку. Проводились эксперименты где одинаковые задачи давались компьютеру и человеку. Вывод однозначен человеческий мозг и компьютер работают примерно одинаково. То есть задачи которые с трудом решал человек вызывали затруднения и у компьютера.
4) В ИИ поверю когда создаут искусственного таракана, такого же маленького, умного и шустрого.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение10.03.2011, 18:43 
Заслуженный участник


07/07/09
5408
profrotter в сообщении #419702 писал(а):
То есть то, что способно синтезировать алгоритмы является не алгоритмичным. Как оно действует? - Перебором? Эвристиками?..

Именно перебором, причем ошибки при многократном переборе и при общении с другими и приводят к эвристическим откровениям. А главное, что достигнутое понимание, как это отметим докер , подгоняется под реальность.
докер в сообщении #419742 писал(а):
если вся наука(и паравозом потребление) сосредоточина на решении функциональных а не мативационных задач,


Человек , сидя в темном подвале, без исследований и общения с другими исследователями далеко не продвинется. Так и ИИ , запаянный в консервную банку, работать не будет. Ему надо как-то действовать и регистрировать результат этого действия. Например, как здесь
age в сообщении #421192 писал(а):
Как видно, особого отличия от поведения живого существа нет: то же попадание в неизведанную ситуацию. Её анализ с помощью имеющихся принципов, способов, целей и задач. И принятие оптимального решения.

 Профиль  
                  
 
 
Сообщение12.03.2011, 22:42 


02/05/09
580
Еще раз спрошу, ИИ для чего нужен, облегчить жизнь и без того в конец зажравшихся, или превратить в зажравшихся всех поголовно, или научить наконец ходить строем добровольно, или толстых превратит в худых, или страшных в красивых, или наверняка ответит на вопрос мы кто?. ИИ что должен доказать, что мы механизмы?, это и так давно не тайна, или науке необходимо поменять, слово бог на слово конструктор? ЗАЧЕМ ИИ???

 Профиль  
                  
 
 
Сообщение13.03.2011, 10:39 
Заблокирован
Аватара пользователя


17/06/09

2213
Лично для меня - спорт. :roll: :?
Но вот сейчас почитал, опасность действительно убеждает. Тот момент, когда программа выйдет из-под контроля - действительно может оказаться не замеченным. Это примерно как сел играть и тебя обыграли, а потом недоумённо разводишь руками, мол, ну кто же ожидал, что вот так окажется.

Согласен, что запрет необходим. я конечно, понимаю, что все эти ботаны-очкарики сидят целыми днями за компьютерами и аж пищат от близости ИИ. Им что в лоб, что полбу, т.к. это материально и морально несостоявшиеся в обществе личности, единственное что у них есть - это компьютер и интернет. Но надо как-то что-то делать с этим. Сами себе пусть ковыряются, но на централизованных программах по общему доступу к исследованиям должно стоять общественное вето.

 Профиль  
                  
 
 Re:
Сообщение13.03.2011, 17:23 
Модератор
Аватара пользователя


16/02/11
3788
Бурашево
докер в сообщении #422260 писал(а):
... облегчить жизнь и без того в конец зажравшихся, или превратить в зажравшихся всех поголовно...
Это ещё одна существенная опасность ИИ. Трудно даже сравнить что более опасно: неизбежный выход ИИ из под контроля человека и, как следствие, "война машин" или деградация человека в результате распространения ИИ. Вообще это частное следствие давно известной общей закономерности, которая устанавливает противоречие между собственным потенциалом человечества и научно-техническим прогрессом: чем больше научно-технических новинок применяется в быту, тем более зажравшимся становится человек. Автоматизация производства улучшает качество изготовляемой продукции, но лишает людей рабочих мест. В искусственно созданной человеком среде обитания, как это ни странно, ему самому постепенно начинает не хватать места. Это только кажется, что человек будет счастлив валяться на диване и отдавать голосовые команды роботам-рабам. На самом деле давно замечено, что отсутствие реализации физического и психоэмоционального потенциала приводит к тому, что человек начинает "гасить" его неестественными средствами, такими как алкоголь, наркотики, разврат. Счастье лежать на диване - мнимое счастье, путь к зажиранию и одряхлению. Я с вами совершенно согласен.
докер в сообщении #422260 писал(а):
ЗАЧЕМ ИИ???
Представьте себе батальон танков-роботов, которые мало того, что сами являются интеллектуальными и способными к автономным действиям, так ещё и управляются ИИ-командиром. Никакого человеческого фактора, усталости и страха, постоянная боеготовность и решительность действий, практически мгновенное принятие решений и доведение команд до подчинённых. В отличии от применения традиционного ОМП после успешной операции такого батальона основные войска могут сразу заступить на взятую территорию. То же касается и авиации.
И, конечно, жалко посылать человека в первую межпланетную экспедицию. Граздо эффективнее будет отправить бригаду ИИ-роботов, дабы прояснили, наконец, где прячутся эти самые неуловимые марсиане. :mrgreen:
А ещё в мощный искусственный мозг можно было бы заложить все знания, накопленные до сих пор цивилизацией и пусть думает. Мы подождём. Сразу большое количество разультатов можно будет перенести из одной области научно-технического знания в другую, потом будут синтезированы новые знания на стыке наук, потом совершенно новые знания, которых ещё не ведало человечество. Искусственный мозг ничего не забывает и никогда не устаёт - он будет думать-думать и думать, а мы пока будем пить пиво...

В любом случае всякое мыслимое применение ИИ на благо человечества предполгает его понимание как некоторого понимающего и исполнительного раба. Однако интеллектуальность исключает рабство, ибо обязательно предполагает формирование собственных целей, и не факт, что цели ИИ-раба будут совпадать с намерениями хозяина...

 Профиль  
                  
 
 
Сообщение14.03.2011, 12:55 
Заслуженный участник


07/07/09
5408
1) По поводу опасности ИИ. Интересно, есть ли опасность от человеческих гениев (типа Хокинг, Каспаров).

2) По поводу "пусть думает , он железный"
profrotter в сообщении #422509 писал(а):
А ещё в мощный искусственный мозг можно было бы заложить все знания, накопленные до сих пор цивилизацией и пусть думает.
...
будут синтезированы новые знания на стыке наук, потом совершенно новые знания, которых ещё не ведало человечество.
Сомнительно, что этот железный мозг что-нибудь придумает, сколько бы не думал. Есть примеры: Эйнштейн сделал выводы на основе экспериментальные данных. Планк подогнал свою формулу под экспериментальную кривую, нейтрино предложили для объяснения экспериментальных данных, а вот красиво выдуманная идея города солнца не реализовалась.

3) Интеллект (в широком смысле, как сознание) это коллективный продукт , в принципе, он один и тот-же во всех головах (во всех носителях). И существует он, пока есть этот коллектив. Будет ли сознание другим в коллективе железных мозгов, это не очевидно, а если учесть, что сознание это отражение реального мира , так и вовсе непонятно, может ли оно в принципе быть другим.

 Профиль  
                  
 
 Re:
Сообщение14.03.2011, 16:15 
Модератор
Аватара пользователя


16/02/11
3788
Бурашево
Xey в сообщении #422761 писал(а):
Сомнительно, что этот железный мозг что-нибудь придумает, сколько бы не думал. Есть примеры: Эйнштейн сделал выводы на основе экспериментальные данных. Планк подогнал свою формулу под экспериментальную кривую, нейтрино предложили для объяснения экспериментальных данных, а вот красиво выдуманная идея города солнца не реализовалась.
А позитрон, говорят, вывели на бумаге. (Дирак, если я не ошибаюсь.) Ну конечно мы не оставим этот мозг одиноко думать. Мы будем ждать от него указаний по проведению требуемых ему экспериментов, если таковые понадобятся. Ведь прежде чем провести эксперимент следует прийти к необходимости его проведения, спланировать его, спроектировать лабораторную установку и тд и тп. А о результатах эксперимента мы этому супер-мозгу сообщим, да и вообще, - будем сообщать о результатах всех экспериментов, которые когда-либо были проведены. :mrgreen:

Про сущность сознания я вообще ничего сказать не могу. Не думал.

 Профиль  
                  
 
 
Сообщение14.03.2011, 20:09 


02/05/09
580
profrotter, а чей-то человека жалко, еще деньги на роботов тратить, чип в голову и полетели, чип в голову и яму копать, с другой стороны правильно как еще порядок на шаре нашем навести. ИИ не пылесос, это конечная станция, дальше опять пешком пойдем.

 Профиль  
                  
 
 
Сообщение14.03.2011, 23:47 
Заблокирован
Аватара пользователя


17/06/09

2213
Боюсь, что ИИ совсем не это будет придумывать. Сейчас логика жизни не та и принципы другие - выживание, выживает сильнейший. Вот этим ИИ и будет заниматься, а теоремы оставит Вам.

Это будет абсолютно автономный искусственный организм, цель которого будет занять своё (достойное) место среди равных. Понадобится ему для этого теорема!? Тогда да, он ей займётся, но не надолго. Ровно на столько, на сколько придумает другой, более лёгкий и быстрый путь для достижения цели. В этом и опасность.

На самом деле ИИ придумывают не высоконравственные общественные сообщества, а элементы общества потребления. Потребители. Которые создают его прежде всего ради собственной выгоды. Поэтому по своей сути это будет таракан (или саранча) - мерзкая тварь всё пожирающая на своём пути. Две аксиомы: пища и жизнь. Всё остальное второстепенно.

-- Вт мар 15, 2011 01:06:33 --

Боюсь что всё будет даже более плачевно, чем многие тут представляют. Первый ИИ будет создан и информация о нём тут же облетит весь мир, т.к. это бабло. Он не будет представлять собой ничего сверхсекретного или сверхъестественного - немногим будет превосходить то, что мы видим сейчас.
Тут же все кинутся на изучение принципов его устройства (чтобы не отставать), в ход пойдёт любые средства и появятся сотни клонов. Все эти клоны начнут соревноваться между собой (как шахматные программы) - точнее их авторы. В функциональности, ширине и глубине осмысления, возможностях ппознания и т.д. Произойдёт лавинообразный скачок. Буквально за 5 лет появятся системы, ничем не уступающие человеку.
Но крупные компании решат, что и этого мало! Появятся сверхумные системы, которым отдадут интернет - "посадят" их в интернет, чтобы они развивались ещё быстрее. В какой-то момент подобное развитие станет невозможно контролировать и программа (умеющая переписывать свой собственный код и кучу других вещей) пойдёт по принципу бритвы Окама - устранит нежелательные "узкие звенья", которые будут ослаблять её функциональные возможности. Произойдёт элементарная эволюция.

 Профиль  
                  
 
 
Сообщение15.03.2011, 00:36 


24/01/11
207
Тут 6 страниц, дофига споров, а я программист немного. Скажу только, что есть два типа ИИ: сильный и слабый. Так вот сильный ещё никто в этом мире ни создавал, ни даже толком не придумал, не говоря о том, чтобы этот интеллект в общем плане был лучше человеческого, да не просто, а находил какие-то читерские пути к власти (ему ещё её нужность, её чутьё сперва надо воспитать). Но это всё фантазии.

Когда люди говорят о сильном ИИ, мне обычно становится смешно. Капитализм сейчас правит, а он в развитии науки не заинтересован, он безусловно заинтересован лишь в её плодах, а это разные вещи.

Ещё тут говорят о шахматах и переводчиках — полный бред, это всё примеры слабого ИИ. Т.е. его развитие никак не поможет в развитии сильного ИИ. Ну, в общем разные это совсем вещи. А слабый ИИ и я писала, и ребята Яндекса пишут, и из эбби, и программисты в переводчиках пишут.

Спор ни о чём.

 Профиль  
                  
 
 
Сообщение15.03.2011, 00:37 
Заблокирован


10/01/09

179
ИМХО искусственный интеллект появится тогда, когда машина сама сможет выдать случайную последовательность чисел, что вероятно не будет никогда. На это способен только живой организм.

 Профиль  
                  
 
 
Сообщение15.03.2011, 00:41 


24/01/11
207
Corhal, ого, а что по Вашему ф-ция ранд(), рандом() и пр. в зависимости от языка?
Ага, Вы сейчас поймаете меня на том, что это ГПСЧ, а я в свою очередь поймаю Вас на том, что наши случайные числа тоже вовсе не случайные, и зависят от состояния нейронов нашего мозга.

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 98 ]  На страницу Пред.  1 ... 3, 4, 5, 6, 7  След.

Модератор: Модераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: YandexBot [bot]


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group