2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1, 2, 3, 4, 5 ... 7  След.
 
 Re: Опасность ИИ
Сообщение23.06.2010, 21:33 
Заслуженный участник


13/12/05
4604
Padawan в сообщении #334246 писал(а):
Моя оценка -- 75 % к 2020 году, 100 % к 2030 сверхчеловеческий ИИ будет создан.

Справедливости ради, надо отметить, что и 50 лет назад были такие же прогнозы "Через 20 лет машины будут способны выполнять ту же работу, что и любой человек"

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 21:55 
Заблокирован


17/02/10

493
То что сделают это очевидно. Пробный камень уже взят. Чемпион мира по шахматам
проиграл машине. Обычный расчет с дикой скоростью оказался сьльней ассоциативного мышления. (Для некоторых. Я помню первый матч ЭВМ-Спасский, проведенный комсомолкой в 70х. В те времена говорили что машина в итоге обыграет. Не ошиблись) Теперь немного изменить алгоритм. Первые шаги уже сделаны нейронные сети опробованы. Только не говорите, что вы понимаете как они работают. Просто работают. Далее поэкспериментируют. Это мы знаем как. Попробуем так, а теперь иначе. И т.д. Когда нибудь получится. И эта полупроводниковая железка
начнет вести себя. (Это из АБС Далекая радуга). И первые ее действия такие же как у нас: надо развиваться,т.е. саморганизовываться. Как она это сделает нам не дано знать. Конечно не Создатель, но все же ИИ гораздо выше нашего. Но как только это она сделает, мы будем уже не нужны на этом шарике. Остальной живой мир-да.(Для него так называемая цивилизация лишняя головная боль). А мы -нет. Далее обычная борьба видов.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 22:50 
Заблокирован


17/06/10

105
Мы можем создать машину, мыслящую как человек, но будет ли она являться личностью?Души у нее нет, только функциональное сознание

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 23:40 
Заслуженный участник
Аватара пользователя


03/06/09
1497
Дайка-сь пофлудю немного...

Ranax в сообщении #334352 писал(а):
Души у нее нет, только функциональное сознание

А у нас эта "душа" есть? Что такое человеческий мозг? Кучка соединённых друг с другом определённым образом нейронов, взаимодействующих посредством электрических сигналов. Процесс взаимодействия глубоко изучен, ничего в нём сверхествественного нет -- обычная физика и химия.

А если мы создадим его искуственный аналог? Те же самые нейроны, те же связи, те же сигналы взаимодействия между нейронами. В чём принципиально будет отличие? Да ни в чём! И почему это не назвать жизнью? Только потому, что эта "жизнь" будет кремниевая, а не углеродная? По-моему так думать слишком высокомерно. Если в кучке нейронов в нашей голове возникло "сознание", то почему бы ему не возникнуть в другой, искуственной кучке?

Тут только одна загвостка: в настоящее время создать компьютер с уровнем "интеллекта" сравнимый даже с мозгом собаки нереально. И, возможно, мы никогда такого уровня не достигнем. У природы миллионы (даже миллиарды) лет ушло на это, а мы хотим за один век её повторить.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 23:51 
Заблокирован


17/06/10

105
Вы снова грубо ошибаетесь, товарищ медуза, сознание человека имеет нематериальную составляющую

(Оффтоп)

не буду Вам это доказывать
, которая проявляется через проводник, априори головной мозг ! Я не отвергаю попыток создать искусственный разум, но будет ли это жизнь?Нет, лишь сложное движение атомов в пространстве :roll:

 !  Prorab:
Замечание за искажение ников. На этом форуме принято прописывать ники в точности так, как они есть; транслит также приравнивается к искажению.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение23.06.2010, 23:54 
Заслуженный участник


04/05/09
4587
Ranax в сообщении #334386 писал(а):
не буду Вам это доказывать
Разумно. ;-)

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение24.06.2010, 06:37 


24/05/09

2054
Почему бы не начать с простого - не запрограммировать простейшую одноклеточную бактерию, чтобы она жила на экране компьютера.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение24.06.2010, 11:12 
Аватара пользователя


03/03/10
1341
Давайте, у нас же есть программисты на форуме. Начнём с выбора языка, я за C#, но можно ещё VB.
Вопрос в том, что эта бактерия должна делать.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение24.06.2010, 19:38 
Аватара пользователя


03/03/10
1341
Что? Никто не хочет? Скажите мне что эта бактерия должна делать и я сам попробую.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение24.06.2010, 21:09 
Заблокирован


17/02/10

493
она должна делать то, что она хочет

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение24.06.2010, 22:12 
Аватара пользователя


11/05/10
92
Люберцы
ИИ написать тяжело, так как работу мозга ещё до конца не изучили, да и вообще Биологи знают только какая часть мозга за что отвечает, куда какие нервные импульсы посылаются, но, но.....
До сих пор не понятно что является хранителем информации в мозге....

(Оффтоп)

Это точно не набор синих и красных проводочков :roll:


-- Чт июн 24, 2010 23:14:55 --

Вопросов достаточно много...
Поэтому легче сказать, что мы Божие дети, имеем Душу и характер, темную и светлую сторону :wink:

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение24.06.2010, 22:42 
Заслуженный участник
Аватара пользователя


03/06/09
1497
Me-and-myself в сообщении #334766 писал(а):
До сих пор не понятно что является хранителем информации в мозге...

Понятно (тык, тык, тык, ...). Может и остались какие-то незначительные неизведанные детали, но общий механизм памяти уже известен и изучен.

Чем глубже понимаешь механизмы функциониррования мозга, тем больше осознаёшь, что мы тоже всего лишь компьютеры.

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение24.06.2010, 23:09 
Аватара пользователя


11/05/10
92
Люберцы
meduza
Спасибо Вам за итересные ссылки, написано тяжеловато, но большую часть я понял...(мне так кажется... или нейронам....)
То что Память - есть процесс, притом химический это я читал....
Однако, всё равно многое непонятно, приведу пример: Генетическая память...
Были случаи, когда люди очень точно вспоминали сражения в которых не участвовали, похоже, что в них когда-то бились , их пра- пра-... дедушки, так как событие эмоциональное, оно прописалось куда-то глубже...
И это передовалось из поколения в поколение, причём не везде проявлялось(то есть вспоминалось людьми) а потом бац и выскочило....

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение25.06.2010, 09:08 


17/12/09
22
Беларусь, Гомель
Как я понимаю у ИИ должен быть свой разум, вот мне интересно какая цель будет у так называемой "разумной" машины? Если машина работает на восполняемой энергии, то получается она становится бессмертной, т.е. все действия должны будут направлены на приобретение этой энергии (хотя понятие "смерть" для машины будет непонятна). При совершении любого действия машина логически должна просчитать все возможные последствия (это ведь по большей части машина), т.е. вся "жизнь" машины не более чем шахматная партия (в которой для машины не понятна суть победы), без чувств, без инстинктов, без цели (существовать, что-бы "жить"), без смысла "жизни"...

 Профиль  
                  
 
 Re: Опасность ИИ
Сообщение25.06.2010, 10:53 


22/10/09
404
Alexu007 в сообщении #334415 писал(а):
Почему бы не начать с простого - не запрограммировать простейшую одноклеточную бактерию, чтобы она жила на экране компьютера.
Не запрограммировать очень,очень просто. :-)

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 98 ]  На страницу Пред.  1, 2, 3, 4, 5 ... 7  След.

Модератор: Модераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: Dicson


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group