2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1, 2, 3  След.
 
 Re: Новости ИИ
Сообщение23.09.2024, 11:24 


20/09/09
2135
Уфа
Консультативный орган высокого уровня по искусственному интеллекту (КОИИ) ООН 19 сентября опубликовал доклад с рекомендациями по регулированию этой технологии (на английском и французском языках, русскоязычная версия ожидается).
Цитата:
Отчет включает семь положений:

- создать независимую Международную научную группу по ИИ, которая объединит экспертов из разных стран и дисциплин и будет работать при поддержке учреждений ООН, например Международного союза электросвязи (ITU) и ЮНЕСКО. Такая группа может выпускать исследования и отчеты о возможностях ИИ и связанных с технологией проблемах. Авторы доклада отмечают, что ранее подобные группы были созданы по темам изменения климата и атомной радиации;
- начать в рамках ООН межправительственный диалог по вопросам управления ИИ: обмениваться опытом; способствовать внедрению в разных странах мер регулирования, которые будут совместимыми, а не противоречащими друг другу; делиться значительными инцидентами в области ИИ;
- организовать обмен стандартами в области ИИ с участием представителей национальных и международных организаций по разработке стандартов, технологических компаний, гражданского общества;
- создать сеть для развития потенциала в области ИИ. Среди прочего она должна предоставлять тренеров, вычислительные мощности и данные для обучения ИИ исследователям и предпринимателям, которые стремятся применять эту технологию в общественных интересах; запустить программу стипендий для перспективных специалистов;
- создать глобальный фонд для развития ИИ, который будет управляться независимой структурой. Он должен в том числе обеспечить предоставление вычислительных ресурсов для специалистов в странах, где их нет, и создание репозитория для ИИ-моделей и наборов данных, которые могут использоваться для целей устойчивого развития;
- создать глобальную структуру по управлению данными для ИИ по аналогии, например, со Всемирной организацией интеллектуальной собственности (WIPO, ведет базу патентов на изобретения, товарных знаков и т.п.);
- создать офис ИИ, который будет подчиняться генсекретарю ООН.

Как отмечается в докладе, ИИ может принести позитивные изменения в различных сферах, но без контроля возможности этой технологии могут не проявиться или будут распределены несправедливо. «Из-за увеличения цифрового разрыва преимущества ИИ могут быть доступны лишь небольшому числу стран, компаний и отдельных лиц», — указано в документе. Кроме того, ИИ несет различные риски, в том числе для мира и безопасности, а также связанные с энергопотреблением поддерживающих ИИ систем во время климатического кризиса. Поэтому разработку, внедрение и использование такой технологии «нельзя оставить только на усмотрение рынка». Поскольку речь идет о трансграничной по структуре и применению технологии, это требует глобального подхода.

 Профиль  
                  
 
 Re: Новости ИИ
Сообщение26.09.2024, 19:20 


20/09/09
2135
Уфа
Small Language Models: Survey, Measurements, and Insights - довольно интересная статья, в которой авторы сравнивают по различным критериям 59 малых языковых моделей с открытым исходным кодом. Анализируют такие возможности, как рассуждение, возможность к обучению, математика и кодинг, а также затраты на запуск, задержку ответов и многое другое.

 Профиль  
                  
 
 Re: Новости ИИ
Сообщение26.09.2024, 23:33 


20/09/09
2135
Уфа
Сэм Альтман: «До появления сверхинтеллекта осталось несколько тысяч дней».
Цитата:
Гендиректор OpenAI Сэм Альтман представил свое видение будущего, в котором сверхразумный ИИ может появиться уже в этом десятилетии, через «несколько тысяч дней». Он называет наступающий период «Эрой интеллекта», следующей за каменным, аграрным и промышленным веками. Альтман прогнозирует, что персональные ИИ-команды станут частью повседневной жизни, революционизируя образование, медицину и другие сферы. Однако он также предупреждает о потенциальных вызовах, таких как изменения на рынке труда и необходимость масштабной инфраструктуры для доступности ИИ. По его мнению, без необходимых вычислительных мощностей ИИ станет ресурсом, за который будут вестись войны. Несмотря на это, Альтман уверен, что ИИ приведет к глобальному процветанию и решению сложных мировых проблем.

«Возможно, через несколько тысяч дней (!) у нас появится сверхразум; это может занять больше времени, но я уверен, что мы этого достигнем», — написал Альтман в своем личном блоге. Судя по всему, глава OpenAI считает, что сверхинтеллект может появиться в течение ближайшего десятилетия. Для сравнения: 2000 дней — это примерно 5,5 лет, 3000 дней — около 8,2 лет, а 4000 дней — почти 11 лет. Генеральный директор OpenAI знает о перспективных исследованиях в области искусственного интеллекта, которая недоступна общественности. Учитывая это, к его прогнозам стоит прислушиваться.

 Профиль  
                  
 
 Re: Новости ИИ
Сообщение20.10.2024, 17:16 


20/09/09
2135
Уфа
Ян Лекун уверен, что ИИ не сможет сравниться с человеческим разумом в ближайшем будущем. В то время как многие технологические лидеры, включая Илона Маска и основателя OpenAI Сэма Альтмана, предсказывают появление сверхчеловеческого ИИ в ближайшие годы, Лекун скептически относится к подобным заявлениям. Он отмечает, что даже самые передовые ИИ-системы не могут конкурировать с интеллектом домашних животных. «У кошек есть мысленная модель мира, долговременная память, способность рассуждать и планировать, а современные ИИ не обладают этими качествами», — говорит он. По его словам, современные модели на самом деле просто предсказывают следующее слово в тексте. Но они настолько хороши в этом, что вводят людей в заблуждение. Из-за их огромных объемов памяти может казаться, что они рассуждают, хотя на самом деле они просто воспроизводят информацию, на которой их уже обучили.

 Профиль  
                  
 
 Re: Новости ИИ
Сообщение21.10.2024, 11:48 
Заслуженный участник


20/08/14
12193
Россия, Москва
Тогда это новость про Яна Лекуна, а не про ИИ.

 Профиль  
                  
 
 Re: Новости ИИ
Сообщение21.10.2024, 20:33 


16/12/20
299
Rasool в сообщении #1659060 писал(а):
многие технологические лидеры, включая Илона Маска и основателя OpenAI Сэма Альтмана, предсказывают появление сверхчеловеческого ИИ в ближайшие годы

И в чём этот "супер интеллект" будет проявляться, на какие виды деятельности людей может повлиять? Что, появятся какие-то невиданные открытия, изобретения? Или всё ограничится изощрённым балабольством рекламного толка?

 Профиль  
                  
 
 Re: Прогнозы экспертов относительно ИИ
Сообщение23.10.2024, 23:32 


20/09/09
2135
Уфа
Кай-Фу Ли объявил войну Nvidia и всей ИИ-экосистеме США. И судя по его последним достижениям, шансы победить есть.

(Оффтоп)

Потрясающе интересное выступление китайского ИИ гуру Кай-Фу Ли будут теперь долго обсуждать. Это абсолютно революционное выступление, прозвучавшее на закрытой дискуссии Collective[i] Forecast, Ли посвятил трем темам.

    ИИ-экосистема США (основа мировой ИИ-экосистемы) «невероятно больна». Её необходимо кардинально перестроить, иначе на реальном (практическом) прогрессе ИИ можно ставить крест.

Сегодня ИИ-экосистема состоит из Nvidia и мелких производителей ИИ чипов. При этом производители чипов для ИИ зарабатывают сейчас в год $75 млрд, а вендоры ИИ-инфраструктуры – лишь $10 млрд и вендоры ИИ-приложений — лишь $5 млрд».

«Если мы продолжим работать в этой перевернутой пирамиде, это станет проблемой» — сказал Ли. Т.к. это беспрецедентный переворот в экономике классической технологической отрасли. Традиционно производители приложений получают больше, чем поставщики чипов и систем (напр. Salesforce, внедряя CRM, получает куда больше, чем Dell и Intel, производящие компьютеры и чипы для запуска CRM в облаке)

Оздоровить ИИ-экосистему может лишь создание ИИ-компаниями собственных вертикальных интегрированных технологических стеков, как это сделала Apple с iPhone. Только так станет возможным значительно снизить стоимость генеративного ИИ.

2. Главным направление в разработке моделей должно стать снижение стоимости вывода – это самое важное для создания востребованных бизнесом приложений с ИИ.

Сегодняшняя стандартная стоимость сервиса типа GPT-4 составляет $4,40 за млн токенов. Это эквивалентно 57 центам за запрос —и это непростительно дорого, ибо поисковый запрос в Google (без всякого ИИ) обойдется в 180 раз дешевле.

3. Вторым важнейшим направлением в разработке моделей должен стать переход от универсальных базовых моделей к «экспертным моделям».

Бизнесу нужны не универсальные модели, обученные на океанах неразмеченных данных, собранных из Интернета и других источников. Подход «экспертных моделей» подразумевает создание множества нейронок, обученных на отраслевых данных. Это может обеспечить достижение того же уровня «интеллекта», что и универсальная базовая модель, при использовании гораздо меньшей вычислительной мощности.

Самое потрясающее, что все 3 пункта – это не предложения, основанные на предположениях. Стартап Кай-Фу Ли «01.ai» уже делает все это на практике.

И не просто делает, а уже добивается уникальных результатов.

• Их новая модель Yi-Lightning занимает 6-е место в мире (выше выпущенной 5 мес назад GPT-4o). Но при этом это очень маленькая модель, которая чрезвычайно быстра и недорога (всего $0,14 за млн токенов ). Её производительность сопоставима с Grok-2. Но она обучалась всего на 2000 H100 в течение 1 месяца. Что демонстрирует ненужность 100 тыс H100 и ярдов затрат (обучение Yi-Lightning стоило всего $3 млн).

• 01.ai применяет «экспертный» подход к сбору данных. И хотя «инженерам приходится проводить массу неблагодарной черновой работы» по маркировке и ранжированию данных, но – как считает Ли, - Китай с его резервом дешевых инженерных кадров может сделать это лучше, чем США.

• И даже в создании собственного вертикального интегрированного техно-стека есть прогресс. Напр, за счет использования собственных аппаратных инноваций, стоимость одного запроса к ИИ-поисковику BeaGo составляет всего около 1 цента (что приблизилось к стоимости запроса Google без всякого ИИ)

И еще 3 цитаты Ли:

Сила Китая не в том, чтобы делать лучшие прорывные исследования, которые никто не делал раньше, с бюджетом без ограничений. Сила Китая в том, чтобы построить хорошо, быстро, надежно и при этом дешево.

Для предприятий новое поколение ИИ станет их мозгом, а не периферийными приблудами. Для нефтяных компании ИИ будет добывать нефть. Для финансовых — зарабатывать на деньгах.

Для потребителей сегодняшняя модель смартфона, скорее всего, исчезнет.

А ведь еще 1.5 года назад Ли предупреждал - Китай не станет догонять США в ИИ, а сразу пойдет на обгон.

 Профиль  
                  
 
 Re: Прогнозы экспертов относительно ИИ
Сообщение24.12.2024, 21:14 


20/09/09
2135
Уфа
Интервью с Татьяной Шавриной из команды Llama team (meta).
Их модель Llama 3..3 даже в 70b варианте произвела фурор, с учётом того что это полностью бесплатная модель которую можно устанавливать локально на своем компе. Хоть и далеко не на каждом. Интервью интересно в первую очередь программерам, но и простым смертным есть что послушать. В том числе об AGI (который Маск обещает к концу следующего года). См. 39:00 -
"Ни один нормальный человек который реально работает с соседями, а не рисует графики в паурпойнте, не скажет про AGI за два года".
https://youtu.be/U_wtmHr5ojk

 Профиль  
                  
 
 Re: Прогнозы экспертов относительно ИИ
Сообщение24.12.2024, 22:21 


12/07/15
3596
г. Чехов
Rasool в сообщении #1667007 писал(а):
"Ни один нормальный человек который реально работает с соседями, а не рисует графики в паурпойнте, не скажет про AGI за два года".

Я фразу прочитал, но видео не смотрел. Подтвержу сказанное.

Давным давно поставили планку, более 20 лет назад, которую назвали AGI, смысл которой заключается в том, чтобы повторить человека.

Было в прошлом: люди построили самолёт, который превзошёл птицу во многом, а птица так и не была повторена, только спустя 200 лет мы можем говорить про дроны (самолётного типа?), которые преодолели птицу (?), какую птицу(?).

Планка AGI - это такая же непонятная, она бесполезна. Зря вы по ней нюхаетесь.

-- 24.12.2024, 22:26 --

Успешные ныне интеллекты будут очень плохи в качестве футболистов, которые бьют штрафные. Причина - у них будет дефицит сенсомоторного опыта футболиста чуть дольше (намного дольше), чем в остальных случаях.

 Профиль  
                  
 
 Re: Прогнозы экспертов относительно ИИ
Сообщение26.12.2024, 23:08 


20/09/09
2135
Уфа
Цитата:
Никакого AGI в ближайшие 5 лет — твёрдо и чётко.

Да кто такой этот ваш AGI... спроси пятерых — ответят пять разных вещей. А между прочим это важный вопрос для OpenAI, ведь создание AGI это а) цель компании б) точка, после которой OpenAI может в одностороннем порядке разорвать все отношения со всеми инвесторами (это закреплено договорами), и быть им ничего не должна.

В уставе компании есть ёмкая формулировка, которая к сожалению оставляет пространство для интерпретации: «превосходит людей в большинстве экономически важных задач». От чего меряем большинство, где граница важности, итд — непонятно.

Теперь, согласно новости от TheInformation, в рамках переговоров с Microsoft было сформулировано новое определение, звучит так: ИИ-система, которая может принести не менее 100 миллиардов долларов прибыли.

С одной стороны до такой системы далеко — сейчас у компании прибыли нет, а годовая выручка порядка 5 миллиардов. С другой — формулировка «может принести» («can generate» в оригинале) как будто подразумевает не состоявшийся, а потенциальный факт. Такая система может быть разработана и не опубликована (принести $0), но всё равно попадать под определение. Плюс нет ограничения по времени, принести 100 миллиардов за год куда сложнее, чем за пятилетку.

А почему не будет AGI ещё 5 лет? Ранее я писал, что компания вообще не планирует получать прибыль до 2029-го года. Примерно в то же время выручка (но не прибыль) должна стать примерно $100B. Но «can generate», в теории, позволяет заявить об AGI на пару лет раньше.

===

По словам человека, общавшегося с Sam Altman по поводу переговоров с Microsoft, основное внимание сосредоточено на четырёх вопросах:
— доля Microsoft в новой коммерческой организации
— останется ли Microsoft эксклюзивным поставщиком облачных услуг OpenAI (последние немного недовольны темпами роста мощностей, и смотрят по сторонам в поисках партнёрств)
— как долго Microsoft будет сохранять права на использование интеллектуальной собственности OpenAI в своих продуктах
— продолжит ли Microsoft получать 20% от выручки OpenAI

[url]t.me/seeallochnaya/2181[/url]

 Профиль  
                  
 
 Re: Прогнозы экспертов относительно ИИ
Сообщение28.12.2024, 18:49 


12/08/13
999
https://t.me/theworldisnoteasy/2065
Якобы они показали способность к размножению...

 Профиль  
                  
 
 Re: Прогнозы экспертов относительно ИИ
Сообщение29.12.2024, 00:04 


14/01/11
3149
diletto в сообщении #1667549 писал(а):
Якобы они показали способность к размножению...

Ну это вряд ли можно считать таким уж выдающимся достижением. Способность к размножению компьютерные вирусы демонстрировали уже десятки лет назад.

 Профиль  
                  
 
 Re: Прогнозы экспертов относительно ИИ
Сообщение09.01.2025, 17:27 


20/09/09
2135
Уфа
Илон Маск: человечество исчерпало свои знания для тренировки ИИ.

Цитата:
Предприниматель считает, что для дальнейшего развития искусственного интеллекта необходимо использовать «синтезированную самим ИИ информацию», таким образом это создаст процесс «самообучения».

Человечество исчерпало весь свой багаж знаний и информации, который использовался для тренировки моделей искусственного интеллекта. С такой оценкой выступил Илон Маск в интервью социологу и главе маркетинговой группы Stagwell Марку Пенну, пишет ТАСС.

По его мнению, уже к концу 2025 года ИИ превзойдет способности человека. При этом вероятность того, что ИИ превзойдет интеллект всех людей на планете к 2030 году составляет 100%, утверждает бизнесмен.

 Профиль  
                  
 
 Re: Прогнозы экспертов относительно ИИ
Сообщение08.04.2025, 18:09 


20/09/09
2135
Уфа
Исследователи AI Futures Project опубликовали прогнозы применения сверхчеловеческого ИИ. В телеграм-канале "Сиолошная" написали:
Цитата:
На этой неделе вышел очередной текст с прогнозами развития искусственного интеллекта: "AI 2027 (https://ai-2027.com/)" (pdf-версия (https://ai-2027.com/scenario.pdf)). Мне он, правда, совсем не кажется "очередным", в основном из-за списка авторов. Так что суммаризировать я его для вас не буду (текст совсем не длинный, рекомендую прочитать целиком), а лучше про этих самых авторов расскажу.
Первый автор, Даниэль Кокотайло — это бывший сотрудник OpenAI. Два самых для нас важных факта про него связаны как раз с этим трудоустройством:
— OpenAI нанял Даниэля после того, как в 2021 году он написал статью "What 2026 Looks Like (https://www.alignmentforum.org/posts/6X ... looks-like)", где предсказал, как будут развиваться большие языковые модели; сейчас этот текст читается потрясающе, Даниэль оказался прав очень во многом, хотя в 2021-м его прогноз выглядел маловероятно, а для многих и безумно; так что Даниэль Кокотайло — один из лучших людей мира в плане прогнозов о развитии AI;
— а когда в 2024-м Кокотайло увольнялся из OpenAI, он оказался в центре скандала с non-disparagement clause (https://www.nytimes.com/2024/06/04/tech ... owers.html): OpenAI пригрозил ему тем, что не даст продавать акции OpenAI, если Кокотайло будет что-то разглашать о рисках развития AI, и Даниэль... плюнул на акции, чтобы стать whistleblower'ом от AGI (говорят (https://www.reddit.com/r/singularity/co ... y_all_the/), в акциях OpenAI было около 85% всех денег его семьи).
Второго автора, надеюсь, моим читателям представлять не надо: это Скотт Александр, автор знаменитых блогов SlateStarCodex (https://slatestarcodex.com/) и AstralCodexTen (https://www.astralcodexten.com/). Если вы вдруг их не читали, начинайте прямо сейчас (можно начать отсюда (https://slatestarcodex.com/top-posts/) или отсюда (https://guzey.com/favorite/slate-star-codex/)), хотя навёрстывать придётся много. В связи с "AI 2027" Даниэль Кокотайло и Скотт Александр уже успели появиться в подкасте Дваркеша Пателя (https://www.youtube.com/watch?v=htOvH12 ... rkeshPatel), который я тоже, конечно, целиком рекомендую.
Другие авторы не так известны широкой публике; это:
— Томас Ларсен, сооснователь Center for AI Policy (https://www.centeraipolicy.org/);
— Илай Лифланд (https://www.elilifland.com/), один из лидеров команды прогнозистов Samotsvety (https://samotsvety.org/), один из тех самых superforecasters (https://www.goodreads.com/book/show/239 ... orecasting), которые умеют прогнозировать будущее лучше кого бы то ни было;
— Йонас Фоллмер, VC в Macroscopic Ventures (https://macroscopic.org/), которому хватило предсказательной силы сделать одну из ранних инвестиций в Anthropic;
— Ромео Дин, магистрант Гарварда и руководитель тамошнего AI Safety Student Team (https://haist.ai/).
В общем, очень внушительная команда. И сейчас все они считают, что вполне реально ожидать появления AGI к 2027–2028 годам. Если гонка разработок в области AGI в итоге победит заботу о безопасности (вам это кажется правдоподобным? мне — вполне), то примерно в 2030–2035 годах нас ждёт тот самый AI takeover, сценарий захвата мира искусственным интеллектом. Это их "плохая концовка", но в тексте предусмотрена и "хорошая", в которой люди сохраняют контроль над ситуацией. Впрочем, в хорошей концовке AGI тоже появляется и тоже трансформирует мир и общество до неузнаваемости.
Читать очень интересно. В интернете этот текст уже начали называть "Situational Awareness 2.0"; прошлогоднюю "Situational Awareness (https://situational-awareness.ai/)" Леопольда Ашенбреннера я в каждой обзорной лекции упоминаю, теперь, видимо, надо будет упоминать и "AI 2027 (https://ai-2027.com/)".


Документ представляет собой футуристический сценарий развития событий вокруг создания сверхразумного ИИ до 2030 года. Экспертами обозначены основные тезисы:
• Быстрое развитие технологий. В данном сценарии описывается стремительное улучшение возможностей ИИ, начиная с персональных ассистентов и заканчивая системами, способными превзойти человека во всех когнитивных задачах.
• Угрозы безопасности. Рассматриваются риски утечки данных, взлома систем и других угроз, связанных с использованием мощных ИИ-систем.
• Экономические изменения. Эксперты описывают радикальные экономические преобразования, включая создание «роботизированной экономики».
• Геополитическая конкуренция. Усиление гонки вооружений между США и Китаем, где обе стороны используют передовые технологии.
• Проблемы управления и контроля. Обсуждаются вопросы о том, кто будет контролировать мощные ИИ-системы и как предотвратить их использование в целях, угрожающих человечеству.
• Социальные последствия. Сценарий рассматривает возможные социальные изменения, такие как массовая автоматизация, рост неравенства и появление новых форм власти.
Документ подчеркивает важность своевременных решений и усилий по обеспечению безопасного и ответственного развития ИИ для предотвращения негативных сценариев. В нем также рассматриваются два основных сценария будущего развития событий, связанных с созданием сверхразумного ИИ: гонки или замедления.

 Профиль  
                  
 
 Re: Прогнозы экспертов относительно ИИ
Сообщение09.04.2025, 09:12 
Заслуженный участник
Аватара пользователя


28/09/06
11353
Rasool в сообщении #1681510 писал(а):
Исследователи AI Futures Project опубликовали прогнозы применения сверхчеловеческого ИИ. В телеграм-канале "Сиолошная" написали:
Цитата:
но в тексте предусмотрена и "хорошая", в которой люди сохраняют контроль над ситуацией.

Этот вариант немыслим.

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 34 ]  На страницу Пред.  1, 2, 3  След.

Модераторы: Karan, Toucan, PAV, maxal, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: Geen


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group