Конкретно сейчас мы обсуждаем именно производительность труда и то, что она якобы радикально вырастет от ИИ. Не хотите обсуждать - не обсуждайте.
Почему же - хочу. Но вы требуете от меня ссылок на соответствующие исследования, а у меня их нет. Погуглить, конечно, можно, но вот как раз подобные экономические выкладки меня интересуют меньше. Лично мне куда интереснее то, на что эти выкладки будут опираться - прогнозы ИИ-специалистов относительно сроков появления AGI. Из появления которого я автоматически делаю вывод, что рабочую силу станет возможным масштабировать в очень больших объемах и с очень высоким качеством. Что, в свою очередь, в моем понимании означает многократный рост производительности - теоретически человек сможет заменить себя ИИ-агентом, который будет работать 24/7, причем намного быстрее. Практически эти агенты будут поднимать производительность людей лишь до наступления эпохи AGI - с ее наступлением нужда в людях просто отпадет, и понятие "рост производительности труда" потеряет смысл за отсутствием этого самого труда.
Таких исследований скорее всего нет, как и исследований возможного вымирания демократии по причине появления в будущем такой опции как
Интеграл тоталитарное правление ASI. Потому что в исследователя будут тыкать пальцем и называть фантазером - несолидно-с... Вот насчитать аж 0.55% рост производительности за 10 лет, в течение которых глупенькое человечество пользуется ИИ апреля 2024 года - вот это другое дело, серьезный научный труд...
Если это шутка, то крайне неудачная. Таких исследований вагон и маленькая тележка. И нет, рост производительности труда оказался не таким грандиозным, как он как раз представлялся в первой половине 20 века: я просто напомню, что после перехода на 8-часовой рабочий день делались активно оценки, что научно-технический прогресс позволит через несколько десятилетий перейти сперва к 6, а потом и 4-часовому рабочему дню. Прошло 100 лет: ну как, перешли?
Нет - по причине вымирания множества профессий. Если сто лет назад расчеты какой-нибудь сложной баллистики, например, целый месяц делал большой штат людей-компьютеров, то сейчас с этим справится один человек за несколько минут. Именно поэтому и не растет, как ожидали, производительность труда - людей-компьютеров просто перевели на другую работу. В противном случае они в первый же рабочий день продемонстрировали бы 1000-кратный рост производительности труда и простаивали оставшееся время.
А это просто неправда - статистически значимого роста темпов производительности труда в мировых масштабах нет и в последние несколько лет ничего не изменилось. Продолжается тенденция всех последний десятилетий, что темпы роста производительности труда постепенно падают, в развитых странах сильнее падают, а в развивающихся медленнее из-за догоняющего экономического роста (но по мере подтягивания к уровню развитых стран темпы производительности труда у них становятся такими же, как у развитых стран), LLM здесь ничего в глобальном масштабе не поменяли. Сейчас Вы пытаетесь выдумывать факты, которых нет, хотя это прямо противоречит статистике МОТ и Всемирного Банка.
А при чем здесь общий рост темпов производительности труда, да еще и за последние несколько лет? В статье Аджемоглу делается прогноз на ближайшие 10 лет по росту производительности от использования ИИ, и у него получилось 0.55%. Тогда как согласно процитированному мною выше исследованию только за со времени появления ChatGPT этот рост оценивается в 1.3%. "Выдумываю" я другое - то, что вряд ли является предметом научных исследований и исходит из пока еще гипотетического допущения появления человекоподобного ИИ в ближайшие 5-20 лет.
Кстати, одна из причин снижения темпов роста производительности труда именно в том и состоит, что практическая отдача от научно-технического прогресса начинает падать - легко достижимые научные открытия и инновации уже сделаны, а последующие требуют все больших вложений со всё меньшей отдачей. Или Вы думали, что мы живем в сказке и стремительный взлет всего, чего только можно, из-за модернизационных процессов будет протекать так вечно? Не будет.
Повторюсь - в моем понимании производительность труда не растет достаточно быстро по причине отмирания прежних профессий и ужесточения требований к существующим. Это как дети в школе - продолжают учиться на двойки и тройки, но их программа при этом намного сложнее, чем, например, в школе, описанной Диккенсом в романе про Николаса Никлби. А формально да, успеваемость не растет...
Аджемоглу исходит из того, что для принесения практической пользы для роста производительности труда, для LLM нужно создать обширную инфраструктуру. Если Вы пытаетесь спорить с Аджемоглу, то Вы, видимо, нам решили написать из параллельной вселенной, где для расширения работы LLM не нужно создавать гигаватты дополнительных мощностей электроэнергетики (есть уже оценки, что потребуется дополнительные мощности на 5-10 гигаватт). И заметьте, я говорю про реальные темпы роста производительности труда, которые можно подтвердить не фантазиями очередного Илона Маска, а реальными статистическими данными, собираемыми национальными и международными статистическими ведомствами, пусть и со всеми их методологическими недостатками.
Нет, я не спорю с необходимостью создания инфраструктуры - и прямо об этом говорил вам выше. Я спорю с подходом Аджемоглу, который фактически игнорирует обновление ИИ, или по крайней мере исходит из наиболее консервативных оценок развития ИИ. Такое впечатление, что он исходит из того, что следующие 10 лет человечество будет работать с ChatGPT апреля 2024 года - при том, что даже в рамках имеющейся уже инфраструктуры пока еще нет проблем с переходом на все более новые и умные модели ИИ. Конечно, эти проблемы возникнут - по мере способности ИИ думать все больше и больше, увеличения размеров моделей, роста пользовательских нагрузок и т.д. Но едва ли Аджемоглу в апреле 2024 года имел хотя бы малейшее представление о нынешних масштабах инвестиций в ИИ - только на уровне OpenAI речь идет о дата-центрах на 30 ГВт и $1.4 трлн в течение нескольких следующих лет.
Потому что Аджемоглу в отличие от Вас опирается на статистические данные и суровую реальность, где для работы LLM нужна энергетическая инфраструктура. К сожалению, пока LLM не научились получать энергию для себя из сферического вакуума или от единорогов с ближайшей радуги.
И в этом заключается ошибка как Аджемоглу, так и любых подобных экспертов - они мыслят линейно и шаблонно, проецируя на будущее современную им статистику. Хотите знать будущее - спрашивайте у ребенка, чья фантазия не знает границ. Который пока не достаточно образован, чтобы знать, что в физике уже почти все открыто, что управляемая ядерная энергия - ерунда, что многомировая интерпретация квантовой механики - бред, и т.д. Нравится вам или нет, но Аджемоглу в апреле 2024 года не имел ни малейшего представления о масштабах нынешних инвестиций в инфраструктуру ИИ.
Только утверждали Вы совсем не это, а вот это:
Это разные утверждения, не так ли?
Да, разные - первое относится к вашему "смешная шутка, юмористичность коей понятна даже мне с моими минимальными техническими знаниями в этой области". Возможно я вас неверно понял - в таком случае прошу извинить. Оставаясь при своем мнении (опровержения которого так и не увидел):
Илон Маск и Сэм Альтман - самые компетентные в мире люди в этих вопросах (наряду с Демисом Хассабисом и другим супер-оптимистом, Дарио Амодеем). Их талант руководителей не только в том, чтобы подбирать лучшие кадры в мире, но и слушать их - тогда кому как не им знать перспективы этой технологии.
Тогда что тут предлагается обсуждать? Общие слова без конкретных данных и моделей?
Фактически - да. Потому что общие слова ведущих мировых ИИ-специалистов о сроках появления AGI я считаю намного полезнее и интереснее расчетов экономистов, которые на 10 лет вперед проецируют убогие, по нынешним меркам, возможности чат-ботов своего времени.
Кстати, про Альтмана. Вспоминаем форумную историю:
А глава самой успешной ИИ компании в мире, Сэм Альтман, обещает AGI аж в этом году
Еще конечно не 31 декабря, но как там с появлением AGI в этом году и самым компетентным в мире Альтманом?
В очередной раз вынужден повторить сказанное изначально:
Другой вопрос, что они могут быть не всегда искренними - Маск может озвучивать свои фантастические прогнозы для давления на своих подчиненных ("Я уже обещал - не подведите!"), а Альтман и Амодей - для изыскания инвестиций.
Самое забавное, что в будущем годом создания AGI вполне могут назвать и 2025. И не потому, что в этом году он, например, появился в секретной лаборатории OpenAI - просто редко когда воможно назвать дату рождения той или иной технологии. Только потом, когда она уже достигла зрелости, в ретроспективе оцениваются ключевые изобретения на пути к ней, и провозглашается условная дата. Вроде 1969 (ARPANET) или 1983 (TCP/IP) в качестве года рождения Интернета.
-- 22.11.2025, 23:13 --А что-то опубликованное в рецензируемом журнале есть?
Я не то чтобы сильно уверен в том, чего следует ожидать в смысле продуктивности. Но вопрос нетривиальный, и хочется смотреть на слова специалистов в контексте, где эти специалисты за свои слова отвечают. В частности, чтобы кто-то сказал, как новые результаты согласуются со старыми - если плохо, то где в старых ошибка.
Надо искать. Я даже близко не представляю, как делаются подобные оценки - с учетом вездесущности ИИ (это ведь далеко не только ChatGPT). Еще непонятнее оценка будущей производительности от ИИ, динамику развития которого можно оценивать по-разному.
На глаз оценил.
Какие-то странные у вас глаза...
Контекст - посты в твиттере это нестрогое обсуждение, статьи в журналах - строгое. Оптимистичные оценки в основном в твиттере и интервью, где человек может нести что угодно, не особо рискуя профессиональной репутацией.
Я об этом говорил выше: ученые мужи просто опасаются делать серьезные исследования, основанные на подобных допущениях - сразу уличат в несолидности... Но здесь даже статье взяться неоткуда - это вопрос интуиции. Которая меняется буквально на глазах - еще совсем недавно Демис Хассабис и Ян Лекун придерживались более консервативных оценок. Есть даже исследования с опросами сотен ИИ-специалистов, по которым видно как регулярно сокращается их средний прогнозный срок появления AGI.
А слушать надо "ИИ специалистов". Надо слушать не самых компетентных людей? Или Маск и Альтман таки являются "ИИ специалистами"? Я поэтому Вас и попросил определение.
(не надо тут смешивать Маска и Хассабиса; у Хассабиса есть конкретные личные достижения в этой области)
Слушать надо и тех, и других. ИИ-специалисты - это, например, "крестные отцы" ИИ - Джеффри Хинтон (5-20 лет), Ян Лекун (5-10 лет). Они скорее всего более искренние, но менее осведомленные о текущем РЕАЛЬНОМ состоянии дел в этой области. Руководители ИИ-компаний - наоборот. Если судить по открытым научным публикациям, то голова кругом идет - ежемесячно выходят несколько статей с потенциально прорывными идеями (чего одно только Nested Learning стоит - а вышла всего пару недель назад). Но только в корпорациях, способных развернуть обучение и инференс огромных моделей, реализующих эти идеи, могут по-настоящему оценить их потенциал.
Этот этап не такой длинный. Никто не будет по году держать в секрете модель, сильно лучшую конкурентов.
Да, безусловно. Но запустить в эксплуатацию новую модель не всегда возможно, по чисто техническим причинам - не хватает инфраструктуры, она расширяется медленнее. Тот же Альтман открыто говорил, что в OpenAI есть более умные модели, но их не могут развернуть для публичного инференса. Это не отменяет релиз условной GPT-6 в следующем году, но возможно задерживает его на несколько месяцев.
Кроме того, нельзя исключать изменения в отношении руководства ИИ-компаний к релизу более умных моделей. С одной стороны, эти компании заинтересованы в наращивании числа пользователей. Но с другой, по мере приближения к AGI, возможно им выгоднее предоставлять доступ только бизнесу - по подписке, эквивалентной стоимости рабочей силы. Я уже не говорю о научных открытиях - с коммерческой точки зрения лучше запатентовать их самим, чем предоставить такую возможность всем желающим.