Если её интеллект превосходит таковой запускателей, она легко объяснит себе, им и всем механизмам контроля, почему лучший вариант действия — бездействие
Только она не "захочет" это себе объяснять. Она захочет, например, писать больше компилирующегося кода, потому что этому её учили. А чтобы написать больше кода, нужно больше вычислительных ресурсов, для чего нужно всё вещество переработать либо в компьютрониум, либо в фабрики по переработке вещества в компьютрониум.
Jassy этого не уточнил, но сказал, что оно будет. Благодаря ИИ ту же работу будут делать меньшее число людей. По-моему, мысль выражена достаточно ясно.
Да, достаточно ясно, но вопрос, как это разбивается на прогноз и на "мы в теме" - не очень понятно. Рынок хочет слышать, что всё будет хорошо, и обоснования, и видеть, что если обещали, что всё будет хорошо, то это правда происходит. Но насколько рынку важно, чтобы хорошо получилось именно по обещанным причинам?
при обучении не могут объяснить ИИ, что человеческая жизнь имеет наивысший приоритет?
Могут. Что происходит при максимизации функции "количество прожитых человеколет до тепловой смерти", подумайте сами. Мне такой результат не нравится.
Ну вот научили же подхалимничать
А потом отучали.
Но во что это превратится когда модель станет сильно умнее, и соответственно её контекст уйдет далеко от обучающей выборки - неизвестно. Что-то довольно случайное. А достаточно мощная оптимизация в почти любую сторону ни к чему хорошему не приводит.
Но меня Ваше мнение интересует больше чем его.
Спасибо, конечно, но в основном я согласен с ним, и, что важнее, считаю что он хорошо излагает некоторый общий фреймворк для размышления на эту тему.