И не возникнет, если им эти задачи кто-нибудь не сформулирует.
Вы как-то слишком упрощённо понимаете то, откуда появляются задачи. Они и сами по себе могут в электронных мозгах возникнуть. Очень даже неожиданно для программистов. А Вы думали, что программист на 100% контролирует всё, что будет делать его программа?
Вот взять ту же программу "угадай животное". Как Вы думаете, что произойдёт, если учителя вместо того, чтобы загадывать животных, начнут загадывать минералы? Правильно, программа научится хорошо разбираться в минералах (при этом называя их "животными"). Неожиданный результат для программиста, не так ли? Так и с роботами: Очень непросто предсказать, чему их научит жизнь. А значит и какие задачи они будут перед собой ставить.
Вроде бы ещё ни один биржевой робот не начал самовольно писать стихи.
Так проблема-то в том, что если он начнёт писать стихи, то Вы в следующий раз скажете: "Ещё ни один биржевой робот не разработал квантовой теории гравитации". Или ещё что-нибудь. А если какая-нибудь Алиса завтра вдруг Вам расскажет, как соорудить устройство для левитации, то Вы скажете, что эти идеи в неё на самом деле программисты заложили (хотя сами не заметили как).
Аргументы-то для того, чтобы "обосновать" принципиальную неполноценность роботов, всегда найдутся. Главное, чтобы было желание.
Кстати, если живой биржевой игрок вдруг начнёт писать стихи, это вряд ли стоит считать результатом его какой-то особо высокой интеллектуальности. Скорее уж это показатель того, что его карьера биржевого игрока не очень сложилась. Поэтому не очень понятно, почему степень интеллектуальности ИИ Вы оцениваете таким странным образом.