Вот скажем есть детектор контента
https://smodin.io/ru/ai-детектор-контента
Сами про себя они пишут
91% документов AI считаются содержимым AI, 99% документов Human считаются человеческими.
Цифры ни о чем - во вполне нормальных текстах выделяются как сгенерированные вполне вменяемые и не вызывающие подозрения предложения, даже без единого знака препинания, простые по структуре.
Но по их же статистике 1 % человеческих текстов бракуются. Но они не указывают критерия, сколько % предложений в тексте должно быть признаны сгенерированными, чтобы забраковать текст в целом. И еще смешнее - это уже мой опыт - если в своем тексте, в котором детектор выделяет несколько подозрительных предложений, их удалить, и снова пропустить через сервис, появятся другие "сгенерированные" предложения.