Возможно, тут всё безнадёжно, и дело в слишком жёстко заданном пороге. Но может быть, что удастся усовершенствовать, сменив метод оценивания. МНК минимизирует сумму квадратов, и если в выборке есть далеко отстоящая от "правильной линии" точка, то оценен ная линия регрессии перекашивается к ней, при этом прочие точки оказываются на увеличенном расстоянии от линии регрессии. Такие точки, будь это грубые ошибки измерений или ошибки формирования выборки, когда точка включена по формальным критериям, не принадлежа выборке по сути, или хоть "чёрные лебеди", в смысле проявление редких и непрогнозируемых факторов, сравнительно редки, и при большом объёме выборки акой эффект не проявляется, а при малом может. Я бы попытатся смотреть в сторону робастного оценивания. Скажем, взять вместо квадрата отклонения функцию
где p - значение порога.
То есть МНК для малых отклонений, метод наименьших модулей (МНМ) для сверхпороговых. Впрочем, можно и всё МНМ, ценой небольшой потери эффективности для нормального распределения.