Один из вариантов - "скользящий экзамен", когда модель строится на всех наблюдениях, кроме данного, а на данном проверяется. Для единичного выброса работает всегда, для множественных возможно, но не особо вероятно, "маскирование" выбросов. Ошибки прогноза сортируются по убыванию, берётся k наибольших.
Чтобы не обращать матрицу n раз, можно воспользоваться тождеством
![$(A-BD^{-1}C)^{-1}=A^{-1}+A^{-1}B(D-CA^{-1}B)CA^{-1}$ $(A-BD^{-1}C)^{-1}=A^{-1}+A^{-1}B(D-CA^{-1}B)CA^{-1}$](https://dxdy-01.korotkov.co.uk/f/0/d/b/0dbc22e794201475e783963cfd26c26c82.png)
где A - корреляционная матрица, рассчитанная по всей выборке, B и C - вектор значений регрессоров для данного наблюдения (исходный и транспонированый), D - будет единичной матрицей. Тогда число операций на одно обращение будет квадратично по n, где n - число регрессоров, а не кубично