Нет, взвешенный МНК это немного другое. В этом направлении Вам лучше не смотреть.
Вообще, идея у Вас верная, можно так:

, (1)
здесь

- оценки параметров,

- ковариационная матрица факторов,

- диагональная матрица, содержащая на главной диагонали дисперсии ошибок факторных переменных (эти дисперсии Вы легко сможете найти из величин инструментальных погрешностей и доверительной вероятности, для которой они заданы).
Формула (1) даёт оценки не уменьшаемой дисперсии параметров, связанной с ошибками в факторах. В идеале, вместо оценок

нужно использовать их истинные значения, но они неизвестны, поэтому оценки дисперсий получаются лишь приближенными. Но если стандартные отклонения малы, по сравнению с абсолютными значениями оцененных параметров, то (1) можно с успехом использовать.
Разумеется, выборочную дисперсию никто не отменял, она определяется как:

, (2)
где

- несмещённая выборочная дисперсия остатков модели.
Общая дисперсия определяется как сумма (1) и (2).
Если

то ошибки факторов можно не учитывать, если

, то можно просто скорректировать доверительные интервалы, с учётом (1), если же

, то оценки МНК будут плохие.
В общем нужно посмотреть на конкретных данных. Если выборка небольшая, то и несостоятельные оценки могут оказаться вполне приемлемыми. Потом главное помнить, что они содержат дополнительную погрешность.