Ну я в нейрофизиологии ни бум-бум. В рамках машинного обучения рассказывается о модели основного канала нейрона, а вот о модели подстройки весов, то есть проницаемости мембраны, ничего не говорят. Ученые придумали обратное распространение ошибки - это явно более эффективный метод подстройки, так как математически он локально оптимален, основан на градиентном спуске. У природы вряд ли эволюционно получилась оптимальная подстройка, но она работает обычно.
В живом организме обычно не понятно что считать ошибкой, от чего пойти в обратную сторону. Поэтому наверное и механизма такого не сформировалось.
И потом: Вы говорите, природная подстройка весов происходит напрямую от входных данных. А это одинаково для всех слоев происходит, для скрытых слоев также как для входного?
Да конечно, живые клетки ведь не знают в каком они слое, да и слоёв как таковых нет.
К увеличению веса конкретного входа приводит совокупность событий - деполяризация нейрона и наличие сигнала на этом входе. То есть, если на вход поступает сильный сигнал (или много слабых), которые накапливают потенциал нейрона и в итоге приводят к деполяризации, то вес этого входа увеличивается, а заодно и веса всех других входов, на которых в этот момент тоже был сигнал. Реализовано просто - ядро нейрона выбрасывает белок который "разращивает" активные синапсы. То есть нейрон как бы учится искать коррелирующие по времени сигналы и активно реагировать на любой их них. Временны́е характеристики могут сильно различаться - скорость затухания сигналов, периодичность повторения нужная для запоминания, но это насколько я помню постоянные свойства нейрона.