р.Б. Алексий писал(а):
Какая то тут каша у вас. Идея нейросети как раз в том, чтобы не выделять признаки. А то, что придумали еще саму сеть перестраивать, ну так все равно все это все на алгоритмах. Просто добавлены грубо говоря еще алгоритмы перестройки самой сети.
А то, что большое изображение лучше не полностью передавать, а более формализовывать, так это в связи с тем, что не справляется нейросеть со всем полем пикселей, слишком медленно обучается.
Я не понимаю, тут лекцию по нейросетям надо написать, что ли?
То, что с полем пикселей справиться в лоб невозможно - это всем известно...
Модель, которая на вход будет получать матрицу FullHD, а на выход - признак, является изображение коровой или нет - большой эффективностью обладать не будет. И обучаться будет долго очень, не хватит коров для неё...
Соответственно, современные нейросети - научились сжимать это пространство, автоматически выделяя информативные признаки, и по ним уже следующие слои - строят эту вот многослойную "регрессию"... уже не по десяткам миллионов пикселей, а по вот этим выделенным агреатам.
Отсюда и эффективность их на порядки возросла.
Только какое это имеет отношение к обсуждаемому вопросу?
Или у нас профдеформация, желание подловить любого собеседника на чём-то что он не очень понимает?
Я с нейросетями специально не работал, и специалистоим великим в этоим деле не являюсь... Но как там градиенты эти по слоям пересчитываются туда и обратно, я примерно помню... Подозреваю, что и вы не сильно больше помните и не факт что сходу напишете оный алгоритм обратного распространения ошибки...
Но даже если и напишете - какое мне дело-то???
Молчу уж о том, что все остальные тут и Zнать не знают о чём речь идёт вообще...