Фотографии Калуги в Deep Dream от Google

14 июля 2015 в 14:06
Недавно инженеры Google Александр Мордвинцев, Крисофер Ола и Майк Тика показали, как можно визуализовать работу сверточной нейронной сети, повернув ее работу в обратную сторону. Результатом подхода стал алгоритм DeepDream, принцип которого довольно прост: он искажает исходное изображение в соответствии с тем, какие его фрагменты напоминают алгоритму те или иные знакомые объекты.
Фотографии Калуги в Deep Dream от Google
На языке машинного обучения это означает, что мы берем конкретное изображение, пропускаем его через нейросеть распознавания и получаем значения в некотором высоком слое нейросети. Затем в соответствии с натренированными весами связей между слоями спускаем эти значения вниз — вплоть до исходного изображения. В конце DeepDream искажает это исходное изображение, чтобы показать те фрагменты, которые получили максимальные веса в высоком слое. Все это может звучать как абракадабра, но для тех, кто знаком с алгоритмом обучения нейросети через обратное распространение ошибки DeepDream выглядит довольно просто (если не тривиально).

Через этот алгоритм мы прогнали несколько фотографий Калуги, и вот, что получилось:



Ну и напоследок фото нашего губернатора)
Прочтений: 3290
Поделиться новостью