Исследователи создали алгоритм для преобразования маленьких картинок в 3D
Новая система не требует больших вычислительных мощностей
Исследователи из калифорнийского университета Berkeley создали алгоритм для преобразования маленьких изображений в 3D. Новый метод поможет упростить отслеживание объектов в AR и VR, а также упростит работу дизайнеров. Ученые нашли способ уменьшить количество вычислительных мощностей, требуемых для работы с объемными объектами.
Возьмем картинку 100х100, всего в ней 10 000 пикселей. Допустим, точное воспроизведение ее объемной модели будет также 100 пикселей в глубину. В общей сложности это уже 1 миллион пикселей, вернее, вокселей, поскольку теперь мы работаем с 3D. Если картинка будет чуть больше, например, 128х128, то потребуется уже 2 млн (2 097 152) вокселей.
В ИИ- лаборатории Berkeley нашли более простой способ преобразования, суть которого в официальном релизе описал Кристиан Хейн (Christian Häne). Он решил отбросить все пиксели, находящиеся внутри и работать только с поверхностью объекта. Сначала система создает реконструкцию 2D-изображения в очень низком разрешении. На этом этапе уже отбрасывается треть общего объема. Затем создается рендер в более высоком разрешении. Постепенно картинка шлифуется и система убирает все больше бесполезных данных.
Алгоритм автоматически решает, какие воксели остаются пустыми, а какие передают информацию об объекте. В итоге мы получаем объемную модель, для обработки которой не требуется больших мощностей.
Впереди у команды еще много работы. Но уже сейчас можно сказать, что алгоритм работает по принципу человеческого мозга. Мы также отбрасываем всю информацию, которая не требуется для визуального восприятия объекта.