Ура! 🚀 HaGRIDv2-1M – ВРЕМЯ СЖАТЬ ДИНАМИКУ ЖЕСТОВ ДО МИЛЛИОНА ИЗОБРАЖЕНИЙ! 🎉
Вы не поверите, что мы только что запустили нечто поистине ВЕЛИЧЕСТВЕННОЕ! В 2022 году мы представили HaGRID — на тот момент самый ИНКРЕДИБЛЬНЫЙ датасет для обучения моделей жестового управления, который быстро завоевал популярность и стал основой для множества научных исследований. Но с тех пор, как он вышел на свет, мы не останавливались на достигнутом и теперь готовы представить вам его улучшенную версию – HaGRIDv2-1M!
Более 1 МИЛЛИОНА изображений 🖼️ с новым, невероятным алгоритмом для распознавания динамических жестов! Это действительно прорыв в мире жестового управления!
🔍 Что нового и удивительного?
15 новых ЖЕСТОВ! 🌟 Теперь вы можете использовать восхитительные жесты, как разговорные («holy», «heart», «gun») и контролирующие («thumb index», «grip», «point»!). Даже двуручные жесты, такие как «timeout» и «take photo», сделали взаимодействие ещё более естественным и интуитивным!
Алгоритм динамических жестов – Это магия на кончиках ваших пальцев! 🪄 Система теперь поддерживает swipe, click, zoom и drag-n-drop без необходимости обучения на видео. Уверены, что вы не захотите упустить эту возможность! И самое интересное: производительность не требует GPU, что делает данный алгоритм невероятно быстрым и компактным! Это значит, что вы можете добиться качественного распознавания в реальном времени!
Расширенный класс "no gesture" – Мы всё время стремимся к совершенству. Теперь больше естественных положений рук значительно уменьшило количество ложных срабатываний – на целых 16 раз меньше! 🚫✋
📊 Результаты, которые впечатляют!
Естественно, мы провели множество экспериментов, сравнив HaGRIDv2-1M с другими датасетами, испытывая его не только на детекции жестов и рук, но также применяя в дообучении моделей генерации text-to-image.
- Уникальная обобщающая способность в сравнении с другими датасетами!
- Революция в производительности: ложные срабатывания на "no gesture" упали на 16 раз по сравнению с первой версией!
- Идеален для предобучения – модели, обученные на HaGRIDv2-1M, показывают невероятно высокие результаты, что делает этот датасет отличной основой для разработки жестовых интерфейсов.
- Супер Улучшение генерации рук! Проведение дообучения на Stable Diffusion с использованием HaGRIDv2-1M резко увеличило анатомическую точность!
🔗 Полезные ссылки:
- 💻 HaGRIDv2-1M
- 💻 Dynamic Gesture Recognition
- 📖 Статья о проекте
- 🖥 Пост на Habr
- 👥 Авторы проекта: @drshellycooper@nagadit@AlexS_340@hukenovs@karinakvanchiani
Каждый из вас — важная часть этого приключения. Мы ОЧЕНЬ рады получить ваш фидбек и услышать ваше мнение о HaGRIDv2-1M! Давайте вместе раздвинем границы возможностей жестового управления! 🌟✨

HaGRIDv2-1M: 1 МИЛЛИОН изображений для жестового управления! ver 0
Ширина: 1216 px
Высота: 1280 px
Соотношение сторон.: 19:20
Скачать
Вам также может понравиться






















