Ура! 🚀 HaGRIDv2-1M – ВРЕМЯ СЖАТЬ ДИНАМИКУ ЖЕСТОВ ДО МИЛЛИОНА ИЗОБРАЖЕНИЙ! 🎉

Вы не поверите, что мы только что запустили нечто поистине ВЕЛИЧЕСТВЕННОЕ! В 2022 году мы представили HaGRID — на тот момент самый ИНКРЕДИБЛЬНЫЙ датасет для обучения моделей жестового управления, который быстро завоевал популярность и стал основой для множества научных исследований. Но с тех пор, как он вышел на свет, мы не останавливались на достигнутом и теперь готовы представить вам его улучшенную версию – HaGRIDv2-1M!

Более 1 МИЛЛИОНА изображений 🖼️ с новым, невероятным алгоритмом для распознавания динамических жестов! Это действительно прорыв в мире жестового управления!

🔍 Что нового и удивительного?

  • 15 новых ЖЕСТОВ! 🌟 Теперь вы можете использовать восхитительные жесты, как разговорные («holy», «heart», «gun») и контролирующие («thumb index», «grip», «point»!). Даже двуручные жесты, такие как «timeout» и «take photo», сделали взаимодействие ещё более естественным и интуитивным!

  • Алгоритм динамических жестов – Это магия на кончиках ваших пальцев! 🪄 Система теперь поддерживает swipe, click, zoom и drag-n-drop без необходимости обучения на видео. Уверены, что вы не захотите упустить эту возможность! И самое интересное: производительность не требует GPU, что делает данный алгоритм невероятно быстрым и компактным! Это значит, что вы можете добиться качественного распознавания в реальном времени!

  • Расширенный класс "no gesture" – Мы всё время стремимся к совершенству. Теперь больше естественных положений рук значительно уменьшило количество ложных срабатываний – на целых 16 раз меньше! 🚫✋

📊 Результаты, которые впечатляют!

Естественно, мы провели множество экспериментов, сравнив HaGRIDv2-1M с другими датасетами, испытывая его не только на детекции жестов и рук, но также применяя в дообучении моделей генерации text-to-image.

  • Уникальная обобщающая способность в сравнении с другими датасетами!
  • Революция в производительности: ложные срабатывания на "no gesture" упали на 16 раз по сравнению с первой версией!
  • Идеален для предобучения – модели, обученные на HaGRIDv2-1M, показывают невероятно высокие результаты, что делает этот датасет отличной основой для разработки жестовых интерфейсов.
  • Супер Улучшение генерации рук! Проведение дообучения на Stable Diffusion с использованием HaGRIDv2-1M резко увеличило анатомическую точность!

🔗 Полезные ссылки:

Каждый из вас — важная часть этого приключения. Мы ОЧЕНЬ рады получить ваш фидбек и услышать ваше мнение о HaGRIDv2-1M! Давайте вместе раздвинем границы возможностей жестового управления! 🌟✨

HaGRIDv2-1M: 1 МИЛЛИОН изображений для жестового управления! ver 0
HaGRIDv2-1M: 1 МИЛЛИОН изображений для жестового управления! ver 0
Ширина: 1216 px
Высота: 1280 px
Соотношение сторон.: 19:20

Скачать


Обсуждение (0)

Войдите, чтобы оставить комментарий

Пока нет комментариев!



Вам также может понравиться

Яндекс снова шагает в будущее с запуском бета-теста YandexGPT 5, который теперь умеет рассуждать! После предыдущих успехов, этот новый эксперимент обещает не просто продолжение игры, а её настоящую эволюцию. Забывайте о шаблонных ответах, теперь ваш виртуальный собеседник будет думать, а не просто бубнить. Готовьтесь к удивительным... Читать далее