Комп’ютери навчилися зчитувати «мова» людського тіла

Дослідники з Інституту робототехніки університету Карнегі-Мелоун (Carnegie Mellon University) винайшли програму, яка за певним алгоритмом дозволяє комп’ютеру в режимі реального часу зчитувати руху людини: аналізувати вираз обличчя, положення голови, тулуба, ніг і рук. Програма була розроблена за допомогою обладнання студії Panoptic Studio, в приміщенні висотою в два поверхи, на стінах і даху якого було встановлено 500 відеокамер.

«Людина виражає свій стан і емоції за допомогою виразу обличчя, рухів і пози тіла яскравіше, ніж своїм голосом, – розповідає Ясер Шейх (Yaser Sheikh), провідний дослідник, – Але комп’ютери до останнього часу не могли розшифрувати мову нашого тіла».

П’ять сотень камер студії Panoptic Studio показує величезну кількість інформації навіть при зйомці одного кадру, і для аналізу такого масиву візуальної інформації потрібні значні обчислювальні ресурси. Тому дослідники вирішили обмежитися аналізом потоків даних від 31 відеокамери.

Наступними кроками оптимізації стане переробка програмного коду системи так, щоб для її роботи було достатньо однієї камери і ноутбука. І при цьому, система повинна буде вміти розшифровувати мову тіла не тільки однієї людини, а цілої групи людей, взаємодіючих один з одним. Так як поведінка людини в даному випадку перестає бути індивідуальним і підпорядковується лінії поведінки групи в цілому.

Метод розшифровки мови тіла людини і вихідний код програмного забезпечення знаходяться у відкритому доступі. Це вже використовується в практичних цілях більш ніж 20 групами, в тому числі і підприємств автомобільної галузі. Більш детальну інформацію про свою розробку можна дізнатися за підсумками конференції Computer Vision and Pattern Recognition Conference (CVPR) 2017.

Свої побажання та побоювання, свої найщиріші вітання та обурення Ви можете надсилати безпосередньо до Столиці Світу на [email protected]. Ми раді допомогти всім, хто радий допомогти нам. Щира подяка, пані та панове!

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *