Влітку 2011 року наукові співробітники дослідницького центру при Японській телерадіомовній корпорації NHK продемонстрували систему автоматичного сурдоперекладу за допомогою віртуального персонажа.
Новація була представлена як альтернатива реальним перекладачам для використання у випадку їх відсутності в студії у потрібний момент, наприклад, у разі техногенної катастрофи.
Принцип дії досить простий: система зчитує прикріплений до відеофайлу потік субтитрів та транслює на графічну підсистему, що конвертує текст в анімаційні жести.
Автори проекту вважають, що субтитри в нижній частині екрану добре сприймають ті, хто втратив слух через хворобу, а ті, хто не має його від народження, легше сприймають саме сурдопереклад. Для них і призначена ця розробка.
Наразі науковці працюють над удосконаленням мови жестів, а саме над тим, щоб трьохвимірна модель людини-перекладача не тільки показувала жести, а й зображала відповідну міміку. Розробники працюють над рухами губ, щелеп, брів тощо.
Джерело: ABU