
Բարդ միջավայրում մարդիկ կարող են հասկանալ խոսքի իմաստը ավելի լավ, քան AI- ն, քանի որ մենք օգտագործում ենք ոչ միայն մեր ականջները, այլեւ մեր աչքերը:
Օրինակ, մենք տեսնում ենք, որ ինչ-որ մեկի բերանը շարժվում է եւ կարող է ինտուիտիվորեն իմանալ, որ մեր լսած ձայնը պետք է գա այդ անձի կողմից:
Meta Ai- ն աշխատում է AI երկխոսության նոր համակարգի վրա, որը պետք է սովորեցնի Աիին նաեւ սովորել ճանաչել նուրբ հարաբերակցությունները, թե ինչ է տեսնում եւ լսում է զրույցի մեջ:
VisualVoice- ը նման կերպ է սովորում այն կերպ, թե ինչպես են մարդիկ սովորում տիրապետել նոր հմտություններին, հնարավորություն ընձեռելով աուդիո-վիզուալ խոսքի տարանջատմանը `չսովորելով տեսողական տեսանյութերից տեսողական եւ լսողական ցուցումներ:
Մեքենաների համար սա ավելի լավ ընկալում է ստեղծում, մինչդեռ մարդկային ընկալումը բարելավվում է:
Պատկերացրեք, որ կարողանաք մասնակցել խմբային հանդիպումների ընթացքում ամբողջ աշխարհի գործընկերների հետ մետավրերում, միանալով ավելի փոքր խմբային հանդիպումների, քանի որ դրանք շարժվում են վիրտուալ տարածության միջոցով, ըստ կարգի, կարգով կարգավորվում են:
Այսինքն, այն կարող է միաժամանակ ձեռք բերել աուդիո, վիդեո եւ տեքստի տեղեկատվություն, եւ ունի ավելի հարուստ բնապահպանական փոխըմբռնման մոդել, օգտագործողներին թույլ տալով ունենալ «շատ wow» ձայնային փորձ:
Փոստի ժամանակը, Հուլ - 20-2022