Ramon

Ramon
Ramon Gallart

dijous, 13 de febrer del 2020

Robots que parlen el llenguatge corporal humà.

Aquest nou programari de seguiment del cos humà, podria ajudar als robots a llegir les emocions.

Si un amic diu que se sent relaxat, però es pot veure que els seus punys estan tancat, potser es dubte de la seva sinceritat. Els robots, en canvi, podrien tenir el seu criteri. El llenguatge corporal diu molt, però fins i tot amb avenços en la tecnologia de la visió per ordinador i el reconeixement facial, els robots lluiten per notar un moviment subtil del cos i per això poden perdre indicis socials importants.  

Resultado de imagen de Robots Learn to Speak Body Language
Font: IEEE Spectrum
Investigadors de la Universitat Carnegie Mellon van desenvolupar un sistema de seguiment del cos  que podria ajudar a resoldre aquest problema. Anomenat OpenPose , el sistema pot fer un seguiment del moviment del cos, incloses les mans i la cara, en temps real. Utilitza visió per ordinador i aprenentatge automàtic per processar fotogrames de vídeo, i fins i tot pot fer un seguiment de diverses persones simultàniament. Aquesta capacitat pot facilitar les interaccions entre els humans i els robots i obrir el camí cap a una realitat augmentada virtual i interactiva i intuïtiva.

Una característica destacable del sistema OpenPose és que pot rastrejar no només el cap, el tors i les extremitats d’una persona, sinó també els dits per separat. Per fer-ho, els investigadors van utilitzar el Panoptic Studio de la CMU , una cúpula revestida de 500 càmeres, on van capturar les posicions del cos en diversos angles i després van utilitzar aquestes imatges per construir un conjunt de dades.

Resultado de imagen de Robots Learn to Speak Body Language
Font: Seminar Topics
A continuació, van passar aquestes imatges a través del que s’anomena detector de punts clau per identificar  parts específiques del cos. El programari també aprèn a associar les parts del cos amb els individus, per la qual cosa sap, per exemple, que la mà d’una persona sempre estarà a prop del colze. Això permet fer un seguiment de diverses persones alhora.

Les imatges de la cúpula van ser capturades en 2D. Però els investigadors van prendre els punts clau detectats i els van triangular en 3D per ajudar els algoritmes de seguiment del seu cos a comprendre com apareix cada proposta des de perspectives diferents. Amb totes aquestes dades processades, el sistema pot determinar com es veu tota la mà quan es troba en una posició determinada, fins i tot si alguns dits estan amagats.

Resultado de imagen de Robots Learn to Speak Body Language
Font: CMU Robotics Institute
Ara que el sistema disposa d’aquestes dades, només pot funcionar amb una càmera i un ordinador portàtil . Ja no cal que la cúpula folrada de càmera determini les posicions del cos, fent que la tecnologia sigui mòbil i accessible. Els investigadors ja han publicat el seu codi per animar l’experimentació.

Diuen que aquesta tecnologia es podria aplicar a tot tipus d'interaccions entre humans i màquines. Podria tenir un paper important en les experiències de VR, permetent la detecció més fina del moviment físic de l'usuari sense cap tipus de maquinari addicional, com ara sensors o guants .

També podria facilitar interaccions més naturals amb un robot casolà. Es podria dir al robot que "reculli" el que s'assenyali i aquest, ho podria entendre de seguida. En percebre i interpretar els  gestos físics, el robot fins i tot pot aprendre a llegir emocions fent un seguiment del llenguatge corporal. 


Font: Universitat Carnegie Mellon