Darrere de la majoria de les tecnologies actuals d'intel·ligència artificial que s'apliquen, des d'automòbils auto-controlats fins al reconeixement facial passant pels auxiliars virtuals, estan formats per xarxes neuronals artificials. Encara que es basen en el funcionament de les neurones del cervell, aquests sistemes de deep learning segueixen sent incapaços de fer moltes funcions bàsiques que són essencials per als primats i altres organismes.
Tanmateix, un nou estudi dels neuro-científics de la Universitat de Chicago, van trobar que l'adaptació d'un conegut mecanisme cerebral, pot millorar la capacitat de les xarxes neuronals artificials per aprendre múltiples tasques i resoldre el repte de la Intel·ligència Artificial (AI) conegut com "oblit catastròfic". L'estudi, publicat a l'acadèmia Nacional de Ciències, proporciona un exemple únic de com la investigació sobre neuro-ciències pot aportar a les noves estratègies informàtiques i, al contrari, com la tecnologia AI pot ajudar els científics a comprendre millor el cervell humà.
Quan es combina amb els mètodes prèviament descrits per estabilitzar les connexions sinàptiques en xarxes neuronals artificials, el nou algoritme permet que les xarxes neuronals artificials només aprenguin i realitzin centenars de tasques amb poca pèrdua de precisió que permeti potenciar tecnologies més potents i eficients d'AI. De manera intuïtiva, es podria pensar que, com més tasques es vol que conegui una xarxa, més gran serà la xarxa. Però probablement el cervell disposa d'una forma més eficaç de compactar molts coneixements en una xarxa bastant petita. Quan s'observen les parts del cervell implicades en les funcions superiors cognitives, es tendeix a trobar que les mateixes àrees, participen en moltes funcions diferents. La idea és inspirar-se del que fa el cervell per resoldre els reptes amb xarxes neuronals.
En xarxes neuronals artificials, l'oblit catastròfic es refereix a la dificultat d'ensenyar el sistema a realitzar noves habilitats sense perdre funcions prèviament apreses. Per exemple, si una xarxa inicialment entrenada per distingir entre fotografies de gossos i gats es torna a entrenar per distingir entre gossos i cavalls, perdrà la seva capacitat anterior.
Per contra, el cervell és capaç d'"aprendre contínuament", adquirir nous coneixements sense eliminar records antics, fins i tot quan s'utilitzen les mateixes neurones per a múltiples tasques. Una estratègia que utilitza el cervell per a aquest repte d'aprenentatge és l'activació selectiva de cel·les o components cel·lulars per a diferents tasques, essencialment activant subxarxes més petites i superposades per a cada habilitat individual o en diferents contexts.
Els investigadors d'UChicago van adaptar aquest mecanisme neuro-científic a les xarxes neuronals artificials a través d'un algoritme que ells anomenaven "alimentació dependent del context". Per a cada nova tasca apresa, només s'activa un 20 per cent aleatori d'una xarxa neuronal. Una vegada que la xarxa està capacitada en centenars de tasques diferents, un node pot estar involucrat en dotzenes d'operacions, però amb un conjunt únic d'operacions per a cada habilitat individual.
Quan es va combinar amb mètodes desenvolupats prèviament per investigadors de Google i Stanford, les xarxes dependents del context van permetre a les xarxes aprendre fins a 500 tasques amb només una petita disminució de la precisió.
Com a tal, l'enfocament probablement té un gran potencial en la creixent indústria de l'AI, on les empreses que desenvolupen vehicles autònoms, la robòtica i altres tecnologies intel·ligents necessiten emprar capacitats complexes d'aprenentatge en ordinadors a nivell de consum. L'equip de UChicago treballa actualment amb el Polsky Center for Entrepreneurship and Innovation per explorar les opcions de comercialització de l'algoritme.
La investigació computacional també beneficia l'original focus del laboratori per comprendre millor el cervell primat recordant la seva activitat a mesura que els animals aprenen i com es comporten. Les estratègies de modelatge i assaig que permeten l'aprenentatge, l'atenció, el processament sensorial i altres funcions en una computadora poden motivar i suggerir nous experiments biològics que sonden els mecanismes d'intel·ligència, tant naturals com artificials.
Sumar en aquest component de la recerca al laboratori ha obert moltes portes en termes de permetre pensar en nous tipus de problemes, nous tipus de temes de neuro-ciència i problemes que normalment no es poden abordar utilitzant les tècniques experimentals actualment disponible als laboratoris. S'espera que aquest sigui el punt de partida per identificar aquests principis i per ajudar a crear xarxes artificials que continuen aprenent i basant-se en coneixements previs.
Font: Universitat de Chicago
.
Cap comentari:
Publica un comentari a l'entrada