En un estudi publicat al Nature Machine Intelligence, els investigadors de la Universitat de Waterloo, van trobar que contràriament a la saviesa convencional, no hi ha un mètode exacte per decidir si un problema determinat pot ser resolt amb èxit mitjançant eines de deep learning.
Font: Google |
Cal anar amb compte ja que hi ha una gran tendència amb les eines que tenen molt èxit, però ningú entén per què tenen èxit, i ningú pot proporcionar garanties en que continuaran tenint èxit.
En situacions on només cal una resposta del tipus 'sí' o 'no', es sap exactament què és el que es pot fer o no mitjançant algorismes de deep learning, però, quan es tracta de configuracions més generals, no es pot distingir les tasques que no s'aprenen.
En l'estudi, Ben-David i els seus col·legues van considerar un model d'aprenentatge anomenat estimació del màxim (EMX), que captura moltes tasques comunes de deep-learning. Per exemple, tasques com identificar el millor lloc per localitzar un conjunt d'instal·lacions de distribució per optimitzar la seva accessibilitat per als futurs consumidors. La investigació va trobar que cap mètode matemàtic, mai podria explicar, donada una tasca en aquest model, si una eina basada en IA, podria gestionar aquesta tasca o no.
Font: Amazonaws.com |
Aquest descobriment, és una sorpresa per a la comunitat investigadora, ja que s'havia cregut que una vegada que es proporciona una descripció precisa d'una tasca, es podria determinar si els algorismes del deep learning podrien aprendre i dur a terme aquesta tasca.
L'estudi, sobre 'l'aprenentatge pot ser indecidible', van ser coautor Ben-David, Pavel Hrubeš de l'Institut de Matemàtiques de l'Acadèmia de Ciències de la República Txeca, Shay Morgan del Departament d'Informàtica de la Universitat de Princeton, Amir Shpilka, Departament de Informàtica, Universitat de Tel Aviv i Amir Yehudayoff del Departament de Matemàtiques, Technion-IIT.
Font: Universitat de Waterloo
Cap comentari:
Publica un comentari a l'entrada