Ramon

Ramon
Ramon Gallart

dijous, 1 de desembre del 2022

The Innovator's Dilemma.

D'aquest text de l'autor Christensen , destaca que una empresa ben gestionada no pot canviar cap a un nou enfocament el qual, finalment substituirà el seu model de negoci actual.

Un dels clars exemples d'això va ser la fotografia. Les grans empreses molt rendibles que feien pel·lícules sensibles per a càmeres sabien a mitjans dels anys noranta, la fotografia digital seria el futur, però mai es va trobar el millor moment per fer el canvi ja que es creia que es perdrien diners. Llavors, noves empreses que van apostar per fer càmeres digitals, van desplaçar-les del mercat.

Una altre lliçó del llibre, no te tan d'anomenada  per tant, es recorda menys. Aquestes emergents noves empreses podrien passar anys amb una tecnologia de menor qualitat. No obstant això, sobreviuen trobant un nou nínxol que les grans empreses que tenen el mercat no són capaç d'atendre. És aquí on en silenci, fan créixer les seves capacitats.

Per exemple, les primeres càmeres digitals tenien una resolució molt més baixa que les càmeres de pel·lícula, però també eren molt més petites. 

Aquest fet, també s'aplica a la recerca. Un gran exemple d'un nou enfocament de baix rendiment va ser la segona onada de xarxes neuronals durant els anys vuitanta i noranta que finalment revolucionarien la intel·ligència artificial a partir del 2010.

Els diferents tipus de xarxes neuronals s'havien estudiat com a mecanismes per al machine leanrning des de principis de la dècada de 1950, però no eren gaire bones obtenir resultats interessants sobre aprenentage.

El 1979, Kunihiko Fukushima va publicar la seva investigació sobre una cosa que va anomenar xarxes neuronals de canvi invariants, això,  va permetre que les seves xarxes autoorganitzades aprenguessin a identificar i classificar els dígits escrits a mà des d'una imatge. Aleshores, als anys 80, es va redescobrir una tècnica anomenada retropropagació la qual, va permetre una forma d'aprenentatge supervisat en què es deia a la xarxa quina hauria de ser la resposta correcta. El 1989, Yann LeCun va combinar la retropropagació amb les idees de Fuksuhima en el que s'ha acabant coneixent com a xarxes neuronals convolucionals (CNN). 


Durant els següents 10 anys, l'Institut Nacional d'Estàndards i Tecnologia dels EUA (NIST) va crear una base de dades, que va ser modificada per LeCun, que constava de 60.000 dígits d'entrenament i 10.000 dígits de prova. Aquesta base de dades de proves estàndard, anomenada MNIST, va permetre als investigadors mesurar i comparar amb precisió l'efectivitat de diferents millores a les CNN. Hi va haver molts avenços, però les CNN no eren rivals per als mètodes consolidats d'IA en visió per ordinador quan s'aplicaven a imatges arbitràries generades pels primers cotxes autònoms o robots industrials.

Però durant la dècada del 2000, es van afegir cada cop més tècniques d'aprenentatge i millores algorítmiques a les CNN, donant lloc al que ara es coneix com a deep learning. El 2012, de sobte, i aparentment del no-res, el deep learning va superar els algorismes estàndard de visió per ordinador en un conjunt d'imatges de prova d'objectes, conegut com ImageNet. El "pobre" de la visió per ordinador va triomfar i va canviar completament el camp de la IA.

Però compte. El missatge del llibre de Christensen és que aquestes interrupcions mai s'aturen. Hi ha petits grups de gent que intenten tot tipus de coses noves, i alguns d'ells també estan disposats a treballar en silenci i contra tot pronòstic durant dècades. Un d'aquests grups algun dia ens sorprendrà a tots.

Aquest aspecte de la disrupció tecnològica i científica, és el que ens fa grans humans i, perillosos.

Font: L'altra cara del dilema de l'innovador per Rodney Brooks