L’impacte mediambiental de la intel·ligència artificial (AI) ha estat un important tema des de finals del segle passat, i ben segur, serà una qüestió decisiva per aquesta dècada. Segons un recent estudi de l'Allen Institute for AI, es va justificar prioritzar "l'AI verda" en l'eficiència energètica dels sistemes d'AI.
L'estudi va ser provocar veure que molts avenços amb un alt perfil en la IA tenen importants implicacions en la petjada de carboni. Una publicació al bloc de l'OpenAI del 2018, va revelar que la quantitat necessària per a les majors emissions provocades per l'AI ha augmentat en 300.000 vegades des del 2012. Tot i que aquesta publicació no va calcular les emissions de carboni, d'altres ho han fet. Segons un document d’Emma Strubel i els seus col·legues, un nord-americà mitjà és responsable d’unes 36.000 tones d’emissions de CO2 a l’any; la formació i el desenvolupament d’un model de traducció automàtica que utilitza una tècnica anomenada cerca basat en l'arquitectura neural, va ser responsable d’unes 626.000 tones de CO2.
Font: Jorg Greuel/Getty Images |
Malauradament, aquests projectes anomenats RedAI podrien ser encara pitjors des d’una perspectiva ambiental, ja que el cost total del projecte en temps, energia i diners és normalment, molt superior al cost de generació del final.
A més, la realitat és que algunes àrees amb un alt perfil de l'IA vermella, com podria ser, desenvolupar nous models de detecció d’objectes per millorar la navegació autònoma en entorns complexos o aprendre representacions de text a partir de quantitats massives de les dades no estructurades de la web, continuaran creixent de forma inimaginable. Per a tots, menys els investigadors amb més recursos (és a dir, els que treballen per a grans empreses de tecnologia). La gran quantitat de dades i el costos de càlcul, requereixen de players més petits.
Què es pot fer per impulsar la GreenAI? S' hauria de prioritzar a qualsevol preu la GreenAI??
Molts dels actuals projectes RedAI, impulsen la ciència cap el processament de llenguatges naturals, la visió per ordinador i altres àrees importants de la IA. Si bé, avui en dia, els seus costos en carboni poden ser importants, el potencial d’impacte social positiu també és important.
Com a analogia, considerar el Projecte del Genoma Humà (HGP), que va costar 2.700 milions de dòlars americans i 13 anys per fer un mapa del genoma humà. El resultat de l'HGP es va considerar originàriament com una bossa mixta a causa del seu cost i la manca immediata d'invents científics. Ara, però, es pot mapejar el genoma d’un individu en poques hores per uns de 100 dòlars amb la tecnologia de seqüenciació que es basa en la tecnologia principal de l’HGP ( genoma de referència ). Si bé l’HGP li mancava eficiència, això va ajudar a obrir el camí cap a la medicina personalitzada.
Font: Aithority |
De la mateixa manera, és fonamental mesurar tant l’entrada com la sortida dels projectes RedAI. Molts dels artefactes produïts per experiments de la RedAI (per exemple, representacions d’imatges per al reconeixement d’objectes o incrustacions de paraules en el processament del llenguatge natural) permeten avançar ràpidament en una àmplia gamma d’aplicacions.
Malgrat els mèrits científics subjacents, la RedAI no és sostenible, tant per les preocupacions mediambientals com per les barreres d’entrada que introdueix. Per continuar l'analogia, l'HGP va tenir èxit en seqüenciar el genoma humà, però es van requerir noves tecnologies de seqüenciació de l'ADN per reduir dràsticament els costos i fer que la seqüenciació del genoma fos àmpliament accessible. La comunitat d’AI, només ha de tenir com a objectiu reduir el consum d’energia a l’hora de construir models d’aprenentatge profund.
A continuació, es mostren uns suggeriments per a accions que adrecin a la indústria cap a una GreenIA:
Enfatitzar la reproduïbilitat: La reproducció i la compartició de tecnologies intermedies, és crucial per augmentar l’eficiència del desenvolupament de la IA. Sovint, la investigació de l'AI es publica sense codi, o els investigadors troben que no poden reproduir resultats ni tan sols amb el codi. A més, els investigadors poden enfrontar-se a obstacles interns perquè el seu treball sigui de codi obert. Aquests factors són els motors significatius de la RedAI, ja que poden obligar a duplicar els esforços sense ser eficient. Aquesta situació està canviant lentament, ja que en les conferències com NeurIPS, necesiten presentacions de codis reproduïbles juntament amb treballs de recerca.
Augmentar el rendiment del maquinari: Actualment hi ha una proliferació de maquinari especialitzat que no només ofereix un millor rendiment en tasques de deep-learnig, sinó que també augmenta l'eficiència (rendiment per watt). La demanda de GPUs de la comunitat d’AI va provocar el desenvolupament del TPU per part de Google i va impulsar tot el mercat de xips cap a productes més especialitzats. En els propers anys, es veura que NVIDIA, Intel, SambaNova, Mythic, Graphcore, Cerebras i altres empreses posaran el focus més en el maquinari per poder suportar les càrregues de treball d’AI.
Comprendre el deep-learning: Es sap que el deep-learning funciona. Però, tot i que les arrels de la tècnica es remunten a diverses dècades, la comunitat investigadora, encara no enten del tot el funcionament i el perquè. El fet de descobrir la ciència subjacent que hi ha al darrere del deep-learning i la caracterització formal dels seus punts forts i limitacions, ajudaria a orientar el desenvolupament de models més precisos i eficients.
Democratitzar l deep-learning: Pressionar el límit de la precisió del deep-learning continua sent una apassionant àrea de la investigació. Els models existents ja són prou precisos per ser desplegats en un ampli ventall d'aplicacions. Gairebé tots els dominis industrials i científics poden beneficiar-se d’eines de deep-learning. Si moltes persones de molts sectors treballen en la tecnologia,es tindran més probabilitats de veure sorprenent innovacions en el rendiment i l'eficiència energètica.
Font: IEEE Spectrtum |
Més socis: La majoria de les empreses més grans del món no tenen el talent per construir de manera eficient, l'IA però els seus líders s’adonen que l’IA i el deep-learning seran components clau dels futurs productes i serveis. En lloc de fer-ho sols, les empreses haurien de buscar col·laboracions amb startups, incubadores i universitats per iniciar les seves estratègies d’IA.
Tot i que és poden veure vehicles de conducció autònoma que circula per una carretera de Silicon Valley, és important comprendre que encara s'està en els primers temps de l'AI.
En l'aviació, l'era pionera dels vols de principis dels anys 1900, es va caracteritzar per un increïble progrés important però lent, que procedia de diferents projectes d'arreu del món. Cinquanta anys després, a la “era d’acció”, la indústria de l’aviació havia desenvolupat un cicle continu d’avanç, fent que els avions fossin més grans, segurs, ràpids i més eficients en matèria de combustible. Per què? Com que els avenços fonamentals en enginyeria (com els motors de turbina) i la societat (com l’arribada d’agències reguladores) van proporcionar els blocs i la infraestructura necessaris per democratitzar el vol a motor.
Els anys 2020 es podrà experimentar increïbles avenços en la IA, però en termes d’infraestructura i ús eficient de l’energia encara s'està en l’època pionera. A mesura que avança la investigació de l'AI, cal insistir que les millors plataformes, eines i metodologies per a models de construcció són de fàcil accés i reproduïbles. Això comportarà millores contínues en la IA eficientment energètica.
Font: IEEE Spectrum
Cap comentari:
Publica un comentari a l'entrada