I modelli linguistici di grandi dimensioni (LLM) delle intelligenze artificiali potrebbero comportare un aumento di cinque volte della potenza del computer e di significative emissioni di carbonio se sono integrati nei motori di ricerca.
All’inizio di febbraio, Google e Microsoft hanno entrambi svelato aggiornamenti significativi ai loro motori di ricerca. Entrambi i behemoth hanno investito molto nello sviluppo o nell’acquisizione di tecnologie di intelligenza artificiale generative che utilizzano ampi modelli linguistici per comprendere e affrontare indagini difficili.
Attualmente stanno tentando di includerli nella ricerca nella speranza che i consumatori abbiano un’esperienza più ricca e accurata. Baidu, un motore di ricerca cinese, ha dichiarato che farà lo stesso.
Ma l’entusiasmo per queste tecnologie innovative potrebbe mascherare un oscuro segreto. La concorrenza per lo sviluppo dei motori di ricerca basati sull’intelligenza artificiale ad alte prestazioni richiederà un forte aumento della potenza di elaborazione, che inevitabilmente si tradurrà in un picco significativo nella quantità di energia necessaria dalle aziende tecnologiche e dal carbonio che producono.
Intelligenza artificiale e motori di ricerca, potenzialità e problemi di consumi ed emissioni
Secondo Alan Woodward, professore di sicurezza informatica presso l’Università del Surrey nel Regno Unito, “ci sono già enormi risorse coinvolte. A partire dall’indicizzazione fino alla scansione di informazioni online. Ma l’inclusione dell’Intelligenza Artificiale richiede un diverso tipo di potenza di fuoco“.
Ha bisogno di archiviazione, potenza di elaborazione e ricerca efficace. La quantità di risorse di elettricità e raffreddamento necessarie per i grandi centri di lavorazione aumenta notevolmente ogni volta che c’è un cambio di gradino nell’elaborazione online. Questo, secondo me, potrebbe essere una tale mossa.
I modelli linguistici di grandi dimensioni (LLM) per le intelligenze artificiali aperte, come quelli che supportano ChatGPT di Openi, che alimentano il motore di ricerca Bing aggiornato di Microsoft e l’equivalente di Google, Bard, richiedono collegamenti di analisi e calcolo entro enormi volumi di dati. Motivo per cui hanno la tendenza ad essere sviluppato da aziende con risorse significative.
Secondo Carlos Gómez-Rodrguez, un informatico dell’Università di Corua in Spagna, “Formazione questi modelli richiede un’enorme quantità di potere di elaborazione. Solo le grandi società tecnologiche sono in grado di insegnare loro al momento”.
Si stima che la formazione di GPT-3, su cui ChatGPT si basa in parte, abbia consumato 1.287 MWh e prodotto emissioni equivalenti a oltre 550 tonnellate di anidride carbonica. Che è la stessa di una persona che viaggia 550 volte tra New York e San Francisco. Né Openai né Google hanno rivelato i costi di elaborazione associati ai loro prodotti.
Non è così orribile, ma devi anche considerare che devi addestrarlo, metterlo in uso e servire milioni di utenti, secondo Gómez-Rodrguez.
Intelligenza artificiale stand alone e integrata in motori di ricerca: enormi differenze
Vi è anche una differenza significativa tra l’utilizzo di ChatGPT come prodotto autonomo e l’incorporazione in Bing, che elabora mezzo miliardo di domande al giorno e ha circa 13 milioni di utenti giornalieri, secondo la banca di investimento UBS.
Secondo Martin Bouchard, cofondatore del business Canadian Data Center QScale, aggiungendo AI generativo al processo, almeno la domanda “almeno quattro o cinque volte più calcola per ricerca” in base alla sua interpretazione delle intenzioni di Microsoft e Google per la ricerca. Nel tentativo di ridurre la quantità di calcolo richiesta, osserva che ChatGPT attualmente termina la sua comprensione globale alla fine del 2021.
Ciò dovrà modificare per soddisfare le esigenze degli utenti dei motori di ricerca. “È una scala interamente altra scala se si riqualiranno frequentemente il modello e aggiungeranno ulteriori parametri e tutto il resto”, afferma.
Ciò richiederà un sostanziale investimento hardware. Secondo Bouchard, “Gli attuali data center e l’infrastruttura che ora abbiamo non saranno in grado di gestire [la razza dell’IA generativa]”. È eccessivo.
Secondo l’Agenzia internazionale energetica, i data center attualmente producono l’1% delle emissioni di gas serra del mondo. Si prevede che la domanda di cloud computing aumenterà ciò, sebbene i fornitori di motori di ricerca si siano impegnati a ridurre il loro impatto netto sul riscaldamento globale.
Gómez-Rodrguez afferma che “certamente non è terribile come il trasporto o il settore tessile. Ma l’intelligenza artificiale può contribuire in modo significativo alle emissioni.”
Entro il 2050, Microsoft prevede di raggiungere la neutralità del carbonio. Quest’anno, la società prevede di acquistare crediti di carbonio pari a 1,5 milioni di tonnellate. Entro il 2030, Google prevede di avere emissioni di net-zero durante l’intera catena del valore.