Come tutti, sto usando GenAI. Ovviamente, è una tecnologia affascinante che nei fatti sta avendo un impatto molto profondo, se non altro in termini di investimenti e rilevanza economico-finanziaria. Purtroppo, mi pare che nel dibattito pubblico su questo tema siamo ancora una volta ricaduti in dispute che di tecnico/scientifico hanno ben poco e che sembrano più contrapposizioni umorali o interessate. Volendo provare a ragionare in modo il più possibile asettico e oggettivo, mi pare di osservare tre dinamiche sempre più evidenti e significative.
Non basta scalare
Come ha ripetutamente illustrato e spiegato Gary Marcus, è sempre meno credibile che si possano migliorare in modo sostanziale le caratteristiche delle piattaforme di GenAI semplicemente attraverso un processo di scale-up. Non basta aggiungere risorse, dati e capacità computazionale. Il punto – come anche io ho sempre pensato – è che i modelli computazionali usati in GenAI hanno limiti intrinseci che non sono superabili solo con “brute force”.
Per introdurre reali discontinuità dobbiamo cambiare i meccanismi di base che ad oggi sono ancora legati ai modelli dell’Informatica classica e della Statistica.
Non è detto che “winner takes all”
Ascoltavo un interessante podcast su HBR nel quale l’ospite – Amit Joshi, professore alla IMD Business School – suggerisce che il mercato per queste tecnologie non sia del tipo “winner takes all”:
ADI IGNATIUS: So the American president, Donald Trump, his AI plan, at least to the extent that he’s laid it out, is set at trying to achieve U.S. dominance in the field. And I’m interested in your view, is this a winner take all as sort of Sony versus Betamax or can more than one of these ecosystems survive?
AMIT JOSHI: I do not think this is a winner-takes-all battle. I think if we fight it as a winner-takes-all battle, we are completely missing the point. I have a feeling that this is a space where we will have multiple foundation models that will probably be focused on certain areas that’ll be better for one versus the other. But I do think this is something where multiple different models, multiple different technologies will coexist. So in that sense, this is less like social media where we have one dominant social media platform and one chat platform and one search, etc. But this is more akin to mass production where we’ve got about a dozen or more car companies in the world, all of them more or less successful, all of them differentiated in some way.
E ancora:
So because this is not driven primarily by network effects, at least as of now, my sense is that this is going to be akin to an economies of scale kind of a business rather than a network effects business. Now, a network effects business, we know it’s winner takes most if not winner takes all, but in the economies of scale business, we know for the last 80 years that multiple businesses can survive in parallel, they can coexist.
È una osservazione molto interessante che deve essere approfondita perché, se confermata, indicherebbe che c’è spazio per una competizione molto più aperta di quanto accada oggi in altri settori dell’Information Technology. In effetti, anche l’Europa, tradizionalmente vista come lontana dagli USA sul fronte delle tecnologie IT classiche, nel settore della GenAI si sta ritagliandosi uno spazio non marginale.
Una prima vera grande killer app è la ricerca
La mia esperienza personale è che l’uso di GenAI per “generare” contenuti mi lascia abbastanza perplesso. La qualità non mi pare entusiasmante. Certamente richiede molta revisione e a volte ho la sensazione che potrei fare prima (per lo meno nel caso dei testi) scrivendo io direttamente il testo e usando GenAI “a valle” per revisioni, arricchimenti o analisi. Ne ho discusso un anno fa qui a proposito di un libro di testo che stavo scrivendo con alcuni colleghi del Politecnico di Milano.
Un ambito nel quale invece non mi pare ci siano dubbi è quello della ricerca. Ho iniziato ad usare Perplexity (ma è un discorso che vale in generale) al posto di un tradizionale motore di ricerca e sto realmente facendo un salto di qualità nella velocità ed efficacia delle mia attività di ricerca su Internet. Come nel caso dei motori di ricerca, rimane sempre il tema della verifica di qualità e credibilità delle fonti, ma percepisco chiaramente la discontinuità dell’approccio basato su GenAI.
Conclusioni?
Difficile trarre conclusioni, ma qualche considerazione può essere certamente fatta:
La prima “vittima” di GenAI oggi sembra essere il concetto di motore di ricerca tradizionale. Non sorprende che sia proprio Google a sviluppare una piattaforma come Gemini. Ma se fosse vero che non valgono network effects, ma solo economie di scala, il ruolo dominante di Google potrebbe essere messo pesantemente in discussione.
Se così fosse, anche il business model basato su advertising è impattato significativamente e con esso l’intero settore della pubblicità online.
Anche il mondo dei browser (vedi Comet di Perplexity e il suo tentativo di acquisire Chrome) potrà essere soggetto a cambiamenti fino a poco tempo fa quasi impensabili.
Ci aspettano tempi interessanti!
Concordo pienamente sul caso d’uso “ricerca”, per me è quello trasformativo. L’altro è la generazione immagini e video, per il testo più discutibile.
Riflettevo in questi settimane su un’altra grande differenza con la Web revolution e con la mobile revolution: AI costa cara per ogni utente. Vedo tante startup che son partite con il modello freemium che stanno correndo ai ripari da costi esorbitanti, perché vedono runway calcolate solo sui salari dei collaboratori diminuire vertiginosamente a ogni fattura di AWS/GCP/Azure. L’assumption che con le economie di scala il costo per utente è marginale non vale più qui, ma non sono in tanti ad averlo capito. Vedo numerosi investor e founder trattare le AI startup come le mobile App startup e le Web startup, bruciando soldi e sperando che con la scale si arriverà al profitto, ma non è scontato. É necessario ancora più di prima creare valore e trovare clienti che sono disposti a pagare per quel valore. I costi stanno scendendo ogni anno, ma se a ogni iterazione usiamo la capacità extra per macinare più token o per eseguire modelli più grandi, il costo / utente rimarrà elevato per lungo tempo. Inoltre gli investimenti in datacenter hardware non si ammortizzano facilmente, se NVidia rilascia un nuovo prodotto 2-3x più capable ogni 12 mesi, diventa uno spreco di risorse tenere in produzione hardware di 36 mesi fa, ma allo stesso tempo ammortizzarlo in 2-3 anni richiede prezzi dei servizi estremamente alti nonostante il progresso tecnologico.