Seeweb lancia il servizio basato sulla piattaforma Kubernetes, l’agente K8s che gestisce tutto e alloca risorse on demand per l'intelligenza artificiale: dove e quando vuoi. «In pochi secondi nuove istanze cloud con schede grafiche potenti. Un sogno possibile grazie alla tecnologia opensource».
Se ne serve ormai un italiano su quattro per motivi di lavoro, mentre quasi la metà è convinta che esploderà nel giro di tre anni. Un’azienda su tre, inoltre, è ormai pronta a investire soprattutto in relazione a energia, finanza e media. Ma l’intelligenza artificiale è ingorda e sviluppa già un giro d’affari da oltre 750 milioni di euro. L’Italia, del resto, l’ha abbracciata solo dopo Spagna e Svizzera a livello europeo.
Il machine learning, addestratore all’apprendimento automatico, è però sempre affamato di risorse: le costose Gpu, unità di elaborazione grafica, addette ai calcoli ad alta velocità. Ora, di contro, vengono proposte in cloud: un mercato sulla nuvola informatica, on demand, dove e quando si vuole.
Una partita nella quale sta giocando tra i protagonisti europei anche un’azienda del Lazio. Si avrà tutta la potenza del server di Seeweb, eccellenza nei servizi in cloud e per l’IA. È il provider che consiglia ormai la strategia nazionale. Al timone ci sarà l’agente K8s, nome in codice della tecnologia open source Kubernetes: il gestore gratuito dei container pieni di pacchetti di software, ossia i programmi per il funzionamento del sistema e la risoluzione di problemi. (Leggi qui Data economy nell’AI: Seeweb consiglia la Strategia nazionale).
Gpu, dimenticatevi del server
Con Serverless Gpu, ci si dimentica praticamente del server: il servitore virtuale che gestisce tutte le informazioni richieste. Si occuperà di tutto il “timoniere”, per conto del fornitore, senza costi di gestione e con il massimo risparmio possibile. Sul proprio schermo, in remoto, appariranno le schede grafiche in cloud e si potrà andare a tutta velocità.
Marco Cristofanilli, originario di Ceccano, Head of AI Cloud, sottolinea che «Seeweb cerca da sempre l’innovazione sostenibile, in tutto quello che fa. Attraverso Serverless GPU, è possibile ottimizzare l’esecuzione di codice AI consentendo ai team di sviluppo di avere a disposizione in pochi secondi nuove istanza cloud con schede grafiche estremamente potenti, mettendo a disposizione il primo nodo disponibile».
Si sono avvalsi della collaborazione di Clastix, leader nelle soluzioni multi-tenancy per la piattaforma Kubernetes: le condivisioni di un’unica istanza di applicazione software tra più utenti e gruppi distinti. Come una multiproprietà per vari inquilini, che singolarmente non se ne potrebbero permettere una. Serverless Gpu viene presentato come il frutto di un enorme lavoro di squadra. (Leggi qui Seeweb al G7: «L’AI etica sta già a Frosinone»).
«Sogno possibile grazie a K8s»
«Siamo riusciti a mettere in campo con successo – racconta Cristofanilli -, visti anche i primi riscontri positivi da parte degli early adopter del servizio, una soluzione di gpu provisioning in grado di togliere qualsiasi problema di approvvigionamento Gpu». È stata testata tra le community tech in early adoption: un’anteprima di successo.
C’è un doppio vantaggio per le aziende: «Ottimizzare i costi e non dover migrare alcun processo sul nuovo cluster. Un sogno possibile grazie alla tecnologia opensource Kubernetes, che ci permette ogni giorno di sfruttare il modello multi-tenancy in modo proficuo e vantaggioso».
L’agente K8s è un facilitatore di configurazione, automazione e bilanciamento dei workload, i carichi di lavoro. Supporta il machine learning e il calcolo ad elevate prestazioni, specie quando i gruppi di ricerca hanno già risorse Gpu e vogliono un’espansione nel tempo richiesto. Vengono mostrate le Gpu Seeweb, remote nella propria infrastruttura, anche se nel proprio Ced, Centro elaborazioni dati, ci siano cluster attivi o Gpu server affittati da altri fornitori.
Servizio on demand di Seeweb
«In questo modo – concludono – scalare la potenza di elaborazione necessaria per addestrare modelli e fare fine tuning, sarà molto più semplice ed efficace: con una fatturazione esclusivamente in pay per use orario, potrai fare il deploy di applicazioni di intelligenza artificiale scalando senza limiti, e accedendo in modo on demand, veloce e più economico all’estrema potenza delle schede grafiche disponibili dal tuo pannello cloud».
Il cloud provider Seeweb è stato il primo in Italia a lanciare un’infrastruttura cloud fondata su schede grafiche per l’intelligenza artificiale e il machine learning: Cloud Server Gpu, dal 2021. Dall’estate 2024, invece, è stato il primo in Europa a offrire il servizio della nuvola informatica per l’IA con i chip Tenstorrent: un’alternativa più ecologica ed economica per i modelli di linguaggio.
Oggi, dopo la fase sperimentale, torna con Serverless Gpu. Che in altre parole, a questo punto più comprensibili ai più, «mette a disposizione istanze cloud Gpu deployabili tramite il pannello a disposizione dello sviluppatore, consentendo di vedere le Gpu Seeweb come fossero remote al proprio cluster da qualsiasi cluster Kubernetes, da qualsiasi parte del mondo esso sia». (Leggi qui Gpu Seeweb, l’intelligenza artificiale che si fa gli affari suoi).
Anche a vantaggio dell’economia
È un servizio creato dall’azienda frusinate in seno al gruppo internazionale Dhh, Dominion hosting holding. L’architettura Gpu sostiene applicazioni di deep learning, apprendimento profondo, per il riconoscimento di immagini e l’elaborazione del linguaggio.
Accelera il calcolo scientifico, anche per la circolazione delle criptovalute (le monete virtuali), nonché video editing e rendering: grafica ed effetti elaborati ad alta velocità. Architetti e designer industriali li usano per velocizzare le loro modellazioni tridimensionali.
Quello di Seeweb, azienda guidata dal Ceo Antonio Baldassarra, è un ponte senza soluzione di continuità: «Il tutto a vantaggio anche dell’economia: con k8sGpu si paga solo il tempo effettivo di utilizzo della Gpu e questo elimina la necessità di impegni di noleggio a lungo termine e riduce i costi di noleggio dell’intera Gpu».