LLM (Large Language Model)
In questo articolo tratteremo come i software RAG consentono di utilizzare l’AI nella propria azienda, ma prima occorre brevemente spiegare cosa sono i large language model.
Un LLM è modello di linguaggio avanzato, utilizzato per comprendere e generare testi in maniera naturale. Questi modelli, come ad esempio GPT-3.5 di OpenAI, sono addestrati su vasti dataset per comprendere il linguaggio umano in modo complesso e sono in grado di generare testi coerenti e contestualmente rilevanti.
Concretamente quindi, stiamo parlando di un software di AI, che è in grado di comprendere un input di testo in linguaggio umano e restituire un output di testo nel formato che si desidera.
Quindi scriveremo un testo come in una sorta di chat appunto, e ci sarà restituito ciò che abbiamo chiesto. Ad esempio inviamo un elenco di dati di persone (nome, età, altezza, peso) e chiediamo che ci vengano restituiti in formato tabella in ordine di età decrescente.
È chiaro come le potenzialità di un tale software siano potenzialmente illimitate, in quanto l’LLM è in grado di capire qualsiasi richiesta, di comprendere come e cosa si vuole come output, nonché di imparare in base alle informazioni che gli vengono fornite.
I limiti degli LLM
Gli LLM però, hanno dei limiti nel loro utilizzo concreto. Prendiamo ad esempio ChatGPT, l’AI generativa di OpenAI. Tale software consiste lato utente, in una sorta di chat, proprio come Whatsapp per intenderci.
Di seguito una immagine.
È chiaro pertanto, quanti siano i limiti di utilizzo concreto per una azienda di questo strumento così potente. Di seguito un breve elenco di alcuni dei limiti di utilizzo di questo strumento.
- Impossibilità di collegarlo a database.
- Impossibilità di collegarlo a servizi esterni esterni (tramite API e non solo).
- Impossibilità di caricare file massivamente.
- Assenza di una memoria permanente. Ogni chat infatti “vive di vita propria”.
- Impossibilità di gestire gli utenti.
- Impossibilità di dettare regole al LLM.
- E molto altro.
Come possono quindi le aziende utilizzare concretamente l’intelligenza artificiale per le proprie esigenze aziendali? Ciò è possibile tramite RAG.
RAG (Retrieval-Augmented Generation)
RAG in senso stretto, è un software che combina elementi di recupero dell’informazione (retrieval) e generazione del linguaggio effettuata dal LLM, cioè da ciò che chiamiamo intelligenza artificiale vera e propria.
Quindi concretamente, un RAG consiste in un software di tipo web service, che è collegato tramite web 2.0 classico a database, documenti, api, e quanto occorre. Dopo di che, riceve l’input dall’utente, e anziché interpellare subito l’LLM, recupera dal proprio database vettoriale di conoscenza, le eventuali informazioni utili, e le invia insieme all’input dell’utente all’AI.
Ciò permette sia di tenere LLM aggiornato, cosa altrimenti non possibile, e di fornire all’AI le specifiche informazioni aziendali di cui non può essere a conoscenza di per sé.
Data base vettoriali
I RAG necessitano di database vettoriali. Il RAG infatti deve prima raccogliere tutte le informazioni tramite web service tipico del web 2.0, come ad esempio tramite API, query a database esterni, documenti pdf ed altro. Dopo di che, tutte queste informazioni raccolte devono essere immesse e salvate in una memoria permanente, cioè in un database vettoriale appunto. I database vettoriali consentono una rapida codifica di nuovi dati, e ricerche sui dati da immettere nel LLM.
RAG: Come utilizzare l’AI nella propria azienda
Risulta evidente come quindi, in base a quanto abbiamo visto, i RAG, consentano l’uso effettivo dei large language model in azienda.
Si prenda ad esempio il caso in cui, si voglia dare ai dipendenti la possibilità di interloquire con il proprio assistente di AI riguardo dati aziendali, come clienti e commesse eseguite negli anni dall’azienda. Tramite RAG, potremmo mettere l’LLM a conoscenza di tali dati e con un costo esiguo, mantenere tali dati sempre aggiornati.
L’esempio di Xenua AI
Xenua AI è una piattaforma sviluppata da Do Agency. Tale piattaforma è un RAG che sfrutta tutta la potenza dell’LLM di OpenAI, una potenza non eguagliabile con risorse aziendali tipiche ovviamente. Inoltre, integra le potenzialità dell’LLM con istruzioni permanenti, con file CSV che vengono caricati e con regole di generazione degli output che non vengono generati di volta in volta.
A questa pagina è possibile vedere la pagina dedicata al progetto: xenua.doagency.it
Conclusioni
Se sei interessato anche solo ad una consulenza su come l’analisi dei dati e sviluppi sull’intelligenza artificiale in generale, possano aiutare la tua azienda, puoi contattarci tramite form a questa pagina.