Episodio 1 — L'idea
Dopo i primi esperimenti con i modelli linguistici, era chiaro che stava succedendo qualcosa di interessante.
Non tanto per quello che l’AI riusciva a scrivere. Ma per come riusciva a interpretare una richiesta espressa in linguaggio naturale. Senza comandi. Senza sintassi precisa. Senza dover sapere come funziona il sistema dall’interno.
Ed è lì che ci siamo fatti una domanda.
E se si potesse parlare direttamente con il PMS?
HOTELCUBE WOW è un sistema ricco di dati e operazioni. Chi lavora in una struttura alberghiera lo usa ogni giorno: per gestire le prenotazioni, monitorare le disponibilità, seguire gli arrivi, coordinare i reparti.
Ma come tutti i software gestionali, richiede di sapere dove cercare le informazioni. Bisogna navigare tra menu, aprire le schermate giuste, seguire un percorso preciso.
L’idea era semplice, quasi provocatoria: e se invece di navigare tra i menu, si potesse semplicemente scrivere una domanda?
“Fammi vedere gli arrivi di oggi.” – “Quante camere abbiamo disponibili domani?” – “Chi fa check-in nel weekend?”
Se l’AI fosse stata in grado di capire queste richieste e trasformarle in operazioni concrete sul sistema, avrebbe cambiato completamente il modo di interagire con il software.
Il primo prototipo
Da quell’idea è nato il primo prototipo di SofIA.
All’inizio era qualcosa di molto essenziale: un’interfaccia di chat collegata a un modello linguistico. L’utente scriveva una richiesta in linguaggio naturale. Il modello la interpretava e produceva una risposta strutturata che il sistema potesse leggere ed eseguire.
Un po’ come un neonato…non ancora autonomo, ma già affidabile se guidato nel modo giusto.
SofIA Tech Note - Come funziona l'interpretazione
Quando l'utente scrive "fammi vedere gli arrivi di oggi", il modello non esegue direttamente un'operazione sul database. Traduce la richiesta in un formato strutturato che il PMS è in grado di leggere. Un esempio concreto:
{ "action": "get_arrivals", "date": "today" }
Se la struttura generata è corretta, il PMS esegue l'azione e restituisce i dati.
L'AI interpreta il linguaggio umano. Il software fa il resto.
L’architettura era elegante nella sua logica: l’AI si occupava del linguaggio, il software delle operazioni.
Due livelli distinti, ciascuno con il proprio ruolo.
I primi segnali: qualcosa funzionava
Le prime prove sono state sorprendenti.
Il sistema riusciva a interpretare la stessa richiesta espressa in modi completamente diversi:
“Mostrami gli arrivi di oggi.” – “Quali ospiti arrivano oggi?” – “Chi fa check-in oggi?”
Frasi diverse. Stesso risultato.
Per la prima volta sembrava concretamente possibile interagire con un software gestionale usando il linguaggio di tutti i giorni. Senza imparare comandi. Senza seguire percorsi precisi. Scrivendo, semplicemente, quello che si vuole sapere.
Qualcosa stava iniziando a prendere forma.
Un nome
Fino a quel momento era ancora solo codice. Un’integrazione. Un’API da chiamare.
Poi ha iniziato a rispondere.
E qualcosa è cambiato. Non era più solo una funzione, era qualcosa con cui stavamo interagendo. Qualcosa che meritava un nome.
SofIA: Sofia, la figlia di chi ha avviato il progetto, e IA, intelligenza artificiale. Due significati in uno: personale e tecnico allo stesso tempo.
Il problema
Con il passare dei test, però, è emerso un limite. Un dettaglio che all’inizio sembrava secondario.
Il modello generava la struttura delle azioni in modo… creativo.
A volte il formato era perfetto. Altre volte cambiava leggermente: un campo con un nome diverso, un parametro in più, una struttura imprevista. Variazioni piccole — ma per un software, anche una piccola differenza può essere sufficiente a bloccare un’operazione.
È stato lì che abbiamo iniziato a capire qualcosa di importante.
Forse il problema non era il modello. Forse era il modo in cui stavamo cercando di usarlo.
Quella che sembrava una piccola imperfezione si è rivelata essere il vero limite strutturale dei chatbot. Un limite che ci ha obbligati a ripensare l’approccio da capo.
Continua nell’Episodio 2 — Il problema dei chatbot
SofIA Tech Note
Questa sezione è pensata per chi vuole capire cosa c'è davvero "sotto il cofano".
Si può leggere per approfondire l’aspetto tecnico dietro SofIA...oppure no!
L’aspetto tecnico dietro questo episodio
Un chatbot AI è un sistema che utilizza un Large Language Model per generare risposte in linguaggio naturale.
Il funzionamento è semplice:
- l’utente scrive una richiesta
- il testo viene inviato al modello
- il modello genera una risposta
Il problema è che il modello non restituisce dati strutturati, ma testo libero.
Questo crea un limite importante quando si vuole collegare un chatbot a un software.
Un programma ha bisogno di:
- parametri
- strutture dati
- formati prevedibili
Un LLM invece genera frasi.
Per integrare un chatbot con un software, viene chiesto al modello di rispondere in un formato specifico.
Per esempio:
{
"action": "create_booking",
"date": "2026-03-16"
}Ma qui emerge un limite:
un LLM non è deterministico.
Può produrre:
- JSON corretto
- JSON incompleto
- JSON con errori
Questo rende difficile usarlo direttamente per automatizzare operazioni.
La qualità delle risposte dipende fortemente dal contesto fornito al modello.
Input poco chiari producono output poco affidabili.
Per questo nelle applicazioni reali diventano fondamentali:
- prompt ben progettati
- esempi
- istruzioni chiare
- controlli applicativi
Un LLM da solo è potente.
Ma il vero valore nasce quando viene integrato con un sistema software.
Un prompt ben progettato può trasformare un modello generico in un assistente specializzato.
RICEVI I NOSTRI UPDATE
SofIA è in continua evoluzione o come dicono i tech è under costruction!
Se però vuoi continuare a leggere i prossimi episodi e soprattutto i prossimi sviluppi, iscriviti alla nostra newsletter. Senza spam, solo sostanza.
