Episodio 0 — All'inizio era solo codice
Dal 30 novembre 2022, quando la piattaforma di IA generativa ChatGPT è stata resa accessibile al grande pubblico, l’intelligenza artificiale ha smesso di essere una promessa lontana ed è entrata nella vita di tutti i giorni: nei telefoni, negli strumenti di lavoro, nei software che usiamo senza nemmeno accorgercene. Nel mondo di chi sviluppa software, il cambiamento è stato ancora più netto.
Per lungo tempo l’AI era rimasta confinata alla ricerca accademica, ad algoritmi specialistici, a sistemi difficili da usare al di fuori di contesti molto precisi. Poi qualcosa è cambiato.
Con l’arrivo dei modelli linguistici di nuova generazione, l’AI ha iniziato a parlare, nel senso più letterale del termine, la nostra lingua.
All’improvviso è stato possibile scrivere una domanda in italiano, in modo naturale, e ricevere una risposta articolata, coerente, a volte sorprendente.
Cosa fa davvero un'AI (e cosa no)
Prima di andare avanti, vale la pena chiarire una cosa che spesso viene fraintesa.
Un’AI non pensa. Non nel senso in cui lo intendiamo noi.
Non capisce quello che dice. Non ha coscienza, né intenzioni. Quello che fa è qualcosa di molto più preciso e per certi versi ancora più affascinante: calcola probabilità.
Analizza enormi quantità di testo su cui è stata addestrata e stima qual è la parola successiva più probabile in una frase. Ripetendo questo processo miliardi di volte, riesce a generare risposte che sembrano intelligenti (e spesso lo sono), dal punto di vista pratico.
È qui che nasce l’AI generativa: una famiglia di intelligenze artificiali capaci di produrre contenuti, testo, immagini, codice, invece di limitarsi ad analizzarli.
Logo SofIA
Un esperimento involontario: il logo di SofIA
Anche il logo di SofIA ha una storia che racconta bene questo momento.
L’idea iniziale era semplice: prendere il logo di HOTELCUBE e usare l’AI per rendere lo sfondo trasparente. Un’operazione di routine.
Il modello non l’ha vista così.
Non si è limitato a modificare il file. Lo ha reinterpretato. Il risultato non era quello che avevamo, ma funzionava. Anzi, funzionava meglio di quanto avessimo immaginato. E alla fine è diventato il logo ufficiale di SofIA.
Un piccolo episodio, ma già rivelatore: l’AI non è uno strumento che esegue istruzioni alla lettera. È uno strumento che interpreta. E questo cambia tutto, nel modo in cui bisogna imparare a usarla.
L'AI amplifica, non sostituisce
C’è una parola che torna continuamente quando si parla di intelligenza artificiale: opportunità. Come ogni innovazione rilevante, porta con sé entusiasmo, ma anche scetticismo e qualche timore comprensibile.
C’è però un punto che spesso viene frainteso.
L'AI non sostituisce le competenze. Le amplifica
Se sei bravo a fare qualcosa, l’AI ti permette di farlo meglio, più velocemente, su scala più ampia. Ma il punto di partenza rimane sempre il tuo giudizio, la tua esperienza, la tua conoscenza del contesto.
L’AI è uno strumento. E come ogni strumento, il suo valore dipende da come viene usato: dai dati che utilizza, dalle regole che la guidano, dai controlli che vengono applicati.
C’è un concetto che torna sempre, lavorando davvero con questi sistemi: human in the loop. L’AI supporta. Non decide.
Logo SofIA
Il primo passo: solo codice
Quando abbiamo iniziato a lavorare su quello che sarebbe diventata SofIA, non avevamo un piano preciso. Non c’era una roadmap, né un progetto definito.
Il contesto era HOTELCUBE WOW, il nostro PMS, il software usato ogni giorno da centinaia di persone per gestire le strutture alberghiere. L’idea iniziale era minima: capire se questa tecnologia potesse interagire con il nostro sistema.
All’inizio è stato soprattutto studio, esperimenti, tentativi. Alcuni funzionavano, altri fallivano. Ogni piccolo risultato apriva una nuova domanda. Ogni errore suggeriva una direzione diversa.
Dal punto di vista tecnico, era tutto molto elementare: un’API da chiamare, una richiesta HTTP, una risposta JSON. Un pezzo di codice che restituisce un risultato. Stavo integrando una nuova tecnologia, come avevo fatto tante volte prima.
Non avevamo ancora capito che stavamo entrando in un territorio completamente diverso.
Non sapevamo che quello era il primo passo di qualcosa destinato a crescere….e che avrebbe avuto anche un nome: SofIA.
Continua nell’Episodio 1 — L’idea.
RICEVI I NOSTRI UPDATE
SofIA è in continua evoluzione o come dicono i tech è under costruction!
Se però vuoi continuare a leggere i prossimi episodi e soprattutto i prossimi sviluppi, iscriviti alla nostra newsletter. Senza spam, solo sostanza.
SofIA Tech Note
Questa sezione è pensata per chi vuole capire cosa c'è davvero "sotto il cofano".
Si può leggere per approfondire l’aspetto tecnico dietro SofIA...oppure no!
Il concetto tecnico dietro questo episodio
Un’Intelligenza Artificiale (AI) è un sistema informatico che utilizza dati e modelli matematici per produrre un output.
Questo output può essere:
- una previsione (numero, probabilità, categoria)
- oppure un contenuto generato (testo, immagini, codice)
Punto fondamentale:
un’AI non pensa.
Non ha coscienza, intenzioni o comprensione del mondo.
Quello che fa è calcolare probabilità.
Analizza enormi quantità di dati su cui è stata addestrata e stima quale sia l’output più plausibile dato un certo input.
Esistono due grandi famiglie di sistemi AI.
AI predittiva — Analizza dati storici per stimare un risultato. Output strutturato: un numero o una categoria.
Esempi:
- previsione delle vendite
- riconoscimento frodi
- classificazione email spam
L’output è strutturato: numeri, categorie, sì/no.
AI generativa — Crea nuovi contenuti:
- testo
- immagini
- codice
- audio
Qui rientrano i Large Language Model, i modelli che stanno dietro a sistemi come ChatGPT.
Un Large Language Model (LLM) è un tipo di AI generativa specializzata nel linguaggio.
Viene addestrato su enormi quantità di testo e il suo compito principale è stimare la parola più probabile da generare dopo una sequenza di parole.
Ripetendo questo processo migliaia di volte, il modello può rispondere a domande, scrivere testi, tradurre, generare codice
Un’AI impara solo durante la fase di training.
Durante l’addestramento:
- il modello riceve milioni o miliardi di esempi
- produce una risposta
- confronta il risultato con quello corretto
- calcola l’errore
- corregge i propri parametri interni
Questi parametri si chiamano pesi.
Una volta terminato il training, il modello entra nella fase di inferenza: cioè l’utilizzo reale del modello per generare risposte.
Dato un input, il modello applica i pesi appresi e calcola l’output più probabile.
È simile a imparare una lingua: non si memorizzano tutte le frasi, ma si assimilano strutture e regole.
Dopo il training, il modello è statico: non evolve da solo, non impara automaticamente dalle conversazioni.
Un LLM non memorizza informazioni come un database.
Non ha:
- tabelle
- record
La conoscenza è codificata in miliardi di numeri chiamati pesi, salvati come file binari e caricati in RAM o VRAM quando il modello è in uso.
Questi pesi rappresentano pattern statistici appresi durante l’addestramento.
Quando fai una domanda, il modello ricostruisce una risposta attivando questi pattern.
Per questo motivo un LLM non recupera informazioni come farebbe un database:
le ricostruisce probabilisticamente.

