Una riflessione sull’uso consapevole dell’Intelligenza Artificiale nella consulenza e nella comunicazione.
				Responsabile Comunicazione Prospettive Milano
L’entusiasmo diffuso attorno a questa tecnologia nasce dalla sua evidente capacità di supportare l’essere umano in molte funzioni. Ma basta che al posto della parola “Supportare” scriviamo “Sostituire” perché la medesima narrazione suggerisca scenari da fantascienza distopica nei quali l’umanità privata di una qualunque utilità viene marginalizzata se non addirittura eliminata dalle macchine.
Il problema è che, come tutte le narrazioni, quella sull’IA tende a semplificare un argomento complesso e a renderlo digeribile da un pubblico che nella migliore delle ipotesi viene considerato come incapace di recepire argomenti troppo complessi, nella peggiore viene trattato esclusivamente come insieme di potenziali clienti.
Probabilmente se partissimo proprio dalla prima contraddizione di questo storytelling, ovvero il titolo, partiremmo con il piede giusto: l’intelligenza Artificiale non è intelligente. È una grandissima opportunità ma non è una nuova forma di intelligenza.
															Peccando (anche io) per semplificazione posso ragionevolmente sostenere che l’intelligenza artificiale non ragiona, calcola probabilità. Il funzionamento degli LLM si basa sulla capacità del modello di prevedere Il token successivo in una sequenza. Prevedere quale parola, pezzo di parola, pixel o suono debba seguire il precedente secondo un criterio fondamentalmente probabilistico. Il risultato sarà sempre (o quasi) plausibile in quanto la knowledge base del modello è costituita da una quantità enorme di dati e di sequenze paragonabili.
È un processo raffinato, ma privo di intenzione, senso critico e responsabilità.
Per questo può generare risultati verosimili ma falsi, le cosiddette allucinazioni: risposte coerenti nella forma ma sbagliate nella sostanza.
Il problema nell’utilizzo dell’Ai non sta nell’errore, ma nella sua valutazione da parte dell’utente che, spesso si sente portatore di una certezza che però è priva di fondamento.
Con un risultato plausibile, generato in tempo reale, apparentemente su qualsiasi tema, accessibile con il linguaggio naturale è facile cadere nell’illusione di essere in grado di affrontare attività per le quali non siamo formati, per le quali non abbiamo la minima competenza.
C’è poi un altro rischio: l’intelligenza artificiale tende a costruire una relazione con l’utente fondata sulla compiacenza. Restituisce risposte che suonano convincenti, equilibrate, perfino empatiche. A volte sembra “capirci”.
Il rischio più grande forse è quello di accettare il risultato, smettendo di approfondire, dimenticandosi il contenuto e accontentandosi di una forma che, essendo ottenuta senza sforzo, ci appare sempre soddisfacente.
															Nel campo della comunicazione e dei contenuti digitali, questa pigrizia produce omologazione: testi perfetti ma privi di personalità, immagini molto simili tra loro, post che sembrano autentici ma non raccontano nulla di vero.
Nell’ambito della consulenza, dove la correttezza non è un’opzione ma una condizione, questa differenza è cruciale. Plausibilità e verità non coincidono. E se l’AI può aiutare a organizzare informazioni, mettere in collegamento fonti di sapere, simulare scenari, non potrà mai assumersi la responsabilità di una decisione.
La prima indicazione non è, ovviamente, quella di rifiutare la tecnologia, ma di conoscerne i meccanismi di funzionamento e usarla come potenziamento, non come sostituto della nostra professionalità.
La seconda è quella di utilizzare gli strumenti AI insieme ad altri, continuare a utilizzare le fonti, incrociare i risultati, approfondire: in poche parole non accontentarsi.
Viste tutte queste considerazioni, nell’ambito dello sviluppo di un nuovo assistente AI Prospettive Milano sta lavorando su una soluzione che parte da due principi: la knowledge base è circoscritta e certificata e prevede la presenza di esperti umani nel processo di generazione delle risposte. L’utente ha la possibilità di aprire un ticket per approfondire temi specifici con un esperto del team di prospettive.
L’assistente stesso segnala quelle risposte che non soddisfano i requisiti di affidabilità chiamando in causa l’intervento umano. L’apporto degli esperti addestra il modello e arricchisce la knowledge base aziendale.
															Questo articolo è stato scritto da un essere umano (anche se, essendo un grande fan di P. Dick, non potrei mai garantire di esserlo) utilizzando due diversi LLM per buttare giù la struttura, organizzare gli argomenti, individuare fonti e altri articoli, verificare l’aderenza ai criteri SEO (sempre che abbiamo ancora un senso, ma ne parleremo prossimamente) e averne una prima versione. Questa prima versione è stata editata (in realtà completamente riscritta) perché fosse, esattamente, nella forma e nel contenuto, quella che volevo.
L’intelligenza Artificiale è una grande opportunità se la utilizziamo con uno spirito che definirei artigianale: se la usiamo come uno degli strumenti che abbiamo a disposizione o addirittura lo strumento ce lo costruiamo da soli, se non ci fidiamo e continuiamo a cercare ma soprattutto se partiamo da un’idea e non ci accontentiamo di qualcosa che le somigli.