“A robot may not harm humanity, or, by inaction, allow humanity to come to harm.”

Isaac Asimov, Robots and Empire (New York: Doubleday, 1985)

Correvano dunque gli anni Ottanta quando Asimov formulò la cosiddetta “Legge Zero” della Robotica, controversa e dibattuta e contenente al proprio interno i concetti delle Tre Leggi Fondamentali del 1942. La missione di questi assunti era proprio quella di impostare delle linee guida etiche per ciò che sarebbe stato il rapporto con le macchine; all’epoca di Io, Robot, ad esempio, la visione del mondo degli autori distopici prevedeva un rapporto con la tecnologia piuttosto squilibrato e ricco di insidie. Ottant’anni dopo la tematica scotta più che mai, soprattutto a causa delle sfide poste dall’Intelligenza Artificiale. Personalmente sostengo l’utilizzo di tale strumento, ciononostante credo che sia fondamentale individuare i parametri adatti per renderlo benefico ed al servizio dell’umanità.

Di questo e di molto altro ho parlato con Edoardo Battistetti, co-founder di SmartOne insieme a Alberto Valas, Paolo Martinalli e Davide Piccolo: una realtà specializzata, nei suoi vari apparati interni ed esterni, da una parte nel digitale e ed un’altra nella Virtual Reality nonché sviluppo di sistemi di intelligenza artificiale proprietari. Cominciamo dunque un viaggio attraverso la sua esperienza nella creazione di un’IA impiegata al servizio delle aziende, della cultura, della salute e più in generale, delle persone.

L’importanza del dubbio

Con Edoardo ho approfondito una delle tematiche che personalmente trovo più impellenti nel dibattito pubblico contemporaneo: l’etica digitale. Se si parte dal presupposto che l’intelligenza artificiale debba rispondere ai cinque principi della beneficienza, non maleficienza, autonomia, giustizia ed esplicabilità e se aggiungiamo che il ruolo predominante del discorso siano proprio gli algoritmi, ci si aspetterebbe che questi producano risultati “equi” ed, appunto, “etici” (Sandvig, Hamilton, Karahalios et al. 2016). Tuttavia, gli algoritmi, essendo progettati dagli esseri umani per raggiungere determinati obiettivi – come massimizzare l’attenzione o il coinvolgimento – non possono essere neutri per definizione.

Durante la nostra conversazione, Edoardo mi ha parlato di una soluzione concreta già da tempo impiegata nel loro modello denominato Gigetto.ai: la completa e totale parametrizzazione. il sistema è tarato per fornire output con un livello di sicurezza del 95,5%. Ciò significa che, di fronte a una domanda, l’AI può dare risposte altamente affidabili e, al contempo, fermarsi quando le informazioni disponibili non sono sufficienti (oltre lo 0,6% di incertezza); ponendo domande ulteriori per raccogliere dati pertinenti. In questo modo, la progettazione umana dei parametri consente di avvicinare l’algoritmo a comportamenti responsabili, mitigando i rischi legati alla sua intrinseca non neutralità.

Questo approccio rappresenta, secondo me, una delle applicazioni più concrete dei cosiddetti guardrail etici per l’AI, concetto sviluppato da Paolo Benanti nel contesto dell’algoretica. Costituisce di fatto un esempio significativo di come sia possibile unire efficacia, affidabilità e responsabilità nella progettazione algoritmica.

AI ed il Sapere

Oltre a sviluppare soluzioni brillanti per aiutare le aziende nel concreto attraverso showroom virtuali interattivi per aziende e professionisti, SmartOneTable e LuxReality stanno anche già da tempo collaborando con alcune realtà importanti sul lato culturale. Ad esempio, hanno creato esperienze immersive di visite da remoto in VR con avatar dentro al Palazzo Saluzzo Paesana. Ci rendiamo tutti conto di quanto ciò sia una vera rivoluzione nel campo artistico e culturale? Soprattutto considerate le implicazioni di aiuto alla società; tipo dare l’occasione a chi non può visitare fisicamente un luogo per impedimenti fisici; rendendo così la tecnologia della Realtà Aumentata davvero inclusiva.

Ma non solo: i prodotti di Battistetti ed il suo team vanno a coprire tre aree tematiche: quella appunto legata a videogame e cultura, una sul versante aziendale e la terza su fiere ed eventi. Durante l‘AperiLux organizzato dall’azienda in Via Mazzini a Torino il 27 novembre, è stato infatti possibile prendere parte ad alcuni percorsi e giochi molto coinvolgenti.

La differenza con ChatGpt

Una domanda è stata inevitabile: cosa differenzia Gigetto da ChatGpt oltre alla già citata parametrizzazione? Ebbene, se il primo agisce in maniera verticale attraverso un mixed model, riuscendo così a coprire in maniera efficiente un ampio range di tematiche in profondità, il secondo è obbligato prima di tutto ad immagazzinare dati; perciò, prima di avere a cuore una risposta critica – infatti raramente Chattino, come lo chiamo io, dà torto – ti vende un’esperienza di dipendenza dai suoi servigi: motivo per cui conclude sempre i suoi paragrafi con una domanda di coinvolgimento, di modo che l’utente possa continuare ad aggiungere dati. E ancora, Gigetto si appoggia su un server completamente nostrano tra Salerno e Padova, ha regole chiare e normativamente impostate in Italia e, soprattutto, chi lo utilizza è completamente proprietario delle informazioni. In questo modo, si configura come AI completamente in grado sia di risolvere problemi che velocizzare processi; il tutto, lo ripetiamo, in un’ottica etica.

Considerazioni finali

A questo punto vale la pena soffermarsi su un paio di domande di grande interesse per l’opinione pubblica contemporanea. 1. L’AI ruberà il lavoro a tutti gli 8 miliardi di cittadini terrestri? 2. I robot prenderanno coscienza e distruggeranno il mondo? 3. Ci attende un futuro distopico fatto di assistenti in ologramma, partner metallici e memorie impiantate nel cervello? 4. Insomma, BLACK MIRROR diceva la verità?

Risposta a tutto: sì.

SE noi, come esseri umani coscienti e consapevoli, non impareremo ad usare le nostre stesse invenzioni e padroneggiarle in maniera morale e benefica. Temere l’Intelligenza Artificiale significa in ultima analisi avere paura dell’Indifferenza Umana, colpevole di dimenticare gli ultimi, gli indifesi, i poveri. E non solo: puntare unicamente al profitto e raccogliere dati su dati per rendere l’individuo prodotto di sé stesso, anche questo farà sì che un modello di apprendimento artificiale possa effettivamente sostituire una coscienza umana sopita. Però tranquilli, finché esisteranno persone competenti e come i ragazzi di SmartOne, ci sarà la possibilità di continuare a ragionare sulla direzione delle ultime tecnologie. Perché alla fine ciò che conta è proprio uscire dal terrore, informarsi, condividere e, infine, attuare scelte personali ben radicate.

Categorie
Privacy Policy

Cookie Policy