bIAs: intelligenza artificiale, incertezze e paure

04.11.2024

Anche noi di CambiarParadigma.net affrontiamo un tema "caldo" di questi tempi, l'AI nelle organizzazioni. Un aiuto? Un rischio? Una minaccia? Da par nostro, l'affronteremo cercando di avere uno sguardo obliquo, non per forza nuovo o nuovista ma quello che crediamo sia utile al momento. Da una parte c'è la paura dell'intelligenza artificiale, il timore riguardo a suoi possibili sviluppi malevoli, che continua ad accompagnare il pensiero e non solo dei non addetti ai lavori. Già nel 2021 un dibattito tra diverse figure professionali, dello European Parliamentary Research Service (EPRS) ha fornito un report finalizzato ad analizzare l'origine di tale paura. E alla fine, al di là delle diverse tesi emerse, si era deciso di dare vita ad altri confronti simili, al fine di costruire una discussione permanente sul tema, generando conoscenza e consapevolezza per affrontare quello che verrà. Dall'altra, la visione della tecnologia e della novità come portatrice di vantaggi immediati e/o futuri, che va cavalcata non solo per motivi economici ma perché aiuterà gli esseri umani nel loro progresso.

Il falso mito

Vi è un mito che l'AI sia destinata a diventare super-intelligente e distruttiva. Spesso vi sono falsi miti che aleggiano attorno alle nuove tecnologie, ai quali noi non addetti ai lavori spesso finiamo per credere perché non possediamo il sapere necessario per smontarli. Nessuno rimpiazzerà l'uomo, perché esso tiene le fila di questa tecnologia. In specifico il mito di "un'AI auto-modificante", che renderà sé stessa super-intelligente, al punto da sovrastare l'essere umano. Come osserva Peter J. Bentley docente presso il Department of computer science dell'University College di Londra "anche se fossimo in grado di creare una super-intelligenza, non abbiamo alcuna prova che un'AI di questo tipo desidererebbe farci del male. Questa è una credenza derivante dall'osservazione del comportamento umano. Ma le AI non avranno intelligenza umana. Il nostro vero futuro sarà quasi certamente una continuazione della situazione odierna, in cui i sistemi di intelligenza artificiale co-evolvono con noi e saranno progettati per adattarsi alle nostre esigenze, allo stesso modo in cui abbiamo manipolato colture, bovini e animali domestici per soddisfare le nostre esigenze. Sapremo gestire, in tutti i campi, le nuove competenze dell'intelligenza artificiale, se sceglieremo la via della governance, lasceremo all'AI solo quei compiti che, per noi, comportano rischi per la sicurezza, quelli noiosi e ripetitivi o che non siamo in grado di svolgere per mancanza di tempo e dei nostri limiti cognitivi e organizzativi».

La paura dell'AI

La paura è un'emozione primordiale radicata nel nostro meccanismo di sopravvivenza. Serve a proteggerci da potenziali danni, creando un elevato stato di allerta. Come ci indicano le neuroscienze, l'amigdala, una piccola regione a forma di mandorla nel profondo del cervello, è fondamentale nella nostra risposta alla paura. Elabora le informazioni emotive, in particolare relative alle minacce, e innesca risposte di paura comunicando con altre regioni del cervello. Come l'intelligenza artificiale: infatti, la comprensione dell'intelligenza artificiale, un concetto complesso e nuovo, crea incertezza, un elemento chiave che può scatenare la paura. E può diventare una paura della perdita: perdita di controllo, perdita di privacy e perdita di valore umano. Quindi si può sintetizzare così: la nostra paura dell'AI è radicata nella risposta dell'amigdala all'incertezza e alle potenziali minacce. E i timori dell'AI ruotano comunemente attorno alla perdita di controllo, poiché l'IA sviluppa capacità che potrebbero superare le capacità umane. Allora, affrontare queste paure in modo responsabile implica comprendere che l'IA collabora con, piuttosto che sostituire l'umano, non possiede una coscienza.

Incertezza e bias cognitivi

Durante situazioni incerte, il talamo mediodorsale stimola la corteccia prefrontale a prendere una decisione e ad agire in questo complesso contesto. Tuttavia, c'è un problema. L'incertezza è una catapulta per l'ansia e, quando si presenta questa variabile psicofisiologica, è molto difficile riflettere, analizzare una situazione o pensare a una strategia.

Il termine "bias" indica una tendenza o inclinazione mentale che può portare una persona a pensare in modo non obiettivo o distorto. In psicologia cognitiva, si riferisce a una deviazione sistematica dal ragionamento logico o dall'elaborazione imparziale delle informazioni, portando a errori di giudizio. I bias possono, quindi, influenzare decisioni, opinioni e percezioni. Secondo noi con l'AI entrano in gioco alcuni bias, quello di ambiguità, quello dello status quo, quello chiamato sindrome da privazione e quello cognitivo della negatività. In particolare, vediamo il bias dello status quo, che descrive la resistenza a cambiare l'equilibrio o la situazione corrente. Il suo utilizzo riflette una preferenza per la stabilità rispetto all'incertezza del cambiamento. Quando lo status quo diventa un pattern di pensiero, diventa un bias. Nello specifico è una forma di resistenza psicologica che porta a un'inerzia decisionale e alla conservazione di abitudini, processi o scelte precedenti. È un fenomeno comune sia a livello individuale che collettivo e si verifica perché mantenere lo stato attuale comporta meno incertezze rispetto all'ignoto. Le persone tardano ad adattarsi alle nuove realtà a causa della resistenza al cambiamento. La riluttanza ad abbandonare politiche già esistenti, anche quando risultano inefficaci, è un chiaro esempio di come il bias dello status quo possa ostacolare l'evoluzione positiva di un nuovo fenomeno.

Una prima conclusione

È fondamentale ricordare che l'IA è uno strumento creato dagli umani e per gli umani. L'intelligenza artificiale non possiede coscienza o emozioni, imita solo i processi cognitivi basati sulla sua programmazione e sui dati disponibili. Questa comprensione è vitale per dissipare i timori di un'intelligenza artificiale senziente. Ad esempio, i chatbot (come chatgpt) si basano su modelli che si limitano a prevedere la parola successiva in un testo, in modo molto veloce, per la loro enorme capacità di memoria. Non ragionano, ma interrogano le informazioni che raggiungono o hanno immagazzinato. Non vi è intelligenza umana, ma gli umani, in alcuni casi, rispondono attivando dei bias, che non aiutano a vedere la tecnologia per quella che è.