La mente artificiale: quando l’IA impara a pensare come noi

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Carta di credito con fido

Procedura celere

 


Come mai l’intelligenza artificiale riesce a battere i migliori giocatori di scacchi al mondo eppure non riesce a decifrare dei banali captcha? Perché ha prestazioni superiori a quelle umane in compiti di calcolo e si blocca di fronte a dilemmi morali?

Perché l’IA non è efficiente allo stesso modo per tutti i tipi di problemi

Potremmo pensare che sia solo una questione di avanzamento tecnologico: col tempo avremo più potenza computazionale, più dati, algoritmi ancora più avanzati. Sicuramente, ma questo non basta a spiegare come mai l’IA non sia ugualmente efficiente per tutti i tipi di problemi.
Perché non tutte le situazioni hanno sempre tutti gli elementi noti, chiari, definiti e circoscritti; molto spesso, c’è incertezza, ambiguità, imprevedibilità. L’IA viaggia forte con compiti molto complessi se ha a disposizione abbondanza di dati, quando ha un quadro completo di tutti gli elementi che lo compongono. Ma quando il contesto è incerto, quando si hanno pochi indizi, come nel prevedere il comportamento umano, allora non sono altrettanto efficaci (Gigerenzer, 2024). L’uomo invece è particolarmente abile proprio nella cosa contraria: sa prendere decisioni valide e sensate anche in situazioni di incertezza.

Cos’è l’intelligenza artificiale psicologica

La psychological AI o intelligenza artificiale psicologica potrebbe essere la risposta per uscire da questo impasse. Si tratta di un approccio interdisciplinare che combina psicologia cognitiva, neuroscienze e scienze dei dati allo scopo di progettare tecnologie che integrino componenti meno “logiche” del comportamento umano, in particolare che riescano a fornire modelli previsionali anche in condizioni di incertezza.
Non si limita a replicare domini tipicamente umani, come il linguaggio, ma punta a creare sistemi che siano in grado di far fronte a processi decisionali complessi.

Carta di credito con fido

Procedura celere

 

Indubbiamente, la biologia del cervello ha avuto ed ha un ruolo chiave nello sviluppo delle reti neurali artificiali, in particolare quelle relative al linguaggio; si tratta però di somiglianze e differenze, analogie tra il sistema nervoso, strutture cerebrali umani e computazionali, non di una vera e propria applicazione delle principi derivanti dalla psicologia. Sono infatti poi i principi della statistica a guidare come effettivamente vengono applicati (Bowers et al., 2023). E qui sta il cambio di prospettiva: a differenza delle IA basate esclusivamente su analisi statistiche, la Psychological AI adotta modelli derivati da teorie psicologiche. Del resto, i processi decisionali umani sono dettati non solo da informazioni razionali, ma anche da emozioni, bias cognitivi e contesto sociale. Prendiamo le euristiche: gli esseri umani tendono a utilizzare scorciatoie mentali, dette euristiche appunto, come la tendenza a sopravvalutare eventi recenti (euristica della disponibilità) o preferire opzioni che confermano le proprie convinzioni preesistenti (euristica di conferma). Queste scorciatoie servono a orientarsi in situazioni di incertezza e a ridurre il carico cognitivo della presa di decisioni. Se si riuscisse ad anticiparli, a prevederli, si otterrebbero output più “umani”, più aderenti al reale ragionamento umano e allo stesso tempo si potrebbero ridurre gli effetti negativi (Gopnarayan et al., 2024).

Ragionamento umano e basato su IA

Tra le teorie classiche riprese dalla psychological AI c’è la teoria dei modelli cognitivi a doppio sistema (Kahneman, 2011), che distingue tra il Sistema 1, che è intuitivo e rapido, e il Sistema 2, che è analitico e riflessivo. Le persone utilizzano entrambi i sistemi: la Psychological AI combina entrambe queste modalità per simulare decisioni che vanno da quelle rapide e intuitive a quelle più ponderate e razionali.
L’essere umano più che a prendere decisioni razionali, tende a prendere decisioni “soddisfacenti”. Ciò è dovuto a limitazioni cognitive, di tempo e di informazioni disponibili.

Il modello della razionalità limitata

Secondo il modello della razionalità limitata (bounded rationality) di Simon (1997) e aggiornato da Gigerenzer (2024), la maggior parte delle volte abbiamo risorse insufficienti per analizzare tutte le opzioni possibili e, per questo, prendiamo quella più ‘accettabile’, non necessariamente la migliore.
Parafrasando Gigerenzer (2024), le persone utilizzano strategie decisionali “ecologicamente appropriate”, ovvero adeguate in relazione al contesto in cui si trovano, alle risorse che hanno, alle informazioni disponibili e al contesto ambientale specifico. Gigerenzer definisce proprio “razionalità ecologica” questa capacità del tutto umana di saper prendere decisioni adattive, rapide e funzionali anche se non completamente corrette ma basate su esperienza e circostanza. Soprattutto in contesti di incertezza e complessità, l’essere umano si orienta sulla base di ciò che è funzionale e del contesto, non di ciò che è formalmente giusto.
Ad esempio, come mai le persone rispondono con valori arrotondati quando si chiede l’ora, anche se conoscono l’orario preciso? Si tende a rispondere arrotondando (10,15 anche se sono le 10,13, per esempio) perché ridurre la precisione in alcuni casi facilita la salienza in memoria di quel dato e quindi il richiamo dell’informazione e non compromette l’efficacia.

Un approccio più umano

L’approccio della psychological AI è trasversale a diversi settori di applicazione; è il modo, il processo che cambia, il come vengono creati gli output, di cosa tengono conto. Per fare un esempio, nel settore finanziario la psychological AI potrebbe essere utilizzata per comprendere come e quanto le persone sono influenzate da bias cognitivi come l’avversione alla perdita; potrebbero così riuscire a fornire modelli più informati che tengano conto anche di questi processi mentali e riescano a suggerire scelte più fattibili, più aderenti al ragionamento umano che non sempre del tutto razionale. Inoltre, l’intelligenza artificiale psicologica potrebbe rendere i modelli più trasparenti e comprensibili proprio perché più “vicini” agli umani, al loro reale modo di ragionare.

Di solito, i modelli vengono considerati black box, troppo complessi, opachi. Gli utenti faticano a comprendere come un’intelligenza artificiale arrivi alle sue decisioni e questa mancanza di trasparenza può ridurre la fiducia e l’accettazione. Rendendo i sistemi di IA più trasparenti e allineando i loro processi decisionali con quelli umani, la Psychological AI potrebbe risolvere il problema della spiegabilità senza sacrificare l’accuratezza (Gopnarayan et al., 2024).
Il comportamento umano è guidato più da scelte adattive e pratiche che da un puro ragionamento razionale. Allo stesso modo, l’intelligenza artificiale dovrebbe seguire un approccio simile nella costruzione di modelli previsionali; un approccio più umano.

Bibliografia

Bowers, J. S., Malhotra, G., Adolfi, F., Dujmović, M., Montero, M. L., Biscione, V., … & Heaton, R. F. (2023). On the importance of severely testing deep learning models of cognition. Cognitive Systems Research, 82, 101158.

Gopnarayan, M. N., Aru, J., & Gluth, S. (2024). From DDMs to DNNs: Using Process Data and Models of Decision-Making to Improve Human-AI Interactions. arXiv preprint arXiv:2308.15225.

Gigerenzer, G. (2024). Psychological AI: Designing algorithms informed by human psychology. Perspectives on Psychological Science, 19(5), 839-848.

Finanziamo agevolati

Contributi per le imprese

 

Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.

Simon, H. A. (1997). Models of bounded rationality: Empirically grounded economic reason (Vol. 3). MIT press.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link