Usare l’IA come psicologo; i rischi per i più giovani

usare l'IA come psicologo
Disciplina Dolce

Usare l’IA come psicologo; i rischi per i più giovani

Usare l’IA come psicologo, usare un chatbot come supporto pedagogico, come coach: lo facciamo in tanti ormai e non sarò io a dirti che è del tutto negativo. Oggi faccio, da madre, pedagogista e donna che ha vissuto a lungo la pratica psicologica, una riflessione su

  • cosa significa realmente usare un chatbot di Intelligenza artificiale come supporto e mentore
  • i rischi nascosti per i nostri bambini e ragazzi
  • come molti professionisti stessi, del campi psicologico e pedagogico, stiano mettendo a rischio le persone meno esperte di questa tecnologia e banalizzando il peso del loro stesso lavoro.

Implementare il nostro dialogo interiore

Parto da una riflessione tutto sommato positiva e possibilista:
Quando facciamo una domanda ad un chatbot, se vogliamo una risposta soddisfacente siamo costretti ad essere chiari nella domanda, che nel gergo dell’IA è il così detto prompt.

Questa chiarezza necessaria con l’IA ci impone maggiore chiarezza con noi stessi, ci impone di verbalizzare o addirittura scrivere quello che ci turba, cosa che di solito non facciamo affatto.

In questo, quando ci rivolgiamo a tool di IA per chiedere di aiutarci a ridurre un momento di ansia, ad esempio, nel descrivere quello che proviamo stiamo già facendo noi metà del lavoro di terapia della parola.

continuare, nel quotidiano, quanto già si fa in un supporto reale

Questa pratica può essere in parte di supporto soprattutto se nella vita ci facciamo aiutare da persone vere, esperte in un settore: dallo psicologo, al nutrizionista, al pedagogista per la crescita dei nostri figli, le nostre domande all’Ia saranno figlie e frutto di una buona reale esercitazione, saranno figli di quelle cose che stiamo imparando grazie all’aiuto di persone reali.

I rischi dell’Uso dell’IA al posto dei professionisti

uso dell'IA come pedagogista

I chatbot di IA, in questo momento storico, appaiono ai nostri occhi come Google nei primi anni Duemila: la risposta (corretta) a tutto, qualcosa che cambia (in meglio) la nostra vita quotidiana.

Ma come ci è bastato qualche anno per capire che i motori di ricerca sono utili ma non infallibili, che trovare una risposta su internet non equivale a trovare una risposta corretta (e spesso è l’esatto contrario), mi auguro che l’allucinazione collettiva che sta vedendo nei chatbot dei sostituti di persone e professionsti duri anche meno, perché comporta rischi molto gravi, soprattutto per i nostri figli.

Non parlo delle conseguenze nel mondo del lavoro e dell’occupazione perché non è il mio ambito, ma sulle conseguenze nel modo di vivere delle persone e dei giovanissimi.

Vivere di allucinazioni

Le risposte dei chatbot di IA sono spesso piene delle così dette “allucinazioni”; cioè output errati o parzialmente errati basati su input dati male, o da addestramenti dei modelli basati su bias e altrettante informazioni parziali.

Una risposta errata e parziali alla richiesta della ricetta originale della torta mimosa ha come conseguenze una pessima torta mimosa;
una risposta errata e parziale alla richiesta “Mi vedo grassa, vorrei dimagrire” potrebbe avere conseguenze peggiori.

Acuire un senso di solitudine (già fin troppo radicato)

La perdita di vista dell’insostituibilità delle persone, con le loro sfumature e vulnerabilità, potrebbe comportare nei più giovani un

  • aggravarsi dell’ansia da prestazione
  • ansia sociale
  • aspettative irreali dalle relazioni

Le IA ci fanno sentire meno soli e capiti ma in realtà non fanno che acuire un senso di forte isolamento, non fanno che, realmente, isolare le persone da altre persone (esattamente quello che serve ad un sistema economico malato per manipolarci e farci consumare di più e renderci più facili da controllare).

Leggi anche il mio approfondimento sul fenomeno della solitudine di famiglie e genitori

Incrementa false credenze e conferma di bias

Le intelligenze artificiali, anche quelle create espressamente per dare supporto psicologico, sono addestrate da essere umani, programmatori e ora, sempre di più, da altre intelligenze artificiali:
tutti questi sono sistemi fallibili, che possono diffondere i propri bias, false credenze, implementando allucinazioni collettive.

Da pedagogista temo che, se non ben controllato, questo fenomeno potrebbe portare la generazione dei bambini che oggi hanno 6-10 anni a crescere in un sistema complesso di allucinazioni, in cui la differenza tra realtà corretta e realtà immaginata e creata non sarà abbastanza netta.

I rischi dell’uso dell’IA da parte dei professionisti

insegnare il dono ai bambini

Vedo molti professionisti, parent coach, psicologi, pedagogisti (sulla differenza tra le tre figure farò presto un approfondimento), che per implementare la presenza sui social si fanno generare moltissimi contenuti tecnici e specifici dall’IA (in alcuni casi è davvero evidente).

Come professionista credo che questo possa

  • banalizzare il peso delle nostre competenze
  • banalizzare problemi, oltre che soluzioni
  • rendere i professionisti realmente sostituibili dai chatbot, agli occhi delle persone,

Il mondo dei contenuti online è stato ed è tutt’ora per noi un grande supporto, e anche un grande privilegi rispetto alle generazioni precedenti.
Ognuno di noi ogni giorno può raggiungere centinaia se non migliaia di persone, potenziali clienti (o pazienti).
Questo deve anche comportare un’assunzione di responsabilità.

Soprattutto se di lavoro non abbiamo scelto di fare né gli influencer, né i social media strategist, bensì supportare i genitori e i giovani nei loro complessi percorsi di vita.

ISCRIVITI ALLA MIA NEWSLETTER

Due lettere al mese in cui ti racconto, anche con la mia voce, novità ed approfondimenti.
Ma non solo! Ti regalo il 10% di sconto su tutti i miei corsi online.