“C’è vero progresso solo quando i vantaggi di una nuova tecnologia diventano per tutti.”
Henry Ford
In un mondo sempre più connesso e digitalizzato, l’evoluzione delle tecnologie sta ridefinendo il panorama della psicologia in maniera sempre più veloce e sempre meno prevedibile.
Dall’avvento degli algoritmi diagnostici all’implementazione di terapie online, stiamo assistendo a un importante cambiamento nelle nostre pratiche professionali.
È essenziale comprendere appieno queste nuove dinamiche e adattare le nostre competenze per continuare a fornire servizi e prestazioni di qualità a chi si rivolge a noi come professionisti della salute.
Il nostro gruppo desidera esplorare a fondo le diverse tematiche legate all’impatto delle tecnologie sul nostro lavoro, inclusi piattaforme, chatbot, metaverso e intelligenza artificiale. È fondamentale comprendere questo cambiamento inevitabile, che richiede un attento monitoraggio, soprattutto quando si entra nel mondo della salute digitale (digital health).
Il digitale, infatti, offre nuove opportunità per la prevenzione, diagnosi, cura e monitoraggio dello stato di salute.
Tuttavia, introduce anche alcuni rischi che devono essere attentamente considerati. Questi rischi non riguardano solo i destinatari delle nostre prestazioni, ma coinvolgono anche l’intera comunità, che deve confrontarsi con tali cambiamenti e valutare le implicazioni etiche e deontologiche. Inoltre, è necessario ricalibrare alcune questioni legate alla tutela della nostra categoria, che vanno dai compensi alla formazione continua e alla definizione di nuove competenze professionali.
In questo scenario, abbiamo deciso di aprire un dialogo innanzitutto sul tema piattaforme, come nel recente webinar “La psicologia nel mondo digitale: quali opportunità per gli psicologi?” che puoi rivedere qui.
Ma per avere un quadro completo del panorama sull’AI, partiamo da alcune recenti linee guida.
La Convenzione sull’intelligenza artificiale (AI) adottata dal Consiglio d’Europa (nota anche come “Convenzione sull’AI”)
La recente convenzione quadro sull’Intelligenza Artificiale del Consiglio d’Europa (che puoi approfondire qui) rappresenta un importante passo avanti nel delineare linee guida e principi etici per l’uso responsabile dell’IA (vedi BOX1).
Box 1 principi generali – La Convenzione sull’intelligenza artificiale (AI)
Tutela dei Diritti Umani: Garantire che l’AI rispetti i diritti umani, la dignità umana e la privacy. Non Discriminazione: Evitare bias e discriminazioni nei sistemi di AI, assicurando equità e parità di trattamento. Trasparenza: Garantire la trasparenza degli algoritmi e dei processi decisionali dell’AI, rendendo comprensibile il funzionamento e le decisioni prese dall’AI. Responsabilità: Stabilire chi è responsabile per le azioni e le decisioni prese dai sistemi di AI, con chiari meccanismi di accountability. Sicurezza e Affidabilità: Assicurare che i sistemi di AI siano sicuri, affidabili e funzionino in modo corretto in ogni circostanza. Controllo Umano: Mantenere il controllo umano sui sistemi di AI, garantendo che l’AI non sostituisca decisioni umane critiche. Protezione dei Dati: Assicurare che i dati personali utilizzati e trattati dai sistemi di AI siano protetti in conformità con le leggi sulla protezione dei dati. Sostenibilità: Promuovere lo sviluppo e l’uso di AI in modo sostenibile, considerando l’impatto ambientale e sociale. Inclusività: Garantire che lo sviluppo e l’uso dell’AI siano inclusivi, tenendo conto delle diverse esigenze e caratteristiche della popolazione. Innovazione Responsabile: Favorire l’innovazione nell’ambito dell’AI in modo etico e responsabile, promuovendo il progresso tecnologico senza compromettere i valori fondamentali della società. |
In primis, la convenzione pone particolare attenzione alla valutazione e alla mitigazione dei rischi e degli impatti delle tecnologie emergenti: questo punto riveste un’importanza cruciale anche per la nostra comunità professionale.
Altrettanto rilevante è l’AI Act approvato a marzo 2024, regolamento UE che ha un impatto diretto sulla vita delle imprese e delle istituzioni in termini di valutazione e contrasto dei rischi dell’AI. L’Act assegna le applicazioni dell’IA a tre categorie di rischio.
- In primo luogo, le applicazioni e i sistemi che creano un rischio inaccettabile, come il social scoring gestito dal governo, del tipo utilizzato in Cina, sono vietati.
- In secondo luogo, le applicazioni ad alto rischio, come uno strumento di scansione dei CV che classifica i candidati, sono soggette a requisiti legali specifici.
- Infine, le applicazioni non esplicitamente vietate o elencate come ad alto rischio sono in gran parte lasciate non regolamentate.
L’AI Act, come il Regolamento generale sulla protezione dei dati (GDPR) dell’UE nel 2018, potrebbe diventare uno standard globale, determinando in che misura l’IA ha un effetto positivo, piuttosto che negativo, sulla vita delle persone.