IA e Risorse Umane: intervento di Mara Prandi all’Ethical HR
Consulenza

IA e Risorse Umane: intervento di Mara Prandi all’Ethical HR

L’Intelligenza Artificiale è un argomento sulla bocca di tutti: che sia per critica nei confronti del suo utilizzo, o per decantare la sua capacità di ragionamento sempre più sofisticata, è innegabile il suo ruolo da protagonista attuale, soprattutto nel mondo del lavoro.

Proprio per questo, noi di Howay abbiamo deciso di adeguare il nostro catalogo formativo, offrendo percorsi incentrati sull’Intelligenza Artificiale applicata al lavoro, per aiutare professionisti e aziende ad accogliere le nuove tecnologie, integrarle nella propria strategia di business e trarne il massimo dei benefici.

In un contenuto precedente abbiamo anche approfondito gli aspetti normativi della digitalizzazione, andando ad analizzare quali sono i confini legali entro cui l’IA può operare, garantendo dignità, sicurezza e rispetto degli aspetti più umani del proprio mestiere, anche nei confronti dei clienti.

Esiste però un ulteriore livello di riflessione, spesso meno visibile ma determinante nella pratica quotidiana: la dimensione etica del rapporto tra IA e Risorse Umane. Un tema complesso e attuale, che è stato al centro dell’intervento di Mara Prandi, CEO di Howay, all’Ethical HR 2026 di Milano e che guiderà il filo conduttore di questo articolo.

Il ruolo delle Risorse Umane nell’Azienda

Quando si parla di Risorse Umane le persone pensano subito alla gestione amministrativa dell’azienda e al supporto operativo dei dipendenti, un ruolo spesso raccontato in modo riduttivo, senza tener conto della sua rilevanza nel contesto lavorativo, oltre che delle sue numerose sfaccettature.

In passato abbiamo già spiegato cosa significhi lavorare nelle Risorse Umane, in termini di ruoli e compiti che vengono svolti all'interno della divisione. In breve, le HR incidono ogni giorno su decisioni che hanno un impatto diretto sulle persone: ruoli, percorsi di carriera, valutazioni delle performance, priorità, conflitti, possibilità di sviluppo. Decisioni che richiedono lucidità, equilibrio e senso di responsabilità, ma che vengono prese sempre più spesso in condizioni di pressione, velocità e sovraccarico informativo.

È qui che emerge una contraddizione poco discussa: chiediamo alle persone di pensare bene e decidere meglio, senza interrogarci sul contesto cognitivo in cui queste decisioni avvengono.

Il lavoro, infatti, non è solo un luogo di produzione, ma un vero e proprio ambiente cognitivo. Ogni organizzazione educa, consapevolmente o meno, a un certo modo di osservare la realtà, interpretare i dati e assumersi responsabilità. Questo avviene ogni giorno, attraverso ciò che viene premiato, ciò che viene tollerato e il ritmo con cui si chiede di agire.

Le Risorse Umane si inseriscono in questo frangente non tanto con la funzione di controllo, ma piuttosto come progettiste del contesto in cui le decisioni diventano possibili. Perché esiste una differenza sostanziale tra chiedere autonomia e creare le condizioni per esercitarla, così come tra invocare responsabilità e sostenere la fatica che la responsabilità comporta. Senza questa consapevolezza, anche i discorsi su etica, benessere e leadership rischiano di restare mere dichiarazioni di principio, anche quando si tratta di Intelligenza Artificiale.

AI e Risorse Umane: il vero problema etico

È proprio all’interno di questo ambiente cognitivo che, come sottolinea Mara Prandi, CEO di Howay, nel suo intervento all’Ethical HR di Milano, emerge l’elemento che oggi non può più essere ignorato: l’Intelligenza Artificiale. Non come futuro da immaginare o innovazione da valutare, ma come presenza già attiva nel lavoro quotidiano delle Risorse Umane. L’IA è nelle email, nei documenti, nelle job description, nelle riflessioni strategiche e, sempre più spesso, nelle decisioni che riguardano persone, ruoli e percorsi professionali. Spesso, però, entra in gioco in modo informale, senza una cornice condivisa e senza che ci si sia davvero chiesti quale ruolo vogliamo assegnarle. Ed è qui che si apre il nodo etico.

Il problema, come evidenzia Prandi, non è “usarla o non usarla”, ma il fatto che stia già modificando il nostro modo di pensare e decidere, senza che questo cambiamento sia stato discusso consapevolmente. 

Il rischio più grande non è solo legato agli errori o bias, ma alla delega silenziosa: quando l’IA diventa una scorciatoia per risparmiare energia mentale, quando ci fidiamo perché “suona bene”, quando smettiamo di chiederci perché una risposta ci convince. Non per superficialità, ma per stanchezza. Una dinamica che porta ad un affidamento eccessivo e a una progressiva rinuncia al giudizio, particolarmente delicata per chi lavora con le persone e ne orienta scelte, carriere e valori.

Questo tema viene ulteriormente approfondito dall’intervento della psicologa e psicoterapeuta Flavia Cristofolini, che propone un workshop interattivo rivolto a executive, HR, imprenditori e AD, incentrato sull’IA come “terzo cervello” o “Sistema 0”. Attraverso un caso HR ad alto impatto, il lavoro mette a fuoco i principali rischi etici: antropomorfizzazione, over-reliance, scorciatoie mentali e delega eccessiva su persone e valori. Il tutto accompagnato da domande guida e prompt “safe-by-design”, e da tre metafore potenti (smart intern, thinking buddy, mirror cognitivo), che aiutano a riposizionare l’IA non come sostituto del giudizio umano, ma come elemento da governare con consapevolezza e responsabilità.

Una soluzione diversa: l’AI come Spazio di pensiero

Di fronte ai dilemmi etici legati all’Intelligenza Artificiale, la nostra proposta Howay non parte mai dagli strumenti, ma dalla postura con cui scegliamo di usarli. Come sottolinea Mara Prandi, il punto non è chiedersi cosa l’IA possa fare, ma che tipo di spazio stiamo creando per il pensiero umano mentre la utilizziamo. 

La maturità digitale, in questa visione, non coincide con la padronanza tecnica, ma con la capacità di restare presenti, intenzionali e responsabili anche quando la tecnologia rende tutto più semplice e veloce. Superare gli ostacoli etici significa allora rallentare, riportare attenzione sul contesto decisionale e riconoscere che ogni scelta che coinvolge le persone non è mai neutra. 

L’IA può diventare una scorciatoia, ma può anche trasformarsi in uno spazio di pensiero: un supporto che aiuta a mettere ordine, ampliare lo sguardo e chiarire le opzioni, senza rinunciare alla responsabilità del giudizio. 

È in questa direzione che si colloca anche il contributo di Flavia Cristofolini, con uno sguardo psicologico che interroga l’impatto delle tecnologie sulla qualità delle decisioni, sulle relazioni e sul benessere. 

Per accompagnare aziende e HR in questo percorso, Howay offre attività di consulenza HR strutturate, a partire dal Maturity Index: uno strumento che restituisce una fotografia reale del livello di preparazione dell’organizzazione, anche in relazione al mercato e ai competitor. Da qui nascono percorsi formativi personalizzati, pensati per colmare le lacune e sviluppare una maturità etica e professionale che non subisce l’innovazione, ma la governa. Questo perché il futuro del lavoro non dipende dalla tecnologia che useremo, ma dall’umanità che sceglieremo di esercitare mentre la usiamo.

Approfondimenti:

Scopri di più

continua a leggere

Ultimi novità e aggiornamenti