Intelligenza artificiale (AI) dovrebbe avere un forte impatto sulla società, la cultura e l'economia, e la sua applicazione nelle città e negli ambienti urbani è ampiamente dibattuta. Uno degli ultimi temi caldi è l'IA emozionale, la tecnologia emergente che permette alle macchine di percepire, imparare e interagire con i movimenti, gli umori e le intenzioni delle persone, facendo leva su dati come la temperatura e i movimenti del corpo, le voci e le espressioni facciali.

L'IA emotiva può essere utilizzata per una serie di obiettivi, tra cui la prevenzione del crimine e il miglioramento della sicurezza pubblica. L'idea alla base è quella di prevedere il comportamento e l'intenzione individuale rilevando come una persona si muove o parla e correlando i dati come la frequenza cardiaca e la temperatura. Se siamo in grado di capire quando un guidatore si sente stanco, potremmo per esempio avere un sistema a bordo dell'auto per chiedere una pausa e prevenire un incidente.

L'IA emotiva ha naturalmente forti implicazioni etiche dovute alla raccolta e al trattamento di dati personali e sensibili. L'intersezione tra le opportunità e i rischi dell'IA emotiva è oggetto di indagine da parte di alcuni ricercatori della Northumbria University di Newcastle, che hanno appena annunciato un progetto triennale intitolato IA emozionale in Città: Lezioni interculturali dal Regno Unito e dal Giappone su come progettare una vita etica.

Metteranno a confronto le esperienze e il prezioso know-how del Regno Unito e del Giappone, esplorando sia i benefici che i potenziali problemi dell'uso dell'IA emozionale in Le Smart Citycon particolare attenzione alla polizia e alla sicurezza. Il team esaminerà anche la governance esistente per la raccolta e l'utilizzo di dati intimi in relazione alle emozioni delle persone, soprattutto negli spazi pubblici.

Il progetto stimolerà lo sviluppo di un think tank per fornire consigli imparziali sull'uso dell'IA emozionale ai governi di tutto il mondo, così come all'industria, agli educatori e ad altri stakeholder.