Il MIT Computer Science and Artificial Intelligence Laboratory è un istituto di ricerca del Massachusetts Institute of Technology nato dalla fusione nel 2003 del Laboratory for Computer Science e dell’Artificial Intelligence Laboratory.
Un gruppo di ricercatori del MIT ha sviluppato un modo per insegnare ai robot abilità sociali, come imparare ad aiutare gli esseri umani o altri robot a completare i compiti quando ne hanno bisogno.
I risultati possono rappresentare un passo significativo verso l’introduzione dei robot nella forza lavoro.
Intanto, anche la divisione AI di Meta avrebbe creato dei sensori che permettono ai robot di “sentire” ciò che stanno toccando, all’interno di una ricerca che resta open source.

Per studiare queste interazioni, i ricercatori hanno creato un ambiente 2D simulato che ha permesso ai robot virtuali di perseguire obiettivi sia sociali che fisici. Ad esempio, un obiettivo fisico potrebbe essere muoversi verso un albero in un certo punto su una griglia, mentre un obiettivo sociale è indovinare cosa sta cercando di fare un altro robot e poi agire in base a quello, “come aiutare un altro robot ad innaffiare l’albero, ” secondo CSAIL.
Il robot viene ricompensato per le azioni che lo avvicinano ai suoi obiettivi, con una ricompensa corrispondente per l’aiuto e una ricompensa opposta per l’ostacolo.
Il team ha creato tre tipi di robot:
- il primo ha solo obiettivi fisici,
- il secondo ha obiettivi fisici e sociali, ma presuppone che tutti i robot abbiano solo obiettivi fisici,
- Il terzo presuppone che tutti gli altri abbiano obiettivi sociali e fisici, quindi può intraprendere azioni più avanzate come unirsi ad altri per raggiungere un obiettivo.

Anche i bambini piccoli sembrano comprendere le interazioni sociali, come aiutare e all’opposto ostacolare, ma non abbiamo ancora macchine in grado di eseguire questo ragionamento con qualcosa di simile alla flessibilità del livello umano.
Il team ha creato 98 scenari diversi con tutti e tre i tipi di robot.
Dodici umani hanno guardato quasi 200 video clip dei robot che interagiscono, e poi hanno dovuto stimare gli obiettivi fisici e sociali.
Nella maggior parte dei casi, il loro modello concordava con ciò che gli umani pensavano delle interazioni sociali che si verificavano in ogni fotogramma, hanno detto i ricercatori.

I ricercatori sperano che i risultati raggiunti siano un “punto di riferimento” che consenta ad altri scienziati di lavorare su interazioni sociali simili.
Successivamente, hanno in programma di creare un ambiente più complesso, con agenti 3D che consentano molti tipi di interazioni.
L’obiettivo finale è non solo insegnare ai robot come interagire meglio socialmente, ma “scavare più a fondo nell’aspetto umano di queste interazioni”, ha affermato il ricercatore senior Andrei Barbu.
“Possiamo effettuare un test oggettivo per la tua stessa capacità di riconoscere le interazioni sociali? Forse c’è un modo per insegnare alle persone a riconoscere queste interazioni sociali e migliorare le proprie personali capacità”.

E tu cosa ne pensi di questa importante news? Raccontacelo nei commenti sui nostri canali social.
Di fronte al crescente deficit di umanità, in corso nella nostra società, forse possiamo imparare qualcosa dall’osservazione dei robot del MIT?
Magari proprio a “curare” la disumanizzazione quasi contagiosa che ormai ci affligge.