cronaca

2 minuti e 50 secondi di lettura
I ricercatori dell'Istituto Italiano di Tecnologia (IIT) a Rovereto (Trento) hanno scoperto che il modo in cui le informazioni visive sono elaborate dal cervello umano è influenzato dalle capacità di afferrare gli oggetti con le braccia, e di conseguenza dalla dimensione degli arti: se le nostre braccia fossero più lunghe o più corte, il cervello riadatterebbe, in modo veloce, la sua capacità di interpretare gli stimoli sensoriali. La scoperta potrà avere applicazioni nel campo della robotica e nello studio di protesi e tecniche riabilitative.


Lo studio è stato pubblicato sulla rivista internazionale The Journal of Neuroscience ed è stato condotto da un gruppo di ricercatori nel laboratorio di Active Vision del Center for Neuroscience and Cognitive Systems (CNCS) dell'IIT a Rovereto (Trento), coordinato dai ricercatori Robert Volcic e Fulvio Domini.


La ricerca nasce all'interno dello studio dei processi cognitivi dell'uomo, in particolare di come il cervello sia in grado di percepire il mondo circostante unendo le informazioni sensoriali con i movimenti del corpo. Nel loro studio i ricercatori si sono interrogati sulla possibilità che il corpo intervenga nella percezione della profondità ottenuta dalla visione stereoscopica.


La visione stereoscopica, o tridimensionale, è resa possibile dal fatto che il nostro corpo è munito di due occhi distanti fra loro, i quali trasmettono al cervello due immagini della realtà diverse. Sebbene sia la fonte primaria di informazioni per avere una percezione di profondità della realtà che guardiamo, la vista non è sufficiente a determinare l'esatta dimensione delle cose. Lo stesso oggetto può apparirci più grande o più piccolo di quanto lo sia realmente, se lo osserviamo più da vicino o più da lontano. Tuttavia, il cervello è in grado di realizzare la misura con precisione a una distanza di una decina di centimetri. I ricercatori del CNCS hanno mostrato che tale distanza è determinata dalla capacità di afferrare e manipolare gli oggetti in quella posizione.


I ricercatori hanno studiato il comportamento singolo di quaranta persone in un sistema di realtà virtuale sviluppato al CNCS di IIT. Questo sistema consentiva di alterare visivamente la lunghezza del braccio con il quale i soggetti raggiungevano oggetti virtuali. Prima e dopo questa breve sessione ai soggetti veniva chiesto di valutare la dimensione di oggetti 3D. Si è visto che l'alterazione del braccio, e quindi della capacità di afferrare oggetti, ha un profondo impatto sui processi sensoriali visivi.


"Il nostro studio evidenzia che le informazioni ottenute attraverso l'interazione con il mondo circostante sono importanti nella costante calibrazione dei processi sensoriali", dichiara Robert Volcic, ricercatore al CNCS di IIT e primo autore dell'articolo, "Ci fornisce, inoltre, degli indizi sui meccanismi che adottano i sistemi sensoriali per compensare i cambiamenti corporei durante l'ontogenesi, cioè durante lo sviluppo biologico dell'organismo."


I risultati hanno mostrato che il ruolo di questi processi adattativi è quello di ottimizzare la percezione visiva a una distanza per cui la stima corretta della profondità è assolutamente necessaria: dove gli oggetti sono manipolati, esplorati e afferrati.


"I nostri risultati sono di fondamentale importanza per comprendere come il cervello estrae la profondità tridimensionale di oggetti visivi", aggiunge Fulvio Domini, coordinatore del gruppo di ricerca al CNCS di IIT, "la scoperta potrà avere applicazioni nello sviluppo di robot biologicamente ispirati e nello studio di protesi e tecniche riabilitative".