Nanofibre sostenibili per l’elettronica indossabile

Una ricerca portata avanti da CNR-IMEM in stretta collaborazione con CNR-IAS, Dipartimenti di Chimica e Chimica Industriale (DICCI) e Fisica (DiFi) dell’Università di Genova e Dipartimento di Ingegneria Civile Ambientale e Meccanica (DICAM) dell’Università degli Studi di Trento.

Il gruppo di Marco Smerieri del Consiglio Nazionale delle Ricerche ha sviluppato tessuti non tessuti conduttivi, composti da nanofibre ottenute tramite elettrofilatura. I ricercatori hanno utilizzato una combinazione di polimeri, tra cui PEDOT:PSS e PEO, per ottenere strutture sottili, leggere e autoportanti. Questi materiali uniscono conducibilità elettrica, robustezza e resistenza meccanica, qualità essenziali per dispositivi elettronici che devono adattarsi ai movimenti del corpo.

Lo studio, realizzato all’interno dello Spoke 2 dell’ecosistema RAISE, rappresenta un contributo importante allo sviluppo di materiali innovativi per l’elettronica indossabile: ha introdotto una nuova classe di materiali conduttivi sostenibili, pensati per applicazioni flessibili e a contatto con il corpo umano, come sensori e dispositivi per la riabilitazione.

Le nanofibre sono state sottoposte a un trattamento termico per migliorarne le prestazioni. Le analisi elettriche e meccaniche hanno evidenziato un netto aumento della conducibilità e della resistenza del materiale. I test hanno inoltre confermato la capacità delle fibre di mantenere stabilità e prestazioni anche in configurazioni sottili e flessibili, qualità che favoriscono l’integrazione in dispositivi indossabili.

Accanto agli aspetti tecnologici è stata dedicata grande attenzione all’impatto ambientale dei nuovi materiali. Il team ha condotto una serie di test ecotossicologici su organismi acquatici, tra cui batteri, alghe e piccoli crostacei, per simulare il possibile rilascio dei materiali negli ecosistemi naturali. Gli esperimenti hanno coinvolto sia organismi d’acqua dolce sia specie marine, un ambito ancora poco esplorato per questa classe di materiali.

I risultati rivelano un quadro incoraggiante: le nanofibre conduttive presentano una buona compatibilità ambientale e non hanno prodotto effetti tossici significativi sugli organismi testati. Questo approccio ha permesso di integrare, fin dalle prime fasi della ricerca, la valutazione della sostenibilità, un elemento sempre più centrale nello sviluppo di nuovi materiali tecnologici.

Il lavoro ha così costruito un ponte tra l’innovazione dei materiali e la responsabilità ambientale. L’approccio multidisciplinare ha combinato scienza dei materiali, ingegneria dei sensori ed ecotossicologia, offrendo una visione completa del ciclo di vita dei materiali e del loro potenziale impatto.

La realizzazione di un prototipo di guanto sensorizzato destinato alla riabilitazione motoria ha messo in luce il potenziale applicativo di queste nanofibre. Il dispositivo integra sensori di pressione, basati sulle fibre conduttive sviluppate dal gruppo di ricerca. Durante le prove sperimentali, il guanto ha registrato movimenti e pressioni con misurazioni affidabili e precise, aprendo la strada a strumenti utili al monitoraggio dei percorsi riabilitativi e alle tecnologie assistive.

I ricercatori hanno indicato alcune direzioni per gli sviluppi futuri. Nuovi studi potranno migliorare la stabilità dei sensori in condizioni d’uso prolungate, ampliare i test in diversi scenari applicativi e affrontare le sfide legate alla produzione su larga scala di tessuti conduttivi elettrofilati. Ulteriori ricerche potranno integrare nuove funzionalità nei dispositivi e approfondire l’analisi degli effetti ambientali nel lungo periodo.

“Nell’ecosistema RAISE abbiamo potuto sviluppare un materiale funzionale, versatile e innovativo”, spiega Marco Smerieri, coordinatore dell’attività, “adatto ad essere impiegato come sensore di pressione indossabile, non invasivo, utile in contesti diversi, dalla medicina alla riabilitazione, alla protesica, fino alla robotica. RAISE ci ha permesso di sviluppare e studiare questo materiale, partendo da zero, fino alla realizzazione di un prototipo di guanto sensorizzato, testato in laboratorio. L’approccio multidisciplinare è il vero valore aggiunto del progetto: abbiamo unito lo studio delle proprietà meccaniche di questi nuovi materiali e l’analisi del loro impatto ambientale. I risultati fin qui ottenuti ci permettono di considerare questi materiali anche come sensori di temperatura indossabili e conformabili. Stiamo inoltre finalizzando la registrazione di un brevetto per proteggerne l’utilizzo in un contesto più ampio. Questa tecnologia, infatti, apre la strada allo sviluppo di sistemi sensorizzati più complessi, come una pelle artificiale sensorizzata elettronicamente (e-skin), in grado di misurare in tempo reale diversi tipi di stimoli sensoriali tattili.
Vorrei ringraziare le colleghe Veronica Piazza e Chiara Gambardella del CNR-IAS, Maria Pantano dell’Università di Trento e i colleghi Dario Cavallo e Roberto Spotorno dell’Università di Genova, che con tenacia e impegno hanno collaborato per ottenere tali importanti risultati”.

Oltre il laboratorio: sensori e intelligenza artificiale per una cura sempre più connessa

È online la quarta puntata di “Incontri con il Futuro – Storie di innovazione dall’ecosistema RAISE”, il videopodcast realizzato in collaborazione con Rinnovabili.it che racconta progetti e protagonisti della ricerca in robotica e intelligenza artificiale.

L’episodio ha affrontato un tema centrale per il futuro della sanità: il monitoraggio intelligente della salute. Ospite della puntata è stata Giulia Bodo, Postdoctoral Researcher presso Rehab Technologies – Istituto Italiano di Tecnologia / INAIL Lab, che collabora alle attività dello Spoke 2 dell’ecosistema RAISE e ha presentato le soluzioni sviluppate per il monitoraggio clinico attraverso sensori ambientali e dispositivi wearable.

Nel corso della conversazione, il racconto ha mostrato come queste tecnologie abbiano ampliato le possibilità di osservazione e analisi dello stato di salute delle persone, portando la raccolta dei dati oltre i contesti ospedalieri e ambulatoriali. Sensori integrati negli ambienti e dispositivi indossabili hanno consentito di raccogliere informazioni in modo continuo, offrendo una visione più completa e dinamica delle condizioni dei pazienti.

La puntata ha approfondito le applicazioni in diversi ambiti clinici. Giulia Bodo ha illustrato l’utilizzo di queste soluzioni nel follow-up di pazienti pediatrici, geriatrici e affetti da sclerosi multipla.

Il monitoraggio costante ha permesso di osservare l’evoluzione delle condizioni cliniche nel tempo, supportando medici e operatori sanitari nella valutazione dei percorsi di cura e nella definizione di interventi più mirati.

L’integrazione tra sensori e intelligenza artificiale ha rappresentato un elemento chiave. L’analisi dei dati raccolti ha reso possibile individuare pattern significativi e variazioni rilevanti, offrendo strumenti utili per interpretare segnali complessi e migliorare la qualità delle decisioni cliniche. Questo approccio ha contribuito a rendere la cura più personalizzata e attenta alle esigenze specifiche di ogni paziente.

Nel corso dell’episodio, è emersa anche la capacità di queste tecnologie di accompagnare la vita quotidiana delle persone. Il monitoraggio si è inserito in modo discreto nei contesti di vita, favorendo una continuità tra osservazione clinica e quotidianità. Questo ha aperto nuove prospettive per una sanità sempre più diffusa sul territorio, capace di intervenire in modo tempestivo e di sostenere percorsi di cura a lungo termine.

Il dialogo ha evidenziato il valore della collaborazione tra ricerca scientifica e applicazioni cliniche. L’esperienza di Rehab Technologies ha mostrato come competenze ingegneristiche, mediche e tecnologiche possano convergere nello sviluppo di soluzioni concrete, in grado di rispondere a bisogni reali.

La nuova puntata del videopodcast ha quindi offerto uno sguardo chiaro e accessibile su come sensori e intelligenza artificiale possano contribuire a trasformare il monitoraggio della salute. Un racconto che ha delineato una visione della cura sempre più connessa, personalizzata e integrata nella vita delle persone.

Il linguaggio del movimento umano al centro della nuova puntata del videopodcast RAISE

È online una nuova puntata di “Incontri con il Futuro – Storie di innovazione dall’ecosistema RAISE”, il videopodcast realizzato in collaborazione con Rinnovabili.it che racconta i protagonisti e le frontiere della ricerca in robotica e intelligenza artificiale.

L’episodio ha esplorato un ambito di grande rilevanza scientifica e applicativa: l’analisi del movimento umano e le opportunità offerte dalle tecnologie digitali per comprenderlo in modo sempre più preciso e accessibile.

Ospite della puntata è stato Matteo Moro, ricercatore di Computer Science dell’Università di Genova presso il MaLGa Center, il cui lavoro si inserisce all’interno dello Spoke 2 dell’ecosistema RAISE.

Nel corso della conversazione, il racconto ha messo in luce come tecnologie come computer vision e machine learning abbiano aperto nuove possibilità nello studio del movimento. L’analisi ha preso forma a partire da semplici video, consentendo di osservare e interpretare gesti e dinamiche corporee senza ricorrere a sensori invasivi o a strumentazioni complesse tipiche dei laboratori specializzati. Questo approccio ha reso più accessibile la raccolta e l’elaborazione dei dati, favorendo una diffusione più ampia di strumenti avanzati.

La puntata ha approfondito in particolare le applicazioni in ambito clinico e riabilitativo. Matteo Moro ha illustrato come l’analisi del cammino rappresenti un campo di grande interesse, in cui l’intelligenza artificiale ha permesso di individuare pattern e variazioni utili per comprendere meglio lo stato di salute delle persone. L’osservazione sistematica del movimento ha offerto indicazioni preziose per il monitoraggio dei percorsi riabilitativi e per la valutazione dell’efficacia degli interventi terapeutici.

Accanto a questi aspetti, il dialogo ha evidenziato il contributo che queste tecnologie hanno portato allo studio dei disturbi neurologici. L’interpretazione dei dati visivi ha consentito di cogliere segnali anche sottili, aprendo la strada a strumenti di supporto sempre più raffinati per la diagnosi e il follow-up clinico. La possibilità di utilizzare video acquisiti in contesti quotidiani ha inoltre avvicinato la ricerca alla pratica clinica, creando nuove opportunità di integrazione tra innovazione tecnologica e medicina.

Nel corso dell’episodio, è emerso con chiarezza il valore di un approccio interdisciplinare, in cui competenze informatiche, mediche e scientifiche hanno dialogato per costruire soluzioni concrete. L’ecosistema RAISE ha offerto un contesto in cui queste sinergie hanno preso forma, favorendo lo sviluppo di strumenti capaci di rispondere a bisogni reali.

La nuova puntata del videopodcast ha quindi offerto una visione chiara e accessibile di come l’intelligenza artificiale possa contribuire a interpretare il linguaggio del corpo umano, trasformando dati visivi in conoscenza utile per la ricerca e la medicina. Un racconto che ha mostrato come l’innovazione possa avvicinare tecnologie avanzate alla vita quotidiana, aprendo prospettive concrete per il futuro della salute e del benessere.

R1, il robot che porta l’AI negli spazi quotidiani

All’interno dell’ecosistema dell’innovazione RAISE – Robotics and AI for Socio-economic Empowerment, la ricerca sulla robotica ha dato vita a nuove soluzioni capaci di integrare intelligenza artificiale e ambienti intelligenti.

Tra queste applicazioni si distingue R1, robot di servizio sviluppato presso l’Istituto Italiano di Tecnologia, progettato per operare in contesti quotidiani come abitazioni, strutture sanitarie e spazi pubblici dedicati all’accoglienza e all’informazione.

Nel corso delle attività di RAISE, i ricercatori e i tecnici della linea di ricerca Humanoid Sensing and Perception dell’IIT hanno lavorato allo sviluppo delle funzionalità di R1 nell’ambito dello Spoke 2 dedicato alle tecnologie urbane per ambienti inclusivi. Il team ha contribuito al Work Package 1, concentrando il lavoro sull’evoluzione del robot come assistente capace di interagire con persone e infrastrutture digitali.

“Siamo qui con R1, il nostro robot di servizio, per raccontare le attività svolte all’interno del progetto”, ha spiegato Ettore Landini – Senior technician – linea di ricerca HSP (Humanoid Sensing and Perception) durante una dimostrazione delle applicazioni sviluppate nel corso del progetto. Il gruppo ha progettato R1 come un assistente domestico e informativo, in grado di operare in case, hall ospedaliere o punti informativi.

Il lavoro ha coinvolto diversi gruppi di ricerca dell’ecosistema RAISE. In particolare, il team ha collaborato con il laboratorio Pattern Analysis and Computer Vision – PAVIS per integrare il robot all’interno di un ambiente intelligente, dove sensori e sistemi di intelligenza artificiale raccolgono dati e li trasformano in servizi utili per le persone. In questo contesto R1 ha svolto un ruolo centrale: il robot ha agito come agente fisico capace di ricevere informazioni dall’ambiente digitale e di intervenire direttamente nello spazio reale.

I ricercatori hanno concentrato lo sviluppo su due capacità fondamentali. La prima ha riguardato l’interazione vocale. R1 ha compreso comandi espressi in linguaggio naturale e ha dialogato con gli utenti in modo intuitivo. Questa modalità di comunicazione ha permesso anche a persone prive di competenze tecniche di interagire con il robot e di richiedere servizi in modo semplice e immediato.

La seconda area di sviluppo ha riguardato la manipolazione degli oggetti. Il robot ha acquisito la capacità di riconoscere e afferrare elementi presenti nell’ambiente e di spostarli secondo le richieste ricevute. Durante le dimostrazioni, R1 ha individuato un oggetto su un tavolo attraverso il proprio sistema di visione, lo ha afferrato e lo ha trasportato verso una nuova posizione indicata dall’utente.

Sul monitor collegato al robot è stato possibile osservare in tempo reale ciò che R1 ha percepito attraverso i propri sensori: l’ambiente circostante, il tavolo e l’oggetto identificato dal sistema di visione artificiale. Una volta completata la presa, il robot ha trasportato l’oggetto nel punto indicato e ha poi raggiunto nuovamente la propria posizione di partenza.

Il team ha condotto test sperimentali presso il Center for Human Technologies dell’IIT agli Erzelli di Genova, dove ha verificato il funzionamento dell’architettura software dedicata alla navigazione autonoma in ambienti strutturati. I test con volontari hanno permesso di valutare l’efficacia delle interazioni e la capacità del robot di muoversi in sicurezza all’interno degli spazi.

La storia di R1 ha preso avvio nel 2016 a Genova, con il completamento del primo prototipo. Negli anni successivi il progetto ha evoluto hardware e software fino alla versione attuale, che ha trovato nel programma RAISE un contesto ideale per sperimentare nuove applicazioni legate alla vita quotidiana.

Attraverso queste attività, RAISE ha mostrato come la robotica possa diventare una componente concreta degli ambienti intelligenti del futuro. R1 ha rappresentato un esempio di integrazione tra intelligenza artificiale, percezione robotica e servizi per le persone, aprendo la strada a nuovi scenari di assistenza, informazione e supporto nelle città e negli spazi di cura.

Il Progetto RespirArTe, nell’ambito di Spoke 2 e Spoke 1

RespirArTe è un protocollo e una tecnologia innovativa in due ambiti:
– supporto alla riabilitazione di anziani fragili in ospedale o casa di cura;
– nuove forme di valorizzazione del patrimonio culturale sul territorio in una dimensione inclusiva e riabilitativa, definendo un concetto di salute, globalmente intesa come ricostituibile armonia nella relazione tra le funzioni fisiche, intellettuali, emotive e sociali della persona.

RespirArTe propone esperienze interattive finalizzate alla coordinazione tra respiro e movimento di tutto il corpo, attraverso la scoperta progressiva delle emozioni di stupore, meraviglia e sublime evocate dai dipinti paesaggistici.

Nel primo caso d’uso specifico, l’obiettivo è quello di rompere il senso di costrizione che può emergere nei pazienti anziani, aprendo metaforicamente una finestra sul mondo esterno attraverso dipinti paesaggistici immersivi proiettati sulle pareti che stimolano un senso di meraviglia.

In RespirArTe, l’arte è sia fonte di ispirazione che elemento centrale dell’interazione, creando un legame affettivo ed estetico attraverso l’interazione corporea espressiva.

Il sistema si basa sui principi di Slow Mood e di Risonanza Estetica, attraverso l’utilizzo di tecnologie innovative di intelligenza artificiale, di analisi e sonificazione in tempo reale del movimento, con l’obiettivo di effettuare esercizio fisico e cognitivo in un contesto coinvolgente e immersivo, con lo scopo di evocare un senso di stupore e meraviglia attraverso la scoperta e contemplazione di dipinti paesaggistici.

RespirArTe è stato sperimentato nell’evento di Spoke 1 “Inclusione Reale: quando la casa diventa museo e il museo torna a essere casa” (3 dicembre 2025, Palazzo Reale, Genova) in occasione della “Giornata internazionale delle persone con disabilità”.

Il progetto è realizzato da InfoMus-Casa Paganini (UniGe) nell’ambito dell’ecosistema RAISE, Spoke 1 e Spoke 2.

Alla luce delle attività svolte e dei risultati ottenuti, RespirArTe rappresenta un approccio integrato e replicabile che coniuga ricerca scientifica, innovazione tecnologica e valorizzazione culturale, contribuendo allo sviluppo di pratiche inclusive per la promozione della salute e del benessere della persona.

Immagine di copertina
Autore: Marzio Cardellini (Bluframe)
Crediti: RAISE

DanzArTe – Emotional Wellbeing Technology nell’ambito dello Spoke 2 e Spoke 1

DanzArTe – Emotional Wellbeing Technology comprende un nuovo protocollo scientificamente e clinicamente validato (grazie alla collaborazione con l’ospedale Galliera di Genova, Unità Cure Geriatriche) e di una piattaforma tecnologica a costi sostenibili per il trattamento di anziani a rischio fragilità e per la fruizione attiva di contenuti artistici.

DanzArTe prevede l’interazione con contenuti visuali (opere di arti visive) e sonori (sonificazione interattiva): un innovativo protocollo che supporta l’esperienza attiva (risonanza estetica) con l’arte è alla base di un sistema interattivo per un’attività fisica e di stimolazione cognitiva adattate alle necessità di anziani fragili o a rischio fragilità: danzare l’Arte come attività fisica ed esercizio cognitivo di memory training per ritrovare, danzando, se stessi (Danzare Arte, danzare Te).

Attraverso DanzArTe i partecipanti sono messi in contatto in modo particolarmente intenso con il mondo dell’arte e scoprono nuove forme di valorizzazione del patrimonio culturale sul territorio in una dimensione inclusiva e riabilitativa, definendo un concetto di salute, globalmente intesa come ricostituibile armonia nella relazione tra le funzioni fisiche, intellettuali, emotive e sociali della persona.

Attraverso tecnologie di intelligenza artificiale, di analisi e sonificazione in tempo reale del movimento, DanzArTe guida in modo interattivo i partecipanti a ricostituire, singolarmente o in gruppo, i contenuti gestuali (e loro conseguenti valori emozionali) di antiche opere di arte sacra, con semplici movimenti e rivelative manipolazioni di suoni e di immagini.

La emotional wellbeing technology (multimodale e interattiva) di DanzArTe trasforma il “contatto fisico” con l’opera d’arte in una nuova pratica amatoriale collettiva che, esercitando in maniera emozionale movimento e memoria, crea una coinvolgente esperienza di comunità.

Il progetto è stato sperimentato e utilizzato in 10 RSA in Liguria e in Piemonte, presso il centro di riabilitazione internazionale Villa Beretta (Lecco) e in centri di aggregazione per anziani, attraversando anche gli istituti museali del territorio ligure e piemontese, inclusa una sperimentazione presso il Museo Diocesano di Genova e a Palazzo Reale.

Il progetto DanzArTe è nato come uno dei quattro progetti pilota del Cultural Wellbeing Lab della Compagnia di San Paolo. Le tecnologie di intelligenza artificiale, di analisi e sonificazione in tempo reale del movimento derivano da risultati ottenuti nel progetto UE H2020 FET PROACTIVE EnTimeMent.

Dal 2023, nell’ambito del progetto RAISE, DanzArTe è stato ulteriormente sviluppato ed esteso, per la fruizione attiva di contenuti culturali e opere d’arte in una prospettiva di cultural wellbeing e audience engagement.

Risultati di questa nuova fase del progetto sono stati presentati e sperimentati presso l’Ospedale Galliera (agosto 2025) nell’ambito dello Spoke 2 del progetto RAISE e in sperimentazioni nello Spoke 1 con il pubblico durante la Alzheimer Fest a Chiavari (settembre 2025) e nell’evento Inclusione Reale: quando la casa diventa museo e il museo torna a essere casa, 3 dicembre 2025, Palazzo Reale di Genova, in occasione della Giornata internazionale delle persone con disabilità. Queste attività sono state svolte da InfoMus-Casa Paganini nello lo Spoke 1,

In questo quadro, DanzArTe si configura come un modello innovativo e replicabile di integrazione tra arte, tecnologia e cura, capace di generare valore culturale, sociale e di salute, contribuendo in modo significativo agli obiettivi di inclusione, wellbeing e impatto territoriale promossi dal progetto RAISE.

Immagine di copertina
Autore della foto (frame da video): Marzio Cardellini (Bluframe)
Crediti: RAISE

Dati che parlano ai clinici: co-design per metriche e dashboard personalizzate

Nelle scorse settimane i gruppi RTECH e PAVIS di IIT dello Spoke 2 del progetto RAISE, impegnato nello sviluppo delle stanze sensorizzate, ha organizzato presso l’Ospedale Gaslini, la FISM e l’Ospedale Galliera una serie di sessioni di co-working con i partner clinici.

Gli incontri hanno rappresentato un’occasione concreta di confronto tra ricercatori, ingegneri, medici e terapisti, con l’obiettivo di condividere strategie per razionalizzare i risultati sperimentali e progettare strumenti di supporto utili alla pratica clinica quotidiana.

Durante le sessioni, il gruppo ha presentato i dati raccolti nell’ambito dei tre protocolli di studio approvati dal Comitato Etico Territoriale, illustrando le diverse tipologie di pazienti coinvolti e le metodologie di acquisizione dei segnali biometrici nelle stanze sensorizzate. Il progetto, che mira a integrare competenze tecnologiche e cliniche, ha raggiunto una fase avanzata delle attività sperimentali.

Le ricerche condotte presso la FISM hanno coinvolto soggetti con sclerosi multipla e gruppi di controllo sani, mentre presso l’Ospedale Galliera il lavoro si è concentrato sulla popolazione geriatrica, includendo pazienti con disturbo neurocognitivo maggiore, soggetti con sarcopenia e individui sani ospitati nell’appartamento sensorizzato. Sempre al Galliera, il gruppo ha monitorato pazienti in regime di day hospital per valutare la postura a riposo ed il rischio caduta. Parallelamente, presso l’Ospedale Gaslini, sono stati studiati bambini con emiparesi e i loro caregiver, sfruttando le potenzialità delle tecnologie sensorizzate per analizzare il movimento e la relazione spaziale tra adulto e bambino.

Nel laboratorio di Erzelli, infine, il team ha acquisito dati su diadi bambino – caregiver sani e, in collaborazione con il gruppo IIT HSP, su soggetti adulti impegnati in compiti di locomozione assistita dal robot R1, con lo scopo di studiare le variazioni del passo e le strategie di interazione da poter adottare per guidare i soggetti durante gli spostamenti in contesti a loro nuovi.

Il patrimonio di dati raccolti attraverso queste attività ha costituito una base solida per la successiva fase di analisi. Per valorizzarlo, il gruppo ha organizzato una serie di workshop e momenti di brainstorming con i partner clinici, dedicati a individuare le metriche più significative ricavabili dai sensori e a definire modalità di rappresentazione grafica dei risultati chiare, accessibili e coerenti con le esigenze operative dei medici.

Durante i lavori è emersa la necessità di disporre di dashboard personalizzate, capaci di restituire rapidamente le informazioni più rilevanti per la valutazione e il monitoraggio dei pazienti. I partecipanti hanno analizzato insieme i casi di studio, discutendo quali indicatori risultassero più utili per ciascun contesto clinico e come tradurli in visualizzazioni immediate, in grado di facilitare la lettura dei dati e il processo decisionale.

Queste attività di co-design hanno segnato un passaggio importante nel percorso di integrazione tra ricerca e pratica clinica. La collaborazione diretta con i professionisti sanitari ha consentito di orientare le soluzioni tecnologiche verso bisogni reali, rafforzando la connessione tra innovazione scientifica e assistenza.

Il lavoro svolto all’interno dello Spoke 2 ha così contribuito alla missione generale di RAISE: creare un ecosistema di ricerca e innovazione capace di sviluppare tecnologie inclusive e intelligenti, progettate intorno alla persona e al miglioramento della qualità della vita.

Spoke 2: una nuova pubblicazione sull’imaging ecografico

È in pubblicazione il volume Real-Time Processing of Ultrasound Images. State-of-the-Art and Future Perspectives (ottobre 2025), un’opera che affronta in modo approfondito e sistematico le più avanzate tecniche per l’elaborazione in tempo reale delle immagini ecografiche.

Gli autori del libro sono Giuseppe Patanè e Simone Cammarasana, ricercatori dell’Istituto di Matematica Applicata e Tecnologie Informatiche “Enrico Magenes” del Consiglio Nazionale delle Ricerche (CNR-IMATI) di Genova, entrambi coinvolti nelle attività dello Spoke 2 del progetto RAISE.

Il volume si propone come un contributo di grande rilievo per la comunità scientifica e clinica che opera all’intersezione tra imaging medico e processamento del segnale in tempo reale. L’ecografia rappresenta, infatti, una delle tecniche diagnostiche più diffuse e utilizzate in ambito sanitario, grazie alla sua sicurezza, all’assenza di radiazioni, alla portabilità e al costo contenuto. Queste caratteristiche ne fanno uno strumento insostituibile in molteplici contesti clinici, dal pronto soccorso alla medicina preventiva. Tuttavia, la qualità delle immagini ecografiche può essere condizionata da alcuni limiti intrinseci, quali la presenza di rumore “speckle” e la risoluzione non sempre ottimale, che possono ridurre la precisione dell’interpretazione diagnostica.

Il libro affronta queste criticità con un approccio mirato, proponendo soluzioni innovative per il miglioramento della qualità delle immagini. Particolare attenzione è dedicata alle tecniche di denoising, finalizzate alla riduzione del rumore senza compromettere i dettagli clinicamente rilevanti, e ai metodi di super-risoluzione, che consentono di aumentare la definizione delle immagini rendendo più evidenti strutture anatomiche e possibili anomalie. In questo modo, l’opera si configura come una guida di riferimento per chi intenda sviluppare nuove metodologie di elaborazione o introdurre strumenti avanzati nella pratica clinica quotidiana.

RAISE Spoke 2 - Una nuova pubblicazione sull’imaging ecografico

Uno degli elementi distintivi del testo è l’ampiezza degli argomenti trattati. Non ci si limita a un’analisi delle immagini statiche bidimensionali, ma si estende lo sguardo alle sequenze dinamiche in 2D e ai volumi tridimensionali, mostrando come l’elaborazione in tempo reale possa migliorare sensibilmente la capacità diagnostica e il monitoraggio delle patologie. Oltre a presentare un’ampia rassegna delle soluzioni attualmente disponibili, gli autori offrono anche valutazioni comparative, riflessioni sulle esigenze hardware e computazionali e indicazioni pratiche per l’implementazione nei contesti clinici e di ricerca.

La pubblicazione di Giuseppe Patanè e Simone Cammarasana si inserisce pienamente nel quadro delle attività di ricerca e sviluppo dello Spoke 2 che ha come obiettivo lo sviluppo, la validazione e l’integrazione nei contesti clinici della nuova generazione di sistemi di diagnostica per immagini basati sull’intelligenza artificiale. L’intento è potenziare le capacità di screening, diagnosi precoce, monitoraggio e supporto alle decisioni cliniche, affrontando al tempo stesso le questioni legate alla qualità e interoperabilità dei dati, alla costruzione di sistemi di AI affidabili e trasparenti, e alla conformità con i quadri normativi e organizzativi a livello nazionale ed europeo.

Il volume Real-Time Processing of Ultrasound Images contribuisce in modo rilevante a questi obiettivi strategici, offrendo un quadro aggiornato delle tecnologie disponibili e delineando le prospettive future dell’imaging ecografico. Si tratta di un esempio concreto di come la ricerca portata avanti nello Spoke 2 di RAISE possa tradursi in risultati tangibili a beneficio della comunità scientifica, dei professionisti della sanità e, in ultima analisi, dei pazienti.

I risultati della sperimentazione di INVICTUS per la riabilitazione personalizzata post-ictus

La sperimentazione di INVICTUS, piattaforma innovativa che integra sensori indossabili, intelligenza artificiale e cloud per supportare la riabilitazione motoria di persone con difficoltà agli arti, è alle fasi conclusive e mira a validare un ecosistema in grado di monitorare, analizzare e supportare l’attività riabilitativa a distanza, in ambito ospedaliero e nella vita quotidiana.

La sperimentazione ha coinvolto un gruppo di 12 volontari anziani (65÷80 anni), grazie alla collaborazione con Auser Liguria, che hanno utilizzato l’ecosistema INVICTUS in ambiente controllato presso le strutture del Campus di Savona (Università degli Studi di Genova), seguendo programmi di esercizio motorio personalizzato. Il flusso di lavoro prevede che il paziente utilizzi i diversi dispositivi in combinazione per eseguire esercizi riabilitativi personalizzati, mentre i dati vengono raccolti, analizzati e messi a disposizione dei professionisti sanitari per un monitoraggio continuo e l’eventuale adattamento della terapia.

L’iniziativa è stata presentata lo scorso 15 luglio a Savona alla presenza di Marco Testa (UniGe, stakeholder di progetto), di Anna Giacobbe (Auser Savona) e dei partner di progetto.

INVICTUS si inserisce nello Spoke 2 dell’ ecosistema RAISE ed è risultato vincitore di un bando a cascata di Spoke 5.

Al cuore del progetto vi è un insieme di elementi interconnessi:
– Sentry (Swhard Srl), sistema di tracciamento dell’arto superiore basato su sensori inerziali (IMU);
– Pinch (EMAC Srl), dispositivo certificato CE per misurare e riabilitare il movimento fine della mano;
WeTAG (SmartTrack), sistema di geolocalizzazione per il monitoraggio del paziente in ambienti interni;
– modulo AI (MareGroup), per il riconoscimento automatico dell’esecuzione di esercizi specifici all’interno del movimento complessivo giornaliero;
– web app (Nextage), per il monitoraggio degli esercizi acquisiti e l’analisi dei dati aggregati;
– il tutto coadiuvato da una piattaforma cloud conforme al GDPR, un’app Windows per la gestione di pazienti ed esercizi, e un “exergame” in realtà aumentata (visore XR), ovvero un videogioco per l’esecuzione di esercizi specifici.

La sperimentazione di INVICTUS segna un passaggio chiave verso la sua validazione come soluzione scalabile di tele-riabilitazione, inizialmente in Liguria e in prospettiva a livello nazionale. L’integrazione di sensori avanzati, visori XR, intelligenza artificiale e sistemi di localizzazione consente di raccogliere e analizzare dati inediti, aprendo a terapie personalizzate, monitoraggio costante dei progressi e interventi tempestivi.

Se i risultati confermeranno le aspettative, INVICTUS può aspirare ad essere adottato in ospedali, centri di riabilitazione e a domicilio, contribuendo a ridurre i costi sanitari e migliorare la qualità della vita dei pazienti, posizionando la Liguria come riferimento nella salute digitale.

La sperimentazione fornisce feedback a più livelli: operatori sanitari, che ne testano le funzionalità sul campo; volontari, attraverso questionari anonimi su facilità d’uso e criticità; stakeholder, che ne valutano l’impatto sulla pratica clinica.

Questi dati guideranno il progetto verso i prossimi passi previsti: il perfezionamento dell’ecosistema, con l’obiettivo di renderlo ancora più intuitivo, interoperabile con i sistemi sanitari esistenti e pronto a futuri studi multicentrici su larga scala.

Immagine Copertina
La sperimentazione della piattaforma di INVICTUS
Autore: INVICTUS
Crediti: INVICTUS e RAISE

Gli avanzamenti del progetto AI-MOKa al Congresso della International Society of Posture and Gait Research

Un semplice gesto quotidiano come preparare il caffè può rivelare molto sulla nostra mobilità e attenzione, soprattutto in persone con condizioni neurologiche come la sclerosi multipla (SM).

Per questo è stato sviluppato AI-MOKa (AI-enhanced assessment of Motor and prOcess sKills in people with multiple sclerosis), all’interno dello Spoke 2 di RAISE: un innovativo sistema di monitoraggio basato su sensori indossabili e algoritmi di Intelligenza Artificiale, capace di valutare contemporaneamente il movimento e il carico cognitivo durante attività quotidiane.

Negli ultimi mesi, i ricercatori e ricercatrici coinvolti nel progetto hanno concluso il primo studio pilota, in cui AI-MOKa è stato testato su un gruppo di partecipanti sani per verificarne la fattibilità e l’usabilità, in vista di una futura applicazione su persone con SM.

I partecipanti hanno svolto il compito di preparare il caffè in una cucina attrezzata, indossando occhiali Tobii Pro Glasses 3 per monitorare l’ambiente visivo e la dilatazione pupillare, e solette Sensing Tex per rilevare la distribuzione della pressione plantare.

Grazie a sofisticati algoritmi AI, il sistema ha identificato in tempo reale le diverse aree operative della cucina, le fasi del compito e le interazioni con oggetti come tazzine, zucchero e caffettiera. Sono stati poi estratti dati quantitativi su camminata (numero di passi), equilibrio (distribuzione del peso tra piede sinistro e destro) e carico cognitivo (variazioni del diametro pupillare).

I risultati sono promettenti: AI-MOKa ha rilevato una media di 159 passi totali durante l’attività, con un incremento dell’impegno cognitivo durante le fasi più complesse come la manipolazione della moka e il servizio del caffè. Inoltre, i partecipanti hanno valutato positivamente il sistema in termini di comfort (4,1/5), bassa intrusività (5,0/5) e usabilità (4,8/5), sottolineandone la naturalezza e l’adeguatezza all’uso in ambienti reali.

Questo primo studio dimostra la potenzialità di AI-MOKa nel monitorare in modo integrato movimento e attenzione durante attività domestiche, aprendo la strada a futuri sviluppi clinici.

I risultati dello studio sono stati presentati al Congresso della International Society of Posture and Gait Research.

Autori dello studio e del poster sono:
– Ludovico Pedullà, Erica Grange, Andrea Tacchino, Jessica Podda, Giampaolo Brichetto (Scientific Research Area, Fondazione Italiana Sclerosi Multipla, Spoke 2);
– Giulia Bodo, Sara Giordanino, Alexey Petrushin, Matteo Laffranchi (Rehab Technologies Lab, Istituto Italiano di Tecnologia, Spoke 2);
– Giulio Sciortino, Gian Luca Bailo, Carlos Beltran-Gonzalez, Alessio Del Bue (Pattern Analysis and computer VISion Lab (PAVIS), Istituto Italiano di Tecnologia).

I prossimi passi includeranno l’ampliamento del campione, il perfezionamento tecnico del sistema e, soprattutto, la sua applicazione su persone con sclerosi multipla per supportare la valutazione funzionale e personalizzare gli interventi riabilitativi.

AI-MOKa di RAISE si propone come una nuova frontiera nella valutazione ecologica e personalizzata delle sfide quotidiane vissute da chi convive con patologie neurologiche.

Immagine Copertina
Ludovico Pedullà (FISM, Spoke 2) al Congresso della International Society of Posture and Gait Research
Autore: Costanza Iester (UniGe)
Crediti: UniGe e RAISE

Finaziato dall'Unione Europea Ministero dell'Università e della Ricerca Italia Domani Raise