Sono state pubblicate troppe informazioni sull’apprendimento automatico e sull’intelligenza artificiale, che stanno diventando sempre più importanti in tutti i settori e in tutte le aziende. Lo scopo di questa rubrica, chiamata Perceptron, è quello di raccogliere e fornire un contesto per alcune delle più importanti scoperte e articoli recenti, soprattutto, ma non esclusivamente, nel campo dell’intelligenza artificiale.
Nelle ultime settimane, siamo stati particolarmente incuriositi da un “earable” che utilizza il sonar per analizzare le emozioni del viso. Così come ProcTHOR, un framework sviluppato presso l’Allen Institute for Artificial Intelligence (AI2) che costruisce impostazioni per l’addestramento di robot del mondo reale utilizzando una serie di euristiche. Degno di nota è anche il fatto che Meta ha costruito un sistema di intelligenza artificiale in grado di determinare la struttura di una proteina dalla sola sequenza di amminoacidi. Per quanto riguarda l’intelligenza artificiale, i ricercatori del MIT hanno ideato un nuovo dispositivo che consente di effettuare calcoli più veloci utilizzando meno energia.
I ricercatori della Cornell hanno creato un “auricolare” che assomiglia a grandi cuffie. Il suono viene inviato dagli altoparlanti al lato del viso di chi lo indossa, e l’eco del naso, delle labbra, degli occhi e di altre caratteristiche del viso viene raccolto da un microfono. Grazie a questi “profili di eco”, il paracane è in grado di registrare interamente le emozioni del viso, dal sollevamento delle sopracciglia al battito delle palpebre.
L’auricolare presenta diverse limitazioni. Ha una durata della batteria di sole tre ore, richiede di scaricare i calcoli su uno smartphone e il sistema A.I. che traduce l’eco deve allenarsi su 32 minuti di dati del viso prima di poter iniziare a rilevare le emozioni.
Tuttavia, gli autori dello studio sostengono che l’uso del loro dispositivo è un’esperienza molto più snella rispetto ai registratori spesso utilizzati nei film d’animazione, negli spettacoli televisivi e nei videogiochi. Per catturare la performance di ogni attore in L.A. Noire, Rockstar Games ha costruito un sistema con 32 telecamere puntate sui loro volti.
Forse utilizzerà l’indossabile di Cornell per animare robot umanoidi. Tuttavia, i robot dovranno essere istruiti su come muoversi in una stanza prima di poter essere messi in servizio. Un passo da gigante in questa direzione è reso possibile da ProcTHOR di AI2, che genera centinaia di ambienti unici come scuole, biblioteche e luoghi di lavoro in cui i robot virtuali sono incaricati di compiere azioni come pulire e riordinare i mobili.
Lo scopo delle ambientazioni è quello di fornire ai robot virtuali il maggior numero possibile di stimoli visivi, simulando un’ampia gamma di condizioni ambientali, tra cui l’illuminazione naturale, una varietà di materiali di superficie (come legno, piastrelle, ecc.) e oggetti di uso comune. È ampiamente accettato nel campo dell’intelligenza artificiale che l’addestramento di un sistema per ottenere buone prestazioni in un ambiente simulato può portare a risultati migliori quando viene applicato al mondo reale; ad esempio, Waymo, una divisione di veicoli autonomi di Alphabet, simula interi quartieri per mettere a punto il comportamento dei suoi veicoli reali.
Anche se i sintomi di FCD sono molto modesti, il modello ha identificato due terzi degli esempi presentati. Sono stati 178 i casi in cui il modello ha individuato un FCD mentre i medici umani non ci sono riusciti. Sebbene i medici debbano sempre avere l’ultima parola, il sospetto di un computer che qualcosa non va potrebbe a volte essere tutto ciò che serve per andare oltre e confermare una diagnosi.
Ci siamo concentrati sullo sviluppo di un sistema di intelligenza artificiale che i professionisti del settore medico potessero comprendere e utilizzare nel loro processo decisionale”. Mathilde Ripart dell’UCL ha sottolineato la necessità di dimostrare ai medici come l’algoritmo MELD arriva alle sue conclusioni.