Ormai già sapete che la tecnologia in ambito dell’ intelligenza artificiale (AI) si sta sviluppando ad un ritmo incredibilmente veloce. Ma affinché i robot AI avanzati possano davvero conquistare il mondo, devono prima essere in grado di pensare come gli umani. Ora un gruppo di ricercatori ha fatto i primi passi per renderlo realtà.

Ricercatori giapponesi hanno recentemente pubblicato un nuovo studio intitolato“Descrivere le rappresentazioni semantiche dell’attività cerebrale evocato da stimoli visivi”, in cui la tecnologia AI è stata utilizzata per prevedere – con grande accuratezza – esattamente ciò che le persone stavano pensando mentre guardavano determinate immagini. L’idea era di scoprire semplicemente, attraverso gli “occhi” del loro robot AI, ciò che gli umani stessi vedevano davanti a loro mentre guardavano le immagini. E, come si è scoperto, l’ intelligenza artificiale è stata sorprendentemente efficace in questo compito.

I ricercatori hanno notato che una tale tecnologia non è al di fuori delle possibilità. Hanno detto che i modelli  quantitativa dell’attività del cervello umano basata sulle rappresentazioni del linguaggio è già un oggetto attivamente studiato nel campo delle neuroscienze. Ma il problema è che gli studi precedenti riguardavano solo la rappresentazione a livello di parola, e ci sono pochissime conoscenze o informazioni in termini di possibilità o meno di recuperare modelli dall’attività cerebrale di una persona.

E così per il loro studio, i ricercatori hanno fatto esattamente questo: l’intelligenza artificiale aveva la capacità di fornire “pensieri completi” tramite frasi dopo aver analizzato i dati basati sulle scansioni cerebrali di una persona. Come riportato negli studi, l’intelligenza artificiale utilizzata nello studio è stata in grado di generare didascalie dopo aver esaminato le immagini di scansione cerebrale fMRI, che sono state scattate mentre le persone guardavano le immagini.

Alcuni degli esempi delle didascalie generati dall’ AI includono: “Un cane è seduto sul pavimento di fronte a una porta aperta” e “un gruppo di persone in piedi sulla spiaggia”. Entrambe le dichiarazioni sono considerate accurate dal ricercatori, il che dimostra quanto sia già efficace, anche in questa fase iniziale.

Secondo Ichiro Kobayashi, uno dei ricercatori dell’Università di Ochanomizu in Giappone, l’obiettivo del loro studio è capire meglio come il cervello rappresenta le informazioni del mondo reale.

“Per arrivare ad un tale obiettivo, abbiamo dimostrato che il nostro algoritmo può modellare e leggere i contenuti percettivi sotto forma di frasi dall’attività del cervello umano”, ha spiegato. “Per fare ciò, abbiamo modificato un modello di rete esistente in grado di generare frasi da immagini utilizzando una rete neurale profonda, un modello di sistema visivo, seguito da un RNN (rete neurale ricorrente), un modello che può generare frasi.”

In breve, avevano una struttura pronta che confrontando i dati delle scansioni cerebrali analizzate con i dati esistenti per consentire all’AI di generare didascalie.

Può sembrare già impressionante,anche se i ricercatori hanno detto che non è ancora pronto.

“Finora, non ci sono applicazioni nel mondo reale per questo”, ha detto Kobayashi. “Tuttavia, in futuro, questa tecnologia potrebbe essere una base per un’interfaccia cervello-macchina.”

FONTE[naturalnews]