08/01/2016 di Redazione

Apple impara a interpretare le emozioni grazie a una startup

La società di Cupertino ha acquisito Emotient, giovane azienda specializzata in riconoscimento facciale e intelligenza artificiale. La sua tecnologia può interpretare le espressioni del viso distinguendo fra diversi stati d’animo e offrendo così un feedba

immagine.jpg

Tristi, allegri, arrabbiati, annoiati, entusiasti: qualunque sia il nostro stato d’animo, Apple saprà decifrarlo. La società di Cupertino ha appena acquisito una startup di San Diego, Emotient, il cui pane quotidiano – come il nome suggerisce – sono, appunto, le emozioni. Fino a ieri, l’azienda forniva alla sua disparata clientela (dal retail, all’industria dell’intrattenimento, al settore sanitario) servizi di intelligenza artificiale basati su cloud, con lo scopo di aiutarli a misurare le reazioni degli utenti a determinati prodotti o azioni di marketing.

L’acquisizione, svelata dal Wall Street Journal, è stata poi confermata da una portavoce di Apple senza però fornire alcun dettaglio economico né le finalità dell’operazione, ma limitandosi a dire che la società “di tanto in tanto acquista piccole compagnie tecnologiche, e di solito non parliamo delle nostre strategie”. Non è chiaro, dunque, come Apple voglia integrare le tecnologie di Emotient nella propria offerta, se all’interno di iOS o magari – come suggerisce Forbes – in applicazioni che utilizzano la fotocamera dell’iPhone.

Sappiamo invece, per bocca della startup acquisita (che ha poi modificato il proprio sito Web rimuovendo alcuni dettagli), che le soluzioni di Emotient sono principalmente indirizzate a interpretare le reazioni degli utenti a campagne pubblicitarie di vario tipo. Ma non solo: operatori del retail le impiegano per monitorare le espressioni de viso di chi passa davanti a una vetrina all’interno di un centro commerciale. In campo medico, sono state usate per cogliere segni di sofferenza su pazienti incapaci o impossibilitati di parlare.

La tecnologia di Emotient potrebbe dunque associarsi a quelle, più ampiamente diffuse, di riconoscimento facciale, ma si distingue da esse per la capacità di determinare in tempo reale lo stato d’animo di una persona interpretando emozioni come la gioia, la paura, la tristezza, il disgusto e la semplice neutralità. Come mostrato in un video che riprende i clienti di un locale davanti a un televisore durante l’ultimo Super Bowl, è anche possibile monitorare gruppi numerosi.

 

 

Forte dei suoi cinque brevetti negli ambiti del machine learning e del riconoscimento facciale, Emotient ha raccolto otto milioni di dollari di finanziamenti dai suoi investitori e, secondo Pitchbook, è valutata intorno ai 20 milioni di dollari. Quale che sia la cifra pagata da Apple, è chiaro come l’interesse dei colossi della Silicon Valley nei confronti dell’intelligenza artificiale sia in forte crescita. La stessa Mela lo scorso ottobre aveva annunciato l’acquisizione di VocallQ, società specializzata in tecnologie di interpretazione del linguaggio naturale.

 

Big Sur, l'hardware alla base dell'intelligenza artificiale di Facebook

 

A fine 2015 un gruppo formato da studiosi del linguaggio, imprenditori come Elon Musk e aziende come Amazon Web Services ha raccolto un miliardo di dollari per lanciare OpenAI, una fondazione per lo sviluppo dell’intelligenza artificiale a scopi “sociali” e di pubblica utilità. Facebook, invece, di recente ha deciso di mettere a disposizione della comunità open source il suo Big Sur, il “cervello” hardware che il social network utilizza in molte delle sue operazioni. E non va dimenticata Google: l’azienda utilizza tecnologie di machine learning e interpretazione “intelligente” dei dati in una cinquantina di prodotti, fra cui il motore di ricerca, i servizi di traduzione automatica e l’archiviazione delle immagini.

 

ARTICOLI CORRELATI