Come configurare smartphone e PC. Portale informativo
  • casa
  • Internet, Wi-Fi, reti locali
  • Come funziona la CPU per Google: intelligenza artificiale gratuita. L'intelligenza artificiale di Google suggerisce di giocare a Crocodile

Come funziona la CPU per Google: intelligenza artificiale gratuita. L'intelligenza artificiale di Google suggerisce di giocare a Crocodile

Il machine learning di Google blocca lo spam con un'efficacia del 99,9%.

27 febbraio

Nel suo blog, Google ha annunciato l'uso del machine learning basato su TensorFlow, che impedisce allo spam di raggiungere Gmail.

Questa tecnologia è in grado di bloccare il 99,9% dello spam, il che, in termini fisici, significa che ogni giorno vengono filtrati altri 100 milioni di messaggi spam.

“Dove abbiamo trovato questi 100 milioni di messaggi spam aggiuntivi? Ora stiamo bloccando categorie di spam che in precedenza erano molto difficili da rilevare. L'utilizzo di TensorFlow ci ha aiutato a bloccare messaggi con immagini, messaggi con contenuto incorporato nascosto e messaggi provenienti da domini appena creati che tentano di nascondere messaggi di spam a basso volume nel traffico legittimo.

Considerando che abbiamo già bloccato la stragrande maggioranza dello spam su Gmail, bloccarne altri milioni con tale precisione è un risultato. TensorFlow ci aiuta a catturare gli spammer che riescono a intrufolarsi in quella percentuale inferiore allo 0,1% senza bloccare accidentalmente i messaggi importanti per gli utenti.".

Google Lens ha imparato a riconoscere miliardi di oggetti

3 gennaio

Google ha affermato che il suo strumento fotografico di intelligenza artificiale, Lens, è ora in grado di identificare più di un miliardo di oggetti.

Si tratta di un notevole aumento delle capacità rispetto alla prima versione dell'utilità, che inizialmente era in grado di identificare circa 250mila oggetti. Lo strumento è stato addestrato sul sistema Google DeepMind.


Allo stesso tempo, da quelli presentati in Google Shopping sono stati ottenuti un miliardo di articoli. Ciò significa che tra loro non puoi trovare cose che non siano in vendita. Anche le console di gioco degli anni '90 o le prime edizioni di vecchi libri non possono più essere trovate tramite Lens. Tuttavia tra i prodotti moderni sarà facile trovare una collocazione.


Google utilizza l'intelligenza artificiale per prevedere i ritardi dei voli

2 febbraio 2018

Le informazioni sui ritardi dei voli sono molto utili, ma l'annuncio dei ritardi spesso dipende dalla compagnia aerea, che non sempre è interessata ad aggiornare rapidamente le informazioni. Ora Google ti aiuterà in questo.

La compagnia ha aggiornato il suo servizio Voli, in cui non solo ha iniziato a segnalare possibili ritardi dei voli, ma anche a valutarne la probabilità. Per fare ciò, il sistema di apprendimento automatico utilizza i dati storici per prevedere i ritardi ed evidenziare i voli se c’è più dell’80% di possibilità di ritardo. Allo stesso tempo, Google sottolinea che non dovresti comunque arrivare in ritardo all’aereo, perché anche una probabilità del 99% non significa che l’aereo non volerà nei tempi previsti. Ma una previsione del genere può dirti quanto tempo extra dovrai trascorrere in aeroporto.

Inoltre, il servizio Google aggiornato ti aiuterà a risparmiare sul tuo volo. Finora funziona per 3 compagnie aeree: American, Delta e United. Grazie alle nuove funzionalità è possibile stimare il costo dei servizi aggiuntivi a tariffe low cost, come l'aumento del bagaglio a mano o il bagaglio in eccesso, e anche confrontare questi costi con il costo dei biglietti regolari.

Vedi il lamantino nella foto?

15 dicembre 2017

Google utilizza l’intelligenza artificiale non solo per migliorare i propri servizi, ma anche per aiutare ambientalisti e scienziati, confermando ancora una volta il suo titolo di “buona azienda”.

La rete neurale open source TensorFlow è diventata il cuore di un progetto che aiuta a preservare la popolazione di mucche di mare o lamantini.

Nonostante le loro dimensioni impressionanti, può essere piuttosto difficile per i biologi seguirne i movimenti. Per fare questo, i ricercatori hanno effettuato fotografie aeree dell'oceano con i droni, ma trovare anche animali così grandi è un compito molto difficile. Per una persona.

Ecco una di queste foto scattata da un drone:

Vedi un lamantino sopra?

Scorri verso il basso per la risposta.


Utilizzando il software open source TensorFlow di Google, la ricercatrice Amanda Hodgson della Murdoch University e il suo team hanno creato un rilevatore che trova i lamantini nelle fotografie. Le prime versioni del rilevatore sono state in grado di trovare l’80% di questi animali in una fotografia aerea scattata da un drone. In futuro, sperano i ricercatori, l’intelligenza artificiale migliorerà il suo lavoro.

Gli scienziati ritengono inoltre che l’intelligenza artificiale possa essere adattata per cercare altri grandi mammiferi, come le megattere e persino i delfini.

L'intelligenza artificiale di Google batte Bing e Siri nel test del QI

2 novembre 2017

Tre ricercatori, Feng Liu, Yong Shi e Ying Liu, hanno sviluppato un test del QI volto a testare vari sistemi di intelligenza artificiale.

Secondo i risultati, l'intelligenza artificiale di Google si è rivelata la più intelligente, con un punteggio di 47,8 punti. Per fare un confronto, il punteggio di un diciottenne è di 96 punti e quello di un bambino di sei anni è di 55,5.

I principali concorrenti di Google sono rimasti notevolmente indietro. Pertanto, Bing e Baidu hanno ottenuto rispettivamente 31,98 e 32,92 punti. Il peggiore è stato Siri di Apple, con un punteggio di 23,9.

I ricercatori hanno notato che, sebbene la migliore intelligenza artificiale non raggiunga nemmeno un bambino di sei anni, stanno rapidamente colmando il divario. Nel 2014, Google e Baidu AI hanno ottenuto rispettivamente 26,5 e 23,5 punti. Ciò significa un aumento dell'80% dell'intelligenza in soli due anni (per Google), quindi le preoccupazioni di Elon Musk di schiavizzarci nei nostri computer potrebbero non essere del tutto infondate.

Lo studio suddivide inoltre l’intelligenza artificiale in gradazioni e tipologie a seconda della direzione di utilizzo. Con una ricerca completa è possibile dai un'occhiata a questo collegamento.

Google ha parlato della seconda generazione di TPU

26 maggio 2017

Durante la conferenza Google I/O gli organizzatori hanno presentato la seconda generazione della Tensor Processing Unit (TPU), utilizzata nell'intelligenza artificiale dell'azienda.

Nuovo modello il processore può essere utilizzato sia per la formazione che per la ricerca di relazioni. E un sistema di quattro nuovi Cloud TPU promette prestazioni del sistema di apprendimento automatico di 180 teraflop. Di secondo Google, questo chip è significativamente più produttivo delle soluzioni basate su GPU e quindi l'azienda prevede di offrire la piattaforma Cloud agli sviluppatori commerciali.

In termini di prestazioni, Google ha spiegato che l’addestramento di un modello di traduzione linguistica di grandi dimensioni richiede un’intera giornata su 32 GPU di fascia alta. Lo stesso lavoro dura 6 ore su un ottavo del cluster, ovvero su 8 TPU.

Google ha introdotto la prima generazione di TPU nel 2015. Questi processori vengono utilizzati in un'ampia gamma di servizi cloud dell'azienda, tra cui ricerca, traduzione e Google Foto.

Google TPU elabora i dati 15 volte più velocemente rispetto ai componenti convenzionali

29 aprile 2017

Due anni fa, Google ha creato il proprio circuito integrato chiamato Tensor Processing Unit, progettato per la fase computazionale delle attività di apprendimento automatico.

La società inizialmente ha affermato che il TPU dovrebbe migliorare le prestazioni per watt nelle attività tipiche fino a 10 volte rispetto alle CPU e GPU tradizionali. E ora, avendo acquisito esperienza operativa, l'azienda ha condotto uno studio sull'impatto delle prestazioni di chip di questo tipo.

Si è scoperto che l’aumento di 10 volte dell’efficienza energetica era troppo modesto. Le prestazioni, infatti, sono aumentate da 30 a 80 volte rispetto alle soluzioni convenzionali e a seconda dello scenario. In termini di prestazioni assolute, Google afferma che il TPU è da 15 a 30 volte più veloce dell'hardware standard.

Questo processore esegue software personalizzato basato sul framework di apprendimento automatico TensorFlow e parte di questa accelerazione è dovuta a questo framework. Gli autori dello studio hanno notato che i programmatori hanno ancora spazio per l’ottimizzazione.

Google ha visto la necessità del TPU 6 anni fa. L'azienda utilizza il deep learning in vari progetti, tra cui ricerca di immagini, fotografia e traduzione. Per sua natura, l’apprendimento automatico è un processo ad alta intensità di risorse. Ad esempio, gli ingegneri di Google hanno notato che se le persone utilizzassero il riconoscimento vocale per 3 minuti al giorno e lo eseguissero senza TPU, l’azienda dovrebbe raddoppiare il numero di data center.

Google fornirà l'ingrandimento delle immagini di Hollywood

22 febbraio 2017

Conosciamo il concetto di miglioramento delle immagini pixelate da molti film di Hollywood, ma, come quasi sempre, la vera tecnologia è lontana dal cinema. Tuttavia, gli ingegneri di Google Brain hanno escogitato un modo per avvicinare la fantascienza alla realtà.

La nuova tecnologia utilizza una coppia di reti neurali che elaborano immagini di 8x8 pixel per ricreare il volto della persona nascosto dietro di essa. Naturalmente, le reti neurali non ingrandiscono un'immagine senza pixilation, ma ne creano una nuova che potrebbe assomigliare all'originale.

Come accennato in precedenza, nel processo di ricostruzione di un volto sono coinvolte due reti neurali. Il primo mappa un'immagine di 8x8 pixel in un'immagine dall'aspetto simile con una risoluzione più elevata. Questa immagine viene utilizzata come scheletro per una seconda rete, che aggiunge ulteriori dettagli all'immagine in base alle immagini esistenti con mappe pixel simili. Le immagini risultanti delle due reti vengono quindi combinate per creare l'immagine finale.

Naturalmente, l'immagine ricreata è lontana dalla realtà, quindi questa tecnologia è inutile per le agenzie di intelligence, ma è utile quando si elaborano le immagini se è necessario un ingrandimento estremo.

La tecnologia Google RAISR riduce il traffico di immagini di quattro volte

28 gennaio 2017

Quasi tutte le tariffe degli operatori di telefonia mobile richiedono un utilizzo limitato dei dati e Google ha deciso di ridurre significativamente i consumi sviluppando la tecnologia di compressione delle immagini RAISR - Rapid and Accurate Image Super-Resolution (immagine a super risoluzione veloce e accurata).

Essenzialmente, questa tecnologia non è un metodo di compressione tradizionale, è più simile a una forma d'arte eseguita da un sistema di apprendimento automatico. Pertanto, RAISR ingrandisce le miniature delle immagini ottenute con una risoluzione inferiore utilizzando speciali algoritmi di apprendimento automatico. Alla fine, l’intelligenza artificiale ripristina i dettagli mancanti, riportando l’immagine al suo aspetto originale. Di conseguenza, il traffico di trasmissione delle immagini può essere ridotto del 75% rispetto all'originale, pur mantenendo la maggior parte dei dettagli visibili.

Finora Google offre questa tecnologia solo per il servizio Google+ e solo per le immagini pubblicate sul servizio. “Nelle prossime settimane”, l’azienda amplierà la portata della tecnologia agli altri suoi servizi.

Non è chiaro se Google utilizzerà questa tecnologia solo per i propri servizi o la diffonderà come Brotli, ma sicuramente ci piacerebbe vederla alimentare siti ricchi di immagini come social network e negozi online.

L'intelligenza artificiale di Google ha inventato il proprio linguaggio

29 novembre 2016

Non c'è bisogno di farsi prendere dal panico, ma l'intelligenza artificiale di Google ha accidentalmente (o meno) creato il proprio linguaggio segreto. E questo linguaggio è stato inventato dalla Neural Machine Translation (NMT) in modo indipendente, senza intervento umano.

Google ha introdotto un nuovo motore di traduzione neurale a settembre ed è stato introdotto abbastanza recentemente. Il nuovo sistema permette di tradurre intere frasi senza dividerle in parti e trasmettendone meglio il significato. Il sistema NMT è ad autoapprendimento, il che significa che si migliora man mano che funziona.

Il sistema è stato utilizzato inizialmente per migliorare la traduzione dall'inglese al coreano e viceversa, quindi dall'inglese al giapponese e viceversa. Gli ingegneri erano interessati a vedere se la macchina potesse tradurre il testo dal coreano al giapponese senza l'uso dell'inglese nel mezzo. E la risposta è stata “sì”, la macchina ha tradotto direttamente il testo.

Il modo in cui l’intelligenza artificiale di Google ha raggiunto questo obiettivo non è chiaro. Si è scoperto che NMT ne ha creato uno proprio linguaggio interno"interlingua". Si occupa di concetti e strutture di frasi piuttosto che di parole equivalenti. Di conseguenza, NMT produce traduzioni più accurate rispetto a prima. I creatori del traduttore automatico neurale non sono sicuri dei principi di funzionamento della rete neurale e non possono dire come venga insegnata la traduzione diretta tra le lingue. In altre parole, l'intelligenza artificiale di Google ha creato un proprio linguaggio che noi esseri umani non riusciamo a comprendere appieno.

Google Translate è appena diventato più intelligente

26 novembre 2016

Google afferma di essere riuscita a rendere la traduzione automatica più naturale offrendola per smartphone e applicazioni web.

Il colosso della ricerca ha notato che ora utilizza la “traduzione automatica neurale”, che gli consente di tradurre un’intera frase invece di dividerla in parti e poi tradurla ulteriormente. Di conseguenza, il testo risultante risulta essere più naturale migliore sintassi e grammatica.

“Sono stati ottenuti più miglioramenti con un cambiamento che in 10 anni.”, ha affermato Barak Turowski, product leader di Google Translate.

Oltre all'inglese, il nuovo sistema di traduzione è disponibile per altre otto delle 103 lingue supportate dal sistema. Pertanto, la traduzione “neurale” supporta francese, tedesco, spagnolo, portoghese, cinese, giapponese, coreano e turco. L'azienda ha osservato che queste lingue rappresentano il 35% di tutte le traduzioni eseguite dal servizio. Secondo Turovsky, questo metodo può ridurre gli errori dal 55% all'85%.

Google ha imparato a rispondere a domande difficili

19 novembre 2015

Insieme allo sviluppo di sistemi intelligenti presso Microsoft e Apple, Assistente Google dimostra anche una svolta. Pertanto, l'azienda nel suo blog ha riferito che l'applicazione Google è ora diventata molto più intelligente, poiché ora comprende e risponde a domande complesse che prima non era in grado di gestire.

Google ora può comprendere il significato di una domanda e anche lo scopo della domanda posta.

Ad esempio, l'assistente virtuale ora capisce:

  • Grado comparativo (più alto, più grande, ecc.);
  • Domande ordinate (Chi è il giocatore Maverick più alto?);
  • Temporary Connections (Che canzone ha registrato Taylor Swift nel 2014?);
  • Combinazioni complesse (Qual era la popolazione degli Stati Uniti quando nacque Bernie Sanders?).

Se hai l'applicazione Google appropriata sul tuo smartphone o tablet, puoi già farle domande complesse simili. Certo, cercare informazioni su uno smartphone non è molto comodo, ma se ora puoi parlargli come una persona, allora perché non usarlo più spesso.

Google apre il codice sorgente per il sistema di machine learning

12 novembre 2015

Per attrarre il più possibile numero maggiore sviluppatori e accelerare lo sviluppo della tecnologia, Google ha deciso di rendere open source il motore di intelligenza artificiale noto come TensorFlow.

L'azienda lavora a questo progetto da tempo e il sistema ha potuto dare i suoi frutti, ad esempio, in Google Foto, consentendo di identificare persone e luoghi nelle foto. La tecnologia funziona anche nel client di posta elettronica Inbox, che esegue la scansione della posta per facilitare la preparazione delle risposte.

Il CEO di Google Sundar Pichai ha scritto sul suo blog: “Solo un paio di anni fa, non potevi comandare un’app Google in una strada rumorosa, o leggere i segnali in russo utilizzando Google Translate, o trovare immediatamente le foto del tuo Labradoodle in Google Foto. Le nostre app non erano abbastanza intelligenti. Ma in un breve periodo di tempo sono diventati molto, molto più intelligenti. Ora, grazie al machine learning, puoi fare tutte queste cose abbastanza facilmente.".

Il regista ha osservato che il sistema “TensorFlow è più veloce, più intelligente e più flessibile del nostro vecchio sistema, quindi può essere adattato ai nuovi prodotti in modo molto più semplice e ricco. Oggi rendiamo anche TensorFlow open source. Ci auguriamo che ciò consenta alla comunità del machine learning, a tutti, dagli accademici agli ingegneri agli hobbisti, di condividere idee molto più velocemente attraverso il codice di lavoro anziché limitarsi a studiare i documenti.".

Google ha migliorato il riconoscimento vocale

29 settembre 2015

Di tutte le grandi aziende abilitate alla voce, Google è unica. A differenza di Siri di Apple e Cortana di Microsoft, Google non personalizza il suo assistente vocale. Inoltre, Google dispone del miglior algoritmo di riconoscimento, che ora ha ricevuto ulteriori miglioramenti.

In un recente post sul blog di ricerca di Google, un rappresentante del team di ricerca vocale ha discusso le recenti modifiche all'algoritmo di riconoscimento. L'azienda sta già utilizzando una rete neurale profonda, la stessa che produce strane immagini con i “sogni” dell'intelligenza artificiale, per capire cosa stai esattamente cercando di dire al tuo telefono in questo momento. Ora l'azienda ha sviluppato e iniziato a utilizzare una rete neurale ricorsiva. Nuovo algoritmo la modellazione del parlato permette loro di tenere conto delle dipendenze temporali, che secondo loro permettono loro di analizzare meglio ogni pezzo di audio facendo riferimento ai suoni in arrivo.

Di conseguenza, gli utenti potranno usufruire di un riconoscimento vocale più rapido e accurato. L'azienda sostiene inoltre che il nuovo algoritmo è più resistente al riconoscimento in ambienti rumorosi. Il nuovo algoritmo di riconoscimento vocale è già stato lanciato per le applicazioni di ricerca su iOS e Android, nonché per la digitazione vocale.

Google sta sviluppando un algoritmo per calcolare le calorie delle foto

20 giugno 2015

Google ha depositato un brevetto per la tecnologia Im2Calories, che analizza una foto di cibo e stima il numero approssimativo di calorie in quel cibo.

La tecnologia Im2Calories si basa su una serie di algoritmi di intelligenza artificiale e, ovviamente, lo strumento di analisi delle foto non stimerà in modo molto accurato il numero approssimativo di calorie nel cibo nella foto scattata.

Questo progetto è ancora in fase di sviluppo e la sua comparsa è prevista solo tra pochi anni. È probabile che in futuro Im2Calories venga presentato sotto forma di applicazioni per Android e iOS.

Un altro luogo interessante in cui utilizzare l’algoritmo saranno le risorse di Twitter e Instagram, perché è qui che le persone pubblicano più spesso fotografie del loro cibo. Utilizzo del prodotto in propria rete Google+ è improbabile, poiché il colosso della ricerca ha poco interesse a supportare la piattaforma.

Ora è possibile trovare applicazioni simili per entrambe le popolari piattaforme mobili, ma non c'è dubbio che Google sarà in grado di realizzare un prodotto migliore, grazie agli eccellenti sistemi di intelligenza artificiale che l'azienda sta sviluppando.

Un computer intelligente è completo quanto lo sono le persone che lo insegnano.

Roberto Ito

Per il passato In tre estati, circa due dozzine di aspiranti scienziati informatici sono venuti all'Università di Stanford per imparare qualcosa sull'intelligenza artificiale da alcuni dei più brillanti esperti del settore. I partecipanti, selezionati tra centinaia di candidati, fanno gite di un giorno alle aziende tecnologiche vicine, interagiscono con robot sociali ed esacotteri e apprendono la linguistica computazionale (cosa fanno le macchine quando le parole hanno più significati, diciamo) e l'importanza della gestione del tempo (molto) . Giocano a frisbee. Ma se la tua immagine mentale dell’intelligenza artificiale è quella di un gruppo di ragazzi che creano nemici più astuti per i loro videogiochi preferiti, beh, non è così. Tutti gli studenti qui al programma Outreach Summer (SAILORS) dello Stanford Artificial Intelligence Laboratory sono ragazze che hanno appena completato la prima media e i loro studi si concentrano sulla ricerca di modi per migliorare la vita, non sul miglioramento del loro gioco: come usiamo l'intelligenza artificiale per mantenere jumbo i getti sbandano l'uno contro l'altro? Per garantire che i medici si lavino le mani prima di entrare in sala operatoria? “Il nostro obiettivo era ripensare l’educazione all’intelligenza artificiale in un modo che incoraggiasse la diversità e gli studenti di ogni ceto sociale”, afferma Fei-Fei Li, direttore del laboratorio di intelligenza artificiale di Stanford e fondatore del programma SAILORS. “Quando si dispone di una gamma diversificata di futuri tecnologi, a loro interessa davvero che la tecnologia venga utilizzata per il bene dell’umanità”.

“Quando si dispone di una gamma diversificata di futuri tecnologi, a loro interessa davvero che la tecnologia venga utilizzata per il bene dell’umanità”.

Google e Stanford

SAILORS è stato creato nel 2015 da Li e dall'ex studentessa Olga Russakovsky (ora assistente professore all'Università di Princeton) per contribuire a portare una maggiore uguaglianza di genere nel settore tecnologico. La causa è nobile e urgente. Secondo un recente sondaggio, il numero di donne che cercano una laurea in informatica è in calo; nel settore dell’intelligenza artificiale, le donne ricoprono meno del 20% delle posizioni dirigenziali. È un campo enorme da cui essere esclusi, considerando che, ogni giorno, sempre più persone usano l'intelligenza artificiale per rendere la propria vita più semplice ed efficiente: l'intelligenza artificiale è il modo in cui le app fotografiche riconoscono il tuo volto tra quelli di tutti gli altri, per non parlare della spiaggia dove hai scattato la foto. È il modo in cui i tuoi dispositivi ti capiscono quando chiedi che tempo farà domani. Poi ci sono le applicazioni meno conosciute, come la diagnosi della retinopatia diabetica (che spesso porta alla cecità) o l’invio di un drone in missione di ricerca e salvataggio nei luoghi più remoti del mondo.

Con l’intelligenza artificiale sempre più onnipresente, la necessità di un equilibrio di genere in questo campo va oltre la semplice giustezza della causa: la diversità è un elemento cruciale dell’intelligenza artificiale a causa della natura dell’apprendimento automatico. Uno degli obiettivi dell’intelligenza artificiale è produrre macchine in grado di completare compiti che gli esseri umani svolgono naturalmente: riconoscere il parlato, prendere decisioni, distinguere tra un burrito e un’enchilada. Per fare ciò, le macchine ricevono grandi quantità di informazioni – spesso milioni di parole, conversazioni o immagini – proprio come tutti noi assorbiamo informazioni, in ogni momento di veglia, dalla nascita (in sostanza, questo è l’apprendimento automatico). Più auto vede una macchina, più è abile nell’identificarle. Ma se questi set di dati sono limitati o distorti (se i ricercatori non includono, ad esempio, immagini di Trabant), o se le persone che si occupano di intelligenza artificiale non vedono o non tengono conto di questi limiti o pregiudizi (forse non sono intenditori di oscuri automobili della Germania dell’Est), le macchine e la produzione saranno difettose. Sta già accadendo. In un caso, un software di riconoscimento delle immagini ha identificato le fotografie di persone asiatiche come lampeggianti.

“Non si tratta solo di avere trasparenza nei dati. In realtà dobbiamo far sì che i numeri si muovano nella giusta direzione”.

Progetto Includi

In che modo gli esseri umani creano laboratori e spazi di lavoro più inclusivi? Numerosi progetti e individui stanno accettando questa sfida. Quest'anno, Li, che è anche capo scienziato dell'intelligenza artificiale e dell'apprendimento automatico presso Google Cloud, e altri hanno contribuito al lancio di AI4ALL. L’organizzazione no-profit nazionale mira a portare una maggiore diversità nell’intelligenza artificiale e ha ingaggiato esperti di genomica, robotica e sostenibilità come mentori. Si basa sul lavoro di SAILORS ma si rivolge anche a persone di colore e studenti a basso reddito in tutto il paese attraverso partnership con Princeton, UC Berkeley e Carnegie Mellon, oltre a Stanford. "Molti colleghi e leader del settore sono venuti da noi e ci hanno detto: 'SAILORS è fantastico, ma è solo Stanford che serve poche dozzine di studenti all'anno, principalmente dalla Bay Area'", afferma Li. “Quindi AI4ALL riguarda la diversità e l’inclusione. Non è solo una questione di genere”.

IA e ML

Qual è la differenza?

I termini intelligenza artificiale (AI) e machine learning (ML) sono spesso usati in modo intercambiabile, ma non sono la stessa cosa. L’intelligenza artificiale descrive la capacità delle macchine di imitare apparentemente il modo di pensare umano, imparando come vanno invece di seguire comandi specifici. Il machine learning è una delle tecniche più efficienti e popolari utilizzate dai computer per acquisire tale capacità. In ML, le macchine esaminano gli esempi per riconoscere i modelli.

Altre iniziative simili includono Code Next, l'iniziativa di Google con sede a Oakland per incoraggiare gli studenti latini e afroamericani a esplorare carriere nel campo della tecnologia; DIY Girls, un programma educativo e di tutoraggio STEAM (scienza, tecnologia, ingegneria, arte e matematica) per comunità con risorse limitate a Los Angeles; e Project Include, che aiuta le startup nuove e di mezza età ad assumere più donne e persone di colore. Tracy Chou, ex Pinterest, ha fondato Project Include lo scorso anno con altre sette donne di spicco nel settore tecnologico. Nel 2013, Chou ha affermato che le aziende tecnologiche dovevano rendere chiaro quante donne impiegavano. Man mano che i numeri arrivavano, confermavano ciò che tutti nella Silicon Valley sapevano: il mondo della tecnologia, dalla più grande azienda alla più piccola startup, è in stragrande maggioranza bianco e maschile. Il progetto Include, afferma Chou, è stato il logico passo successivo. "Dopo un paio d'anni in cui questi rapporti sui dati sono stati pubblicati e non sono avvenuti molti cambiamenti, ha iniziato a verificarsi un cambiamento nella conversazione", afferma. “Ora non si tratta solo di avere trasparenza nei dati. In realtà dobbiamo far sì che i numeri si muovano nella giusta direzione”.

Questa direzione include il rendere il lavoro nel campo dell’intelligenza artificiale più accessibile alle masse. Ci sono relativamente poche persone impiegate nell’intelligenza artificiale e già vediamo robot che si prendono cura delle persone e assistenti personali che anticipano i nostri bisogni. Con gli esseri umani che controllano i dati e i criteri e le macchine che svolgono il lavoro, un input umano migliore e maggiore significa risultati migliori e maggiori.

In molti modi, la democratizzazione dell’intelligenza artificiale è già in corso. Prendiamo questo esempio: in Giappone, il figlio di un contadino ha utilizzato l’intelligenza artificiale per classificare il raccolto di cetrioli della sua famiglia in base a varie caratteristiche. È il tipo di storia che piace a Li, che è arrivata negli Stati Uniti dalla Cina all’età di 16 anni, sapendo poco del suo paese adottivo e ancor meno del New Jersey, dove è finita. Dopo aver svolto una serie di lavori occasionali, dalle pulizie di case alle passeggiate con i cani alla cassiera in un ristorante cinese, Li si ritrovò a Princeton e successivamente alla scuola di specializzazione al Caltech.

Li arriva al suo lavoro come una tripla outsider: un'immigrata, una donna e una persona di colore in un mondo dominato da uomini bianchi. Quelli che avrebbero potuto essere ostacoli per chiunque altro sono diventati stimoli per Li. Trascorre gran parte del suo tempo studiando la visione artificiale, una componente dell'apprendimento automatico che lei chiama "l'app killer dell'intelligenza artificiale". La visione artificiale analizza e identifica i dati visivi e un giorno potrebbe aiutare a creare arti robotici più reattivi, ad esempio, o a risolvere le dimostrazioni matematiche più complesse. Ma come per tutta l’intelligenza artificiale, la chiave di questa tecnologia è insegnare alle macchine a estrarre una grande quantità di informazioni da luoghi e prospettive diverse. Essere, in sostanza, cittadini visivi del mondo, non diversamente da Li.

Promuovere un gruppo eterogeneo di creatori per dare forma a quel mondo è essenziale per il tipo di storia e problemi tecnici che la content strategist Diana Williams incontra ogni giorno all'ILMxLAB, il centro dei sogni top-secret di Lucasfilm dove gli sviluppatori creano intrattenimento coinvolgente e interattivo: un incontro VR con Darth Vader, forse ispirato al vasto universo di Star Wars. Williams è profondamente coinvolta in organizzazioni pro-tecnologia come Black Girls Code e ricorda la scarsità di donne di colore nel suo college negli anni '80. "Ero sempre l'unica nelle mie lezioni di matematica, l'unica nelle mie lezioni di business", dice. "Diventa stancante e diventa spaventoso." La sua soluzione per indirizzare più donne verso la tecnologia: "Farle partire giovani e rafforzarle nella loro fiducia, in modo che quando entrano nella stanza e sono le uniche lì, non si voltino".

Maya Gupta, ricercatrice di machine learning presso Google, sta lavorando per migliorare l’intelligenza artificiale, anche se da una prospettiva diversa. A Stanford, ha aiutato un'azienda norvegese a individuare crepe nei suoi gasdotti sottomarini. "Non puoi entrarci molto bene, quindi abbiamo dovuto utilizzare informazioni parziali per provare a indovinare", dice. Insegnare alle macchine a fare ipotesi sfumate è un terreno familiare per Gupta. Se sei su YouTube e ascolti "Truth" del sassofonista tenore Kamasi Washington e la musica prosegue senza sforzo nella splendida "Turiya and Ramakrishna" di Alice Coltrane, come il lavoro del DJ più intelligente che tu non abbia mai conosciuto, grazie a Gupta, il cui team aiuta i computer a migliorare la qualità dei dati. ottimizzare i loro consigli. "È tutta una questione di previsione, giusto?" lei dice. "Stai cercando di indovinare cosa sta succedendo con dati limitati."

Oggi è a capo di un team di ricerca e sviluppo presso Google per, tra le altre cose, creare una maggiore precisione nell’apprendimento automatico. "Diciamo che voglio essere altrettanto preciso nell'identificare un accento di Boston e un accento del Texas, ma ho un riconoscitore vocale che è un po' migliore in quello del Texas", dice. “Ad essere onesti, dovrei penalizzare le persone con un accento texano rendendo il riconoscimento altrettanto negativo quanto lo è per Boston? E se fosse semplicemente più difficile riconoscere le persone che parlano con un accento di Boston?”

Gupta e il suo team stanno anche perfezionando sistemi che sarebbero infinitamente più trasparenti rispetto ai loro progettisti basati sul carbonio. Con le macchine, si spera, possiamo eliminare molti dei pregiudizi o dei processi subconsci che affliggono il pensiero umano, o almeno riconoscerli più facilmente quando emergono. Le macchine non perdono la concentrazione quando sono stanche, irritabili o affamate. Uno studio ha dimostrato che i giudici sono meno propensi a concedere la libertà condizionale subito prima di pranzo, quando pensano ai panini piuttosto che alle battute laterali. “È difficile misurare cosa sta realmente accadendo nella mente degli esseri umani”, afferma Gupta. “Vogliamo che i nostri sistemi di apprendimento automatico siano spiegabili e, francamente, molti di essi sono già più spiegabili di quanto lo siano gli esseri umani”.

“Vogliamo che i nostri sistemi di apprendimento automatico siano spiegabili e, francamente, molti di essi sono già più spiegabili di quanto lo siano gli esseri umani”.

Man mano che l’intelligenza artificiale diventa sempre più utile, per non dire più facile da usare, si spinge a metterla in quante più mani possibile. Christine Robson, ricercatrice IBM prima di approdare a Google, è un'entusiasta sostenitrice di software open source come TensorFlow, un sistema di apprendimento automatico che può essere utilizzato per una serie di compiti, dalla traduzione delle lingue all'individuazione delle malattie alla creazione di opere d'arte originali.

Per Robson, l’inclusività nell’intelligenza artificiale significa rendere i suoi strumenti accessibili non solo ai semplici nerd della matematica come lei. "Sono entusiasta della disponibilità dell'apprendimento automatico nel mondo", afferma. “Parliamo molto di democratizzare l’apprendimento automatico, ma io ci credo fermamente. Rendere questi strumenti davvero facili da usare e rendere queste tecniche applicabili a tutti è fondamentale”.

Letteratura di fantascienza e il cinema offrono da tempo esempi di intelligenza artificiale andata storta (Mary Shelley’s Frankenstein compirà 200 anni l’anno prossimo). Oggi, molti nel settore, tra cui Li, Robson e Chou, sono meno preoccupati di ciò che l’intelligenza artificiale potrebbe farci e più di ciò che noi esseri umani potremmo fare all’IA. Un esempio: i programmatori danno agli assistenti virtuali una voce femminile perché, beh, sia gli uomini che le donne tendono a preferirne una. “Ma ciò perpetua l’idea che gli assistenti siano donne, quindi quando ci impegniamo con questi sistemi, ciò rafforza quel pregiudizio sociale”, afferma Chou. Molte delle migliori menti del settore si preoccupano di ciò che accadrà nei sistemi di intelligenza artificiale della vita reale e quindi di ciò che emergerà. È qui che entra in gioco la spinta verso una maggiore diversità nell’intelligenza artificiale. Poco di tutto questo sarà facile. Ma i suoi sostenitori sono intelligenti, intraprendenti e impegnati nella causa.

“Rendere questi strumenti di intelligenza artificiale davvero facili da usare e rendere queste tecniche applicabili a tutti è fondamentale”.

Dobbiamo assicurarci che tutti si sentano i benvenuti, afferma Gupta. Ricorda il muro di fotografie di professori di ingegneria elettrica in pensione della sua alma mater Rice che "non mi somigliavano". Dobbiamo convincere le ragazze che l'intelligenza artificiale non è magica, aggiunge Robson. "È matematica".

Presso SAILORS, gli studenti stanno imparando come utilizzare l'elaborazione del linguaggio naturale per effettuare ricerche sui social media e aiutare nei soccorsi in caso di calamità. "Aiuterebbe i soccorritori a scoprire le persone bisognose in tempo reale, utilizzando i loro messaggi Twitter", afferma Li. Gli effetti delle lezioni e dei progetti durano ben oltre le estati indimenticabili. Alcuni studenti hanno avviato i propri club di robotica a scuola, pubblicato articoli su riviste scientifiche e tenuto seminari nelle scuole medie per diffondere il vangelo dell’intelligenza artificiale anche alle ragazze più giovani. Per questi studenti, i cui background ed esperienze sono diversi quanto la miriade di progetti affrontati al campo, l’intelligenza artificiale non è l’ultimo gadget interessante, ma una potente forza positiva. In vista del primo raduno SAILORS nel 2015, il programma ha condiviso i messaggi dei campeggiatori in arrivo, incluso questo desiderio ambizioso: “Spero di iniziare il mio viaggio nell’intelligenza artificiale ora in modo da poter avere un impatto sul mondo in futuro”.

Roberto Itoè uno scrittore con sede a Los Angeles. È un assiduo collaboratore di New York Times, Salone, E Los Angeles rivista.

Google ha aperto un nuovo centro di ricerca a Zurigo, Google Research, che si concentrerà sull’intelligenza artificiale. Ora è uno dei più grandi centri di ricerca legati allo sviluppo dell'intelligenza artificiale al di fuori degli Stati Uniti. La sua scoperta è associata alla nuova strategia di Google, che prevede l’introduzione attiva dell’intelligenza artificiale nei servizi e nelle applicazioni. Oggi l'azienda utilizza gli sviluppi in quest'area in prodotti come Translate e Photos. E alla conferenza Google I/O 2016 sono stati presentati un messenger e un dispositivo per la casa intelligente, che utilizzano anch'essi l'intelligenza artificiale. Con l'apertura di un nuovo centro di ricerca a Zurigo, Google intende fare un passo avanti significativo in questo settore. Abbiamo potuto assistere all'inaugurazione di questo centro e conoscere come e perché l'azienda sta sviluppando l'intelligenza artificiale.

In che modo Google crea l'intelligenza artificiale?

Il centro di ricerca inaugurato a Zurigo si concentrerà sullo sviluppo in tre aree chiave per l’intelligenza artificiale: apprendimento automatico, percezione automatica ed elaborazione e comprensione del parlato naturale. Tutti sono necessari per creare la prossima generazione di computer in grado di imparare dalle persone e dal mondo che le circonda.

Apprendimento automatico

L'intelligenza artificiale o macchina viene spesso confusa con l'apprendimento automatico e, sebbene la prima non possa esistere senza la seconda, si basa su principi leggermente diversi. Il concetto stesso di “intelligenza artificiale” implica la creazione di un computer che pensa, mentre “apprendimento automatico” è lo sviluppo di computer in grado di apprendere. "Programmare un computer per essere intelligente può essere più difficile che programmare un computer per imparare a essere intelligente", spiega la differenza Greg Corrado, ricercatore senior sul machine learning presso Google.

Ogni utente può sperimentare oggi il lavoro dell'apprendimento automatico. E-mail Gmail. Mentre prima il filtro antispam del servizio seguiva regole rigide con le parole chiave, oggi impara dagli esempi. Man mano che filtra la posta, migliora sempre di più. Questo è uno degli esempi più semplici di utilizzo del machine learning, ma oggi Google sta già creando sistemi di autoapprendimento più complessi.

Per fare ciò, l’azienda utilizza tre metodi di machine learning:

1. Formazione tutorata- questo sta imparando con l'esempio, allo stesso modo in cui il filtro antispam di Gmail filtra la posta, ricevendo sempre più esempi di messaggi di spam. L'unico problema con questo metodo è che affinché sia ​​efficace, è necessario disporre di un gran numero di esempi già pronti.

2. Apprendimento non supervisionato- si tratta di clustering di dati, al computer vengono forniti oggetti senza descrizione e cerca di trovare modelli interni, dipendenze e relazioni tra loro. Poiché i dati inizialmente non sono etichettati, non vi è alcun segnale di errore o ricompensa per il sistema e non conosce la soluzione corretta.

3. Insegnamento rafforzativo- questo metodo è legato all'“apprendimento supervisionato”, ma qui i dati non vengono semplicemente inseriti nel computer, ma vengono utilizzati per risolvere problemi. Se la decisione è corretta, il sistema riceve una risposta positiva, che ricorda, rafforzando così la sua conoscenza. Se la soluzione non è corretta, il computer riceve una risposta negativa e deve trovare un altro modo per risolvere il problema.

Oggi Google utilizza principalmente l’apprendimento supervisionato per i suoi servizi, tuttavia, l’azienda sottolinea che “l’apprendimento per rinforzo” potrebbe avere un potenziale ancora maggiore. È stata la combinazione di questi due metodi a creare l'intelligenza artificiale AlphaGo, in grado di sconfiggere i giocatori professionisti di Go. Innanzitutto, il computer ha battuto il campione europeo di Go Fan Hui (2° dan) con un punteggio di 5-0, poi ha giocato con Lee Sedol, un giocatore del 9° dan (il grado più alto nel Go), e ancora una volta il punteggio finale è stato 4- 1 persona non favorevole.

Perché la vittoria dell'intelligenza artificiale nel gioco del Go è così importante per lo sviluppo del machine learning? Il fatto è che il gioco stesso è molto difficile per un computer. Go utilizza un tabellone goban di linea 19x19 su cui un giocatore posiziona le pietre nere e l'altro giocatore le pietre bianche nel tentativo di catturare quanto più spazio possibile sul tabellone. A differenza degli scacchi, dove ogni pezzo ha una posizione e dei movimenti chiaramente definiti, nel Go i giocatori sono limitati solo dalla scacchiera. Pertanto, durante il gioco usano non solo la conoscenza, ma anche l'intuizione. Per il computer, la complessità aggiuntiva è data dall'enorme numero di posizioni possibili (10^170), ed è anche difficile per lui giudicare chi vince la partita.

Pertanto, per AlphaGo sono state sviluppate due reti neurali. La prima si chiama “rete del valore”, valuta la posizione delle pedine sul campo con numeri da -1 a 1 per determinare quali pedine sono in vantaggio: bianche (-1) o nere (1). Se la posizione è equilibrata e ogni giocatore può vincere, il valore sarà vicino a 0. La rete neurale scansiona il tabellone e valuta la posizione delle pietre, dopodiché inizia a capire quanto siano vantaggiose le pietre bianche e nere. La seconda rete neurale era chiamata “rete politica”. Sulla base dei dati degli esperti sulle mosse nel Go, elabora una mappa, determinando quali mosse in questa posizione avranno più successo.

Pertanto, la “rete del valore” consente ad AlphaGo di comprendere la posizione delle pietre sul tabellone e determinare chi vince, e la “rete della politica” rende più semplice per l’algoritmo di ricerca selezionare possibili opzioni muoversi, poiché lo limita a seconda della posizione delle pietre.

Prima di continuare è importante capire cos’è una “rete neurale”? Purtroppo oggi non esiste un’unica definizione formale di “rete neurale artificiale”. Se provi a dirla in parole semplici, una rete neurale è una serie di modelli matematici creati secondo il principio di funzionamento delle reti neurali biologiche. I neuroni artificiali (semplici processori) si collegano tra loro, ricevono un segnale, lo elaborano e lo inviano al neurone successivo. Ogni neurone ha una funzione matematica semplice, ma lavorando insieme possono risolvere problemi complessi.

Come sono state addestrate le reti neurali per AlphaGo?

“Abbiamo iniziato con i dati dei giocatori professionisti di Go. Poiché le partite vengono per lo più registrate, avevamo molte coppie: posizione più mossa con cui è stata ottenuta. Un gioco ci fornisce circa 300 coppie di questo tipo. Ogni mossa in un gioco del genere è professionale, poiché viene eseguita da un esperto. Abbiamo utilizzato l’“apprendimento supervisionato” per insegnare alla rete neurale a prevedere quale mossa farebbe un giocatore professionista in quella posizione. È nata così una “rete di politiche”. Successivamente, abbiamo permesso alla rete neurale di giocare contro se stessa, sia dalla posizione delle pietre bianche che da quelle nere. Abbiamo ricaricato i risultati di questi giochi nella rete neurale. Questo è già “apprendimento per rinforzo”, non è ancora così ben studiato, ma crediamo che questo sia il futuro dell’apprendimento automatico. Inoltre, grazie alla rete neurale che gioca contro se stessa, abbiamo ottenuto grande volume dati sulla posizione delle pietre sul tabellone, nonché sull'esito dei giochi. Sulla base di essi abbiamo formato una “rete di significati” che ha imparato a capire in quali posizioni vincono le pietre nere e in quali quelle bianche. La valutazione è molto parametro importante per creare un programma di gioco e l’apprendimento automatico in generale, perché è necessario un modo per determinare i progressi nel gioco”, afferma Thore Graepel, ricercatore del progetto DeepMind di Google, che ha sviluppato AlphaGo.

Sebbene AlphaGo abbia battuto i giocatori professionisti di Go e batta facilmente altre intelligenze artificiali sviluppate per il gioco, questo non è l'unico risultato notevole del sistema. Nella seconda partita con Lee Sedol, AlphaGo ha fatto una mossa molto insolita 37 sulla linea 5, che inizialmente non sembrava avere successo, ma poi ha permesso al computer di prendere il controllo di questa parte del tabellone. Il fatto è che le informazioni degli esperti caricate in AlphaGo non contenevano tali mosse e si può considerare che questa sia stata una delle prime manifestazioni di creatività nell'esecuzione di un computer.

Oggi Google utilizza la libreria software open source TensorFlow per l’apprendimento automatico. È un'API di seconda generazione che funziona per la ricerca e per i prodotti commerciali di Google che utilizzano l'apprendimento automatico, tra cui ricerca, riconoscimento vocale, Gmail e Foto.

Percezione della macchina

Un altro ambito importante per lo sviluppo dell’intelligenza artificiale è la percezione della macchina. Anche se negli ultimi dieci anni i computer hanno fatto grandi passi avanti nel riconoscere suoni, musica e testi scritti a mano, hanno ancora difficoltà a riconoscere immagini e video. Il sistema visivo umano riconosce facilmente le immagini; in ciascun emisfero cerebrale del nostro cervello è presente una corteccia visiva primaria (area visiva V1), che contiene 140 milioni di neuroni con decine di miliardi di connessioni tra loro. Eppure il cervello umano utilizza anche la corteccia visiva extrastriata (aree V2, V3, V4 e V5) per il riconoscimento delle immagini. Pertanto, per noi non è un grosso problema vedere un gatto grigio sdraiato su un tappeto grigio. Ma questo è un compito molto difficile per un computer.

In precedenza, Google catalogava le foto in base alla descrizione, l'utente doveva aggiungere tag alle immagini in modo che potessero essere successivamente raggruppate o trovate. Oggi Google Foto utilizza un riconoscimento delle immagini più avanzato basato su una “rete neurale convoluzionale”. Questa architettura, sviluppata dallo scienziato Yann LeCun, possiede uno dei migliori algoritmi per il riconoscimento delle immagini. Senza entrare nei dettagli, si tratta di una struttura multistrato di neuroni artificiali, ciascuno dei quali prende come input solo una piccola sezione dell'immagine di input. Con l'aiuto del progetto Deep Dream oggi chiunque può valutare esattamente come una rete neurale convoluzionale vede le immagini.

Google utilizza database di immagini pubbliche per addestrare la sua rete neurale. Ad esempio, nel 2012, Google ha insegnato a una rete neurale a riconoscere le immagini di gatti utilizzando 10 milioni di fotogrammi di gatti dai video di YouTube.

Elaborazione e comprensione del parlato naturale

Affinché il computer possa comprendere non solo i comandi vocali, ma anche il parlato naturale, Google utilizza reti neurali ricorrenti.

Il riconoscimento vocale tradizionale suddivide i suoni in piccole porzioni di 10 millisecondi di audio. Ciascuno di questi frammenti viene analizzato per quanto riguarda il contenuto in frequenza e il vettore di caratteristiche risultante passa attraverso un modello acustico, che produce una distribuzione di probabilità per tutti i suoni. Quindi, in combinazione con altre caratteristiche del discorso, attraverso un modello di pronuncia, il sistema collega la sequenza di suoni delle parole corrette nella lingua e nel modello, determinando la probabilità che una determinata parola sia nella lingua utilizzata. Infine, il modello linguistico analizza le parole risultanti e l'intera frase, cercando di valutare se tale sequenza di parole sia possibile in quella lingua. Ma per alcune parole nella notazione fonetica è difficile determinare dove finisce una lettera e inizia l'altra, e questo è molto importante per il corretto riconoscimento.

Google ora utilizza un modello acustico basato su una rete neurale ricorrente con un’architettura di “memoria a lungo termine”. In parole semplici, questa rete neurale è migliore di altre nel ricordare le informazioni, il che ha permesso di addestrarla a riconoscere i fonemi in una frase, e questo ha migliorato significativamente la qualità del sistema di riconoscimento. Pertanto, oggi il riconoscimento vocale su Android funziona quasi in tempo reale.

Intelligenza artificiale: aiuto o minaccia?

L’aspetto etico dell’uso dell’intelligenza artificiale è sempre all’ordine del giorno, ammette Google. Tuttavia, l’azienda non crede ancora che siamo abbastanza vicini alla creazione di computer autocoscienti per discutere questo problema in dettaglio. “I computer imparano lentamente”, afferma Greg Corrado. Per ora, Google può creare un’intelligenza artificiale efficace in un compito, come il gioco del Go, come AlphaGo. Ma per un’intelligenza artificiale a tutti gli effetti sarà necessaria una potenza di calcolo molte volte maggiore. Oggi vediamo che le prestazioni dei processori stanno rallentando, abbiamo quasi raggiunto il limite della “Legge di Moore”, e sebbene ciò sia in parte compensato dall’aumento delle prestazioni delle schede video e dall’emergere di processori specializzati, questo non è ancora sufficiente. Inoltre, un altro ostacolo è la mancanza di una quantità sufficiente di informazioni specialistiche che potrebbero essere utilizzate per l’apprendimento automatico. L’umanità può risolvere tutti questi problemi, e non solo, entro 20, 50 o 100 anni, altrimenti potrebbe non essere mai risolto; nessuno può fornire una previsione accurata. Di conseguenza, l’intelligenza artificiale che vediamo nei film sarà probabilmente molto diversa da quella che otterremo alla fine.

Il tuttofare e il futuro della ricerca Google

Google si sta attualmente prefiggendo un obiettivo più realistico: creare assistenti virtuali basati sull'intelligenza artificiale. Oggi ce ne sono già assistenti virtuali come Siri o Google Now, ma sono molto limitati e avulsi dalla realtà in cui si trova l'utente. Cosa vuole fare Google? L’azienda ritiene che un assistente virtuale debba comprendere il mondo che lo circonda, la posizione dell’utente in questo mondo e fare affidamento anche sul contesto attuale della comunicazione.

"Immagina di avere un incredibile assistente intelligente, e gli dici: studia quest'area e dimmi cosa ne pensi. Questo è ciò che stiamo cercando di creare. Nel mio caso, vorrei dire al mio assistente: mostrami le cose più interessanti e rilevanti che non conosco già", afferma Eric Schmidt, presidente del consiglio di amministrazione di Alphabet, proprietaria di Google.

Google vede quindi l’intelligenza artificiale come un nuovo strumento in grado di espandere le capacità umane fornendogli nuove conoscenze. Un buon esempio di ciò è AlphaGo, che i giocatori di Go vedono come un'opportunità per migliorare il proprio livello. Dopotutto, se ti alleni contro l'intelligenza artificiale che già supera il grado massimo del gioco, questo può portarla a un nuovo livello.

Intelligenza artificialeè ormai saldamente radicato nelle nostre vite. Molto spesso non pensiamo nemmeno a questo problema quando utilizziamo abitualmente un assistente vocale in uno smartphone o il riconoscimento automatico delle immagini in un programma. Anche la ricerca su Google non è completa senza il machine learning, una branca dell’intelligenza artificiale.

Da circa due anni funziona una tecnologia chiamata RankBrain, che serve per l'ordinamento intelligente dei risultati di ricerca. Circa il 15% delle query giornaliere sono nuove per Google, ovvero non sono state formulate prima da nessun utente.

“La nostra intelligenza artificiale fa a meno dei comandi umani”

Professore Davide Argento, Capo programmatore di intelligenza artificiale
Google AlphaGoZero

Gli algoritmi di RankBrain cercano i moduli esistenti in quelli sconosciuti query di ricerca e collegarli a concetti semanticamente simili. In definitiva, il motore di ricerca deve apprendere da solo ed essere in grado di fornire risposte adeguate a domande che non sono state poste prima.

Google utilizza nei suoi data center processori tensoriali (TPU) appositamente progettati per questo scopo.

Unità di elaborazione tensore (TPU)

I progressi dell’intelligenza artificiale di Google sono impressionanti. Uno dei motivi è che Google ha sviluppato un hardware speciale che accelera le reti neurali in modo molto più efficiente rispetto alle CPU e GPU standard. Sorprendentemente, i processori tensoriali utilizzano in parte normali componenti per PC. Si trovano su una scheda SATA plug-in e comunicano tramite PCI Express con altri processori tensore.

Struttura del processore tensore

L'addizione e la moltiplicazione rapide sono il punto di forza del processore tensore. Nel modulo responsabile, con una matrice come componente centrale, vengono eseguiti i calcoli della rete neurale. Occupa circa un quarto dell'area del processore. Lo spazio rimanente viene utilizzato per fornire rapidamente i dati di input. Questi sono forniti tramite PCI Express e RAM DDR3. I risultati del calcolo vengono restituiti al server tramite PCI Express e l'interfaccia host.


Intelligenza sovrumana

I processori hanno preso il nome dalla libreria software TensorFlow. Lo scopo principale di TPU è accelerare gli algoritmi di intelligenza artificiale che si basano su librerie di software libero.

Inizialmente i TPU hanno guadagnato popolarità come piattaforma hardware per AlphaGo, l'intelligenza artificiale che ha battuto i migliori giocatori del mondo nel gioco asiatico del Go. A differenza degli scacchi, per molti anni lo sviluppo di software per il Go a livello professionale è stato considerato impossibile.

Lo sviluppo successivo, AlphaGo Zero, è stato in grado di apprendere autonomamente il gioco in base alle regole che gli sono state fornite. In tre giorni ha raggiunto il livello professionale, in tre settimane ha raggiunto la versione precedente di AlphaGo, la cui formazione costava enormi sforzi e richiedeva milioni di giochi professionali. Si è scoperto che l'intelligenza artificiale in precedenza limitava lo studio dei movimenti umani. Dopo altre sei settimane, AlphaGo Zero non era più imbattibile.

Acceleratore per reti neurali

Rispetto ai processori convenzionali, i processori tensoriali sono specializzati nell’uso di reti neurali artificiali. Sono costituiti da molte funzioni matematiche collegate in rete che imitano il cervello umano con le sue cellule nervose e le loro connessioni. Come il nostro cervello, una rete neurale richiede input appropriati. La formazione avviene, ad esempio, nel riconoscimento vocale, nel riconoscimento delle immagini o nelle regole del gioco “Go”.

Una rete neurale artificiale comprende diversi strati di neuroni. Ogni neurone utilizza una somma ponderata dei valori di output dei neuroni collegati nello strato precedente. Il benchmarking corretto è la chiave del successo nel Machine Learning, ma deve essere fatto prima, il che in pratica spesso significa più operazioni in virgola mobile.

In questa disciplina, le GPU sono effettivamente la scelta migliore. Per poi ordinare i risultati della ricerca o prevedere le mosse, la rete neurale non ha più bisogno di calcoli in virgola mobile ad alta precisione. Questo processo richiede un numero molto elevato di operazioni di moltiplicazione e addizione di numeri interi.

Processori tensoriali presso Google Compute Center

Google utilizza il TPU nei suoi data center dal 2016. La scheda solitamente ha diversi processori in un cluster. Sono utilizzati principalmente in blocchi di quattro.

Il processore tensore di Google è costituito principalmente da un'unità di calcolo, una matrice di 256x256 unità. Funziona su numeri interi a otto bit, raggiunge una potenza di elaborazione di 92 trilioni di operazioni al secondo e archivia i risultati in memoria.

Il diagramma mostra che la matrice occupa solo circa un quarto dell'area del processore. I restanti componenti sono responsabili di fornire costantemente nuovi dati ai kernel. I processori tensore non inviano comandi a se stessi: provengono dal server connesso tramite PCI Express. Anche i risultati finali vengono trasmessi in risposta allo stesso modo.

I parametri di riferimento richiesti per i calcoli della rete neurale sono forniti dal modulo di memoria First-In/First-Out. Dato che le modifiche sono minime per un'applicazione specifica, è sufficiente la connessione tramite RAM DDR3. I risultati intermedi vengono inseriti in un'unità buffer da 24 MB e restituiti all'unità di calcolo.

Consumo energetico a confronto

Un confronto delle prestazioni dei processori per watt di elettricità consumata dimostra la maggiore efficienza dei processori tensoriali.


Gara tra CPU e GPU

I processori tensoriali elaborano a una velocità di 225.000 previsioni di reti neurali al secondo. CPU e GPU non possono competere.

45 volte più veloce del processore convenzionale

Sebbene il set di istruzioni CISC (Complex Instruction Set Computer) di un processore tensore possa gestire comandi complessi, ce ne sono solo una dozzina circa. Inoltre, la maggior parte delle operazioni richieste richiedono solo cinque istruzioni, tra cui le istruzioni di lettura, l'esecuzione della moltiplicazione di matrici o la valutazione della funzione di attivazione.

Ottimizzando i calcoli dell'intelligenza artificiale, i processori tensoriali sono significativamente più veloci dei processori convenzionali (45 volte) o GPU(17 volte). Allo stesso tempo, funzionano con maggiore efficienza energetica.

E Google è solo all'inizio del suo viaggio: con l'aiuto misure semplici Le prestazioni dei processori tensoriali possono essere ulteriormente aumentate. La semplice installazione della RAM GDDR5 può triplicare la tua attuale potenza di elaborazione.

Se vi siete sempre chiesti cosa succede nei neuroni delle reti neurali, finalmente Google potrà spiegarvelo. L'azienda ha rilasciato una selezione di servizi sperimentali che mostrano di cosa è capace la moderna intelligenza artificiale.

Il più interessante è Quick, Draw! - suggerisce di interpretare una specie di "Coccodrillo". Il tuo compito è disegnare un determinato oggetto in 20 secondi, ad esempio una carota, una bicicletta, una palla, una faccia e così via. Nello stesso tempo, il programma dovrebbe riconoscere esattamente cosa hai tentato di rappresentare. Mentre disegni linee goffe con il cursore, la rete neurale elimina le opzioni finché non riconosce quella corretta.

Allo stesso tempo, come si conviene ad una rete neurale, impara in base ai disegni di altri utenti. E più immagini vede l’intelligenza artificiale, più velocemente troverà la risposta corretta. Ad esempio, in questi scarabocchi la rete neurale ha riconosciuto un coccodrillo in pochi secondi. Potresti?

Un altro servizio divertente si chiama Giorgio Cam. Può identificare gli oggetti che vede nella fotocamera. Qui i risultati non sono così impressionanti e l’intelligenza artificiale spesso sbaglia. Tuttavia, la mancanza di accuratezza è compensata dalla presentazione. Il processo di identificazione di un oggetto è accompagnato da musica elettronica giocosa e la rete neurale espone ritmicamente le opzioni di risposta al ritmo. Sembra tutto piuttosto inquietante, ma affascinante.

In generale, l'intelligenza artificiale è ancora piuttosto primitiva e, ovviamente, non è in grado di elaborare un piano efficace per conquistare l'umanità. Ma per ora è tutto.

Puoi vedere tutti i divertenti esperimenti di Google nel campo della creazione dell'intelligenza artificiale.

I migliori articoli sull'argomento