Med TensorFlow öppnar Google sina resurser för maskininlärning

Google meddelade TensorFlow igår och släppte sin forskning och framgångsrik intern skalning av maskininlärning som ett open source-projekt under en Apache 2.0-licens. TensorFlow kommer att påskynda antagandet av maskininlärning av de tusentals kreativa produktutvecklingsteam som inte har Googles storskaliga resurser för maskininlärning..

Ett bra exempel på implikationerna av maskininlärning genom interaktioner mellan människor och system är Teslas Autopilot beta. När förare interagerar med och korrigerar Autopilot har förare rapporterat att vägledningssystemet förbättras.

Google har investerat i avancerad forskning inom maskininlärning och tillämpar företagets högsta konstgjorda intelligens / djupa inlärningstalenter på Google Brain Project, som lanserades av Andrew Ng och nu under John Giannandrea i samband med högsta akademiska laboratorier, såsom Stanford och Carnegie Mellon, för att förbättra Googles produkter.

Google

Användare av mobila enheter har accepterat och kommit att förvänta sig exakt taligenkänning, språköversättning, mänsklig tolkning av foton och videor och förväntade sökresultat. Allt detta är resultatet av Googles maskininlärning, produkten från Googles neuronella nätverksundersökningar, som gjorde rubriker när det lärde sig att identifiera katter i omärkta videor. Till en början kan upplevelsen verka läskig, men så småningom accepterar människor bara system som förutser behov och presenterar alternativ i samband med "rekommendation" -metaforer.

Principen är enkel - maskiner som är programmerade på rätt sätt kan lära av data (desto mer data desto bättre) och fatta beslut med enastående hastigheter. Till exempel känner mänskliga sinnen pressade till sina gränser när de kör på 70 miles per timme, men vid dessa hastigheter kan Teslas Autopilot känna, beräkna och fatta ett beslut på en bråkdel av tiden. När framgångsrikt konstruerade maskininlärningsbaserade system möter en mänsklig interaktion överförs mänsklig intelligens och systemet förbättras.

2011 skapade Google DistBelief för sina maskininlärnings- och konstgjorda intelligensforskare för att bygga allt större neurala nätverk med tusentals kärnor som lärde sig från stora komplexa datasätt för att utföra komplexa uppgifter, som att känna igen bilder och tolka dåligt artikulerade språk. DistBelief demonstrerade att maskininformation skulle kunna fungera på Googles miljöskala av användare.

Att skapa ett system som DistBelief för användning inom ramen för Google var en intern framgång, men kunde inte släppas till den oberoende maskininlärningen eller allmänna oberoende utvecklare. DistBelief var snävt riktad mot neurala nätverk, svårt att konfigurera och tätt i kombination med Googles interna infrastruktur. Det som saknades var engagemanget från maskininlärningssamhället att lära av varandra genom att dela kod och dynamiska experiment, hur maskiner lär sig från interaktion med mänskliga, rekursivt förbättra utvecklingen av maskininlärning genom interaktion mellan utvecklare.

Googles andra generationens öppen källkod för maskininlärningssystem TensorFlow utformades specifikt för att korrigera DistBeliefs brister. Google byggde TensorFlow för att mer allmänna applikationer skulle bli mer flexibla, bärbara och inom räckhåll för fler utvecklare. Den är byggd för produktionsapplikationer för maskininlärning och är avsedd att vara snabb och skalbar. I vissa riktmärken var TensorFlow dubbelt så snabb som DistBelief.

Djup inlärning, maskininlärning och konstgjord intelligens är alla några av Googles kärnkompetenser, där företaget leder Apple och Microsoft. Om det lyckas är Googles strategi att behålla denna ledning genom att lägga ut sin teknik för att förbättra den baserad på storskalig adoption och kodbidrag från samhället i stort.

Gå med i nätverkets världssamhällen på Facebook och LinkedIn för att kommentera ämnen som är övertygade.