Med TensorFlow åbner Google sine ressourcer til maskinlæring

Google annoncerede TensorFlow i går og frigav sin forskning og vellykket intern skalering af maskinlæring som et open source-projekt under en Apache 2.0-licens. TensorFlow vil fremskynde vedtagelsen af ​​maskinlæring hos de tusinder af kreative produktudviklingshold, som ikke har Googles store ressourcer til maskinlæring.

Et godt eksempel på implikationerne af maskinlæring gennem interaktioner mellem mennesker og systemer er Teslas Autopilot beta. Når chauffører interagerer med og retter Autopilot, har chauffører rapporteret, at vejledningssystemet forbedres.

Google har investeret i avanceret forskning i maskinlæring ved at anvende virksomhedens top kunstige intelligens / dyb læringstalent til Google Brain Project, lanceret af Andrew Ng og nu under John Giannandrea i samarbejde med top akademiske laboratorier, såsom Stanford og Carnegie Mellon, til forbedre Googles produkter.

Google

Brugere af mobilenheder har accepteret og forventet nøjagtig talegenkendelse, sprogoversættelse, menneskelignende fortolkning af fotos og videoer og forventede søgeresultater. Dette er alt sammen resultatet af Googles maskinlæring, produktet fra Googles neurale netværksundersøgelser, der kom overskrifter, da det lærte at identificere katte i ikke-mærkede videoer. Til at begynde med kan oplevelsen virke uhyggelig, men til sidst accepterer folk bare systemer, der forudser behov og præsenterer muligheder i sammenhæng med "anbefaling" -metaforer.

Princippet er enkelt - maskiner, der er programmeret på den rigtige måde, kan lære af data (jo flere data, jo bedre) og træffe beslutninger med enestående hastigheder. For eksempel føler menneskelige sanser sig presset til deres grænser, når de kører 70 miles i timen, men i disse hastigheder kan Teslas Autopilot sanse, beregne og træffe en beslutning i en brøkdel af tiden. Når succesrige konstruerede maskinlæringsbaserede systemer støder på en menneskelig interaktion, overføres menneskelig intelligens, og systemet forbedres.

I 2011 oprettede Google DistBelief til sine maskinlærings- og kunstige intelligensforskere til at bruge til at bygge stadig større neurale netværk af tusinder af kerner, der lærte fra store komplekse datasæt til at udføre komplekse opgaver, som at genkende billeder og fortolke dårligt artikuleret sprog. DistBelief demonstrerede, at maskine-efterretning kunne fungere i Googles brugerskala på milliarder.

Oprettelse af et system som DistBelief til brug inden for rammerne af Google var en intern succes, men det kunne ikke frigives til den uafhængige maskinindlæring eller generelle uafhængige udviklermiljøer. DistBelief var snævert målrettet mod neurale netværk, svært at konfigurere og tæt forbundet med Googles interne infrastruktur. Hvad der manglede var engagementet i maskinlæringsfællesskabet til at lære af hinanden gennem deling af kode og dynamisk eksperimentering, den måde, maskiner lærer af interaktion med menneskelige, rekursivt forbedring af maskinlæringsudvikling gennem interaktion mellem udviklere.

Googles anden generation af open source-maskinlæringssystem TensorFlow blev specifikt designet til at korrigere DistBeliefs mangler. Google bygget TensorFlow, så flere generelle applikationer kunne være mere fleksible, bærbare og inden for rækkevidde af flere udviklere. Det er beregnet til at være hurtigt og skalerbart, bygget til produktionsindlæringsapplikationer. I nogle benchmarks var TensorFlow dobbelt så hurtig som DistBelief.

Dyb læring, maskinlæring og kunstig intelligens er alle nogle af Googles kernekompetencer, hvor virksomheden fører Apple og Microsoft. Hvis det lykkes, er Googles strategi at opretholde denne ledelse ved at lægge sin teknologi ud for at forbedre den baseret på storstilet vedtagelse og kodebidrag fra samfundet som helhed.

Deltag i Network World-samfundene på Facebook og LinkedIn for at kommentere emner, der er øverste af sindet.