Med maskinlæring kan du endelig få politikerne til at sige, hvad du vil have dem til

Enhver, der har set en politisk debat, har sandsynligvis ønsket, at de kunne påvirke de ord, der kommer ud af en kandidats mund. Nu gør maskinlæring det muligt - i det mindste til en vis grad.

Forskere ved University of Washington har fundet en måde at skabe fuldt interaktive, 3D digitale personas fra fotoalbum og videoer af berømte mennesker som Tom Hanks, Barrack Obama, Hillary Clinton og George W. Bush. Udstyret med disse 3D-modeller kunne de derefter pålægge dem en anden persons stemme, udtryk og følelser, hvilket i det væsentlige gengiver modellerne som digitale digitale dukker.

"Forestil dig at være i stand til at føre en samtale med nogen, du faktisk ikke kan møde personligt - LeBron James, Barack Obama, Charlie Chaplin - og interagere med dem," sagde Steve Seitz, UW-professor i datalogi og teknik.

For at konstruere sådanne personas brugte teamet maskinindlæringsalgoritmer til at miner 200 eller derover internetbilleder taget over tid af en bestemt person i forskellige scenarier og positioner. De udviklede derefter teknikker til at fange ekspressionsafhængige strukturer - små forskelle, der opstår, når en person smiler eller ser forundret eller bevæger munden, f.eks..

Ved at manipulere lysforholdene på tværs af forskellige fotografier udviklede de en ny tilgang til tæt kortlægning af forskellene fra en persons funktioner og udtryk på en anden persons ansigt, hvilket gjorde det muligt at "styre" den digitale model med en video af en anden person.

Videoen nedenfor forklarer mere om forskningen. 

"Hvordan kortlægger du en persons præstation på en andens ansigt uden at miste deres identitet?" sagde Seitz. ”Det er et af de mere interessante aspekter af dette arbejde. Vi har vist, at du kan have George Bushs udtryk og mund og bevægelser, men det ligner stadig George Clooney. ”

Teknologien er afhængig af fremskridt inden for rekonstruktion af 3D-ansigter, sporing, justering, multiteksturmodellering og dukkeopgaver, der er udviklet i løbet af de sidste fem år af en forskningsgruppe ledet af UW-adjunkt i datalogi og teknik Ira Kemelmacher-Shlizerman. Resultaterne vil blive præsenteret i næste uge i et papir på den internationale konference om computervision i Chile.

Forskningen blev finansieret af Samsung, Google, Intel og University of Washington.

Deltag i Network World-samfundene på Facebook og LinkedIn for at kommentere emner, der er øverste af sindet.