Innehållsförteckning:
- Vad är Google Duplex?
- Är detta inte precis som tal-till-text?
- Hur fungerar Duplex?
- Vad sägs om säkerhet och integritet?
- När kommer jag att ha Duplex på min telefon?
- Var kan jag lära mig mer?
På Google I / O 2018 såg vi en demo av Googles senaste nya coola sak, Duplex. 60-fots skärmen på scenen visade hur det ser ut som din Google Assistant-app med en linje-för-rad-uppspelning av Assistant som ringer till en frisör och ställer in ett möte, komplett med pauser, ummms och ahhhs och resten av de idiosynkrasier som följer med mänskligt tal. Den som tog möten verkade inte veta att de pratade med en dator eftersom det inte låter som en dator. Inte ens en liten bit.
Den här typen av demo ser fantastisk ut (och kanske lite läskig) men hur är det med detaljerna? Vad är Duplex, exakt? Hur fungerar det ens? Vi har alla frågor när vi ser något så annorlunda och att hitta svar spridda över internet är ont. Låt oss gå igenom vad vi hittills vet om Google Duplex.
Vad är Google Duplex?
Det är ett nytt verktyg från Google som syftar till att använda artificiell intelligens (AI) för att "åstadkomma verkliga uppgifter över telefonen" enligt Googles AI-forskare och utvecklare. För närvarande betyder det mycket specifika uppgifter som att boka tid, men tekniken utvecklas med ett öga på expansion till andra områden. Att spendera miljarder för att skapa ett coolt sätt att boka middagar låter som något som Google skulle göra, men det är inte bra att använda tid eller pengar.
Duplex är också mer än vi såg i en demo och om det någonsin lämnar labbet kommer att bli mycket mer än vi ser eller hör på vårt slut. Det finns enorma databaser och datorer för att bearbeta den involverade som inte är nästan lika coola som det slutliga resultatet. Men de är viktiga eftersom det är svårt att prata och tänka i realtid som en person.
Är detta inte precis som tal-till-text?
Nej. Inte ens i närheten. Och det är därför det är en stor sak.
Duplex är utformat för att ändra hur en dator "pratar" i telefonen.
Målet för Duplex är att få saker och ting att låta naturligt och att assistenten ska tänka i farten för att hitta en tid som fungerar. Om Joe säger, "Ja, om det - jag har inget öppet förrän 10, är det OK?" Assistenten måste förstå vad Joe säger, ta reda på vad det betyder och tänka om vad Joe erbjuder kommer att fungera för dig. Om du är upptagen över staden klockan 10 och det tar 40 minuter att köra till Joe's Garage, måste assistenten kunna räkna ut det och säga att 11:15 skulle vara bra.
Lika viktigt för Google är att Duplex svarar och låter som en person. Google har sagt att den ville att personen i telefonen inte skulle veta att de pratade med en dator, men beslutade så småningom att det skulle vara bäst att informera dem. När vi pratar med människor, pratar vi snabbare och mindre formellt (läs: osammanhängande prat från en dators synvinkel) än när vi pratar med assistent på vår telefon eller datorn på DMV när vi ringer in. Duplex måste förstå detta och återskapa det när du svarar.
Slutligen, och mest imponerande, är att Duplex måste förstå sammanhang. Fredag, nästa fredag och fredag efter nästa vecka är alla villkor som du och jag förstår. Duplex måste också förstå dem. Om vi pratade på samma sätt som vi skriver så skulle det inte vara ett problem, men vi vet att du inte vet det för det låter bara så snyggt ja det är inte som förvirrande men vi har hört det hela livet och är vana vid det så nej vi har inga problem du vet att förstå det eller inget liknande.
Jag ska administrera första hjälpen till min redaktör efter att ha skrivit det medan du säger det högt, så du ser vad det här betyder.
Hur fungerar Duplex?
Från användarens slut är det så enkelt som att säga assistenten att göra något. För närvarande, som nämnts, att något är begränsat till att boka tid, så vi skulle säga, "Hej Google gör mig en tid för ett oljebytes på Joe's Garage för tisdag morgon, " och (efter att det påminde oss att säga snälla) skulle det ringa upp Joe's Garage och sätt upp saker, lägg sedan till dem i din kalender.
Fortsatta konversationer använder mycket av samma underliggande teknik som Duplex.Ganska snygg. Men vad som händer utanför kameran är ännu smidigare.
Duplex använder det som kallas ett återkommande neuralt nätverk. Det är byggt med Googles TensorFlow Extended-teknik. Google tränade nätverket på alla de anonymiserade röstmeddelandena och Google Voice-konversationer som du gick med på att låta det lyssna på om du valde in med en blandning av taligenkänningsprogramvara och möjligheten att överväga konversationens historia och detaljer som tid på dagen och platsen av båda parter.
I huvudsak krossar ett helt nätverk av högdrivna datorer data i molnet och pratar via Assistant på din telefon eller annan produkt som har Assistant ombord.
Vad sägs om säkerhet och integritet?
Det handlar om en enkel sak: litar du på Google. Maskininformation på enheten är en riktig sak, även om den är begränsad och relativt ny. Google har utvecklat ML Kit för att hjälpa utvecklare göra mer av den här typen av saker på själva enheten, men det handlar bara om datorkraft. Det krävs otroligt mycket beräkningar för att göra en hårmöte på detta sätt, och det finns inget sätt att göra det på din telefon eller Google Home.
Du måste lita på Google med dina data för att använda sina smarta produkter och Duplex kommer inte att vara annorlunda.
Google måste utnyttja mycket av dina personuppgifter för att göra de speciella saker som assistenten kan göra just nu, och Duplex ändrar inte det. Det som är nytt här är att det nu är en annan part involverad som inte uttryckligen gav Google tillåtelse att lyssna på deras konversation.
Om / när Duplex blir en verklig konsumentprodukt för alla att använda, förvänta sig att den kritiseras och ifrågasätts vid domstolar. Och det borde vara; Att låta Google bestämma vad som är bäst för vår integritet är som det gamla ordet av två rävar och en kyckling som bestämmer vad som är till middag.
När kommer jag att ha Duplex på min telefon?
Förväntar sig några stora förändringar av Assistant senare i år.Ingen vet just nu. Det händer aldrig. Google blir upphetsad när den kan göra den här typen av fantastiska saker och vill dela den med världen. Det betyder inte att det kommer att bli framgångsrikt eller någonsin bli en riktig produkt.
För tillfället testas Duplex i en stängd och övervakad miljö. Om allt går bra, kommer en första experimentell utgåva för konsumenterna att boka restaurang, schemalägga möten för frisörsalonger och få semestertimmar via telefonen senare i år med hjälp av endast Assistant på telefoner.
Var kan jag lära mig mer?
Google är förvånansvärt öppen om tekniken den använder för att skapa Duplex. Du hittar relevant information på följande webbplatser:
- Google AI-blogg (Google)
- Deepmind
- Tensorflow.org
- Cornell University Library
- Google Research (Google)
- Nyckelordet (Google)
- ML Kit (Google)
Naturligtvis följer vi också Duplex noggrant, och du kommer att höra den senaste utvecklingen här så snart de är tillgängliga.