För ett företag som syftar till att vara kunskapsgrafen för hela planeten är bildbaserade AI-tjänster en självklar sak för Google att vilja få rätt. Och för alla som använder Google Photos under de senaste åren, vet du att det har gjorts stora framsteg för att förbättra dessa funktioner. Ansikts- och objektigenkänning i Google Photos kan vara otroligt, och det finns mycket bra som kan komma från att använda dessa funktioner i den verkliga världen. Att kunna erbjuda en kamera med förmågan att snabbt identifiera förråd och gatuskyltar för synskadade människor är bara otroligt.
Google Lens går i rätt riktning, men det är uppenbarligen inte redo för daglig användning ännu.
Som Google Pixel-ägare har jag haft tillgång till objektiv i sex månader nu. Denna betatid för Lens har varit lite klumpig, vilket kan förväntas. Jag pekar linsen mot en ovanlig bok som en vän till mig hade, och i stället för att berätta var jag kan köpa den boken för mig själv får jag ett textavsnitt från identifierat omslag. Jag ber Lens att skanna ett foto av en biografmarkis, det har ingen aning om vad som finns på fotot och erbjuder mig inte möjligheten att utan biljetter till showen som det var tänkt. Jag tar ett foto av min Shetland Sheepdog, Lens identifierar henne som en Rough Collie. Okej, så det sista är nästan omöjligt att få rätt på ett foto, men poängen är att Google Lens inte tillförlitligt gör de flesta saker som den påstår sig kunna göra ännu.
För Googles kredit är det att Lens blir rätt, det blir snabbt snabbt. Jag älskar att kunna använda Lens för språköversättning i realtid. Peka linsen på en meny skriven på ett annat språk, så får du omedelbara översättningar direkt på sidan som om du tittade på menyn på engelska hela tiden. Ta ett foto av ett visitkort, Lens är redo att lägga till den informationen i min kontaktbok. Jag har använt enskilda appar för dessa funktioner som har fungerat ganska bra tidigare, men att förena dessa funktioner på samma plats som jag får tillgång till alla mina foton är utmärkt.
Jag är också medveten om att detta fortfarande är mycket tidiga dagar för Lens. Det står ju 'Förhandsgranska' direkt i appen. Medan Pixel-ägare har haft tillgång till funktionen i ett halvt år, har de flesta Android-världen bara haft tillgång till den i drygt en månad vid denna tidpunkt. Och när du förstår hur den här programvaran fungerar är det en viktig detalj. Googles maskininlärningsinformation förlitar sig starkt på massiva kunskapsbidrag, så att den snabbt kan sila igenom allt och använda saker som har identifierats korrekt för att bättre identifiera nästa sak. Det kan hävdas att Google Lens bara har börjat sitt betatest, nu när alla har tillgång till det.
Samtidigt tillkännagavs Lens för ett helt år sedan på denna punkt, och jag kan fortfarande inte tillförlitligt rikta den mot en blomma och låta den berätta vilken typ det är. Det är en cool sak att ha tillgång till, men jag hoppas verkligen att Google kan göra denna funktion till något speciellt i en inte alltför avlägsen framtid.