Nyheter, Prylar, Android, Mobiler, Appnedladdningar, Android

Google Lens kan nu söka efter bilder och text samtidigt

Google utökar omfattningen av Lens-tjänsten genom att lägga till “Multisearch” – en funktion som den förhandsvisade i september förra året.

Med Google Lens Multisearch kan användare söka med både bilder och textinmatning för att bättre hitta relevanta produkter. Den här tekniken använder maskininlärning som lär sig av de två input som användaren ger och kombinerar dem för att göra en bättre sökning på webben.

Multisökning i Google Lens

För att göra sökningen bättre introducerade Google stöd för en bildsökning för ganska länge sedan. Detta slogs senare samman till Google Lens, som till och med kan extrahera texten från en bild och använda den för redigering. Senare började den till och med identifiera låtar med ett enkelt hum.

Och nu, för att förbättra detta ytterligare, tillkännagav Google Multisearch in Lens. Multisearch, som ursprungligen förhandsvisades i september förra året, låter användare söka med både bild och text. Du kan till exempel ladda upp en bild på en t-shirt till Lens och lägga till “prickar” i fyndet för att se en prickig t-shirt.

Tillgänglig för amerikanska användare nu, den här förmågan syftar till att förenkla shoppingrelaterade sökningar initialtsade Liz Reid, vice vd för Google Sök till CNN Business. Även om det inte är begränsat till det, tillade hon.

För att prova detta, tryck på kameraikonen (Google Lens) i sökfältet, ladda upp en bild, tryck på “+”-tecknet för att öppna textrutan och ange en fras för att hitta något som kommer från båda ingångarna. Google sa att den här funktionen använde ett kraftfullt maskininlärningsverktyg som heter “multitask enhetlig modell” (MUM).

Detta kan tränas vidare för att senare söka efter texter med låtar också. Från och med nu kombinerar den naturlig språkbehandling för att förstå textinmatningen och artificiell intelligens för att se bilden och leta igenom webben för att visa ett relevant resultat framför dig på några sekunder.