Hur en frontvänd Mac kunde känna igen ansikten utan TrueDepth

Hur en frontvänd Mac kunde känna igen ansikten utan TrueDepth

Apple har aldrig försökt testa ny teknik på sina datorer, utan föredrar att utrusta dem med redan beprövade lösningar. Det är därför Retina-skärm, Touch ID-skanner, optimerad laddning och andra innovationer har dykt upp på Macen efter det har visat sig på iPhone eller iPad. Detta tillvägagångssätt är förståeligt. Datorer tillför mycket mindre pengar till företaget, varför de oftast är utrustade så att säga på överbliven basis. Men du kan också experimentera med dem.

Rykten säger att Apple är på väg att lägga till Face ID-stöd till utvalda Mac-datorer. Enligt uppgift vill Cupertino lära sina datorer att känna igen ägaren genom synen. Generellt sett är det bekvämt, eftersom igenkänning kan ske automatiskt även i ögonblicket när du öppnar locket till den bärbara datorn eller startar, om vi pratar om iMac.

MacBook med Face ID

Men alla f√∂rst√•r att en s√•dan uppgradering inte kan vara gratis ‚Äď f√∂r Apple, helt klart. Trots allt kommer f√∂retaget att beh√∂va utrusta datorer med ett speciellt sensorsystem och en tredimensionell kamera, vilket kostar pengar. Och jag undrar om det var om√∂jligt att klara sig utan det?

Det verkar för mig att i teorin skulle moderna Mac-datorer räcka och den främre kameran, som de är utrustade med som standard, och ansvaret för igenkänning kan tilldelas mjukvarualgoritmer. Hur implementerar man detta? Låt oss drömma.

TrueDepth-systemet, som ansvarar f√∂r ansiktsigenk√§nning i iPhone och iPad, anv√§nder en tredimensionell kamera f√∂r att best√§mma volymen f√∂r att utesluta ett f√∂rs√∂k att l√•sa upp med ett foto, och en infrar√∂d s√§ndare “sprutar” en ljusstr√•le p√• ansiktet , l√§ser l√§ttnaden.

Sedan jämför programvaran den mottagna informationen med bilden som är lagrad i enhetens minne och bestämmer om den ska låsas upp eller vägra (i själva verket finns ingen bild lagrad i minnet, allt är noggrant krypterat och ersatt av en hash, det var bara lättare att förklara på det sättet).

Ansiktsigenkänning på kameran

Du klarar dig inte utan 3D-skanning. Men du behöver inte använda en 3D-kamera för att göra detta. Istället kan du använda Googles volymsimuleringsteknik. Sökjätten använder den för att ta porträtt på sina smartphones med en kamera.

Den består i att programmatiskt dela en pixel i två och på så sätt ta bilder från två vinklar så att säga. Trots det faktum att stereobasen i detta fotograferingsläge är mycket liten, räcker det för att ta ett porträttbild och framhäva motivet från bakgrunden.

Men hur bidrar en sådan 3D-undersökning, eller snarare parallaxundersökning, till igenkänningen? Det kommer att förse ramen med volym och definiera ansiktets gränser, vilket eliminerar möjligheten för felaktig upplåsning med hjälp av ett foto eller video. Då spelar andra mekanismer in.

För direkt identifiering kan du använda samma algoritmer som används i moderna smartphones på Android, i applikationer som FindFace och Moskva-regeringens ansiktsigenkänningssystem. Trots att de är ofullkomliga och generellt sett ibland gör misstag, är sannolikheten för ett falskt positivt ganska lågt, särskilt eftersom det kan minimeras genom att anförtro det till neurala nätverk. Lyckligtvis har Apple redan en databas med miljontals individer till sitt indirekta förfogande.

Nej, Apple ljuger inte och samlar inte in bilder på dina ansikten. Men den kan kombinera alla iPhones till en enda superdator och använda sin kraft för att träna neurala nätverk. Resultatet är ett mycket smart, men ändå konfidentiellt system som är nästan felfritt. Och även om han gör det är det inget fel med det. När allt kommer omkring piercerar hårdvaran Face ID då och då och låser upp framför tvillingarna och barnen.

Ansiktsavkänning i mörker

Det enda som återstår att lösa är frågan om erkännande i mörkret. Detta kan göras på två sätt.

  • Den f√∂rsta – den knepiga – √§r att anv√§nda ljusningstekniken som anv√§nds f√∂r nattfotografering. Lyckligtvis har Apple det redan, och troligen kommer det inte att orsaka n√•gra speciella problem att l√§ra datorh√•rdvara att arbeta med det. Men p√• ett eller annat s√§tt √§r dessa extra kostnader f√∂r teknik√∂verf√∂ring, dess optimering och fels√∂kning.
  • Den andra metoden, som √§r enkel, √§r att anv√§nda programmet flash. Tja, f√∂r att uttrycka det enkelt, att tvinga datorsk√§rmen under skanning att n√•got √∂ka ljusstyrkan till s√•dana gr√§nser n√§r ansiktet redan kan urskiljas och k√§nnas igen. Resten kommer att g√∂ras av neurala n√§tverk. Dessutom utesluter inte denna metod den f√∂rsta, och de kan mycket v√§l fungera i par.
  • Ser det h√§r scenariot rimligt ut? Sj√§lvklart inte. N√§r allt kommer omkring, varf√∂r uppfinna n√•got nytt om det finns en helt f√§rdig version. S√• jag f√∂rv√§ntar mig att Apple drar f√∂rdel av den maskinvaruskanningsteknik som st√•r till dess f√∂rfogande och antingen h√∂jer priset p√• datorer med beloppet av kostnaderna, eller sparar p√• n√•got annat. Och mjukvaruigenk√§nning kommer troligen att f√∂rbli orealiserad. Och f√∂rg√§ves.