Google heeft een belangrijke update aangekondigd voor zijn app voor het volgen van activiteiten en gezondheid en Google Fit: vanaf volgende maand kunnen gebruikers zowel hun hartslag als ademhalingsfrequentie meten met alleen de camera van hun smartphone.
Gewoonlijk vereist dit type meting speciale hardware, zoals die van wearables, meetarmbanden, smartwatches of hartslagmeters met specifieke sensoren voor dit doel. Het nieuwe is om ze alleen te kunnen bemachtigen met de camera van een mobiele telefoon en een Google Fit-app die, net als Apple en Samsung, de internetgigant is blijven verbeteren. En het is dat een goede groep gebruikers deze apparaten koopt om sportactiviteiten of fitness in het algemeen bij te houden.
Google Fit: meer functies
De functie komt van de Google Health-groep onder leiding van Schwetak Patel, een professor in de informatica aan de Universiteit van Washington die verschillende prijzen heeft ontvangen voor zijn werk op het gebied van digitale gezondheid. Daar zijn ze erin geslaagd een methode te ontwikkelen op basis van computer vision-technologie om deze metingen uit te voeren met alleen camera’s om resultaten te bereiken waarvan ze zeggen dat ze vergelijkbaar zijn met klinische. Er is een onderzoek ontwikkeld om deze resultaten te valideren en een wetenschappelijk tijdschrift zal het bijbehorende peer review-onderzoek publiceren dat wordt uitgevoerd door een externe bron.
Een techniek die bekend staat als ‘optische stroming’ wordt gebruikt om de ademhalingsfrequentie te verkrijgen, die de bewegingen in de borst van een persoon tijdens het ademen controleert en deze gebruikt om de ademhalingssnelheid te bepalen. In de klinische validatiestudie, die zowel typische mensen met een goede gezondheid als mensen met bestaande ademhalingsaandoeningen omvatte, duiden de gegevens van Google op een hoge nauwkeurigheid, 1 ademhaling per minuut.
Voor hartslag, Google Fit gebruikt de camera om ‘subtiele kleurveranderingen’ in de vingertop van een gebruiker te detecteren. Van daaruit krijgt het een indicator van wanneer zuurstofrijk bloed van het hart naar de rest van uw lichaam stroomt. De validatiegegevens van het bedrijf (nog steeds onderworpen aan externe beoordeling zoals we al zeiden) vertonen ook een hoge nauwkeurigheid: een foutmarge van gemiddeld 2%. Google werkt eraan om deze technologie te gebruiken door de kleurveranderingen van iemands gezicht te gebruiken, hoewel die functie zich nog in de verkennende fase bevindt.
Google stelt deze nieuwe meetfuncties in maart beschikbaar voor gebruikers. Hoewel het in eerste instantie alleen beschikbaar zal zijn voor Pixel-smartphones, is het doel om het “in de komende maanden” uit te breiden naar elk apparaat met Android 6 of hoger.
Google merkt op dat “deze metingen niet bedoeld zijn voor medische diagnostiek of om medische aandoeningen te beoordelen”, maar van belang kunnen zijn voor het grote publiek, en vooral als ze geen speciale hardware nodig hebben. We hebben in het verleden vergelijkbare apps gezien, maar moderne telefoons verzamelen steeds betere camera’s en ondersteuning voor hardwareversnelde computervisie-algoritmen die een grotere nauwkeurigheid bereiken.
Wat privacy betreft, belooft Google dat geen van de verkregen gegevens wordt verkocht aan externe bedrijven en Google deze ook niet gebruikt voor diensten zoals gerichte advertenties.