In iOS 13 e sfruttando il Machine Learning, Apple ha incluso una serie di algoritmi nel suo più recente framework per la computer vision in grado di consentire ad iPhone e iPad di rilevare cani e gatti.
Il nuovo framework Vision di Apple offre una serie di algoritmi di Machine Learning in grado di analizzare le immagini e i video, così da riconoscere la presenza di cani e gatti. Il sistema può anche utilizzare modelli Core ML personalizzati per attività come la classificazione e il rilevamento di oggetti particolari o la differenziazione tra esseri umani e animali.
Nelle precedenti versioni di iOS erano già presenti elementi di questo tipo in grado di riconoscere volti e animali ad esempio nell’app Foto, ma ora il framework non solo è stato notevolmente migliorato con iOS 13, ma permette anche agli sviluppatori di integrarlo nelle proprie app. Anzi, il framework include ora specifici rivelatori di animali per l’identificazione di cani e gatti. Le API relative sono denominate VNAnimalDetectorCat e VNAnimalDetectorDog e sono presenti nelle beta di iOS 13, iPadOS 13, tvOS 13 e macOS Catalina.
Apple da anni utilizza il framework Vision per l’apprendimento automatico all’interno dell’app Foto, che come saprete è in grado di identificare un’ampia varietà di oggetti, volti e animali. Ora, tutta questa tecnologia può essere sfruttata anche nelle app terze.