Blog
Realtà aumentata facciale

Tecnologia Liveness Detection: Come Funziona e Perché è Cruciale

Per dimostrare di essere umani, non è necessario selezionare tutte le immagini che contengono semafori. È sufficiente guardare una telecamera se questa è collegata a un sistema di rilevamento della vitalità, noto nel settore anche come Presentation Attack Detection (PAD). Il PAD si riferisce alle tecnologie progettate per distinguere le persone reali dalle rappresentazioni artificiali come foto, video, maschere o deepfake. Ci sono molti esempi di aziende vittime dei deepfake.

Il rilevamento della vitalità è particolarmente importante per le aziende finanziarie, poiché ciascuna di esse ha già perso in media 600.000 dollari a causa di questo tipo di frode. In questo articolo spiegheremo dove questa tecnologia si adatta meglio, come funziona in Banuba Face AR SDK e come implementare il rilevamento della vitalità in modo più efficace.

Rilevamento della vivacità

[navigation]

TL;DR:

  • Il rilevamento della vivacità è una tecnologia che distingue le persone reali da video, immagini o deepfake;
  • Esistono controlli di vivacità attivi e passivi;
  • Banuba offre il tracciamento del volto, il rilevamento della posa della testa, il tracciamento dello sguardo e altre funzionalità fondamentali;
  • Le migliori pratiche per l'implementazione del liveness detection includono la combinazione di diversi controlli, la loro randomizzazione e la definizione di istruzioni chiare per gli utenti.

Che cos'è il rilevamento della vivacità e come funziona?

Il Liveness Detection, o Presentation Attack Detection, è una tecnologia che determina se qualcuno è una persona reale, non un costrutto artificiale, un'immagine o un video preregistrato. Le moderne soluzioni PAD, come Banuba Face AR SDK, eseguono l'analisi in tempo reale sul dispositivo, elaborando la geometria facciale e la mappatura della profondità in pochi millisecondi per rilevare immediatamente i tentativi di spoofing.

Esistono due modi principali per raggiungere questo obiettivo.

Sfide attive (controlli espliciti)

Il sistema chiede all'utente di eseguire semplici compiti per impedire l'uso di un video preregistrato.

  • Espressioni facciali. Battere le palpebre, sorridere, fare determinate smorfie, ecc. Se qualcuno fa esattamente ciò che gli viene chiesto, significa che probabilmente non si tratta di un falso.
  • Sfide di posa della testa. Girarsi in una certa direzione, alzare o abbassare la testa. Un video preregistrato o una foto probabilmente non saranno in grado di adattarsi correttamente alla prospettiva.
  • Compiti di sguardo e concentrazione. Seguire un oggetto sullo schermo o guardare costantemente qualcosa. Con il tracciamento oculare è possibile determinare se si tratta di una persona reale che presta attenzione.

Queste sfide possono e devono essere combinate, perché raramente una sola è sufficiente per individuare con sicurezza una GenAI avanzata. Ad esempio, un'applicazione potrebbe chiedere a un utente di sorridere e poi di girare la testa da destra a sinistra. Nel frattempo, il sistema lo verificherà attraverso il tracciamento del volto in tempo reale. Inoltre, una buona pratica è quella di randomizzare tali sfide per rendere più difficile la preparazione di risposte preregistrate.

Più sfide imprevedibili e casuali vengono proposte dalla vostra applicazione, meglio è. A un certo punto, lo spoofing diventa quasi impossibile perché il numero di combinazioni potenziali diventa astronomico. Inoltre, i sistemi di rilevamento della vivacità analizzano ogni fotogramma e lanciano segnali di allarme ogni volta che c'è un errore (ad esempio, la persona non ha sbattuto le palpebre o sorriso quando richiesto). Anche i deepfake più avanzati hanno difficoltà a superare questa sfida.

L'approccio attivo funziona bene, ma introduce un certo grado di attrito che gli utenti potrebbero trovare fastidioso.

Rilevamento passivo (controlli impliciti)

Il rilevamento passivo della vivacità non richiede che le persone compiano azioni specifiche. Il sistema analizza i minimi dettagli dell'aspetto per distinguere una persona reale da un deepfake o da un video.

  • Micromovimenti e battito di ciglia. I volti della maggior parte delle persone non sono perfettamente immobili. L'espressione cambia leggermente, gli occhi sbattono le palpebre, la testa cambia angolazione... Le copie generate non possono imitare tutto questo e gli algoritmi di controllo della vivacità lo rilevano.
  • Rilevamento del polso. Quando il cuore batte, il tono della pelle di una persona cambia leggermente, seguendo il flusso di sangue ossigenato. Il tono della pelle di una persona reale, perché anche i deepfake non hanno un livello di dettaglio così elevato. Tuttavia, le reti neurali appositamente addestrate sono in grado di rilevare questi cambiamenti e di garantire che non vengano ingannati.
  • Illuminazione e riflessi 3D. Alcune soluzioni (ad esempio quella di Banuba) sono in grado di illuminare con luci colorate il volto di una persona e di giudicare se è reale in base ai riflessi sulla pelle e negli occhi. Anche FaceID di Apple utilizza un principio simile, proiettando schemi di luce a infrarossi per determinare la profondità e la vivacità.
  • Analisi della struttura e degli artefatti. Le fotocamere presentano imperfezioni che influenzano le immagini e i video che scattano. Esse diventano più evidenti solo quando tali immagini e video vengono riprodotti (ad esempio, stampati o riprodotti su un altro schermo). Tali artefatti possono essere rilevati con un'analisi fotogramma per fotogramma.
  • Controlli del dispositivo e della rete. Con questo metodo, il sistema di rilevamento dell'identità verifica i dispositivi che forniscono il feed, anziché la persona. Il processo potrebbe includere la verifica dell'IP (ad esempio, segnalando quando l'utente dichiara di trovarsi in un paese ma l'indirizzo IP proviene da un altro) o il fingerprinting del dispositivo (ad esempio, raccogliendo informazioni su una telecamera specifica per assicurarsi che sia reale). Questi controlli non sono esattamente passivi e spesso sono un metodo ausiliario per garantire che il flusso di dati non venga manomesso.

I controlli passivi sono più comodi per gli utenti: guardare semplicemente una telecamera per qualche secondo non è una grande sfida. Tuttavia, hanno bisogno di una tecnologia all'avanguardia per catturare tutti i tentativi di spoofing. Idealmente, un'app dovrebbe utilizzare una combinazione di approcci attivi e passivi di rilevamento della vivacità per ottenere la massima efficacia. Ad esempio, potrebbe analizzare un breve video di un utente e solo in caso di dubbi chiedere all'utente di eseguire una determinata azione.

L'approccio di Banuba al rilevamento della vivacità

Tra i prodotti di Banuba, Face AR SDK è quello che aiuta a realizzare un software per il rilevamento della presenza dell'utente. Sebbene non offra un'API dedicata per impostazione predefinita, fornisce il tracciamento di punti di riferimento, espressioni, mappe di profondità, modelli facciali 3D e così via, che altri sviluppatori possono utilizzare come base per le loro applicazioni. In poche parole, Banuba fornisce le informazioni, mentre voi create il flusso per esse.

Il Liveness Detection SDK di Banuba è in grado di rilevare quanto segue:

  • posa della testa
  • Apertura degli occhi
  • Movimenti della bocca
  • Espressione delle emozioni
  • Tracciamento dello sguardo
  • Rilevamento del polso
  • ecc.

Supporta anche spunti personalizzati come i test di riflessione. Inoltre, tutto viene eseguito sul dispositivo (ad esempio il telefono cellulare) per garantire la massima privacy, velocità e conformità a normative come il GDPR.

Utilizzare la tecnologia di Banuba per il rilevamento della vivacità significa elaborare i dati raccolti con controlli personalizzati. Ad esempio, si può chiedere all'utente di sorridere e poi verificare se ciò è avvenuto (è stato rilevato il movimento appropriato della bocca). E aggiungere il rilevamento del battito cardiaco per una maggiore sicurezza. In breve, Banuba fornisce la tecnologia e voi siete liberi di personalizzarne l'uso secondo le vostre esigenze.

Power Your App with Liveness Detection  Start Free Trial

Casi d'uso nel mondo reale

Scambi di criptovalute

Chiunque può presentare documenti e sostenere di esserne il proprietario. Grazie al rilevamento di Banuba, la piattaforma può verificare se questa affermazione è vera. Una rapida sfida (ad esempio, chiedendo all'utente di sbattere le palpebre), supportata dal tracciamento dei micromovimenti, può assicurare che la persona sia quella che dichiara di essere e che non sia stata generata o preregistrata.

Broker e piattaforme di trading

Le aziende che offrono trading su forex o azioni devono includere le procedure KYC nei loro processi di registrazione. La verifica dell'ID può essere combinata con il rilevamento dell'identità per assicurarsi che la persona che fornisce l'ID sia il legittimo proprietario. In questo modo le iscrizioni fraudolente diventeranno molto più difficili e la conformità sarà garantita.

Servizi bancari e finanziari

I prestiti o l'apertura di conti a distanza sono comodi per i clienti, ma creano ulteriori rischi di frode. L'aggiunta del rilevamento della vivacità e della verifica dell'identità (ad esempio, il cliente invia una foto della patente di guida e poi esegue una semplice azione) potrebbe rendere il processo di richiesta molto più affidabile e trasparente.

Assicurazioni e sanità

Da un lato, il rilevamento della vivacità può aiutare a prevenire le richieste di rimborso fraudolente: una breve sfida potrebbe garantire che i documenti siano stati presentati dalla persona autorizzata a farlo. Dall'altro lato, questa verifica aiuta a proteggere i dati sensibili, quando si parla di questioni sanitarie.

Controllo degli accessi e dispositivi intelligenti

Le serrature elettroniche devono assicurarsi che la persona che cerca di aprirle sia reale, altrimenti sono un peso. L'SDK di Banuba può essere integrato con esse e fornire il necessario livello di sicurezza aggiuntivo.

Le migliori pratiche per l'implementazione del rilevamento della liveness

Quando si integra la tecnologia di liveness detection di Banuba, seguire questi suggerimenti per ottenere la migliore combinazione di sicurezza e facilità d'uso:

  • Combinare i test. Più indicatori si controllano, più è difficile aggirarli tutti. Ad esempio, chiedete all'utente di sorridere e allo stesso tempo monitorate il battito cardiaco e i riflessi della luce. La tecnologia di Banuba permette di monitorare decine di parametri contemporaneamente, quindi non esitate a sfruttarla al massimo.
  • Utilizzate sfide imprevedibili. Fate in modo che il sistema lanci sfide diverse senza uno schema riconoscibile dall'esterno. Molte azioni diverse (battiti di ciglia, sorrisi, espressioni accigliate, ecc.) presentate a caso rendono molto più difficile preparare i video e cercare di ingannare il sistema.
  • Fornite linee guida chiare. Quanto meglio si possono spiegare le sfide agli utenti, tanto più comodo sarà il processo di verifica. Banuba consente di utilizzare sovrapposizioni di realtà aumentata, quindi sentitevi liberi di usare emoji per mostrare le espressioni facciali necessarie, posizionare frecce per la direzione da seguire e così via. In questo modo avrete un sistema sicuro e gli utenti legittimi non saranno disturbati.
  • Creare le condizioni giuste. Una buona illuminazione, telecamere ad alta risoluzione e l'assenza di barriere che impediscano la visione dell'intero volto evitano i falsi negativi. Il software di rilevamento della vivacità di Banuba funziona anche in condizioni peggiori, ad esempio con l'occlusione facciale e in condizioni di scarsa illuminazione. Ma migliore è l'ambiente, più affidabili saranno i risultati.
  • Mescolare metodi attivi e passivi. La combinazione di sfide implicite ed esplicite offre i migliori risultati. Oltre a rilevare gesti ed espressioni, Banuba può fornire fotogrammi grezzi che il sistema può controllare per individuare artefatti e altre incongruenze.
  • Garantire velocità e affidabilità. Elaborare i dati senza trasferirli altrove, se possibile. Questo elimina il rischio di intercettazione e velocizza il processo. Inoltre, è necessario creare dei ripieghi (ad esempio un secondo tentativo di verifica e un processo di revisione manuale) per bilanciare la sicurezza e l'esperienza dell'utente.

Il futuro del rilevamento della vivacità

I metodi di autenticazione si evolvono per combattere le nuove sfide poste da truffatori, hacker e altri attori maligni. Gli aggressori diventano sempre più intricati e, in risposta, le aziende continuano a sviluppare misure di protezione più robuste e sofisticate.

Alcune delle ultime tendenze sono:

  • Biometria multimodale. Combinando il rilevamento della vivacità con la scansione delle impronte digitali e il riconoscimento vocale, è molto difficile per gli aggressori aggirare contemporaneamente tutte le misure di sicurezza.
  • Rilevamento avanzato di deepfake. Reti neurali appositamente progettate e addestrate sono in grado di individuare minuscole incongruenze che non sono presenti in un feed video dal vivo, ma che rivelano immagini generate.
  • Antispoofing potenziato dall'intelligenza artificiale. L'intelligenza artificiale è in grado di analizzare le informazioni contestuali (ad esempio gli sfondi) per rilevare in modo più affidabile i tentativi di hacking.

Conclusione

Il rilevamento della vivacità aiuta a proteggersi dalle iscrizioni fraudolente e svolge un ruolo importante nella conformità KYC/AML. Esistono due modi principali per affrontarlo: attivo e passivo (esplicito e implicito). Questi metodi possono e devono essere combinati per ottenere il miglior risultato.

Banuba offre un robusto rilevamento della vivacità come parte del suo SDK che può servire come base tecnologica, fornendo dati di tracciamento affidabili. Supporta molti controlli e le loro combinazioni, rendendolo uno strumento conveniente per le aziende che vogliono costruire una soluzione di autenticazione biometrica.

Se volete provarlo gratuitamente, non esitate a registrarvi per una prova di 14 giorni, senza vincoli.

Power Your App with Liveness Detection  Start Free Trial

Top