Os riscos por trás de escanear a íris por dinheiro

Dispositivo da Worldcoin utilizado no escaneamento e registro de íris – Foto: Reprodução

A prática de escanear a íris em troca de criptomoedas tem chamado atenção em São Paulo, com filas formadas em diversos pontos da cidade. A empresa responsável, Tools for Humanity, oferece recompensas financeiras para quem se submete ao procedimento, mas especialistas alertam para os riscos de compartilhar dados biométricos sensíveis. “A íris é única e pode identificar uma pessoa ao longo de toda a sua vida, o que torna sua coleta extremamente delicada”, afirmou Nathan Paschoalini, pesquisador em governança e regulação.

Processo de escaneamento e abertura de investigação

O processo de escaneamento utiliza um dispositivo chamado Orb, que captura a imagem da íris e a transforma em um código único. Esses dados, segundo a empresa, são criptografados e armazenados de forma descentralizada, garantindo o anonimato. Os participantes recebem 48 unidades de uma criptomoeda chamada Worldcoin, com uma parte paga em até 48 horas e o restante dividido ao longo de 12 meses. No entanto, a Autoridade Nacional de Proteção de Dados (ANPD) abriu uma investigação para verificar a conformidade do projeto com a Lei Geral de Proteção de Dados (LGPD).

Especialistas apontam que muitos participantes estão sendo atraídos pela promessa de dinheiro, sem compreender totalmente os termos do consentimento. “Quando há compensação financeira, o consentimento deixa de ser totalmente livre e informado, já que as pessoas podem priorizar o dinheiro em detrimento da análise dos riscos”, explicou Karen Borges, gerente adjunta do NIC.br. Ela alerta que a coleta de dados biométricos, se mal gerida, pode gerar sérias consequências, como vazamentos e discriminação.

A motivação financeira é evidente entre os participantes. Muitos afirmam que só aceitaram o escaneamento por estarem passando por dificuldades econômicas. “Estou precisando do dinheiro, não sei para que serve isso, mas um amigo fez e recebeu rápido”, disse um motoboy que aguardava na fila. Esse cenário levanta preocupações sobre a exploração de populações vulneráveis, que podem se sentir pressionadas a aceitar os termos sem entender os impactos a longo prazo.

Objetivo da prática, segundo a Tools for Humanity

A empresa Tools for Humanity afirma que seu objetivo é criar um sistema de prova de humanidade que diferencie pessoas reais de robôs em um mundo cada vez mais influenciado pela inteligência artificial.

Rodrigo Tozzi, chefe de operações da empresa no Brasil, garantiu que os dados são criptografados e que o protocolo respeita padrões rigorosos de privacidade. No entanto, especialistas questionam a real transparência do processo e pedem maior clareza sobre o uso final das informações coletadas.

Riscos e LGPD

Além dos riscos à privacidade, há preocupações sobre a segurança dos dados. Paschoalini destacou que, caso os códigos gerados pela íris sejam vazados, pode haver dificuldades para autenticar os usuários de forma confiável no futuro.

“Com dados biométricos sensíveis, um vazamento pode causar impactos irreversíveis, comprometendo a identidade das pessoas e abrindo espaço para crimes cibernéticos e fraudes”, afirmou.

A ANPD já solicitou explicações à Tools for Humanity sobre como os dados são tratados, armazenados e protegidos. Até o momento, a empresa declarou que está em conformidade com a LGPD e utiliza tecnologia avançada para preservar a privacidade dos usuários. Porém, o órgão ainda analisa a documentação enviada e avalia a possibilidade de sanções, caso irregularidades sejam confirmadas.

Conheça as redes sociais do DCM:

⚪️Facebook: https://www.facebook.com/diariodocentrodomundo

🟣Threads: https://www.threads.net/@dcm_on_line

Adicionar aos favoritos o Link permanente.