A tecnologia, como já comentamos no post sobre biometria ética, deve estar a serviço do homem, e não o contrário. A ação e a supervisão humanas são fundamentais. É por isso que devemos fazer dela uma ferramenta que amplie possibilidades, mas sempre de uma forma respeitosa e consequente. E para podermos trabalhar uma tecnologia inclusiva, devemos fazer, previamente, o exercício de reconhecer as distorções que existem na sociedade e trabalhar em algoritmos que garantam um comportamento responsável. Se não os levamos em consideração, é possível que preconceitos ou discriminações fiquem refletidos no resultado, e aí teremos fracassado. Não se trata de replicar o mundo no qual vivemos, mas de criar um novo e melhor.

No FacePhi, acreditamos que a inteligência artificial deve contemplar o usuário como sua principal prioridade. Por isso criamos nossos algoritmos seguindo os requisitos obrigatórios e necessários para que, ao se beneficiarem de um reconhecimento biométrico preciso, não criem nem reproduzam distorções.

Para tal, os dados dos quais se alimentam  nossos algoritmos, relacionados com o reconhecimento biométrico, são projetados para garantir uma distribuição justa com variedade, quantidade e qualidade suficiente ao longo dos grupos. A raça, o sexo, a idade, a religião, e também outra características técnicas como o tipo de dispositivo de captura, ou a posição do objeto, não afetarão o resultado. Estudamos para que não exista desvio ou viés que possa favorecer ou prejudicar qualquer um dos grupos.

“Os dados incorporam o passado, e não só o passado recente, mas o passado sombrio também. Precisamos monitorar constantemente os vieses em todos os processos.” – Cathy O’neil, Coded Bias

Mas se essa tecnologia inclusiva for criada e usada adequadamente, os sistemas de inteligência artificial podem ajudar a reduzir o preconceito e a discriminação estruturais existentes, e também a facilitar decisões mais equitativas e não discriminatórias como a contratação de pessoal, ou a solicitação de créditos.

Por esse motivo, os sistemas de inteligência artificial devem ser tecnicamente sólidos para garantir que a tecnologia seja adequada à sua finalidade e que os resultados falso-positivos ou negativos não afetem desproporcionalmente os grupos minoritários. Para evitar isso, devemos treiná-los e testá-los com conjuntos de dados suficientemente representativos e, em seguida, garantir que eles possam ser resolvidos através de medidas apropriadas de detecção e correção de curso