Tecnologia com inteligência artificial que detecta e desfoca imagens consideradas inapropriadas foi aprimorada e disponibilizada gratuitamente
O aplicativo de relacionamento online Bumble, utiliza desde 2019 um dispositivo próprio, desenvolvido para identificar imagens impróprias enviadas dentro da plataforma. Utilizando inteligência artificial, a funcionalidade tira o foco das fotos até que o usuário assinale ativamente que deseja abri-las.
A ferramenta, chamada de Private Detector, foi aprimorada pelos desenvolvedores da companhia e disponibilizada gratuitamente no Github, plataforma de compartilhamento de código-fonte.
No ano de lançamento, ainda antes de ser aperfeiçoada, a tecnologia já prometia 98% de precisão.
A iniciativa visa diminuir os casos de cyberflashing, ou seja, o envio sem consentimento de imagens sexuais ou pornográficas na internet.
Para ter uma ideia do tamanho do problema, uma pesquisa realizada em 2021 pela revista britânica TES Magazine, revelou que 76% das garotas inglesas de 12 a 18 anos já receberam um ou mais “nudes” não solicitados.
Para o Bumble, disponibilizar a ferramenta é uma forma de ajudar empresas que não tem a capacidade de desenvolver esse tipo de tecnologia a combater o cyberflashing.
“Existe uma necessidade de abordar esse problema além do ecossistema de produtos do Bumble e participar de uma conversa mais ampla sobre como lidar com a questão das fotos obscenas não solicitadas, para tornar a internet um lugar mais seguro e gentil para todos”, disse a empresa à revista norte americana Techcrunch.