Construir um caso de negócio: desenvolvimento de aplicativos personalizados
O Google disse que sua verificação de imagens de abuso infantil no Gmail e outros serviços não se estende a busca de provas de outros crimes.
Polícia dos EUA prendeu recentemente um agressor sexual registrado depois que o Google notificou as autoridades sobre fotos ilegais de crianças que foram supostamente encontrados no relato do 41-year-old Gmail.
A dica deu à polícia em Houston o suficiente para ir para obter um mandado para prender o suspeito, identificado em relatórios EUA como John Henry Skillern, e apreender seus computadores e kit associado. A polícia alegou um exame forense posterior revelou uma loja de imagens de abuso de crianças em um tablet e telefone de propriedade da Skillern.
Descobrindo os criminosos que estão ativos na troca de imagens de abuso de crianças é um bem público óbvio, mas o papel do Google neste caso levanta questões sobre o quão perto o gigante motor de busca está examinando o nosso webmail para a evidência de atividade criminal.
Em um comunicado, o Google apresentou a sua utilização de tecnologia automatizada de digitalização de imagens para combater o abuso de crianças on-line, uma prática estabelecida embora não previamente ligado ao Gmail como tal. Ele acrescentou que não está à procura de evidência de criminalidade mais geral, que pode ser adquirida a partir de digitalização de contas de webmail dos clientes.
Infelizmente todas as empresas de internet têm de lidar com o abuso sexual infantil. É por isso que o Google remove ativamente imagens ilegal de nossos serviços - incluindo busca e Gmail - e imediatamente relata qualquer abuso com o Centro Nacional para Crianças Desaparecidas e Exploradas, que colabora com a aplicação da lei.Esta evidência é regularmente utilizado para condenar criminosos. Cada imagem abuso sexual de crianças é dado uma impressão digital única, que permite aos nossos sistemas para identificar as fotos, inclusive no Gmail. É importante lembrar que usamos essa tecnologia para identificar imagens de abuso sexual infantil, não o conteúdo de e-mail que pode ser associado com a atividade criminosa geral (por exemplo, usando e-mail para traçar um roubo).
Do Gmail termos de serviço já indicam que a empresa está analisando Gmail para ambos os anúncios e de segurança específicas, uma categoria que hoje conhecemos estende-se a procura por imagens de abuso infantil e (presumivelmente) outra pornografia ilegal.
Google usa hashes MD5 de amostras de malware conhecidos para fazer a varredura de código malicioso no webmail. Não está claro como ele procura imagens de abuso de crianças em webmail se algo na mesma linha é uma forte possibilidade. ®
Nenhum comentário:
Postar um comentário