Um cliente de longa data nos pediu para ajudar a rastrear suas máquinas de trabalho em busca de pornografia. Eles estão preocupados com a responsabilidade se materiais sensíveis forem encontrados. Suas principais preocupações (por razões óbvias) são arquivos de vídeo, áudio e imagem. Se possível, eles também gostariam de digitalizar documentos baseados em texto em busca de conteúdo inapropriado. Eles têm uma hierarquia de conteúdo não relacionado ao trabalho, começando com flagrantemente ilegal (não preciso listar detalhes), passando para obviamente ofensivos e também incluindo coisas que podem ser ofensivas para alguns - pense em anúncios de lingerie, cartões de piada com rachaduras na bunda e qualquer coisa relacionada a Howie Mandel.
Minhas perguntas são:
- Isso é ético? Eu acho que é porque todo funcionário concorda legalmente que sua máquina de trabalho pertence à empresa e está sujeita a pesquisa. Os exames não devem ocorrer em máquinas pessoais levadas ao trabalho.
- Isso é viável? Eu fiz muito processamento / indexação de imagens, mas isso parece um mundo totalmente novo de complexidade.
- Alguma referência a técnicas de sucesso para descobrir pornografia?
- É apropriado arquivar os resultados quando algo é descoberto?
fonte
Respostas:
Você pode fazer isso com 90% de Headology , 10% de software.
Em primeiro lugar, verifique silenciosamente os computadores dos funcionários, crie um banco de dados de arquivos e tamanhos para cada funcionário.
Em seguida, vaze um memorando de que todos os PCs serão verificados quanto a conteúdo questionável, ou seja, os chefes têm um programa semelhante ao Shazam que pode identificar pornografia etc.
Alguns dias depois, verifique os computadores em busca de arquivos e tamanhos novamente. Veja os arquivos excluídos, eles são arquivos de filme ou imagem? Então, esses são os funcionários que você precisa manter de olho.
Examine regularmente os PCs dos funcionários em busca de imagens e filmes e verifique-os manualmente quanto a conteúdo questionável.
fonte
+1
de mim para a referência a vovó!Essa é uma tarefa óbvia da rede neural. Primeiro você precisa de um grande conjunto de imagens de treinamento selecionadas por especialistas em sua empresa .....
Uma solução mais eficaz é anunciar que você procurará pornografia em todos os computadores na PRÓXIMA semana / mês / qualquer outra coisa e depois escreverá um aplicativo simples que apenas exercita o disco. Garanto que as máquinas serão limpas até então.
ps - Alguns pontos 'sérios' - você realmente não quer encontrar nada.
Se você encontrar algumas imagens em um cache do navegador, talvez elas tenham um link ruim ou um pop-up desonesto - lembre-se do professor demitido pelo whitehouse.com? Se você os demitir / disciplinar por isso, haverá uma reação dos trabalhadores / sindicato. Como sua empresa funcionaria se cada clique tivesse que ser submetido à aprovação legal antes que seus funcionários pesquisassem uma pergunta ou verificassem um preço on-line?
Se você encontrar uma pilha de pornografia em uma máquina, como vai provar que foi colocada ali por esse funcionário? Você tem o tipo de sistemas de segurança e auditoria que resistiriam no tribunal? Você usa (ou conhece) um sistema operacional em que um administrador do sistema não pode colocá-los lá e fazer com que pareçam os arquivos do usuário?
Além disso, na minha experiência, os locais mais comuns para esconderijos pornográficos estão nos laptops de CxOs e VPs seniores.
É muito melhor organizar apenas para que os arquivos desapareçam antes do tempo.
fonte
+1
de mim pela observação de que você realmente não quer encontrar algo.Essa abordagem de controle é certamente dolorosa para funcionários e pessoas de TI. Depois que qualquer coisa entra na máquina do funcionário, não há maneira de detectá-la. Você precisa impedir que ele entre na máquina em primeiro lugar.
A prática mais conhecida para isso é obviamente o controle sobre os sites / domínios que podem ser visitados. Essa lista deve estar disponível em algum lugar na rede. Além disso, você também pode acompanhar o número de imagens, vídeos que o funcionário baixou e de onde veio.
Há chances de que o material possa vir de outros sites que não a web, como discos rígidos externos. Pode haver uma varredura aleatória do sistema uma vez por mês, na qual você pode escolher aleatoriamente alguns dos vídeos e imagens e verificá-lo manualmente. Não tenho certeza de como isso pode ser feito. Mas a automação da verificação de imagens e vídeos certamente está fora do escopo e certamente será errônea.
Na verdade, não tenho muita idéia de restringir os funcionários de fazer coisas pessoais. Você deve confiar em seus funcionários para isso. Seus funcionários devem estar ocupados o suficiente no escritório para não ter tempo para isso. As preocupações são mais o empregado não está fazendo o seu trabalho certo? Ou ele / ela instalou algum software quebrado ou hackeado?
fonte
Existem vários produtos no mercado que executam "filtragem de conteúdo" de várias formas. (Uma pesquisa no Google em termos óbvios gera alguns candidatos óbvios.) Provavelmente é uma idéia melhor usar um desses produtos do que criar um monte de software de digitalização / filtragem do zero. Outra opção é apenas assistir nas fronteiras; por exemplo, monitorando e-mails externos e tráfego da web. Novamente, existem produtos que fazem esse tipo de coisa.
Embora não haja dúvida de que é ético para uma empresa escanear seus computadores em busca de "coisas ruins", isso não significa que não há problemas.
Primeira edição:
Então ... isso significa que alguém na organização do seu cliente precisa revisar os "hits". Isso custa dinheiro.
Segunda questão: pode haver uma explicação inocente. O arquivo pode ter sido baixado por acidente ou pode ter sido plantado por um colega de trabalho vingativo. Se houver uma explicação inocente, a organização do cliente precisa ter cuidado com o que faz / diz. (OK, este não é realmente o seu problema, mas você pode evitar parte da retrolavagem.)
Terceira questão: não obstante a empresa tenha o direito de monitorar materiais censuráveis, muitos funcionários acharão isso desagradável. E se eles forem longe demais, isso terá impacto no moral dos funcionários. Alguns funcionários vão "andar". Outros podem tomar medidas de protesto ... por exemplo, tentando criar muitos falsos positivos. (Novamente, não é realmente o seu problema, mas ...)
Quarta questão: as pessoas podem ocultar material censurável criptografando-o, colocando-o em mídia portátil ou removível etc. As pessoas podem falsificar os metadados para parecer que alguém é responsável.
fonte
Sobre aspectos legais, na França:
O chefe é dono dos computadores e da conexão com a internet: ele pode fazer o que quiser.
MAS, a privacidade dos funcionários não pode ser violada. Se um diretório no computador estiver rotulado como PESSOAL, o chefe não poderá digitalizá-lo.
A única maneira de contornar isso é obter elementos de evidência de que o funcionário armazena material ilegal e solicitar que um tribunal faça uma varredura no computador (observe que a pornografia não é ilegal na França).
fonte
Se os funcionários concordaram que sua máquina de trabalho pertence à empresa e está sujeita a pesquisa, sim, isso é legal. Como prova, o arquivamento dos arquivos provavelmente seria necessário.
Quanto a como realmente encontrar o material. Você poderia:
Se você digitalizar os arquivos enquanto eles estão entrando no computador (por exemplo, o programa foi carregado em todas as máquinas de trabalho e registra casos sinalizados em um banco de dados central), então não acho que seria muito óbvio (exceto os flagrantes empregador tem claramente para seus funcionários).
Com os arquivos de vídeo, não tenho 100% de certeza. Possivelmente, uma abordagem semelhante à da digitalização de imagens (escolha quadros aleatórios e digitalize para um determinado nível de cor da pele).
A varredura de arquivos de áudio parece que entraria no reconhecimento de fala, que é uma outra lata de minhocas. A digitalização do nome do arquivo, no entanto, seria fácil e poderia ser feita como nos documentos, imagens e vídeo.
fonte
Como disse @Ryan, a análise de imagem pode se concentrar na análise de cores.
Viabilidade? Minha irmã trabalha em uma área do governo onde eles recebem algum tipo de auditoria todos os anos, e antes era para pornografia. Ela (geofísica) tinha vários falsos positivos (rochas cor de rosa).
fonte
Há pesquisas recentes significativas sobre a detecção de pornografia usando métodos de classificação convencionais. Exemplos estão disponíveis aqui e aqui .
fonte
Depende da implementação e das expectativas razoáveis dos funcionários. Por exemplo, se seu software varre qualquer máquina conectada à rede, existe um requisito adicional de que a infra precisa impedir que máquinas não autorizadas se conectem. (Talvez isso deva ser óbvio, mas é frequentemente ignorado nas redes que eu já vi)
É possível testar drogas todos os funcionários? Talvez sim, mas eu questiono o seu valor. Eu aleatoriamente. Informe aos funcionários que suas máquinas podem ser verificadas quanto a conteúdo inadequado a qualquer momento.
Eu não estou tocando este. Eu não acho que eu poderia manter meu senso de humor sob controle. Mas cuidado com o problema de Scunthorpe ao pesquisar texto.
Este me preocupa mais, e eu pediria a um advogado. Suspeito que, se você encontrar conteúdo ilegal, você pode ser tecnicamente legalmente obrigado a divulgá-lo. Isso é ruim, principalmente se o usuário foi exposto por nenhuma falha real. Você (r cliente) precisará de aconselhamento jurídico real sobre como lidar com isso. Envolva o RH e os advogados.
fonte
Do ponto de vista puramente técnico: isso soa como um problema de reconhecimento de categoria de objeto. Eu nunca fiz nada assim, mas pelo que li, os sistemas de reconhecimento de categoria de ponta funcionam assim:
fonte
O sistema operacional de todo mundo provavelmente foi instalado a partir de uma imagem de disco.
Vai demorar um ou dois funcionários para serem pegos antes que alguém coloque qualquer coisa em seu computador de trabalho.
Cobrar uma quantia obscena de dinheiro por este serviço. Eu estarei Zappos nunca faria isso com seus funcionários.
fonte
Supondo que você seja um administrador de domínio na rede.
fonte
Eu só queria comentar, mas só tenho 1 representante, então não posso.
No caso do Gravatar, você pode adicionar uma função para filtrar de uma lista de sites limpos nos locais de cache da Internet. IE Gravatar e outros sites dos quais você não deseja falsos positivos. Você também pode filtrar coisas como o papel de parede da área de trabalho. Se eles exibem pornografia na área de trabalho, você acha que as pessoas notariam fora da sua auditoria.
fonte
Tais coisas nunca funcionam de maneira confiável. Você pode usar uma lista de bloqueio para bloquear domínios, seja no nome ou na inclusão em alguma lista (prática comum). Mas essas listas nunca estão completas e o bloqueio de nomes com base em critérios pode levar a muitos falsos positivos.
Você pode bloquear as palavras que aparecem no texto dos sites, mas, novamente, isso pode levar a falsos positivos (e fica muito lento conforme você precisa analisar cada bit de dados que passa pela sua rede para detectar "bits impertinentes").
você pode bloquear imagens (e talvez sites que as contenham) que mostram mais do que uma certa porcentagem de skintones. Mas, novamente, isso leva a muitos falsos positivos. Um departamento médico da universidade que bloqueia uma enciclopédia médica com imagens de membros e torsos mostrando feridas e problemas de pele é um exemplo bem conhecido disso. E, é claro, seria racista, pois só bloquearia certos tons de pele. Se você bloquear cores que combinam com a pele caucasiana, sempre haverá pornografia usando atores negros, por exemplo.
É melhor confiar nos seus funcionários e ter políticas em vigor para quando essa confiança for quebrada.
fonte
Não sei, tem que haver uma resposta do meio, que não é tão invasiva, mas resolve o problema real, RESPONSABILIDADE.
Peça que assinem uma renúncia, que libera a empresa de qualquer responsabilidade por coisas ilegais encontradas em computadores de trabalho, que não sejam relacionadas ao trabalho.
fonte
fonte
Análise de imagem e conteúdo para determinar as diferenças entre uma foto de bom gosto de uma pessoa, uma foto de maiô, uma fotografia de nus, representações de pornografia ... até onde eu sei, não é nem de longe sofisticado o suficiente para fazer apenas em software.
Felizmente, o crowdsourcing deve ser útil aqui, como o @ammoQ sugeriu em um comentário. No entanto, não acredito que os membros do 4chan ou de qualquer outro fórum apreciem o grande número de imagens não- pornográficas, como gráficos genéricos da Web para a publicação de botões, molduras, anúncios etc.
Minha recomendação seria procurar soluções existentes de crowdsourcing, como o Amazon Mechanical Turk . (No entanto, os termos de serviço podem proibir explicitamente o envolvimento de conteúdo pornográfico, por isso, saiba que você poderá encontrar outra solução ou apresentar a sua.)
Para viabilizar o crowdsourcing, seu software deve estar preparado para executar algumas ou todas as seguintes ações:
Por fim, o banco de dados de imagens reduzidas que representam o conteúdo original da imagem e do vídeo é verificado pelos usuários (ou uma equipe designada, se você tiver os recursos), de acordo com o código de conduta da sua empresa. O programa ou a interface pode mostrar uma única imagem de cada vez ou uma tela de miniaturas - o que você considerar melhor para obter informações precisas.
A identidade do computador de onde as imagens vieram deve ser absolutamente secreta e desconhecida para as pessoas que avaliam os dados. Além disso, deve ser randomizado e cada imagem provavelmente marcada mais de uma vez para remover o viés.
A mesma técnica pode ser usada para o texto, mas primeiro o conteúdo pode ser classificado por classificações de palavras-chave que removem a maior parte do texto da revisão de fontes coletivas. Classificar um documento longo certamente consumirá mais tempo do que classificar uma imagem.
fonte