Home Ciência e Tecnologia hehe+ | Classificação de imagens sem nuvens com esforço de programação ajustável

hehe+ | Classificação de imagens sem nuvens com esforço de programação ajustável

6
0

Qualquer pessoa que administre um fórum, mercado, aplicativo de mídia social ou plataforma na intranet onde os usuários possam fazer upload de imagens enfrentará, mais cedo ou mais tarde, a questão: como identificar automaticamente imagens que não pertencem a esse lugar para que você possa sinalizá-las imediatamente como problemas?

O termo coletivo para conteúdo problemático é NSFW (Not Save for Work). Na moderação de conteúdo, isso inclui principalmente pornografia e representações sexuais, mas também violência explícita e qualquer coisa que viole os termos de uso da plataforma.

  • Os operadores de sites podem classificar imagens inadequadas (NSFW) localmente usando os pipelines Vision Transformer (ViT) e Vision LLM de dois estágios.
  • O Nível 1 usa um modelo de transformador de visão rápida que classifica de 85 a 95 por cento das imagens em milissegundos.
  • A Fase 2 analisa casos extremos com Ollama e Qwen3.5.
  • O pipeline é implementado em Elixir com Bumblebee e Nx.
  • As vantagens são a proteção de dados (sem transferência para terceiros países, sem processamento de dados de pedidos) e alta escalabilidade graças ao Erlang VM.

Stefan Wintermeyer é consultor e instrutor em arquitetura de software e sistemas. Foco: Phoenix, Ruby on Rails, Web-Perf, Asterisk/VoIP, IA e programação de agentes, fluxos de trabalho eficazes e padrões de comportamento do usuário.

A solução óbvia é um serviço em nuvem como AWS Recognition ou Google Cloud Vision. Eles funcionam, mas tem um porém: toda imagem que o usuário carrega é enviada para um servidor no exterior, lá analisada – e, dependendo do provedor, armazenada temporariamente ou usada para fins de treinamento. Este é um problema para os operadores conscientes da protecção de dados na UE – processamento de palavras-chave e transferências para países terceiros. Mas também pode ser usado localmente. Qualquer pessoa que tenha instalado o Ollama pode testar imediatamente a detecção do NSFW – basta um comando de terminal:

Este é um exemplo de leitura do artigo heise Plus “Classificação de imagens sem nuvens com esforço de programação ajustável”. Com uma assinatura heise Plus você pode ler todos os artigos.

Fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here