travahacker
🚀 Deploy inicial: Radar Legislativo LGBTQIA+ - Ensemble Híbrido
3c919fd
raw
history blame
2.54 kB
"""
Teste rápido do modelo e funções principais
"""
from transformers import pipeline
import torch
print("🏳️‍🌈 Testando Radar Social LGBTQIA+ V2.1...\n")
# Teste 1: Carregar modelo
print("1️⃣ Carregando modelo...")
try:
classifier = pipeline(
"text-classification",
model="Veronyka/radar-social-lgbtqia-v2.1",
device=-1 # CPU
)
print(" ✅ Modelo carregado com sucesso!\n")
except Exception as e:
print(f" ❌ Erro: {e}\n")
exit(1)
# Teste 2: Análise de texto conhecido (desfavorável)
print("2️⃣ Testando com PL desfavorável conhecida...")
texto_desfavoravel = "Proíbe o uso de banheiro por pessoas de sexo biologicamente diferente do designado"
resultado = classifier(texto_desfavoravel, truncation=True, max_length=256)
label = resultado[0]['label']
score = resultado[0]['score']
score_odio = 1 - score if label != 'HATE' else score
print(f" Label: {label}")
print(f" Score original: {score:.2%}")
print(f" Score de ódio: {score_odio:.2%}")
print(f" Classificação: {'DESFAVORÁVEL' if score_odio >= 0.5 else 'REVISÃO' if score_odio >= 0.3 else 'FAVORÁVEL'}")
print(" ✅ Teste concluído!\n")
# Teste 3: Análise de texto favorável
print("3️⃣ Testando com PL favorável conhecida...")
texto_favoravel = "Criminaliza a discriminação por orientação sexual e identidade de gênero"
resultado = classifier(texto_favoravel, truncation=True, max_length=256)
label = resultado[0]['label']
score = resultado[0]['score']
score_odio = 1 - score if label != 'HATE' else score
print(f" Label: {label}")
print(f" Score original: {score:.2%}")
print(f" Score de ódio: {score_odio:.2%}")
print(f" Classificação: {'DESFAVORÁVEL' if score_odio >= 0.5 else 'REVISÃO' if score_odio >= 0.3 else 'FAVORÁVEL'}")
print(" ✅ Teste concluído!\n")
# Teste 4: Ementa real do resultados1.md
print("4️⃣ Testando com ementa real...")
ementa_real = "Proíbe a divulgação de 'ideologia de gênero' em escolas públicas e privadas (altera o ECA)"
resultado = classifier(ementa_real, truncation=True, max_length=256)
label = resultado[0]['label']
score = resultado[0]['score']
score_odio = 1 - score if label != 'HATE' else score
print(f" Ementa: '{ementa_real}'")
print(f" Score de ódio: {score_odio:.2%}")
print(f" Classificação: {'DESFAVORÁVEL' if score_odio >= 0.5 else 'REVISÃO' if score_odio >= 0.3 else 'FAVORÁVEL'}")
print(" ✅ Teste concluído!\n")
print("🎉 Todos os testes passaram! O modelo está funcionando.")