Skip to content
/ Ha-te Public

Dette repository indeholder kode og modelvægtene til Ha&te algortimen.

License

Notifications You must be signed in to change notification settings

ogtal/Ha-te

Repository files navigation

Ha&te

Dette repository indeholder kode og modelvægtene til Ha&te algortimen. Den er udviklet af Analyse og Tal F.M.B.A. med støtte fra TryghedsFonden.

Algoritmen er designet til at klassificere små tekststykker efter om de indeholder hadfuldt sprog. Den er blevet brugt til at finde hadfuldt sprog i den offentlige debat, et arbejde som man kan læse om her. En let tilgængelig beskrivelse af hvordan algoritmen er blevet til kan findes i denne artikel.

Algortimen er designet til at bruges i kombination med A&ttack algortimen.

Definitioner af anstødeligt og hadfuldt sprog

Algortimen er en binær klassifikationsalgortime der vurdere om et kort tekststykke indholdende et sprogligt angreb er udtryk for hadfuldt sprog eller ej. Den korte definition af hadfuldt sprog er: Angrebet defineres som hadefuldt hvis det indeholder stigmatiserende, nedsættende, krænkende, chikanerende og truende ytringer rettet mod personer eller grupper på baggrund af beskyttede karakteristika

En udvidet definition af hadfuldt sprog og eksempler herpå kan findes i filen definitioner.pdf.

Beskrivelse af algoritmen

Algortimen er trænet vha. et annoteret datasæt med 11.096 tekststykker. Datasættet indeholder 3.106 eksempler på hadfuldt sprog, 2.990 eksempler på anstødeligt sprog og 5.000 eksempler på tekststykker uden sproglige angreb. De sidste to grupper er sat sammen til en klasse. Teksstykkerne er kommentarer og svar afgivet på opslag i en række offentlige Facebook Pages og større grupper. Datasættet er opdelt i et træningsdatasæt (70 %), et evalueringsdatasæt (20 %) og et testdatasæt (10 %).

Trænings- og evalueringsdatasættet blev brugt til at træne og udvælge den bedste kombination af algoritmearkitektur og hyperparametre. Til det brugte vi den højest macro average F1 score. Efter udvælgelsen af den bedste algoritme blev denne testet på testdatasættet.

Den bedste model bruger en dansk electra model som sprogmodel og har et feed forward lag til selve klassificeringen. Se modeldefinitionen i filen model_def.py.

Resultater

Resultaterne for algoritmen på evalueringsdatasættet er:

  • Macro averace F1 score: 0.8171
  • Precision: 0.8198
  • Recall: 0.8145
  • Confusion matrix:
Annoteret ikke-hadfuldt sprog Annoteret hadfuldt sprog
Ikke-hadfuldt sprog iflg. Ha&te 1453 151
Hadfuldt sprog iflg. Ha&te 167 436

Og for testdatasættet:

  • Macro averace F1 score: 0.8097
  • Prevision: 0.8100
  • Recall: 0.8094
  • Confusion matrix:
Annoteret ikke-hadfuldt sprog Annoteret hadfuldt sprog
Ikke-hadfuldt sprog iflg. Ha&te 722 83
Hadfuldt sprog iflg. Ha&te 84 218

Brug af algoritmen

For at gør brug af algortimen skal der først installeres transformers og pytorch:

pip install torch
pip install transformers

Derefter kan modellen bruges tests på enkelte tekststykker ved at køre følgende:

import torch
from transformers import AutoTokenizer
from model_def import ElectraClassifier

text = "Du er et stort fjols"

def load_model():
    model_checkpoint = 'Maltehb/aelaectra-danish-electra-small-cased'
    tokenizer = AutoTokenizer.from_pretrained(model_checkpoint, use_fast=True)

    model = ElectraClassifier(model_checkpoint,2)
    model_path = 'pytorch_model.bin'
    model.load_state_dict(torch.load(model_path, map_location=torch.device('cpu')))

    model.eval()

    return(model, tokenizer)

def make_prediction(text):
    tokenized_text = tokenizer(
        text,
        truncation=True,
        max_length=512,
        padding='max_length',
        return_attention_mask=True,
        return_token_type_ids=False,
        return_tensors='pt',
    )
    input_ids = tokenized_text['input_ids']
    attention_masks = tokenized_text['attention_mask']
    logits = model(input_ids,attention_masks)
    
    logit,preds = torch.max(logits, dim=1)
    return(int(preds))

model, tokenizer = load_model()
text_clf = make_prediction(text)

Hvor make_predition returnere klasse 0 hvis teksten vurderes til ikke at være hadfuldt sprog og klassen 1 hvis teksten vurderes at være hadfuldt sprog.

Funktionerne i data_prep.py kan bruges til at lave batch inferens.

Kontakt

Spørgsmål til indeholder af dette repository kan sendes til:

Tak til:

Projektets annotører

  • Ida Marcher Manøe
  • Julie Enevoldsen
  • Nikolaj Meldgaard Christensen
  • Naja Bau Nielsen

Projektets advisory board

  • Andreas Birkbak, Associat Professor, TANTlab, AAU
  • Bolette Sandford Pedersen, Professor, CenterforSprogteknologi, KU
  • Leon Derczynski, Associate Professor, ComputerScience, ITU
  • Marianne Rathje, Seniorforsker, Dansk Sprognævn
  • Michael Bang Petersen, Professor, Institut for Statskundskab, AU
  • Rasmus Rønlev, Adjunkt, Center for Journalistik, SDU

Vores samarbejdspartnere hos TrygFonden

  • Anders Hede, Forskningschef
  • Christoffer Elbrønd, Projektchef
  • Christian Nørr, Dokumentarist
  • Peter Pilegaard Hansen, Projektchef

Danske Open-source teknologi vi står på skuldrene af

  • The Danish Gigaword Project: Leon Derczynski, Manuel R. Ciosici
  • Ælectra: Malte Højmark-Bertelsen

About

Dette repository indeholder kode og modelvægtene til Ha&te algortimen.

Topics

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages