[BibTeX] [RIS]
From n-gram to Attention: How Model Architectures Learn and Propagate Bias in Language Modelin
Art der Publikation: Artikel in einem Konferenzbericht
Zitat: kabir:2025b
Buchtitel: Findings of the Association for Computational Linguistics: EMNLP 2025
Jahr: In Press
URL: https://arxiv.org/abs/2505.123...
Schlagworte:
Autoren Kabir, M.
Tahsin, T.
Ananiadou, S.
Hinzugefügt von: [PRT]
Gesamtbewertung: 0
Anhänge
    Notizen
      Themen