Vysoký výkon velkých předcvičených jazykových modelů (LLM), jako je BERT (Devlin et al., 2019) na úkoly NLP, vyvolal otázky ohledně jazykových schopností BERT a v tom, jak se liší od lidských. V tomto příspěvku přistupujeme k této otázce zkoumáním znalostí BERT o lexikálních sémantických vztazích.
Zaměřujeme se na hypernymii, vztah "je-a", který spojuje slovo s nadřazenou kategorií. Jednoduše používáme metodiku nabádání zeptejte se BERTe, co je hypernym daného slova.
Zjistili jsme, že v prostředí, kde jsou v šechny hypernymy uhodnutelné pomocí výzvy, BERT zná hypernymy s přesností až 57%. Navíc BERT s výzvou překonává ostatní modely bez dozoru pro hypernomické objevování i v neomezeném scénáři.
Předpovědi a výkon BERT jsou však zapnuty soubor dat obsahující neobvyklé hyponymy a hypernymy naznačují, že jeho znalosti o hypernymii jsou stále omezené.