Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (ACL2023)で気になった論文とそのメモ。 Pre-trained Language Models Can be Fully Zero-Shot Learners Multi-CLS BERT: An Efficient Alternative to Tradition…
引用をストックしました
引用するにはまずログインしてください
引用をストックできませんでした。再度お試しください
限定公開記事のため引用できません。