国際会議NAACL24の本会議に論文が採択

論文タイトルは「Does Pre-trained Language Model Actually Infer Unseen Links in Knowledge Graph Completion?」です。

知識グラフ補完問題に対して、事前学習済み言語モデル(PLM)を活用する研究が盛んですが、この研究成果では、PLMによる性能向上はデータリークによる可能性があることを指摘しています。

NAISTの坂井さん、上垣外先生、渡辺先生との共同研究成果です。

上部へスクロール