BERT
SsciBERT: 面向社会科学文本的预训练语言模型
·2922 words·6 mins
SsciBERT 是一个针对社会科学文本的预训练语言模型,显著提升了社会科学文献的自然语言处理任务表现。
Electra:将文本编码器预训练为判别器而非生成器
·4415 words·9 mins
ELECTRA提出了一种新的预训练任务——替换标记检测,显著提高了自然语言处理任务的效率和性能。
Patentnet: 使用基于深度学习的语言理解进行专利文档的多标签分类
·6274 words·13 mins
本文通过微调预训练语言模型,显著提升了多标签专利分类的性能,XLNet表现最佳。