FinBERT:金融业BERT:加州大学伯克利分校MIDS w266最终项目 源码
FinBERT:针对财务NLP任务的SEC文件进行了预培训 Vinicio DeSola,Kevin Hanna,Pri Nonis 模型重量 出版物 动机 目标1 FinBERT-Prime_128MSL-500K+512MSL-10K vs BERT 比较技术财务句子的LM LM预测准确性 比较类比财务关系 目标2的FinBERT-Prime_128MSL-500K vs FinBERT-Pre2K_128MSL-500K 比较来自2019年财经新闻的Mask LM预测准确性 比较财务关系的类比,衡量理解的转变:1999年与2019年的风险与气候 目标3 FinBERT-Prime_1
用户评论