以下关于词向量说法错误的是哪一项?
(A)BERT与ELMo都可以生成动态词向量。
(B)Word2Vec有两种类型,Skip-gram与CBOW。
(C)原始的Glove方法可以很好的处理未登录词问题。
(D)用fastText获取词向量能够考虑子词级别信息。
参考答案
继续答题:下一题
更多华为MindSpore工程师试题
- 1BiLSTM本质上是一种判别式模型,没有对标签与观测序值之间的联合概率进行建模。
- 2BERT模型中使用了[Mask]标记表示该词为掩码,因此,使用BERT模型进行“预训练-微调”任务时,会出现掩码与原词不一致的问题,可以使用相似词替换的方式来解决该问题。
- 3使用MindSpore中的mindspore.nn.LSTM方法时,若隐藏层维度hidden_size为100,使用双向LSTM,则在输出的output张量中,代表文本数据每个位置输出向量的维度也为100。
- 4一张图片在存放过程中出现了很多小的噪声,或白或黑,对其扫描进行以下哪一个操作的去噪效果最好?
- 5相比于命名实体识别这类任务,将ELMo应用于阅读理解、自动问答任务,哪部分的ELMo词向量权重应该更大?