tokenizer.encode为什么不分词
包含tokenizer.encode为什么不分词的词条
alist小雅替换token如下1首先,我们使用tokenizer的encode方法将句子转换为一个token序列,其中add_special_tokens=False表示不添加特殊的起始和结束标记2然后,我们使用tokenizer的convert_tokens_to_ids方法将新的token转。
日期 2024-03-30 阅 58 tokenizer.encode为什么不分词
1