比如用T5模型,训练数据是inputText-outputText格式,预测时do_sample=False
# 预测代码
from transformers import TFAutoModelForSeq2SeqLM
from transformers import AutoTokenizer
checkpoint_local = "./path/"
tokenizer = AutoTokenizer.from_pretrained(checkpoint_local)
model = TFAutoModelForSeq2SeqLM.from_pretrained(checkpoint_local,
本站资源均来自互联网,仅供研究学习,禁止违法使用和商用,产生法律纠纷本站概不负责!如果侵犯了您的权益请与我们联系!
转载请注明出处: 免费源码网-免费的源码资源网站 » 【NLP】提升文本生成多样性的实用方法
发表评论 取消回复