译者 | 布加迪
审校 | 重楼
若要使用Hugging Face的BART模型总结文本,请加载模型和分词器,输入文本,随后模型就会生成简洁的摘要。
BART是一个帮助总结文本的工具。它可以使长文章变得更短,更容易阅读。这有助于你快速找到要点。BART的工作原理是,分析整段文本以理解其上下文。然后,它通过保留重要的部分并删除不太重要的部分来生成摘要。
有了BART,你可以总结文章、报告及其他文本。它侧重于关键信息,以创建清晰简洁的版本。Hugging Face Transformers是一个库,让使用BART变得简单。我们在本文中将介绍如何设置BART和创建摘要。
为什么使用BART总结文本?
BART对于文本总结非常有效,因为它可以:
- 理解上下文:BART可以很好地阅读和理解长文本。它找到要点,做好总结。
- 生成连贯的摘要:BART生成易于阅读的摘要。它保留了重要的细节,删除了不需要的信息。
- 处理各种类型的文本:BART可以总结多种类型的文本,比如新闻文章、研究论文或故事。它很灵活,可以很好地处理不同的内容。
现在不妨看看如何使用BART模型和Hugging Face Transformers来总结文本。
搭建环境
在使用BART模型之前,确保已安装了必要的库。你将需要Hugging Face Transformers库。
加载BART模型
接下来,你需要搭建摘要管道。你可以使用以下代码加载预训练的BART模型:
- summarizer:存储摘要管道的变量。
- pipeline:一个由Hugging Face提供的高级API,便于访问各种模型。
- summarization:指定要执行的任务,即文本摘要。
- model="facebook/ BART -large-cnn":加载BART模型,该模型为总结文本而预先训练。
准备输入文本
接下来,你需要准备想要总结的输入文本。输入文本需要分成更小的部分(名为词元)。
总结文本
要总结文本,只需将input_text传递给summarizer管道。
- max_length:以词元的形式定义生成的总结的最大长度。
- min_length:设置总结的最小长度。这确保总结不会太简短。
- do_sample=False:通过使用贪婪解码而不是采样,确保确定性结果。
这将打印输出输入文本的较短版本。
结论
使用BART模型和Hugging Face Transformers是一种总结文本的简洁方法。你可以快速设置它,并开始总结,只需几个简单的步骤。首先,加载预训练的模型和分词器,然后输入文本,模型将制作更简短的版本。这可以节省时间,并帮助你查看重要的细节。现在就开始使用BART,让文本总结简单又快速!
原文标题:How to Summarize Texts Using the BART Model with Hugging Face Transformers,作者:Jayita Gulati