如何使用BART模型和Hugging Face Transformers总结文本?

译文
人工智能
BART是一个帮助总结文本的工具。它可以使长文章变得更短,更容易阅读。这有助于你快速找到要点。BART的工作原理是,分析整段文本以理解其上下文。然后,它通过保留重要的部分并删除不太重要的部分来生成摘要。

译者 | 布加迪

审校 | 重楼

若要使用Hugging Face的BART模型总结文本,请加载模型和分词器,输入文本,随后模型就会生成简洁的摘要。

BART是一个帮助总结文本的工具。它可以使长文章变得更短,更容易阅读。这有助于你快速找到要点。BART的工作原理是,分析整段文本以理解其上下文。然后,它通过保留重要的部分并删除不太重要的部分来生成摘要。

有了BART,你可以总结文章、报告及其他文本。它侧重于关键信息,以创建清晰简洁的版本。Hugging Face Transformers是一个库,让使用BART变得简单。我们在本文中将介绍如何设置BART和创建摘要。

为什么使用BART总结文本?

BART对于文本总结非常有效,因为它可以:

  • 理解上下文:BART可以很好地阅读和理解长文本。它找到要点,做好总结。
  • 生成连贯的摘要:BART生成易于阅读的摘要。它保留了重要的细节,删除了不需要的信息。
  • 处理各种类型的文本:BART可以总结多种类型的文本,比如新闻文章、研究论文或故事。它很灵活,可以很好地处理不同的内容。

现在不妨看看如何使用BART模型和Hugging Face Transformers来总结文本。

搭建环境

在使用BART模型之前,确保已安装了必要的库。你将需要Hugging Face Transformers库。

pip install transformers

加载BART模型

接下来,你需要搭建摘要管道。你可以使用以下代码加载预训练的BART模型:

from transformers import pipeline
# Load the summarization pipeline with the BART model
summarizer = pipeline("summarization", model="facebook/bart-large-cnn")
  • summarizer:存储摘要管道的变量。
  • pipeline:一个由Hugging Face提供的高级API,便于访问各种模型。
  • summarization:指定要执行的任务,即文本摘要。
  • model="facebook/ BART -large-cnn":加载BART模型,该模型为总结文本而预先训练。

准备输入文本

接下来,你需要准备想要总结的输入文本。输入文本需要分成更小的部分(名为词元)。

input_text = """
Climate change means a long-term change in temperature and weather. It can happen in one place or the whole Earth. Right now, climate change is happening in many areas. It affects nature, water, food, and health. Scientists see changes in the climate over time. Most of these changes are caused by human actions. Activities like burning fossil fuels and cutting down trees lead to climate change. These actions increase greenhouse gases in the air. Greenhouse gases hold heat in the air and make the Earth hotter. This causes global temperatures to rise.
"""

总结文本

要总结文本,只需将input_text传递给summarizer管道。

# Generate the summary
summary = summarizer(input_text, max_length=50, min_length=25, do_sample=False)

# Output the summarized text
print(summary[0]['summary_text'])
  • max_length:以词元的形式定义生成的总结的最大长度。
  • min_length:设置总结的最小长度。这确保总结不会太简短。
  • do_sample=False:通过使用贪婪解码而不是采样,确保确定性结果。

这将打印输出输入文本的较短版本。

Climate change means a long-term change in temperature and weather. Activities like burning fossil fuels and cutting down trees lead to climate change. Greenhouse gases hold heat in the air and make the Earth hotter.

结论

使用BART模型和Hugging Face Transformers是一种总结文本的简洁方法。你可以快速设置它,并开始总结,只需几个简单的步骤。首先,加载预训练的模型和分词器,然后输入文本,模型将制作更简短的版本。这可以节省时间,并帮助你查看重要的细节。现在就开始使用BART,让文本总结简单又快速!

原文标题:How to Summarize Texts Using the BART Model with Hugging Face Transformers,作者:Jayita Gulati

责任编辑:姜华 来源: 51CTO内容精选
相关推荐

2024-09-26 10:42:20

2024-06-21 08:42:54

BERTNLP自然语言处理

2024-11-13 08:34:32

T5聊天机器人大模型

2024-08-28 08:25:25

Python预训练模型情绪数据集

2023-10-08 09:00:00

LLMGitHub人工智能

2022-07-13 16:45:34

​大模型AI微软

2023-12-06 15:40:17

AI

2023-06-09 12:56:17

AlpacaWizardLMVicuna

2024-01-02 09:10:17

k开源数据

2023-03-09 10:30:16

Azure微软机器学习

2024-02-29 16:35:01

StarCoder2大型语言模型人工智能

2023-07-10 14:35:53

2023-11-28 13:53:00

数据模型

2024-05-09 08:11:04

OllamaGo训练文本

2024-05-06 12:22:00

AI训练

2023-02-23 17:51:03

亚马逊云科技AI

2023-06-02 13:55:57

开源AI

2024-01-29 09:33:09

云计算人工智能谷歌云

2023-11-29 11:30:17

PDF语言模型
点赞
收藏

51CTO技术栈公众号