手把手教你使用Python网络爬虫实现邮件定时发送(附源码)

开发 后端
这篇文章主要给大家介绍了使用Python网络爬虫并实现邮件自动定时发送的小项目。实现的主要思路是构造一个爬虫任务。

[[434046]]

大家好,我是Python进阶者。

前言

前几天【冯诚】大佬在群里分享了一个抓取读书目录并实现邮件定时发送的代码,感觉还是蛮不错的,这里分享给大家学习。

一、思路

思路倒是不难,构造一个爬虫任务,抓取某书网站上的目录,之后将获取的内容返回,然后利用Python实现邮件发送的功能,剩下的就是定时任务构建了,下面一起来看看具体的实现过程。

二、具体实现

这里直接丢大佬的代码了,如下所示:

  1. # -*- coding: utf-8 -*- 
  2. import requests, bs4 
  3. import smtplib 
  4. import schedule 
  5. import time 
  6. from bs4 import BeautifulSoup 
  7. from email.mime.text import MIMEText 
  8. from email.header import Header 
  9.  
  10.  
  11. # account = '{0}'.format('发件人qq邮箱'
  12. password = '{0}'.format('qq邮箱授权码'
  13. # receiver = '{0}'.format('收件人163邮箱或者qq邮箱'
  14. account = '{0}'.format('2352180977@qq.com'
  15. password = '{0}'.format('awmowqginzdijg'
  16. receiver = '{0}'.format('2352180977@qq.com'
  17.  
  18.  
  19. # 爬虫任务,获取sobooks网站上的书名和作者,其中页面的话,可以根据自己需求进行修改 
  20. def recipe_spider(): 
  21.     list_all = '' 
  22.     num = 0 
  23.     for a in range(1, 3): 
  24.         n = '{0}{1}'.format('https://sobooks.cc/page/', a) 
  25.         res = requests.get(n) 
  26.         res.encoding = res.apparent_encoding 
  27.         bs = BeautifulSoup(res.text, 'html.parser'
  28. # print(bs) 
  29.      
  30.         books = bs.find_all('h3'
  31.         authors = bs.find_all('p'
  32.          
  33.         for i in range(len(books)): 
  34.             num = num+1 
  35.             book = books[i].text.strip() 
  36.             author = authors[i+1].text.strip() 
  37.         #list_books.append([book,author]) 
  38. #  list_books.append(list_book) 
  39.  
  40.             n = ''
  41.  书名%s: %s,作者: %s 
  42.             ''' % (num, book, author) 
  43.             list_all = list_all + n 
  44.     return list_all 
  45.  
  46.  
  47. # 将获取到的内容发送邮件 
  48. def send_email(list_all): 
  49.     global account, password, receiver 
  50.     mailhost = 'smtp.qq.com' 
  51.     qqmail = smtplib.SMTP() 
  52.     qqmail.connect(mailhost, 25) 
  53.     qqmail.login(account, password
  54.     content = '亲爱的,今天书单' + list_all 
  55.     print(content) 
  56.     message = MIMEText(content, 'plain''utf-8'
  57.     subject = '今天看什么' 
  58.     message['Subject'] = Header(subject, 'utf-8'
  59.     try: 
  60.         qqmail.sendmail(account, receiver, message.as_string()) 
  61.         print('邮件发送成功'
  62.     except
  63.         print('邮件发送失败'
  64.     qqmail.quit() 
  65.  
  66.  
  67. def job(): 
  68.     print('开始一次任务'
  69.     list_all = recipe_spider() 
  70.     send_email(list_all) 
  71.     print('任务完成'
  72.  
  73.  
  74. if __name__ == '__main__'
  75.     # 定时任务,其中0.05是间隔的意思,以分钟为间隔,时间默认是整数。 
  76.     schedule.every(0.05).minutes.do(job) 
  77.     while True
  78.         schedule.run_pending() 
  79.         time.sleep(1) 

程序运行之后,即可实现邮件自动发送了。

稍等片刻,邮件便会自动给你发送过去,下图是邮件通知。

下图是邮件的具体内容:

针对上述代码,你只需要更改三个地方,其一是发件人的qq邮箱,其二是qq邮箱的授权码,其三是收件人的邮箱,如下图红色框框所示。

三、常见问题

在运行过程中小伙伴们应该会经常遇到这个问题,如下图所示。

这个很可能是因为你的邮箱没有填对或者授权码错误,检查下邮箱后缀是否添加或者检查下授权码是否复制完整。

有的小伙伴还不知道qq邮箱授权码怎么获得,这里引导下,首先你得打开自己的qq邮箱,然后点击设置-->账户,如下图所示:

拉到最下方,如下图所示:

点击生成授权码,之后会弹出下图界面:

手机发送“配置邮件客户端”关键字,记得,是“邮件”,而不是“邮箱”,小编之前就是因为发错了字,所以导致没成功,论细心的重要性!发送成功之后,就会弹出下图:

上图左侧中的条框字母部分就是qq邮箱的授权码了,将其复制到代码中进行粘贴即可。

四、总结

我是Python进阶者,这篇文章主要给大家介绍了使用Python网络爬虫并实现邮件自动定时发送的小项目。实现的主要思路是构造一个爬虫任务,抓取某书网站上的目录,之后将获取的内容返回,然后利用Python实现邮件发送的功能,并进行定时任务构建,在最后还给大家例举了常见问题的处理方法。

小伙伴们,快快用实践一下吧!

责任编辑:姜华 来源: Python爬虫与数据挖掘
相关推荐

2020-07-10 08:24:18

Python开发工具

2020-12-08 10:32:15

Python邮件tcp

2018-05-16 15:46:06

Python网络爬虫PhantomJS

2018-05-16 13:50:30

Python网络爬虫Scrapy

2021-04-01 09:02:38

Python小说下载网络爬虫

2018-05-14 15:27:06

Python网络爬虫爬虫架构

2021-07-14 09:00:00

JavaFX开发应用

2018-05-14 16:34:08

Python网络爬虫Scrapy

2018-05-22 15:30:30

Python网络爬虫分布式爬虫

2018-05-22 16:28:46

Python网络爬虫URL去重

2021-03-12 10:01:24

JavaScript 前端表单验证

2020-05-15 08:07:33

JWT登录单点

2023-04-26 12:46:43

DockerSpringKubernetes

2022-12-07 08:42:35

2021-01-30 10:37:18

ScrapyGerapy网络爬虫

2009-11-09 14:57:37

WCF上传文件

2011-01-06 10:39:25

.NET程序打包

2021-09-01 14:49:48

curl2pypython工具

2021-08-02 07:35:19

Nacos配置中心namespace

2020-08-12 09:07:53

Python开发爬虫
点赞
收藏

51CTO技术栈公众号